Information

Warum hören wir Ultraschalltöne nicht als Alias-Versionen der Originalsignale?

Warum hören wir Ultraschalltöne nicht als Alias-Versionen der Originalsignale?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Die obere Hörgrenze liegt bei ca. 15 kHz, abhängig vom Alter und anderen Faktoren. Nach den Prinzipien der digitalen Signalverarbeitung würde eine solche Obergrenze bedeuten, dass das Hörsystem mit mindestens 30 kHz oder mehr abtastet.

Angenommen, ein Ultraschallsignal, sagen wir, eine akustische Frequenz von 40 kHz - warum würde ich nichts hören, anstatt dieses Signals mit einer Abtastrate von 30 kHz?


Kurze Antwort
Die Cochlea ist eine tonotopische Karte mit bestimmten physikalisch bestimmten Grenzen, die den wahrgenommenen Frequenzbereich bestimmen. Ultraschallschallwellen haben auf dieser Karte einfach kein Korrelat.

Hintergrund
Die Cochlea ist ein Frequenzanalysator, der im Wesentlichen akustische Frequenzen in eine Ortskarte übersetzt. Hohe Frequenzen werden basal (bis 20 kHz) kodiert, tiefe Frequenzen apikal (bis ca. 20 Hz). Daher ist es so ziemlich ein Fourier-Analysesystem (Abb. 1). Diese Art der Klanganalyse wird als ortskodierende Tonhöhentheorie bezeichnet. Der Ort, an dem eine Frequenz kodiert wird, hängt hauptsächlich von den physikalischen Eigenschaften der Basilarmembran in der Cochlea ab. Jeder Teil reagiert auf eine etwas andere Frequenz als der nächste. Dies wird durch allmähliche Variationen in der Steifigkeit und Breite der Basilarmembran verursacht, neben anderen weniger wichtigen Faktoren wie der Länge der Haarzellen usw. Die spezifischen physikalischen Eigenschaften bestimmen, welche spezifische Resonanzfrequenz ein bestimmter Teil der Basilarmembran hat. Daher werden eingehende Geräusche mit stehenden Wellen zerrissen, wobei jede Frequenz an einer bestimmten Stelle in der Cochlea zu einer stehenden Welle führt.


Abb. 1. Tonotopische Karte des Innenohrs. Quelle: Staatliche Medizinische Universität Ternopil

Die genannten Frequenzen sind physikalische Wellenlängen der in das Außen- und Mittelohr eintretenden akustischen Luftdruckunterschiede. Die Cochlea übersetzt diese in flüssigkeitsbasierte Druckunterschiede. Haarzellen in der Cochlea nehmen diese Flüssigkeitsdruckunterschiede auf und übersetzen sie in Potentialgradientenunterschiede.

Die Abtastrate von Haarzellen ist nahezu unendlich, da sie mit einer kontinuierlichen Membranspannung arbeiten, also analog sind.

Die sekundären Neuronen, die Spiralganglienzellen, übersetzen diese Spannungsunterschiede in Nervenspitzen und leiten sie über den Hörnerv zum Gehirn.

Neurales Spiking folgt den akustischen Frequenzen bis etwa 1 kHz (Frequency follows response). Dieses Phänomen wird als zeitlicher Code des Tonhöhenhörens bezeichnet. Danach führen die feuerfesten Eigenschaften dazu, dass einzelne Fasern nur auf eine in wenigen Wellenlängenperioden brennen. An der oberen Hörgrenze, sagen wir 20 kHz, kann eine Ganglienzelle also nur alle 20 Wellenlängen oder so feuern. Kein Problem, denn das machen viele andere auch. Stochastik bewirkt, dass die Wellenlänge in einer Population von ansprechenden Fasern gut codiert wird. Darüber hinaus enthält der auditive Kortex eine tonotopische Karte, was bedeutet, dass hohe Frequenzen anderswo verarbeitet werden als niedrige Frequenzen. Mit anderen Worten, der Hörnerv muss die ankommende Welle nicht getreu kodieren.

Ein schönes Beispiel in diesem Bereich Cochlea-Implantate; sie stimulieren den Hörnerv mit elektrischen Strömen. Die Position der Elektroden bestimmt die Tonhöhe, nicht ihre Pulsfrequenz (obwohl es einen Einfluss haben kann).

Warum hörst du jetzt keinen Ultraschall? Ganz einfach, weil die Basilarmembran keine Regionen enthält, die für Frequenzen über 20 kHz oder so empfindlich sind. Dies wird als bezeichnet Greenwood-Karte, was von der Art abhängt.


Ich glaube, Sie zitieren Aliasing falsch.

Digitale Akustik wird mathematisch erklärt, Aliasing ist ein mathematisches Konzept. Die Akustik des wirklichen Lebens wird in einem physikalischen Sinne erklärt, der über Reflexion, Absorption, Phasenänderung, harmonische Moden, Gewichte spricht. Die Wahrnehmung von Schall wird als Psychoakustik und kortikale Strukturen und individuelle Nervenimpulserkennungsschwellen diskutiert. Betrachten Sie zum Beispiel die Erklärung der Trommelakustik, sie ist nicht digital und auf keinen physischen Objekten wird das Wort "Aliasing" verwendet: https://en.wikipedia.org/wiki/Vibrations_of_a_circular_membrane

Aliasing bezieht sich auf ein digitales Konzept, bei dem wir Bildschirme in Pixel aufteilen und Sie keine Objekte erkennen können, die schmaler als ein Pixel sind. Eine Welle besteht aus mindestens 2 "/////" Datenpunkten, daher ist ein 2x-Fenster erforderlich, sodass wir 44k CDs haben, um 22Khz-Sounds zu codieren.

Abgesehen von der falschen Verwendung des Begriffs Aliasing gehe ich nur auf diese genaue Frage ein: Warum höre ich nichts anstelle des Signals, das mit einer Abtastrate von 30 kHz aliased ist?

Druckwellen sind kontinuierliche und physikalische Geräusche… Ein kontinuierliches Geräusch oder physikalisches Objekt kann nicht dem digitalen Verzerrungseffekt „Aliasing“ unterliegen, der sich beispielsweise auf die Erzeugung unendlich hoher Frequenzen zwischen zwei abgetasteten Punkten einer Taktrate bezieht…

Da physikalischer Schall kontinuierlich ist, kann er keine Frequenzverzerrung in Bezug auf seine Abtastrate von 15/30 Khz aufweisen, er kann physikalische Objekte, einschließlich anderer Schalldruckwellen, dämpfen und physikalisch mit ihnen reagieren und physikalische Objekte in verschiedenen Bewegungsmodi in Resonanz bringen.

Die Schallerkennung hängt von der physischen Erregung von Haaren und Nerven ab, die eine Erkennungsschwelle überschreiten müssen. Physikalische Objekte haben keine radikalen und ungeraden Anregungsmoden, wenn sie eine zu hohe Frequenz absorbieren, sie können in verschiedenen Moden mitschwingen, aber sie toben wild herum und erzeugen Lautstärke-Clipping und Klangartefakte. Meistens haben sie keine Häufigkeitsgrenze, nach der sie verrückt werden. Das nächste, was Sie seltsamen Frequenzmoden in physischen Objekten erreichen können, ist die Resonanz, bei der sich die Bewegung zu einer hohen kinetischen Bewegung aufbaut, wie dies bei der Tacoma Narrows Bridge der Fall ist. Sie müssen sich dem Ohr als physisches Modell nähern und nicht als digitales. Ich denke an die Resonanzmoden von Strukturen im Ohr, ähnlich einer Gitarrensaite oder eines Gongs, der sich im 3D-Raum bewegt. So bekommt man eine Vorstellung von den Nervensignalen im Ohr: https://www.youtube.com/watch?v=1JE8WduJKV4&t=17s

Fast alle Geräusche, die in einem Ohr wahrgenommen werden, werden durch die Reflexion von ihrer ursprünglichen Form und Quelle verzerrt und dadurch in Hall verschmiert, ähnlich wie Licht, das durch mattierte Fenster fällt.

Menschliche Gehirne und Gewebe sind nicht digital und quantisiert, sie sind nicht einmal analog, sie sind zellulär mit unterschiedlichen Typen/Größen von Rezeptorzellen und Nerven, variabel und organisch. Sie können sie nur dann als Alias ​​bezeichnen, wenn Sie von einer vollkommen gleich großen Zellmatrix im 2D/3D-Muster sprechen, wie etwa Photorezeptoren, außer dass unser Verstand Informationen über Zellskalen ignoriert, die für uns nicht nützlich sind, wie es eine biologische Version von Aliasing wäre.

Wenn Sie die Funktion der Cochlea studieren, werden Sie feststellen, dass sich die Strukturen, Haare und Membranen so stark von einem digitalen Aliasing-Konzept unterscheiden.

Menschliche Ohren sammeln hochfrequente Töne im Gegensatz zu den gewölbten Ohren von Fledermäusen, Katzen und Hunden, die aus steifem Knorpel bestehen, der höhere Frequenzen gut reflektiert, in den Gehörgang. hohe Frequenzen werden von der Haut sehr schnell absorbiert und es braucht spezielle Organe, um sie in steife, mit Haaren ausgekleidete Knorpelkammern zu reflektieren, von denen jeder Teil angepasst ist, um unterschiedliche Frequenzen weiter zu reflektieren und zu absorbieren.

Die Cochlea ist organisch und zellulär und ähnelt mehreren Elektretmikrofonmembranen und Flimmerhärchen, die alle in einem komplexen Organ existieren, das die Schwingungen an die Nerven sendet. Klänge müssen durch Dishing gesammelt und auf leichte und starre Membranen fokussiert werden.

Es gibt sehr viele Artefakte von allen Frequenzen, wenn sie das Ohr erreichen. Die Geräusche werden von verschiedenen Oberflächen reflektiert, obwohl hochfrequente Geräusche leichter absorbieren und daher von der Quelle zum Sensor linearer gehört werden und eine höhere Zeitpräzision und mehr binaurale Präzision aufweisen.

Geräusche werden normalerweise nicht an genau der gleichen Stelle (Punktquellen) erzeugt. Wenn Sie also beispielsweise ein Insekt haben, das hohe Frequenzen erzeugt, erzeugt es eine komplexe Wellenform, die eine große Lufthülle um sich herum anregt, wie beim Fallenlassen 5-10 Steine ​​in etwas Wasser, und die ausgehende Welle wird keine einfache Form sein, sondern eine komplexe Reihe von Phasenwechselwirkungen ähnlich Wasser, die von einem Schwimmer angeregt werden. In diesem Sinne hat es einige Eigenschaften eines Moiré-Musters, aber es ist kein Aliasing, sondern eine komplexe Wellen- und Phasenwechselwirkung.

Ein Aliased-Oszillator hingegen ist ein digitaler Klang, der unendlich hohe Frequenzen enthält, da die digitale Codierung plötzliche Amplitudenänderungen erzwingt, die sich von der Natur unterscheiden, wo Klänge kontinuierlich und nicht diskrete Wertesätze sind.

Wenn sich Schall durch Luft und Fleisch ausbreitet, werden die hohen Frequenzen, die alle reine Sinuswellenkomponenten des Gesamtschalls sind, einfach gemäß komplexen Dämpfungsspektren gedämpft, die den Umgebungsluftbedingungen, dem Einfallswinkel zum reflektierenden und übertragende Ohrvorhöfe.


Ich glaube tatsächlich, dass ich die Antwort heute Morgen verstanden habe. Das biologische Äquivalent von „Sampling“ sollte auf neuronaler Ebene erfolgen, z.B. nach erfolgreicher Transduktion. Da die Eigenschaften der Basilarmembran (z. B. Steifigkeit/Dicke) UND die Übertragungsfunktion der Gehörknöchelchen vor dem Sampling einen hochfrequenten Schall in die Cochlea durchlassen müssen, kann es sein, dass das zu hohe Signal überhaupt nicht dort ankommt.


Schau das Video: Autodesk Alias Rim, Blender Visualisation u0026 Animation (Januar 2023).