"Normale", herkömmliche Subliminals OHNE (!) Ultraschall

  • Trotz intensiver Suche habe ich keine Antwort auf mein Problem gefunden. Vielleicht kann mir jemand von Euch weiterhelfen? Ich suche für Audacity 1.2.6 (und neuere Versionen) eine Möglichkeit, um eine Tonspur an die Lautstärke einer anderen Tonspur so anzupassen, dass danach die Wellenformen/dB Wellenformen beider Tonspuren genau parallel sind (aber nur hinsichtlich der Lautstärke/dB, nicht hinsichtlich der Frequenz oder anderer Parameter) – ähnlich wie bei Edgar Rafts Vocoder (dort werden meines Wissens aber auch andere Parameter geändert). Mit einer solchen Funktion dürfte man „normale“ (herkömmliche) Subliminals herstellen können, die an jeder Stelle einfach nur immer etwas leiser sind als die Musik, die die Botschaften maskiert. Laut meinem Bekannten haben sich diese "normalen", herkömmlichen Subliminals (vorwärts, nicht rückwärts) bereits in wissenschaftlichen Studien als wirksam erwiesen im Gegensatz zu „Silent“ Subliminals (Ultraschall- oder hochfrequenten Subliminals). Ich verwende Audacity 1.2.6, Windows XP Home SP 3.

  • Das Problem ist das Lautstärke und Frequenz nicht voneinander trennbar sind weil verschiedene gleich laute Frequenzen vom Gehirn in unterschiedlicher Lautstärken wahrgenommen werden. Dieser Effekt ist auch noch abhängig davon was zeitlich vor und nach dem jeweiligen Schallereignis passiert, so dass genau genommen nicht einmal Zeit, Lautstärke, und Frequenz unabhängig voneinander analysierbar sind. Was das menschliche Gehirn als "Lautstärke" wahrnimmt ist eine neuronale Illusion, die erst im Gehirn entsteht, und hat reichlich wenig zu tun mit dem elektrischen Signal, das in der Audacity Tonspur dargestellt wird. Das Problem der "automatischen Lautstärkesteuerung" ist bereits seit Anfang der Rundfunktechnik vor ca. hundert Jahren bekannt, eine wirklich funktionierende Lösung gibt bis heute leider nicht.

  • Hallo Edgar, vielen Dank für die wertvolle Antwort. Von meinem Bekannten hatte ich es so verstanden, dass es zum einen die subjektive Lautstärke gibt und zum anderen die objektive. Genau weiß ich das aber nicht mehr. Es war wohl etwas mit dB-A oder so. So ging ich davon aus, dass die äußerlich messbare Lautstärke steuerbar ist, auch wenn diese in uns unterschiedlich laut empfunden wird. Bei einer Beschreibung von WaveLab 6 auf Seite 193 (ftp://ftp.steinberg.de/Downloa…/Docs_Deutsch/WaveLab.pdf) stand, dass es möglich sei, die Lautstärke von Stereokanälen anzugleichen, so hatte ich es zumindest verstanden. Ich dachte, etwas ähnliches wäre auch in Audacity möglich und damit auch für normale Subliminals anwendbar.

  • Die Angleichung von Stereokanälen über den RMS-Wert (wie in der WaveLab Anleitung beschrieben) funktioniert nur wenn beide Kanäle sehr ähnliche Signale enthalten (z.B. eine Aufnahme des gleichen Schallsignals mit einem Stereomikrofon). Wenn beide Kanäle unterschiedliche Signale enthalten (z.B. links Sprache, rechts Musik) dann funktioniert das überhaupt nicht. Der elektrische RMS-Wert entspricht ungefähr der mechanischen Energie der Luftdruckschwankung des originalen Schallsignals. Dieser Wert hat aber wiederum recht wenig mit der wahrgenommenen Lautstärke zu tun.


    Das Hauptproblem ist dass das elektrische Signal, das in Audacity (oder einem anderen Audio Editor) als Wellenform zu sehen ist, nur "ungefähr" etwas mit der Lautstärkewahrnehmung im Gehirn zu tun hat. Du musst also bei Tonbearbeitung immer "um die Ecke" arbeiten und mit einem Kopfhörer oder Lautsprechern nachkontrollieren ob der gewünschte Effekt auch wirklich so funktioniert wie du dir das eigentlich vorgestellt hattest, weil es auch nur "ungefähre" mathematische Berechnungsgrundlagen dafür gibt. Das Arbeiten mit elektrischen Signalen ist zwar mittlerweile recht gut erforscht, es gibt aber z.B. so gut wie keine mathematischen Berechnungsmöglichkeiten wie die Wahrnehmung von Schallsignalen im Gehirn funktioniert. Für die Entwicklung der MP3 Audio-Datenkompression waren deshalb z.B. exzessive statistische Hörtests erforderlich, die übrigens bis heute nicht abgeschlossen sind. Das Hören und die Schallwahrnehmung sind nicht bei jedem Mensch gleich.


    Erschwerend kommt hinzu dass das menschliche Gehirn extrem auf die Wahrnehmung menschlicher Sprache selbst im grössten Lärm von klein auf trainiert ist (wir müssen das Verstehen von Sprache als Kleinkinder erst lernen und üben das auch im Erwachsenenalter immer noch jeden Tag, auch wenn wir uns darüber nicht bewusst sind), so dass das "verstecken" von Sprachsignalen in anderen Audiosignalen das schwierigste überhaupt ist. Das Hauptforschungsgebiet in dieser Richtung heisst "Phonetik".


    Also nicht falsch verstehen, ich bin genauso wie du der Meinung dass das "verstecken" von subliminalen Sprachsignalen in anderen Audiosignalen als Endergebnis wahrscheinlich wesentlich besser funktionieren würde als eine Frequenztransformation in den Ultraschallbereich, ich weiss aber dass sich am Thema "Automatische Lautsärkesteuerung, so dass es sich hinterher gut anhört" schon ganze Generationen von Elektrotechnikern und Toningenieuren die Zähne ausgebissen haben und es gibt bis heute keine einzige Maschine die das wirklich überzeugend kann.