Rohdaten der Tonspur

  • Also es wird ab und an mal eine Zahl so dargestellt. 7.312e-005 So wirds exportiert. wenn ich dann die spalten trennen macht Excel natürlich wieder nur quatsch und schreibt 7.312E005 ... mal schauen wie ich excel das beibringen kann. Glaube nicht das der Fehler beim Plug-in liegt.

  • Zitat

    Also meine Version war 1.3.12... jetzt mit der 1.3.13 funktionierts.


    Es sollte eigentlich mit jeder Version ab Audacity_1.3.11 funktionieren, aber die Windows Versionen sind manchmal etwas hinterher.


    Zitat

    Dann trage ich die Zeit dazu ein, wenn ich 200 Daten eingegeben habe von 0,005 s angefangen und runter ziehen bis der Datensatz zu ende ist.


    Ich könnte die Zeit automatisch mit in die CSV Datei schreiben lassen wenn das für dich einfacher ist.


    Zitat

    Also es wird ab und an mal eine Zahl so dargestellt. 7.312e-005 ... Excel macht natürlich wieder nur quatsch und schreibt 7.312E005


    Das "e" erscheint nur bei winzig kleinen Zahlen, kleiner als 0.000001 (sechs Stellen nach dem Komma, entspricht -120dB). Könnte da vielleicht einfach eine Null ausgegeben werden?

  • Wahnsinn...


    es funktioniert! Super!!! :D
    Danke!Danke!Danke!


    Wenn ich wüsste wie ich hier ein Bild rein bekommen, würde ich dir dieses wundervolle Diagramm ja mal zeigen!!!

  • So...


    nun seh ich das meine Original Tonspur im Audacity einen Peak von 0,6 bei 2,9 sekunden oder so hat. Im Xact-Diagramm hab ich bei 2,9 Sekunden auch einen, der aber nur 0,013 (so in der Drehe) ist....


    Warum sind die Werte denn jetzt so niedrig? Prinzipiell passt das schon alles, nur wie kommt der von 0,6 auf 0,013 runter? Was ist welche Einheit und warum?

  • Mir fallen permanent neue Fragen ein...


    Wenn du dann irgendwann keine Lust mehr, gib bescheid :)


    Also...


    1. ich habe in meinem Labor unglaublich viele Störgeräusche die ich nicht ausstellen kann, schon alleine das Geräusch des Texture-Analysers beim "heranfahren" an die Probe ist sehr laut. Jetzt hab ich überlegt "eine Art" Schallschutzbox zu bauen damit nur noch das eigentliche Kacken aufgenommen wird. Da gehört aber einiges dazu, in der Richtung hab ich mich schon informiert und das ist alles sehr sehr aufwendig: doppelwandig, Akustikschaum, weich verbundene Wände durch Federn usw... Könnte ich auch mit Audacity eine reine Aufnahme der Störgeräusche machen und die dann immer von meiner Tonspuren "abziehen"? Würde das etwas bringen? Und wenn ja wie gehts?


    2. Die Frequenzanalyse im Audacity ist ja einstellbar nach verschiedenen Kriterien, das was ich mache (in Anlehnung an die Literatur) ist den Algorithmus auf Spektrum setzen, Funktion: Hanning-Fenster, und logarithmische Darstellung. Soweit so gut... Sehe ich das richtig das bei der Auswahl der Größe 512, 1024, 2048 usw... das alles wieder mit der Genauigkeit zusammenhängt? Also wieviele Daten im Endeffekt zusammengefasst werden (Mittelwert aus 4 oder 8 usw)?


    3. du hast vorn irgendwo geschrieben, das die Umrechung in dB eine Lachnummer wäre wenn man weiß auf was es sich bezieht und was Enfluss hast, kannst du mir das genauer erklären?

  • Zitat

    Wenn ich wüsste wie ich hier ein Bild rein bekomme ...


    Unter dem Textkasten, wo du die Beiträge schreibst gibt es eine Zeile "Beitragsoptionen", wenn du auf das kleine Dreieck ganz links in der Zeile klickst dann öffnet sich ein zweiter Kasten, wo du Dateien anhängen kannst. Das einfügen eines Bildes direkt in den Text ist nur möglich wenn du das Bild irgendwo hochlädtst und dann einen HTML-Link in den Text einbaust:


    [m]\http://Link-zum-Bild]Text-wie-er-im-Beitrag-erscheinen-soll\[/color][/m]


    Wenn du im Textkasten, wo du die Beiträge schreibst, über dem Textfeld auf "Hilfe" klickst erscheint ein Fenster mit noch mehr Tricks, was du alles in den Text einbauen kannst.


    Zitat

    Original Tonspur: Peak von 0,6 ... Xact-Diagramm: Peak nur 0,013


    Das Plugin macht folgendes:


    * Eine Tonspur mit 44100Hz besteht aus 44100 "Tondaten pro Sekunde"


    Wenn im Plugin eingestellt ist dass eine Datei mit 200 Daten pro Sekunde geschrieben werden soll:


    * Die Tonspur wird in Blöcke mit einer Grösse von jeweils 44100/200=220.5 Tondaten geteilt.


    Weil es "halbe Tondaten" nicht gibt wird die Tonspur in Blöcke mit abwechselnd jeweils 220 bzw. 221 Tondaten geteilt. Block-Anfang und Block- Ende entsprechen immer der jeweils nächsten gerundeten Ganzzahl.


    * Alle Tondaten eines Blocks werden zusammengezählt und durch die Anzahl der Tondaten pro Block geteilt, so entsteht ein linearer Mittelwert.


    * Der Mittelwert wird in die CSV-Datei geschrieben.


    Weil es sowohl positive wie negative Daten in der Tonspur gibt kann es vorkommen, dass wenn ein "Peak" kürzer als ein "Block" ist, der Peak durch die Mittelwertbildung bereits weggerechnet oder kleiner gemacht wird. Je höher der "Daten pro Sekunde" Wert ist, desto mehr Peaks müssten zu sehen sein.


    Bei 200 Daten pro Sekunde und einer Tonspur mit 44100Hz Samplefrequenz entspricht ein "Block":


    * 1 Block = 44100/200 = 220.5 Tondaten [Samples]
    * 1 Block = 1/200 = 0.005 Sekunden


    * 200 Daten pro Sekunde = 200Hz


    Wenn im Plugin eingestellt ist dass eine Datei mit 200 Daten pro Sekunde geschrieben werden soll, dann sind alle Frequenzen der Original-Tonaufnahme oberhalb von 200Hz bereits "weggerechnet". Bei 200 Daten pro Sekunde enthalten die Daten in der CSV-Datei keine zuverlässigen Frequenzdaten mehr oberhalb von 200Hz.


    Bei 44100Hz [= 44100 Tondaten pro Sekunde] entspricht die Dauer eines Datenwerts [= Sample]:


    * 1 Sample = 1/44100 = 0.000022675 Sekunden


    Zitat

    ... Umrechung in dB ...


    Die Amplituden und deziBel Werte der Daten von Tonspuren berechnen sich folgendermassen:


    * deziBel = 20*log10(Amplitude/Referenz)
    * Amlitude = (10^(deziBel/20))*Referenz


    Diese Formeln machen natürlich nur dann einen Sinn wenn bekannt ist was "Referenz" ist.


    Die Formeln sind etwas anders als die Formeln auf der Wikipedia Seite weil die Wikipedia Formeln bezeihen sich auf allgemeine Energie (elektrische Leistung in Watt bzw. akustische Energie in SPL), während die Daten von Mikrofonaufnahmen nur einen "Teil einer Energie" (elektrische Spannung in Volt) darstellen. Der "andere" Teil der Energie (elektrischer Strom in Ampere) spielt bei der Verarbeitung von Mikrofonaufnahmedaten keine Rolle (das hat elektrische, keine akustischen Gründe), was ein weiterer Grund ist warum Tonaufnahmedaten keine genaue Abbildung der realen physikalischen Vorgänge darstellen.


    Mit Nyquist in Audacity gibt es folgenden Trick:


    * Markiere den Teil irgendeiner Tonspur (weil ohne markierte Tonspur kannst du das "Nyquist Eingabeaufforderung" Fenster nicht öffnen).


    * Gehe in Audacity auf "Effekt > Nyquist Eingabeaufforderung", es erscheint ein Fenster mit einem Textfeld.


    Im Textfeld gibst du folgendes ein (oder kopierst einfach den Text von hier in das Fenster rein).


    Einen Amplituden-Wert von 0.5 in deziBel umrechnen:


    [m](print (linear-to-db 0.5))[/m]


    Einen deziBel Wert von -6 dB in eine lineare Amplitude umrechnen:


    [m](print (db-to-linear -6))[/m]


    Wenn du auf "OK" klickst verschwindet das grosse Fenster und es erscheint ein kleineres Fenster mit dem Ergebnis.


    Zitat

    unglaublich viele Störgeräusche ... Könnte ich auch mit Audacity eine reine Aufnahme der Störgeräusche machen und die dann immer von meiner Tonspuren "abziehen"? Würde das etwas bringen?


    Kurze Antwort: Nein - [die wirkliche Erklärung warum nicht hat sehr viele Gründe und ist sehr lang]. Die einzige Möglichkeit ist die Störgeräusche vom Mikrofon wegzuhalten so weit es geht. Jede nachträgliche Veränderung der Aufnahmedaten (dazu gehören auch elektronische Filter im Mikrofonvorverstärker) verschlechtern die Messergebnisse erheblich. Eine nachträgliche, vermeintliche "Verbesserung" der Störgeräusche bedeutet eine nicht wieder rückgängig machbare Verfälschung der Messdaten. Eine sinvolle Auswertung der Messdaten kannst du hinterher vergessen.


    Zitat

    Die Frequenzanalyse im Audacity ist ja einstellbar nach verschiedenen Kriterien...


    Um welche "Frequenzanalyse" geht es genau?


    * Die"Frequenzanalyse" im Audacity "Analyse" Menü ist für das, was du machen möchtest zu ungenau weil die analysierten "Datenblöcke" zu gross sind. Die "Grösse" (Auswahlliste unter dem Bild) entspricht der Grösse eines "Blocks" (im Plugin oben). Die "Daten pro Sekunde" sind die Samplefrequenz der Tonspur geteilt durch die "Grösse" (unter dem Bild), also z.B. 44100/128=344.5312 "Daten pro Sekunde". Als "Algorithmus" muss für eine FFT-Analyse "Spektrum" eingestellt sein, die Fenster-Funktionen legen fest ob für die Analyse eine möglichst genaue Frequenzauflösung oder eine möglichst gute Nachbarkanalunterdrückung wichtiger ist. Beides gleichzeitig, also hohe Frequenzauflösung und gleichzeitig gute Nachbarkanalunterdrückung ist nicht möglich.


    * Fenster-Funktionen siehe: http://de.wikipedia.org/wiki/Fensterfunktion - das "Hanning" Fenster (richtig eigentlich "von Hann" Fenster) ist der meiner Meinung nach beste Kompromiss zwischen mathematischem Aufwand und qualitiativ brauchbarem Endergebnis weil es auf einer ganz normalen trigonometrischen Cosinusberechnung beruht.


    * Oder geht es um die "Spektrum" Frequenzanalyse direkt im Spurausklappmenü der Tonspur?


    Ich muss mal suchen ob ich irgendwo eine einigermassen verständliche Beschreibung der für Audioanalyse wichtigen FFT-Parameter finden kann. FFT-Beschreibungen sind meist Bücher von mehreren hundert Seiten, wobei für Audionanalyse aber nur ein sehr geringer Bruchteil wirklich gebraucht wird. Ich würde immer noch gerne ein Plugin schreiben, das z.B. die Werte von 200 kompletten FFT-Analysen pro Sekunde gleich als fertige CSV-Datei ausgibt, das wurde nämlich schon sehr oft gefragt, aber wie du wahrscheinlich bereits selber festgestellt hast findest du da den Wald vor lauter Mathematik-Kram nicht.

  • Ich bin gerade entmutigt...


    Also hab ich jetzt eine ausgelesene Tonspur im Xact die aber eigentlich trotzdem nicht das wiedergibt was ich aufgenommen habe. Selbst bei der Datenausgabe von 1000/Sekunde, habe ich ja immer noch 44,1 Daten die zu einer zusammengefasst werden. Würde ich jetzt höhe und Anzahl der Peaks bestimmen wollen, kann ich das also nicht zuverlässig machen. Ich schätze selbst wenn ich eben von allen Aufnahmen mit 1000 Daten/Sekunde die Tonspur zeichnen lasse, kann ich das ja auch nur bedingt miteinander vergleichen...


    Wie ist das aber dann bei dem AED, wenn der überhaupt erstmal nur aller 0,002 Sekunden (500 pps) misst, wie in der meisten Publikationen?


    Ja ich meinte die Frequenzanalyse im Menupunkt "Analyse" - nach einer ordentlichen Erklärung für diese ganze Geschichte suche ich auch schon länger... :(


    Zur Spektorgramm-Darstellung, das hab ich halbwegs verstanden. Habe auch Literatur (zwar schon älter) bei denen nur die Spektogramme miteinander verglichen wurden.


    Achja, deine akustische Fundgrube hab ich mir auch angesehen (http://www.sengpielaudio.com)... naja. mir fehlen die Grundlagen... Ich muss da noch viel viel viel Zeit und Ausdauer investieren...

  • Zitat

    Selbst bei der Datenausgabe von 1000/Sekunde, habe ich ja immer noch 44,1 Daten die zu einer zusammengefasst werden. Würde ich jetzt Höhe und Anzahl der Peaks bestimmen wollen, kann ich das also nicht zuverlässig machen.


    Alles was mit "zuverlässig" zu tun hat kann nur mit der Originaldatenrate von 44100 Daten pro Sekunde gemacht werden. Für eine zuverlässige 12kHz-Analyse sind 44100 Daten pro Sekunde sogar viel zu wenig.


    Zitat

    Wie ist das aber dann bei dem AED, wenn der überhaupt erstmal nur aller 0,002 Sekunden (500 pps) misst?


    Da werden die Tondaten intern auch mit extrem hohen Datenraten aufgenommen und berechnet, mit Sicherheit mehr als 44100 Daten pro Sekunde. Das Programm für die Analyse ist meist auch direkt im Signalprozessor gespeichert, der die Tondaten analysiert, was nochmal um ein vielfaches schneller geht als mit einem Standard Computer und einem Tonbearbeitungsprogramm.


    Der Hauptknackpunkt einer jeden Audio Datenanalyse (egal ob Amplitudenwerte oder FFT) liegt darin zu entscheiden was ganz am Anfang analysiert und dabei aussortiert werden soll. Die Analyse (das Aussortieren) muss mit der maximal möglichen Datenrate erfolgen, nur dann können einigermassen sinnvolle Ergebnisse dabei herauskommen. Die Ergebnisse dieser Analyse haben dann meist eine sehr viel niedrigere Datenrate (200 Daten pro Sekunde oder ähnlich) weil eben viele Daten zu "Blöcken" zusammengefasst werden, wobei jeder "Block" dann entweder nur ein Ergebnis (z.B. Amplitudenvergleich) oder mehrere Ergebnisse (FFT) erzeugt.


    Das Problem bei jeder Art von Analyse ist dass mit den Ergebnissen (niedrige Datenrate) in so gut wie keinem Fall das Original (hohe Datenrate) wieder zuverlässig zurück rekonstruiert werden kann. Die eigentliche Analyse muss deshalb immer mit der höchstmöglichen Datenrate erfolgen.


    Tabellenkalkulationsprogramme sind für solch hohe Datenraten nicht geeignet, in den meisten Fällen muss ein spezielles Programm dafür geschrieben werden. In Audacity haben wir das Glück, dass eine Programmiersprache für Tondatenbearbeitung (Nyquist) bereits eingebaut ist, es muss dann aber wieder für jede Art von Analyse ein eigenes Plugin geschrieben werden, weil die Analyse selbt während der Umwandlung der Tonspur in die CSV-Datei mit den Ergebnissen erfolgen muss.


    Du kannst ja mal im Plugin mit der Tastatur 44100 Daten pro Sekunde reinschreiben, das Plugin erzeugt dann eine CSV-Datei mit allen Samples als einzelne Werten. Dann kannst du zumindest mal ausprobieren ob Xact oder Excel damit klarkommen.


    Zitat

    Ich muss da noch viel viel viel Zeit und Ausdauer investieren...


    Damit du keine Nervenkriese bekommst: ich bin 46 Jahre alt, ich habe mit 12 Jahren angefangen und dann ungefähr 20 Jahre gebraucht bis ich es einigermassen verstanden hatte. Ich habe zwischendrin mindestens hundert mal aufgegeben und dann doch wieder weitergemacht. Du hast dir sehr viel vorgenommen und bist in sehr kurzer Zeit schon sehr viel weiter gekommen als die meisten anderen hier im Forum, die nach ähnlichen Sachen gefragt haben.


    P.S.: ich habe noch nicht aufgegeben an einem FFT-Plugin zu schreiben, aber auch für mich ist das mit sehr viel Bücherlesen verbunden, ich schüttele das auch nicht gerade so mal aus dem Ärmel. :)

  • Also wenn's für's erste was hilft: hier unten klebt ein "Alle Rohdaten exportieren" Plugin dran, das automatisch *alle* Samples des markierten Teils einer Tonspur in eine CSV-Datei schreibt. Es sollte etwas schneller funktionieren als das "Rohdaten exportieren" Plugin, und du brauchst auch nichts mit der Tastatur in ein Textfeld reinzuschreiben.


    Der Dateiname und der Plugin-Name sind anders als beim alten Plugin, so dass beide Plugins gleichzeitig installiert sein können.


    * Analyse > Rohdaten exportieren - [alt]
    * Analyse > Alle Rohdaten exportieren - [neu]


    Ich muss jetzt allerdings weg und bin wahrscheinlich heute abend erst wieder da...

  • Okay das letzte Plug-in funktioniert auch.


    Hier unten müsste jetzt auch mal ein Bild dran hängen...


    Soweit so gut. Ich hönnte jetzt immerhin schon mal den maximalen Peak berechnen. Das ist doch schon was.
    Hardware-technisch bin ich noch am rumbasteln. Morgen kommt wahrscheinlich das neue Richtmikrofon und Ende der Woche nochmal ein anderes Gerät mit Verstärker. Und dann noch die Schallschutzbox.


    Mir ist heute aufgefallen, das bei den Messungen mit dem AED im Diagramm manchmal auch das analoge Spannungssignal ausgegeben wird und daran die "Peakanalyse" gemacht wird. Und dann wahrscheinlich erst über ein Macro die dB Werte ausgegeben werden.


    Eine Idee wie ich wieder an mein analoges Signal kommen kann, also visuell, nich anhören :) Wenn ich richtig informiert bin, gibt das Mikrofon ein analoges Spannungssignal an meinen Computer und der AD-Wandler in der Soundkarte digitalisiert das schön. Ich bräuchte also nen DA-Wandler der das wieder rückgängig macht. War das nicht so das diese Umwandler auch "nur" einer mathematischen Formel folgen, bzw. Algorithmus?


    Eine Idee?


    Könntest du mir nochmal beschreiben was das Spektogramm im Tonspurausklappmenu macht/darstellt. Welche Frequenzen werden da über der Zeit dargestellt? Und was ist der unterschied zur FFT? Nur die "Darstellung"? einmal Frequenz-Pegel und einmal Frequenz-Zeit?


    Und dann wird bei den Messungen mit AED ab und an ein Filter verwendet, der die Hintergrundgeräusche usw. herausfiltert (bspw. 1000Hz) Das geht aber auch im Audacity? Bin ich da im Menu "Effekte" -> "Low Pass Filter" zumindest erstmal richtig?


    Fragen über Fragen...

  • Zitat

    Eine Idee wie ich wieder an mein analoges Signal kommen kann?


    An das wirkliche Analogsignal kommst du überhaupt nicht mehr ran nachdem es von der Soundkarte in 44100 Daten pro Sekunde "zerhackt" wurde. Der D/A-Wandler einer Soundkarte macht bei der Wiedergabe nichts anderes als ein Treppensignal mit 44100 Daten pro Sekunde auszugeben. Danach folgt dann ein analoges "Antialiasing" Filter, das den Nebeneffekt hat dass die Treppe in ein annähernd lineares Analogsignal interpoliert wird. Dieses Signal entspricht dem originalen Analogsignal (bei der Aufnahme vor dem A/D-Wandler) aber nur annähernd. Genauer als 44100 Daten pro Sekunde lässt sich das Originalsignal nicht mehr rekonstruieren.


    Die maximal höchste auf diese Art übertragbare Frequenz berechnet sich nach dem Nyquist/Shannon Abtasttheorem aus der Samplefrequenz der A/D und D/A Wandler:


    * maximal übertragbare Frequenz = Samplefrequenz/2 = 44100/2 = 22050Hz


    Das ist aber wichtig zu wissen dass eine Sinusschwingung von 22050Hz am Ende nur noch als Rechteck bzw. nach dem Antialiasing Filter als Dreieck herauskommt weil die gesamte Kurve nur noch aus zwei einzelnen Datenpunkten besteht. Bei einer FFT-Analyse einer solchen 22050Hz "Sinus"-Schwingung besteht das Ergebnis bereits mindestens zu 50% nur noch aus Übertragungsfehlern (ein Rechteck oder Dreieck ist kein Sinus).


    Wellenform berechnen:


    Ein Audioeditor wie z.B. Audacity macht bei der Wellenformanzeige eigentlich nichts anderes als das der "Daten pro Sekunde" Regler im "Rohdaten exportieren" Plugin. Du musst eigentlich nur wissen wie viele Punkte auf dem Bildschirm (oder Papier) von links nach rechts dargestellt werden sollen, und wie lange die Zeitdifferenz vom ersten Punkt ganz links bis zum letzten Punkt ganz rechts im Messignal ist und mit welcher Datenrate [Samplefrequenz] die Tondaten aufgenommen wurden.


    Der Rest funktioniert folgendermassen:


    * 1 Hertz = 1/(1 Sekunde) - [Grundschulweisheit aus dem Physikunterricht]
    * Sekunden_pro_Bildpunkt = (Zeit_am_Ende - Zeit_am_Anfang) / Bildpunkte
    * Tondaten_pro_Bildpunkt = Samplefrequenz * Sekunden_pro_Bildpunkt


    Dabei musst du darauf achten dass "Tondaten_pro_Bildpunkt" eine Ganzzahl [integer] ist und keine Nachkommastellen enthalten kann. Um das zu erreichen gibt es zwei Möglichkeiten:


    * Einfacher: berechne die "Tondaten_pro_Bildpunkt" für jeden Bildpunkt neu und runde das Ergebnis zur nächstgelegenen Ganzzahl. Das ist immer die selbe Zahl +/- 1 Sample.


    * Genauer: interpoliere für jeden Bildpunkt aus den zwei nächstgelegenen Tondaten [Samples] am Anfang und am Ende einen Zwischenwert. Dieser Aufwand ist aber meist gar nicht notwendig.


    Ein Ausnahmefall entsteht wenn die Tonspur so stark vergrössert wird, dass die einzelnen Tondaten mehrere Bildpunkte auseinanderliegen. In diesem Fall müssen die Bildpunkte aus den jeweils nächstliegenden Tondaten interpoliert werden. Dieser Fall dürfte bei dir aber nicht eintreten. Beispiel: Wenn du sehr weit in eine Audacity Tonspur hineinzoomst erscheinen "dicke Punkte" [Samples] mit "Verbindungslinien", das ist das was ich mit "Bildpunkte interpolieren" meine.


    Die einzelnen Bildpunkte werden dann folgendermassen berechnet:


    * Mittelwert: zähle alle Tondaten pro Bildpunkt zusammen und teile das Ergebnis durch die Anzahl der Tondaten pro Bildpunkt (die "Tondaten_pro_Bildpunkt" Zahl von oben).


    * Peak: du brauchst zwei Variablen, eine für die grösste positive Zahl und eine für die grösste negative Zahl.


    ** Speichere den Wert des ersten Samples in der Variablen des jeweilgen Vorzeichens. Wenn der Wert positiv ist dann speicherst du ihn in der Variable für die grösste positive Zahl, wenn der Wert negativ ist dann speichest du ihn in der Variable für die grösste negative Zahl.


    ** Lies den Wert des nächsten Samples und vergleiche ihn mit dem in der Variable des jeweiligen Vorzeichens gespeicherten Wert. Wenn der Wert des aktuellen Samples grösser ist als der Wert in der Variable, dann ersetze den Wert der Variable mit dem Wert des aktuellen Samples. Wenn der Wert des aktuellen Samples kleiner oder gleich dem in der Variable gespeicherten Wert ist lass den Wert in der Variable wie er ist.


    ** Den zweiten Schritt wiederholst du mit allen Tondaten [Samples] für den jeweiligen Bildpunkt. Am Ende enthalten beide Variablen den jeweils grössten positiven bzw. grössten negativen vorgekommenen Wert. Es gewinnt der Wert, der weiter von Null entfernt ist..


    Zitat

    Könntest du mir nochmal beschreiben was das Spektogramm im Tonspurausklappmenu macht/darstellt.


    Antwort ist sehr lang und kommt später.


    Zitat

    Und dann wird bei den Messungen mit AED ab und an ein Filter verwendet, der die Hintergrundgeräusche usw. herausfiltert (bspw. 1000Hz) Das geht aber auch im Audacity?


    Um diese Frage zu beantworten bräuchte ich den Programmcode der Filter im AED. Ich glaube aber nicht dass wir den bekommen werden. "1000Hz" ist nur ein sehr geringer Bruchteil der Informationen, die dafür gebraucht werden.


    Zitat

    Bin ich da im Menu "Effekte" -> "Low Pass Filter" zumindest erstmal richtig?


    Vergiss es, die in Audacity eingebauten Standard-Filter sind dafür zu schlecht. Um Störgeräusche unterdrücken zu können muss für jedes Gerät (und jedes Mikrofon) ein eigener Filter programmiert werden

  • Was mir gerade einfällt wo ich mir dein Bild anschaue: es wäre natürlich auch möglich ein "Rohdaten exportieren" Plugin mit "Daten pro Sekunde" Regler zu schreiben, dass den Spitzenwert eines jeden Datenblocks anstelle des Mittelwerts ausgibt. Würde das vielleicht was helfen?

  • Was auf die Schnelle machbar war...


    Das neue "Rohdaten exportieren" Plugin hat eine weitere Auswahlliste "Berechnung":


    * Spitze (+/-) - schreibt den jeweils höchsten positiven oder negativen Spitzenwert eines Datenblocks in die CSV-Datei (so wie oben beschrieben).


    * Spitze (abs) - schreibt den höchsten positiven oder negativen Spitzenwert eines Datenblocks als positive Zahl (grösser oder gleich Null) in die CSV-Datei, auch wenn die Spitze negativ war.


    * Mittelwert - ist die alte Mittelwert Berechnung.


    Mit "Spitze (abs)" können Spitzenwerte von "Lautstärken" miteinander verglichen werden. Bei der Lautstärkewahrnehmung im Ohr und dem Gehirn ist es egal ob eine Spitze positiv oder negativ ist, es zählt dabei nur die Zahl, nicht das Vorzeichen.


    Alles andere funktioniert genauso wie vorher, FFT kommt noch...

  • Erster Versuch einer Erklärung...


    "Analyse > Frequenzanalyse" und "Spurausklappmenü > Spektrum" basieren beide auf der gleichen mathematischen FFT-Analyse und sind lediglich verschiedene Arten der Darstellung. Während bei "Analyse > Frequenzanalyse" nur eine einzige FFT-Analyse von links (tiefe Frequenzen) nach rechts (hohe Frequenzen) dargestellt wird, werden bei der "Spektrum" Darstellung einer Tonspur sehr viele FFT-Analysen pro Sekunde nebeneinander von unten (tiefe Frequenzen) nach oben (hohe Frequenzen) dargestellt.


    * http://de.wikipedia.org/wiki/Spektrogramm


    Vorwort - die übliche Geschichte:


    Auch bei der FFT-Analyse werden immer mehrere Samples zu einem "Block" zusammengefasst, schon allein deshalb weil ein einzelnes Sample nur eine Amplitude, aber keine Frequenz hat. Die Frequequenz ist die Anzahl der Schwingungen pro Sekunde und für eine "Schwingung" braucht es immer mehrere Samples. Ein einzelnes Sample kann nicht schwingen.


    Bei der FFT-Analyse haben alle "Blöcke" die gleiche Grösse und heissen nicht "Blöcke" sondern "Fenster". Gemeint ist aber genau das selbe.


    Bearbeiten > Einstellungen > Spektrogramme > FFT-Fenster


    * Fenstergrösse: die Anzahl an Tondaten [Samples] pro Fenster.


    * Fensterfunktion: "Hanning" ist für Audioanalyse der beste Kompromiss zwischen Störsignalunterdrückung und Verfälschung der Messergebnisse durch zu viel Herumfilterei.


    Ein typisches Paradoxon der Tonbearbeitung ist es, dass eine vermeintliche "Verbesserung" des Tonsignals durch Wegfiltern von Störgeräuschen das Tonsignal meist verschlechtert statt verbessert.


    Bearbeiten > Einstellungen > Spektrogramme > Anzeigen


    * Untere Grenzfrequenz (Hz) - die tiefste Frequenz in Hertz, die an der Unterkante der Tonspur noch zu sehen sein soll.


    * Obere Grenzfrequenz (Hz) - die höchste Frequenz in Hertz, die an der Oberkante der Tonspur noch zu sehen sein soll.


    * Anhebung (dB) - wenn ich ehrlich sein soll dann weiss ich nicht genau was hier eingestellt wird.


    * Bereich (dB) - alles unter "Vollaussteuerung minus soundso viel dB" wird ignoriert. Das ist so eine Art Störsignalunterdrückung für Hintergrundgeräusche.


    * Frequenzanhebung (db/dec) - das ist ein Hochpass Filter mit "soundso viel dB pro Dekade". Ich habe keine Ahnung für was das gut sein soll.


    Wichtig:


    Die untere Grenzfrequenz ist physikalisch einzig und allein abhängig von der Samplefrequenz der Tonspur und der FFT-Fenstergrösse:


    Untere Grenzfrequenz = Samplefrequenz / Fenstergrösse


    * Wenn als "Untere Grenzfrequenz" ein niedrigerer Wert eingestellt ist dann wird unterhalb der Grenzfrequenz aus Samplefrequenz und Fenstergrösse nichts angezeigt.


    * Wenn als "Obere Grenzfrequenz" ein niedrigerer Wert als die untere Grenzfrequenz aus Samplefrequenz und Fenstergrösse eingestellt ist dann wird nur Unsinn angezeigt.


    Die untere Grenzfrequenz aus Samplefrequenz und Fenstergrösse ist gleichzeitig die Datenrate der "Spektrum" Darstellung der Tonspur:


    FFT-Analysen pro Sekunde = Samplefrequenz / Fenstergrösse


    Typische FFT-Probleme: Wenn sehr tiefe Frequenzen analysiert werden sollen muss die "Fenstergrösse" sehr gross sein, was gleichzeitig die zeitliche Auflösung verringert (weniger FFT-Analysen pro Sekunde). Je mehr FFT-Analysen pro Sekunde dargestellt werden sollen, desto höher wird die unterste noch analysierbare Tonfrequenz.


    Die obere Grenzfrequenz ist physikalisch einzig und allein abhängig von der Samplefrequenz der Tonspur:


    Obere Grenzfrequenz = Samplefrequenz / 2


    * Wenn als "Obere Grenzfrequenz" ein höherer Wert eingestellt ist dann wird oberhalb von Samplefrequenz/2 nichts angezeigt.


    * Wenn als "Untere Grenzfrequenz" ein höherer Wert als Samplefrequenz/2 eingestellt ist dann wird nur Unsinn angezeigt.


    Wahrscheinlich fehlt immer noch mindestens die Hälfte aller Erklärungen...