Beiträge von angiea

    Okay das letzte Plug-in funktioniert auch.


    Hier unten müsste jetzt auch mal ein Bild dran hängen...


    Soweit so gut. Ich hönnte jetzt immerhin schon mal den maximalen Peak berechnen. Das ist doch schon was.
    Hardware-technisch bin ich noch am rumbasteln. Morgen kommt wahrscheinlich das neue Richtmikrofon und Ende der Woche nochmal ein anderes Gerät mit Verstärker. Und dann noch die Schallschutzbox.


    Mir ist heute aufgefallen, das bei den Messungen mit dem AED im Diagramm manchmal auch das analoge Spannungssignal ausgegeben wird und daran die "Peakanalyse" gemacht wird. Und dann wahrscheinlich erst über ein Macro die dB Werte ausgegeben werden.


    Eine Idee wie ich wieder an mein analoges Signal kommen kann, also visuell, nich anhören :) Wenn ich richtig informiert bin, gibt das Mikrofon ein analoges Spannungssignal an meinen Computer und der AD-Wandler in der Soundkarte digitalisiert das schön. Ich bräuchte also nen DA-Wandler der das wieder rückgängig macht. War das nicht so das diese Umwandler auch "nur" einer mathematischen Formel folgen, bzw. Algorithmus?


    Eine Idee?


    Könntest du mir nochmal beschreiben was das Spektogramm im Tonspurausklappmenu macht/darstellt. Welche Frequenzen werden da über der Zeit dargestellt? Und was ist der unterschied zur FFT? Nur die "Darstellung"? einmal Frequenz-Pegel und einmal Frequenz-Zeit?


    Und dann wird bei den Messungen mit AED ab und an ein Filter verwendet, der die Hintergrundgeräusche usw. herausfiltert (bspw. 1000Hz) Das geht aber auch im Audacity? Bin ich da im Menu "Effekte" -> "Low Pass Filter" zumindest erstmal richtig?


    Fragen über Fragen...

    Ich bin gerade entmutigt...


    Also hab ich jetzt eine ausgelesene Tonspur im Xact die aber eigentlich trotzdem nicht das wiedergibt was ich aufgenommen habe. Selbst bei der Datenausgabe von 1000/Sekunde, habe ich ja immer noch 44,1 Daten die zu einer zusammengefasst werden. Würde ich jetzt höhe und Anzahl der Peaks bestimmen wollen, kann ich das also nicht zuverlässig machen. Ich schätze selbst wenn ich eben von allen Aufnahmen mit 1000 Daten/Sekunde die Tonspur zeichnen lasse, kann ich das ja auch nur bedingt miteinander vergleichen...


    Wie ist das aber dann bei dem AED, wenn der überhaupt erstmal nur aller 0,002 Sekunden (500 pps) misst, wie in der meisten Publikationen?


    Ja ich meinte die Frequenzanalyse im Menupunkt "Analyse" - nach einer ordentlichen Erklärung für diese ganze Geschichte suche ich auch schon länger... :(


    Zur Spektorgramm-Darstellung, das hab ich halbwegs verstanden. Habe auch Literatur (zwar schon älter) bei denen nur die Spektogramme miteinander verglichen wurden.


    Achja, deine akustische Fundgrube hab ich mir auch angesehen (http://www.sengpielaudio.com)... naja. mir fehlen die Grundlagen... Ich muss da noch viel viel viel Zeit und Ausdauer investieren...

    Mir fallen permanent neue Fragen ein...


    Wenn du dann irgendwann keine Lust mehr, gib bescheid :)


    Also...


    1. ich habe in meinem Labor unglaublich viele Störgeräusche die ich nicht ausstellen kann, schon alleine das Geräusch des Texture-Analysers beim "heranfahren" an die Probe ist sehr laut. Jetzt hab ich überlegt "eine Art" Schallschutzbox zu bauen damit nur noch das eigentliche Kacken aufgenommen wird. Da gehört aber einiges dazu, in der Richtung hab ich mich schon informiert und das ist alles sehr sehr aufwendig: doppelwandig, Akustikschaum, weich verbundene Wände durch Federn usw... Könnte ich auch mit Audacity eine reine Aufnahme der Störgeräusche machen und die dann immer von meiner Tonspuren "abziehen"? Würde das etwas bringen? Und wenn ja wie gehts?


    2. Die Frequenzanalyse im Audacity ist ja einstellbar nach verschiedenen Kriterien, das was ich mache (in Anlehnung an die Literatur) ist den Algorithmus auf Spektrum setzen, Funktion: Hanning-Fenster, und logarithmische Darstellung. Soweit so gut... Sehe ich das richtig das bei der Auswahl der Größe 512, 1024, 2048 usw... das alles wieder mit der Genauigkeit zusammenhängt? Also wieviele Daten im Endeffekt zusammengefasst werden (Mittelwert aus 4 oder 8 usw)?


    3. du hast vorn irgendwo geschrieben, das die Umrechung in dB eine Lachnummer wäre wenn man weiß auf was es sich bezieht und was Enfluss hast, kannst du mir das genauer erklären?

    So...


    nun seh ich das meine Original Tonspur im Audacity einen Peak von 0,6 bei 2,9 sekunden oder so hat. Im Xact-Diagramm hab ich bei 2,9 Sekunden auch einen, der aber nur 0,013 (so in der Drehe) ist....


    Warum sind die Werte denn jetzt so niedrig? Prinzipiell passt das schon alles, nur wie kommt der von 0,6 auf 0,013 runter? Was ist welche Einheit und warum?

    Wahnsinn...


    es funktioniert! Super!!! :D
    Danke!Danke!Danke!


    Wenn ich wüsste wie ich hier ein Bild rein bekommen, würde ich dir dieses wundervolle Diagramm ja mal zeigen!!!

    Also es wird ab und an mal eine Zahl so dargestellt. 7.312e-005 So wirds exportiert. wenn ich dann die spalten trennen macht Excel natürlich wieder nur quatsch und schreibt 7.312E005 ... mal schauen wie ich excel das beibringen kann. Glaube nicht das der Fehler beim Plug-in liegt.

    Guten Morgen...


    Also meine Version war 1.3.12... jetzt mit der 1.3.13 funktionierts.
    Die csv. Datei wird geschrieben, ich öffne im Excel, trenne die Daten in zwei Spalten auf (linker Kanal, rechter Kanal)
    Dann trage ich die Zeit dazu ein, wenn ich 200 Daten eingegeben habe von 0,005 s angefangen und runter ziehen bis der Datensatz zu ende ist.


    Soweit super.


    Was mich jetzt wundert ist, warum ich stellenweise Daten drin habe von 6,628250 oder sowas. So das dann natürlich meine Y-Achse im Xact von -10 bis 10 geht. Das ist irgendwie ein Datenübertragungsfehler oder? Eigentlich dürften meine Daten 1 nicht überschreiten und -1 nicht unterschreiten. Zumal im linken Kanal 6,628... steht und im rechten 0,06728...

    Mal noch eine andere Frage:


    Beispielsweise wurde in einer Publikation wieder mit dem AED-System gemessen und mit dem tollen Mikrofon von Bruel&Kjaerl aufgenommen. Und dann wird beschrieben: " The gain of the AED was set at 1" Was ist "gain" Hab das im Audacity auch schon mal irgendwo gesehen...


    Außerdem wurde dann wohl eine Art Kalibrierung vorgenommen mit: "acoustic calibrator type 4231 (94 and 114 dB sound pressure level [SPL], 1000 Hz)" Was bedeutet das? Das die Amplitude -1 = 94 dB und +1 = 114 dB war???

    error: unbound function - GET-ENV
    if continued: try evaluating symbol again
    Function: #<FSubr-OR: #87a5a28>
    Arguments:
    (GET-ENV "HOME")
    (GET-ENV "UserProfile")
    Function: #<FSubr-LET*: #87a3ac8>
    Arguments:
    ((FILE-NAME (FORMAT NIL "~a~a~a" (OR (GET-ENV "HOME") (GET-ENV "UserProfile")) *FILE-SEPARATOR* FILE-NAME)) (FILE-STREAM NIL) (STEP-SIZE (/ *SOUND-SRATE* DATA-RATE)) (LAST-SAMPLE (ROUND LEN)) (BOTH-CHANNELS-P (AND (ARRAYP S) (= MODE 0))) (MESSAGE "Error - Data file not written.~%"))
    (FORMAT T "Filename: ~s~%" FILE-NAME)
    (UNWIND-PROTECT (PROGN (SETQ FILE-STREAM (OPEN FILE-NAME :DIRECTION :OUTPUT)) (SETQ MESSAGE (FORMAT NIL "Error - Invalid data file:~%~a" FILE-NAME)) (WHEN FILE-STREAM (DO* ((CHAN1 0 0) (CHAN2 0 0) (STEP 1 (1+ STEP)) (START 0 END) (END (ROUND STEP-SIZE) (MIN LAST-SAMPLE (ROUND (* STEP-SIZE STEP))))) ((>= START LAST-SAMPLE)) (LET ((SAMPLES (- END START))) (IF (ARRAYP SND) (CASE MODE (0 (SETQ CHAN1 (AVERAGE (AREF SND 0) SAMPLES) CHAN2 (AVERAGE (AREF SND 1) SAMPLES))) (1 (SETQ CHAN1 (AVERAGE (AREF SND 0) SAMPLES))) (2 (SETQ CHAN1 (AVERAGE (AREF SND 1) SAMPLES))) (3 (SETQ CHAN1 (AVERAGE (SCALE 0.5 (SUM (AREF SND 0) (AREF SND 1))) SAMPLES)))) (SETQ CHAN1 (AVERAGE SND SAMPLES)))) (IF BOTH-CHANNELS-P (FORMAT FILE-STREAM "~a,~a~%" CHAN1 CHAN2) (FORMAT FILE-STREAM "~a~%" CHAN1))) (SETQ MESSAGE (FORMAT NIL "Raw data written to file:~%~a" FILE-NAME)))) (WHEN FILE-STREAM (CLOSE FILE-STREAM)))
    Function: #<Closure-WRITE-DATA-FILE: #879eda8>
    Arguments:
    "rohdaten.txt"
    #<Sound: #7890328>
    200
    0
    1>

    Hallo!


    Sorry ich hatte seit gestern abend keine Möglichkeit mehr das alles zu verfolgen.
    Ich schaus mir gleich an und hoffe das es funktioniert!


    Danke erstmal!!!!


    Zu den anderen Dingen später.... :(

    Also ich nehme die Daten ins Xact immer via copy and paste... Sprich ASCII format mit Editor öffnen, würde völlig reichen.


    Das sich der Pegel immer auf irgendwas bezieht, weiß ich. Mir war eben nur nicht ganz klar auf was. Prinzipiell soll meine Arbeit später auch nicht mit anderen verglichen werden die ähnliche Messungen machen (das funktioniert ja ohnehin nicht). Wenn ich aber immer mit dem gleichen Mikrofon (gleicher Abstand zum Objekt), mit meinem PC (gleiche Soundkarte) und Audacity arbeite, kann ich doch zumindest Produkt A mit Produkt B vergleichen. Und das will ich im Endeffekt.


    Danke für die Erklärung der Mikrofonaufnahme, so steht zumindest fest das ich nicht Unsummen in ein anständiges Mikrofon investieren muss. Momentan arbeite ich mit einem stinknormalen Headsetmikrofon, womit ich zumindest erstmal etwas aufnehmen kann. Ein etwas besseres Richtmikrofon soll aber angeschafft werden.


    Zur Auswertung der ganzen Geschichte:


    Das ist mir im Moment noch nicht ganz klar. Es ist so, das einige andere Forschergruppe einen Texture-Analyser mit integriertem Akustikmesssystem verwendet haben. Also alles was ich jetzt versuche zusammenzubasteln, geht dort in einem Programm ohne aufwendiges umrechnen, auswerten oder zusammenschneiden von Tonaufnahmen. Dort werden eben direkt Kraft und Pegel über der Zeit oder dem Weg dargestellt. Dann werden vorzugsweise hinsichtlich der Akustik die Pegel Maxima ausgewertet oder die Anzahl der Peaks. (Gerät nennt sich AED Acoustic Envelope Detector mit der Software Texture Exponent 32, Firma: stable micro systems)


    Wenn ich an die Rohdaten kommen könnte, kann ich das auch machen: das ist das erste Ziel.


    Warum nicht so ein integriertes Gerät angeschaffen? - Kosten im 5 stelligen Bereich.


    Wenn so ein kombiniertes System verwendet wurde, wurde dann anscheinend keine Frequenzanalyse mittels FFT gemacht.
    Andere Studien, die dieses System auch nicht hatten, machen dann eine FFT. Wie genau sie das machen schreiben sie leider nicht alle.


    So und jetzt hörts auf... Ich weiß prinzipiell was die Frequenzanalyse ist und wie mathematisch eine FFT funktioniert. Ich hab das so verstanden das die Tonspur (amplitude-time plot) zerlegt wird in ihre sinusförmigen Bestandteile und sozusagen die "Hauptfrequenzen zerlegt werden" so das ich dann den Pegel einer bestimmten Frequenz auslesen kann.


    Dann heißt es beispielsweise, das besonders knusprige Produkte bei 12 kHz hohe Pegel aufweisen. Dann schau ich mir also die Frequenzanalysen der Probe A,B und C an und sehe im Bereich von 8 bis 12 kHz hat Probe A einen höheren Pegel als Probe B und C, also ist Probe A knuspriger...?!?!


    So hatte ich mir das zumindest vorgestellt, aber mittlerweile bin ich mir nicht mehr sicher ob ich da nicht was falsch verstanden habe. Zum Beispiel wüsste ich gern ob die Dauer der Tonaufnahme, Einfluss auf die Frequenzanalyse hat, was irgendwie unsinnig wäre.
    Und wenn ich im Audacity mehere Tonspuren im selben Projektfenster geöffnet habe, macht er mir die Frequenzanalyse doch über alle Tonspuren, sozusagen als Mittelwert, oder?


    Meine Frequenzanalysen habe ich direkt im Audacity machen lassen, davon die Daten exportiert und mir die ganze Sache im Xact genauer angesehen. So und jetzt: ich höre ganz deutliche Unterschiede aber im Graphen sehe ich keine, bzw. andere. Ich weiß zum Beispiel das Probe A definitiv knackiger und knuspriger ist als Probe B, aber der Graph sagt mir genau das Gegenteil.

    Das hört sich ja klasse an!


    Ja ich werde mit Xact auswerten, das ist der richtige Link.
    Ich vermute aber das Xact mit 176400 Daten ein ganz klein wenig Schwierigkeiten haben könnte. Deshalb wäre so eine Einstellmöglichekeit nicht ganz verkehrt.


    Welche Daten sind denn das im Endeffekt von der Tonspur? Doch die Amplitude über der Zeit oder? Und die Amplitude bezieht sich auf das verwendete Mikrofon sowie auf meine Soundkarte. Wenn ich diese Kennwerte hätte müsste ich doch in dB umrechnen können, was ich dann mit anderen akustischen Messungen von Chips oder so etwas vergleichen könnte, oder?


    Ist das prinzipiell richtig?

    Hallo,


    zu Frage 1:
    Also die Werte der Tonspur die in benötige sind genau 4 sekunden lang. Der Texture-Analyser beginnt mit der Datenaufnahme beim ersten Wiederstand und hat eine Testgeschwindigkeit von 1 mm/s und soll 4 mm lang schneiden --> ergo 4 Sekunden Datenaufnahme von denen ich die Tonspur brauche. Das könnte man aber ggf. noch ändern/erhöhen womit sich die Dauer der Tonaufnahme reduzieren lassen könnte.


    zu Frage 2:
    die versteh ich leider nicht ganz... mit "jeweils mehreren samples" meinst du ja nicht mehrere Aufnahme oder?
    Wenn ich das richtig versteh, meinst du das die 44100 Daten pro Sekunde einer Tonaufnahme quasi zusammengefasst werden und meinetwegen immer 4 Daten als ein punkt ausgegeben werden.. sprich "nur noch" 11025 Daten pro Sekunde.


    Das ginge prinzipiell, da der Texture-Analyser "auch nur" im 0,005 Sekundentakt Daten aufnimmt. Das wären dann gerade mal 200 Daten pro sekunde. wenn ich genau diese 200 Daten der Tonaufnahme hätten, würde das möglicherweise für eine Vergleich schon reichen. (Bessere wäre schon 400 bis 800 Daten)


    Ich kann sehr schwer abschätzen wie sehr das meine ursprüngliche Tonspur verändert.

    Hallo edgar-rft,


    Vielen vielen Dank für deine Hilfe.
    Ich werde mir das Plugin auf jeden Fall ansehen und schauem ob ichs verwenden kann. Momentan kann ich sowieso noch nicht sagen ob mir die Akustikmessungen sinnvolle Ergebniss liefern. Die letzten Auswertung der Frequenzanalysen zeigte keine Unterschiede, wo aber welche sein müssten. Vermutlich weiß ich aber noch zu wenig über Akustik im allgemeinen und Audacity im Besonderen.


    Vielen Dank erstmal!


    Lg