Tonhaltedauer - Sprachanalyse

  • Hallo nochmals!
    Hier ist eine Aufgabe zur Tonhaltedauer (Mass für glottale Effizienz):


    Der Patient wird aufgefordert, den Vokal „a“ möglichst lange zu halten, nach einem natürlichen, unforcierten Atemzug mit selbstgewählter Tonhöhe, ohne diesen zu Variieren.
    aaaaaaaaaaaaaaa.....


    Zunächst ging es wie gesagt nur um Haltedauer. Zeit habe ich gemessen aber das scheint mir zu wenig zu sein! Wenn man sich Spurmuster anschaut:


    Ataxie Patienten:


    Beispiel_1
    [Blocked Image: http://lesnoj.de/Bilder/Bild_1.jpg]
    Beispiel_2
    [Blocked Image: http://lesnoj.de/Bilder/Bild_2.jpg]
    Beispiel_3
    [Blocked Image: http://lesnoj.de/Bilder/Bild_3.jpg]


    Gesund (bzw. ich hoffe, da Aufnahme von mir):


    [Blocked Image: http://lesnoj.de/Bilder/Bild_4.jpg]


    Dann sieht man schon rein Optisch ein Unterschied!
    Doch wie kann ich diesen Unterschied mit Zahlen erfassen?!


    Meine Überlegungen waren Frequenzvariation bzw. pro Halbwertszeit o.ä. aber das scheint mir nicht besonders aussagekräftig zu sein!


    Hat jemand vielleicht eine gute Idee was ich hier Messen kann und vor allem wie?

  • Sorry, ich habe mich vertan!
    Ich wollte diesen Beitrag in der Thema "Sprechanalyse" erstellen (habe mich anscheinend vertippt).
    Eine Bitte an Admin:
    Diesen Beitrag bitte in "Sprechanalyse" verschieben oder wenn es nicht anders geht , löschen!


    Es tut mir leid für Umstände!

  • Der Markus (Admin) ist gerade nicht da, ich habe mal einen Hinweis auf diesen Thread ans Ende der alten Diskussion geschrieben: http://www.audacity-forum.de/post/12931


    Wenn ich das richtig verstanden habe ist das Problem, dass Lautstärke-Einbrüche z.B. in Beispiel_1 und in der in der zweiten Hälfte von Beispiel_3 als 'ein Ton' und nicht als 'mehrere Segmente' erkannt werden sollen.


    Frage: gibt es eine Möglichkeit, das eventuell mit der Tonhöhe in Zusammenhang zu bringen? (wahrscheinlich eher nicht und wenn ja, dann nicht bei *allen* Patienten)


    Ich muss mal im Lauf des Tages schauen ob sich das vielleicht über den 'relativen' Anstieg und Abfall der Lautstärke irgendwie lösen lässt (wie ich es ein paar Wochen zuvor schonmal angekündigt hatte), ich habe aber noch keine Ahnung, was dabei rauskommt...

  • Quote from edgar-rft

    Wenn ich das richtig verstanden habe ist das Problem, dass Lautstärke-Einbrüche z.B. in Beispiel_1 und in der in der zweiten Hälfte von Beispiel_3 als 'ein Ton' und nicht als 'mehrere Segmente' erkannt werden sollen.


    Lautstärke ist gut aber... Na ja, weiss nicht richtig, ich habe mir mehrere Beispiele angeschaut und da sieht man dass dieses "Zittern" der Stimme auf unterschiedliche Weise "konstruiert" wird. Sieht man in Praat sehr deutlich!
    Männer machen das tatsächlich mit Lautstärke (grüne dB-Linie springt hoch) während die Frauen sich meistens mit blauer Linie (Hz) "beschäftigen". Es wäre sehr interessant für mich das ganze in möglichst viele Parameter zu splitten weil der Patienten-Kollektiv wird nicht nur in männlich und weiblich aufgeteilt sondern auch nach Erkrankungsgrad (Stadium).


    Quote from edgar-rft


    Frage: gibt es eine Möglichkeit, das eventuell mit der Tonhöhe in Zusammenhang zu bringen? (wahrscheinlich eher nicht und wenn ja, dann nicht bei *allen* Patienten)


    Genau das waren auch meine Überlegungen.
    Aber ganz gleich ob ich dB oder Hz messe, relative Anstieg und Abfall scheint mir wenig aussagekräftig zu sein weil diese Differenz wird es auch bei gesunden geben. Hier ist es interessant das grob motorisches "Zittern" irgendwie zu beschreiben (in manchen anderen Beispielen ist das ausgeprägter als hier). Sprich Anstieg/Abfall auf unterschiedlichen Zeitabschnitten. Mit Halbwertszeit-Prinzip kam ich auch nicht weiter.


    Aber wie gesagt, ich musste ursprünglich nur Zeit messen um glottale Effizienz und Effizienz der Atemmuskulatur zu prüfen. Aber dann ist mir dieses Muster aufgefallen. Das hatten meine Vorgänger nicht gehabt weil bei Parkinson Patienten wird man das höchstwahrscheinlich nicht sehen. Egal welche Muster sie haben (Parkinson Pat.), er wird wohl kontinuierlich sein müssen.

  • Also was sich jetzt mal auf die Schnelle mache liess ist eine 'Minimal' Version des 'Speech Segment Analysis' Plugins, das in der Audacity Tonspur das Analysesignal anzeigt, aus dem die Textmarken berechnet werden.


    Das ganze funktioniert folgendermassen: Du lädst eine Patientendatei nach Audacity rein und lässt das 'Speech Volume' Plugin (Anhang unten) aus dem Audacity 'Analyse' Menü drüberlaufen. Danach werden in der Tonspur, wo sich vorher die Patientendaten drin befanden, eine Kurve angezeigt, die in etwa der inneren hellblauen 'Hüllkurve' der Patiententonspur entspricht.


    Wenn sich da drin characteristische 'Muster' erkennen lassen (periodisches 'Flattern' oder 'Zittern' oder ähnlich), liesse sich da bestimmt was draus machen (muss man natürlich mit *vielen* Dateien ausprobieren).


    Die 'Hüllkurve' (die Ausgabe des 'Speech Volume' Plugins) bitte nicht über die Lautsprecher abspielen.


    An die Originalspur mit den Patientendaten kommst Du mit 'Bearbeiten > Rückgängig machen'.


    'Tonhöhenanalyse' gibt es in Nyquist nicht als fest eingebaute Funktion, da muss ich mir erst noch was überlegen, wie man das am besten hinbekommt.

  • Danke für Plugin Edgar
    Also irgendein Muster ist schon vorhanden.
    So viele Dateien mit krassen flattern habe ich auch nicht. Sieht man erst im fortgeschrittenen Stadium der Erkrankung und der meisten Patienten ging es zum Glück noch halbwegs gut.


    Hier sind ein Paar Beispiele:


    Beispiel_1


    [Blocked Image: http://www.lesnoj.de/Bilder/Tonhaltedauer_Plugin/Bild_1.jpg]


    Beispiel_2


    [Blocked Image: http://www.lesnoj.de/Bilder/Tonhaltedauer_Plugin/Bild_2.jpg]


    Beispiel_3


    [Blocked Image: http://www.lesnoj.de/Bilder/Tonhaltedauer_Plugin/Bild_3.jpg]


    Beispiel_4


    [Blocked Image: http://www.lesnoj.de/Bilder/Tonhaltedauer_Plugin/Bild_4.jpg]


    Beispiel_5


    [Blocked Image: http://www.lesnoj.de/Bilder/Tonhaltedauer_Plugin/Bild_5.jpg]

  • Also ich habe jetzt den halben Morgen im Audacity und Nyquist SourceCode rumgelesen, weil ich feststellen musste, dass die Tonhöhehnanalyse von Nyquist in Audacity überhaupt nicht implementiert ist. Der Grund ist wahrscheinlich, dass die entsprechenden Nyquist Funktionen auf patentgeschütztem Code beruhen und deshalb in Audacity nicht implementiert werden können, da die GPL (Audacity Lizenz) ein Verkaufen des Codes gegen Bargeld erlaubt.


    Ich habe Dannenberg (Nyquist) nochmal deswegen angeschrieben, befürchte aber, dass er das genauso bestätigen wird.


    Die einzige Möglichkeit wäre wahrscheinlich, die Dateien und Textspurenen mit externen Werkzeugen vorzubereiten, z.B.Praat oder Nyquist StandAlone Version (Dannenberg, CMU), und danach dann in Audacity zu importieren um sich das anschauen zu können. Ist aber bei mehreren hundert Dateien sehr umständlich.

  • Hallo,
    mich würde dieses Thema auch sehr interessieren, ich möchte Operationsgeräusch analysieren und Lernkurven von Chirurgen messen,
    ich kann allerdings den plugin irgendwie nicht installieren den Edgar geschrieben hat (englisches Audacity 1.3.6, Mac)
    Nach dem runterladen kann ich ihn zwar prima ins richtige Verzeichnis stellen, es passiert jedoch -nichts
    wenn ich Audacity wieder starte


    Liegt das an der (neueren) Version oder mache ich-trfm- doch was falsch ?


    Grüße


    Thomas

  • Herr Edgar,


    wie immer lösen sich viele Probleme von Selbst, mit der neuen 1.3.8 beta-Version funktioniert ihr plugin ganz vortrefflich.


    Ganz herzlichen Dank für diesen.


    Thomas Müller