Sprechanalyse - Oszilloskop, Tonhöhevariabilität, Lautstärkevariabilität, Intonation, Sprechgeschwindigkeit... Alles muss gemessen werden!

  • Sprechanalyse, suche die Einstellungsmöglichkeit!


    Hi Leute,
    Muss in Rahmen meiner Doktorarbeit Sprechanalyse bei Patienten mit Sprechstörungen machen. Bei einer der Aufgaben muss der Patient ein Text durchlesen. Ich muss dann der erste und der letzte Satz auswerten.
    Ausgewertet oder gemessen wird wie die Dauer der einzelnen Silben und die Pause zwischen den Wörtern.


    Habe irgendetwas über die Oszilloskopische Darstellung gehört. Wenn ich auf Oszilloskop umschalten könnte, dann könnte ich Dauer am Monitor ablesen. So machen das die Kollegen an der anderen Uni. Sie Arbeiten mit „Wave Lab“ und es läuft nicht auf dem Mac. Außerdem habe ich schon viele Aufnahmen mit Audacity gemacht und würde gerne bei Audacity und Mac bleiben. Gibt es denn so eine (Oszilloskopische) Funktion in Audacity? Kennt jemand andere oder bessere Methode?
    Bin kein DJ sondern ein Medizinstudent und kenne mich der Einstellungen und Effekten nicht so gut aus.


    Außerdem, Tonhöhevariabilität, Lautstärkevariabilität, Intonation, Sprechgeschwindigkeit... Alles muss gemessen werden! Geht das irgendwie mit audacity? Angeblich ist Antares Auto-Tune dafür gut geeignet aber so teuer...

  • Hi lesnoj,


    'oszilloskopische Darstellung' ist nichts anderes als das, was Du in der Tonspur siehst. In Audacity heisst das 'Wellenform', ist aber genau das gleiche. Silben und Pausen messen ist mit Audacity kein grösseres Problem, in den neueren Versionen wird z.B. wenn Du eine Stelle in der Tonspur mit der Maus markierst die genaue Länge der Markierung unten am Bildschirm angezeigt.


    Was schon schwieriger wird sind Grundtonhöhe und -variabilität.


    Im 'Analyse' Menü (in früheren Audacity Versionen im 'Ansicht' Mennü) gibt es die 'Spektrum' (Frequenzanalyse) Funktion, die kann aber immer nur einen bestimmten, vorher markierten Bereich analysieren. Wenn Du die Variabilität über einen ganzen Satz brauchst (und davon gehe ich aus) müsstest Du Dich Silbe für Silbe durch den ganzen Satz durcharbeiten. Das ist zwar theoretisch möglich, aber das nervt.


    Im Spurausklappmenü kannst Du die Spurdarstellung auf 'Spektrum' umschalten, die entsprechenden Werte kannst Du aber meist nur raten, mit 'Messgerät' hat das dann reichlich wenig zu tun und ich glaube das ist nicht unbedingt das, was für eine Doktorarbeit gebraucht wird.


    Vorschlag: schau Dir mal bitte folgendes an:


    Von der KTH in Schweden (königlich technische Hochschule oder irgendsowas) gibt es 'Wavesurfer' als Freeware. Das hat ein ganzes Arsenal an Funktionen speziell für Sprachanalyse eingebaut und ist auch erträglich einfach zu bedienen (funktioniert im Prinzip wie Audacity nur halt mit anderen Analyse-Funktionen). Mac OS X ist auch kein Problem.


    Homepage: http://www.speech.kth.se/wavesurfer/
    Download: http://www.speech.kth.se/wavesurfer/download.html
    Bedienungsanleitung: http://www.speech.kth.se/wavesurfer/documentation.html


    Wenn das nichts ist melde Dich bitte nochmal.

  • Wow!
    Vielen vielen Dank!
    Habe mir das Programm runtergeladen und werde probieren damit zurecht zu kommen. Habe aber gleich das erste Problem.
    Beim versuch aufzunehmen bekomme ich die Meldung "Das Programm Wish wurde unerwartet beendet" Und dann schliesst sich das ganze. Eine Idee was das sein kann?
    Ist aber nicht schlimm, die Aufnahmen kann ich immer noch mirt Audacity machen. Die Wave Dateien kann ich dann in Wish wieder öffnen.


    Danke nochmals, versuche jetzt Manuals zu lesen weil ich scheine davon noch weniger Ahnung zu haben als ich vermutet habe. Wenn du mehr Manuals oder Infos darüber hast, würde mich über jeden Link freuen.

  • Ok. Das mit der Zeit zwischen Silben und Silbenlänge habe ich verstanden (halbwegs). Scheint zwar umständlich zu sein in der Bedienung aber man konnte es hinkriegen.


    Doch mit der Lautstärke-Messung bin ich nicht weiter gekommen. Ich habe zwar eine Panel mit dB Anzeige eingeblendet (Power Plot) doch da gibt es nicht diesen Lineal oder Karierung o.ä (wie diese vertikale rote linie die immer dem Mauszeiger folgt). Somit kann ich die Lautstärkenänderung nicht genau ablesen. Das wäre auch sehr interessant zu messen weil die Parkinson Patienten z.B. hören sich beim ablesen am Anfang normal laut (wie gesunde) doch am ende eines Satzes werden sie richtig leise (fast flüstern).


    Was die Intonations-Messung angeht, hier habe ich bis jetzt keine Ideen. Intonation wird an ungefähr solchen Sätzen überprüft:
    Warum hast du so grosse Augen? Damit ich dich besser sehen kann!
    "_____________________/-------|___________________/------|________"



    Jeder kennt diesen Text und wird sich beim Ablesen so anpassen als ob er das einem Kind vorliest.
    Intonation ist wie ich verstanden habe Änderung der Tonhöhe = Frequenzänderung.
    In „Pich Contour“ – Panel sehe ich zwar etwas, aber hier habe ich das gleiche Problem (keine vertikale Linie für genauere Messung).


    Habe zwar „Spectrum Section“ geöffent doch ich verstehe nicht wie man damit umgeht. Wenn ich im Hauptfenster ein Soundabschnitt wähle dann sehe ich die Spitze bei z.B 50 dB. Im Spektrogramm wird mir aber 30 angezeigt.


    Habe bei Kollegen in Bochum gesehen dass Sie bei „Auto Tune“ dass mit der Intonation z.B. automatisch gemacht haben. Das Programm kostet aber einiges und ich würde schon gerne es manuell machen um es besser verstehen zu können. Sollte aber nicht ewig dauern.


    Danke dir auf jedem Fall für den Link!

  • Zitat


    Das Programm Wish wurde unerwartet beendet


    'wish' ist die Tcl/Tk 'Windowing Shell'. Das ist der Interpreter, in dem Wavesurfer läuft. An was der Absturz genau liegt kann ich jetzt auswendig auch nicht sagen, ich habe aber noch einen G4 mit OS X 10.3.9, ich werde das nachher mal ausprobieren, ob das bei mir auch so ist.


    Ohne es zu wissen hast Du schon viele Fragen beantwortet, die ich Dir jetzt eigentlich stellen wollte, ich bin nämlich Elektrotechniker und kein Mediziner, deshalb bräuchte ich natürlich Erklärungen, was im speziellen Fall im medizinischen Zusammenhang wichtig ist und was nicht. Ich glaube aber, dass Du alle grundlegenden Sachen bereits oben erklärt hast (zumindest soweit, dass ich versuchen kann herauszufinden, wie es genau funktioniert).


    Ich habe mich im Rahmen mehrerer Behindertenprojekte mit Sprachsynthesizern beschäftigt (Vorleseprogramme und Bildschirmlese-Systeme für Blinde), deren Daten auch durch Auswertung enloser Reihen von Sprachaufnahmen gewonnen werden. Daher kannte ich Wavesurfer.


    Ich werde das jetzt mal selber ausprobieren und melde mich dann wieder.


    - edgar

  • @ Markus: ich weiss dass das, was ich hier schreibe reichlich wenig mit Audacity zu tun hat aber ich versuche gerade herauszufinden ob man so etwas vielleicht als Plugin einbauen kann. Wenn es Dir zu blöd wird bitte Bescheid geben dann machen wir das auf Privatmail weiter.


    @ lesnoj: Die Aufnahme mit 'Wavesurfer' funktioniert bei mir seltsamerweise ohne Probleme. Es ist mir klar, dass dieser Satz Dir jetzt auch nicht viel weiter hilft, aber viel mehr weiss ich leider auch nicht.


    Wavesurfer 'Power Plot' und 'Pitch Contour': ich habe keine Idee wie man die Anzeige besser kriegt (Linien oder Karo-Raster oder ähnlich). Ich habe über 'Properties' versucht den Anzeigebereich einzugrenzen (optisch zu vergrössern), das scheint in der Mac Version aber irgendwie nicht richtig zu funktionieren. Ergebnis = Murks.


    'Spectrum Section' und 'LTAS' sind Frequenzanalysefilter, deren Gegenpart sich normalerweise in einem Sprachsynthesizer befindet. Im Prinzip funktionieren diese Fenster wie das 'Analyse > Frequenzspektrum' Fenster in Audacity, bringen Dir aber wahrscheinlich wenig, weil Du (so wie ich das verstanden habe) Meßprotokolle uber einen ganzen Satz brauchst und keine 'stationären' Werte einzelner Konsonanten oder Vokale (dafür sind diese Filter eigentlich gedacht).


    Zitat


    Im Hauptfenster liegt die Spitze bei z.B 50 dB. Im Spektrogramm wird mir aber 30 angezeigt.


    Das ist ein Interpolationsfehler des Messfilters. Es gibt keine Filter ohne Messfehler, man kann sich meist lediglich aussuchen WAS einigermassen richtig und WAS falsch angezeigt werden soll. Deshalb gibt es auch mehrere Filter mit vielen Einstellmöglichkeiten, damit man ausprobieren kann, was im speziellen Fall am besten funktioniert. Im Zweifelsfall gilt der Wert im Hauptfenster, weil der wird direkt aus den Daten der WAV oder AIFF Datei errechnet (ohne Filter).


    [line]


    Das aussagekräftigste Fenster in 'Wavesurfer' ist meiner Meinung nach 'Formant Plot', weil die unterste Linie zeigt die Grundtonhöhe (Intonation) und die darüberliegenden Linien die Formanten des Sprachsignals (Resonanzspitzen des Mund-Rachen-Nasal-Raums). Aus den Formanten lassen sich mit ein wenig Übung sogar die emotionale Betonung (aufgeregt, gelangweilt etc.) herauslesen.


    Zwei Probleme auch hier: erstens, es gibt wieder kein Raster und zweitens ist das Lesen von Formantspektrogrammen gewöhnungsbedürftig (geht aber recht schnell). 'Kein Raster' dürfte das schlimmere Problem sein, weil für eine Doktorarbeit brauchst Du aussagekräftige Daten und keine Ratespielchen.


    [line]


    Es gibt noch eine zweite Geheimwaffe mit Namen 'Praat':


    http://www.fon.hum.uva.nl/praat/


    Das ist jedoch kein einfaches Programm wie 'Wavesurfer' sondern ein Entwicklungsbaukasten für Sprachwissenschaftler. Da Du bestimmt kein Programm brauchst, bei dem man erstmal ein Informatikdiplom braucht um es bedienen zu können möchte ich erst einmal selbst ausprobieren, ob das, was Du haben möchtest (Messprotokolle mit Millimeterpapier Raster im Hintergrund) mit erträglich einfachen Mitteln hinbekommen kann.


    Falls ich irgendetwas oben nicht richtig verstanden haben sollte schreib' mir bitte eine Wunschliste hier rein. Du musst auch keine Komplexe kriegen dass ich das alles nur für Dich machen würde. Ich spiele eben gern mit Sprachsynthesizern, kam aber noch nie auf die Idee, dass man das auch andersherum verwenden kann. Nur am Ende muss halt auch was dabei herauskommen, das von 'Normal-Laien' bedienbar ist und auch noch so aussieht, dass es für eine Doktorarbeit verwendbar ist. Das ist mir schon klar.


    Ich melde mich heute Abend wieder, wenn ich mehr weiss.


    - edgar

  • Vielen Dank,
    Komplexe habe ich trotzdem. Das ist schon verdammt viel was du machst. Leider habe ich noch viel zu wenig Ahnung von der Materie und bin gerade am Anfang meiner Arbeit. Es hieß Patienten mit motorischen Sprechstörungen unersuchen. Und wie genau das funktioniert muss ich mir erst selber klar machen. Es gibt zwar Vorgaben von Professur und Logopeden welche Übungen (Texte aufgenommen werden sollen) aber mir ist noch nicht ganz klar wie ich das am besten auswerte.


    Ich werde ca. 40 Patienten mit einer erblichen Ataxie (http://de.wikipedia.org/wiki/Ataxie) aufnehmen (Störungen der Gleichgewichtsregulation und der Bewegungskoordination) und sie dann mit einer Gruppe von Parkinson Patienten vergleichen die bereits aufgenommen ist. Bei Parkinson Patienten wurde die Lautstärkevariation leider nicht gemessen obwohl gerade bei dieser Gruppe es sehr interessant wäre.


    Ataxie ist ein Oberbegriff für sehr viele definierte krankheiten und ich messe nur eine. Ich habe gedacht dass früher oder später wird man die anderen Gruppen (Erkrankungen) auch mal messen wollen und vergleichen. Und damit sie nicht so ein Problemm haben wie ich heute mit Parkinson Patienten (fehlende Parameter = Lautstärkenvariation) wollte ich soviel wie möglich messen und festhalten, auch wenn ich diese Parameter heute noch nicht verwenden kann. Irgendjemand wird sie später schon brauchen. Mit diesen Daten können die Professoren später vielleicht die Voraussetzungen für Therapieentwicklung schaffen.


    Zur Zeit habe ich vor folgendes zu Messen:
    Geschwindigkeit (Variabilität) => Zeit bei Silben, Pausen u.s.w.
    Intonation (Variabilität) => Frequenzdifferenz in einem Satzt der emotional geprägt ist (s.o. Rote Kappchen Beispiel)
    Lautstärke (Variabilität) => Wahrscheinlich dB Abfall oder zunahme.
    Tonhaltedauer => AAAAAAAAAAAAAAAAAAA sagen und mit eimnem Atemzug halten.
    Diadochokinese => Zusammenspiel der Antagonisten (z.B. Bizeps und Trizeps sind Antagonisten) hier wird aber Sprechmuskulatur und ihre koordination überprüft. Geht wenn man einem auffordert mehrmals z.B. "tana-dama" zu sagen.


    Überlege mir gerade was man noch messen kann. Wenn du noch irgendwelche Ideen aus deiner Erfahrung hast dann sag unbedingt Bescheid.


    P.S.
    Übrigens weiss nicht ob ich das schon erwähnt habe aber dass ist Fachbereich der Neurologie.

  • Neueste Forschungsergebnisse:


    Ich habe hier mal ein Bild gemalt wie eine Intonations- und Lautstärkeanalyse in Praat aussieht:


    http://www.audacity-forum.de/d…help/praat/praat-bild.htm


    Wie im Bild beschrieben, erscheinen die aktuellen Werte am Rand des Anzeigefeldes, sobald Du mit der Maus auf die betreffende Stelle klickst. Was man im Bild nicht sehen kann ist, dass für Ausdrucke wie offizielle Publikationen oder Overheadfolien der weisse Hintergrund durch Millimeterpapierlinien in allen erdenklichen Formaten (linear, logarithmisch, etc.) ersetzen lässt.


    Ich habe hier mal eine Bedienungsanleitung zusammenkopiert was Praat sonst noch alles analysieren kann und für den Fall dass Du das selbst ausprobieren möchtest:


    http://www.audacity-forum.de/d…/praat/praat-tutorial.htm


    Kommentar: ich habe das zusammenkopiert weil ich das für MICH sowieso brauche. Das sind halt so Arbeiten, die man immer wieder gerne vor sich herschiebt weil sie eben langweilig sind. Das heisst aber auch, dass ich nicht beleidigt bin wenn Du sagst, dass Du lieber mit einem anderen Programm arbeiten möchtest.


    Der Vorteil an Praat: Wie Du bereits selbst festgestellt hast nützt Dir die beste Doktorarbeit der Welt reichlich wenig wenn bereits nach mehreren Jahren niemand mehr die Messungen nachvollziehen kann weil es entweder die Software nicht mehr gibt, mit der sie erstellt wurden, oder aus sonst irgendwelchen Gründen die fehlenden Daten nicht mehr ergänzt werden können. Deinen Kollegen und Nachfolgern wird es dann nicht anders als Dir ergehen, sie können dann wieder von vorne anfangen. Praat ist international anerkannte Forschungs-Software. Jeder Linguist oder Phonetiker kennt Praat (natürlich nicht unbedingt jeder Mediziner). Mit Praat können alle von Dir ermittelten Daten WELTWEIT und auf ALLEN Computersystemen nachvollzogen werden. Praat ist meines Wissens nach das einzige Sprachanalyseprogramm, mit dem das möglich ist.


    Der Nachteil an Praat: Praat ist Forschungs-Software. Das bedeutet, dass sie Bedienung manchmal etwas umständlich ist weil bei der Entwicklung des Programms höchste Priorität auf die Flexibilität des Programms und nicht unbedingt auf seine Bedienbarkeit gelegt wird. Da Praat ausser Sprachanalyse noch sehr viele andere Funktionen beinhaltet möcht ich nicht behaupten, dass die Bedienung als 'einfach' zu bezeichnen ist. Selbst ich musste mir meine eigene Bedienungsanleitung zusammenkopieren (Link oben), weil ich sonst in zwei bis drei Monaten wieder die Hälfte vergessen habe.


    Da ich selber öfter mit Praat arbeite wäre ich aber natürlich bereit, die Bedienungsanleitung weiter zu verbessern, so dass sie z.B. von anderen Medizinern ohne vorheriges Linguistik oder Informatikstudium sofort verstanden und nachvollzogen werden kann. Englische Version wäre auch kein Problem, sofern es am Ende nicht 800 Seiten werden wie die Originalanleitung von Praat. (Mache nie den Fehler und klicke in der Praat Hilfe auf 'Manual als HTML speichern', es sei denn Du möchtest 800 HTML Seiten von Hand löschen, so wie ich heute Mittag).


    Viel Spass noch ...


    - edgar

  • Wow, Hut ab!
    Vielen dank! Ich werde es mir unbedingt das ganze anschauen. Ich habe so oft Auto Tune erwähnt weil auswertung wird mir später in Bochum beigebracht. Und sie arbeiten da mit Auto Tune. Das Programm wurde einfach von einem Tontechniker empfohlen der früher als DJ gearbeitet hat und dann stillschweigend von allen übernohmen. Wobei wegen Lizensierung (ca. 300-500 €) läuft es nur an einem PC wo sich alle Tümmeln. Ich habe schon gemerkt dass viele Mediziner wegen mangelnden Kenntnissen oft mir DJ-Software arbeiten wenn es um Ton geht. Und ich habe auch schon vermutet dass es speziellere Programme gibt's die billiger und besser für diesen Zweck sind.


    Danke für den Tipp. Ich werde es mir auf jedem Fall anschauen und auch meinen Vorgesetten empfehlen, einfach nur weil deine Argumente wegen Standartisierung sind Goldrichtig. Das ist das wichtigste überhaupt bei solchen studien. Muss nur mit der Bedienung auch gehen (für kleine Mediziner halt, wenn du verstehst was ich meine) :) .


    Das Bild was du mir gezeigt hast wirkt sehr überzeugend. Ich werde 2-3 Tagen mit weiteren Aufnahmen beschäftigt sein und gegen Mittwoch kann ich mir wieder Gedanken über Auswertung machen!
    Ich melde mich noch auf jedem Fall wieder!


    Vielen vielen Dank!

  • Was ich vergessen hatte zu schreiben: Praat kann über eine eingebaute Script-Sprache 'vorprogrammiert' werden. Wenn wir am Ende einmal eine funktionierende Lösung gefunden haben, wäre es möglich eine (hinsichtlich Bedienung des Programms) wesentlich einfachere Möglichkeit der Datenanalyse bzw. Repäsentation im Programm zu finden (ein-Klick Lösung oder ähnlich, falls machbar oder sinnvoll).


    Im Zweifelsfall, meine email Adresse steht hier: http://www.audacity-forum.de/user/134 (der Link funktioniert nur für angemeldete Forumsmitglieder).

  • Hi Edgar,
    Danke für alle Tipps. Versuche mit dem Programm zu recht zu kommen. Bedienung ist echt nicht ohne obwohl das Programm scheint ein Paar mächtige Werkzeuge zu haben. Bei mir ist das Problem dass ich mich da nur sehr langsam einarbeiten kann (wegen mangelhaften Kenntnissen und wenig Zeit fürs technische).
    Zurzeit bin ich noch mit „Aufnahmen“ (Datensammlung beschäftigt) und ernsthaft wird es erst später. Nach der erfolgten Datensammlung wird man mich in die Analyse einarbeiten.
    Und erst dann wird es mir erklärt was genau die Professoren möchten und wie sie das möchten. Dann werde ich mich mit der Auswertung befassen. Und ich kann jetzt schon sagen dass dieses Programm viel versprechend aussieht.
    Mit Scripten die du für Automatisierung anbietest wird das ganze noch viel interessanter. Solche Projekte werden übrigens öfter durchgeführt allerdings mit anderen Patienten Kollektiven. Algorithmen bleiben aber immer die gleichen. So dass ich mir vorstellen kann dass diese Skripten viel Abhilfe der zukünftigen Untersuchern verschaffen werden.


    P.S.
    Vielen Dank für Hilfe-Link. Ohne hätte ich das Programm noch nicht mal zum starten gebracht. Ich finde es echt Hammer dass dieses Programm fast unter allen gängigen OS läuft und dabei noch kostenlos ist. Obwohl die Aufnahmen werde ich wahrscheinlich dennoch mit Audacity machen (Sicher ist sicher)
    :)

  • Hi Edgar,
    Ich hoffe du hast mich nicht vergessen
    Bin mit Aufzeichnungen endlich mal fertig und muss die Datenmenge jetzt langsam auswerten!


    Bin jetzt bei der Variationsbreite der Grundfrequenz (F0)
    Also Grundfrequenz wird von mir mit zwei Parameter beschrieben:


    1. Differenz zwischen der höchster und der tiefster Frequenz
    2. Standartabweichung


    Praat bietet da eine geschickte Lösung der nirgendwo in Manuals zu finden ist. Und zwar:



    --------------------------------------------------------------------------------------------------------------------------
    ---------------------------------------------- Anleitung für kleine Mediziner -----------------------------------------
    --------------------------------------------------------------------------------------------------------------------------


    Praat öffnen


    Es erscheinen 2 Fenster "Praat objects" und "Praat picture"
    --> in "Praat objects" auf "Read" klicken
    --> Auf "Read from file" klicken.
    --> Audiodatei aussuchen und auf OK klicken.


    Die Audiodatei erscheint jetzt im "Praat objects" Fenster.
    --> Auf "Edit" klicken (Rechts wo alle Buttons aufgelistet sind)
    --> Es erscheint jetzt ein neues Fenster wo die Audiodatei Oszillographisch dargestellt ist.


    --> Unten links (bei "all", "in", "out", "sel") auf "in" klicken (solange bis man im unteren Teil der Fenster auch eine Darstellung sieht).


    --> Oben auf "Pitch" gehen
    --> "Show pitch" auswählen


    --> Oben auf "Pitch" gehen (Wieder)
    --> "Pitch setting" auswählen
    --> Min. und max. Werte einstellen (so dass alle, obere und untere Werte erfasst werden z.B 20 bis 400 Hz.)


    --> Auf "Pulses" gehen
    --> "Show pulses" auswählen


    --> Ein Bereich markieren
    --> Auf "Pulses" gehen (Wieder)
    --> "Voice report" auswählen


    --> Report von dem markiertem Bereich wird angezeigt!

    --------------------------------------------------------------------------------------------------------------------------


    Im Report kann ich dann unter Pitch z.B. folgendes sehen:

    Pitch:
    Median pitch: 155.840 Hz
    Mean pitch: 173.018 Hz
    Standard deviation: 58.429 Hz
    Minimum pitch: 78.618 Hz
    Maximum pitch: 322.112 Hz


    Alles cool bis jetzt! das Problem ist ich kann nur die 10 sec auswerten die auf dem Screen gezeigt sind und dass nur wenn ich diesen bereich markiert habe! Kennst du irgendein Trick damit ich ganze Datei markieren kann (Länge ca. 2 min).


    Bei längerer Datei muss ich das ganze zich mal wiederholen und die Werte dann addieren, Mittelwert ziehen u.s.w. Also nicht wirklich geschickt!

  • Zitat


    Kennst du irgendein Trick damit ich ganze Datei markieren kann (Länge ca. 2 min).


    Du kannst im Edit Fenster herumzoomen, also die Gesamtansicht vergrössern/verkleinern und auch den ausgewählten Bereich, den Du analysieren willst. Ich muss das selber erst zu Hause ausprobieren, genauere Antwort kommt noch.


    [line]


    Halbe Stunde später: Folgendes habe ich gerade auf Windows ausprobiert, ich hab' hier grad' keinen Mac, sollte aber dort (theoretisch) genauso funktionieren:


    Im 'Edit' Fenster ins 'View' Menü und dort auf 'Show Analysis' gehen. Im 'Show Analysis' Fenster ganz unten unter 'Longest Analysis (s)' 2 Minuten x 60 Sekunden = 120 eintragen, dann kannst Du auch zwei Minuten 'am Stück' sehen. Aber aufpassen, weil Praat versucht immer alles im Arbeitsspeicher auszurechnen. Wenn Du dort sehr hohe Werte einträgst ist Dein Rechner mehr mit Speicher Ein/Auslagern als mit Analyseberechnungen beschäftigt. Das ganze wird dann ziemlich lahm (kommt natürlich auf Deinen Rechner an bzw. wieviel Speicher drin ist). Im Zweifelsfall musst Du den besten Wert halt ausexperimentieren.

  • Wahnsinn!
    Danke dir vielmals. Es geht tatsächlich! Habe mich schon 1 Monat lang Dateien schneiden sehen :)


    120 sec am Stück auswerten ist meine Rettung! Mehr als 2 min. Aufnahmen werde ich nicht haben. Mein Macbook hat 2 Gb Arbeitsspeicher und das sollte genügen (Mac halt :-)). Ich rechne deswegen nicht mit System Abstürzen.


    Danke dir noch mal! Werde mich mit Sicherheit noch melden!


    P.S.
    OK, zugegeben es ist zu weit her geholt und vielleicht auch zuviel verlangt, aber gibt es eine Möglichkeit die Konsonanten von Vokalen automatisch zu unterscheiden? Es geht um folgendes:
    Es wurde mir gesagt dass für die Grundfrequenz eigentlich nur Vokale verantwortlich sind. Konsonanten sind hier unwichtig und erzeugen nur Artefakte! z.B "zsch". Da geht die Kurve sehr hoch (höher als Durchschnitt) und verfälscht Mittelwert.
    So war es bei meinen Vorgängern (sie haben mit Headset aufgenommen). Deswegen mussten sie die Aufnahmen Sekunde für Sekunde manuell durchgehen um diese Artefakte zu löschen. Bei mir scheinen die Aufnahmen (vorerst) besser zu sein weil ich nicht mit Headset sondern mit Buildin Mikrofon von Macbook gearbeitet habe. Deswegen werde ich die Aufnahmen manuell nach Vokalen nicht durchsuchen (Lohnt sich kaum). Aber dennoch mache ich mir etwas sorgen. Bin ja nicht so erfahren wie die Logopäden.


    Obwohl das ist dann auch so OK. Hast mir eigentlich schon mehr als genug geholfen!

  • Zitat


    ... Konsonanten von Vokalen automatisch unterscheiden ...


    Ich muss da mal in der Praat Anleitung weiter rumlesen, vielleicht ist das automatisch machbar, auswendig weiss ich das leider auch nicht.


    Zitat


    ... dass für die Grundfrequenz eigentlich nur Vokale verantwortlich sind ...


    Genaugenommen Vokale und Sonoranten (gesummtes 'm' und 'n' und ähnliche). Es geht mir jetzt aber nicht um fachsimplerische Haarspalterei, sondern wenn ich das richtig verstanden habe bräuchtest Du eine Funktion mit der die berühmten deutschen 'Explosiv'-Konsonanten herausfilterbar wären, so dass nur alles übrigbleibt, was auch mit den Stimmbändern zu tun hat (vor allem wg. Tonhöhenanalyse). Könnte eventuell auch mit Audacity machbar sein.


    Melde mich wieder sobald ich da mehr weiss ...


    P.S.: 2 Gb Arbeitsspeicher - Ich hatte das mit einer 10_Minuten Datei (600 Sekunden Analyse) auf einer Windows-Gurke mit nur 256MB Arbeitsspeicher ausprobiert (was eigentlich schon für WinXP selbst zu wenig Speicher ist) und da hat dann rund 20_Minuten die Festplatte geblinkt, bis dann endlich ein Bild erschien. Abgestürzt ist lustigerweise trotzdem nichts, nur ist das dann eine Arbeitsgeschwindigkeit, die wirklich niemand mehr im Kopf ertragen kann... :-p

  • Dumme Frage nochmal:


    Bei den 'störenden Konsonanten', handelt es sich um ein Problem bei der Grundfrequenzanalyse?


    Ich frage deshalb, weil Praat hat sowieso schon entsprechende Filter eingebaut. Wenn Du im Editor Fenster auf 'Pitch' und dort auf 'Pitch settings' gehst kannst Du in gleich in der ersten Zeile 'Pitch range' die untere und die obere Grenzfrequenz des Filters einstellen. Was dabei zu beachten ist steht in der eingebauten Praat Hilfe unter 'Intro_4.2 > The pitch range setting'. Alle 'Konsonantgeräusche' oberhalb der oberen Grenzfrequenz werden bei der Grundtonanalyse von Praat sowieso ignoriert. Konsonantgeräusche beginnen normalerweise erst oberhalb von 1000 Hertz, bei Kettenrauchern oder Astmapatienten kann das natürlich wieder anders sein.


    Was ich mir schon schwieriger vorstelle ist die Lautstärkevariabilität bei vielen deutschen Konsonanten zu messen (in Praat heisst das 'Intensity'). Auch da gibt es im 'Praat Intro_6.2 eine Anleitung.


    Was Paul Boersma allerdings mit 'jitter' und 'shimmer' meint (Praat Hilfe > Phonetics > Voice) habe ich mir noch nicht so richtig zusammenreimen können. Da könnten sich eventuell noch interessante Funktionen hinter verstecken.

  • Danke für deine Antworten!
    Tipp mit Pitch Einstellung ist gar nicht so verkehrt aber der Filter schneidet die Konsonanten oder das was er unter Konsonanten versteht automatisch raus. So ein verfahren konnte man meine Meinung nach relativ problemlos bei Gesunden Patienten anwenden oder z.B. bei Parkinson Patienten (so wie ich die Parkinson Aufnahmen gesehen habe).
    Ich arbeite aber mit einer Patienten Gruppe die sich beim Sprechen etwas anders verhält.


    Wenn es nicht langweilig ist dann versuche ich das zu beschreiben:


    Durch abgeschwächte oder fehlerhafte Innervationskoordination können sie Luft beim Sprechen (sprech-ausatmen) nicht richtig dosieren (dosiert ablassen) und es kommt zu "Luftschuben". Das heisst wenn man jemandem auffordert möglichst lange Vokal "A" zu halten (ein Atemzug) dann sieht es etwa so aus:


    Gesunde --> a-a-a-a-a-a-a-a-a-a-a
    Erkrankte --> a-a-A-a-A-a-a-A-A-a


    Diese "Luftschübe" sind so heftig dass sie dementsprechend auch heftige Ausschläge in Kurven verursachen. Somit wird die Variationsbreite der Grundfrequenz (Frequenzkorridor) auf jedem Fall grösser als bei Gesunden.


    Die Konsananten-Artefakte (= Explosiv'-Konsonanten, hochschießende "zsch" oder "tss") sind hier seltener als bei Gesunden. Und auch wenn sie da sind, sind sie von der Frequenz her nicht immer höher als "Vokalschübe" (Dann stören sie nicht bei der Auswertung) aber wenn sie etwas höher liegen dann muss man sie rausschneiden.


    Deswegen kann ich mich auf automatisches rausfiltern nicht verlassen (zumindest nicht bei dieser Patienten Gruppe). Aber Artefakte automatisch zu finden und sie zu markieren wäre schon sehr hilfreich.


    Obwohl das ganze war eigentlich blöde Idee von mir. Ich komme manuell schon ganz gut zu recht. Wollte nur ein Verfahren für die Nachfolger entwickeln falls sie dann auch Patienten mit anderen Erkrankungen untersuchen. Weil 80 % meiner Zeit geht dabei verloren um technisches zu klären. Deswegen wollte ich eine gute Anleitung hinterlassen. Sprechanalyse scheint sehr interessant zu sein und es werden später womöglich auch weitere Projekte gestartet.


    Ich danke dir aber trotzdem dass du dir mein Schwachsinn hier anhörst und auch hilfst! :)

  • Hi Edgar,
    Wollte dich wieder was fragen :)


    Versuche jetzt ein weiterer Parameter der Prosodie auszuwerten: "Sprechtempo".
    Hier werden 3 Parameter von mir untersucht:


    --> TSR (Total Speech Rate) = Gesamt Silbenzahl pro Gesamtzeit
    --> NSR (Netto Speech Rate) = Gesamt Silbenzahl pro Netto Zeit (reine Sprechzeit ohne Pausen zwischen der Silben)
    --> Pausen (Anzahl)
    --------> Pausen am Ende eines Wortes (Anzahl)
    --------> Pausen innerhalb von mehrsilbigen Worten (Anzahl)
    --------> evtl. die Länge


    Silbenzahl ist bei der Aufgabe vorgegeben somit ist die Zahl schon mal bekannt.
    Gesamtlänge der Audiodatei gibt der Praat in "Voice Report" preis (In Audacity habe ich diese Funktion nicht gefunden).


    Jetzt brauche ich noch eine Funktion die mir Pausen anzeigt, so dass ich sie in einem klick alle ausschneiden kann. Dann konnte ich die verblibene Netto-Sprache messen und die Pausen in andere Spur einfügen und da die Länge messen.


    In Praat kann man "Show Pulses" anklicken und die Sprachabschnitte werden blau markiert. Ist aber viel zu ungenau wie ich sehe. Obwohl in "Voice Report"-Datei werden sogar ganze 4 Zeilen angezeigt. Muss noch rauskriegen was hier mit Pulses gemeint ist!


    In Audacity unter "Analyse" --> "Silence Finder" bin ich auch nicht weiter gekommen. Es werden komische Zeichen unter dem Spur angezeigt.


    Kannst du mir ein Paar Tipps geben wie ich hier technisch weiter vorgehen soll?

  • ... wenn es nicht langweilig ist dann versuche ich das zu beschreiben ...


    Für mich ist das nicht langweilig weil ich habe dafür tatsächlich praktische Anwendungen (Behindertenarbeit), wo ich das gebrauchen kann. Wie langweilig das für den Rest des Forums ist oder auch nicht, weiss ich natürlich nicht.


    Gesamtlänge einer Tonspur mit Audacity


    Ganz unten im Fenster, unter den Tonspuren gibt es einen Bereich mit der 'Projektrate' (Audacity Samplefrequenz), und mehreren Feldern mit Positions- und Längenangaben. Das mittlere Feld zeigt das Ende bzw. die Länge der aktuellen Auswahl in einstellbaren Einheiten an (z.B. auch Sekunden und Millisekunden). Wenn das mittlere Feld auf 'Länge' steht und Du die gesamte Spur markierst (Ctrl-A oder mit der Maus irgendwo in den Spurkopf klicken, wo keine Knöpfe und Regler sind) wird im mittleren Feld die Gesamtlänge der Spur angezeigt.


    Pulses in Praat


    In den Analysefunktionen gibt es viele Funktionen für Paul und Davids Sprachsynthesizer (ebenfalls in Praat integriert). Im Sprachsynthesizer werden die Stimmbänder durch Tongeneratoren simuliert, der wichtigste dabei ist ein Impulsgenerator, der gleichzeitig auch die Grundfrequenz bzw. deren Abweichungen für die aktuelle Tonhöhe (Silbenbetonung) simuliert. Da die aktuelle Tonhöhe beim Sprechen natürlich ständig schwankt, zählt 'Pulses' zählt die Anzahl der Nulldurchgänge der aktuellen Tonhöhe pro Zeiteinheit im Originalsignal, die benötigt wird, um die Abweichung von der Grundtonhöhe im Sprachsynthesizer zu berechnen. In wie weit das in der Neurologie verwendbar ist weisst Du besser als ich, deshalb habe ich das mal erklärt so gut ich das weiss (die Praat Hilfe weiss das im Zweifelsfall besser).


    Funktionen für die Silbenanzahl und Brutto/Netto Zeiten


    Muss ich nachher selber mit Rumspielen, weiss ich jetz spontan nicht auswendig, habe aber schon mehrere Ideen. Es war auch mal geplant eine 'Pausen automatisch wegschneiden' Funktion in Audacity einzubauen, da muss ich mich nochmal schlau machen, was daraus genau geworden ist.


    ... im Audacity "Silence Finder" werden komische Zeichen unter der Spur angezeigt ...


    Darf ich diesen Satz für die Audacity Hilfe verwenden oder erhebst Du Urheberrechte ? :-p Ich suche schon lange nach einer 'nicht drei Kilometer langen' Beschreibung für den Silence Finder und das ist die beste, die ich bisher gelesen habe. Den Silence Finder hatte ich zum letzten mal hier beschrieben: http://www.audacity-forum.de/thread/2379 (ganz unten auf der Seite). Ich glaube aber dass die Filter im Silence Finder für Sprachanalyse zu langsam sind, ich kann aber mal versuchen, eine schnellere Version zu bauen. Mit 2GB Ram und Dateien von nur wenigen Minuten Länge könnte das machbar sein. Das lässt sich im Laufe des Tages noch herausfinden. Der Silence Finder (bzw. modifizierte Version) ist ein externes "Plugin", das lässt sich nachrüsten, ohne dass irgendwas neu installiert werden muss.