Hallo Edgar,
herzlichen Dank für deine Erklärungen und den Link. Hab mich gestern Abend noch etwas durch geklickt. Ist halt so, als ich vor Jahrzehnten meine "Karriere" als Gitarrtist und Sänger einer Unterhaltungsband aufgegeben habe, war das Bandecho der Gipfel der Errungenschaften. Seither bemühte ich mich erfolgreich, in Sachen Singen mit Gitarrebgeleitung jeder Technik aus dem Weg zu gehen. Inzwischen schwirren da Begriffe herum, deren "umgangssprachliche" Bedeutung mir fremder ist als wie die Marsoberfläche. Darum fehlen mir offenbar auch ein paar Sätze Hintergrundwissen, die jeder mit PC-Sound Arbeitende einfach kennt.
Werde versuchen, erst mal einen Überblick zu gewinnen. Bis es so weit sein wird, nehme ich die eine oder andere Gesang- und Gitarrenspur auf.
Noch ein paar Sätze zu Audacity:
Jahrelang als CAD-Profi arbeitend kommen mir Optik und Arbeitsweise von Audacity weit mehr entgegen, als z.B. der Musikmaker von Magix oder auch Cubsae-Essential, dessen Manual ich diese Tage durch geackert habe. Was ich in Audacity vermisse, ist sowas wie ein automatisch generiertes "Fangraster". Dazu könnte ich mir vorstellen, mit Unterteilen der Textspur nach Takten/min. und Schlägen pro Takt ließe sich gut arbeiten (ähnl. einer "Klickspur"). Weiters wäre recht praktisch, wenn bei "Kursor zum Ende der Markierung" (oder Anfang) auch bei Nutzung der "Einrastzeiten" die Pfeiltasten wirksam wären (oder eine Tastenkombination).
Zu Nyquist und Xlisp: Hab gestern noch gesehen, dass es sich um einen Lisp-Dialekt handelt. Demnach wären Grundkenntnisse da, aber dann fehlen mit jegliche Ideen, wie sowas "musikalisch" anzuwenden ist. Kommt noch dazu, das ich in Lisp zwar recht spannende und anerkannte Autocad-Automatisierungen geschrieben habe, aber nur "Programmierbastler" geblieben bin und ohne Handbuch neben mir nicht weit kommen würde...
Grüße, Heinz