Beiträge von saint.itch

    ich hab mich gerade durchgequält:


    Ergebnis ist...
    Ich beweise dass es möglich ist, bei Phasendrehung
    das selbe Signal ungedreht zu eliminieren.
    Eine Trennung ist nicht möglich, also bleibt nur der
    Weg, mir dass als Signal zu holen, was ich auslösche,
    wenn ich bei der Stereoaufnahme einen Kanal invertiere
    und dann beides auf Mono stelle.


    Denn das ist das Nutzsignal!
    Das kann man dann nicht mehr hören.
    Zwar in Mono, aber dass ist wirklich sch... egal. :)
    Allerdings glaube ich, dass dieser Effekt weniger zum
    tragen kommen würde, als erhofft.
    Ich schein dass mit den Samples noch nicht ganz
    verstanden zu haben. Das Rauschen ist da wohl
    mit drinnen wie Du sagst. Aber 10-20% Rauschen würde
    meine Methode entfernen.


    Gibt es vllt. einen Debugbefehl o.ä. wo das Phasenauslöschen
    quasi umgekehrt wird?


    PS:
    Vom Karaoke-Effekt hab ich den "Trick" ja ;)

    Zitat


    Anders formuliert bedeutet das:


    if ( Nutzsignal+Rauschen_1 = Nutzsignal+Rauschen_2 ) {
    ...
    }


    Nicht ganz.


    Also wenn ich das richtig verstanden habe, ist die Samplerate
    die Aufnahme pro Sekunde, wie Bilder in der Sekunde.


    Der Unterschied wäre die Anzahl, Bilder sind ab 25 flüssig.
    44'100 Aufnahmen in der Sekunde ist da schon ein wenig mehr.


    Ich habe mir dass so gedacht:


    Ein Sample ist ein Bruchteil einer Sekunde mit einer Frequenz.
    Also Nutzsignal, Rauschen, Nutzsignal, Rauschen.


    Erst das Abspielen dieser großen Menge sorgt für eine
    vermischte Wahrnehmung


    Vielleicht drücke ich mich falsch aus, aber das es möglich
    ist, zeigt dass die Phasendrehung das Nutzsignal auslöscht.
    Und das ist ja nicht weiteres als die Rechnung:


    if(signal1 = signal2) && (signal1 = 90°_gedreht) || (signal2 = 90°_gedreht)


    Zumindest so ähnlich.
    Hast Du da vllt. eine Richtung mit einem Tutorial o.ä.

    Spur: Stereoaufnahme
    Links : eigenes Rauschen + Nutzsignal
    Rechts: eigenes Rauschen + Nutzsignal


    Dies lässt sich mittels Phasenverschiebung
    um 180° nachweisen:


    Spur: Stereoaufnahme (rechter Kanal 180° Phasenverdreht)
    Links : eigenes Rauschen + Nutzsignal
    Rechts: 180° (eigenes Rauschen + Nutzsignal)


    Das Ergebnis ist ein fast vollständig vom
    Nutzsignal bereinigtes Rauschen von linken
    sowie um 180° verschobenen rechten Kanals.
    Aufgrund der statistischen Unterschiede
    des sogenannten weißen Rauschens kann sich
    das Rauschen aus dem linken und rechten Kanal
    nicht aufheben, da sie sich unterscheiden.


    Leider ist es nicht möglich dieses Rauschen
    phasenverschoben gegen das in Mono zusammen-
    gemixte Original laufen zu lassen, da diese
    Rauschspur wenn sie zu einer Monospur zusammen
    -gemixt wird das Rauschen des rechten Kanals
    bereits phasenverschoben beinhaltet. Der linke
    Kanal würde sein eigenes Rauschen zwar verlieren,
    aber dafür würde das phasenverschobene Rauschen
    sich verstärken.


    Nyquist
    ----------------------------------------------
    Um das Rauschen zu reduzieren ergibt sich also
    folgender Ansatz, aufgrund der Stereoaufnahme:


    if( sample_linker_kanal[position] = sample_rechter_kanal[position] ) {
    neue_spur_samples[position] = sample_linker_kanal[position]
    }


    Die Abfrage wird nur wahr, wenn in beiden Samples
    das Nutzsignal gefunden wurde. Ein Rauschsample
    wird sich aufgrund des statistischen unterschiedes
    unterscheiden. Aufgrund der Redudanz durch das
    Stereomikrofon ist es also möglich Nutz- von Rausch-
    Signal zu unterscheiden.


    Leider kann ich Nyquist nicht und die Hemmschwelle
    ist nicht gering. Kann mir jemand den Code oben
    in Nyquist übersetzen?

    Ich schreibs jetzt einfach mal hier rein:


    edgar hatte schonmal von Rechenfehler geschrieben
    und ich habs gelesen.


    Ich find die Idee auch gut, ist eben im gegebenen Rahmen
    das Workaround für verlusstlosigkeit. Mit der aktuellen
    Version von Audacity stürzt mir das Programm aber ab,
    wenn ich zb 88,2 kHz Frequenz eingestellt habe und
    dann den Rauschfilter benutze.


    Seit dem bin ich quasi ein wenig Traumatisiert und
    vorsichtig. Bin es nicht gewohnt das opensource abstürzt. ;)
    (naja, ist ja noch eine Vorversion, da ist das normal)


    Hab Platz genug und will mir lieber nichts verbauen und später
    auch lieber abschneiden. Hat sonst noch einer das Problem hier?

    Naja, zu danken gibts da nichts.
    Wir haben dann nur festgestellt
    dass bei Dir wohl wirklich etwas
    nicht funktioniert, wie es soll.


    Wenn alles nichts hilft, Profildaten
    löschen. Das ist wie bei Linux und
    das Äquivalent zur Windows Neuinstallation. ;)


    Vorsicht
    Backup vom Equalizer etc machen.

    Ich habe diesbezüglich hier schonmal einen Beitrag gelesen,
    finde den jetzt aber nicht. Such besser nochmal.


    Eine Antwort gibt es und kosten tuts auch nichts.


    (Die im Studio benutzen selbst PCs mit Software,
    vllt. sogar Audacity ;) )

    Wenn ich mich dazu äußern darf.


    Es muss nicht am Mikro liegen.
    Auch wenn mir jetzt schon einige
    male erklärt worden ist, dass es
    am FET liegt, der durch seine
    Verstärkung des Singals eben auch
    Rauschen beifügt, so ist es doch so,
    dass ein Kabel wo das Mikro abgetrennt
    ist also auch kein FET dran ist, bei
    meiner Soundkarte Rauschen verursacht.


    Erklären lässt sich das so, die Soundkarte
    erkennt ob ein Mikro eingesteckt worden
    ist und schaltet erst dann seinen Verstärker
    an, mein Nokia 95 8GB arbeitet genauso.


    Kurz vor einem Sound und danach ist
    Rauschen zu hören. Sonst hört man nichts.

    Ah, danke.


    Also das ist echt unakzeptabel!!!


    Da es wohl der Verstärker in der Soundkarte
    ist, vermeide ich erstmal das Fluchen.
    Würde mich aber freuen, wenn Du, insofern
    Du eine kaufst, auch eine Probeaufnahme
    von der neuen Soundkarte hochlädst.


    Edgar hat mich schon ein wenig eingeführt,
    aber ich hatte da bisher noch keine Erfolge.

    Kurze Verständnisfrage:


    0 Herz gibt es nicht, -1Hz wohl schon garnicht.
    Aber ein um 180° verschobenes Phasensignal
    in relation zur originalaufnahme könnte man doch
    -1Hz nennen, oder?


    Was ich sonst noch sagen wollte:
    Wen interessiert überteuerte Hardware
    wenn sie einen Hochpassfilter bietet.


    Die meisten Mikrofone haben einen Frequenz-
    gang ab 20 HZ. Wo ist da das Problem Audacity
    zum abschneiden der Frequenzen zu benutzen?


    Obwohl ich zugeben muss, aus irgendeinem Grund
    kann man Frequenzen am Ende des Spektrums
    besser abschneiden, als am Anfang.


    Vielleicht ist das auch nur so gewollt bei Audacity
    weil man sich dachte dass man die Anfangsfrequenzen
    zumindest nie ganz abschneiden will.


    (Beim Filtern gibts da ja auch verschiedene Kurvenarten)