Tontechnik, ich bin enttäuscht.
Wo sind die Tricks?
Posts by saint.itch
-
-
ich hab mich gerade durchgequält:
Ergebnis ist...
Ich beweise dass es möglich ist, bei Phasendrehung
das selbe Signal ungedreht zu eliminieren.
Eine Trennung ist nicht möglich, also bleibt nur der
Weg, mir dass als Signal zu holen, was ich auslösche,
wenn ich bei der Stereoaufnahme einen Kanal invertiere
und dann beides auf Mono stelle.Denn das ist das Nutzsignal!
Das kann man dann nicht mehr hören.
Zwar in Mono, aber dass ist wirklich sch... egal.
Allerdings glaube ich, dass dieser Effekt weniger zum
tragen kommen würde, als erhofft.
Ich schein dass mit den Samples noch nicht ganz
verstanden zu haben. Das Rauschen ist da wohl
mit drinnen wie Du sagst. Aber 10-20% Rauschen würde
meine Methode entfernen.Gibt es vllt. einen Debugbefehl o.ä. wo das Phasenauslöschen
quasi umgekehrt wird?PS:
Vom Karaoke-Effekt hab ich den "Trick" ja -
Quote
Anders formuliert bedeutet das:if ( Nutzsignal+Rauschen_1 = Nutzsignal+Rauschen_2 ) {
...
}
Nicht ganz.Also wenn ich das richtig verstanden habe, ist die Samplerate
die Aufnahme pro Sekunde, wie Bilder in der Sekunde.Der Unterschied wäre die Anzahl, Bilder sind ab 25 flüssig.
44'100 Aufnahmen in der Sekunde ist da schon ein wenig mehr.Ich habe mir dass so gedacht:
Ein Sample ist ein Bruchteil einer Sekunde mit einer Frequenz.
Also Nutzsignal, Rauschen, Nutzsignal, Rauschen.Erst das Abspielen dieser großen Menge sorgt für eine
vermischte WahrnehmungVielleicht drücke ich mich falsch aus, aber das es möglich
ist, zeigt dass die Phasendrehung das Nutzsignal auslöscht.
Und das ist ja nicht weiteres als die Rechnung:if(signal1 = signal2) && (signal1 = 90°_gedreht) (signal2 = 90°_gedreht)
Zumindest so ähnlich.
Hast Du da vllt. eine Richtung mit einem Tutorial o.ä. -
Spur: Stereoaufnahme
Links : eigenes Rauschen + Nutzsignal
Rechts: eigenes Rauschen + NutzsignalDies lässt sich mittels Phasenverschiebung
um 180° nachweisen:Spur: Stereoaufnahme (rechter Kanal 180° Phasenverdreht)
Links : eigenes Rauschen + Nutzsignal
Rechts: 180° (eigenes Rauschen + Nutzsignal)Das Ergebnis ist ein fast vollständig vom
Nutzsignal bereinigtes Rauschen von linken
sowie um 180° verschobenen rechten Kanals.
Aufgrund der statistischen Unterschiede
des sogenannten weißen Rauschens kann sich
das Rauschen aus dem linken und rechten Kanal
nicht aufheben, da sie sich unterscheiden.Leider ist es nicht möglich dieses Rauschen
phasenverschoben gegen das in Mono zusammen-
gemixte Original laufen zu lassen, da diese
Rauschspur wenn sie zu einer Monospur zusammen
-gemixt wird das Rauschen des rechten Kanals
bereits phasenverschoben beinhaltet. Der linke
Kanal würde sein eigenes Rauschen zwar verlieren,
aber dafür würde das phasenverschobene Rauschen
sich verstärken.Nyquist
----------------------------------------------
Um das Rauschen zu reduzieren ergibt sich also
folgender Ansatz, aufgrund der Stereoaufnahme:if( sample_linker_kanal[position] = sample_rechter_kanal[position] ) {
neue_spur_samples[position] = sample_linker_kanal[position]
}Die Abfrage wird nur wahr, wenn in beiden Samples
das Nutzsignal gefunden wurde. Ein Rauschsample
wird sich aufgrund des statistischen unterschiedes
unterscheiden. Aufgrund der Redudanz durch das
Stereomikrofon ist es also möglich Nutz- von Rausch-
Signal zu unterscheiden.Leider kann ich Nyquist nicht und die Hemmschwelle
ist nicht gering. Kann mir jemand den Code oben
in Nyquist übersetzen? -
Wie gut dass ich gepostet habe, stürzt
gerade zum ersten mal nicht ab.Aber ich werd jetzt nix von Theismus
erzählen................ -
Menu: Transport->Andere Spuren beim Aufnehmen Wiedergeben.
Du weisst das Du dann Kopfhörer brauchst, ja?
-
Ich schreibs jetzt einfach mal hier rein:
edgar hatte schonmal von Rechenfehler geschrieben
und ich habs gelesen.Ich find die Idee auch gut, ist eben im gegebenen Rahmen
das Workaround für verlusstlosigkeit. Mit der aktuellen
Version von Audacity stürzt mir das Programm aber ab,
wenn ich zb 88,2 kHz Frequenz eingestellt habe und
dann den Rauschfilter benutze.Seit dem bin ich quasi ein wenig Traumatisiert und
vorsichtig. Bin es nicht gewohnt das opensource abstürzt.
(naja, ist ja noch eine Vorversion, da ist das normal)Hab Platz genug und will mir lieber nichts verbauen und später
auch lieber abschneiden. Hat sonst noch einer das Problem hier? -
Apropos FLAC.
Ich hab auch schon mal daran gedacht, das
als Standardformat für Audacity vorzuschlagen.Denn WAV ist ja eigentlich MS.
Und FLAC ist komprimiert und verlusstfrei.
-
Du meinst wahrscheinlich sowas hier:
[Blocked Image: http://images.hardwarecanucks.com/image/robscix/Snd_Cards/Xonar%20DX/5532.jpg]Leider sind meine Elektronikkenntnisse auf Strommessen beschränkt.
Achja, V*A=WWenigstens weiss ich was ein Amplifier ist,
aber das OP, wofür steht das? -
Naja, zu danken gibts da nichts.
Wir haben dann nur festgestellt
dass bei Dir wohl wirklich etwas
nicht funktioniert, wie es soll.Wenn alles nichts hilft, Profildaten
löschen. Das ist wie bei Linux und
das Äquivalent zur Windows Neuinstallation.Vorsicht
Backup vom Equalizer etc machen. -
Ich habe diesbezüglich hier schonmal einen Beitrag gelesen,
finde den jetzt aber nicht. Such besser nochmal.Eine Antwort gibt es und kosten tuts auch nichts.
(Die im Studio benutzen selbst PCs mit Software,
vllt. sogar Audacity ) -
Bei einem Amplifier mit Phantomspeisung
ist es ja eigentlich geläufig anerkannt, dass
dieser so oder so Rauschen hinzufügt, egal
wie gut. -
Wenn ich mich dazu äußern darf.
Es muss nicht am Mikro liegen.
Auch wenn mir jetzt schon einige
male erklärt worden ist, dass es
am FET liegt, der durch seine
Verstärkung des Singals eben auch
Rauschen beifügt, so ist es doch so,
dass ein Kabel wo das Mikro abgetrennt
ist also auch kein FET dran ist, bei
meiner Soundkarte Rauschen verursacht.Erklären lässt sich das so, die Soundkarte
erkennt ob ein Mikro eingesteckt worden
ist und schaltet erst dann seinen Verstärker
an, mein Nokia 95 8GB arbeitet genauso.Kurz vor einem Sound und danach ist
Rauschen zu hören. Sonst hört man nichts. -
Also wenn man Stille zu Stille macht und den Text mit Rauschentfernung
von -12 bis -20db macht klingt es ein klein wenig besser.
Aber optimal ist das sicher nicht. -
Ah, danke.
Also das ist echt unakzeptabel!!!
Da es wohl der Verstärker in der Soundkarte
ist, vermeide ich erstmal das Fluchen.
Würde mich aber freuen, wenn Du, insofern
Du eine kaufst, auch eine Probeaufnahme
von der neuen Soundkarte hochlädst.Edgar hat mich schon ein wenig eingeführt,
aber ich hatte da bisher noch keine Erfolge. -
- posting entfernt -
falscher Beitrag -
Ich kann meine Kenntnisse leider nicht in
Relation zur Tonbearbeitung setzen, da
fehlen mir einfach Erfahrungswerte.Aber ich würd sagen das triffts ganz gut.
Wo ein Wille ist, da ist auch ein Weg
-
Kurze Verständnisfrage:
0 Herz gibt es nicht, -1Hz wohl schon garnicht.
Aber ein um 180° verschobenes Phasensignal
in relation zur originalaufnahme könnte man doch
-1Hz nennen, oder?Was ich sonst noch sagen wollte:
Wen interessiert überteuerte Hardware
wenn sie einen Hochpassfilter bietet.Die meisten Mikrofone haben einen Frequenz-
gang ab 20 HZ. Wo ist da das Problem Audacity
zum abschneiden der Frequenzen zu benutzen?Obwohl ich zugeben muss, aus irgendeinem Grund
kann man Frequenzen am Ende des Spektrums
besser abschneiden, als am Anfang.Vielleicht ist das auch nur so gewollt bei Audacity
weil man sich dachte dass man die Anfangsfrequenzen
zumindest nie ganz abschneiden will.(Beim Filtern gibts da ja auch verschiedene Kurvenarten)
-
Wenn in der Dokumentation über die Karte dieser
Gleichstromversatz kein "feature" ist (ich denk da
an MicroSoft), dann gäbe es die Mängelhaftung.Wenn das Gerät vor weniger als zwei Wochen
erworben worden ist, das Rückgaberecht. -
YES!
Ok, jetzt wird Zeit aufzuräumen und zu Kategorisieren.
Manomanoman :)))Das wird mein GIMP für Sound!