Wäre es Mono oder Stereo - M/S Processing

  • ich habe das Gefühl wenn ich meine Instrumente (z.B. Piano) im Stereo verteilen will dass trotzdem auf beiden Seiten das gleiche Signal kommt und nur lauter wird. Liegt es vllt. daran das mein Kanal Mono ist?
    ich benutze auch externe Stereo Plugins wie den ozone imager und im vectorscope zeigt es aber dass es in Stereo ist... weiß einer warum oder täusch ich mich einfach nur?

  • Was ist Mono:


    Mono (kurz für Monophonie) bedeutet einen Audiokanal. Stereo bedeutet mehr als eins. Wenn Sie einen Gesang mit einem Mikrofon und einem Kanal an Ihrer Schnittstelle in Ihre DAW aufnehmen, ist dies Mono. Mono ist eins.

    Wenn wir ein Monosignal in unserer DAW haben, wird es an einen Stereobus gesendet. Es ist technisch immer noch Mono-Information, aber dasselbe Mono-Signal wird jetzt sowohl an L als auch an R gesendet. Dadurch entsteht ein Bild in der Mitte.

    Mono-Informationen in einer Stereo-Umgebung entsprechen Center-Informationen. Da unsere Ohren dasselbe von beiden Seiten bei gleicher Lautstärke und gleichzeitig hören, lokalisieren unsere Gehirne dies als Zentrum. Dies ist sinnvoll, da es in der realen Welt so funktioniert. Wenn ein Ton vor uns kommt, erreicht er beide Ohren gleichzeitig und mit derselben Intensität. So wissen wir, dass
    es vor uns herkam.


    Was ist Stereo:


    Stereo (kurz für Stereophonie) ist die Wiedergabe von Sound mit zwei oder mehr unabhängigen Audiokanälen. In der Musik verwenden wir die linke und rechte Konfiguration von Stereo, um eine dreidimensionale Klangbühne zu schaffen, die mit einem einzigen Kanal (Mono) nicht möglich wäre. Wie würden Sie etwas so klingen lassen, als würde es von links kommen, wenn Sie nur einen Lautsprecher direkt
    vor Ihnen hätten.


    Wie wir den Sound im Stereofeld lokalisieren:


    Interauraler Intensitätsunterschied - Dies ist ziemlich einfach und einfach über Kopfhörer oder Lautsprecher zu simulieren. Wenn der gleiche Klang einfach von einem Kanal zum anderen kommt, wird er als solches lokalisiert. Wenn mehr von derselben Gitarre aus dem linken Kanal kommt als von der rechten, wird unser Gehirn dies weiter links positionieren, egal ob wir die Lautsprecher oder Kopfhörer überwachen.

    Der Intensitätsunterschied zwischen dem Klang, der Ihr linkes Ohr und Ihr rechtes Ohr erreicht, ist nicht nur eine Frage der Lautstärke. Sie müssen bedenken, dass Ihr Kopf bis zu Ihrem rechten Ohr den Ton auf irgendeine Weise maskiert hat, wodurch das Signal auf eine tonalere Weise weiter verzerrt wird. Dies ist ebenso wie die interaurale Zeitdifferenz theoretisch ein Grund, warum Überwachung von Stereo zwischen Lautsprechern und Kopfhörern sehr
    unterschiedlich ist.


    Interauraler Zeitunterschied - Dies ist grundsätzlich der Grund, warum Kopfhörer kein echtes Stereobild erzeugen. Wenn in der realen Welt ein Geräusch von links kommt, hört das rechte Ohr das gleiche, etwas später als das linke Ohr. Unser Gehirn verwendet diese Informationen (sowie IID) zur Lokalisierung der Schallquelle. Dieser zeitliche Unterschied zwischen links und rechts wird als interaurale Zeitdifferenz bezeichnet. Im Kopfhörer hört unser linkes Ohr nur den linken Kanal und das rechte hört nur den rechten. Wenn Sie ein Instrument zur Hälfte nach links schwenken, hört es auch das rechte Ohr, nur ohne zeitliche Abweichung wie
    mit Lautsprechern.


    So erhalten Sie ein Stereo-Breitbild:


    Ein breites Stereobild ist, wenn ein Ton aus verschiedenen Winkeln zu sein scheint, wie eine Klangwand. Etwas viel größer als das, was möglich wäre, wenn wir nur einen Sprecher hätten. Nehmen Sie zum Beispiel ein Orchester. Es wäre praktisch unmöglich, dies mit nur einem Mikrofon und einem Mono-Lautsprecher vollständig zu vermitteln. Wir würden den Ton entweder in Stereo aufnehmen und wiedergeben, oder wir würden Monoaufnahmen aufnehmen und sie in der Mix-Phase auseinander schwenken. Oder beides!

    Die Stereobreite wird erreicht, wenn das, was von links kommt, sich von dem der rechten unterscheidet. Wenn ich beispielsweise Gitarren aufspreche, werde ich denselben Part zweimal aufnehmen und nach links bzw. rechts schwenken. Dies ist effektiv, da es sich um zwei verschiedene Audiostücke handelt, selbst wenn ich dasselbe Riff spiele. Dies vermittelt ein Gefühl der Breite. Eine Technik, die in der Rock- und Metalmusik sehr verbreitet ist.

    Wenn ich jedoch nur eine Aufnahme gemacht habe, dann ganz links und rechts, exakt das gleiche Audio kopiere und ganz nach rechts verschiebe, würde ich nur die Illusion von Center erreichen. Dies ist eine sinnlose Übung, da ich vielleicht die eine Kopie in die Mitte gepackt hätte. Der Effekt ist derselbe.

    Ein schmales Bild ist, wo L und R sehr ähnlich oder gleich sind. Bei einem breiten Bild sind L und R unterschiedlicher. Ein wirklich breites Bild hat etwas von beidem. Panning ist dein Freund. Wenn Sie Breite wünschen, stellen Sie sicher, dass Sie zu Beginn der Produktionsphase eine Panning-Strategie verwenden. Stereo ist eine Bühne. Behandle
    es als solches.


    Stereo Balancing vs True Panning:


    Wenn Sie eine Stereospur "schwenken", drehen Sie normalerweise einen Kanal nach oben und den anderen nach unten (relativ gesehen). Dies wird eigentlich als Stereo-Balancing bezeichnet. Dies ist wahrscheinlich das Standardverhalten Ihrer DAW, wenn Sie eine Stereospur verschieben. Wenn Ihre DAW jedoch True Panning unterstützt, ist dies ein anderes Tier. Bei dieser Methode schwenken (bewegen) beide Kanäle (links und rechts) tatsächlich in die von Ihnen angegebene Richtung, im Gegensatz zu einem Kanal, der relativ zu dem anderen Kanal gedreht wird. Ich gebe ein Beispiel:

    Stellen Sie sich eine Situation vor, in der Sie eine Stereo-Audiospur in Ihrer DAW hatten, und auf dieser Spur war ein Audioclip, und in diesem Audioclip hatten Sie irgendwie ein Klavier im linken Kanal, aber einen Sänger rechts.

    Wenn Sie den Pan-Poti im Stereo-Balancing-Modus verwenden und nach links schwenken, drehen Sie den Sänger einfach nach unten und das Klavier nach oben.

    Mit 'True Panning' schwenken Sie den Sänger nach links, um sich dem Klavier anzuschließen. Nichts auf der rechten Seite, sowohl Klavier als auch Vox links.

    Verschiedene DAWs unterstützen dies auf unterschiedliche Weise. Daher ist es wichtig zu wissen, ob der von Ihnen verwendete Pan-Potentiometer tatsächlich ein echter Panner oder ein Stereo-Balancer ist. Im Zusammenhang mit einer Monospur muss es ein Panner sein, da dort keine L- und R-Kanäle vorhanden sind. Wie bereits erwähnt, ändert ein Stereo-Balancer nur die relativen Lautstärken
    von L und R.


    Pan Law:


    Ohne Schwenkgesetz verdoppelt sich in der Mitte alles, was sich in der Mitte befindet. Das Pan-Gesetz gleicht dies aus, indem es um alles, was in die Mitte verschoben wird, um 3 dB verringert wird. Wenn Sie also etwas von links nach rechts schwenken, bleibt das scheinbare Volumen während der gesamten Bewegung konstant. Es gibt tatsächlich mehr als einen Standard für das Pan Law, ein weiteres Kaninchenloch, das ich für diesen Artikel weitergeben
    möchte.


    Was machen Stereo-Spreader:


    Sie nehmen einfach Ihre Stereoinformationen und manipulieren die L- und R-Kanäle weiter, damit sie sich voneinander unterscheiden, was zu einem breiteren Stereobild führt. Sie tun dies normalerweise, indem sie die relative Phase zwischen den beiden Kanälen manipulieren.

    Sie können diese für Monosignale verwenden, um die Informationen in Stereo umzuwandeln. Stereo-Spreizer können häufig in unterschiedlichen Mengen über verschiedene Frequenzbänder verwendet werden.

    Streuer sind jedoch recht stumpfe Instrumente. Sie können nur mit dem arbeiten, was da ist. Wenn Sie versuchen, ein Monosignal in ein breites zu konvertieren, ist dies immer ein Kompromiss. Dies gilt insbesondere, wenn Sie den Mix zu einem späteren Zeitpunkt zu Mono summieren. Die unterschiedliche Phase zwischen L und R führt zu phasenbezogenen Problemen in einer Mono-Überwachungsumgebung.

    Deshalb denke ich, dass es normalerweise besser ist, auf den Mix zurückzukommen und Ihre Strategie weiter zu verfeinern. Eine vollständige, breite Mischung entsteht nicht durch Verbreiterungstools. Es kommt von einem durchdachten Stereo-Mix.

    Einige Tools verwenden die Summen / Differenz-Verarbeitung (AKA Mid / Side), um die Differenz zwischen links und rechts zu erhöhen, wodurch ein breiteres Bild entsteht. Das bringt uns auf eine der am meisten missverstandenen Konzepte
    von Audio heute.

    ,,,

  • ,,,


    Was ist Mitte / Seite:


    Mid / Side ist eigentlich Summe und Differenz.


    Was ist Mid / Sum:


    L + R. Genau das gleiche wie das Summieren zu Mono.


    Was ist der Unterschied:


    L - R. Der Unterschied zwischen links und rechts. Das Gleiche wie das Aufnehmen einer Stereodatei und das Umkehren der Polarität eines Kanals. So funktioniert es eigentlich.


    Warum Mitte / Seite:


    Mit Mid / Side können Sie die Summen- und Differenzkanäle unabhängig voneinander behandeln. Meiner Meinung nach kann es einen Platz im Mastering einnehmen, wenn es sachkundig eingesetzt wird.

    Beim Mastern zum Beispiel möchten Sie möglicherweise die Verstärkung des Seitenkanals erhöhen, um das Stereobild zu verbreitern. Wenn Sie den Pegel des Seitenkanals erhöhen, erhöhen Sie den Unterschied zwischen links und rechts und erzeugen so ein breiteres Bild. Wenn Sie dagegen den Mitten- / Summenkanal vergrößern, verringern Sie die Differenz zwischen links und rechts und verkleinern das Bild. Sie verlieren oder gewinnen nie neue Inhalte, Sie konvertieren sie einfach.

    Um Ihnen ein realistischeres Beispiel zu geben, können Sie einen Low-Cut-Filter auf den Seitenkanal anwenden, um alles unterhalb der Grenzfrequenz in Mono- / Summen- / Mittelpunkt-Informationen umzuwandeln. So funktionieren Monomacher. Auch hier haben Sie keine Energie unter dem Grenzwert verloren, Sie haben sie einfach umgewandelt.

    Alles in allem würde ich nichts davon üben, nur weil es da ist und weil Sie es können. Die Mid / Side-Verarbeitung ist nicht besser als die normale Stereoverarbeitung. Es ist nur anders In Stereo behandeln Sie einen oder beide Kanäle. In Mid / Side behandeln Sie beide oder den Unterschied zwischen den beiden. Das ist grundlegend
    der Unterschied.


    Wie wird Mid / Side wieder in L und R dekodiert:


    Wenn Sie Mid- / Side-Plugins selbst verwenden, müssen Sie dies nie tun. Dies ist jedoch sehr einfach und es ist wichtig zu wissen; das Decodieren eines Mid / Side-Signals zurück zu L und R ist wie folgt:


    L = (M + S) / 2 (Mitte mit Seite summiert)

    R = (MS) / 2 (Mid-Minus-Seite)


    Die Division durch 2 ist einfach da, weil der Summiervorgang eine Verdopplung der Leistung des ursprünglichen Stereosignals bewirkt. Wir negieren einfach 3dB, um zum Gewinn der Einheit
    zurückzukehren.


    ~quelle~

FL Studio Shop.de