Tutorialreihe: Equalizing und Kompression

  • Moin!


    Wie schon einem der Threads hier im Forum angekündigt, hab ich mich jetzt entschlossen erneut ein paar Tutorials zu erstellen. Ich werde mich mit den Themenkomplexen Equalizing und Kompression beschäftigen, aber bei meinen Erklärungen in soweit allgemein bleiben, dass man meine Ausführungen auch DAW-übergreifend anwenden kann. Mit einer Ausnahme: Wenn ich über Maximus sprechen werde. Meines Wissens nach ist das Plugin relativ einzigartig und ich lese auch immer wieder Kommentare, wo den Leuten offensichtlich nicht so ganz klar ist wie Maximus und die Arbeit damit funktioniert. Den Themenbereich Equalizing hab ich mit dazugenommen, da man meiner Meinung nach das Thema Kompression nicht ausreichend erklären kann, ohne vorher auch über die Verwendung des Equalizers zu sprechen.


    Hier gibts das erste Video, bei dem ich über die grundlegende Bedienung des Parametrischen EQ 2 rede:



    Die nächsten Videos erfolgen dann (hoffentlich) im wöchentlichen Rhythmus. Freu mich über Kommentare und Feedback, vor allem auch von den Alteingesessenen und Professionellen hier im Forum. Falls ich irgendwo Unsinn erzähle, weißt mich bitte darauf hin, damit ich das in den Videoanmerkungen korrigieren kann. :)


    Viel Spaß!

  • Danke mehr als brauchbar. Also ist das ein professionelles werkeln, seine Instrumente mit low-band-high-passes zu versehen. ;)
    Jetzt kann ich zum Thema EQing ganz anders rangehen.
    Jetzt kann ich mir auch ausmalen, warum das bei manchen so sauber und rein klingt.

  • Und weiter gehts mit dem nächsten Teil. Diesmal theoretische Grundlagen für die Verwendung des EQs und der Einsatz des Lowcuts!



    Wie immer, Feedback und Kommentare nehme ich gerne entgegen. Vor allem wenn ihr mich korrigieren wollt, weil ich irgendwas falsches erzähle! Viel Spaß! ;)

  • Hi!
    Also im ersten Tutorial waren ein paar Ungenauigkeiten, aber im zweiten sind tatsächlich einige Sachen falsch, bzw. unvollständig, so dass man es falsch verstehen könnte:


    1. ca. 5:10


    Die Hörkurve, die du aufgemalt hast ist falsch, es gibt keinen Sensitiven bereich bei 0,8 kHz und 10 kHz. Das ist die Phon Grafik, aber nicht die dBspl Grafik! Phon wird anders gemessen und berechnet. Außerdem verschweigst du, dass die Hörkurve lautstärkenabhängig ist. Man kann den Eindruck gewinnen, dass die Kurve immer gleich ist, so wie du das erklärst. Zwar ist Fletcher-Munson mittlerweile umstritten, aber beim mp3 Algorithmus z.B. ist es immernoch diese Kurve, die benutzt wird:



    Ich würde mir wünschen, das du noch auf die Abhörlautstärke und den damit verbundenen Höreindruck eingehst.


    2. ca. 8:24


    Du sagst, dass die dB Anzeige in FL den Schalldruckpegel anzeigt. Das ist falsch, sie zeigt dBfs digital an. Und je nach dem was man bei der Soundkarte für einen Referenzwert (+4 dBu, -10 dBV) einstellen, erzeugt der dBfs Wert eine andere korrespondierende Spannung, die dann über den Verstärker, und die daran angeschlossenen Lautsprecher, in dBspl sozusagen gewandeln werden kann. D.h. aber auch, dass der dBfs Pegel nicht zwangsläufig den analogen Signalpfad zum zerren bringt. Gute Monitore können z.B. bis zu +24 dBu problemlos wiedergeben ohne zu zerren.



    3. ca. 10:30


    Das mit dem Headroom ist verwirrend. Man darf mit den Peaks an die 0 dBfs Grenze stoßen. Man darf nur nicht drüber. Beim Mastern ist der Crestfaktor entscheident, nicht der Headroom. Die Peaks könnte man zur Not über 'Runternormalisieren' auf einen kleineren Spitzenwert bringen, wenn man wollte. Denn selbst wenn du 4 dBfs Headroom lässt: wenn der Song eine Crestfaktor von z.B. < 4 dB hat kann man damit so gut wie nichts mehr machen. Das ist warscheinlich das, was du vermitteln wolltest, oder?


    Und noch was: nicht die Boxen klippen, sonder es werden Verzerrungen erzeugt, weil der Wertebereich nach dem Rendern in der Datei aufgebraucht ist, und dass äußert sich halt mit klipping bei der Wiedergabe. Die Boxen geben nur das wieder, was ihnen geliefert wird. Man kann den FL Master auch über 0dBfs bringen, ohne dass es zerrt, da man an diesem Punkt noch im 32 Bit float 'Modus' ist (theoretisch unendlicher Wertebereich), und wenn genug Reserven im Wandler und im analogen Signalweg vorhanden sind. Erst beim Rendern kommt es dann zum Clipping, da dies mit Festkommawerten geschieht (z.B. wave).


    4. ca. 19:11


    Man bekommt den Eindruck, als ob man dB Werte einfach addieren könnte. Das ist falsch, dB Werte sind logarithmisch und müssen für einen Addition erst 'de-logarithmiert', addiert und danach wider logarithmiert werden.


    z.B. dBspl: L1 + L2 = 20*log(10^(L1/20)+10^(L2/20)) [dBspl]


    Deswegen führt die Addition der beiden Kanäle zu einem andern Ergebnis. Das hat nicht unbedingt was mit der Frequenzüberlagerung zu tun! Man kann die Anzeige in FL auch umstellen, dann erhält man noch andere Werte, die nicht so extrem sind.


    5. ca. 23:40


    Hier muss ich ziemlich energisch wiedersprechen. Prinzipiel alles wegzuschneiden, was wie du sagst "nicht gebraucht wird" ist eine falsche Herangehensweise. Ein EQ ist keine Putzfrau, die den Keller fegt! Denn jedes mal, wenn ein Filter gesetzt wird, verschiebt er die Phase des Signals. Gerade wenn man Sounds layert kann das zu extremen Effekten führen wie Kammfilter o.ä., die noch schlechter klingen, als wenn der nicht gebrauchte Bereich bleibt.


    Das fehlt mir auch etwas in deinem Tutorial: du verlierst kein Wort über die Phase eines Filters!


    6. ca 25:00


    Alles mit einem Lowcut zu belegen macht den Sound total phasig und unsauber. Genau das Gegenteil, was man erreichen möchte! Wenn man Filter vermeiden kann, sollte man sie weglassen!!! Das sagst du zwar später auch, es bezieht sich aber auf eine andere Sache!


    Das mit dem 'Platz' ist auch so eine Sache: man kann auch einfach alle Kanäle absenken um 'Platz' zu sparen. Den Pegel kann man bequem auf dem Master mit den üblichen Tools wieder aufholen! Es klingt z.B. am Ende sauberer, den Gesamtbassanteil auf dem Master abzusenken als überall einzeln, da so die Phase stabiler bleibt.



    7: ca. 29:50


    Das ist genau falsch! In der digitalen Welt hat man unendlich Headrom bei 32 Bit Float! Erst nach dem Rendern entsehen dann Probleme. Und Überlagerungen im Bassbereich sind kein Problem, solange man den Gesammtpegel im Blick hat. Würde man, wie du es erklärst z.B. eine Band mischen, würde das ziemlich schräg und unnatürlich klingen.



    Alles in allem: Ein schönes Tutorial, aber inhaltlich würde ich mir mehr Teifgang wünschen. Viele Dinge, die du ansprichst, sind leider nur Halbwahrheiten, oder können so wie du sie darstellst, missverstanden werden.

  • @ Tomess: Ich halte die Tutorials für sehr praxisnah. Natürlich wird nicht im Detail auf Musiktheorie eingegangen. Auch ist das Thema Headroom ausbaufähig, und nicht ganz korrekt. Aber die meisten Musiker sind keine Theoretiker, sondern Praktiker. Und aus der Praxis heraus gesehen ist vorallem der EQ- Tipp Gold wert.


    Man kann "nur" mit der Technik des richtig gesetzten Lowcuts einen kompletten Song abmischen. Das funktioniert. Phasenverschiebungen kommen natürlich vor. Ich halte diese aber normalerweise für vernachlässigbar. Viel schlimmer ist es, wenn du in einem Mix z.B. 20 Spuren ohne EQ- Bearbeitung gleichzeitig verwendest, und sich die Bassfrequenzen von Lead, Klavier, Pad, Bassline, Kickdrum, Snare, Clap usw. addieren. Da Bassfrequenzen die meiste Energie im Mix mit sich bringen, kriegst du so ohne EQ ein sehr matschiges Gesamtergebnis.


    Ein matschiger Song lässt sich auch nicht mehr (oder nur in schlechter Qualität) laut mastern, da sich einfach zu viele Frequenzen in den Tiefbässen und unteren Mitten tummeln. Du kannst natürlich die Summe im Master mit einem Lowcut versehen, bekommst dann aber nicht die Probleme in den Griff, wenn sich mehrere Instrumente in den unteren Mitten tummeln, und gegenseitig überlagern. Häufig bewirkt es Wunder, einen Lowcut vom einem mittigen Instrument etwas höher anzusetzen, sodass mehr Platz für das zweite Instrument geschaffen wird, und beide wieder besser in den Mix passen.

  • Hey Tomess! :)


    Erst einmal: Wow, vielen Dank für das detaillierte Feedback! Für alle deine Kommentare bei denen klar ist, dass ich etwas falsch oder unklar rübergebracht habe, werde ich im Video eine Anmerkung einfügen und den Sachverhalt klären! :)


    Zu einigen Punkten möchte ich aber auch noch ein paar Anmerkungen machen:



    Zitat


    1. ca. 5:10



    Die Hörkurve, die du aufgemalt hast ist falsch, es gibt keinen Sensitiven bereich bei 0,8 kHz und 10 kHz. Das ist die Phon Grafik, aber nicht die dBspl Grafik! Phon wird anders gemessen und berechnet. Außerdem verschweigst du, dass die Hörkurve lautstärkenabhängig ist. Man kann den Eindruck gewinnen, dass die Kurve immer gleich ist, so wie du das erklärst. Zwar ist Fletcher-Munson mittlerweile umstritten, aber beim mp3 Algorithmus z.B. ist es immernoch diese Kurve, die benutzt wird:


    Die Hörkurve habe ich von Wikimedia Commons genommen und bin dem Fall nicht davon ausgegangen, dass die Darstellung nicht korrekt ist. Kann das vielleicht noch jemand bestätigen, dass die von mir verwendete Grafik definitiv falsch ist? In dem Fall würde ich das per Anmerkung im Video korrigieren.





    Zitat


    Ich würde mir wünschen, das du noch auf die Abhörlautstärke und den damit verbundenen Höreindruck eingehst.



    Ist für das nächste Video notiert! :) Allerdings war es mein Hauptanliegen in diesem Video den generellen Zusammenhang zwischen tieferen Frequenzen und höherem notwendigen Schalldruckpegel zu vermitteln. Dass es hier Ausnahmen gibt und die Wahrnehmungskurve flacher wird, wenn die Abhörlautstärke erhöht wird, würde ich daher in einem der nächsten Videos besprechen.



    Zitat


    2. ca. 8:24



    Du sagst, dass die dB Anzeige in FL den Schalldruckpegel anzeigt. Das ist falsch, sie zeigt dBfs digital an. Und je nach dem was man bei der Soundkarte für einen Referenzwert (+4 dBu, -10 dBV) einstellen, erzeugt der dBfs Wert eine andere korrespondierende Spannung, die dann über den Verstärker, und die daran angeschlossenen Lautsprecher, in dBspl sozusagen gewandeln werden kann. D.h. aber auch, dass der dBfs Pegel nicht zwangsläufig den analogen Signalpfad zum zerren bringt. Gute Monitore können z.B. bis zu +24 dBu problemlos wiedergeben ohne zu zerren.


    Das ist korrekt, definitiv ein Fehler von mir hier in der Erklärung der Peakanzeige in FL. Ich habe bereits eine Anmerkung in das Video eingefügt, um das noch einmal zu klären. Die zweite Hälfte deiner Anmerkung wird mir jedoch nicht so ganz klar: Wenn ich in FL auf dem Master die 0dBFS überschreite dann kommt es im digitalen Signalweg (solange es sich um 32bit float handelt) nich zum Zerren. Da aber nahezu alle Abspielgeräte mit 16bit oder 24bit arbeiten, kommt es bei der Wandlung hier doch immer (bzw. in 99% der Fälle, möglicherweise gibt es Abhörmonitore die das wiedergeben können) zum Clipping. Vielleicht kannst du diesen Punkt noch mal genauer ausführen!




    Zitat


    3. ca. 10:30



    Das mit dem Headroom ist verwirrend. Man darf mit den Peaks an die 0 dBfs Grenze stoßen. Man darf nur nicht drüber. Beim Mastern ist der Crestfaktor entscheident, nicht der Headroom. Die Peaks könnte man zur Not über 'Runternormalisieren' auf einen kleineren Spitzenwert bringen, wenn man wollte. Denn selbst wenn du 4 dBfs Headroom lässt: wenn der Song eine Crestfaktor von z.B. < 4 dB hat kann man damit so gut wie nichts mehr machen. Das ist warscheinlich das, was du vermitteln wolltest, oder?


    Und noch was: nicht die Boxen klippen, sonder es werden Verzerrungen erzeugt, weil der Wertebereich nach dem Rendern in der Datei aufgebraucht ist, und dass äußert sich halt mit klipping bei der Wiedergabe. Die Boxen geben nur das wieder, was ihnen geliefert wird. Man kann den FL Master auch über 0dBfs bringen, ohne dass es zerrt, da man an diesem Punkt noch im 32 Bit float 'Modus' ist (theoretisch unendlicher Wertebereich), und wenn genug Reserven im Wandler und im analogen Signalweg vorhanden sind. Erst beim Rendern kommt es dann zum Clipping, da dies mit Festkommawerten geschieht (z.B. wave).


    An dieser Stelle habe ich hauptsächlich aus meiner persönlichen Erfahrung heraus den Sachverhalt erklärt: Der Headroom war für mich bisher immer der "Sicherheitsabstand" vor der Vollaussteuerung des digitalen Signals. Wenn in meinem Track eine Kick bis an die 0dBFS peakt und ich anschließend den Track mastern möchte, macht der Limiter/Maximizer relativ schnell "dicht" und es kommt zum Pumpen oder eben zum Clipping. Dabei können aber alle anderen Signale abseits der Kick noch relativ leise sein, was dann letztendlich meinen Spielraum im Mastering einschränkt. Wichtig wäre hier noch, dass nicht nur der maximale Peak zählt, sondern auch die Dynamic Range meines Summensignals. Diesen Punkt wollte ich aber auch erst in einem weiteren Video (Kompression) besprechen. Und als Nebenbemerkung: Ich vermute, dass viele Unklarheiten und Unsauberkeiten vor allem daher kommen, dass ich nicht alles in einem Video besprechen kann, alle diese Konzepte und Methoden aber unweigerlich zusammenhängen. Wenn man hier bereits viel Erfahrung besitzt dann sagt man sich natürlich sofort: "Der hat doch vergessen über XYZ zu sprechen!" ;)


    Zu den Boxen: Korrekt, erneut unglückliche Beschreibung meinerseits. Werde ich im Video anmerken und ausbessern.




    Meine Beschreibung als "Addition" war hier ebenfalls wieder hauptsächlich unglücklich formuliert. Mir war es wichtig, dass ich das grundlegende Konzept der Frequenzüberlagerungen rüberbringe. Und ob die Veränderung der dB Werte groß oder klein ist: Wichtig war hier, dass das Entfernen der tiefen Frequenzen zu einer Absenkung des Pegels geführt hat! Und das konnte ich hoffentlich mit meinen Lowcuts darstellen. :)




    Zitat


    5. ca. 23:40


    Hier muss ich ziemlich energisch wiedersprechen. Prinzipiel alles wegzuschneiden, was wie du sagst "nicht gebraucht wird" ist eine falsche Herangehensweise. Ein EQ ist keine Putzfrau, die den Keller fegt! Denn jedes mal, wenn ein Filter gesetzt wird, verschiebt er die Phase des Signals. Gerade wenn man Sounds layert kann das zu extremen Effekten führen wie Kammfilter o.ä., die noch schlechter klingen, als wenn der nicht gebrauchte Bereich bleibt.


    Das fehlt mir auch etwas in deinem Tutorial: du verlierst kein Wort über die Phase eines Filters!


    Hier kommen wir vermutlich eher in eine philosophische Diskussion: Ich bin ein großer Verfechter des "Wegschneidens" von tiefen Frequenzen. ;) Hier im Forum hatten wir glaube auch schon mal eine Diskussion darüber und ja, mir ist auch das Problem der Phasenverschiebung durch Lowcuts bewusst. Auf das möchte ich auch im nächsten Video eingehen (minimum phase und linear phase EQing), für dieses Video war mir das zu "tiefe" Materie. Und wie du selber schon sagst: Phasenverschiebungen machen hier nur Probleme, wenn ich einen Sound layere, d.h. wenn es für die gelayerten Sounds wichtig ist in der gleichen Phase zu sein. In meinem Fall von Kick und Piano ist die Phasenverschiebung zu vernachlässigen, da ich hier nicht die Transienten von Piano und Kick in Phase haben möchte (was sie vermutlich auch nie waren).



    Zitat


    6. ca 25:00



    Alles mit einem Lowcut zu belegen macht den Sound total phasig und unsauber. Genau das Gegenteil, was man erreichen möchte! Wenn man Filter vermeiden kann, sollte man sie weglassen!!! Das sagst du zwar später auch, es bezieht sich aber auf eine andere Sache!


    Das mit dem 'Platz' ist auch so eine Sache: man kann auch einfach alle Kanäle absenken um 'Platz' zu sparen. Den Pegel kann man bequem auf dem Master mit den üblichen Tools wieder aufholen! Es klingt z.B. am Ende sauberer, den Gesamtbassanteil auf dem Master abzusenken als überall einzeln, da so die Phase stabiler bleibt.


    Da bin ich anderer Meinung! Was bedeutet "total phasig und unsauber"? In dem Fall müsste man vorrausetzen, dass die verwendeten Sounds überhaupt erst in Phase waren. In meinem Fall von Kick und Piano war das mit hoher Wahrscheinlichkeit nicht so. Auf die Probleme der Resonanz habe ich hingewiesen und die sind meiner Meinung nach ein größeres Problem bei der Verwendung von Lowcuts. "Unsauber" ist der Sound aus meiner Sicht eher, wenn es Frequenzüberlagerungen gibt die sich harmonisch nicht ergänzen (z.B. Kick und Piano im Video).


    Zum Thema "Gesamtbassanteil auf dem Master absenken": Von dieser Methode hab ich noch nicht wirklich gehört und da sehe ich auch große Probleme, abhängig vom gewünschten Sound. In verwende in meiner Musik sehr viel Kompression (Einband und Multiband) und ohne Absenken oder Wegschneiden des Bassbereichs bei den Instrumenten, die diesen nicht unbedingt benötigen, würde ich mir all das "Gerumpel" zwischen 20 und 150 Hz nach oben ziehen, wenn ich nach der Kompression den Gain hochdrehe. Gezieltes Entfernen dieser Frequenzen erzeugt aus meiner Erfahrung heraus ein saubereres Summensignal mit mehr Potenzial zum "Laut mastern".



    Zitat


    7: ca. 29:50



    Das ist genau falsch! In der digitalen Welt hat man unendlich Headrom bei 32 Bit Float! Erst nach dem Rendern entsehen dann Probleme. Und Überlagerungen im Bassbereich sind kein Problem, solange man den Gesammtpegel im Blick hat. Würde man, wie du es erklärst z.B. eine Band mischen, würde das ziemlich schräg und unnatürlich klingen.


    Stimmt, auch hier hätte ich das vermutlich anders formulieren sollen, damit es nicht missverstanden werden kann. Worauf ich hinaus wollte war, dass man in der "analogen Welt" relativ problemlos das Signal übersteuern kann ohne direkt Hardclipping zu bekommen. In der "digitalen Welt" ist das jedoch nicht so und das liegt nicht daran, dass das Problem im Signalweg entsteht. Aber es entsteht am Abspielgerät. Jedenfalls kenne ich keine Boxen (oder zumindest sind diese wohl kaum für die meisten Leute geläufig) die eine 32bit float Wiedergabe haben. Hier erzeugt ein Überschreiten der 0dBFS des digitalen Signals definitiv immer Clipping, auch wenn sie abhängig von der Stärke der Übersteuerung nicht direkt hörbar sein müssen.



    Zitat


    Alles in allem: Ein schönes Tutorial, aber inhaltlich würde ich mir mehr Teifgang wünschen. Viele Dinge, die du ansprichst, sind leider nur Halbwahrheiten, oder können so wie du sie darstellst, missverstanden werden.


    Vielen Dank! :) Und definitiv auch noch einmal ein Danke für deine konstruktive Kritik. Wie bereits erwähnt werde ich die besprochenen Sachen im Video anmerken und/oder im nächsten Video einige Unklarheiten korrigieren. Für die nächsten Videos über EQing ist auch tiefergehender Inhalt geplant. Für die ersten Videos wollte ich das ganze so einsteigerfreundlich wie möglich erklären und formulieren. Was dann natürlich schnell zu Unsauberkeiten führt. Ist natürlich keine Entschuldigung für die Fehler, die ich da reingebaut hab, aber die werde ich wie gesagt korrigieren! ;)


  • @ Tomess: Ich halte die Tutorials für sehr praxisnah. Natürlich wird nicht im Detail auf Musiktheorie eingegangen. Auch ist das Thema Headroom ausbaufähig, und nicht ganz korrekt. Aber die meisten Musiker sind keine Theoretiker, sondern Praktiker. Und aus der Praxis heraus gesehen ist vorallem der EQ- Tipp Gold wert.


    Ich weis gerade nicht genau was du meinst. Musiktheorie? Hab ich doch nie von gesprochen...



    Man kann "nur" mit der Technik des richtig gesetzten Lowcuts einen kompletten Song abmischen. Das funktioniert. Phasenverschiebungen kommen natürlich vor. Ich halte diese aber normalerweise für vernachlässigbar. Viel schlimmer ist es, wenn du in einem Mix z.B. 20 Spuren ohne EQ- Bearbeitung gleichzeitig verwendest, und sich die Bassfrequenzen von Lead, Klavier, Pad, Bassline, Kickdrum, Snare, Clap usw. addieren. Da Bassfrequenzen die meiste Energie im Mix mit sich bringen, kriegst du so ohne EQ ein sehr matschiges Gesamtergebnis.


    Das mag alles richtig sein, aber trotzdem kann man den Bass auch mit einem Shelvig z.B. bearbeiten. Man muss nicht zwangsläufig cutten. Es kommt im Video so rüber, als wäre das der heilige Gral des EQens...



    Ein matschiger Song lässt sich auch nicht mehr (oder nur in schlechter Qualität) laut mastern, da sich einfach zu viele Frequenzen in den Tiefbässen und unteren Mitten tummeln. Du kannst natürlich die Summe im Master mit einem Lowcut versehen, bekommst dann aber nicht die Probleme in den Griff, wenn sich mehrere Instrumente in den unteren Mitten tummeln, und gegenseitig überlagern. Häufig bewirkt es Wunder, einen Lowcut vom einem mittigen Instrument etwas höher anzusetzen, sodass mehr Platz für das zweite Instrument geschaffen wird, und beide wieder besser in den Mix passen.


    Ich sag ja garnicht, dass ein Lowcut falsch ist. Ich mach den ja auch ganz oft. Aber er ist hald nicht immer nötig. Häufig kann man mit anderen Mitteln ebenfalls ein gutes Ergebnis erzielen. Vielleicht bin ich durch die ganzen Schlagzeugaufnahmen, die ich gemischt hab ein gebranntes Kind. Für Monosignale spielt das weniger eine Rolle, das stimmt schon. Aber ich höre hald immer, wie sich der Stereoeindruck und die Lokalisation der Signale verändern, wenn man exessiv Lowcuts benutzt. Das sollte man einfach im Hinterkopf bewahren.



    Hey Tomess! :)
    [...]
    Die Hörkurve habe ich von Wikimedia Commons genommen und bin dem Fall nicht davon ausgegangen, dass die Darstellung nicht korrekt ist. Kann das vielleicht noch jemand bestätigen, dass die von mir verwendete Grafik definitiv falsch ist? In dem Fall würde ich das per Anmerkung im Video korrigieren.


    Sie zeigt die Hörkurve bei der Hörschwelle. Das wäre zu leise zum mischen :eusa_whistle: . Man sollte aber bei ca. 85 dBspl abhören, da da das Gehör am linearsten ist. Deswegen der Hinweis mit der Lautstärkenabhängigkeit.



    [...]Wenn ich in FL auf dem Master die 0dBFS überschreite dann kommt es im digitalen Signalweg (solange es sich um 32bit float handelt) nich zum Zerren. Da aber nahezu alle Abspielgeräte mit 16bit oder 24bit arbeiten, kommt es bei der Wandlung hier doch immer (bzw. in 99% der Fälle, möglicherweise gibt es Abhörmonitore die das wiedergeben können) zum Clipping. Vielleicht kannst du diesen Punkt noch mal genauer ausführen!


    Soweit ich informiert bin, arbeiten gute D/A Converter intern mit 48 bit Festkomma. Damit ist der Headroom groß genug, so dass erst der Analoge Signalweg nach dem D/A Converter (ein Line-OP-Amp in der Regel) clippen würde, (+24 dBu z.B.) bevor es zu digitalem Clipping im Wandler kommt. Natürlich sollte man den Master nicht überfahren, da spätestens beim Rendern das clipping da ist.
    Der Ausgangspegel der Wandler hängt von der Referenzspannung ab, die man gewählt hat. +4 dBu (1,23V) oder -10 dBV (0,316V). Soll heißen: 0dBfs erzeugen je nach Wahl 1,23V oder 0,316V am Ausgang. Somit müssen die Lautsprecher entweder lauter oder leiser gemacht werden. Wenn beide Geräte die selbe Referenzspannung haben ist die Signalkette aber im idealfall aufeinander abgestimmt.



    Hier kommen wir vermutlich eher in eine philosophische Diskussion: Ich bin ein großer Verfechter des "Wegschneidens" von tiefen Frequenzen. ;) Hier im Forum hatten wir glaube auch schon mal eine Diskussion darüber und ja, mir ist auch das Problem der Phasenverschiebung durch Lowcuts bewusst. Auf das möchte ich auch im nächsten Video eingehen (minimum phase und linear phase EQing), für dieses Video war mir das zu "tiefe" Materie.


    Auch bei Signalen, die nicht gelayert sind machen dabei Probleme. Man kann natürlich darüber streiten, was schlimmer ist (Pahse oder Frequenz), aber häufig komme ich an den Punkt im Mix, wo schon kleinste Änderrungen am Anfang der Signalkette einen riesiegen Einfluss auf die Summe hat. Aber das liegt dan neher an der Komplexität.



    Da bin ich anderer Meinung! Was bedeutet "total phasig und unsauber"? In dem Fall müsste man vorrausetzen, dass die verwendeten Sounds überhaupt erst in Phase waren.


    Das mein ich hierbei nicht mit phasig. ich meinte die Abbildung im Stereofeld, sorry, war blöd formuliert. Probier mal aus, wenn du z.B. ziwschen Shelving und Lowcut bei mehreren Stereosignalen wechselst. Meistens bleibt der Basseindruck ähnlich, aber die Position in der Stereoabbildung wird sich bis hoch in den Hörempfindlichen Bereich ändern! Und das ist für mich immer besonders ärgerlich, wenn man Stunden mit der Feinjustierung und Automation der Signale im Stereofeld verbracht hat.



    Zum Thema "Gesamtbassanteil auf dem Master absenken": Von dieser Methode hab ich noch nicht wirklich gehört und da sehe ich auch große Probleme, abhängig vom gewünschten Sound. In verwende in meiner Musik sehr viel Kompression (Einband und Multiband) und ohne Absenken oder Wegschneiden des Bassbereichs bei den Instrumenten, die diesen nicht unbedingt benötigen, würde ich mir all das "Gerumpel" zwischen 20 und 150 Hz nach oben ziehen, wenn ich nach der Kompression den Gain hochdrehe. Gezieltes Entfernen dieser Frequenzen erzeugt aus meiner Erfahrung heraus ein saubereres Summensignal mit mehr Potenzial zum "Laut mastern".


    Ist schon so, bei EMD muss man warscheinlich anders arbeiten. Ich bin andere Gernes zu mischen gewohnt. Nichts desto trotz kann es dir damit passieren, dass Signale auf einmal lauter werden, da die Phase unglücklich ein Frequenzanteil mit etwas anderem überlagert.




    Worauf ich hinaus wollte war, dass man in der "analogen Welt" relativ problemlos das Signal übersteuern kann ohne direkt Hardclipping zu bekommen. In der "digitalen Welt" ist das jedoch nicht so und das liegt nicht daran, dass das Problem im Signalweg entsteht.


    Eben nicht! Ich hab es extra vorhin nochmal probiert: Ich kann meinen Wandler mit bis zu + 12 dBfs 'belasten', bevor der analoge Signalweg nach dem Wandler (Der Line-Op-Amp) zerrt.



    Aber es entsteht am Abspielgerät. Jedenfalls kenne ich keine Boxen (oder zumindest sind diese wohl kaum für die meisten Leute geläufig) die eine 32bit float Wiedergabe haben. Hier erzeugt ein Überschreiten der 0dBFS des digitalen Signals definitiv immer Clipping, auch wenn sie abhängig von der Stärke der Übersteuerung nicht direkt hörbar sein müssen.


    Vielleicht ist das tatsächlich ein Problem mit billigen Wandlern...bei meinem Motu 24 I/O geht das auf jeden fall ohne Probleme...


    Egal, trotzdem ist es ein gutes Tutorial, für das dir Anfänger sicher dankbar sein werden! :eusa_clap:


  • (Video 1) Gute umfassende Erklärung. (Vielleicht etwas zu langatmig)


    Ich muss mir echt nen Script schreiben.... :D wird hoffentlich besser im Laufe der Videos. ;)



    Zitat


    Für weitere Videos unbedingt(!): schlag einen Ton an, wenn du Parameter veränderst. Neben dem optischen hört man gleich die erzielten Effekte.



    Ist notiert! :)

FL Studio Shop.de