Warum vermischen sich unterschiedliche Programme eq mäßig nicht?

  • Wenn ich innerhalb FL Studio mehrere Sounds zusammen spiele muss ich sie eqen, klar weil sie sich sonst beissen.


    Aber, wenn ich in Fl Studio nen Beat laufen lasse, und währenddessen ein Youtubevideo laufen lasse wo jemand spricht, beissen sich das Video und der Beat nicht und ich kann sowohl den Beat, als auch die Stimme einwandfrei hören und alles verstehen.


    Würde ich aber jetzt die Sprachspur vom Video exportieren und in FL packen auf den Beat, würde es sich ja wieder beissen.


    Wieso ist das eigentlich so?

  • Da gehts ja nur um gleiche Frequenzen, die sich beissen.


    Du kannst zig Instrumente mischen, ohne daß sie sich in der Quere stehen.


    Wenn du jetzt ein Basslastiges Lied womöglich mit einer tiefen Kick hast, dann einen Ivan Rebroff dazu singen lasst, dann kanns schon vorkommen, daß es zu sehr grumelt.


    Rebroff singt Bass - Bass - tiefe Kick Bei denen musst du überlegen was dir wichtiger ist und die anderen frequenzmässig beschneiden.

  • naja dann ist es aber wohl eher eine hohe kick :) ... so tief wie eine tiefe kick wird wohl auch dieser ibran nicht singen :D ...



    aber naja... man muss halt nur EQen was EQed werden muss und auch nur soviel wie es muss...
    das hat nichts damit zu tun ob es aus unterschiedlichen quellen kommt oder aus einem programm...


    schönes beispiel ist ja auch immer gesang und gitarre.. da beide in einem recht gleichen spektrum sich aufhalten...
    wenn du jetzt ka ein gitarren stück in FL laufen hast und auf youtube stimme dazu hast... dann kann sich das durchaus in die quere kommen...
    genau so wenn du jetzt eine kombination hast die eben funktioniert... also in FL läuft was.. auf youtube läuft was.. und beides passt zusammen... dann bräuchte man da auch nichts weiter dran machen wenn das beides so innerhalb nur aus FL kommen würde...



    ein andere punkt allerdings wäre z.b. wenn du mehrere soundsysteme nutzt... z.b. an einem interface die studio abhöre und an einem anderen ein 5.1 system z.b. ... und wenn fl z.b. immer über die abhöre läuft... und youtube aber übers 5.1 system weil z.b. das andere interface als standart interface gewählt wurde...
    dann kann es obwohl es z.b. besser getrennt werden müsste wenn es alles über ein system läuft.. so dann doch funktionieren.. da alles dann ihre eigene ausgabe quelle hat.. (einen eigenen lautsprecher) .. wodurch es zum einen leichter ist für den lautsprecher es klarer darzustellen... aber vorallem... weil du es aus unterschiedlichen positionen orten kannst...


    wird bei größeren PAs z.b. auch gerne mal gemacht... das man einen extra cluster hat der z.b. nur für die lead stimmen ist oder ähnliches...


    oder eben bei typischer 5.1 anwendung... sprache ausm center... und das ganze geballer und gemucke aus den 4 anderen um einen rum...

FL Studio Shop.de