Tiefenstaffelung und Räume


  • Gibt es noch andere Möglichkeiten ein instrumen weiter nach vorn zu holen, ausser höhen anheben ? zb. bei einem bass mit wenig höhen oder garkeinen höhen.


    also, ich hab mir jetzt nicht alle posts durchgelesen aber ich steig mal in das gespräch mit ein


    was evtl noch nicht genannt wurde sind so psychoakustische sachen - also, tiefenstaffelung beinhält ja auch die tatsache dass wir zu einem element das "weiter weg" gemixt wurde auch ein referenzsignal hören das "näher" ist - gerade diese unterscheidung lässt uns die tiefe so stark wahrnehmen


    das lässt sich meiner meinung/erfahrung auch bei einzelnen instrumenten nutzen, wenn die dominierenden noten einer bassline z.b. noch etwas in den vordergrund rücken sollen lässt sich das auch dadurch erreichen indem man andere noten ein kleines bisschen nach hinten wandern lässt - bei z.b. einer bassline aus dem synthesizer können ganz subtile öffnungen des filters an bestimmten stellen wunder wirken - bei recordeten instrumenten dann ganz dezente eq- automatisierungen


    i know, das klingt erstmal nicht nach der großen lösung - aber ich, und bestimmt auch viele andere hier, hab nur eben die erfahrung gemacht dass der beste sound eben erfordert dass man an allen noch so kleinen ecken schleift..


    themasprung - ich hab mal gelesen dass viele ihre mischung zuerst mono mischen und das stereopanorama zuletzt drankommt - daraufhin hab ich mal paar alte sachen von mir zu einem mono- signal zusammengefalten und es war grauenhaft sich das mit anzuhören..


    macht das mal mit professionellen tracks, da geht seeeeehr wenig verloren, ist mir ein rätsel..


    so das war mein senf


    gruß;)

  • Also zum Thema Monomischen...


    Macht halt auch jeder anders.
    Ich verteile meine Instrumente schon von Anfang an in etwa so, wie ich mir das vorstelle.
    Nach und nach werden sie aber noch feinjustiert, bis sie vor Abschluss des Tracks nochmal gegengehört werden, ob sie woanders nicht doch besser zur geltung kommen.
    Mono hör ich das immer zwischendrin noch ab, indem ich einfach am Audiointerface die Zaubertaste dafür betätige. :D
    Ob die Herangehensweise jetzt nun suboptimal ist, ist mir eigentlich relativ egal, aber so hab ich es mir nun mal angeeignet. :)

    [hr]
    Gesendet von meinem Nokia 3210 ...


    :thebirdman: Jedes Mal, wenn man mir sagt, ich wäre nicht gesellschaftsfähig, werfe ich einen Blick auf die Gesellschaft und bin überaus erleichtert. :pottytrain2:


  • Ich vermute mal das du mit "zusammengefaltet" ein Monoschalten meinst...
    Das ist ein oft gemachter Fehler, weil man sich von der Stereobreite
    verzaubern lässt. Im professionellen Bereich wird da eben sehr großen
    Wert drauf gelegt und immer wieder während des mischen auf Mono
    geschaltet. und geschaut das nur das Stereofeld zusammenbricht
    und nicht das Volumen (im Sinne von Fülle) oder der Frequenzgang
    der einzelnen Instrumente. Am Anfang Mono Arbeiten ist schon ein guter Tipp.
    Es ist ja so das durch einfaches Pannen keine Monokompatibilitätprobleme
    auftreten können (außer man pannt sowas wie Layer ) Mit anderen Worten...
    eine Hihat kannst du ruhig pannen da passiert nix.. Sobald du aber eine
    gewisse breite abbilden willst muss ein delay her, also eone verzögerung
    zwischen rechter und linkem Lautsprecher


    Hier ist Wichtig:
    wer Verstanden hat was Phasendrehung ist...Sollte auch verstanden haben
    Das jede Phasendrehung mit einem Delay realisiert wird


    --> Delay= Verzögerung = Phasendrehung


    Sobald also links und rechts verzögert wieder gegeben werden solltest
    du Mono gegen hören ob sich die Phasen auslöschen.


    Bei Michael Jackson Thriller (Album) hat man sehr breit gemischt... damit das
    Signal aber nicht "vernichtet" wird, hat man nochmal leise ein Monosignal zu
    gemischt..dieses addiert sich dann wieder mit den beiden Signalen von links
    und rechts und wird dadurch um 6db Lauter..<--ist ein guter Trick

    „Über Musik zu reden ist wie über Architektur zu tanzen.“
    Frank Zappa, US-amerikanischer Komponist und Musiker

  • Es ist ja so das durch einfaches Pannen keine Monokompatibilitätprobleme
    auftreten können


    hmm so würde ich das nicht sagen, jede verschiebung, ob im panorama oder in der phase - es hat einfluß auf die phasenauslöschung mit anderen signalen

  • Doch doch.. das ist so ..wo Soll den die Phase herkommen?
    -Problematisch wird es immer erst wenn ein delay zwischen rechts und links entsteht...
    -Eine Verbpolung des Signals käme auch in Frage aber die wäre genau 180° --> Komplettauslöschung
    -Beim Synthesizer könnten auch derartige Probleme entstehen, wenn man links und rechts mit unterschiedlicher Tonhöhe ausgibt --> Stereo Detune


    Aber eine eine einfache Hihat im Panorama verschoben, kann keine Phasenauslöschung verursachen. Da es nur ein Pegelunterschied
    zwischen links und rechts zu Folge hat... Da fehlt dann der Zeitliche Versatz um Phasendrehung zu erzeugen.


    Wie oben schon beschrieben: Phasendreungen wenden immer mit Delays realisiert. wenn du das Signal 1/2 PI (=1/4 Wellenlänge) verzögerst erreichst du eine Phasendrehung von 90° wenn du um PI (1/2 Wellenlänge) verzögerst erhältst du eine Phasendrehung von 180° .... Kreisfrequenz war ja 2*PI


    Man kann fast sagen (mit Ausschluss der oben genannten Sachen) das ohne eine Verzögerung keine Phasen ausgelöscht werden kann..
    und wenn sich zufällig mal ein Paar Frequenzen decken. das wird nie so sein das es dir als Phasenschweinerei auffällt...

    „Über Musik zu reden ist wie über Architektur zu tanzen.“
    Frank Zappa, US-amerikanischer Komponist und Musiker

  • Man kann fast sagen (mit Ausschluss der oben genannten Sachen) das ohne eine Verzögerung keine Phasen ausgelöscht werden kann..


    ja, was die reine monokompatibilität bei EINEM sound betrifft stimmt das, beim mixen mehrerer spuren kommen da aber noch andere probleme auf:


    bsp - bassline und conga (beide mono) liegen zeitlich gesehen übereinander, dann verursachen sie gegenseitig phasenauslöschungen, klar - wenn ich die conga aber jetzt mehr nach rechts verschiebe sind die phasenauslöschungen auf der rechten seite eben auch gravierender weil dort mehr pegel ist - schalt ich danach die summe wieder auf mono ergeben sich daraus wieder andere auslöschungen weil an der stelle, an der die conga spielt der bass auf der einen seite mehr beeinflusst wird als auf der anderen


    gruß;)

  • Kann man eigentlich auch mehrere reverb räume im selben mix nutzen ?
    z.b. auf dem piano, welches im mix vorne ist, ein reverb mit einer drum room Einstellung legen und auf die strings, welche hinten sind, ein reverb mit large hall Einstellung... könnte man das so machen ? oder sollten die reverb Einstellungen grösstenteils übereinstimmen ?

  • Im Endeffekt hast du dir die antwort selber gegeben.
    in der tiefenstaffelung geht es darum deine Musik räumlich, 3 dimensionaler zu machen, sodass man nach voll ziehen kann in was für einer räumlichkeit deine Musik stattfindet.
    soll heißen beim erstellen verschiedener räume trennst du deine einzelnen Instrumente von einander.

  • Also ich benutze meistens ca. 3 verschiedene Räume.. einen kleinen für die Drumssection und dann noch einen mittelgroßen und große Raum für die Synth und andere Instrumente.

    ______________________________________________________________________________________________



  • Kommt glaub auch darauf an, was man hören will.
    Ich hab immer nur einen Raum und die Instrumente bekommen je nach Platzierung im Raum unterschiedliche Dosierungen des Raumhalls und werden in der Lautstärke angepasst.
    Wenn ich zu einem Konzert gehe, haben die ja auch keine 3 Räume, wo ihre Band aufgeteilt is und ich abwechselnd durch die Räume flitzen muss, um mir das Zusammenspiel der Instrumente vorstellen zu können. :D

    [hr]
    Gesendet von meinem Nokia 3210 ...


    :thebirdman: Jedes Mal, wenn man mir sagt, ich wäre nicht gesellschaftsfähig, werfe ich einen Blick auf die Gesellschaft und bin überaus erleichtert. :pottytrain2:

  • Genau das. Ich hab auch in 99,99 % einen hall im ganzen Projekt für die tiefenstaffelung.
    allerdings mein ich mal aufgeschnappt zu haben, dass es nich unüblich sei für die drum Gruppe nen eigenen auf zu machen.
    warum und wieso weiß ich nicht, aber ich denke bald wird sich hier schon ne fundierte antwort lesen lassen :)

  • Hi zusammen,


    also ich nutze in der regel zwei räume. einen für die stimme und einen für das instrumental.. wobei ich hier eher die drums meine.. die restlichen instrumente bekommen nur einen kleinen anteil des drumhalls.. gut ist übrigens auch wenn man den hall der drums wieder auf die summe der drums zurückroutet und die mit kompremieren lässt.


    die stimme bekommt bei mir einen eigenen raum weil gerade bei der voice sehr schnell auffällt wenn ein hall unnatürlich klingt... das eben mag ich aber bei den drums sehr gerne :D


    gruss
    amperr

  • Ja gut, in Bezug auf die Vocals benutze ich dann auch zwei. :D
    Beat/Instrumental wird ja in FL gemacht und recordet wird in Reaper, wo die Vocals ja wieder einen für sie angepassten Raum bekommen.
    Ob dat jetz so in Fachkreisen für Furore sorgt, is mir latte.^^
    Jut is wat jut klingt! :D

    [hr]
    Gesendet von meinem Nokia 3210 ...


    :thebirdman: Jedes Mal, wenn man mir sagt, ich wäre nicht gesellschaftsfähig, werfe ich einen Blick auf die Gesellschaft und bin überaus erleichtert. :pottytrain2:

  • Seitdem ich mehr auf die tiefenstaffelung achte hat sich mein mixing um einiges verbessert. Allerdings gibt es da noch enorm viele Unsicherheiten und fragen...


    Im Moment benutze ich öfters highcut filter oder senke die höhen bei Instrumenten, welche weiter weg sein sollen manchmal sogar bis in den unteren mitten Bereich ab, damit die lead Instrumente besser zu hören sind... Oft endet das ganze jedoch so, dass bis auf lead und Schlagzeug fast kein anderes Instrument mehr höhen besitzt.


    Meine frage:
    übertreibe ich das ganze jetzt ??? oder kann es wirklich nötig sein, in manchen fällen so starke höhenabsenkungen zu machen ?


    Und darf KEIN Instrument lautere höhen haben als das lead Instrument ?


    Oft habe ich das Problem, dass ich ein Instrument auf grund seiner höhen nicht laut genug drehen kann... deshalb die starken Absenkungen, um es danach lauter zu machen.

  • Meine frage:
    übertreibe ich das ganze jetzt ??? oder kann es wirklich nötig sein, in manchen fällen so starke höhenabsenkungen zu machen ?


    Und darf KEIN Instrument lautere höhen haben als das lead Instrument ?


    Hmn wenn keins deiner Intstrumente mehr höhen hat, denn kann das zu einem unausgeglichenen Frequenzspectrum führen. Also ich füll meine höhen meist mit nem Pad und teilen der Hihat und so. Das hat bisher immer ganz gut funktioniert.
    Die andere Frage ist immer, was soll sich durchsetzen? Klar das lead Instrument soll primär das Lied gestalten. Aber da ist immer die Frage der Wichtigkeit der einzelnen Elemente.
    So lange einem die Ohren nicht zerfetzen bei den Höhen sind höhen doch in Ordnung.


  • Also bei aller Diskusionsliebe und so:


    Wie wäre es mit einfach mal zuhören mit Augen zu und checken ob es logisch klingt oder nicht (sofern das bei Musik möglich ist). Ich habe den Eindruck, das viele hier einfach nach einem 'Rezept' suchen und dabei total das musikmachen vergessen.


    Tomess, Du sprichst mir aus der Seele. [Blockierte Grafik: http://www.smiliesuche.de/smileys/lachende/lachende-smilies-0101.gif]


    Ich bin auch der Meinung: Das wichtigste (dadurch auch das prägendste Merkmal) bei einem Musikstück ist die/eine gute Melodie.
    Und da darf das Saxophon, die Tromopete, etc. wichtiger lauter und höher in der Tonlage sein, als der Leadsound.


    Zumindest wenn sie unvergänglich sein soll.


    Aber, daß ist ja bei vielen heutigen (EDM) Genres ja nicht mehr so wichtig.


    Ich bin da vielleicht altmodisch.
    Aber jeder kennt einfachste Kinderlieder und kann sie nachsingen....probiert das einmal bei einem Avicii, Garrix, und wie sie alle heissen. :eusa_think:


    Da hört man ja nix mehr raus, vor lauter laute Laute. :D :rolleyes:


  • probiert das einmal bei einem Avicii, Garrix, und wie sie alle heissen. :eusa_think:


    probier mal, einen tag nen radiosender zu hören, der aktuelles bringt und dann NICHT wake me up und hey brother nachzusingen :D das ist unmöglich

  • Ich bin auch der Meinung: Das wichtigste (dadurch auch das prägendste Merkmal) bei einem Musikstück ist die/eine gute Melodie.
    Und da darf das Saxophon, die Tromopete, etc. wichtiger lauter und höher in der Tonlage sein, als der Leadsound.


    Zumindest wenn sie unvergänglich sein soll.



    Aber die wird ja meistens von dem Leadinstrument gespielt?
    Darum versteh ich dein Argument hier nicht so ganz :icon_question:

    ______________________________________________________________________________________________



FL Studio Shop.de