Rendering vs. Edison Aufnahme

  • Hallo an alle,


    [muss nicht gelesen werden]
    ich beschreibe mal das Problem, das sogut wie jedem bekannt ist. Renderzeiten!!! Tausende Effekte, unzählige Instrumente, bis zum gehts nicht mehr volle Patterns an MIDI-Information, komplizierte Masteringplugins auf Mastersektion führen zu extrem höhen Renderzeiten. Ein gerade fertige 5-Minütige Mix rauszurendern dauert bei mir schon um 10-30 Minuten (nicht gerade Echtzeit :D ).
    [/muss nicht gelesen werden]


    Ich habe jetzt folgendes ausprobiert. Hab ein 2-min Mix rausgerendert (*.wav) und danach über Edison den Track aufnehmen lassen und abgespeichert (*.wav). Der 2-min Mix wurde 15 min. gerendert und beim Edison, wie man es schon erraten könnte, dauerte es 2 min. Die zwei WAV-Dateien habe ich klanglich (Ohr) und spektral (Gerät) mehrmals verglichen. Es gab nur unwesentliche Unterschiede. Der einzige große Unterschied war nur bei der Dateigröße zu sehen. Die EDISON-Datei wurde doppelt so groß und damit kann man leben.


    Die Frage geht an Profis, die sich bißchen mit Audio-Encoding auskennen:
    1. Die Vorgänge sind ja vollig unterschiedlich. Der eine spielt Segmente (Frames/Takte) aus, der andere sendet komplette Information in voller Bandbreite an EDISON. Was ist besser?
    2. Welche Vorteile hat man bei Rendering gegenüber einer Aufnahme des Sounds mit EDISON bzw. hat man überhaupt Vorteile?


    Dann bedanke ich mich im Voraus für die Antwort(en).



    MFG
    PRESTiGE

  • beim rendern schaltet fl alle plugins auf high-quality.... dadurch dauert es länger. aber wenn es für dich klanglich keinen unterschied ergibt dann machs halt mit edison. allerdings dauert das rendern bei mit maximal so lange wie auch der track lang ist. verwendest du so viele/aufwendige plugins?

  • Zitat von Backflip


    beim rendern schaltet fl alle plugins auf high-quality.... dadurch dauert es länger. aber wenn es für dich klanglich keinen unterschied ergibt dann machs halt mit edison. allerdings dauert das rendern bei mit maximal so lange wie auch der track lang ist. verwendest du so viele/aufwendige plugins?

    Hmmmm. Und im Abspielmodus habe ich etwa die Plugins nicht auf "high"? Das habe ich nicht gewusst. In welchem Modus befinde ich mich denn, wenn ich im Playlistmodus bin? Bis jetzt war ich mit dem Klang zufrieden. Wenns noch besser geht, dann sag mir bitte wie...


    Bei dem Finalmix verwende ich schon sehr viele "komplizierte" Plugins und außerdem hängt die lange Renderzeit von meinem Workflow ab (vermute ich), aber das war nicht die Frage. Die 2 Fragen sind noch aktuell.

  • also ersma datei is doppelt sogroß da du beim edison warscheinlich ein 32bit file anstatt eines 16bit files gespeichert hast.


    Bei Sytrus und so kann man verschiedene eisntellungne vornehmen, z.b. die oversampling rate usw. einmal für normal abspielen und einmal für rendering.


    Bei der interpolation gibs relativ große unterschiede, beim normalen arbeiten habe ich sie auf linear um rechenpower zusparen, beim rendering auf 512 sinc depht, sie kontrolliert das verhalten bei gepitcheten samples. Wenn man ein sample stark pitched entsteht aliasing, also die wave form wird eckig zu zusagen , da ja die abtastrate mit gepitched wird sozusagen. Bei linear übernimmt er es einfach so, bei sinc deph z.b. gleicht er es wieder an so das man nich mehr dieses hochfreq. klirren hat dieses digitale bit geknirsche nenn ichsmal.
    Ob hq für alle plugins aktiviert werden soll oder nich is auswählbar im export fenster.


    Ein weiterer punkt ist das wenn dein porjekt mal so voll ist das es nich mehr flüssig abgespielt werden kann, bringt edison aufnahme glaub ich nichts, da es da dann genau so rumhakt usw. Beim rendering jedoch wird das endergebniss logischerweise natürlich immer flüssig und ohne knackser sein.


    Also ich bevorzuge für den finalen mixdown oder für loops und samples die ich hinterher wieder benutzen möchte das rendering, da hier die höchste qualität rauskommt die er nicht mehr in echtzeit darstellen kann, somit hat man weniger verluste wenn man das sample wieder weiter bearbeitet.
    Und fürn finalen mixdown is es mir auch egal wie lange es dauert hauptsache die qualität ist best möglich auch wenn mans nich umbedingt höhrt, denke ich warum nicht best mögliche quali auswählen wenn keine nachteile gibt.
    Zudem gibs im rendering die möglichkeit das ganze als loop z.b. zu rendern lassen, also das er wenn ein hall draufliegt diesen vom ende in den anfang mit ein bindet, so das es halt einen kompletten loop ergibt und nicht der hall beim neustarten des loops immer weg geschnitten ist.
    Ausserdem gibs die latency compersation option, dadurch werden, wenn man latenz erzeugenede plugin hat, diese dann ohne latenz wieder berechnet.

  • Dies bedeutet, dass EDISON doch eine Lösung für Rendering wäre?! Mein Rechner schafft es locker mit, den Track abzuspielen, jedoch gibt es kleine Rücklchen im Klang, ABER der EDISON nimmt kommischerweise nur reines Signal auf. Das hat mich halt fasziniert. Probiert das bei euch zu Hause aus. Ladet ein Projekt, das kaum abspielbar ist und nimmt das ganze schön über EDISON auf. Bei mir klingt das sehr gut!

  • Wenn du wenig gepitchte Samples und hauptsächlich Plugins benutzt, dürfte das Recorden in Edison wirklich kaum einen Unterschied machen.


    Als Vergleichstest könntest du mal beide Dateien (einmal aus Edison und einmal per Rendering in 32 Bit exportiert, ohne Master-Effekte) in ein neues Projekt laden, beide auf einen eigenen Mixertrack laden und einen der Tracks um 180 ° in der Phase drehen (flip vertically, der Knopf neben dem Stereo Seperation-Regler im Mixer). Wenn beide Dateien zeitlich exakt übereinander liegen, ist das, was du dann noch hörst, der "Unterschied" zwischen beiden Dateien. Mit anderen Worten: Wenn du nichts mehr hörst, ist die Edison-Aufnahme perfekt.

FL Studio Shop.de