Internal Routing: Falsch geht sicher auch - Oder: Blöde Angewohnheiten

  • print 'Hello World' :)



    Ausschlaggebend für diesen Thread sind die Fragen, ob ich mit meiner Erkenntnis richtig liege, dass ich zuviel Berufsleben (Programmierer: "Code muss wartbar sein") nach FL Studio übertrage (die beiden Screenshots) und wie ihr das macht.
    Anfangs hab ich mich an die Beispiel-Projekte gehalten. Zu Programmierung sagte mir mal jemand:
    [code=php]
    Das Interesse an einer Sache wächst mit dem Intellekt.
    [/php]
    Gilt auch bei FL.


    Die blöden Angewohnheiten: Bliebe ich bei Coding, sprächen wir über AOP.


    Ich sitz nun vor einer neuen lehren FLP und überlege mir, was mich beim letzten Projekt tierisch genervt hat und was ich diesmal anders machen will. Heraus kam das hier (gemalt in Dot):
    flstudio-forum.de/core/index.php?attachment/13853/


    Nicht der Graph, sondern dessen Inhalt mag auf manche vielleicht verstörend wirken, brachte mir aber bisher mehr Vor- als Nachteile vgl mit den Setups der Beispiel-Files.


    Gestern hab ich mich mal ein bisschen mit dem Patcher rumgespielt und kam zu der Erkenntnis, dass man damit auch Sachen machen kann, die IL sicher so nicht gedacht hat:
    flstudio-forum.de/core/index.php?attachment/13854/


    Alles in einem Patcher zu schmeißen, der im Master liegt, geht (zieht aber an der GPU). Alles, wie vorher, auf die 99 Tracks aufteilen geht auch, aber von der Usability ist es trotz 3 TFTs eher nervig.
    Beide Screens haben eines gemeinsam: visualisiert ist es schön aufgeräumt. Gleichzeitig verdeutlichen sie meine Angewohnheiten.


    Elektronische Tanzmusik mal bei Seite. Was mich gerade beschäftigt: Großes Orchester + Solo-Instrumente.


    Behielte ich das System von oben bei, wird das mit den 99 Tracks nichts. Jedes Instrument einfach in einen Track und dann nur an den Master schicken haut nicht hin, wenn man digital komponiert (weil angewiesen ist, auf das was man hört): Es kommt nur Matsch raus.


    Jetzt spiel ich ein bisschen mit dem Patcher rum, denn unterm Strich, geht es primär erst mal darum, dass die Intrumente normalisiert gruppiert werden, damit ich sie in einen Kontext setzen kann: Peak-Controller auf Viol. Pizzi, Violinen auf Peak-Controller verlinkt, beide Landen im Track Strings. Peak-Controller auf XY, Strings wird mit XY verlinkt. Das kann man nun für jedes Instrument, in Abhängigkeit seiner Lautheit/Freq weitertreiben. Nur das Setup dauert dann länger als das Komponieren.


    Außerdem würde mich interessieren, ob ihr mit MidiOut/Dashboard/GPO und Patcher, mit dem Ziel "mehr Übersichtlichkeit/Reduzierung der Anzahl benötigter Tracks" rumgespielt habt und wie ihr eure Projekt-Datei organisiert, wenn ihr mehr als 8 Instrumente braucht. Zum Beispiel 80:
    flstudio-forum.de/core/index.php?attachment/13852/



    lg

    Musik muss vor lauter Bass die Nase zudrücken und im Ohr krabbeln.
    Welches Lied summ ich: tschschschschtschschschsch?

    Einmal editiert, zuletzt von x42 ()

  • Ja, programmierer sind schon so kopfleute ;)
    Ich denke schon, dass il weiss was alles mit dem patcher machbar ist..


    Zu Deiner ersten Frage: Meines erachtens bringst du schon die trockene Planung aus deinem Berufsleben mit ins musikalische, was ich nicht als negativ bewerten will..
    Jedoch macht den Graph nur bedingt sinn ( besonders die fx wege nach den gruppen kurz vor der summe) und weniger wenn man bedenkt dass du noch keine einzige note gesetzt hast...
    Kann sein dasss du damit deinen gewünschten sound erhälst, bezweifel aber den sinn das mit patcher zu lösen.


    Wenn nur matsch rauskommt, fängt man an zu optimieren und zu eq'n, trennen und staffeln...
    Da hilft nicht alles auf 99 mixerkanäle zu hauen..


    Wozu sollte man 80 instrumente laufen lassen, ausser in einem grossen orchester in dem einige instrumente aufgrund der spielweise mehrfach geladen werden müssen.
    Aber selbst dann, wenn man gewisse regeln befolgt, weiss man was zusammengehört und wie gemischt wird..


    Alles in allem weiss ich grad trotzdem nicht worauf du hinauswillst, aber dass du viel aus deinem beruf mitbringst ;)

  • hervorragender post x42. Genau diese problematik hat bei mir dazu geführt dass ich irgendwann keine projekte mehr fertig bekommen habe und aufgehört hab musik zu machen.


    In der informatik gibt es diese wundervollen Paradigmen die sich 1 zu 1 auf Audio Produktion übertragen ließen, wenn die DAW dazu im Stande wäre. Das würde dazu führen dass man viel mehr kontrolle über seinen Sound hat, und weniger auf gut glück erstmal alles zusammenschmeißt, und dann nur das fixt was so kaputt ist, dass man es hört. Es würde sonst nämlich einfach zu viel Zeit verloren gehen.


    Wenn ich mir Videos von professionellen Leuten im orchestralen Bereich ansehe, dann versuchen die jedes mal diese Kapselungen irgendwie mit geschickter namensgebung oder sonstwas hinzubekommen. Das artet dann schnell aus. Manche Leute brüsten sich sogar mit der Anzahl der Mixer-Inserts die sie verwenden, was wie ich finde ein deutlicher Ausdruck dieses Problems ist.


    Was man bräuchte wäre eine DAW auf basis eines Node-Editors der mächtiger ist als Patcher. Im Grafikbereich hat dieser Umbruch übrigens längst stattgefunden, seit Node-Editoren in fast jedem 3d programm vertreten sind ist es für hobby-Modellierer problemlos möglich 3d Bilder in Pixar-Qualität zu erzeugen. Man kann seitdem einfach Artist sein ohne großartig technisch versiert zu sein.
    DAWs machen meiner Meinung nach die Audio Produktion komplizierter als sie ist, ich habe aufgehört mit FL studio zu arbeiten, weil es bei Image-Line nicht üblich ist dass große innovatve Änderungen stattfinden (korrigiert mich bitte wenn ich falsch liege).
    Schon der wechsel zu 64 bit hat so lange gedauert, dass ich glaube dass Image-Line intern selbst nicht mal weiß wie man "wartbaren code" erstellt, und deshalb diese ganzen Programmier-Paradigmen garnicht kennt.


    um zur Frage zurückzukommen:
    Nein, du bringst nicht zu viel Berufsleben in die Audio-Welt. Die Audio-Welt ist einfach noch nicht so weit wie die Grafik/Film-Welt, aber das wird noch kommen, weil es einfach so offensichtlich die bessere Lösung ist. Früher oder später kommen alle Innovationen aus der Informatik bei den Künstlern an, das war schon immer so.

  • Also ich würde sagen, dass du auf jeden Fall zu viel Beruf mit reinbringst. Soll das Hobby nicht eigentlich ein Ausgleich zum Beruf sein? ;)
    Ich denke mal dass unter zu viel Planung auch die Kreativität leidet. Einfach anfangen und losmusizieren, Ordnen kann man später immer noch. Und irgendwann hat man dann schon ne gewisse Methodik drinnen.
    Vorher alles bis ins kleinste Detail Planen macht wahrscheinlich mehr kaputt als es Verbesserung bringt.

  • Dieses "bis ins kleinste Detail planen", ist das was man momentan machen muss, und was ihr alle macht. Das kann man in tausenden von threads hier im forum nachlesen. DAWs sollten uns diese Arbeit abnehmen und uns ermöglichen kreative entscheidungen zu treffen, ohne erst 3 minuten lang neu zu routen.


    Wenn man also dafür sorgen will, dass man kreativ arbeiten kann, ohne ständig von solchen technik hürden unterbrochen zu werden, dann muss man vorher sein Projekt planen. Ich glaube das ist es was x42 dazu getrieben hat solche routings zu erstellen.
    Hätte man einen Node-editor, dann würde deise Planung on the fly stattfinden und alles wäre automatisch ordentlich, bzw man könnte viel leichter nachträglich Ordnung schaffen.

  • Anhand des routings sieht man ja, dass es sich nur um ein drumset handelt!
    Der bass kommt irgendwann auch drin vor.. Dass die fx aufteilung teils prallel läuft und bestimmte fx nicht direkt nach einer summe kommen ist für den erfahrenen audiologen schnell ersichtlich..
    Daher ist planung gerne die halbe miete, aber nur die halbe!


    Kreativ ist man erst wenn man sich von technischen hürden nicht aufhalten lässt!
    Meine sichtweise! Aber witzig zu sehen wie ein programmierer einen song von vornherein mischen würde...

  • Also erstmal mache ich Musik um dem Arbeitsalltag zu entfliehen.Dazu ist in meinen Augen ein Hobby da.Wenn du deine Arbeit mit in dein Hobby einfließen lässt dann lass es Musik zu machen und Arbeite lieber 8 Stunden länger.Und deine komischen Screens vom Patcher -->> What the Fuck !


    By the Way:Kann man eigentlich auch Mixerchannel samt Plugins im Patcher verbauen?Also Channel x wird auf Channel y geroutet?Hab das in der Hilfe entweder nicht gesehen oder überlesen :D

  • Beim Mixing sollte man so viel wie nötig und so wenig wie möglich machen - erstmal alles auf den kompletten Mixer aufzublasen ist das Maximum an Kontraproduktivität.


    Fang lieber erstmal klein an und vor allem - an erster Stelle steht die Kreativität!
    Wenn du mal einen Track halbwegs fertig hast, kannst du immernoch unnötig viel Zeit ins Mixing stecken...


    nkn80: Du kannst aus dem Patcher heraus alle 99 Kanäle ansteuern und via "MIDI Out" 256 PlugIns im Patcher ansteuern...
    Theoretisch kannst du deinen ganzen Track im Patcher mischen...

  • Nun ja ich verstehe den Sinn deines Beitrags vielleicht nicht ganz richtig, und würde mich mit dem was ich jetzt sage bei der FL Community durchaus unbeliebt machen, aber es gibt eventuell eine Lösung für dein Problem, falls es sich um ein Routingproblem vom Fl Studio handelt. Der Grund warum ich jetzt FL fast komplett verlassen hab, ist die Tatsache, dass ableton vom Routing her ein deutlich angenehmer ist! Man kann Kanäle und Instrumente gruppieren und dabei Signale für SC oder einfach so als Audio zwischen den Effekten abzweigen. Man ist nicht auf 99 Kanäle beschränkt. Und man muss letztendlich nicht unbedingt auf 3 Monitoren arbeiten. Das kann eventuell deinen Workflow verbessern. Probier mal evtl. eine neue DAW aus. Aber hat nicht immer Vorteile, solche Geschichten wie DAW internes LFO oder vernünftige Automationskurven fehlen mir dort nun mal. Ausserdem hat FL einige ernsthafte Killer VSTis die ableton nicht hat. Aber der worklow ist deutlich angenehmer und ich bin dort schneller fertig. Die fetteste Version von ableton gibts für nen Studenten auch für 360 Eier, was für mich auch wichtig war.
    greetz tzui


  • .... Der Grund warum ich jetzt FL fast komplett verlassen hab, ist die Tatsache, dass ableton vom Routing her ein deutlich angenehmer ist! Man kann Kanäle und Instrumente gruppieren und dabei Signale für SC oder einfach so als Audio zwischen den Effekten abzweigen. Man ist nicht auf 99 Kanäle beschränkt. Und man muss letztendlich nicht unbedingt auf 3 Monitoren arbeiten.


    Bei mir machst du dich zwar nicht unbeliebt ;) ABER, dass all das in FL nicht gehen soll und man 3 monitore benoetigt kann ich so nicht stehen lassen. Live loest das routing anders und das war es schon, alle routings bekommst du auch mit FL hin. Dafuer gibt es ja auch den patcher.. Wer 99 kanaele benoetigt arbeitet verschwenderisch!

  • Ich stimme FL Phil zu, die ganzen Kanäle lassen sich letztendlich immer einfacher schalten und Gruppieren. So viele Tracks braucht eigentlich keine Sau.


    That being said, ist es schon deutlich schwerer manchmal verschiedene sachen aufzu splitten, und da es keinen direkten Prefader am Instrument gibt braucht es immer mal wieder einen Mixerkanal nur um das Signal zu verteilen. Ich denke das lässt sich mit dem Patcher aber lösen.


    Sicher, zum Live Audio abmischen oder zum Mixen von reinen Aufnahmen würde ich auch lieber Pro Tools nutzen.
    Aber warum sich ne komplett neue DAW anlachen wenn man mit seiner nur noch nicht umgehen kann ;)

  • @DJW:Jaja. Ich denke schon dass ich da genügend Zeit investiert hab und bis zu einem gewissen Grad damit auch umgehen kann, dass ich damit aufgebe ohne probieren das magst du so denken, aber wie es ist wirst du wohl nie erfahren ;).
    Das ist einfach nur eine Sache des Arbeitsstils der einem eher zusagt, und ich finde, dass ich jetzt mit Ableton insgesamt im Workflow zufriedener bin. Und wie gesagt, jede DAW hat gewisse Vorteile einer anderen gegenüber, so viel ist klar.


    greetz

  • Moin,


    ich danke für die rege Anteilnahme.


    @Fl-Phil
    Der Ansatz war ne Factory :P


    Ziehe, was benönigt wird, in die Piano-Roll, weise jedem Intrument einen eigenen Track zu. Ich stelle eigentlich gar nichts mehr im Master ein, sondern lasse fast alles über Peak-Controller laufen.


    Die Tracks SUM, FX, OUT dienen als Pointer (Pre- und Post). Somit komm ich jederzeit an den jeweiligen Output ran ohne großartig Änderungen an der Projekt-Datei vornehmen zu müssen.
    Die CTRL-Tracks sind Voids. Hier kommen nur Daten rein. Die einzige Funktion dieser Tracks ist das Halten von Peak-Controllern.


    Abweichungen bei Drums wegen Frequenz-Überschneidungen:
    Diese durchlaufen die selbe Prozedur einmal als Intrumenten-Gruppe und einmal nach Frequenz.


    Letzlich linke ich nur noch die gewünschten Frequenzen/Instrumente in einen CTRL-Channel. Die Peak-Controller sind zumeist mit Sachen verlinkt, die als sustain laufen. Was dort rauskommt, ist vom Kontext abhängig. Klassische Instrumente: Konzertflügel mit Pedal + Double Bass (legato etc) + Cello Pizzicato bilden zum Beispiel einen solchen. Das verhält sich wie Pseudo-Sidechaining zwischen Kick und Low-Bass. Alles zusammen als Raw ohne etwas zu tun ergibt einen akkustischen Albtraum.


    PS: Tell, don't ask! :P


    Kyle
    Ich danke für deinen motivierenden Beitrag. Ich schließe mich dir an: wir betrachten unsere Versuche im Umgang mit einer gegenwärtigen DAW als Fix bis etwas kommt, dass unseren Erwartungen entspricht :)


    Das Node-Editing ist tatsächlich ne feine Sache. Bis dahin vermisse ich aber zumindest eine Funktion: wenigstens den Export als UML-ähnliche Grafik. Ich hatte schon nach nem Plugin gesucht, der einem wenigstens ein Abbild aller Tracks/Controller ausspuckt.


    Debuggen geht in so einem FL-Projekt eigentlich gar nicht. Weshalb ich mir zum Beispiel nicht vorstellen kann, gemeinsam mit anderen an einer Datei zu arbeiten.


    It's magic bekommt hier eine ganz neue Bedeutung.


    @DropTheSound

    Zitat

    Ordnen kann man später immer noch


    Ich fange nichts an, was von vornherein gar nicht oder schlecht geplant ist. Oder was dann hier ausartet: http://de.wikipedia.org/wiki/Paretoprinzip
    Bei mir gibts nur schwarz oder weiß, funktioniert oder funktioniert nicht oder ist effizient oder eben nicht. Probieren und fixen ist an Ineffizienz nicht zu überbieten; das ist wie ein Kunde, der drei Entwürfe oder die Teilnahme an einem Pitch (unhonoriert) erwartet.


    Anti-Patterns gibt es auch außerhalb der Programmierung.


    Das von dir gemeinte Reparieren heißt in Unternehmen/bei Projekten Sprint Review, findet einmal im Jahrhundert statt und hindert alle daran, etwas schnell und lösungsorientiert umzusetzen. Es macht die Sachen teilweise unnötig kompliziert und implementiert sinnfreie Wartezeiten. Das ergäbe hier ein "Der Soundtrack wird erst nach dem Scrum vertont. Aber hier ist schon mal das Midi-File."


    Kyle schrieb, aufs vortrefflichste vormuliert:

    Zitat

    In der informatik gibt es diese wundervollen Paradigmen die sich 1 zu 1 auf Audio Produktion übertragen ließen, wenn die DAW dazu im Stande wäre. Das würde dazu führen dass man viel mehr kontrolle über seinen Sound hat, und weniger auf gut glück erstmal alles zusammenschmeißt, und dann nur das fixt was so kaputt ist, dass man es hört.


    Weigang Music

    Zitat

    Einfach weniger Instrumente nutzen.


    Ja, aber...
    flstudio-forum.de/core/index.php?attachment/13888/


    Ohne Solo-Instrumente und auch nur dann, wenn Subs nicht on-the-fly nachbearbeitet werden müssen:
    flstudio-forum.de/core/index.php?attachment/13890/


    :|


    nkn80
    Der Zugriff der FromFL-Tracks (Audio) im Patcher ist imho auf die Tracks begrenzt, die tatsächlich dem Track zugewiesen sind, in dem der Patcher liegt. So hast Du per default also nur im Master access auf die 99 Tracks, in jedem anderen Track nur diesen als solches. Gleiches gilt für ToFL-Tracks.


    Alles im Patcher mixen geht, wie Jedec schon schrieb, aber nur, wenn dieser im Master liegt.



    Jedec

    Zitat

    Beim Mixing


    Das hier?


    Der Satz Eine gute Idee bleibt auch bei schlechter Umsetzung eine gute Idee gilt definitiv nicht bei audio-visuellen Medien.



    tzui
    Ich hab vorher direkt in Sibelius geschrieben. Das Problem war dann aber das Handling mit den Sub-Instrumenten (siehe Screenshot oben).
    Wenn alles auf KS-Banks liegt geht das, mich nerven aber KS-Notes.
    In der FL-PianoRoll hab ich auf Grund seiner Funktionsweise schneller 20 Instrumente vertont, als in Sibelius. Das liegt an dem Management der Instrumente: Bei max 16 Channels aber Instrument-Banken, die das doppelte benötigen, sind 2 Kontakt-Player in FL schneller eingerichtet und über MidiOut/Dashboard erreichbar.


    Umstieg der DAW: Ableton bietet 30 Tage trial. Ich ich mach das Ding auf, such nen Einsteiger-tut auf yt und verlier nach 5 Minuten (gefühlten 4 Stunden) die Lust und mach wieder zu. So lang man ein Programm nicht kennt/benutzt, kann man auch nicht beurteilen, ob sich die Investition langfristig für einen selbst lohnt. Das ist wie der Spagat bei DTP-Programmen.



    lg

    Musik muss vor lauter Bass die Nase zudrücken und im Ohr krabbeln.
    Welches Lied summ ich: tschschschschtschschschsch?

    Einmal editiert, zuletzt von x42 ()

  • Ich bewunder dein rangehen an die thematik und kann nur wiederholen, du bringst deinen beruf(u ng) anscheinend in vieles ein ;)
    Das ist auch produktiv und konsequent!
    Allerdings ist musik schon zu einem Planspiel geworden und ich mag die kreative Freiheit und das tüfteln eher als zb. Songsmith eine melodie vorzusingen und ihm zu sagen die mello soll von boys gesungen werden und die backgroundinstrumente sollen etwas dazu spielen in einem 4/4 takt... Btw. Ich frage meine instrumente nicht zuerst was sie mir bieten können, ich sage ihnen was sie wie zu tun haben ;)


    Wenn du auf deinem weg besser klar kommst finde ich das klasse, mir ist das zu verkopft.. Allerdings bin ich bei anderen themen auch so unterwegs ;)

  • Um diese Diskussion in eine Konstruktivere Richtung zu lenken:


    Welche der Angestrebten Funktionalitäten und Workflow-Veränderungen wären denn anhand eines VSTs möglich?
    Was erlaubt uns die VST Schnittstelle, und wieviel können wir damit schon erreichen, wenn wir in kauf nehmen dass das FL Projekt speziell auf die Arbeitsweise mit diesem VST ausgerichtet wird?
    Kann man ein solches Konzept VST so entwerfen, dass es auch in anderen DAWs Sinn macht?
    Wie hoch wäre der Aufwand wenn man die Programmierung einer grafischen Benutzeroberfläche mal außen vor lässt?

  • Erst müsste man eine Antwort auf deine 1. Frage finden. Ich such ne API... Falls es hier keinen gibt, der sich schon mal selbst mit VSTs beschäftigt hat:
    http://www.steinberg.net/en/co…r_vst_2_discontinued.html
    http://vstnet.codeplex.com/


    Ich lass im Kopf mal weg, dass ein Gott-VST den anderen sagt, was sie tun sollen und beschränke das erst mal nur auf ein weiß, was die anderen tun, wo sie sind, auf was sie reagieren und womit sie verlinkt sind. Das liefe dann aber eher auf einen Host im Host raus. Also konzeptionell geht das dann in die Richtung des IL-Patchers. Nur mit erweiterter Funktionalität: zuhören. Und das wird wohl so nicht gehen. Es sei denn ich kann dem Host (FL) sagen, dass er XY machen soll, nachdem alle, für das Projekt benötigten, VSTs sich angemeldet haben; genauso, wie man gezielt nach bestimmten VSTs filtern können müsste, z. B. zeig mir alle Peak-Controller in diesem Projekt und womit die verlinkt sind. Welcher Track ist wohin geroutet und welche Controller sind womit verlinkt oder eben broken. Sowas wie ne Registry.


    Und da ist schon mal ein anderer Punkt interessant: die VST-Ladefunktion ist imho kein Signal-Slot-Pattern. Ich kann also in einen VST sicher nicht reinschreiben lade mich an 99999. Stelle, um sicher zu gehen, dass alle anderen Plug-ins anwesend sind. Vielleicht hat FL ja auch irgendwo ne API die man mit nem VST ansprechen kann und dann auf callback arbeitet.


    Was ich mir von diesem Thread in erster Linie erhofft hatte, war ein Ansatz, wie man mit dem Patcher die Anzahl der benötigten Tracks runterschrauben kann, wenn man eben nicht einfach nen Raw-Synth-VST in den Patcher ziehen kann (ich trau dem Ding nicht zu, dass er 40 Kontakt-Player bugfrei boxed). Ob damit schon mal emand rumgespielt hat. Und zwar eben wegen der Beschränkung, dass ich nicht willkürlich in einen beliebigen Track einen Patcher reinziehen kann und dann wieder andere Tracks route.

    Zitat


    Der Zugriff der FromFL-Tracks (Audio) im Patcher ist imho auf die Tracks begrenzt, die tatsächlich dem Track zugewiesen sind, in dem der Patcher liegt. So hast Du per default also nur im Master access auf die 99 Tracks, in jedem anderen Track nur diesen als solches. Gleiches gilt für ToFL-Tracks.
    Alles im Patcher mixen geht, wie Jedec schon schrieb, aber nur, wenn dieser im Master liegt.


    Wenn ich mir mein Patcher-War im ersten Post ansehe: so WTF ist das gar nicht. Geht aber eben nur im Master.
    Patcher im Patcher im Patcher... geht auch. Ich kann meinen Dotgraph also einmal wie in meinem Patcher-War mit Patchern (2D) gestalten und einmal nested (3D). Der einzige Grund, warum ich das dann gelassen hab, war, dass diese Patcher-Map 700MB an GPU zieht.


    Bei meiner Arbeitsweise ist das stufenweise Gruppieren noch aus FL8-Zeiten: wir hatten ja nix anderes. Ich verlinke die Tracks immer noch nicht über das Kontext-Menü (sidechain to, route to), weil ich gern über Peak-Controller selbst festlegen will, was wo ankommt.


    So nen VST selbst schreiben gäbe es mindestens 4 Ansätze (gefühlt nach Aufwand sortiert):
    a) unser VST weiß prinzipiell wie die Projekt-Datei aufgebaut ist (setzt vorraus, dass der Host das offenbart)
    b) unser VST ist ein Mixer im Mixer, hilft beim Routen und hebt die 99 Track-Limitation auf, indem Tracks simuliert werden (setzt vorraus, dass der Host den Zugriff erlaubt, letztlich hätte man dann 99 Gruppen-Tracks; unser VST greift also, wie der Patcher, auf die Kanäle zu. Hier fehlt dann aber eine Möglichkeit zu splitten, denn der Host kennt nur 99 Tracks; VSTs haben aber imho ne GUID, vielleicht geht da was)
    c) den Patcher nachbauen, seine Beschränkungen (Audio-Routing) aufheben (setzt vorraus, dass der Patcher den Standards entspricht)
    d) ich muss Tracks nicht mit Mausklick routen, sondern kann das über ne API machen (unser VST bekommt die Aufgabe die Tracks zu routen)
    e) unser VST ist Gott und alles läuft nur noch über ihn (setzt a bis d vorraus). Hier würde man dann auch ansetzen, um Node-Editing zu betreiben.


    Liese sich Punkt e) DAW-unabhängig coden, könnte man mit einer erweiterten Projekt-Datei von einer DAW auf eine andere switchen:
    unser Gott-VST exportiert sich selbst und alle VST-Einstellungen im Projekt als XML und vom User definierte Teile der Piano-Roll als Midi. Oder so...
    Punkt b) würde zum Beipiel Konflikte mit der, von tzui angesprochenen, wegfallenden Trackbeschränkung in DAWs wie Ableton umgehen.



    Ich spekuliere jetzt darauf, dass die API mir offenbaren wird, dass VSTs dafür nicht gedacht sind oder das IL das nicht will :P

    Musik muss vor lauter Bass die Nase zudrücken und im Ohr krabbeln.
    Welches Lied summ ich: tschschschschtschschschsch?

    Einmal editiert, zuletzt von x42 ()

  • Also dass es auf massive Zweckentfremdung rausläuft dachte ich mir schon.
    Dass FL uns da irgendwelche möglichkeiten bietet das routing der Tracks zu kontrollieren kann ich mir so garnicht vorstellen. Ist ja nicht so als wäre FL mit rücksicht auf Entwickler geschrieben worden.


    Im Grunde bräuchte man ne eigene DAW, nur die zeit für das ganze drumherum mit bouncen, Hardware kommunikation und Piano Roll wäre halt verschwendet, weil wir da ja nichts ändern wollen.
    Deine Gott VST idee wäre da auch so das erste gewesen was ich für realistisch hielt. Ist halt schade dass man so wenig kontrolle über die DAW hat dass man dann die ganze arbeit selbst machen muss, wenn man so eine kleine änderung einbauen will.
    Die idee mit dem Node Editor in der DAW bleibt wohl eine Idee.

FL Studio Shop.de