Beiträge von Tagirijus

    Du hast leider die Audiospuren nicht mit gezippt; bzw. sind diese nicht enthalten. Zudem habe ich kein Mac. FL STUDIO Tom - wie ist denn das bei so geteilten Projekten, wenn der Mac-User AU nutzt und man das Projekt auf Windows öffnen möchte!? Geht das überhaupt, auch wenn man die Plugins rein theoretisch (nur dann in VST) hätte?



    Calido1990 : könntest du einfach die Audiospuren auch nochmal irgendwie hochladen. Würde einfach zu gerne wissen, wie das klingt. Ggf. kann man dann schon etwas mehr vermuten. Jetzt würde ich dir erst einmal empfehlen, alle Plugins im Mixer zu bypassen und dann noch einmal rendern. Wenn das Problem immer noch auftritt, dann rendere mal das Projekt, wobei du nur jeweils eine Generator Plugin Instanz aktiviert lässt (die anderen bypassen). Entweder könnte es also an einem Effekt-Plugin liegen, oder an einer Library, die du mit Kontakt nutzt oder an diesem Originals - Epic Choir Plugin.

    Hast du ggf. zu wenig RAM? Ich hatte früher mal ähnliche Probleme mit Kontakt Libraries, die beim Rendern Aussetzer machten (in Realtim jedoch meist normal gespielt haben ... total verrückt ...).


    Aber ggf. ist es ja auch eine RAM Frage. Wie viel RAM hast du? Wie viel nutzt das Projekt? Welche Plugins nutzt du so? Kannst du das Render-Problem mit nur diesem Instrument, dessen Töne nicht in voller Länge exportiert werden, in einem blanken Projekt reproduzieren?


    Klangbeispiel wäre super, da dein Screenshot absolut nicht rückschließen lässt, was gewünscht ist und was man hört. Die langen MIDI Noten müssen ja nicht immer bedeuten, dass ein Klang angehalten wird.


    Und die zugehörige Wellenform könnte auch einfach nur perkussivere Instrumente abbilden (u.a. auch ein Klavier, das ja nicht unendlich klingen kann).

    allerdings nur auf dem linken Lautsprecher. Jemand eine Idee?

    Ich kann in manchen Situationen nur einen Kanal als Gerät auswählen für mein Audiointerface. Allerdings nicht in ShareX. Aber ggf. ist es trotzdem so ein Fall bei dir? Ggf. musst du darauf achten, dass du zwei Zahlen siehst bei der Auswahl (also vermutlich dann zwei Kanäle). In meinem Fall sind das 7+8, z.B.

    "normale" :P Musik

    Was ist schon normal!? ... ich denke aber, du meinst vermutlich vor allem "akustische Musik". (;



    Das Programm scheint hier anders zu arbeiten als andere DAWs.

    FL Studio arbeitet Pattern basiert. D.h. du hast ein Pattern, in dem Noten / Daten für verschiedenste Plugins enthalten sein können - i.d.R. auch unbegrenzt in der Länge. Wenn du dann MIDI auf einen Kanal ziehst im aktuellen Pattern, ersetzt er diese Daten. Du hast es vermutlich schon rausgefunden, wenn ich das richtig gelesen habe: wenn du zusätzliches MIDI haben möchtest, würde ich ein neues Pattern machen und dort dann das MIDI reinziehen.



    Ich würde ohnehin die Anschlafpattern etc. einfach selbst eingeben im Pianoroll von FL und eigene Anschlagmuster machen. Du kannst ja sogar prinzipiell das Anschlagmuster in einem Pattern machen und den zuspielenden Akkord in einem anderen Pattern triggern. So kannst du verschiedene Akkorde mit dem gleichen Anschlagmuster haben und auch das Muster und Akkord voneinander unabhängig ändern. So sparst du Patterns in FL und könntest mitunter eine bessere Übersicht bekommen.

    Ich glaube, es gab auch noch zusätzlich ein Programm für das System, mit dem man Audio-Dinge routen könnte und was dir dann auch ein Gerät zur Auswahl geben würde (in diesem Settings-Fenster), sodass du da dann alles, was du hörst, aufnehmen können solltest. Dummer Weise weiß ich aber nicht mehr, wie diese Andwendung hieß. Oft weiß DENIZ SOUNDZ so etwas! Deniz!? :D

    Passender Weise habe ich mithilfe von ShareX mal folgendes Abbildung erstellt:



    Ich habe entsprechend mit meinem RME Babyface Audio Interface auf "ADAT 7/8" einen System Loopback erstellt, sodass ich dort alle Audio-Ausgaben abfangen kann. Dadurch höre ich auf Screenrecordings auch alles, was ich sonst im System höre. Ggf. kannst du da auch etwas einstellen, sodass System-Ausgabe abefangen wird?

    Ja, ich nutze selten mal Ample Sound Instrumente. Habe ich allerdings schon sehr lange nicht mehr. Und wenn, dann spiele ich die Noten immer selbst ein. Habe nie diese Strummer oder Riffer Dinger genutzt.




    Jedes weitere Riff lässt sich zwar rüberziehen, erscheint dann aber nicht als Noten und wird demnach auch nicht übernommen.

    Woran liegt das?

    Wenn ich im Strummer bin, ein neues Pattern auswähle und das erneut auf den Channel ziehe, werden die Noten bei mir durchaus ersetzt. Ggf. solltest du dir auch mal die Noten und das Prinzip dahinter angucken. Ich sehe z.B., dass das Anschlag Pattern mit den oberen Noten festgelegt wird und der Akkord (nicht nach klingender Note als Grundton leider, sondern als Nummer des Patterns) mit den Noten, die auch Tiles bereits erwähnt hat.




    Die Demos aus dem Riffer kann ich in voller Länge in den Channel ziehen, mache ich das aus dem Strummer heraus, werden die Noten nur ersetzt und nicht angehängt.

    Sicher, dass die Noten nicht eigentlich immer ersetzt statt angehängt werden? Ich meine, dass so nun einmal das Prinzip in FL Studio ist, wenn du MIDI Daten auf den Channel ziehst. Oder?




    Ich würde dir empfehlen einfach mal anzugucken, was du womit so steuerst und dich dabei nicht zu sehr auf diese vorgekauten Rhythmen fixiserst. Auf lange Sicht hast du sowieso viel mehr Kontrolle über das Instrument, wenn du es rudimentär anzusteuern weißt. (;

    Ich finde die Reaktion von diesem Nick Cave sehr typisch für konservativ denkende Menschen. Irgendwie scheint es oft darum zu gehen, eine (eigentlich gar nicht so) neue Technologie zu verteufeln und das eigene Handeln dabei aufzuwerten bzw. irgendwie zu "schützen", als sei es unaustauschbar. Für mich ist die Welle mit KI einfach nur ein grandioser Spiegel, den Menschen einmal vorzuhalten, wie intensiv alles auf repetitiven Mustern basiert in der ach so hoch gelobten und elitären Kunstwelt ...


    Und ja, eine KI kann nicht leiden und nicht fühlen. Allerdings vertauscht Nick dabei Umsetzung mit Inspiration. Ich möchte mir nicht einmal ausmalen, wie furchtbar es sein muss, einen geliebten Menschen zu verlieren - das also bitte nicht falsch verstehen! Aber technisch betrachtet bleibt so ein Erlebnis zunächst einmal eine Inspiration, in gewisser Hinsicht. Die Umsetzung der dadurch entstehenden Gedanken umzusetzen erfolgt letztendlich durch Techniken und Muster, die immer wieder zu kehren scheinen, so wie ich die Kunstwelt erfahre - egal in welchem Bereich (Bild, Ton, Text, ...).


    Was ich auch witzig finde: hier wird von Song geschrieben, aber nur Songtext gemeint. Für mich ist ein Songtext erst einmal ein Gedicht, wenn es hochkommt. Erst mit dem musikalischem Teil zusammen entsteht für mich daraus ein Song. Clickbaity ... - aber es gibt ja auch schon KI, die wirklich konkrete musikalische Inhalte erzeugt. (;


    Ich habe zum Thema KI bereits einen Blogpost verfasst, falls es jemanden interessiert. Da schildere ich noch einmal konkreter meine Gedanken in Bezug auf meinen Beruf als Musiker und KI: KI und mein Job (auf https://blog.tagirijus.de).

    Weil die mit FL 21 einige Erneuerungen im Bereich SCRIPTING haben.

    Ich bezweifle dabei, dass Image-Line nicht auf Rückwärtskompatibilität geachtet hat. Dürfte also sicherlich nur Erweiterungen oder Verbesserungen geben!




    Schade, dass gerade auch die leute, die solche Scripte schreiben, keinem weiterhelfen. Mir hätte ja schon ein VOLUME Drehregler gereicht. Aber naja....anscheinend ist es echt viel Arbeit.

    Die Arbeit besteht vermutlich nur einmal, bis man das Konzept der API verstanden hat. Lies dich ruhig nochmal in die Scripte und fang mit einem eigenen Versuch an, bei dem du nur so einen VOLUME Regler versuchst einzubauen! Vielleicht kann hier ja jmd. dann helfen, wenn du deinen Code postest und für gewisse Stellen im Code fragst, falls etwas nicht funktioniert. Das kostet uns Helfenden weniger Zeit, als sich selbst in eine ganze API einarbeiten zu müssen.



    Unmöglich in 1-2 Tage.

    Wenn du die 1-2 Tage nichts anderes zu tun hast, kann das schon möglich sein! (;



    Ehrlich gesagt habe ich die Zeit nicht. Aufgrund meines Jobs und noch mein Studium nebenbei.

    Dann weißt du hoffentlich, wie ich mich fühle nur vermutlich um ein Vielfaches (ich nehme mir stets zu viele parallele Projekte vor, hehe). Versuch gelassen und geduldig zu bleiben. Nimm dir ein bisschen Zeit zu gewissen Zeitpunkten und arbeite ein bisschen an den Scripten. Dann wirst du schon etwas auf die Beine stellen und anfangen die API zu verstehen.



    Schade, dass der Behringer X-Touch Mini nun hier nur rumliegt und keine verwendung hat.

    Kannst du das denn gar nicht benutzen???

    Ich weiß nicht, was du mit "Linker Seite" meinst, aber Zeit hätte ich sowieso nicht dafür. Es ist schon super knapp, dass ich hier überhaupt mitschreibe! (;


    Bzgl. der Codes für die Steuerung des Controllers und welcher ... eh Hex-Wert? ... oder so das dann ist: ggf. gibt es ja eine Möglichkeit ein Script zu schreiben, dass die Controllert abfängt und irgendwo wieder ausgibt, um somit herausfinden zu können, welche Controller welchen Wert haben.


    Sonst würde ich dir auch erst einmal empfehlen ein blankes Script zu starten und ggf. nur kleine Teile eines fertigen Scripts zu übernehmen und zu gucken, ob du damit schon eingrenzen kannst, welcher Teil was konkret tut. Z.B. deinen VOLUME Regler versuchen im Script nutzen zu können und erst einmal sonst nichts!


    Ich habe durchaus schon in die verlinkten Scripte geguckt. Die sind teilweise aber doch sehr lang und komplex, als dass ich sie mal eben nebenbei "verstehen" könnte. Das würde auch für mich etwas Zeit und auch Motivation in Anspruch nehmen, tut mir Leid. Diese Kapazitäten habe ich zurzeit leider nicht übrig.


    Solltest du hingegen zu einer einzelnen Zeile Fragen haben, stell die Frage hier ruhig rein. Ggf. können ich oder andere erahnen oder Ideen äußern was die Zeile macht. (; Deine zitierte Zeile mit dem Play-Wert ist z.B. in der Funktion OnMidiMsg, was mich vermuten lässt, dass diese Funktion aufgerufen wird, sobald es eine Midi-Message vom Controller gibt. Dann gibt es eine Abfolge an Abfragen mit IF (was übrigens ein gängiges Keyword in den meisten Programmiersprachen ist und für logische Operation genutzt wird). In der Abfrage wird wohl mitunter gecheckt, welcher Kanal angesprochen wird ("if (event.midiChan == 0):"). Und so weiter. Bau dir z.B. einfach mal ein Script und probiere in dieser Funktion herum.


    Achso noch etwas: um genau zu sein handelt es sich um eine Methode der Klasse "TMackieCol", weshalb als erster Parameter in Python auch stets "self" benötigt wird. Als zweiten Parameter hast du bei "OnMidiMsg" z.B. "event", was wohl ein Objekt sein wird, das weitere Attribute, wenn nicht sogar auch Methoden enthalten wird. Entweder gibt's dazu eine API von Image-Line, oder notfalls mal gucken, ob du das manuell debuggen kannst (z.B. laienhaft mit print(event) :D). Weiß nur nicht, wo und wie es ggf. eine Debugging-Ausgabe für FL Studio MIDI Scripting gibt, aber sollte es schon, denke ich.


    Viel Erfolg weiterhin! (=

    Also ich habe keine Zeit, mich da reinzulesen, da ich selbst zu viele aktive Projekte parallel am Start habe. Aber was ich machen würde: ich würde das Generic Script von Image-Line runterladen und angucken. Dann würde ich eines der von Tom verlinkten Scripte angucken und versuchen zu verstehen, wie der Ablauf im Python Script ist.


    Python ist natürlich eine Voraussetzung. Allerdings ist Python glücklicher Weise eine extrem einfache (interpretierende; also nicht kompilierende) Programmiersprache. Manchmal musst du eine Programmiersprache nicht einmal 100% kennen, um ggf. trotzdem Änderungen an bestehenden Scripten vornehmen zu können, um eine eigene Funktionalität zu erweitern. Dafür solltest du aber das Konzept von Programmiersprachen wenigstens etwas verstehen. Letztendlich ist eine Programmiersprache ja quasi kaum etwas anderes als eine Automation von Dingen, die ablaufen sollen.


    Hast du überhaupt schon eine gewisse Erfahrung mit Programmierung?

    Bedenke, dass FL Studio grundlegend eine Pattern basierte DAW ist (Ich habe versucht den Unterschied zwischen Pattern vs Track basiert hier zu skizzieren). Entsprechend musst du dir ggf. das Konzept des Workflows noch einmal genauer angucken. Guck dir dazu am besten einige Demo Projekte an, schau Tutorial Videos oder lies im Handbuch nach. (;


    Ein neues Patern habe ich gerne in FL imm mit Ctrl+F4 kreiert - nur mit F4 geht das auch; dann wirst du gefragt, wie das Pattern heißen soll.

    Hey, willkommen im Forum.


    Trotzdem bleibt der Ton übersteuert.

    Passiert das generell oder ist das nur bei diesem einen speziellen Stück von dir so?


    Es wäre ratsam, wenn du weitere Details posten könntest. Falls es reproduzierbar ist am besten die Schritte dazu. Ein Klangbeispiel wäre super. Zudem empfehle ich einmal zu probieren, ob du Stimmen nach und nach durchgehen könntest, um zu gucken, welcher Track da ggf. ein Übeltäter sein könnte. Oder passiert das nur beim Einsatz des Limiters zum Schluss? Was ist, wenn du den bypassed?

    der analyser zeigt mir aber ned an ob die snare gut klingt oder "schlecht"

    Das wird dir auch später eine potentielle KI nicht sagen können, da gut oder schlecht subjektive Wertungen sind ... das musst du entscheiden.



    und ob die frequenzen in dem sich die snare aufhält auch aufhält

    Verstehe ich nicht. Wenn die ein Spektrum-Analyser die Frequenzen anzeigt, dann wäre es eher unüblich, wenn dieser dir etwas ganz Falsches anzeigen würde.



    ich brauch einfach einen norm wert eine richtline

    Erfahrung sammeln.



    bei einem professioneller menschen, bei dem klingt die snare anderst als bei einem voll horst wie mir xD

    Ein "professioneller Mensch" (der dafür Geld bekommt ein Mensch zu sein?) ging irgendwann vermutlich auch mal auf den Rat von anderen Menschen, die professionell in dem Feld agieren, ein und startete nicht sämtliche neuen Themen, um nach einem alternativen Wundermittel zu fragen ... So ein Mensch hat lange geübt und die Techniken erprobt. So etwas kostet nun einmal Zeit. Zumindest so lange Hilfsmittel, die K.I. gestützt sind oder ähnliches, noch nicht weit genug sind. Und auch diese nehmen im Endeffekt vermutlich auch eher Dinge ab, die automatisierbar wären (ggf. lesenswert zu der Thematik wäre vielleicht mein Blogpost "KI und mein Job").

    das ganze frequenzspektrum brauch i ned

    Wenn du nicht einmal konkretisieren kannst, was du eigentlich "brauchst", wage ich zu bezweifeln, dass du äußern solltest kein Frequenzsektrum zu benötigen ...




    kann im gesamten mix die snare

    Du kannst einen Analyser auch auf einzelne Kanäle laden und entsprechend das Frequenzspektrum nur für diesen Kanal bekommen, während der Gesamtmix läuft. Ich soliere sonst ganz einfach immer nur die Spur, die ich bearbeiten möchte, während der Analyser auf dem Master bleiben kann.

    Instrumente der gleichen Typen können auch unterschiedlich klingen. Ich würde dir empfehlen einen Analyzer wie z.B. den kostenlosen Voxengo Span zu nutzen, u mein Frequenzspektrum zu erhalten. Ich würde dann im nächsten Schritt gar nicht mal so nach typischen Eigenarten der Instrumente beim Mixen gehen, sondern nach Frequenzen und was welches Instrument so abdeckt. Und zwar so, dass es nachher ausgeglichen verteilt ist.

FL Studio Shop.de