Beiträge von Loboto Midi

    FL Studio Installationen sind üblicherweise unabhängig voneinander. Wenn du auf normalem Wege die 64-Bit Version deinstallierst, sollte das die normale Version nicht betreffen.


    Wenn du das Programm lieber manuell deinstallieren willst, lösch einfach den gesamten Programmordner.

    In Harmor musst du dir die Denkweise in "Oszillatoren" einfach abgewöhnen. ;)
    Gegeneinander verstimmte Stimmen erreichst du stattdessen mit dem Unison-Panel. Stell dort die "Order" auf 3, um die aktuelle Stimme zu "verdreifachen". Deren Verstimmung, Phase und das Panning stellst du mit den Reglern ein.

    Ich würde ja Reaper empfehlen. Das hat den Vorteil, dass es ein eher klassischer Sequencer ist (womit das Gelernte besser auf gängige Systeme übertragbar ist) und dass man die Demo-Version unbegrenzt lang benutzen kann, sodass interessierte Schüler es leicht zu Hause weiterverwenden können, ohne zu Warez zu greifen. (Natürlich "müssen" sie das auch bei FL nicht - würden es aber aufgrund der Einschränkungen der Demo sehr wahrscheinlich tun.)


    FL Studio ist durch das Patternkonzept, die freie Playlist und den unabhängigen Mixer doch sehr eigentümlich und meines Erachtens für den Schuleinsatz eher weniger geeignet. Wobei ich's als Schüler auf jeden Fall auch geil gefunden hätte, wenn wir FL Studio beigebracht bekommen hätten. :D

    Ich habe z.B vier Samples, die sich jeweils cutten sollen.
    Bei zwei Samples kein Ding, z.B. Sample 1 kriegt Cut off 1 und 2
    das Sample zwei kriegt das entsprechend umgekehrte 2 und 1.


    Es ist viel simpler. Bei Samples, die sich cutten sollen, stellst du einfach überall die GLEICHE Zahl ein.


    Wenn du also mehrere Samples hast, die sich alle gegenseitig cutten sollen, trägst du einfach bei allen Samples in beiden Feldern ("Cut" und "Cut by") die gleiche Zahl ein. Also zum Beispiel "1".


    Also auch bei nur zwei Samples stellst du nicht beim einen "1 und 2" und beim anderen "2 und 1" ein, sondern bei beiden "1 und 1".


    Der seltsame Workaround, den JohnnyAppleseed da beschrieben hat, ist definitiv nicht nötig.

    Ab Minute 2:05 zeigt er doch, wie er die verschiedenen Ausgänge des Plugins auf verschiedene Mixertracks geroutet hat. Wenn du in diese Mixertracks Effekte lädst (also z.B. den Reverb nur auf einen der Tracks), dann hast du doch genau, was du willst.


    Und denkt mal daran, dass Midi Out-Channels an sich keinen Ton erzeugen. Die verschiedenen Tonspuren kommen immer aus dem Haupt-Plugin. Deshalb musst du dem Plugin sagen, wohin es seine Ausgänge schicken soll.

    Ich verwende gerne Samples, aber außer One-Shots grundsätzlich keine aus Sample Libraries, das find ich witzlos*. Ich sample also nur Sachen, für die ich keine Rechte habe. Schlimm, schlimm.


    *Um das mal auszuführen: Wenn ich etwas sample, dann normalerweise deshalb, um einem kleinen, an sich unbedeutenden Teil eines existierenden Songs "neues Leben einzuhauchen", indem ich ihm eine größere Rolle gebe. Ich nehme also ein Stückchen Musik, dem sonst nicht viel Aufmerksamkeit zuteil wird, und verpacke es idealerweise so, dass es plötzlich für sich allein interessant ist. (Klappt nicht immer.) Dafür braucht das Sample einen speziellen Charakter oder eine Eigenständigkeit, die Loops aus Sample-Libraries gar nicht haben können, weil sie eben speziell für die Zweitverwendung produziert wurden und deren eigentlicher Zweck es ist, fehlende Musiker oder Instrumente zu ersetzen. Aber ich will keine Instrumente ersetzen, und wenn ich wollte, könnt ich mir einen Profi-Musiker ins Studio holen, der mir was einspielt. Mir geht's aber neben dem speziellen Sound von Samples (es spielt ja eher selten nur ein Instrument zur Zeit, das man sich dann bequem ausschneiden kann, sondern man muss damit leben, dass im Hintergrund noch Drums spielen und untenrum der Bass und so weiter) nicht zuletzt auch ums Entdecken von unentdeckten Songpassagen, die sich kreativ verwursten lassen. Ich wäre unkreativer, wenn ich keine Samples verwenden würde.

    Ergo ist mein Problem das ich jeweils für ein VST, egal wieviele Midouts es bereitstellt eben auch nur einen einziegen FX routen kann?!?


    Das kommt eben ganz aufs Plugin an. FL Studio kann nichts daran ändern, wenn ein Plugin nur einen Ausgang zur Verfügung stellt.


    Technisch gesehen weiß weder das Plugin noch FL Studio davon, dass du das Plugin per Midi Out ansteuerst. Du musst die Ausgänge des Plugins also manuell auf die verschiedenen Mixertracks routen und im Plugin selbst auch nochmal die Instrumente auf eben diese Ausgänge schalten.


    Wie ich gerade in diesem Youtube-Video gesehen habe, hat Orchestral 4 Audio-Ausgänge, die du nutzen kannst. Schau dir also am besten mal hier ab Sekunde 35 an, wie du sie in FL in den Mixer routest:


    So, hier mal die flp.


    Und hier die "korrigierte" flp zurück. ;)


    Habe die Frequenztrennung in einen Patcher gepackt, damit es übersichtlicher ist (ist dann auch als einzelnes Preset speicherbar). Im Convolver muss man jetzt nur noch eine Seite der Frequenzweiche einstellen, der "Gegenfilter" ergibt sich automatisch durch Phasenauslöschung. So ist es auch einfacher, die Trennfrequenz einzustellen, weil man das nur noch einmal machen muss.


    Als zusätzlichen "Beweis", dass es eine perfekte Trennung ist, habe ich das getrennte Signal und das Originalsignal auf den Master geroutet und das Originalsignal invertiert. Resultat: Perfekte Stille. ;)


    Ich gehe davon aus, dass der lineare Filter im MBC intern genauso funktioniert.

    Eine digitale Rückkopplung ist im Gegensatz zu einer analogen sowieso wahnsinnig unelegant. ;) Da schießt einem einfach nur der Pegel binnen einer Sekunde ins Unermessliche, dieses vergleichsweise langsame Hochschaukeln des analogen Feedbacks ist damit nicht zu vergleichen.


    Ich kann übrigens bei meiner Soundkarte die Ausgabe des "Main Outs" als Aufnahme-Input in FL einstellen und damit eine Rückkopplung erzeugen, eventuell geht das ja bei dir auch.

    Hab' das getestet - mit einem wirklich phasenlinearem EQ kannst du eine saubere Frequenztrennung hinbekommen, welche die Wellenform nicht verändert.


    Sorry, aber das ist kein hinreichender Test, um zur Aussage zu gelangen, dass ein Filter "nicht wirklich phasenlinear" ist.* Schließlich kommt es bei der Frequenztrennung ja in allererster Linie darauf an, dass beide Filter perfekt aufeinander abgestimmt sind, und ich kann mir gut vorstellen, dass das mit dem Envelope Editor vom Fruity Convolver nicht so einfach zu erreichen ist. Dass es bei einem speziellen Crossover-Filter der Fall ist, ist logisch


    Bin aber gespannt auf die FLP, vielleicht schaffe ich es ja, den Convolver so einzustellen, dass er auch sauber trennt.



    * Das ist allein dadurch testbar, dass man auch mit einem Minimum Phase EQ und geringer Flankensteilheit eine perfekte Frequenztrennung hinkriegen kann.

    Außerdem ist der Convolver auch im Preset "high latency EQ" (oder so) auch keine wirklich phasenlineare Equalizer - so schlecht ist er nicht, aber wirklich treu bleibt er auch nicht...


    Ähm, doch.


    EDIT: Um das ein bisschen auszuführen: Linear-phase EQs sind kein Hexenwerk, die sind nicht je nach Machart "besser" oder "schlechter" im Klang. Die Qualität der Signalverarbeitung lässt sich durch die Latenz beeinflussen (und du bist im Convolver nicht auf die Presets angewiesen und kannst sie durchaus noch höher stellen), mehr Faktoren gibt's da im Grunde nicht.
    Echte Unterschiede gibt es allerdings im Workflow - im Fabfilter ProEQ wird der phasentreue EQ genauso bedient wie der normale, das kann ein Vorteil sein, weil man in gewohnter Art arbeiten kann, egal welche Art der Verarbeitung man wählt.

    Verzeiht mir den etwas reißerischen Titel. ;)


    Bin eben über ein sehr lehrreiches Video über Linear Phase EQs und deren praktische Verwendung gestolpert. Vor allem wird darin anschaulich (aber leider nur auf englisch) erklärt, warum Linear Phase EQs oft nicht besser oder sogar schlechter als "normale" (sogenannte Minimum Phase-) EQs klingen können.
    Es wird aber auch erklärt, wann und warum die Verwendung von Linear Phase EQs manchmal eben doch sinnvoll ist.



    Ich dachte, ich poste das mal, da ich hier schon desöfteren gelesen habe, wie Linear Phase EQs bedingungungslos abgefeiert und als "objektiv besser oder neutraler klingend" bezeichnet wurden, ohne dass die genauen Hintergründe und die Funktionsweise betrachtet wurden.


    Wie üblich ist wohl auch hier wieder die Quintessenz: Besser ist, was besser klingt - aber auf die verwendete Technik lässt sich das nicht so einfach herunterbrechen. Wie immer hängt es vor allem vom Quellmaterial und den Vergleichsmethoden ab. Gerade bei Linear Phase EQs habe ich den Eindruck, dass bei vielen da die Meinung herrscht, sie seien normalen EQs grundsätzlich überlegen, was man so halt nicht sagen kann.


    Falls jemand Fragen zum Video oder Verständnisprobleme hat: Gerne nachfragen, es wird bestimmt jemand erklären können.


    Falls jemand das ganze mit FL-eigenen Mitteln ausprobieren möchte: Fruity Parametric EQ 2 ist vom klassischen Typ "Minimal Phase EQ", während man Fruity Convolver mithilfe des Preset "Linear phase EQ (long latency)" als vollwertigen Linear Phase EQ verwenden kann.

    Geh in den Browser, dort findest du unter "Current project" den Unterordner "Automation". Darin sollten sich alle "Initialized controls" befinden, die du im Rechtsklick-Menü löschen kannst.

    Ich frage mich nur, wie genau du das jetzt angepasst hast!? Einfach den passenden Takt rausgehoert? Ich mach das naemlich immer so - ich fange 'n neues Projekt an, stell' die BPM dann auf's gewuenschte Tempo (90 z.B.) und beginne dann, den Beat zu "programmieren", vll. ist meine Methode auch etwas behindert, lol...


    Naja, kann es sein, dass du zwar dein "gewünschtes" Tempo einstellst, aber eigentlich gar nicht weißt, welches Tempo du willst? Ansonsten würde diese Diskrepanz zwischen Projekttempo und dem Tempo, in dem du die Noten setzt, ja gar nicht auftauchen. Wie gesagt: Lass einfach in Zukunft das Metronom mitlaufen, während du deinen Beat baust. Das gibt dann den Takt vor. Und wenn dir das Metronom zu schnell oder zu langsam ist, änderst du eben entsprechend das Projekttempo.


    Das FPC musst du nicht verwenden, aber da du eh die Piano Roll benutzt, würde es das Drums-Programmieren vereinfachen, weil du dann die Drums in nur einer einzigen Piano Roll auf verschiedenen Tasten verteilt hast, und nicht immer zwischen Kick/Snare/Hihat etc hin- und herwechseln musst. Außerdem kannst du damit sehr einfach Drums layern, indem du einfach mehrere Samples aufs gleiche Pad ziehst. Dann brauchst du nicht die Noten doppelt setzen. Ich habe hier mal den Drumloop von oben in einen FPC übertragen. Wie du siehst, musst du hier nur noch eine Note für die Snare setzen, um beide Samples gleichzeitig abzuspielen.


    forumsolutionHIGHbpm-fpc.flp

FL Studio Shop.de