Beiträge von Loboto Midi

    Das Problem ist einfach, dass du deine Noten überhaupt nicht richtig am Zeitraster bzw. am eingestellten Projekttempo ausrichtest. Warum stellst du denn die BPM auf 140, wenn der Loop gar nicht 140 BPM schnell ist? Ich habe die Noten in deinem "HIGH"-Beispielprojekt mal ans Raster angepasst und dann das Projekttempo erhöht, sodass am Ende die gleiche "gehörte" Geschwindigkeit rauskommt, wie vorher, nur dass es jetzt rund läuft.


    Um so Probleme in Zukunft zu vermeiden, ist es wohl am einfachsten, wenn du während der Aufnahme oder dem Programmieren des Beats das Metronom aktivierst.

    Hat jemand einen 27 Zoll Monitor im Einsatz? Hat man mehr Platz oder ist die Anzeige "nur" größer?


    Man hat mehr Platz und die Anzeige ist tendenziell eher kleiner.


    An den zusätzlichen Platz und daran, nicht mehr alle Programme im Vollbildmodus auszuführen, gewöhnt man sich ziemlich schnell und will dann eigentlich nix anderes mehr nutzen. Erhöht die Übersichtlichkeit schon erheblich.


    Die ist ja schon ewig in den Startlöchern! :lol:
    Da bin ich ja mal gespannt. Android ist einfach nicht für sowas optimiert.


    Nicht mit FL Mobile für Android verwechseln (das inzwischen übrigens gut läuft und kurz vor der Fertigstellung steht).


    Hier geht es ja um eine "Fernsteuerung" von IL Programmen über ein Tablet oder Smartphone, wie mit einem DAW-Controller, da fallen die Limitierungen von Android im Bereich Audio nicht so ins Gewicht.

    Wenn man die PC-Tastatur zur Noteneingabe nimmt, kann man per Rechtsklick auf den Keyboard-to-piano-roll-Schalter verschiedene Modi und Tonleitern auswählen, da sind auch einige dabei, mit denen man Akkorde spielen kann.


    In FL 11 wird es dafür einen eigenen Midi-Effekt ähnlich wie den Scaler in Ableton Live geben. Den kann man dann mit jedem beliebigen MIDI-Effekt ansteuern.


    [Blockierte Grafik: http://macprovid.vo.llnwd.net/o43/hub/media/1080/6890/04_Scale_MIDI_Effect.jpg]

    Vom Wellenform-Angucken werden wir hier nicht schlau. Du könntest Audiobeispiele hochladen, dann kann man dir konkrete Tipps geben.


    Allgemein gilt: Lautheit entsteht im Mix - durch die Auswahl der richtigen Sounds und Instrumente, entsprechendes EQing und gezielt eingesetzte Kompression und Sättigung. Ein Track, dessen Mix nicht von vornherein auf große Lautheit ausgelegt wurde, wirst du allein mit Masterplugins auch nie so laut bekommen wie kommerzielle Produktionen.


    Der Headroom der Spuren oder des Gesamtmixes vor dem Mastern ist fürs Mastern übrigens Wurst und sagt so gut wie nichts über die Lautheit aus. Du kannst einen Track bauen, der vor dem Mastern die gleichen Peakwerte vorweist wie dein Beispiel oben, aber viel lauter (oder viel leiser) klingt.

    Es ist noch in Entwicklung. Wobei es wohl eher erst mit späteren Android-Versionen mit vernünftiger Latenz lauffähig sein wird... es ist leider kein Zufall, dass es für Android so verhältnismäßig wenige Audio-Apps gibt. Die Audio-Hardware lässt sich treiberseitig nicht schnell genug ansprechen.

    Die Lösung des Problems ist ganz einfach. Benutz für lange Sounds, die nicht von selbst enden, die Piano Roll und nicht den Step Sequencer. Letzterer ist nämlich für Drums und andere One-Shot-Samples gedacht. In der Piano Roll hingegen hat jede Note eine Länge, mit der du kontrollieren kannst, wie lang ein Sample gespielt wird. Aktiviere dafür in den Channel Settings den VOL-Envelope.

    Der "Mono"-Schalter in den Channel-Settings hat nichts mit der Anzahl der Audiokanäle zu tun, also dem, was normalerweise als Mono & Stereo bezeichnet wird. Er bewirkt lediglich, dass jeweils nur eine Midi-Note zur Zeit spielen kann, wodurch z.B. keine Akkorde möglich sind. Nützlich bei Basslines und so.

    Es hat sich in dem Bereich nichts verändert. Noten (in der Piano Roll und im Step Sequencer) sind wie gehabt für jedes Pattern individuell veränderbar. Einstellungen von Channels (also Instrumenten) wie Lautstärke, Mute-Status und Panning wirken sich auf den gesamten Song aus.
    Was du im ersten Beitrag beschreibst ist so definitiv nicht passiert und wird wohl auf ein Missverständnis der Funktionsweise von Pattern Clips zurückzuführen sein. ;)

    Stimmt nicht. Du drehst einfach einmal am Regler, den du automatisieren willst, und klickst dann mit der rechten Maustaste auf das Joystick-Symbol im Recording-Panel und wählst "Create Automation clip":


    [Blockierte Grafik: http://i.imgur.com/NycF0.gif]




    Andere Möglichkeit, wenn du mehrere Regler auf einmal automatisieren willst:
    Das Joystick-Symbol mit LINKS anklicken, dann hintereinander weg die Regler drehen, dann wieder rechts auf den Joystick und "Create Automation clips".

    Bei solchen Bässen ist Sidechain-Ducking definitiv nicht die richtige Lösung, ist auch im Hip Hop nicht gängig. Routingspielereien können bei so simplen Produktionen eigentlich nur schiefgehen. Passt einfach nicht, wenn man da die Bassline "pumpen" hören würde.


    Besser gut zueinander passende (=sich ergänzende) Sounds verwenden, die sich schon von vornherein wenig in die Quere kommen. Dann etwas EQen, fertig.

    und ich habe es auch heute noch auf linear stehen aus perfomance gründen..


    Wie ich oben geschrieben hatte ist das nicht mehr angebracht, der Performanceverlust ist völlig zu vernachlässigen. 6-point hermite ist inzwischen annähernd so schnell wie linear, die neue Standardeinstellung ist 16-point sinc. Und 24-point sinc ist jetzt so schnell wie es damals 6-point hermite war. :)

    In der Titelleiste der Playlist kannst du auswählen, welches Pattern du als nächsten Clip in die Playlist einfügen willst. Wähle also das Pattern, in dem sich die Events befinden, und klicke dann in den Bereich der Playlist, in dem sich die Clips befinden. Das sollte es auch schon gewesen sein. ;)


    @ Magier: Doch. Aber ganz ehrlich- Du redest da von Artefakten die kaum hörbar sind, und niemals den Klang völlig verunstalten.


    Kommt vollkommen auf die verwendeten Samples an, und was man damit anfängt. Resampling bzw. das Pitchen von Samples ist ja jetzt nicht gerade der seltenste Vorgang, macht also Sinn, es zu erwähnen. Ich benutze beim Export die gleiche Resampling-Einstellung wie beim Mixen, bewahrt davor, dass es nach dem Rendern anders klingt. Selbst wenn es "technisch besser" ist: Ich will hinterher das Resultat, das ich vorher gehört habe, nichts anderes. Und Artefakte, die mich beim Mischen nicht stören, können mir auch hinterher egal sein. Das Echtzeit-Resampling in FL wurde in den letzten Jahren laufend verbessert und ist mittlerweile bei gleicher CPU-Last so gut wie früher die sehr hohen Render-Einstellungen waren.



    @BAR GEIL:
    Du kannst deinen Song auch ohne Rendering ins MP3-Format bringen. Lade einfach einen Edison auf den Mastertrack, drück in Edison auf Record und lass den Song laufen. Hinterher kannst du ihn aus Edison als MP3 speichern.
    Wenn du den Song dann nochmal mit dem normalen Rendering exportierst und uns beide Dateien zum Vergleichen hier hochlädst, können wir dir sehr wahrscheinlich genau sagen, was das Problem mit deinen Renderings ist.

FL Studio Shop.de