Beiträge von Musikus

    Das UR 22 verfügt ja über einen HI-Z Eingang. Eingang 2 lässt sich über einen Schalter auf der Front von Line auf HI-Z umschalten. Dann ein Amp-Modelling-VST wie Red schon schrieb.
    Alternativ kann auch ein Hardware-Modeller (z.B. Line 6 POD-Reihe, etc.) über Line-Eingänge aufgenommen werden.
    Oder ganz klassisch die Mic-Abnahme des Amps. Sicherlich am anspruchsvollsten.

    Da bin ich als langjähriger Sonar-User auch mal gespannt. Ich hatte mich zwischenzeitlich auf Studio One eingeschossen, werde das mit Cakewalk aber im Auge behalten.
    Das kann Bandlab dann nur irgendwie querfinanzieren, weil man so eine ausgereifte DAW nicht mit geringen finanziellen Aufwendungen aktuell halten kann.
    Sie sollten es ähnlich machen wir Imageline: Einmal kaufen - Lifetime free updates. Klappt ja. Die Kerntruppe der Softwareentwicklung bei Cakewalk in Boston war auch nicht viel größer als bei Imageline, denke ich.

    Mididaten sind Steuerdaten, die eigentlich keine nenneswerte Latenz erzeugen. Latenz wird durch A/D- und D/A-Wandler erzeugt, da die Verarbeitung von digitalisierten Audiosignalen halt nicht latenzfrei funktioniert.

    Um die MPC als Controller zu verwenden (Pads zum triggern von Sounds in FL-Studio) brauchts du einen Midi-Eingang am PC. Da dein Audiointerface keinen Midi-Eingang hat, kannst Du zu einem einfachen Midi-USB-Interface (https://www.thomann.de/de/midi-interfaces.html?oa=pra). Kauf aber vielleicht nicht das allerbilligste.
    Die MPC100 hat zwar selber einen USB-Anschluss, aber dieser dient meiner Kenntnis nach nur dem Datentransfer und ist als Midi-Schnittstelle nicht zu nutzen.


    Für das Aufnehmen der MPC-internen Samples in FL musst Du, wie Red es schon schrieb, die Audio-Ausgänge der MPC mit den Audioeingängen deines Audiointerfaces verbinden.

    Midi überträgt ja nur Steuersignale. Was soll ein Mixer für Audiosignale damit anfangen?
    Ein Midi-Out dient nur der Ansteuerung von Instrumentenplugins oder externen Hardware-Synthesizern.

    Das Problem liegt hier nicht bei der Midi-Datenübertragung Deines Keyboards, sondern bei der Audioausgabe Deiner Soundkarte. Ich nehme an, Du verwendest eine Onboard-Soundkarte und kein ordentliches Audiointerface mit vernünftigen ASIO-Treibern. Du solltest mit einer Onboard-Soundkarte auf jeden Fall ASIO4ALL als Treiber verwenden und dort die optimalen Einstellungen suchen.

    Hallo!


    Ich habe mir den ganzen Thread gerade mal von vorne durchgelesen. Neben der Tatsache, dass Du auf jeden Fall den ASIO-Treiber vom Audiointerface verwenden solltest sind mir da noch so einige Dinge aufgefallen:


    • Auf einem der ersten Screenshots sieht man, dass das Behringer Audiointerface offenbar auf eine Samplerate von 192 kHz eingestellt ist. Das ist unnötig und erfordert extrem hohe Rechenleistung. Da würde ich im Treiber mal schauen und auf 44,1 oder 48 kHz umschalten.
    • Da ist irgendwo von einem USB-Mikrofon die Rede? Du schreibst, Du hast eine Rode NT-1a. Das ist kein USB-Mikrofon, sondern über XLR an Dein Audiointerface anzuschließen. Sollte kein Problem sein. Phantomspeisung natürlich zuschalten, da es ein Kondensator-Mikorofon ist. :wink:
    • Es war bisher keine Rede davon, was da parallel auf Deinem Rechner sonst noch so alles läuft. Gerade Apps, die im Hintergrund laufen und z.B. fortlaufend auf das Internet, am Besten noch über W-Lan, zugreifen, können Dir einen Strich durch die Rechnung machen. Forste das mal durch.
    • Bei der Aufnahme über das Mikrofon die Direct-Monitoring-Funktion des Audiointerfaces zu nutzen, ist grundsätzlich nie eine schlechte Idee. Dann hörst Du direkt das Audiosignal ohne Umwege über die DAW. Verzichten muss man dabei allerdings auf jegliche Effekte, die man nachher in der DAW auf die Vocals legen will. Beim Direct-Monitoring sollte man natürlich darauf achten, dass man dann das Signal, das man in der DAW aufnimmt nicht auf einen Ausgang routet. Dann hört man sich doppelt und ein wenig zeitversetzt, was dann vielleicht zu Deinem "Unterwassersound" geführt haben könnte.


    Vielleicht kommst Du Deinem Problem ja doch noch auf die Schliche. :lol:


    Gruß

    Das mit dem richtigen Abhören ist ein wichtiger Aspekt! Wenn man bei der Aufnahme die Effektplugins im Signalweg haben möchte, muss man beachten, dass diese häufig eine gehörige Portion an Rechenpower benötigen und dies für zusätzliche Latenzen sorgt. Es kann dann sein, dass du schon deine eigene Stimme verzögert hörst oder bei der Aufnahme zu einem schon aufgenommenen Playback bei der Aufnahme ein Zeitversatz entsteht. Dies hängt aber sehr vom jeweiliugen Plugin ab. Autotune hat glaube ich so eine Low-Latency-Option, um auch beim Aufnehmen den Effekt hören zu können. Da musst du mal schauen. Man sollte aber ein gut optimiertes System mit ordentlichem Audiointerface haben. Mit einer Onboard-Soundkarte glaube ich nicht, dass das klappt.

    Du kannst doch einfach die FPC nehmen und jedes PAD einem anderen Mixerchannel mit seinen Effekten zuordnen!


    [Blockierte Grafik: http://www.image-line.com/support/FLHelp/html/img_plug/FPC_padproperties.png]


    Bei Output offset einfach den gewünschten Mixerkanal einstellen, mit Effekten belegen und dann ein Template speichern. Dann hast Du nicht gleich ein überfülltes Channelrack.
    Es würde grundsätzlich auch mit Directwave gehen, aber da wäre dann das Setup etwas komplexer.

    Kann da Mannibeatz und Tomess nur beipflichten! Jeder muss selber schauen, wohin er sich in Sachen Musikproduktion bewegen will. Vorschriften gibt es da nicht.
    Ist halt wie überall im Leben: ALDI oder Feinkost, All-Inklusive-Pauschalreise oder Individual-Urlaub, Fließbandproduktion oder Handwerkskunst. Die Wahrheit liegt in der Regel irgendwo dazwischen.


    Was irgendwelche Kurse angeht, kann ich generell nur sagen, dass ich niemals ohne Mehrwert aus einem rausgegangen bin. Egal, ob CAD, Musik oder sonstwas. Auch wenn ich vorher manchmal gedacht hatte, dass könnte man sich auch selber anlernen. Den meisten Nährwert haben meist die Diskussionen zwischen den Teilnehmern, auch in den Pausen. Die Interaktion fehlt mir persönlich beim stupiden Glotzen von Youtube-Tutorials. Als Ergänzung OK, aber mehr für mich auch nicht.

    Das wird daran liegen, dass die Plugins ggf. in unterschiedlichen Verzeichnispfaden liegen.
    Du könntest den Voxengo Span ja einfach manuell in den betroffenen Channels auswählen.

    Wirklich sauber unterschiedliche Instrumente/Stimmen eines Stereomixes zu trennen geht nichtz wirklich. Das sollte ja jetzt wohl klar sein. ;)
    Wenn es darum geht Gesang und Piano in Deinem Beispiel rythmisch gerade zu rücken, dann könnte das ggf. mit Melodyne funktionieren. Das aber auch nur halbwegs mit den teureren Versionen Editor oder Studio, die DirectNoteAccess (DNA) zur Verfügung stellen. Dazu muss man dann deutlich tiefer in die Tasche greifen. Ob sich dass in Deinem Fall lohnt, wage ich zu bezweifeln.

    Wie Du schon sagst, wenn die Leute nicht selber mixen und mastern, dann geben Sie Ihre Produktionen an Studios, die sich darauf spezialisiert haben.
    In der Rock- und Popmusik ist das klassisch heute meist immer noch so. Bevor es Musikequipment für jeden Geldbeutel in halbwegs bezahlbarer Größenordnung gab, war das auch der einzige Weg an einen vernünftig produzierten Sound zu kommen. Heute kann prinzipiell jeder sich im Onlinestore alles kaufen, was theoretisch erforderlich ist, aber meistens fehlt es den Leuten dann am gelernten Handwerk.


    Das heute viele meinen einen guten Mix oder ein gutes Mastering auf Youtube erkennen zu können, liegt meiner Meinung nach an Veränderungen der Hörgewohnheiten. Man hat sich über die Jahre an den Sound aus MP3-Playern, Handys, etc. so gewöhnt, dass das Gehirn das als toll empfindet. Wie will man denn auch einen "guten Mix" definieren? Ein Hardrocker wird bei Trap Nation bzgl. des Mix die Nase rümpfen und ein EDM Produzent würde sein Tracks nicht von einem Mastering-Ingenieur mastern lassen, der sich auf Schlager spezialisiert hat, usw.
    Es gibt immer objektive und subjektive Bestandteile im Mix. Eine Beurteilung der objektiven Aspekte (z.B. rein technische Fehler, wie störende Resonanzen, Frequenzgematsche, etc.) ist schon möglich, wenn man weiß worauf man zu achten hat. Da bin ich mir nicht sicher, ob das die User hier anhand von Youtube wirklich beurteilen können. Ich aber auch nicht 100%. Zum einen ist Youtube immer in der technischen Qualitätbegrenzt, zu anderen fehlt den meisten hier einfach die Erfahrung dafür. Subjektiv beurteilen kann man natürlich immer und letzten Endes ist gut, was gefällt (Leider!). :D

FL Studio Shop.de