Beiträge von Kyle

    nee ich mein weils halt kompakter is und manche kniffe bei der bedienung schienen mir bei der Mikro angenehmer (weil ich mir zuerst die normalen Maschine Tutorials angeschaut hab und gesehen hab wie er es macht.)
    lange kein Grund für dich die Mikro zu kaufen.
    Die von NI haben die Einschränkungen die die verkleinerung des Controllers vermuten lassen wirklich bestmöglich minimiert.

    Ich hab die Maschine Mikro. Sie hat tatsächlcih alle funktionen des großen controllers (und die exakt gleiche software) zumindest ist mir noch kein unterschied aufgefallen.
    Das wurde von NI auch sehr gut umgesetzt sodass ich niemals das gefühl hatte ich hätte eine "abgespeckte" version in der hand. Im gegenteil, ich glaube sogar dass die Mikro nen schuss besser ist.

    Zitat

    Du hast aber automatisch durch die Breitfächerung z.B. im Enhancer auch eine umso problematischere Phasenlage, umso breiter du wirst. Man kann unmöglich einen Mix gleichzeitig Breit und in Stereo sowie Monokompatibel produzieren. Ein Problem sind zudem Sounds, die extrem von rechts nach links gepannt werden etc. Das kann in Mono mitunter völlig verfälscht klingen. Breite Stereosounds fallen in Mono einfach in sich zusammen.


    Ja aber damit drehst du ja den spieß um. Wenn du methoden verwendest die nicht monokompatibel sind, dann kann der mix am ende mit mono-out nur verfälscht klingen.
    Wenn die Methoden die du zur Breitfächerung des Stereobildes benutzt unmittelbar zur Klangverfälschung beim mono-schalten führen, dann musst du selbst dafür sorgen, dass sie es nicht/weniger tun. Das bedeutet dann "mix monokompatibel machen".
    Paradebeispiel hierfür ist MS stereophonie: Links und Rechts sind signale die sich komplett auslöschen weil sie eben invertiert sind, aber durch das dritte monosignal hört man am ende beim monoschalten eben noch dieses durch. Somit lässt sich der song auch Mono hören, obwohl beim stereo hören fast die maximale breite im gionometer erreicht wird.


    EDIT: oh Deezed war schneller

    Zitat

    -Wieso wird der Maximalpegel von z.b. einem Clap lauter, wenn er anstatt in der mitte, nach rechts gepannt wird?


    Habe gerade kein FL da, aber ich denke es liegt daran, dass in diesem fall das linke und das rechte Signal auf den rechten Kanal geroutet werden. Dadurch steigt der pegel im normalfall.


    Zitat

    -Viele schreiben, dass sie z.B. die Bassline ab xxHz stereo bearbeiten. Kann man einzelne Spuren bei bestimmten Frequenzen auf mono, und stereo aufteilen? Wenn ja, wie macht man das?

    Mein Vorposter hat das ja schon erklärt. Wenn du einen sauberen übergang zwischen den Frequenzbereichen haben willst, dann solltest du ein extra dafür gedachtes plugin verwenden (ich glaube der Multibandkompressor hat so eine funktion).


    Zitat

    -Die Theorie mit den Phasen habe ich ebenfalls nicht ganz begriffen und was für einen Effekt mit Phasenverschiebung erzielt wird?

    Bei Phasenverschiebung kannst du dir grob vorstellen, dass die Welle zeitlich leicht versetzt wird. Nehme ich eine Sinuswelle und drehe ihre Phase um 180 ° dann liegt ein Maximum genau da wo vorher das minimum war und umgekehrt.
    Phasendrehungen sind dann sinnvoll wenn du im Mix zwei übereinanderliegende signale hast, die sich in kurzen(oder längeren) Abschnitten auslöschen. Das kann man daran erkennen wenn bei dem einen signal ein Maximum genau da ist wo bei dem anderen ein minimum einer ähnlichen frequenz ist. Um solche auslöschungen im Mix zu vermeiden wird dann eines der beiden signale Phasengedreht, damit sich nicht Maximum und Minimum überlagern, sondern Maximum und Maximum.
    Ganz wichtig ist das zb. bei der Mikrofonierung von einer Snare Drum. Da hat man oft unten und oben ein mikrofon. Wenn man die Signale einfach übereinander legt, dann würden sich viele frequenzen auslöschen, weil das fell wenn es nach unten schwingt im unteren mikrofon eine positive Amplitude, und wenn es nach oben schwingt im oberen Mikrofon ebenfalls eine positive Amplitude erzeugt. Das heißt in der praxis invertiert ( =phasendrehung 180 °) man eines der beiden signale.


    Zitat

    -Hier im Forum hat jemand mal erklärt, dass man das gleiche Instrument auf zwei Channels mit linkem und rechtem panning spielen kann, um einen gewissen Effekt zu erzielen. Was erzielt man mit dieser Methode, was man mit einfacher Stereoseparation und panning nicht erreicht?

    Du musst bei dieser methode aufpassen dass du das Instrument nicht exakt gleich links und rechts pannst. (zb. Channel kopieren, midi kopieren und dann links und rechts pannen) das bringt nichts. Du musst um einen Stereo effekt zu erzielen dafür sorgen dass sich linkes und rechtes signal unterscheiden. Viele dinge erklären sich hier von selbst wenn du mit einem Gionometer ein bisschen herumexperimentierst. In FL studio findest du das unter den effekten bei "Wave Candy" im modus "Vectorscope". Da siehst du zB. dass ein schönes stereosignal ein Wollknäuel artiges bild ergibt, und dass ein gepannedes monosignal vor dem panning und nach dem panning eine einzige dünne linie bleibt.
    Ich habe die erfahrung gemacht, dass man durch A-B, M-S mikrofonierung oder diese 2 mal einspielen methode viel saftigere stereobilder bekommt als das mit einem stereo separator möglich ist.




    Zitat

    -Kann man mit der richtigen Stereoseparation/-aufteilung ebenfalls verhindern, dass sich Frequenzen überlagern?

    Ja, denn der rechte und linke kanal sind getrennt. Als hättest du 2 unabhängige monomixe (allerdings läufst du dann gefahr dass dein Track nicht mehr monokompatibel ist).


    Zitat

    -Wird das Stereobild nur aufgrund der Lautstärke, Halle, usw., oder auch wegen eines minimalen Zeitunterschiedes des rechten und linken Signals gestalltet?


    Auch der Zeitunterschied hat seine wirkung. Allerdings solltest du da realistisch bleiben und den Zeitunterschied maximal so groß wählen wie der schall mit seinen rund 340 m/s braucht um den abstand zwischen deinen beiden ohren zurückzulegen (zumindest was den bassbereich angeht)
    Um gute Stereoeffekte zu erzielen kannst du versuchen bestimmte schallphänomene im mix nachzukonstruieren. Zb. die auswirkung der Form der Ohrmuschel auf die Wahrnehmung von Oben und unten. Du kannst dir auch mit deinem kopfdurchmesser ausrechnen für welche frequenzen dein linkes ohr im Schallschatten deines Kopfes liegt, wenn der schall von rechts kommt, und diese frequenzen dann am linken kanal mit einem highcut entfernen, bzw in einem anderen kanal erst verzögert mit mehr hall dazugeben. Wichtig ist dass du bei solchen experimenten ständig abhörst, ob dein effekt überhaupt erzielt wird.


    Korrigiert mich bitte wenn ich irgendwas falsches schreib


    Irgendwie verstehe ich dein Problem nicht ganz :? Warum aktualisieren, wenn es doch so geht ?

    Naja vielleicht will er ja die bitrate nicht erhöhen, damit die Datei nicht zu groß wird und auch von Leuten mit schlechter internetverbindung gestreamt werden kann. wäre nur ein denkbarer Grund.
    (mal davon abgesehen dass die Lame version gemäß FL-Phil eigentlich schon aktuell ist)

    Man kann den Headroom an einem guten Limiter vor dem Export erhöhen, sodas weniger schnell MP3- Artefakte entstehen. Der Unterschied ist aber minimal...

    haste da nen Webartikel dazu? Oder kannst du evtl selbst erläutern warum das so ist? würde mich intressieren was da genau abläuft.


    was meinst du mit durchschnitt statt festwert wählen?


    wahrscheinlich ne Variable Bitrate (VBR). Dabei wird die Bitanzahl im zeitlichen Verlauf des Tracks verringert oder angehoben.
    Lässt sich bei FL im renderer nicht einstellen.


    aber wie ist es den bei den pros .. wie encodieren die ? bei den sind die artefakte nicht hörbar..


    Bei den richtigen "pros" die ihre songs kommerziell produzieren und wissen dass diese am ende zum großteil in komprimierter form (seis nun m4a oder mp3) gekauft werden, wird der gesamte mix schon von vornherein so ausgerichtet dass (wie Loboto Midi schon gesagt hat) beim komprimieren die ganz krassen klangveränderungen garnicht erst stattfinden. Wenn die wissen was bei mp3 nicht möglich ist, dann versuchen sie diese situationen im song zu meiden. Bei hohen bitraten finde ich es aber ehrlich gesagt ganz schön schwer ohne direkten vorher/nachher vergleich die Artefakte überhaupt rauszuhören. vllt geht das nur mir so.

    zuerst grob eintappen, dann in FL nen Loop dazu laufen lassen und sobald ne Abweichung kommt leicht nachkorrigieren bis es wieder passt. Das bis zum Ende vom Song machen. Funktioniert immer, ist aber umständlich. Nur zu empfehlen wenn die Drums so verrückt sind dass diverse BPM-Analyzer nur mist rausgeben.

    ja du darfst mit der FL Studio Express Version kommerzielle Songs etc... erstellen.


    Was Pianos angeht sind die FL Keys dabei, ein Klavier Plugin mit eher schlechten Sounds.
    Die Piano-Roll (=Midi-noten Eingabefenster das Harmonien bei einzelnen Generator-Plugins innerhalb einer Pattern ermöglicht) ist bei der Express Version nicht enthalten. Da bräuchte man dann mindestens die Fruity Edition.

    Hab mir den Artikel durchgelesen. Dass beim Upsampling mit linearer Interpolation hohe Frequenzen entstehen, leuchtet mir ein. Warum sich der Frequenzgang ändert ist mir aber schleierhaft... das wird im Artikel nur kurz angeführt und nicht näher erläutert:

    Zitat von Wikipedia

    First, the frequency response will not be flat, and second, [...]

    Könnte mir das jemand erklären?


    Zitat von Loboto Midi

    44,1 -> 88,2 -> 44,1 ist nur OHNE Resampling eindeutig, d.h. wenn du die Sampledaten einfach übernimmst. Dabei wird das Material aber in der Tonhöhe geändert, und das willst du ja nicht. Daher MUSS resamplet werden.


    Aber nehmen wir mal an es wird mit Methode (b) aus dem Wiki Artikel geresampled, dann bleiben ja die Punkte von der 44,1 Datei erhalten, nur auf die doppelte Länge skaliert. Was dann dazwischen rein-interpoliert wird kann einem doch egal sein, weil es ja sowieso wieder rausfällt wenn wir auf 44,1 zurückgehen... Und dadurch, dass alle Daten auf die doppelte Länge gestreckt werden und wir mit doppelter Geschwindigkeit wiedergeben, bleibt doch die Tonhöhe gleich... oder irre ich mich da?
    Kannst du bitte genauer erklären warum sich die Tonhöhe ändert?


    Sorry ich glaub bei mir ist der Groschen noch nicht wirklich gefallen.

    Mir war schon klar dass es bessere und schlechtere Converter gibt, aber mir stellt sich die Frage nach dem Grund. Denn die Umrechnung von 44,1 auf 88,2 zurück auf 44,1 ist doch ne mathematisch eindeutige Sache. Da sollten doch bei korrekter Ausführung auch ohne Filter garkeine Artefakte entstehen können. Trotzdem schreibt dieser Typ im ersten Zitat von mir im Anfangspost, dass er im Analyzer entstandene Geräusche sieht.
    Bei der Umrechnung von 44,1 auf 96 zurück auf 44,1 kann ich es ja noch nachvollziehen, dass durch die bei der ersten Umwandlung generierten Samples beim Zurückrechnen ein paar neue Frequenzen auftauchen können.

    Suchfunktion benutzt und nichts gefunden

    In einem englischen Forum schreibt son typ:

    Zitat von http://www.hydrogenaudio.org/forums/index.php?showtopic=75505&view=findpost&p=663037

    A few months ago I've done some testing by upsampling&downsampling a 32-bit fp signal 10 times from 44.1-88.2kHz rate using iZotope's SRC.
    Then I subtracted the resulting signal from the original. The only difference I could see (not hear) was some artifacts above 21kHz. Below that there was nothing to see, indicating to me that the process is kinda lossless for source material up to 21kHz.


    Er sampled 10 mal von 44.1 kHz auf das doppelte und wieder zurück.
    Woher kommen dabei Artefakte? Wie können Artefakte entstehen wenn das doch genau das doppelte bzw die hälfte ist? Dabei müssen doch eigentlich garkeine neuen Samples interpoliert werden. Verstehe ich da was falsch?


    Das krasse Gegenteil behauptet ein anderer in einem anderen Forum:

    Zitat von http://www.gearslutz.com/board/1969180-post4.html

    With regard to the even multiples angle -- unfortunatley, some folks with a less than complete understanding of hte issues -- and I was among them -- were promoting this idea, suggesting things like "you just throw out every other sample" (pretty much a direct quote from me a few times) -- but, unfortunately they and I were wrong about how it works.


    The bottom line is that with todays better sample rate conversion, you can get accurate SRC from, say 96 (or 48 for that matter) down to 44.1.

    Falls ich das richtig übersetzt habe meint er dass sogar von einer nicht-vielfachen Frequenz wie 48 kHz (bei der das audio warscheinlich per highcut obenrum entsprechend gesäubert wurde) eine übersetzung auf 44.1 kHz ohne Artefakte möglich sei.


    was stimmt denn nun?
    (bitte keine posts von wegen dass man das eh nicht braucht.)

    Zitat

    "bei allen plugins ist das dollar zeichen [= S oder 5] noch zu sehen"

    aus dem "noch" schließe ich dasses irgendwas aufm Bildschirm ist und nicht auf ner Verpackung.

    Zitat

    ich habe mal mit der lupe geschaut.

    Mit ner lupe schaut man normalerweise nicht auf den bildschirm, da siehste auch net mehr als ohne. Poste lieber nen Screenshot damit man dir weiterhelfen kann, oder sag uns wenigstens irgendwas genaueres als "bei allen Plugins".

    Zitat

    wenn es nur eine version vom prgm gibt


    gäbe.


    es gibt mehrere versionen, und damit ist nicht "schul-version" gemeint sondern so sachen wie Express Edition oder Fruity Edition. Die Producer edition ist die "höchste", damit kannst du alle Programmfeatures benutzen. Durch upgrade aufs Signature Bundle kriegt man halt noch n paar plugins, aber "Signature Bundle" wird beim start wie Tallahassee schon sagte nie angezeigt.


    Die Demo-Installer von FL sind eigentlich keine Demos. Wenn du die Plugins nicht gekauft hast kannst du sie nur im Demo-Modus benutzen, hast du sie bereits gekauft und den Registry Schlüssel bei Windows eingefügt kannst du diese Plugins ohne limitierungen verwenden. Man installiert praktisch eine Vollversion, wenn mans nicht gekauft hat kann man sie aber nicht in vollem Umfang nutzen.
    Ich update meine Plugins immer nur bei einem FL studio Update. Ist viel bequemer als die Plugins einzeln herunterzuladen.


    Zu dem mit den Dollar-Zeichen kann ich jetzt auch nichts sagen, hab noch nie irgendwo Dollar-Zeichen bei irgendwelchen Plugins gesehen.

    Zitat

    nur 1 Regler der mehrere Parameter steuern kann."


    wenn ich nur eine sache ändern kann, dann wird auch nur diese eine sache übergeben.. und dann is das ganz klar nur ein parameter.
    Ich glaub ich muss meine Definition von "Parameter" überdenken...

    irgendwie schon intressant. Vllt ist hier ne neue Musikrichtung entstanden. die Sounddateien der Songs müssen absofort wenn man sie als EXE ausführt irgendeine funktion erfüllen xD
    Dass da Rhytmische gebilde rauskommen überrascht mich weniger, aber dass die tonfolgen halbwegs melodisch sind find ich echt beachtlich.


    nope, wäre quatsch weil der envelope controller durch einen notenbefehl im sequenzer getriggert (gestartet/aktiviert) werden muss ;)


    gruß;)


    nein, wäre kein quatsch, bei grossbeat und pitcher läufts ja auch nicht anders. Die reagieren auch auf midi input der durchaus aus dem stepsequencer kommen kann. Bei dem Envelope Controller is das aber eigentlich egal wo der jetz drinne is, insofern haste schon recht.


    Musikus: Du interpretierst wirklich extrem viel in diese handvoll informationen aus dem thread hinein. Immerhin hat von uns keiner den sound gehört, und wenn irgend ein plugin eine hallfahne erzeugt die, wenn man sie (durch parameter im plugin) abschwächt einfach komplett anders klingt, dann macht es doch durchaus sinn den klang zu erhalten und am ende noch mit draufgesetztem ADSR den sound so zu bearbeiten, wie man es braucht. Schließlich wäre in einem solchen fall die erzeugung des selben sounds durch parameteränderung in den vorhergehenden plugins schlichtweg unmöglich. Es kann also durchaus sinn machen was er hier vorhat, und da wir den sound nicht kennen gilt: Im zweifel immer für den angeklagten.

FL Studio Shop.de