Beiträge von Cyclotron

    In den letzten Jahren hatte ich mehr Zeit für Musik als mir lieb war. Leider jedoch keinen anständigen PC. Also hab ich aus Langeweile angefangen, auf einer uralten Spielzeugmöhre Musiksoftware zu schreiben und Dateiformate diverser Hertseller zu hacken. Mittlerweile hab ich endlich wieder einen halbwegs brauchbaren Musikrechner, aber nun blöderweise mehr Bock auf coden als auf klimpern... :D

    Wie bereits gesagt, das hängt mit der Stimmenzuweisung zusammen. Weiß sind aktive Stimmen vor der Releasephase, grau sind Stimmen im Release und schwarz sind freie Stimmen. Bei Unisono sind immer mehrere Stimmen aktiv (z.Bsp. 1 und 2), also gehen nach dem Loslassen der Taste diese 2 Stimmen in die Releasephase (werden Grau) und die neuen Stimmen erscheinen rechts davon an Position 3 und 4.


    Nach Änderungen an der Stimmzuweisung unter "Voice" oder direkt nach dem Start nimmt er übrigens immer die Stimmen von ganz links oben. Danach bei jeder Note die jeweils nächsten rechts. Das ganze mathematisch ausgedrück "Modulo Polyphonie", also ringförmiges Assignemnt.

    Das ist nur eine optische Kontrolle für die Auslastung der internen Polyphonie. "Steuern" kann man das nur in dem Sinne, dass man unter Voice entsprechende Einstellungen vornimmt. Dass das nicht immer an derselben Stellle startet liegt an der internen Voiceverwaltung. So kannst Du z.Bsp. einen polyphonen Sound mit langem Release programmieren und der Sound bricht trotzdem nicht abrupt ab, wenn Du dieselbe Taste mehrmals hintereinander drückst (sogenanntes round robin).


    Die Anzeige ist ganz nützlich, wenn man vereinzelt abreißende oder "merkwürdig" klingende Noten hat. Man kann dadurch schnell sehen, ob ein solches Problem an zu hoher Stimmenauslastung liegt.

    Das gibt es auch unter "Musikern", insbesondere aus der Riege der Keyboarder: Da wird minutenlang wild an allen Reglern gedreht und der Schweiß perlt, nur der Sound ändert sich nicht. Wenn mal die Klaviatur angefasst wird, macht das ebenso keinen klanglichen Unterschied.


    Der nächste verhaspelt sich in der Playlist seines demonstrativ aufgebahrten Apfel-Rechners, so dass nach dem Ende eines Songs derselbe gleich noch mal anfängt - inklusive Gesang. Kommentar: "Ja, Leute - sorry, passiert schon mal - das ist hier halt live...".


    Und wieder andere sind 90% der Zeit damit beschäftigt, mit den Händen über dem Kopf klatschend auf der Bühne herumzuwatscheln und dabei dämlich zu grinsen.


    Die maximale Performance gibt es meist zwischen den Stücken: Eine Flasche Wasser (oder besser noch Wodka) im Akkord wegsaufen und nebenbei großzügig Flachwitze und Merchandisingtexte abspulen. Klar, die Gage will ja vedient sein...

    Das musst du mir mal genauer erklären :D:D


    Beispielsweise so:


    1. Take: Drumspur auf Rekorder 1 aufnehmen
    2. Take: Y-Adaper an Rekorder 2 und damit sowohl die schon aufgenommene Drumspur von Rekorder 1 als auch die Basspur vom Keyboard
    3. Take: Y-Adapter an Rekorder 1 und damit sowohl den aufgenommenen Drum/Bass Mix von Rekorder 2 als auch den nächsten Sound vom Keyboard
    4. Take: ...usw.


    Das alles live gespielt ohne Sync und Mixer, aber mehr war finanziell einfach nicht drin zu der Zeit.

    Ich spiele Klavier (ca. 24 Jahre). Allerdings habe ich den relativ spät begonnenen Klavierunterricht nach nur 2 Jahren wieder geschmissen, weil mir das einfach zu öde war und ich Besseres zu tun hatte als Notationskonventionen zu pauken und anderer Leute Partituren wiederzukäuen. Ich glaub, mein Lehrer war mir für diesen Schritt dankbar. :D


    Somit würde ich mich da jetzt nicht gerade als Virtuosen bezeichnen. Zum Komponieren/Improvisieren und ggf. etwas Livegedudel in einer Band hat es bislang immer gereicht. Bei meinen eigenen Sachen setze ich es aber kaum ein, ich hab eher ein Faible für sequenzerlastigen Kram.


    So geht es mir aber in der Tat oft, wobei der Produktionsfortschritt dann meistens hin zur Tonne geht, wenn die Realität mangels Können nicht mit der Vorstellung Schritt hält. Das ist aber eindeutig von Nachteil, denn dieses festgelegt sein bis in den letzten Sinus hat ja mehr mit normierter Fliessbandproduktion von Blechdosen als mit "Kunst" bzw. Musik gemein. Dynamik als Teil des Schaffensprozesses zuzulassen muss auch erst mal gelernt sein.


    Deshalb fand ich Aktivitäten in Bands auch immer ziemlich befreiend, da man da mal etwas aus der eigenen Sauce rauskommt. Meiner Erfahrung nach geht dann aber die meiste Zeit für hochtrabende Pläne, Coverdesigns, künstlerische Differenzen und das Auffinden und Ausnüchtern diverser Bandkollegen drauf. :D

    Eine Anmerkung zu diesem Punkt:



    Harmor: added import (drag&drop) for Komplexer WT wavetable files.


    Das derzeit einzige Programm, das solche Wavetables bauen kann, gibt es hier zum saugen:


    http://www.fileden.com/files/2…26/1607754/Audio-Term.zip


    oder, falls der Link nicht geht


    http://home.arcor.de/blacktomcat666/Audio-Term.zip


    Die 5 mitgelieferten WT Files in dem File funktionieren übrigens nicht mit Harmor, aber die sind ohnehin nur zum Testen der Software gedacht. Ein Manual gibt es leider auch noch nicht, kommt aber demnächst.


    Schade nur, das Harmor die WT Files nur als Image einliest und damit die Phasenlagen ignoriert. So geht einiges an Klang verloren.


    Man kann ja unmöglich jede Störfrequenz ohne grafische Darstellung raushören und auf diesem Weg beseitigen.


    Kann man in gewissen Grenzen schon, auch ohne Analyzer. Mit einem parametrischen EQ kann man ein schmales Band einstellen, anheben und mit diesem das Spektrum manuell durchfahren - störende Frequenzen machen sich hier durch extreme Resonanzen/Dröhnen/Klingeln bemerkbar. Ein Analyzer wie z.Bsp. Voxengo Span kann da zusätzlich hilfreich sein.


    Zum Thema noch drei Empfehlungen, die aber eher zum kleinen Besteck gerechnet werden dürfen und jetzt nicht so die Brachialwerkezeuge sind:


    1. In allen Tracks/Samples grundsätzlich vor Kompression o.ä. den DC Offset entfernen (häufiger vorhanden als man glauben mag)


    2. Sounds sampleweise verschieben bzw. in der Phase drehen, um unerwünschte Peaks zu entfernen.


    3. Noten, die später mühsam mit dem Kompressor auf nahezu "unhörbar" heruntergequetscht werden, kann man u.U. auch von vornherein ganz weglassen - ist aber abhängig vom Einzelfall und macht mehr Arbeit bzw. erfordert schon ein gewisses Maß an vorausschauendem Arrangieren.

    Mal ins Blaue vermutet: Das liegt möglicherweise an der Phasenverschiebung des Filters bzw. des EQ. Der Lowcut nimmt zwar die tiefsten Frequenzen raus, dafür verschiebt er jedoch das übrige Spektrum abhängig von der Frequenz in der Phase. Dadurch enstehen ggf. Peaks in der Wellenform, wo vorher keine waren. Das wir um so deutlicher, je steiler Du filterst und je tiefer die Cutoffrequenz ansetzt.


    Die Lösung wäre in dem Fall ein phasenlinearer EQ oder eben einfach Lautstärke neu anpassen.

    So weit ich mich entsinne war Zebra zunächst "Mac only" bzw. war nur mit der ZebraShell und diversen Einschränkungen unter Windows nutzbar. Mit V1.5 gab es eine Windows Version, zumindest hab ich damals mal was von einer Beta gelesen.


    2006 kam Zebra2 als kostenpflichtiges Upgrade. Spätestens hier dürfte es dann mit den Updates, die man von V1 aus beziehen kann, vorbei gewesen sein - sowohl technisch als auch lizenzrechtlich.

FL Studio Shop.de