Beiträge von KIvschranz

    Im forum suchern kann helfen

    eigentlich sehr einfach ..du must doch nur einen midi out als kanal inserieren... ich kümmere mich drum aber nur mal so ..was hast du gearbeitet logic? protools ? ..also nichts ist einfacher als midi in Fl studio .. hier reinzuplatzen und gleich als unlogisch zu deffamieren ist nicht gut ..das sagt ja nur das dir noch erfahrung fehlt... ich schreib diur gleich genaueres

    nun ..diese Bassdrums sind echt einfach. Layersounds und co sind da eher viel zu viel (!) und "perlen für vor die Säue".Du musst dir vorstellen das, dass Musik ist die Eigentlich "live" gespielt wird ..Dh. du hast einen 2m² Tisch wo du 3 Drummachines und 2 Synthesizer und 20 Effektgeräte hat ..und dort tust du dann mit 2 Händen Musik zusammenschrauben (zumindest sind die elemente Bassdrum/Bassdrumfilter und co eher diesem Genre zuzuordnen ) ..das Ganze macht es echt zu einer Kunst ..so einen stil 1-2 stunden zu halten ist nicht ohne !



    Nun ist es so das durch die wenigen Bearbeitungsmöglichkeiten einer Drummachine und deren wenigen Spuren der weg zum Sound meist Simpel. Somit ist deine Bassdrum nur ein sampel dem man eine Distoration Hinzugefügt hat (wichtig ist halt nur welche Baasdrum man nimmt) ...ich hab hier mal ein beispiel (musikalisch natürlich unter aller sau) es zeigt denk ich ganz gut auf wo du hin willst ..wenn es vom grundklang nicht passt versuch eine andere Bassdrum. Ich Habe hier die "Kick2" von der Legacy Sounds von Fl Studio genommen ..die verhält sich eigentlich ganz gut. Ich schiebe da über eine Automation die Distoration stufenweise rein damit man das Klangspecktum etwas einschätzen kann. sollte die Zerre nicht passen einfach mal eine andere nehmen... aber mehr ist es sicher nicht. Danach hab ich nochmal die üblichen filterspiele mit der Bassdrum gemacht (einfach nur ein Hipasss mit Resonanz) ...



    tekkbass.zip

    OK das ding ist schwierig .. das ist ein One Take ? ok und ich glaub da ist auch der Fehler ..hier passt das bild nicht zum sound ... man merkt das er nicht drin ist und das ist wichtig ..mittendrin wirds langsam aber die mimik nicht genug ..gegfühl zu wenig .. hättest ihn hinstellen müssen ... ich würde da auch mehr gestik erwarten .. er hätte zum beispiel mehr mit der Dynmik spielen sollen ...so gibt es Passagen die sehr ruhig sind und andere die laut sind ..so hätte er ran an mic wenn wenn er leise ist und weg wenns laut ist ..das mit der passenden gestik und mimik hätte man erkannt er den “scheiß” XD auch lebt ... hier geht sehr die massage verloren und würde ich so nicht veröffentlichen .. weil beamt einen einfach nicht in den sound ..sorry aber ehlich werd am längsten XD

    Was Musik Magier da schreibt ist zu 100% richtig ..ich möchte nur noch etwas zur Verstänlichkeit beitragen und hoffe die grundlagen etwas zu vereinfachen.



    Also was wir wissen..

    auf den Lautsprechern (L/R ) gibt es signale die Gleich sind (Mono und dadurch bilden sie eine Phantomschasllquelle ..kommen also aus der mitte der Stereobasisbreite)



    Ob ein Signal nun nach rechts oder nach links wandert liegt an unterschieden in Zeit und Pegel des Signals (siehe ganz oben)



    welche Schlussfolgerungen ergeben sich daraus ?


    M/S- Mid/Side „ sortiert “ die Links/Rechts Betrachtung in Gemeinsamkeiten und Unterschiede zwischen den beiden Kanälen... Gemeinsamkeiten bleiben im Mid Kanal „gefiltert“ (also alles was mono ist) und die Unterschiede bleiben im Side-kanal „hängen“ (also alles was nicht aus der Mitte kommt) . Mid/Side passiert ohne Informationsverlust (kann also wieder in L/R aufgelöst werden) .ist Monokompatibel



    Wie funktioniert das (L-R=S)? Wie „Filtert“ man die Unterschiede aus den Stereokanälen?


    Man dreht einen Kanal in der Phase um 180° ...dies tut man in diesem Fall mit einer verpolung (!!!) des Signales nicht mit einer Phasenverschiebung


    Richtig gutes video zur Phase/Phasenverschiebung/ Invertiertung / ... das sind auf jeden fall Basics für M/S:


    https://www.youtube.com/watch?v=caNpkrlxju0



    Nun kann man sagen das sich alles identischen signale zwischen L/R auslöschen .. wenn ein signal Links lauter ist wie rechts bleibt es auf dem side erhalten ... wenn ein signal zeitlich verzögert ist ergibt sich auch ein “Rest” ...



    beim Mono schalten (dem einrichten des Mid kanales) werden L+R gerechnet .. wenn man ein stereo, Mono macht wird genauso die Phasen “verarbeitet” .. das merkt man auch dadurch das wenn links ein signal -18dB und auf dem rechten auch -18(dB) wird das Monosignal -12(dB) sein also 6dB Lauter ... weil gleiche signale ihren signalpegel verdoppeln und in dB(fs/spl usw.) bedeutet eine pegelverdopplung +6dB(fs/spl/ usw)


    Kleiner einwurf. “ letztens kam ein Arbeitskollege auf mich zu und sagte: “Meine Anlage hat minestens 190dB.. willst mal Hören? “ da hab ich gesagt :” NEIN!.. viel spaß beim sterben”

    96dB(SPL) ~ 1Pascal

    190dB(SPL) ~ 65536 Pasal = 0,65536 Bar XD

    kommt das nicht drauf an wie groß dein kopf ist? ... woraus sich dann dein hirn dann aus der laufzeit die richtung "errechnet"?


    bei nem kleinen kopf müsste der wert doch kleiner sein als bei nem großen

    Ganz Richtig! .. aber bei einer Kopfbezognen stereofonie ist der Mikrofonabstand ja auch 17,5 cm , obwohl der Ohrabstand und gehörgangtiefe(bis zu 4cm ) bei jedem menschen anders ist... das sind gemittelte Werte. Es gibt da angaben in den lehrbüchern von 1,6-1,8 m/s. das man immer die Mittelwerte nimmt hat natürlich zu Folge das es nicht bei jedem gleich funktioniert aber im Mittel halt ziemlich gut XD ...PS: schön was von dir zu hören/lesen Magier

    gefällt mir sehr .. hat eine sehr tiefe Künstlerische sprache ... im ersten moment fesselt einen das bild auch ..die aushölung der augen macht es emotionslos/seelenlos -- wirkt irgentwie zwiegespalten was man im songtext ja auch einwenig erkennt. weis nicht ob du direkt auf solche sachen setzt also "eine massage ins bild packst" auf mich wirkt es so und .. ich finds hoch interessant in kombination mit bild und sound ..holt einen schon weg

    Man nennt das Phantomschallquelle und sie ist eigentlich ganz einfach zu verstehen ...du hat einen linken Lautsprecher und einen rechten ... wenn du irgendein Signal zur selben Zeit mit selben Pegel und Frequenz (Kurz= Mono) auf diesen Lautsprechern ausspielt ...kommt der Klang aus der Mitte der Stereobasisbreite ( die stereobasis ist einfach die Klangausdehnung vom L/R Lautsprecher ... dort steht aber kein Lautsprecher ... daher Phantomschallquelle … warum der klang aus der mitte kommt liegt einfach daran wie wir klangrichtung orten … das machen wir zum einenn durch Pegeldifferenzen zwischen L/R und Laufzeitdifferenzen zwischen L/R ..Laufzeit ist in diesem sinne also ein Signal zeitlich verzögert auf L/R auszugeben. ..so ergibt sich Folgendes :



    1.ist ein Signal 18dB leiser auf dem linken Lautsprecher gegenüber dem Rechten = der Sound kommt 100% von rechts

    2.wird ein Signal 1,7m/s später gespielt auf dem linken Lautsprecher gegenüber dem Rechten = der Sound kommt 100% von Rechts … da rechts zuerst auf dein Ohr trifft .. das nennt man Haaseffekt oder das Gesetz der erst auftreffenden wellenfront.



    Beide werte verhalten sich linear … das heißt ..

    1.ist ein Signal 9dB leiser auf dem linken Lautsprecher gegenüber dem Rechten = der Sound kommt 50% von rechts

    2.wird ein Signal 0,85 m/s später gespielt auf dem linken Lautsprecher gegenüber dem Rechten = der Sound kommt 50%t von Rechts

    ok ... anders. es ist ja so....


    L-R = S

    L+R=M

    M+S= L,

    M-_S=R


    Kannst du was über das L-R =S sagen ..wie das funktioniert? Entschuldige bitte mein nachhacken ..es ist nur wichtig das man das prinzip kennt und verstanden hat, Versteht was der unterschied ist zwischen L/R und M/S dann ergeben sich auch die bearbetungsmöglichkeiten ..


    Mehr kontolle ist da nicht sehr aussagekräftig ..wenn ich das nochmal erklären muss ist es ok ... nur muss ich wissen ob die basics da sind ;-)

    Ich muss dich an der Stelle fragen ob du weißt was ein Mid/side signal ist (?) und für was man es braucht ? versuch es mal zu erklären ..geht nicht so richtig aus der Fragestellubg hervor.Wenn da Basics fehlen musst erstmal an den grundmauern arbeiten... ;-)

    -ganz kurz ..Muss arbeiten


    -Beim mikrofon auf den Brustkorb-> darauf achten das du das mic Untersprichst ..also über der Nase halten ..sodass du nicht mit der nase in die Kabsel atmest


    -zum Rauschen ...mann nimmt das Grundrauschen im Songkontext nicht mit -> siehe Verdeckungsseffekt (lässt man einen sinus in einem weißen Rauschen verschwinden (pegel absenken) nimmt man diesen noch bis -30dB(spl) gegenüber dem rauschen als eigenen ton war. Wenn nun das Grundrauschen einfach weg nimmst dann kommt sofort das gefühl auf "da fehlt doch was" (über kopfhörer" ..obwohl das grundrauschen sehr leise ist ..so ergänzt es sich doch im gesammteindruck ...und wenn es einfach weg ist fällt das auf ... Kannst natürlich tricksen und wenn die lead spielt stumschalten ... aber mitten zwischen zwei absätzen ..nicht gut hört man ;-)! muss los cya

    Ok ..Machen wir es genauer … alles fängt natürlich bei der Aufnahme an (ausgehend von Zuhause):


    Aufnahme:


    Zielführend ist zuhause den Raum bei der Aufnahme „komplett“ auszublenden.Am besten eignet sich dafür ein Zelt aus dicken Matratzen. Wir haben meist nur 2 zur Hand gehabt, also Keilförmig an die Wand gestellt und das Mikrofon in die (in den Raum ragende) Spitze gestellt. Ein bis Zwei Wolldecken über die Matratzen geworfen (als „Dach“) … auch als Sprecherkabine sehr gut geeignet



    Mikrofonposition:


    Bewerte erst einmal deine Stimme …

    - Ist sie Voluminös (bei Frauen zu 70-80% meist dünn)

    -Nasaler Sound ? (Einfach mal Nase zuhalten und sprechen= sehr Nasal)


    Zur Postion an sich.. :


    - Kapsel nie direkt besprechen

    - Richtest du das Mikrofon auf den Brustkorb gerichtet erhältst du mehr Bass (bass entsteht im Brustkorb)

    - Beim Übersprechen der Kasel auf die Nase gerichtet erhält man einen sehr nasalen Sound (kann gewünscht sein).

    - Meist unterspricht man die Kapsel aber und neigt das Mikrofon etwas in Richtung des Brustkorbes … wenig Nase /hohes Volumen

    - Sehr nah am Mikrofon Positionieren ..


    Richtcharakter :

    Am besten Niere ..Hyperniere ist ungeeignet da wir ja so wenig wie möglich „Matratze“ mit drauf haben wollen


    Aufnahme Vorbereitung:


    Vocals so gut es geht ANALOG Vorkomprimieren, damit man mit ausreichendem Pegel in die D/A-Wandlung geht (nicht erst in der DAW = „Sinnlos“ ) ..dabei sind die Werte human zu Halten .. in etwa Ratio 3:1-4:1 ..Attack ziemlich lang so 40-60ms ..Gain nur um den Reduktionswert Anheben! Realease 200ms


    Sänger laut singen lassen und Maximal einpegeln ..Danach Pegel etwas zurücknehmen (Erfahrungsgemäß sinkt man in den aufnahmen dann trotzdem etwas lauter ..auf keinen Fall ein Clipping akzeptieren!!!!)



    Zur Aufnahme:


    Bei der Aufnahme brauchst du auf jeden Fall einen Zweite/n Mann/Frau die/der ein gutes Verständnis für Musik hat .


    Zuerst solltest du alles in einem Ruck aufnehmen. Macht euch Notizen ..Betonung/Ausdruck Aussprache …. Dynamikverläufe ..Markiert euch das im Text ..wenn jetzt schon alles passt ="One Take Wonder"...aber das ist eher selten ..eigentlich nie ..


    Dann geht immer Vom Großen ins Kleine ..Sprich, dann die Strophe einsingen … wenn da was nicht passt nur den Absatz... bis hin zum Satz … immer mehr ins Detail gehen. Auch mal ganz andere Betonung verwenden ..Feeling Stimmung schaffen


    GANZ WICHTIG; Immer ein Stück mehr betonen /übertreiben als man sich selbst dabei wohl fühlt. Klappt immer gut ..der Mensch hat immer dabei Probleme aus sich herauszukommen.


    Dopplungen werden Selbstverständlich extra eingesungen ;-)



    Pro sound /technicken:


    Hast du ein sehr intimes Stück was „nah“ sein soll also gezielt Atemgeräusche enthalten soll. Dann nimm eine Flüsterspur auf. Warum? Wenn man flüstert kann man natürlich den Pegel anheben.. was dann dafür sorgt das die Differenz zwischen laut und leise (Dynamik) ..zwischen Sprache und atmen verringert wird und man sich die Atmer gut Kopieren und gezielt im schnitt einsetzten kann ..Bei Frauen empfehle ich das auch bei Tashmaetal Tracks oder Hardcore Rock . Warum? Macht einfach Spaß und lockert die Stimmung nach langen Aufnahmetag.


    Pro Technik ist auf jeden Fall ... wenn man Harte „T“ oder „P“ oder auch ein sehr ausgeprägtes „S“ oder „Sch“ hat … einfach diese Laute aus dem Text streichen und Ohne diese(!!!!) einsingen ..das fordert Übung und ist unter Erhaltung von Betonung und Ausdruck relativ schwer aber untergemischt ist es Natürlicher/homogener als Verwendung von De-essern oder ähnlichen.


    Auch das Kontrollierte/leichte entfernen von der Mikrofonkabsel bei auftreten solcher laute erfordert übung.


    Wen man hohe Dynamiken im Stück hat ,also schreien zum Beispiel ..dann auf jeden Fall weg von der Kabsel


    Schnitt von Voclals:


    -auf jeden Fall mit Kopfhörern schneiden! (der Abhöhraum verfälscht schnell Stille und macht sie unhörbar)


    -Fade in/fade Out beachten


    - Nie „Stille“ auf der Spur akzeptieren! Somit stille Passagen in der Spur mit einem Grundrauschen ( Z.B vom Anfang der Ausnahme Kopieren) ersetzten) ..über gute Kopfhörer bekommt man das sonst mit


    - Hier auf jeden Fall schon mit Melodyne „alles gerade ziehen“. Ist wirklich üblich geworden. Aber natürlich so genau wie Möglich einsingen ..je weniger Melodyne gerade rücken muss umso weniger hört man das ! Je genauer der Ton an der Tonart klebt, umso mehr fügt dieser auch im Mixing


    Mixing:


    -Bei sehr Vocallastiger Musik macht es Sinn nicht von tief nach Hoch zu mischen (also von BD ..zu SN über HH ..dann bass ..Lead und zum Schluss Vocal ) sondern von Vorne nach hinten zu mischen . Das Heißt die Vocal ist Vorne (in your Face)/ auf gleicher Höhe oder Kurz dahinter ist die Lead dahinter das Schlagzeug ..dann Bass /Banking /Pads usw


    Gehen wir Also vom Mixing von Vorne Nach Hinten aus.


    Zuerst leg ich Pauschal einen EQ und dann einen Kompressor auf die Vocals. Klar die Reihenfolge macht schon Unterschiede denn wenn ich jetzt Frequenzen anhebe/Absenke, verändert sich natürlich das verhalten des Kompressors.


    Zuerst stelle ich auch den Kompressor ein. Da ich Selbstverständlich in Subgruppen Arbeite und damit die Vocal durch mehrere Kompressoren schicke (Aufnahme->Einzelkanal/Subgruppe/Master) bekommt die Vocal hier wieder eine Humane Kompression .. wieder so was wie 4:1 Ratio .. usw.


    Komprimiert hab ich vorher , weil sich ja auch auch die Kompression das Verhältnis der Frequenzen ändert. So kann man das als Ausgangspunkt für den nächsten Schritt sehen. Dann teilt man nämlich das EQ'ing in zwei , man könnte auch sagen Drei Schritte auf...


    1.Säubern (Kopfhörer Auf )


    1.1Zuerst der Lowcut (nicht zu steil= hört man die Filterflanke ) den schiebe ich soweit Hoch biss ich eine Veränderung im Grundtonbereich höre und schiebe ihn dann wieder etwas zurück → Bassbereich säubern (!!)- das mach ich übrigens mit allen Instrumenten (außer Bassdrum)


    1.2.Knackt etwas ? Nebengeräusche ? Hier Mit einem Peakfilter (hoher Q-Faktor =“spitz“) auf die entsprechende Störung fahren und schmalbandig (auch spitz ) absenken .. man kann hier auch bei der Doppelten Frequenz der Störung nochmal einen Peakfilter ansetzten und absenken ..damit senkt man meist den Oberton ab und muss dadurch den Grundton der Störung nicht zu weit absenken


    1.3 De-sesser auf den kanal unter Umständen bei 5-7 Khz auch absenken wenn die Zischlaute („S“ ) zu straff sind


    2.Vocal Nach Vorne bringen

    Das heißt Höhen Oberhalb 6khz Hart Reinschrauben (bis es fast „Zischt“) der Pegel sollte natürlich weit oben sein aber nicht Clippen. Hier auch nochmal den Kompressor im Blick haben.


    3.Vocal charakterisieren

    was Heißt das ..Man sollte so ein Paar Frequenzen im Kopf haben :


    200 Hz -800Hz -“Warme“ ..etwas anheben

    800 Hz -falls doch Nasaler Sound - absenken

    1 – 2 kHz Härte der stimme - etwas absenken =“weicher“

    3Khz (+/- 1Khz) findest du die Verständlichkeit der Stimme

    den Grundtonbereich kannst du noch etwas mehr beschneiden wenn die Vocal sich zu sehr abhebt 150-250hz

    6Khz hast du halt die „S“ Laute


    Ps: Absenken =immer schmalbandig

    Anheben =breit breitbandig


    Effektierung von Vocals:


    Auch das mach hier hier schon. Damit der Gesamteindruck gewahrt bleibt .


    Man könnte hier über sendeffekte .. Flanger, Phaser, Delay, Reverb, auch Vocoder (als Send interessant)


    Picher , Vocoder und co natürlich auch als Insert


    Ich möchte hier aber nur auf die Standards eingehen. Reverb und Delay's als sendefffekte.


    Im Groben und Ganzen nehme ich meist 3 Reverbs pro Track. Da Reverbs+Delay oder nur Reverb auf einem Sendkanal als eigenständiger Kanal/Instrument betrachtet werden sollte (es Brauch platz im Mix ..hat ein eigenes Frequenzspektrum/Hüllkurven/Frequenzverläufe) sind diese 3 Reverbs sehr ähnlich eingestellt und enthalten untereinander nur zweckgebundene unterscheide. Das Heißt:


    Reverb1: relativ großer Raum für die Instrumente . Ich nenne ihn mal „Haupthall“, weil er den den Raumeindruck des gesamten Stückes definiert


    Reverb 2: Für Drums .. im Regelfall sind die „Räume für Drums“ kleiner als die für Instrumente und Vocals ..somit wähle ich einen kleineren Raum (size) und eine kürze Decay. Diese Parameter sind aber Sinnvoll zum Haupthall „gekürzt“... also 50% kleiner zum Haupthall“


    Reverb 3: einspricht genau Reverb1 allerdings mit 1-2 steps Del … damit die Vocal nicht in den Raum rutscht und der „In your face“ Charakter erhalten bleibt


    Alles im allen haben die 3 Reverbs soviel miteinander Zutun das sie sich im Mix gut fügen und den gesamten Raumeindruck nicht zerstören

    So nun genug geschrieben (den rest nur kurz angeschnitten)



    Dann kann man anfangen die Bassdrum einzumischen ..dann Snar ..usw. dabei orientiert man sich halt immer an der vocal ..passt sie natürlich immer wieder an … durch das man halt in die Tiefe mischt wird sich im Ergebnis auch mehr Focus auf die Vocal legen



    Hoffe war was interessantes dabei .. Grüße

    Ich mach es Kurz:

    -Vocel natürlich hoch einsingen

    -Eq Höhen reinschrauben (Peakfilter oberhalb 7-8Khz) ...bis kurz vor'm zerren (in your face effect).. de-esser drauf bei 6Khz etwas absenken....lowcut bis etwa 125-200 -> soweit reindrehen bis sich der Klang ändert ..dann wieder stück zurück

    -Pitcher drauf ...schlechter algo aber ist ja nicht viel und sollte funktionieren (ansonsten autotune)

    - Reverb als send effect (logisch) und ein delay hinterher ... delay (ca. 3 steps ) ist relativ lang (klar) .. den reverb kannst du das decay ruhig auf 1-2 stebs stellen )

    Ich will nicht mehr ..ehrlich... wie kann ein freies Feld meinetwegen mit Weizen bewachsen als Raum interpretieren??????????????????? welche Hallfahne soll da entstehen? Hast du das je gehört von einem Feld ?wo kommen interpretierbare Reflektionen her? Freifeld ist freifeld und wenn du mit angesprochenen PlugIn's solche Wald Simulationen meinst was sind da interpretierbare Reflektionen ? Kannst du dich im Wald am Schall orientieren? Oder sind das vielleicht nur diffuse Echos? ..wiki Beitrag:

    Freifeld- Unter Freifeld versteht man in der Akustik eine Schallsituation, in der keine Reflexionen auftreten.

    im Freifeld wird der gesamte Schall, den ein Hörer (oder ein Mikrofon) aufnimmt durch den Direktschall einer Schallquelle bestimmt. Das Freifeld wird auch mit Direktfeld bezeichnet. Freifeldbedingungen finden sich in der Natur nur, wenn z. B. Reflexionen am Boden keine Rolle spielen, z. B. bei Neuschnee auf einem Feld oder annähernd bei gut schallabsorbierenden Böden (Laub, trockener Sand etc.) Freifeldbedingungen können künstlich in reflexionsarmen Räumen hergestellt werden. Insbesondere in der akustischen Messtechnik und bei Hörversuchen spielen Untersuchungen unter Freifeldbedingungen eine große Rolle, da dann die Ergebnisse nur von dem Schall der Schallquelle beeinflusst werden und nicht von Reflexionen des Raums. Auch bei Sprach- und Tonaufnahmen strebt man oft Reflexionsfreiheit an, wie unter Freifeldbedingungen, und sei es auch nur, um über entsprechende Nachverarbeitung gezielt einen gewünschten Raumeindruck hinzufügen zu können, der nicht vom Aufnahmeraum verfälscht ist.



    Weiter ohne wiki :


    Hier mal der Herr Sengpiel zum thema Reverb :

    Antworten zum "Tonmeistertest" 581.

    Auf Englisch bedeutet das Wort "hall" nicht Hall oder besser Nachhall, sondern?

    Saal oder Konzertsaal (concert hall).


    Nachhall heißt auf Englisch als richtiger Ausdruck?

    reverberation Und abgekürzt heißt das englische Wort?

    reverb – colloquial abbreviation of reverberation.


    http://www.sengpielaudio.com/Tonmeister58Antworten.pdf


    weiterführend zur diffenition von nachhall :

    http://www.sengpielaudio.com/D…heReflexionenNachhall.pdf


    Die Aussage die da getroffen wird ist wirkt auf den ersten blick widersprüchlich aber bei genauerer Betrachtung nicht . denn man kann ja auch sagen Hall kommt ohne Ealy Ref. aus ...Nachhall aber nicht ..denn Nachhall kommt ohne ein "Vorspiel" (ealy ref) nun mal nicht zustande ... du kannst ja auch viele Delays hintereinander spielen ...hören tust du Hall aber keinen Nachhall ...so sollte es besser sov nun definiert sein



    Was Sind das für Quellen ? Was Hat Lokation und Ortung mit Raum zutun ...da geht es um Richtungshören ... also Pegeldifferenzen und Laufzeitdifferenzen an deinem Ohr ..was hat das mit Raum Zutun? da gehts um Schalleinfallwinkel auf der Stereobasis ...nchts aber auch garnichts mit Hall oder Reverb ...Deniz ehrlich haust immer nur Quellen raus ..schreibst selten selbst was dazu ..und ich schau mir die in Zukunft genauer an ..da keine bisherige Quelle wirklich Sinnführend war

    Dann möchte ich nur nochmal auf das High-Damping ... warum ich so eine Methaper angebracht habe .. das High-Damping verhält sich anders wenn man im einen raum mit Nackten Betonwänden (bleiben höhen lang erhalten ....der raum klirrt) Im gegensatz zu einem mit teppichen behangen Raum verschwinden die Höhen schnell in der Hallfahne. wenn man die Methaper mal liest dann würde man das auch rauslesen. High-Damping ist also nicht im eigentlichen Sinne zum entzerren der hallfahne, sondern eine darstellungsform von Raumbeschaffenheiten.


    Wie beim Synthesizer ist jeder Parameter ein simululationsveruch realer Physikalischer Umstände.

    So hier die versprochene Datei ...

    -Anfangs sind die zwei signale auf selber Höhe

    - dann hebe ich die höhen und den Pegel bei der Vocal an (die vocal ist nun weit vorne)

    - dann schalte ich den reverb hinzu (ändert sich was an der Position der Vocal ?)

    -dann senke ich den Pegel und die Frequenz (vocal rückt nach hinten im bezug zur Reverenz)

    - dann schalte ich wieder den Reverb ein (ändert sich etwas an der Position?)


    Der Anteil von Tiefe durch den reverb ist sehr gering. Freifeld hat nun mal nichts mit Raum zutun . der Anteil von räumlicher teife des Reverbs liegt allein in seinen ealy reflections und stellt ein plus dar ..eine feinheit aber dazu müsste man schon etwas gnauer einstellen können am reverb2 .


    VorneHinten.zip

FL Studio Shop.de