Beiträge von KIvschranz

    -ganz kurz ..Muss arbeiten


    -Beim mikrofon auf den Brustkorb-> darauf achten das du das mic Untersprichst ..also über der Nase halten ..sodass du nicht mit der nase in die Kabsel atmest


    -zum Rauschen ...mann nimmt das Grundrauschen im Songkontext nicht mit -> siehe Verdeckungsseffekt (lässt man einen sinus in einem weißen Rauschen verschwinden (pegel absenken) nimmt man diesen noch bis -30dB(spl) gegenüber dem rauschen als eigenen ton war. Wenn nun das Grundrauschen einfach weg nimmst dann kommt sofort das gefühl auf "da fehlt doch was" (über kopfhörer" ..obwohl das grundrauschen sehr leise ist ..so ergänzt es sich doch im gesammteindruck ...und wenn es einfach weg ist fällt das auf ... Kannst natürlich tricksen und wenn die lead spielt stumschalten ... aber mitten zwischen zwei absätzen ..nicht gut hört man ;-)! muss los cya

    Ok ..Machen wir es genauer … alles fängt natürlich bei der Aufnahme an (ausgehend von Zuhause):


    Aufnahme:


    Zielführend ist zuhause den Raum bei der Aufnahme „komplett“ auszublenden.Am besten eignet sich dafür ein Zelt aus dicken Matratzen. Wir haben meist nur 2 zur Hand gehabt, also Keilförmig an die Wand gestellt und das Mikrofon in die (in den Raum ragende) Spitze gestellt. Ein bis Zwei Wolldecken über die Matratzen geworfen (als „Dach“) … auch als Sprecherkabine sehr gut geeignet



    Mikrofonposition:


    Bewerte erst einmal deine Stimme …

    - Ist sie Voluminös (bei Frauen zu 70-80% meist dünn)

    -Nasaler Sound ? (Einfach mal Nase zuhalten und sprechen= sehr Nasal)


    Zur Postion an sich.. :


    - Kapsel nie direkt besprechen

    - Richtest du das Mikrofon auf den Brustkorb gerichtet erhältst du mehr Bass (bass entsteht im Brustkorb)

    - Beim Übersprechen der Kasel auf die Nase gerichtet erhält man einen sehr nasalen Sound (kann gewünscht sein).

    - Meist unterspricht man die Kapsel aber und neigt das Mikrofon etwas in Richtung des Brustkorbes … wenig Nase /hohes Volumen

    - Sehr nah am Mikrofon Positionieren ..


    Richtcharakter :

    Am besten Niere ..Hyperniere ist ungeeignet da wir ja so wenig wie möglich „Matratze“ mit drauf haben wollen


    Aufnahme Vorbereitung:


    Vocals so gut es geht ANALOG Vorkomprimieren, damit man mit ausreichendem Pegel in die D/A-Wandlung geht (nicht erst in der DAW = „Sinnlos“ ) ..dabei sind die Werte human zu Halten .. in etwa Ratio 3:1-4:1 ..Attack ziemlich lang so 40-60ms ..Gain nur um den Reduktionswert Anheben! Realease 200ms


    Sänger laut singen lassen und Maximal einpegeln ..Danach Pegel etwas zurücknehmen (Erfahrungsgemäß sinkt man in den aufnahmen dann trotzdem etwas lauter ..auf keinen Fall ein Clipping akzeptieren!!!!)



    Zur Aufnahme:


    Bei der Aufnahme brauchst du auf jeden Fall einen Zweite/n Mann/Frau die/der ein gutes Verständnis für Musik hat .


    Zuerst solltest du alles in einem Ruck aufnehmen. Macht euch Notizen ..Betonung/Ausdruck Aussprache …. Dynamikverläufe ..Markiert euch das im Text ..wenn jetzt schon alles passt ="One Take Wonder"...aber das ist eher selten ..eigentlich nie ..


    Dann geht immer Vom Großen ins Kleine ..Sprich, dann die Strophe einsingen … wenn da was nicht passt nur den Absatz... bis hin zum Satz … immer mehr ins Detail gehen. Auch mal ganz andere Betonung verwenden ..Feeling Stimmung schaffen


    GANZ WICHTIG; Immer ein Stück mehr betonen /übertreiben als man sich selbst dabei wohl fühlt. Klappt immer gut ..der Mensch hat immer dabei Probleme aus sich herauszukommen.


    Dopplungen werden Selbstverständlich extra eingesungen ;-)



    Pro sound /technicken:


    Hast du ein sehr intimes Stück was „nah“ sein soll also gezielt Atemgeräusche enthalten soll. Dann nimm eine Flüsterspur auf. Warum? Wenn man flüstert kann man natürlich den Pegel anheben.. was dann dafür sorgt das die Differenz zwischen laut und leise (Dynamik) ..zwischen Sprache und atmen verringert wird und man sich die Atmer gut Kopieren und gezielt im schnitt einsetzten kann ..Bei Frauen empfehle ich das auch bei Tashmaetal Tracks oder Hardcore Rock . Warum? Macht einfach Spaß und lockert die Stimmung nach langen Aufnahmetag.


    Pro Technik ist auf jeden Fall ... wenn man Harte „T“ oder „P“ oder auch ein sehr ausgeprägtes „S“ oder „Sch“ hat … einfach diese Laute aus dem Text streichen und Ohne diese(!!!!) einsingen ..das fordert Übung und ist unter Erhaltung von Betonung und Ausdruck relativ schwer aber untergemischt ist es Natürlicher/homogener als Verwendung von De-essern oder ähnlichen.


    Auch das Kontrollierte/leichte entfernen von der Mikrofonkabsel bei auftreten solcher laute erfordert übung.


    Wen man hohe Dynamiken im Stück hat ,also schreien zum Beispiel ..dann auf jeden Fall weg von der Kabsel


    Schnitt von Voclals:


    -auf jeden Fall mit Kopfhörern schneiden! (der Abhöhraum verfälscht schnell Stille und macht sie unhörbar)


    -Fade in/fade Out beachten


    - Nie „Stille“ auf der Spur akzeptieren! Somit stille Passagen in der Spur mit einem Grundrauschen ( Z.B vom Anfang der Ausnahme Kopieren) ersetzten) ..über gute Kopfhörer bekommt man das sonst mit


    - Hier auf jeden Fall schon mit Melodyne „alles gerade ziehen“. Ist wirklich üblich geworden. Aber natürlich so genau wie Möglich einsingen ..je weniger Melodyne gerade rücken muss umso weniger hört man das ! Je genauer der Ton an der Tonart klebt, umso mehr fügt dieser auch im Mixing


    Mixing:


    -Bei sehr Vocallastiger Musik macht es Sinn nicht von tief nach Hoch zu mischen (also von BD ..zu SN über HH ..dann bass ..Lead und zum Schluss Vocal ) sondern von Vorne nach hinten zu mischen . Das Heißt die Vocal ist Vorne (in your Face)/ auf gleicher Höhe oder Kurz dahinter ist die Lead dahinter das Schlagzeug ..dann Bass /Banking /Pads usw


    Gehen wir Also vom Mixing von Vorne Nach Hinten aus.


    Zuerst leg ich Pauschal einen EQ und dann einen Kompressor auf die Vocals. Klar die Reihenfolge macht schon Unterschiede denn wenn ich jetzt Frequenzen anhebe/Absenke, verändert sich natürlich das verhalten des Kompressors.


    Zuerst stelle ich auch den Kompressor ein. Da ich Selbstverständlich in Subgruppen Arbeite und damit die Vocal durch mehrere Kompressoren schicke (Aufnahme->Einzelkanal/Subgruppe/Master) bekommt die Vocal hier wieder eine Humane Kompression .. wieder so was wie 4:1 Ratio .. usw.


    Komprimiert hab ich vorher , weil sich ja auch auch die Kompression das Verhältnis der Frequenzen ändert. So kann man das als Ausgangspunkt für den nächsten Schritt sehen. Dann teilt man nämlich das EQ'ing in zwei , man könnte auch sagen Drei Schritte auf...


    1.Säubern (Kopfhörer Auf )


    1.1Zuerst der Lowcut (nicht zu steil= hört man die Filterflanke ) den schiebe ich soweit Hoch biss ich eine Veränderung im Grundtonbereich höre und schiebe ihn dann wieder etwas zurück → Bassbereich säubern (!!)- das mach ich übrigens mit allen Instrumenten (außer Bassdrum)


    1.2.Knackt etwas ? Nebengeräusche ? Hier Mit einem Peakfilter (hoher Q-Faktor =“spitz“) auf die entsprechende Störung fahren und schmalbandig (auch spitz ) absenken .. man kann hier auch bei der Doppelten Frequenz der Störung nochmal einen Peakfilter ansetzten und absenken ..damit senkt man meist den Oberton ab und muss dadurch den Grundton der Störung nicht zu weit absenken


    1.3 De-sesser auf den kanal unter Umständen bei 5-7 Khz auch absenken wenn die Zischlaute („S“ ) zu straff sind


    2.Vocal Nach Vorne bringen

    Das heißt Höhen Oberhalb 6khz Hart Reinschrauben (bis es fast „Zischt“) der Pegel sollte natürlich weit oben sein aber nicht Clippen. Hier auch nochmal den Kompressor im Blick haben.


    3.Vocal charakterisieren

    was Heißt das ..Man sollte so ein Paar Frequenzen im Kopf haben :


    200 Hz -800Hz -“Warme“ ..etwas anheben

    800 Hz -falls doch Nasaler Sound - absenken

    1 – 2 kHz Härte der stimme - etwas absenken =“weicher“

    3Khz (+/- 1Khz) findest du die Verständlichkeit der Stimme

    den Grundtonbereich kannst du noch etwas mehr beschneiden wenn die Vocal sich zu sehr abhebt 150-250hz

    6Khz hast du halt die „S“ Laute


    Ps: Absenken =immer schmalbandig

    Anheben =breit breitbandig


    Effektierung von Vocals:


    Auch das mach hier hier schon. Damit der Gesamteindruck gewahrt bleibt .


    Man könnte hier über sendeffekte .. Flanger, Phaser, Delay, Reverb, auch Vocoder (als Send interessant)


    Picher , Vocoder und co natürlich auch als Insert


    Ich möchte hier aber nur auf die Standards eingehen. Reverb und Delay's als sendefffekte.


    Im Groben und Ganzen nehme ich meist 3 Reverbs pro Track. Da Reverbs+Delay oder nur Reverb auf einem Sendkanal als eigenständiger Kanal/Instrument betrachtet werden sollte (es Brauch platz im Mix ..hat ein eigenes Frequenzspektrum/Hüllkurven/Frequenzverläufe) sind diese 3 Reverbs sehr ähnlich eingestellt und enthalten untereinander nur zweckgebundene unterscheide. Das Heißt:


    Reverb1: relativ großer Raum für die Instrumente . Ich nenne ihn mal „Haupthall“, weil er den den Raumeindruck des gesamten Stückes definiert


    Reverb 2: Für Drums .. im Regelfall sind die „Räume für Drums“ kleiner als die für Instrumente und Vocals ..somit wähle ich einen kleineren Raum (size) und eine kürze Decay. Diese Parameter sind aber Sinnvoll zum Haupthall „gekürzt“... also 50% kleiner zum Haupthall“


    Reverb 3: einspricht genau Reverb1 allerdings mit 1-2 steps Del … damit die Vocal nicht in den Raum rutscht und der „In your face“ Charakter erhalten bleibt


    Alles im allen haben die 3 Reverbs soviel miteinander Zutun das sie sich im Mix gut fügen und den gesamten Raumeindruck nicht zerstören

    So nun genug geschrieben (den rest nur kurz angeschnitten)



    Dann kann man anfangen die Bassdrum einzumischen ..dann Snar ..usw. dabei orientiert man sich halt immer an der vocal ..passt sie natürlich immer wieder an … durch das man halt in die Tiefe mischt wird sich im Ergebnis auch mehr Focus auf die Vocal legen



    Hoffe war was interessantes dabei .. Grüße

    Ich mach es Kurz:

    -Vocel natürlich hoch einsingen

    -Eq Höhen reinschrauben (Peakfilter oberhalb 7-8Khz) ...bis kurz vor'm zerren (in your face effect).. de-esser drauf bei 6Khz etwas absenken....lowcut bis etwa 125-200 -> soweit reindrehen bis sich der Klang ändert ..dann wieder stück zurück

    -Pitcher drauf ...schlechter algo aber ist ja nicht viel und sollte funktionieren (ansonsten autotune)

    - Reverb als send effect (logisch) und ein delay hinterher ... delay (ca. 3 steps ) ist relativ lang (klar) .. den reverb kannst du das decay ruhig auf 1-2 stebs stellen )

    Ich will nicht mehr ..ehrlich... wie kann ein freies Feld meinetwegen mit Weizen bewachsen als Raum interpretieren??????????????????? welche Hallfahne soll da entstehen? Hast du das je gehört von einem Feld ?wo kommen interpretierbare Reflektionen her? Freifeld ist freifeld und wenn du mit angesprochenen PlugIn's solche Wald Simulationen meinst was sind da interpretierbare Reflektionen ? Kannst du dich im Wald am Schall orientieren? Oder sind das vielleicht nur diffuse Echos? ..wiki Beitrag:

    Freifeld- Unter Freifeld versteht man in der Akustik eine Schallsituation, in der keine Reflexionen auftreten.

    im Freifeld wird der gesamte Schall, den ein Hörer (oder ein Mikrofon) aufnimmt durch den Direktschall einer Schallquelle bestimmt. Das Freifeld wird auch mit Direktfeld bezeichnet. Freifeldbedingungen finden sich in der Natur nur, wenn z. B. Reflexionen am Boden keine Rolle spielen, z. B. bei Neuschnee auf einem Feld oder annähernd bei gut schallabsorbierenden Böden (Laub, trockener Sand etc.) Freifeldbedingungen können künstlich in reflexionsarmen Räumen hergestellt werden. Insbesondere in der akustischen Messtechnik und bei Hörversuchen spielen Untersuchungen unter Freifeldbedingungen eine große Rolle, da dann die Ergebnisse nur von dem Schall der Schallquelle beeinflusst werden und nicht von Reflexionen des Raums. Auch bei Sprach- und Tonaufnahmen strebt man oft Reflexionsfreiheit an, wie unter Freifeldbedingungen, und sei es auch nur, um über entsprechende Nachverarbeitung gezielt einen gewünschten Raumeindruck hinzufügen zu können, der nicht vom Aufnahmeraum verfälscht ist.



    Weiter ohne wiki :


    Hier mal der Herr Sengpiel zum thema Reverb :

    Antworten zum "Tonmeistertest" 581.

    Auf Englisch bedeutet das Wort "hall" nicht Hall oder besser Nachhall, sondern?

    Saal oder Konzertsaal (concert hall).


    Nachhall heißt auf Englisch als richtiger Ausdruck?

    reverberation Und abgekürzt heißt das englische Wort?

    reverb – colloquial abbreviation of reverberation.


    http://www.sengpielaudio.com/Tonmeister58Antworten.pdf


    weiterführend zur diffenition von nachhall :

    http://www.sengpielaudio.com/D…heReflexionenNachhall.pdf


    Die Aussage die da getroffen wird ist wirkt auf den ersten blick widersprüchlich aber bei genauerer Betrachtung nicht . denn man kann ja auch sagen Hall kommt ohne Ealy Ref. aus ...Nachhall aber nicht ..denn Nachhall kommt ohne ein "Vorspiel" (ealy ref) nun mal nicht zustande ... du kannst ja auch viele Delays hintereinander spielen ...hören tust du Hall aber keinen Nachhall ...so sollte es besser sov nun definiert sein



    Was Sind das für Quellen ? Was Hat Lokation und Ortung mit Raum zutun ...da geht es um Richtungshören ... also Pegeldifferenzen und Laufzeitdifferenzen an deinem Ohr ..was hat das mit Raum Zutun? da gehts um Schalleinfallwinkel auf der Stereobasis ...nchts aber auch garnichts mit Hall oder Reverb ...Deniz ehrlich haust immer nur Quellen raus ..schreibst selten selbst was dazu ..und ich schau mir die in Zukunft genauer an ..da keine bisherige Quelle wirklich Sinnführend war

    Dann möchte ich nur nochmal auf das High-Damping ... warum ich so eine Methaper angebracht habe .. das High-Damping verhält sich anders wenn man im einen raum mit Nackten Betonwänden (bleiben höhen lang erhalten ....der raum klirrt) Im gegensatz zu einem mit teppichen behangen Raum verschwinden die Höhen schnell in der Hallfahne. wenn man die Methaper mal liest dann würde man das auch rauslesen. High-Damping ist also nicht im eigentlichen Sinne zum entzerren der hallfahne, sondern eine darstellungsform von Raumbeschaffenheiten.


    Wie beim Synthesizer ist jeder Parameter ein simululationsveruch realer Physikalischer Umstände.

    So hier die versprochene Datei ...

    -Anfangs sind die zwei signale auf selber Höhe

    - dann hebe ich die höhen und den Pegel bei der Vocal an (die vocal ist nun weit vorne)

    - dann schalte ich den reverb hinzu (ändert sich was an der Position der Vocal ?)

    -dann senke ich den Pegel und die Frequenz (vocal rückt nach hinten im bezug zur Reverenz)

    - dann schalte ich wieder den Reverb ein (ändert sich etwas an der Position?)


    Der Anteil von Tiefe durch den reverb ist sehr gering. Freifeld hat nun mal nichts mit Raum zutun . der Anteil von räumlicher teife des Reverbs liegt allein in seinen ealy reflections und stellt ein plus dar ..eine feinheit aber dazu müsste man schon etwas gnauer einstellen können am reverb2 .


    VorneHinten.zip

    Raum-
    informationen werden durch Schall-Erstreflexionen gegeben welche zum Hall/Nachhall wie durch späte Reflexion
    zum Echo resultieren. Ein "reiner Hall" wäre unter Umständen des Zeitintervall zu verstehen, was allerdings schwierig wird, wenn man
    von „frühem Reflexionshall“ spricht. Hall/Nachhall schließt die Erstreflexionen wie die daraus resultierenden Rauminformationen
    nicht aus, zumal die Zeitspanne, um einen "reinen Hall" wahrzunehmen, zu eng

    wäre.

    What? welche raumiinformationen wären den im Hall drin? wie erfasst dein gehör den die Position im raum? erstreflektionen werden auch in deinen quellen als klares echo vermittelt und nicht als bestandteil von Hall



    Geht
    man von einem natürlichen Freifeld außerhalb einer Räumlichkeit wie einem Zimmer oder Gebäude aus, ändert es nichts daran,
    dass auch dies immer noch einen Raum dar-
    stellt.

    Das ist der größte Blödsin den ich je gehört habe ...lad dazu gleich mal eine datei hoch ...die das auch beweist ..sorry das ist zwar schön geschrieben hat inhaltlich 0 Masse



    Stimme nicht gänzlich zu da das Zeitintervall eine Rolle spielt. Gäbe es rein Simultan einen Grund zur Abgrenzung von Hall und Reverb, gäbe
    es u.a. dedizierte Simulatoren wohingegen unterschieden wird. Es gibt zwar Simulatoren die ohne Early-Reflection auskommen, wie
    u.a. die Quantec, was aber nicht dafür spricht, dass die Art von Simulatoren aufgrund dessen explizit zu unterscheiden
    wäre.

    Es gibt genug reverbs wo du die ealy ref getrennt einstellen kannst ( lexicon zum beispiel) .... Sag mal was ist hier eigentlich los? hab ich umsonst studiert ? warum waren solche fragen und fragwürdige diskusionen nie ein thema als ich früher hier aktiv war ... das ist echt ein witz

    weißt du ich bin seit über 15 Jahren diesem forum treu. glaub seit 13 jahren oder so auch angemeldet . ich hab zum start hier viel gefährliches halbwissen mitgebracht . Ich wäre mega froh gewesen wenn es jemand

    gut erklärt hätte. ich hab auch mal nichts gewusst sicher!! Aber auch die erfahrung in diesem forum sagt mir wo die

    fehler liegen bei den leuten. Ich hab es versucht sehr einfach mit einer metapher zu erklären und ihrseit weiter darauf eingegangen.

    Ich begrüße sowas immer sehr ..weil es für einen breiten diskusionsraum sorgt ..was ich immer gut fand am forum.


    Übrigens lies nochmal frage:

    Was ist genau dieses High damping beim reverb? Was genau macht das? Kann mir das einer ausführlich erklären..?


    er verwendet da die worte "Genau" und "ausführlich" und ich weis auch allein durch die fragestellung, das er nicht richtig weis wie ein reverb funktioniert... also geb ich ein allumfassendes statement dazu ab.

    Alles andere ist aufgezwungen und/oder nur eine Demonstration des eigenen Wissens, befürchte ich.

    aufzwingen? Demonstration von wissen ? wow das hab ich noch nie gehört ..hat mir noch nie jemand gesagt ... halt ich mal so fest ...

    mh erstens bin ich immer sehr gradlinig was Korrektheit solcher Sachen angeht ...was passiert wenn man die Bergriffe nicht von Anfang richtig publiziert sieht man am Beispiel „Delay“ ..die Hälfe der neuen Leute würde sofort sagen „das ist ein Echo“ ...und wenn du dann erklärst das man Panning mit einem Delay machen kann ..dann sind die raus ! Wenn man nach dem High damping fragt sollte der Rest der Parameter auch klar sein ..wie es funktioniert und warum dieser Regler da dran ist. Wenn wir uns schon im Homerecordingbereich bewegen dann sollte man alles mitnehmen was die Arbeit verbessert .. und Hall ist so was wo man viel machen kann. Deine Subjektives empfinden in allen ehren aber da geht nochetwas. Mir geht es Grundsätzlich um die Tatsache was die definizion von hall ist und die unterschiede zum reverb und die hab ich nun ausführlich geklärt denk ich

    OK ... hab nicht so viel Zeit ... Mit einem reinen Hall kann man keine Rauminformationen tragen .... um das zu verdeutlichen muss man zur Tiefenstaffelung schauen... Um Vorne/Hinten darzustellen brauch man keinen Raum. ( Kenne viele die, wenn sie etwas hinten im Mix positionieren wollen einfach einen Reverb auf das Instrument legen und meinen das es Hinten steht ... das ist definitiv als "falsch" zu bezeichnen) .... denn wenn wir draußen auf einem Feld stehen in 100m Entfernung voneinander mit geschlossenen Augen kannst du auch hören das ich 100m entfernt stehe ... ohne Raum! Logisch.. aber für manchen Musiktreibenden ist das schwerer zu erkennen ... was ist also für Darstellung Entfernung verantwortlich (nach Priorität geordnet):


    1. Pegel- klar je leiser ein Signal zum Referenzpegel ist, umso mehr nimmt die Entfernung zu

    2. Frequenz- Mit zunehmender Entfernung der Schallquelle nimmt auch die Menge an Luft die sich zwischen Zuhörer und Schallquelle befindet zu .Dieses Medium stellt für hohe Frequenzen einen widerstand dar. Somit fallen die Höhen des Signals mit zunehmender Entfernung ab (bis runter auf 8khz ist ein guter ansatz-> Bezugspunkt aus der Akustik


    3.Hier Kommt erst die Zeit.. sie ist aber nicht notwendig für vorne/hinten..nur stützend ) … und Bezieht sich aber auch nur auf die Ealy Reflections (frühen Reflektionen)..


    je nachdem wann diese ersten Reflektionen auf unserer Ohr treffen (immer in Bezug auf das direkt Signal (ohne Umweg an einer wand)..ergibt sich eine Entfernung zur Schallquelle.


    Das heißt, ist eine Schallquelle nah = Early Ref. sind „Spät“ in Bezug auf das direkt Signal (siehe Bild: )

    Das heißt, Ist eine Schallquelle weit weg = Early Ref. Sind sind sehr früh in Bezug auf das direkt Signal (siehe Bild: )


    Was heißt das ? Ein Plattenhall oder Federhall bringt keine Informationen mit sich über den Raum ..da die Ealy Reflctions fehlen ...Hall Kan Ohne Ealy reflections laufen ..ein Reverb Kann das nicht … Hall ist Diffuse und die Ealy reflektions sind klare Einzelsignale die dann in einen Hall Brechen


    [Blockierte Grafik: https://i.ibb.co/v1gVkvq/ealy.png]

    hall ... hat keine ealy ref. ... die Hallfahne ist tontechnisch gesehen der hall ..hall kannst du auch erzeugen ohne early ref. ein reverb gestalltet sich nicht ohne ealy ref ... wenn ich nur ein delay (das -übrigens an der stelle gesagt- auch kein "echo" ist ,sondern wort wörtlich eine verzögerung des signales ist ) und die mit sehr hohes feedback einstelle ist das auch ein hall ...aber damit geht kein reverb. das keine early ref .... versteht man das so?



    oder noch besser ... einen ferderhall! federhall hat keine ealy ref = kein reverb!

    Reverb ist das englische Wort für Hall. Worauf willst du also hierbei hinaus? Kann dir irgendwie nicht folgen.

    Wo hast du das her? klar wenn du Reverb übersetzt wird dir kein Übersetzer sagen .... Raumsimulation (was es immer noch am besten trifft) Rauminformationen + Hall .Damit kann kein normal sterblicher Mensch was anfangen können . Also in meinem Studium wurde das hart getrennt ..weil ein Hall keine Rauminformationen (early reflections) enthalten kann. Der Hall ist nur eine Mischung von reflektionen ..ist also um genau zu sein der Nachhall ... ein Hallplugin kann also keine early reflections beinhalten ..ein Reverb geht nur mit.


    Ich bin mir nicht sicher, ob du etwas missverstanden haben könntest. Aber: bei Highdamping geht es nicht darum, dass man nachträglich die Hallfahne mit einem EQ sozusagen "statisch" bearbeitet. Wir sprechen hier durchaus vom "Dämpfen". Das bedeutet in der Regel, dass innerhalb des Delay-Netzwerks eines Halls gewisse Frequenzen in jedem Mikro-Durchlauf des "Delays" weiter gedämpft werden. Natürlich wird das nicht 100% physikalisch korrekt ablaufen, bei algorithmischen Halls. Ich meine aus Erfahrung aber, dass das auch gar nicht nötig ist. Ich benutze seit Jahren vorzugsweise algorithmische Halls für Musik- und z.B. auch Hörspielproduktionen und es hat immer funktioniert. Hat sich noch nie jemand beschwert, dass der Hall unecht klingt. ;-)


    Worauf ich hinaus möchte: physikalische Korrektheit mag sicherlich verlockend sein, sollte aber (meines Erachtens) nicht primäres Ziel in der Produktion sein. Und mit "physikalischer Korrektheit" meine ich jetzt nicht "man hört einen Unterschied zwischen 50 und 240 ms Erstreflektionen" sondern "man hört die dicke des Wandteppichs heraus". Aber ggf. habe ich da auch nur falsch verstanden oder so falsch interpretiert?

    Ich denk schon das wir auf der selben wellenlänge sind .. ich bin nur nicht eins mit der Meinung das ein Hall nicht qualitätsgebend ist ... das erfordert Hörerfahrung. Wie du schon sagtest ist es nicht der Punkt das du sofort auf einen "falschen Hall" reagierst ... das ist sehr unbewusst und man brauch eine weile um damit klarzukommen. Wir beide kennen uns jetzt nicht und ich war lang nicht im Forum aktiv. die die mich kennen wissen aber das ich so was sofort enttarne ..mach ja auch schon ne weile .. ich hör sofort ob jemand den Hall falsch einsetzt .. zum Beispiel Insert Hall ..meist kann ich sogar ziemlich genau sagen wie viele . und klar gibt es einen Teil den du nur subjektiv als "Hä? was'n hier los?" wahrnimmst aber wie sehr eine korrekte physikalische Darstellung eines Raumes ist kann man z.B am "Lexicon 480L" festmachen/verständlich machen... Den Erfolg dieses Gerätes ergibt sich eigentlich aus einem Parameter der vorher an keinem gerät so einstellbar war . der Parameter "SPR" (korrigiert mich wenn es der falsche Name war) simuliert das ansteigen des Pegels der Halsfahne ausgehend davon das der Nachhall sich je nach Größe des Raumes erst aufbaut ..man könnte es als "Attack" des Nachhalls interpretieren und das "wow klingt der Geil" ist subjektiv aber sofort reagiert unser Ohr mit "toll.. kenn ich"


    Mit solchen Aussagen wäre ich vorsichtig, da Qualität zum einen irgendwie dann doch subjektiv ist und zum anderen wohl noch viele weitere Faktoren hat als nur Hall. Jag gerne einen Newbe-Track durch ein teures Hall-Plugin und vergleiche es mit einem Track eines erfahrenen Musikers, der für den Test einen sehr billigen Hall verwendet. Dann hole ich mir schonmal Popcorn. ;-)


    Aber genrell: ich bin auch ein unglaublicher "Hall-Fan" und finde als Berufsmusiker ebenfalls, dass ein gutes Hallplugin durchaus viel Wert hat. Nur eben jetzt auch nicht unbedingt "sehr stark die Qualität" beeinflusst. Vielleicht nur "sehr". ;-) ... tut mir Leid, dass ich hier gerade irgendwie pingelig bin. Finde nur, dass man gerade gegenüber Neulingen (ich interpretiere den Thread-Starter eher als Neuling; zumindest im Bereich Mixing, da er diese grundlegende Frage gestellt hat; tut mir Leid, aram_97, wenn ich dich damit jetzt fälschlich einstufe!) eher vorsichtig mit solchen Aussagen sein sollte. Meine Meinung: selbst testen, danach nochmal selbst testen und dann irgendwann mal merken, dass man auch als Profi nurt noch am Testen ist und nie aufhört zu lernen. ;-)

    Ähm .. Klar geh ich hier in der Aussage schon etwas professioneller ran .. Wovon ich hier ausgehe ist das die Mische transparent ist . die Tiefenstaffelung stimmt und Effekte ordentlich eingesetzt sind und wenn du dann so ein Standard Reverb drüber schmeißt dann hört man das schon ..... nehmen wir den Reverb2 gegen Rc48 von Natives (und auch der ist schon alt) ... da fehlt soviel .. ich würde den Reverb2 in vielen dringen als "statisch" bezeichnen.




    Zur letzten aussage "CPU-Lastigkeit " das hast du mich erwischt ... war eine sehr "überspitze Aussage" weil ich in der Vergangenheit mit der CPU- lastigkeit der Lexicon plugins konfrontiert war ..aber die klingen halt Hammer geil sind sehr Detail reich ..leg da wert drauf ... ja überspitzt war es sicher denn wenn der Algorithmus gut ist geht natürlich auch nicht so auf den Rechner aber erfahrungsgemäß schon mehr als die Standards ..


    https://lexiconpro.com/en/prod…ive-reverb-plug-in-bundle


    Ps: sorry zum einen für die späte Antwort und zum anderen ist es schon spät ..wenn ich irgendwas vergessen hab oder direkt falsch ist ..lass es mich wissen;)

    Ach eigentlich wollt ich iuns bett aber das mus ich noch loswerden ... Die aussagen sind etwas schwammig -wie ich finde.. - Also reverb simmuliert ertmal einen Raum. im Unterschied zu einem Hall enthält ein Reverb Rauminformationen. bedingt durch die Frühen Reflektionen (early Reflections) können wir unsere Position und größe des Raumes einschätzen. Highdumping sollte bei guten Reverb aber nicht unbedingt EQ artig ablaufen. Stell dir mal vor du würdest eine Handgranate bei dir im Zimmer zünden. So in etwa breitet sich Schall aus (kreisförmig in alle Richtungen .. kann auch gerichtet sein aber hier mal kreisförmig) ... beobachtet man nun einen Splitter (Luftteilchen) wird er immer wieder (Einfallswinkel=Ausfallswinkel) an der wand abprallen (Reflektion) ,.


    Nun Kommt es ganz darauf an ob du einen Teppich auf dem Boden oder ein Glasfenster hast. Im Teppich würde ein großer Splitter (Tiefe Frequenz ) relativ gut reflektiert werden aber danach würde er es schon schwerer haben weil schon viel Energie verloren ist … na und am Fenster würde er mit fast 0 Energieverlust reflektiert ( ;-) ) werden . Ein kleiner Splitter (hohe Frequenz) würde im Teppich sofort hängen bleiben während er am Fenster immer noch gut reflektiert wird … dieses Reflektionen passieren in Millisekunden bis sie sich von „klar hörbar „ zu “Diffus“ in die Hallfahne brechen (ein Grund dafür ist das jede Reflektion eine neue Schallquelle verursacht )... also auf unser Beispiel bezogen … würde jeder Splitter an der Wand eine neue Granate zünden die wieder in alle Richtungen streut aber je nach Energieverlust an der Wand natürlich schwächer und natürlich etwas gerichtet ..das Passiert theoretisch unendliche male in der Praxis ist aber irgendwann alle Energie umgewandelt. Also was Kann man dazu sagen. Das highdumping ist sehr Komplex wenn man einen guten, echten Hall haben will.


    Bei kleinen räumen ist ein drüber gehen mit dem EQ vielleicht gar nicht so auffällig aber bei Großen Räumen wird so etwas spannend. Weil der Teppich vielleicht an der linken wand hängt oder die rechte Seite des Raumes und ich nicht in der mitte des raumes stehe . Denn das heighdumping ist so gesehen eine Frequenzdämpfung pro Reflektion in Abhängigkeit des Materials der reflektierenden Fläche. Sie sagt also etwas über die Beschaffenheit der Raumbekränzungsfläche (kurz= Wand) aus. Mag man sagen das es so ein detail nicht wichtig wäre aber bei keinem Effekt lässt sich das ohr so schlecht ver**** wie bei einem Reverb. Wir hören „echte Räume“ ständig und enttarnen schlechte Reverbplugins ganz unbewusst sehr schnell. Ein Guter Reverb (richtig als send eingesetzt und wissend was tut ) erhöht sehr stark die Qualität eurer Musik.. und der Standard Reverb von fl ist nicht gut .. Ps: das erste anzeichen das es sich um einen guten Reverb handelt ist … das er Rechenleistung frisst (außer Faltungshall natürlich ;-) )



    Grüße ( gern Fragen oder kritik ;-) )

    Also ..(A)ttack (D)ecay (S)ustain (R)elase sind Hülkurfen Paremeter .... soweit so gut

    Diese ADSR-Hüllkurven stellt eine Möglichkeit dar bestimmte parameter deines klanges (Pitch,Volumen, Panning,Cutoff/resonnaz eines filters = Modulationsziele) zu Modulieren (modulation= bewegung über die Zeit) ... Somit gehören Hüllkurfen,LFO und ähnliche bedienellemente wie sequenzer innhalb eines synth's zu den Modulationquellen .... Modulationsquellen weißt man Modulationszielen zu (über Matrix) ....<- sehr kompakter Satz sorry


    Bei den Hüllkurfen geht es nun darum was passiert wen du eine note spielst die Taste gedrückt hälst so lang wie du willst und dann loslässt (hier mal beispiel volumen)..Du drückst die Taste und es geht in die....


    (A)ttack-Phase - der Pegel schwillt an

    (D)ecay- der Pegel schwillt ab (attack und decay ergeben zusammen den transienten) -> kann meist/nur eine länge angegeben werden , da sie immer auf das eingestellte sustain fällt

    (S)ustain - oder Quasistationäre Phase -nach dem decay wird dieser eingestellte pegel solang gehalten, bis die taste losgelassen wird (gibt auch den durchschittspegel an)

    (R)elaise - das ausschwingen des Pegels nachdem die note nichmehrt gespielt wird.


    Die regel das alle hüllkurven beim Layern gleich sein sollten ergibt keinen sinn für mich also zumindest nicht so Plump. man könnte ja auch einfach osc 4,5 und 6 einschalten und einen einen sound zumischen. Auch wenn ich den filter bei einem Layer Moduliere ist das irgentwie nicht richtig die aussage weil sich ein sound dann stätig auch im Volumen ändern wird


    Richtig wäre die Aussage das man gemeinsamkeinten schaffen muss ..so könnte ich 2 layern die selben Att und DEC werte geben aber bei einem das sus und rel völlig auf 0 schrauben. dann wird das einschwingen des soundes betonen/formen kann... denn einen könnt ich ausschwingen lassen den anderen nicht ... gemeinsamkeiten ereicht man aber auch gut über FX. das selbe rauschen (noise)...die selbe verzeruung (Distoration) ..die selbe Kompression (compressor) ..oder die selbe filtermodulation.. am wichtigsten ist das alle zeitwerte im takt sind. ist vielseitig.. lass dich das nicht festlsetzten das wichtigste ist das du dein werkzeug kennst und beherscht -> 1960 haben die auch schon geile mukke gemacht stilecht und die hatten keine 1000 spuren


    Zu deiner Umrechungsfrage ..das wird nicht soo einfach gehen... für Pegel würde es vielleicht noch gehen was du sagst:

    A=10.0000=voller Pegel =0(dBfs)

    B= 0-127 (midi) =max 128 =voller Pegel =0(dBfs)


    deine frage ist also" wie hoch muss pegel A geschraubt werden damit A= B gilt? geg: b=34
    10.0000/128*34 = 26562,5


    a müsste auf 26562,5 damit der selbe pegel ensteht wie B auf 34


    Nun wird es aber schwierig wenn es um zeit oder takt geht , weil niemand weiß wie lang 10.0000 sind und ob das eine angabe in Beats,m/s,samples oder total pseudo ist und auch die 128 können liegt keine einheit zu grunde ..welche zeiten beanspruchen beide Parameter im Maximum ? ohne die angaben kann man da nix machen...


    aber ganz ehlich ..höre es doch ein die Parameter sind doch ähnlich ..also achte bisschen auf die Phasenlage und benutz das ohr ..geht eigenlich gerade sehr gut solche sachen einfach einzuhören


    Grüße Kiv

    er hat die Phase invertiert/verpolt) ... ist wie als würde man den stecker einfach umdrehen ...die schallwelle läuft dann nicht nach oben (posisitive Halbwelle) in den überdruck sondern erst in den unterdruck ( Negative Halbwelle) .....


    Das ist aber nicht mit einer "Phasendrehung" /"pahseshifting" zu verwecheln ..bei einer Phsendrehung beginnt die welle einfach an einem anderen punkt ... was in gradzahlen ausgedrückt wird ... somit würde eine 180° Phasendrehung die welle auch erst in den negativenbereich wandern ..allerdings wird eine Phasendrehung im gegensatz zu einer verpolung durch ein Delay (verzögerung) erzeugt...


    warum man das macht? wenn du 2 signale hast... bei einem Signal beträgt die phase 0° bei dem anderen 180° Phasengedreht (oder halt verpolt) würden sich die Frequenzen auslöschen... kannst du dir so vorstellen als ob man einen 1bar überdruck behälter an einem 1bar unterdruck behälter anschließen ... die drücke würden sich einfach auslöschen ....



    wenn beide signale identische Phasen haben also bei 0° addieren sich die Pegel (bei gleicher frequenz natürlich) ... 1bar + 1 bar = 2Bar = +6dB (spl)


    wenn du jetzt die Phase bei einem signal drehst würde es bei 90° Phasenversatz bereits einen Pegelverlust um 3dB(SPL) bedeuten ..also durchaus hörbar .. 45° und 120° gibt es keinen pegelverlust




    Ohne das video jetzt gesehen zu haben ... ist das eigentlich nichts neues was er da macht ... wichtig ist das der bass die selbe tonart hat wie 808 also 808 in C gestimmt und Bass ebenfalls im Grundton C (zum beispiel) ... dann kann man auch mal die phase invertieren um zu schauen wo man weniger Phasenauslöschungen hat /pegelverluste in den frequentzen hat ... in der aufnahmetechnik ist das sogar gängige praxis sobald man 2 mikrofone hat mirt den man das selbe signal aufnimmt



    Was noch sehr aufällig ist ..warum zum teufel ist das eine 808 Bassdrum (tb-808 bassdrum klingt ganz anders)? ... .... .... jetzt hab ich mir das video doch nochmal angeschaut und gemerkt das es noch viel einfacher ist ...er layert ja einfach nur die 808 mit einem synth .... also er sorgt schon dafür das die beiden töne tonal total passen ... und er meine das sich die Obertöne gegenseitig gefressen haben und da hat er die Phase invertiert .. das ist echt kein hexenwerk ..der hauptgrund warum das passt liegt nicht in der Phaseninvertierung sondern im tonalen zusammenspiel der beiden töne ... den feinschliff hat er dann einfach mit einer Phaseninvertierung gemacht um zu schauen wo sich die pegel am wenigsten gegenseitig beinflussen. ist echt eher gänge praxis als zauberei

    Egal was man sagt ..es gibt keine kopfhörer zum produzieren .... man mischt nicht auf kopfhörern. Kopfhörer nimmt man im studio zum aufnehmen für den musiker ..im Mischprozess beim schneiden und störgeräusche finden ...aber zum Mischen an sich lieber über eine schlechte anlage/monitore als über Kopfhörer.. Nur mal ein paar nachteile beim mischen mit Kopfhöreren:


    -falscher tiefpass eindruck

    -Lokationsverzerrungen

    -Phasenversatz verzerrt (laufzeitverfälschung)

    -objektive bewertung der Tiefenstafflung nicht möglich
    -überbewertung des Frequenzgangs der Kopfhörer (selbst bei Tontechnisch linearen Frequenzgang (+/-3dB(spl)) fallen frequenzabweichungen viel mehr ins gewicht-> bedingt durch die nähe zum ohr )

    -usw usw usw ....


    Man macht da gern werbung für aber es ist phsykalisch nicht möglich solche prozesse ausdzublenden


    ..das einzige was ich vermute ist das es irgentwann mal inearlösungen gibt, mit dem man abhörumgebungen simulieren kann ..aber da würde ein gewisser teil an softwareemulation nötig ..wüsste nicht das es sowas gibt

FL Studio Shop.de