NEU

Artist Interview: Bob Humid

Bob Humid ist Spezialist für britische Breaks & Beatperlen, filigranes Sound Design und hat eine ausgeprägte Obsession für den Themenbereich Mastering. Der gebürtige Südamerikaner oszilliert in seinen DJ-Sets frenetisch zwischen diversen elektronischen Genres und hat sich E-Z-Rollers „All Styles Make The Style One“ ebenso mantraartig umgebunden wie eine seiner zahlreichen Krawatten. Als Dozent und Mastermind der Kölner Workshopstätte und Studios von Fat of Excellence (Fatex) produziert, mischt und mastert der selbsternannte Eklektiker sämtliche Arten von Musik. Eines seiner letzten Werke, die Arbeit an der Filmmusik für den Independent Film „VATERUNSER“, wurde gerade für den begehrten Accolade Award in der Sparte „Experimental“ nominiert und ausgezeichnet.

Erstmal herzlichen Glückwunsch zur Nominierung. Kannst du uns erzählen, welchen Teil der Postproduktion du genau betreut hast? Und wie es zu der Zusammenarbeit für den Film kam?

Ich hatte bei „VATERUNSER“ unglaublich viel Freiraum. Das waren gleich vier Aufgabengebiete auf einmal, die normalerweise in größer budgetierten Produktionen mindestens auch vier Personalunionen beschäftigt hätten: Sound-Mixing, Sound-Design, Musik-Consulting und vereinzelt Soundtrack, also Komposition. Sascha Syndicus, ein spannender, sehr umtriebiger und gut vernetzter Kölner Independent-Filmemacher, trat, nachdem er meine Arbeit auf Alexander Gerdes‘ „Angst“ und Leo Ostermeiers‘ „Déja Vecù“ gehört hatte, auf mich zu, weil er das Gefühl hatte, dass sein Film, von dem die erste Version bereits sehr sporadisch vertont war, auf der Sound- und Musikebene von künstlerischen und technischen Verbesserungen eindeutig profitieren würde. Ich sah also die fast finale Schnittfassung von VATERUNSER, in der die Sound- und Musikebene, trotz ordentlich gefischten O-Tönen, noch sehr ungelenk wirkte. Ich bin sehr dankbar und glücklich darüber, dass Sascha mir hinsichtlich Mischung, Sound-Design und Musikauswahl dann komplett vertraut hat. So etwas ist gleichermaßen herausfordernd und befriedigend. Und ich glaube nicht, dass es solche Situationen bei großen Hollywoodproduktionen noch gibt. Bei HBO vielleicht, aber sicher nicht im Kino- und Blockbusterbereich. Da kriegt jeder Einzelne einen Schraubenzieher und ein Set Schräubchen mit denen er / sie sich austoben darf. Ausnahmen bestätigen diese Regel.

Vor welche Herausforderungen hat dich „VATERUNSER“ im Speziellen gestellt?

Im Film sind alle Szenen sehr intim und immersiv angelegt. Das heißt, wir sind ganz nah an den Protagonisten und ihren Emotionen, denn die meisten Einstellungen hat Sascha Syndicus aus seiner (ungewöhnlich ruhigen) Hand heraus in ca. zwei Jahren gedreht. Diese Spontanität hat dem Film sehr gut getan und macht viele Szenen sehr authentisch. Durch diese Machart wirken auch die wenigen statischen Totalen noch totaler und absoluter. In dieser Hinsicht ist Sascha bei seinem Film ähnlich vorgegangen wie z.B. Gaspar Noé („Irreversible“, „Enter The Void“) es stilistisch in einigen modernen Klassikern vordefiniert hat. Allerdings hat Sascha seine eigene Note hinterlassen. Unter anderem ist das eben diese gewisse Intimität, die überall durchspielt. Allerdings findet diese Intimität im Film oft in lauten Locations statt: Im Club, auf der Straße usw. Hier galt es, den Dialogton verständlich zu machen, aber auch die Stimmung (Clubmusik, Gläserklirren, Gespräche) so laut zu mischen, dass der Zuschauer das Gefühl hat, ganz dicht bei den Personen zu sein. Die Protagonistin ist ein frenetisch feierndes Ravermädchen und sie geht gerne auf laute Parties. Da kann man nicht einfach die Musik leise drunter mischen. So etwas funktioniert dann allerdings nur, wenn man erstklassige Räume (hier der Faltungshall von Sequoia) hat, mit denen man die Dialoge in reale Räume setzen kann, die das Gehirn als „natürlich“ einordnet. Das verbessert auch die Sprachverständlichkeit.

Erzähl uns doch mal, wie du das Komponieren für Filmmusik angehst. Wann startest du mit der Komposition?

Erst wenn ich die Szene gesehen habe, bekomme ich ein Gefühl dafür, was da gut an Musik passt. Auf der Sound Mixing-Ebene ist das anders: Ich wünschte, Sound-Designer und Komponisten würden auch bei Indiefilmen VOR den Dreharbeiten hinzugezogen werden. Leider ist das nur bei großen Produktionen so. Ich hätte z.B. meine Atmos gerne in M/S-Technik mikrofoniert bekommen und kein einziges Clipping im Dialog. Ich musste ein paar wenige, aber extreme Clippings mühsam entfernen. Teilweise ging das nur mit einer Kombination aus der internen Declipperfunktion von Sequoia und iZotopes RX. Impulsartige Störgeräusche lassen sich dagegen mittlerweile mit dem Spektraleditor in Sequoia hervorragend entfernen. Von dem habe ich reichlich Gebrauch gemacht.

„Düstere Klangwelten sind eine Spezialität von mir.“


Der Film behandelt sehr ernste Themen. Hat dich der schwere Stoff anfangs vom Arbeiten abgelenkt bzw. hast du eine Zeit gebraucht, bis dich der Film nicht mehr „überrascht“ hat und du dich der eigentlichen Arbeit zuwenden konntest?

Nein, eigentlich nicht. Mir ist nichts Menschliches fremd. Keine Ahnung, wo das herkommt, aber Abgründe machen mir nicht so schnell Angst, wie anderen Menschen. Ich schau da gerne rein und habe ein Faible für Horror, dystopische Science Fiction oder Psychodrama. Düstere Klangwelten sind ebenfalls eine Spezialität von mir, da tun sich andere Musiker schwerer mit. Andererseits bin ich auch gar nicht an so hoffnungsvollen oder munteren Melodien interessiert. Wenn man mich festlegen möchte: Ja, mir fällt sackendüstere Musik sehr leicht.

Hast du die gesamte Musik selbst produziert?

Ich bekam u.a. eine Festplatte mit ungeheuer viel Musik von zwei Labels/Verlagen ausgehändigt, die ich, unabhängig von meinen eigenen Sachen, die ich extra für den Film gemischt habe, verwenden durfte. Ich legte ein großes VIP in Sequoia an, importierte den zuvor in das MVX-Format konvertierten Film in einer 720p-Auflösung und ging chronologisch, also von vorne nach hinten, vor. Das ist ja einer der großen Vorteile von Sequoia: Man kann ein großes Projekt, wie einen Spielfilm oder ein Hörspiel, in einem VIP und mit sehr kleiner Spurenanzahl erledigen. Bei VATERUNSER bin ich mit maximal 25 Audiospuren ausgekommen, da ich die einzelnen Sounds und O-Töne per Objektbeabeitung erledigen konnte. Bei Indie-Projekten werden Raumatmos oft Mono angeliefert, daher habe ich zusätzlich ein halbes Dutzend Räume mit dem Faltungshall erstellt und auf Aux-Busse gelegt. Auf diese Weise konnte ich per objektbasiertem Aux-Return jedem Objekt die Räumlichkeit und Tiefe geben, die es brauchte und durch Kombinationen neue Raummischungen erstellen. Die Arbeit an Musik und Sound-Design ging dann quasi gleichzeitig von statten. Szene für Szene. Für die sehr düsteren und verstörenden Stellen, wo die Protagonistin immer wieder benommen und traumatisiert am Rhein aufwacht, gab es schlichtweg keine Musik auf der Platte, die mir dafür gefallen hätte, also habe ich da ein paar elektronische Kompositionen produziert, die einem sprichwörtlich die Schuhe ausziehen sollten. Eine der gelungensten Stellen ist dann einem Sound geschuldet, der als brutaler Overflow / Glitchsound bei einem PlugIn-Absturz zustande kam. Er klingt sehr brachial und ich konnte ihn damals nur mit der Recording-Funktion im Summenbereich bei Sequoia aufnehmen. Ich wusste, dass der Tag kommen würde, an dem ich den mal brauchen würde. Zu hören ist das im Soundtrack am Anfang von „Bad Dawn 2“.

http://safepictures.bandcamp.com/track/bad-dawn-2

Und womit hast du die Sounds für „Bad Dawn 1“ kreiert? Hardware oder Software?

Software. Das ist eine Mischung aus den oben genannten Glitchsounds, ein paar dichten Flächen aus der KORE-Library sowie einigen älteren Renderings, die ich mit Coagula, einem grafischen Synthesizer von Rasmus Ekman, erstellt hatte und nun für das Projekt umgeschnitten und neu bearbeitet habe.

„Das hat schon was David Lynch-haftes.“

Gab es auch Inspirationsquellen abseits des filmischen Materials für diesen Soundtrack?

Ich bin mir nicht sicher. Aber bestimmt haben all die Filme (und Filmemacher), die ich geschaut habe, ihre Wirkung hinterlassen. Es gibt eine Depersonaliserungs- und Entfremdungsszene, in der ich den Soundtrack und die Emotion der Protagonistin, die in einer bestimmten Szene langsam den Verstand verliert, nur mit einem extrem verstärkten Room Tone (Raumatmo), der langsam anschwellt, ausdrücken konnte. Das hat schon was David Lynch-haftes.

Was ist denn dein persönlicher musikalischer Favorit in Sachen Filmmusik?

Oh, das wären mehrere: Ich liebe den Soundtrack von John Charles zu „Quite Earth“, der ist allerdings sehr schwer zu bekommen. Weiterhin fand ich Musik und Sound-Design bei „Under The Skin“ und „Breaking Bad“ enorm stilsicher und stimmig. Ach ja, und John Barry ist mein absoluter Lieblings Soundtrackschreiber. Und dann wäre da noch Jerry Goldsmiths Soundtrack zu „Legend“, speziell das erste Stück „The Goblins“ ist unglaublich atmosphärisch…

Kinoproduktionen sind ja gerade inpuncto Mix sehr anspruchsvoll. Habt ihr den Film komplett für 5.1 Sourround-Sound geschrieben?

Da es das Indie-Budget nicht hergab, haben wir nicht extra nochmal für 5.1 gemischt. Das heißt, wir haben uns entschlossen, im Sinne der Ortbarkeit auf allen Plätzen im Kino, einen Upmix zu machen. Dabei muss man allerdings aufpassen, denn viele Tools in dem Bereich sind nicht downmixkompatibel und wenn jemand den Surroundmix dann versehentlich in Stereo zuhause abhört, gibt es Phasensauereien. Ich persönlich habe sehr viel Erfahrung im Stereomixing und geb mir da selten eine Blöße, habe aber für das Upmixing besser mal meinen Kumpel Jan Gerhardt eingespannt. Ich glaube er hat es dann durch UnWrap von TC (Powercore) gejagt und lieferte mir dann am Ende sechs separate Spuren für die 5.1. Surroundspur, die ich an Sascha zur Montage des finalen Exports weitergab.

„Wir haben im Kino einen rechteckigen Ausschnitt der sogenannten Realität.“

Gibt es noch weitere Unterschiede zwischen der Produktion von Filmmusik und einem „einfachen“ Song?

Filmmusik begleitet, unterstützt oder verstärkt die Emotionalität in einer Filmszene, denn eine Filmkomposition ist immer synthetisch. Wir haben im Kino einen rechteckigen (Kamera-) Ausschnitt der sog. „Realität“. Wir riechen, schmecken und fühlen aber zusätzlich nicht den Film. Deswegen kann oder muss man oft unter Einsatz von Musik verstärken, um die Szene intensiver oder „realer“ zu machen. Ich würde dabei von einer „Hyperrealität“ sprechen wollen, denn das Wort „real“ trifft’s ja nicht wirklich, schließlich laufen wir ja in Wirklichkeit auch nicht durch die Gegend und es ertönt dabei eine „Theme Music“. Manchmal, in Hollywood nicht unüblich, wird dem Zuschauer die komplette Emotionalität musikalisch vorgekaut, damit er ganz genau weiß, wie er zu jedem Augenblick fühlen soll, das ist dann allerdings nervig und im europäischem Film seltener zu erleben.

Mal eine Frage fernab von der Realität: Wenn du nicht auf dein Studio angewiesen wärst, wo würdest du am liebsten deine Soundtracks schreiben?

Ein Studio ist schon etwas Elementares. Es ist wichtig, einen Raum zu haben, zu dem man geht, der nur der Aufgabe dient, Musik oder Sound zu machen. Ich bin 20 Minuten unterwegs ins Studio und dieser Übergang hilft dabei, Unnützes hinter sich zu lassen. Gerade in heutigen Zeiten der ständigen Web 2.0-Alerts und der totalen Beschleunigung. Es gibt natürlich heute die theoretische Möglichkeit, überall zu arbeiten, aber ehrlich gesagt tut das kaum jemand, wenn er professionell arbeiten muss. Ablenkungen sind nicht hilfreich. Man muss sich auch mal vorstellen, dass noch in den 80ern, als es noch riesige Budgets für Albumproduktionen gab, eine Band für acht Monate mit ihrem Produzenten / Engineer samt Tonstudio in ein Schloss umziehen konnte. Das hieß noch lange nicht, dass die Musik davon besser wurde. Aber ein eigener oder spezialisierter Raum, mit möglichst wenigen Ablenkungen aus dem Themenbereich „Alltag“, ist schon unglaublich hilfreich, wenn man Kreativität evozieren möchte…

Wenn das Studio für dich so elementar ist, wie sieht denn dein aktuelles Studio-Set-Up aus?

Aktuell arbeite ich sehr viel „ITB“ (In The Box), also in meiner DAW. Im Prinzip ist das aktuell ein 4-Kerner mit jeweils 4 GHz und 2 x UAD-2 DSP-Karten, in Verbindung mit Sequoia 12/13, einer Samsung SSD und einem Marian Seraph AD2-Wandler. Synthesizerseitig stehen aktuell bei uns ein KORG DS-8 (mein erster Synthesizer überhaupt), ein (völlig unterschätzter) M-Audio Venom, ein KORG DSS-1, ein Roland JD800 und ein Juno 6. Meine Yamaha RS7000 benutze ich vor allem live, sie ist trotz ihrer 14 Jahre Alter eine unglaubliche Remixmaschine. Softwareseitig benutze ich gerne die KORE-Library, die TAL-Synths, Sascha Evermeiers flexiblen und druckvollen Revolta 2 und natürlich Sounds aus meinen Sound-Design-Aktivitäten. Da ist dann viel Gestauchtes, Verzerrtes und Umgepitchtes dabei. Dank Objektschnitt ist Sound-Design mit Samplitude oder Sequoia eine angenehm sinnliche Angelegenheit wie Töpfern. Meine wichtigste Waffe ist die Tonhöhenmanipulation und ein guter vollparametrischer EQ oder FFT-Filter. Das sollte man mir bitte nicht wegnehmen, sobald die Krise kommt. Zusätzlich setze ich eine kleine Phalanx von Freeware Plug-Ins ein. Stellvertretend könnte man hier den „TAL-Electro“, U-Hes Electromonster „TyrellN6“ sowie den sehr kühl-futuristisch klingenden „Ultrasonique“ von EVM nennen.

„Meine wichtigste Waffe ist die Tonhöhenmanipulation.“

Wie lange arbeitest du persönlich schon mit Sequoia?

Ich kenne Samplitude seit der SEK’D-Version (Studio für elektronische Klangerzeugung Dresden) mit vier Spuren, arbeite also seit 1995 damit, als noch Hohner Midi, die damals auch so exotische Brain-2-Midi-Controller verkaufte, den Vertrieb übernahmen. Der damalige Promoter Pit Klett ließ sich auf ein Powering mit meinem damaligen Label ein. Ich hab damals eine Menge experimenteller Parties mit elektronischen Liveacts gemanaged, darunter eine, die Mos Eisley hieß, in Anlehnung an den schrägen Schuppen voller außerirdischem Gesindel auf Tatooine in Star Wars. Ich hab mit Samplitude alles mögliche gemacht, einmal sogar einen kleinen filterbasierten Liveact mit dem 32000-bandigen FFT-Filter. Umso mehr objektbasierte Optionen Titus Tost und Tilman Herberger in diese frühe Versionen einbauten, desto mehr entfernte ich mich von meiner Digidesign SampleCell. Wenn man mir heute Objektschnitt wegnehmen würde, würde ich durchdrehen. Mir ist schleierhaft, wieso die meisten DAWs noch auf spurbasiertes Arbeiten setzen.

Und was bietet dir Sequoia heute?

Klangneutralität, extrem hochwertige Tools, Masteringfunktionalität, die VCA-Fader und natürlich die objektbasierte, immer noch revolutionäre Produktionsweise, die ich oben erwähnte.

„Sequoia ist m.E. der geheime Post-Production-Standard, den nur noch keiner entdeckt hat.“

Meine Güte, 1000 Spuren für ein Hörspiel in anderen DAWs? Im Ernst? Weiterhin schätze ich es sehr, dass ich mittlerweile mit Sequoia eine Software habe, die mir MIDI-Sequenzer, Audio-Editor, DAW, Batch-Editor und Mischpult ersetzt. Ach ja: Außerem bot Samplitude / Sequoia von Anfang an Latenzausgleich für DSP-Karten an. Ich hätte auch nicht gedacht, dass ich das mal sagen würde, aber die Mehrfachselektion im Objekteditor ist mir ein, für den Post-Production-Bereich, unentbehrliches Werkzeug geworden. Nachdem ich nunmehr vier Kurzfilme und einen Spielfilm gemischt und vertont habe, vermisse ich den Copy/Paste-Button älterer Versionen überhaupt nicht mehr.

Hast du ein Plug-in, auf das du schwörst, ohne das du nicht arbeiten willst?

Ich benutze unheimlich gerne Sascha Eversmeiers am|Pulse, um Bässe anzuzerren. Dabei drehe ich den Saturation-Poti schon mal bis 14 Uhr und mische per Mixregler diese Verzerrung nur subtil dazu, um ein paar Obertöne und Präsenz zu bekommen. Beim Mastering entzerre ich außerdem eigentlich mittlerweile nur noch im Linear-Phase-Mode mit dem EQ116. Am|Phibia ist ebenfalls fantastisch, um rotzige und authentische Soundwelten zu kreieren und das relativ neue Röhrenmodul in der Brot- und Butterabteilung ist exzellent, um einzelnen Spuren Leben einzuhauchen…

„Am Ende des Tages ist es alles Physik.“

Mit Fatex machst du gerade Mastering-technisch eine Menge verschiedener Genres (Film/Werbung, House, Synth-Pop, Industrial, Indie). Fällt es dir schwer, Musik zu mischen/mastern, die du privat nicht gerne hörst?

Nein, überhaupt nicht. Am Ende des Tages ist es alles Physik. Ein Mastering Engineer ist auch jemand, der weiß, was er da physikalisch tut und wo die Grenzen sind. Es ist natürlich von Vorteil, zu wissen, dass Drum’n’Bass-Producer auch bei 30 Hz noch etwas im Master spüren wollen, während Metalfreaks oft überhaupt nicht verstehen, was Subbass ist, da sie auf pulswellenartige Bretter und reichlich Mitten stehen. Da bewegt sich im Mix dann nichts mehr so wirklich, aber das „muss so“. Was alle lieben, ist: Tiefe, Punch, Defintion und Auflösung. Das Gehirn sehnt sich nach komplexen Klangereignissen. Das ist auch das Geheimnis hinter der esoterischen Verklärung von sogenanntem „Analogsound“, den es als Ästhetik so eigentlich gar nicht gibt. „Analog“ meint oft einfach nur ein wohlklingendes, komplexes, dichtes Klangereignis. Das Wort „fett“ wird dabei auf Künstler und Kundenseite gerne inflationär benutzt, dabei meinen aber US-Amerikaner oft etwas anderes als Briten oder Europäer. Solche Begriffe sollten man in der Kommunikation abklären.

Privat mag ich auch jedes Genre, außer Dixieland und Roots Reggae, aber mein Herz schlägt am meisten für die elektronische Musik. Von den frühen Jean-Michel Jarre Platten zu The White Noise, Rupert Hine, Skinny Puppy, Coil, Photek, The Legendary Pink Dots, Si Begg, Pinch, Instra:mental, Kraftwerk, Gary Numan und zurück. Das wären schon mal einige der wichtigsten Namen, die mir spontan einfallen. Die meisten aktuellen Produktionen in der Elektronik sind mir oft zu generisch und baukastenhaft. Da warte ich noch auf eine zweite Revolution der Postmoderne, die eine Produktionstiefe wie seinerseits Photek oer Autechre hervorbringen könnte.

Noch eine abschließende Frage: Du meintest vorhin, dass dir düstere Klangwelten liegen. Für welchen „Filmbösewicht“ würdest du gerne einmal das „Theme“ schreiben?

Das wäre definitiv das Theme für den durchdrehenden Cowboyroboter im 2016 erscheinenden Remake des 1973er Klassikers „Westworld“ (Crichton / HBO). Aber da scheinen alle Jobs schon vergeben worden zu sein. Das wird sicher groß.

Ein P.S. von Bob Humid:

Es gibt jede Menge Updates auf meiner Audioworkshopseite. Schaut doch mal vorbei:

http://bobhumid.de/

https://soundcloud.com/serveanddestroy/sets/selected-bob-humid-productions

Nächster Beitrag >
Artist Interview: Jairo Bonilla

< Vorheriger Beitrag
Artist Interview: Killa-D

Diese Artikel könnten Sie auch interessieren

Artist Interview: Andreas Kaufmann

Andreas Kaufmann wirft mit uns einen Blick zurück auf sein bisheriges Schaffen und bewertet Entwicklungen der Digitalisierung.

> Weiterlesen

Artist Interview: Sascha Laue & Rick Middelkoop

Das Produzenten Duo Sascha und Rick über ihr Musical „Herrscher der Träume" und ihre Arbeit mit dem Music Maker.

> Weiterlesen

Artist Interview: Heba Kadry

Heba Kadry teilt ihre Erfahrung als Mastering Ingenieurin mitten im New Yorker Timeless Mastering Studio

> Weiterlesen

Das neue SOUND FORGE Audio Studio 15

Alle neuen Features und Optimierungen des SOUND FORGE Audio Studio 15 im Überblick!

> Weiterlesen