Electric Rudeboyz - Wielki mechanizm perkusyjny
Wydany w maju 2001 roku album "Kolejny krok", to jednocześnie kamień węgielny i krok milowy w historii polskiego drum’n’bassu.
Wydany w maju 2001 roku album "Kolejny krok", to jednocześnie kamień węgielny i krok milowy w historii polskiego drum’n’bassu.
Ta w całości stworzona przez jednego człowieka - Marka „Oreu’a” Adamowicza - płyta długogrająca nie dość bowiem, że jest pierwszym jungle’owym krążkiem w historii polskiej fonografii głównego nurtu, to jeszcze jest tworem zupełnie osobnym - konceptualnym, lirycznym obrazem przełomu milleniów zrealizowanym na kanwie funkowych breaków i niskopiennych pochodów basu. O tym więc w jakich warunkach powstawała, na jakim sprzęcie została nagrana i z czego wynika jej wokalna specyfika, postanowiłem porozmawiać z jej autorem w dwudziestą rocznicę premiery tegoż debiutanckiego - i jedynego - longplaya sygnowanego nazwą Electric Rudeboyz.
...
Marek „Oreu” Adamowicz: Po latach doszedłem do wniosku, ze mastering Grzegorza Piwkowskiego sporo dał temu materiałowi, bo on zwracał uwagę na częstotliwości którymi ja się wtedy w ogóle nie przejmowałem i nadał im takiego szlachetnego połysku, który wciąż się broni po tych dwudziestu latach. Dopiero teraz to odkryłem, bo przez minione dwie dekady żyłem w przekonaniu, że on wziął kasę tylko za to, że gdzieś tam pokręcił gałką, coś poudawał i tyle. A, że przez te wszystkie lata zajmowałem się inżynierią dźwięku, to kiedy teraz wróciłem do tego albumu dostrzegłem jego kunszt, ten finalny sznyt Piwkowskiego nadał tej płycie ogólnej konsumenckiej zjadliwości. Choć z początku nie było łatwo, bo pamiętam jak poszliśmy do niego z NOON-em - u którego zawsze pomieszkiwałem jak byłem w Warszawie i który był moim pierwszym kumplem od inżynierii dźwięku - to właściwie cały czas musieliśmy mu tłumaczyć, że w tej muzyce wiele się dzieje naprawdę nisko - że dopiero poniżej 80 Hz pojawiają się peaki i tam trzeba wycinać i czyścić, że koło 40 Hz trzeba zaokrąglać - i on dopiero jak to zobaczył na wykresie widma, to nam uwierzył. Okazał się elastyczny, choć z początku nasz kontakt był ocno utrudniony, bo jak mu przyniosłem na sesję czyste wavy’y bez żadnych strat, to mi powiedział w drzwiach, że przecież wymogiem było CD i chyba muszę wrócić do Szczecina, żeby je przygotować. Mi szczenna opadła, NOONa zamurowało, jednak dla dobra sprawy wsiedliśmy w autobus, pojechaliśmy do Mikołaja i wypaliliśmy to CD w czasie rzeczywistym, żeby uniknąć strat i to wszystko do kupy zajęło jakieś trzy godziny z planowanej sesji masteringowej. Ale dzisiaj widzę, że w tych naprawdę wysokich pasmach - powyżej 6kHz, gdzie tak naprawdę zaczyna się sztuka słyszenia, a my nie mieliśmy wtedy tak wyrobionego słuchu, żeby się tego dopatrzyć - on tam uporządkował wszystkie te hi-haty i mocno też poszerzył całą panoramę z zachowaniem zgodności fazowej i oryginalnej równowagi tonalnej. To były jakieś kombinacje DS-ingu - on miał jakiś taki zewnętrzny procesor masteringowy TC Electronic, gdzie mógł przesuwać dane pasmo w panoramie - był tam taki equalizer parametrzyczny, gdzie znajdowałeś konkretną częstotliwość, zawężałeś jej zakres i wtedy podcinałeś, podbijałeś i mogłeś też przesuwać w lewo czy prawo. I jak słuchałem teraz tego ze Spotify, które jest czymś pomiędzy flac’iem i mp3, gdzie jest masywna kompresja i dodatkowy processing - wyrównywanie poziomów, peaków i ogólnej głośności, to się bardzo bałem tego jak to zabrzmi, a było to bardzo pozytywne zaskoczenie. Po dwudziestu więc latach po raz pierwszy doceniłem kunszt - Piwkowskiemu należą się propsy.
Wspomniałeś o sztuce słyszenia. Rozwiniesz ten wątek?
W latach trzydziestych ubiegłego wieku dwóch naukowców z Bell Labs - Harvey Fletcher i Wilden A. Munson - przeprowadziło badania nad ludzkim słuchem, które miały posłużyć do opracowania technologicznych standardów w dopiero rodzącym się przemyśle zelektryfikowanego dźwięku. Używali oni dosyć łopatologicznych metod - puszczali ludziom proste tony o różnej głośności i częstotliwości i pytali czy coś słyszą, po czym obliczyli średnią na podstawie pomiarów słuchu tysięcy wolontariuszy, czego wynikiem była Krzywa Fletchera-Munsona dowodząca, że tak naprawdę wszyscy słyszymy najwyraźniej pomiędzy 2000Hz a 5000Hz (2kHz-5kHz). Wszystko powyżej i poniżej jest natomiast tą sztuką słyszenia. Te badania przyczyniły się do powstania jednego z pierwszych międzynarodowych standardów - ISO 226, który w praktyce zdefiniował sonicznie wszystkich urodzonych po 1933 roku, bo wszystkie ówczesne głośniki w aparatach telefonicznych, odbiornikach AM czy TV miały swoje pasmo zawężone do tego właśnie niezbędnego minimum. Krzywa Fletchera-Munsona to inaczej krzywa równej głośności - pokazuje wykres spektrum słyszalnych częstotliwości w stosunku do tego jakby on miał wyglądać, aby wszystkie częstotliwości były odczuwalne jako równie głośne. Krzywa ta pokazuje charakterystyczny wąwóz prowadzący do około 3.5kHZ, który - dla porównania - przy maksymalnym odsłuchu na pograniczu bólu czyli około 130 dB ma wcięcie zaledwie 20 dB SPL, a więc pasmo pomiędzy 2kHz a 5kHz trzeba ściszyć mniej więcej 100 razy, żeby dorównać głośności pozostałych częstotliwości. Przy standardowym poziomie hałasu 70dB (plac zabaw, głośna rozmowa), pasmo 2kHz-5kHz trzeba ściszyć dosłownie o te 70dB SPL czyli około 10 000 000 razy. Innymi słowy, kiedy wychodzimy na miasto nasze uszy słyszą pasmo pomiędzy 2kHz a 5kHz… 10 000 000 razy głośniej, co trudno sobie wyobrazić, a jednocześnie dowodzi to też absolutnej nieliniowości naszego narządu słuchu. Decybele często postrzega się jako tzw. muzyczne centymetry czyli jakąś formę regularnej miary, a jest to największa bzdura jaą posługuje się świat pseudo audio. Dźwięk nie ma nic wspólnego z powszechną percepcją regularności, a jego struktura bardziej przypomina fraktal niż linijkę. Decybel więc jest do tej fraktalnej natury dostosowany i jest on bliższy logarytmicznemu stosunkowi współ-wartości niż mierze jako takiej. Jeśli więc podniesiemy poziom SPL o 10dB, głośność wzrasta 10 razy, ale gdy podniesiemy go o 20dB, głośność wzrasta już o 100 razy, 30dB - 1000 razy, 40dB - 10000 razy, i tak dalej, i tak dalej. Oprócz technologii przemysłowych, Krzywa Fletchera-Munsona znalazła natomiast swych wyznawców również w przemyśle nagraniowym - od pionierskich producentów płyt takich jak Berry Gordy czy George Martin, aż po producentów sprzętu pro audio czy konsumenckiego audio i hi-fi. Można ją zobrazować w formie uśmiechniętej krzywej EQ (Smiley Face Curve EQ), najbardziej satysfakcjonującej dla słuchacza ze względu na wycięcie tych bolesnych częstotliwości i w praktyce większość starych i nowych equalizerów ma punkty 2kHz, 3kHz czy 5kHz jako ustawienia domyślne. W produkcji muzycznej też większość definicji brzmienia i głośności oscyluje właśnie w tym zakresie pasma i cokolwiek zrobisz - czy je skompresujesz, nasycisz czy przesterujesz, to wpłynie na ogólny charakter i percepcję głośności nagrania. Reszta spektrum - powyżej i poniżej - jest albo instynktowna albo wyuczona. I w moim wypadku, w tamtych latach, było to nieporównywalnie bardziej instynktowne niż wyuczone. Albo coś gadało albo nie.
W Akai S6000 każdy utwór miał własny zestaw Multi, będącym zbiorem programów z samplami (instrumentów); wyświetla się w formie listy, z poziomu której można przypisać kanał MIDI oraz fizyczne wyjście audio, wysłać do jednego z czterech kanałów wewnętrznego procesora efektów oraz ustawić podstawowe parametry.
To może jeszcze zanim zaczniemy gadać o procesie produkcyjnym albumu Electric Rudeboyz, zapytam cię co w tamtym czasie służyło ci za odsłuch?
To ważny element całej tej układanki, bo wydaje mi się, że mój japońsko-polski system odsłuchowy odegrał wprost kluczową rolę w kreowaniu ogólnego obrazu tej płyty. Korzystałem z połączenia pary klasycznych NS10 z ogromnym pudłem od Altusa firmy Unitra. Gdy byłem brzdącem, tata często używał mocy tych ogromnych Altusów do uświadamiania mieszkańcom bloku i osiedla czym jest muzyka Led Zeppelin, Deep Purple czy T.Rex, a kiedy one się zużyły, to wziąłem jedną z tych skrzyń, powykręcałem wszystko i wstawiłem tylko pojedynczy, nowiutki głośnik basowy - krajowy, bodajże marki Tonsil - i to mi robiło za pasywny subwoofer. I to gadało, choć według teorii nie powinno. Yamahy NS10 ze względu na użyte materiały mają bowiem rekordowo krótki współczynnik wybrzmienia własnego, co daje sterylnie czysty dźwięk, który nie jest w stanie sam się zamulić i on mi służył za przejrzystą górę. Dół natomiast był zaś dziełem kompletnego przypadku - nie robiłem nawet żadnych pomiarów aby ustalić punkt w którym jego częstotliwości krzyżują się z NS10, jak szybko reaguje czy wybrzmiewa. Miałem po prostu dużo szczęścia, że to zażarło. Oprócz produkcji bowiem, muza leciała z tego non-stop - głównie z winyli - osłuchiwałem się z tym nieustannie i ciągle coś przesuwałem, poprawiałem położenie tych głośników aż w końcu znalazłem to ustawienie, którego później już nie ruszałem.
Cofnijmy się może teraz do samego początku - zanim stworzyłeś album Electric Rudeboyz, który trafił na stół Grzegorza Piwkowskiego, najpierw nagrałeś utwory, które zapewniły ci kontrakt z Pomatonem - Rzeczywistość i Znowu lato. Na czym pracowałeś w tamtym czasie?
Oba te numery powstały na komputerze i zewnętrznej karcie dźwiękowej. W tamtych latach kupienie sobie PC’a z kartą, która zapewni ci jakiś porządny PCM (czyli jakość płyty kompaktowej), to był masakryczne wyrzeczenie, ogromny wydatek. Nie mówiąc już o Macu czy programie Digidesign Session, który pojawił się wtedy na rynku. Takie rzeczy były w studiach, a u mnie w domu pojawiła się wtedy karta E-MU APS na którą wydałem właściwie wszystkie pieniądze jakie zarobiłem przez pół roku w hurtowni muzycznej Rockandroller, w której wówczas pracowałem. To była pierwsza pro karta z porządnymi przetwornikami i świetnie napisanym software’m, która była jakkolwiek cenowo przystępna; jakby stworzona pod ludzi mojego pokroju. Generalnie w obyciu porównywalna z dzisiejszym, wszechobecnym UA Apollo Twin, a zdecydowałem się na nią bo była reklamowana tym, że ma wbudowany sampler, a sampler był wtedy marzeniem każdego, kto miał zamiar tworzyć jakąkolwiek muzykę miejską. Prędko jednak okazało się, że wcale go nie ma tylko odgrywa SoundFonty. Jak sama nazwa wskazuje był to format czcionki muzycznej do której obsługi trzeba było mieć edytor, który nazywał się Vienna i… nie był w stanie playbackować sampli, więc trzeba było zawczasu wiedzieć, co chce się wziąć, położyć to w odpowiednim miejscu, zmapować, zapisać SoundFont jako plik container, wgrać to do pamięci tej karty i wtedy można było tym grać. No i tak robiłem. Do edycji korzystałem z SoundForge’a na którym ciąłem loopy na fragmenty, tak zwane frazy, które zaczynały się czasem od hi-hata, czasami od werbla, a czasami od stopy. SoundForge był w ogóle pierwszym i najbardziej podstawowym narzędziem bez którego w ogóle nie ruszyłbym z miejsca, absolutnym arcydziełem edycyjno-sound designowe. W kwestii off-line processingu ma on dosłownie wszystko, a edycja jest możliwa na nim z ultra mikroskopijną wręcz precyzją. Zanim więc coś wylądowało w pamięci karty czy później w samplerze było obrabiane właśnie w SoundForge, którego interfejs praktycznie nie zmienił się od ćwierć wieku, a brand przeszedł w tym czasie z rąk do rąk przynajmniej trzy razy. Zacząłem od wersji 3, dziś jest to wersja 15 i oprócz zaktualizowanej kompatybilności ze współczesnymi standardami, większość funkcji pozostała bez zmian. To, co z niego wyszło lądowało natomiast potem na klawiszach - miałem klawiaturę MIDI, pierwszy Edirol jaki wyszedł - PCR-300; pierwsza klawiatura MIDI USB. Mapowałem to na oślep, zapisywałem, wgrywałem do karty i nagle następował ten wspaniały moment, że naciskałem klawisz i to grało. A potem szło do Cubase’a, którego używałem do programowania wszystkich bitów. Świetną rzeczą w tej karcie były efekty - miała na przykład bardzo wrażliwy distortion, który można było ustawić na konkretną częstotliwość. Jak byś coś puścił przez gitarowe distortion, to całe spectrum by szło przez ten sam filtr, a tu można było to dostosować do materiału który się obrabiało. Miała dobry chorus i dobry flanger dzięki czemu też można było to wszystko trochę rozciągnąć w panoramie. Na takim sprzęcie powstały „Rzeczywistość” i „Znowu lato”, które złożyły się na moje pierwsze demo i zostały zaakceptowane przez wytwórnię.
Zatrzymajmy się jeszcze na chwilę przy tym, co samplowałeś przy pomocy tej karty?
Z uporem maniaka chodziłem wtedy z DATem za ludźmi, którzy mieli jakiekolwiek instrumenty i zgrywałem co się da, wliczając w to kompletne wybebeszenie Korgów M1 i Z1, które posiadał znajomy klawiszowiec. Te modele stały się legendarne ze względu na scenę taneczną lat dziewięćdziesiątych, bo praktycznie wszystko, co nie szło w tych nagraniach z analogów, to było M1 i Z1, z jednym wyjątkiem… Jeśli chodzi o bas w „Rzeczywistości”, „Znowu lato” i później też w „Betonie”, to jego historia sięga właściwie początków muzyki house i Kevina Saundersona znanego wówczas pod aliasem Reese. W 1988 roku wydał on on singiel „Just Want Another Chance”, który zmienił oblicze muzyki klubowej w przynajmniej kilku aspektach. Ten jeden numer jest bowiem kamieniem węgielnym pod rozwój takich gatunków jak speed garage, jump up drum’n’bass czy 2 step/uk garage, a wykorzystany w nim bas jest tak ikoniczny, że każda próba stworzenia go od podstaw - nawet jeśli była bardzo bliska - trąciła niestety brakiem autentyczności. Bo mogłeś wziąć dwa piłokształtne oscylatory, jeden stroiłeś 5-10 centów w górę, drugi - tyle samo w dół i ten detuning tłumiłeś rezonansowym filtrem LP, na to choru i voilà! Z tymże nie do końca… Jak by to przekonująco nie brzmiało, zawsze przypominało naśladowanie którejś znanej osoby – niby bardzo podobnie ale jednak ten tembr głosu nie jest do końca autentyczny. A, że moim największym marzeniem było wówczas posiadanie w pełni funkcjonalnej wersji tej barwy, która pozwoliłaby mi grać nim jak instrumentem, to w pewnym momencie miałem folder z kilkudziesięcioma mikro próbkami reese basu z przeróżnych jungele’owych i speed garage’owych winyli. Całe noce spędzałem dłubiąc, kleją i dostrajając ten bas, a moja wersja była wypadkową tych samplowanych źródeł z około trzydziestoprocentową domieszką dual saw z Korga Z1, a dokładnie jego samego subu odcedzonego filtrem LP. Miałem tego około dziesięć wariantów na różnych strojeniach mapowanych co 3-4 klawisze, a finalnym kluczem do sukcesu okazała się być funkcja crossfade loopów w SoundForge’u, która pozwalała zapętlać te ułamki sekund w nieskończoność, bo oprócz samego sustain loopa, początek i koniec frazy mógł być tam crossfade’owany z materiałem z wewnątrz lub zewnątrz frazy. W efekcie dało mi to naprawdę unikalną i też w moim mniemaniu autentyczną wersję reese basu na temat którego powstania było bardzo wiele teorii, aż w końcu Kevin sam potwierdził, że wszystkie syntetyczne dźwięki na tym singlu były efektem przypadkowych zabaw z Casio CZ-5000. I dziś kiedy Arturia wypuściła CZ-V łatwo jest to sprawdzić, co zresztą mogę potwierdzić. Kiedy to po raz pierwszy usłyszałem, to dostałem gęsiej skórki i faktycznie okazało się, że to nie żaden odstrojony dual saw z modularnego Mooga, zawadiacki PWM Rolanda Juno ze swym ikonicznym chorusem czy też growl z udarowego Korga MS-20. To Casio CZ-5000 i jego naprawdę unikalne kształty funkcji oscylatorów i ich specyficzna interakcja między sobą - ogólna architektura tego urządzenia i technologia przesteru fazy w nim wykorzystana - to było odpowiedzialne za ikoniczność tego z pozoru tylko prostego brzmienia.
Line 6 Bass POD to jeden z pierwszych cyfrowych efektów basowych modelujący klasyczne wzmacniacze i efekty. Przez 20 lat nie dopatrzyłem się w jego brzmieniu cyfrowych artefaktów. Działa w czasie rzeczywistym, wszystkie pokrętła mają duży zakres modyfikacji i pozwalają uzyskać satysfakcjonujące rezultaty. Próbowałem przepuszczać przez niego praktycznie wszystko – efekty były różne, ale zawsze brzmiące do rzeczy. Świat cyfrowy nie ma limitów, jeśli się wie, co się robi.
Poza tą jedną, samplingowo-syntezatorową hybrydą, na Kolejnym kroku pojawiło się dużo innych próbek?
Nie, nie ma tam żadnych sampli, bo na pytanie o ich wykorzystanie, Pomaton powiedział kategoryczne NIE. Oni tego nie uznają, nie rozumieją i nie będą nic czyścić; w ogóle nie chcą mieć z tym nic wspólnego. I to było naprawdę sporym utrudnieniem, bo jednak muzyka klubowa czy hip-hop bez sampli, to jak herbata bez wody. Scena klubowa z początku była dużo bliżej sztuki niż biznesu i przez to też bardziej liberalnie podchodziła do wszelkich regulacji praw autorskich. Artyści jednogłośnie podkreślali, że bez samplingu tej muzyki by w ogóle nie było i jeśli coś brzmi dobrze to jest sztuką, nie ważne jak powstało, czy nie narusza czyichś praw majątkowych i czy - w ogóle - się komuś podoba czy nie. Tylko od artysty zależy co i jak zsampluje - czy to będzie ułamek sekundy bitu albo basu czy długi loop albo wręcz cały utwór. I choć przez dekady takie podejście doprowadziło do szeregu sądowych szarpanin i złamanych karier, to zawsze działo się to w głównym nurcie, gdzie najwyraźniej działa się tylko dla zysków materialnych i muzykę traktuje się jak zwykły towar. Mi jednak podobne perturbacje nie były pisane, bo patrząc z zazdrością na moich zachodnich kolegów, wyrzuciłem z tej płyty wszystko, co było samplem albo mogło być za takowy postrzegane. Oprócz kilku uderzeń perkusji i kilku efektów dźwiękowych nagranych z telewizora nie ma tam żadnych sampli.
Zanim jednak trafiło to do Pomatonu, musiałeś jeszcze zarejestrować wokale…
I musiałem też przejść cały proces tego, żeby w ogóle przekonać ludzi, że robię coś na serio, że to ma jakikolwiek sens i że robię to sam. Bo jak przynosiłem te bity do studia, to ludzie pytali zwykle skąd to mam i jak im mówiłem, że zrobiłem, to nie wierzyli i się podśmiewali, że ta, sam zrobiłeś, niby na czym?!? W studiu Kakadu, w którym nagrywałem już od lat z różnymi punkowymi kapelami, pracował Artur Bursakowski - wybitny inżynier dźwięku i też świetna osoba - dusza towarzystwa i człowiek-instytucja wspierający młodą twórczość. I pamiętam, że jak przyniosłem do niego te bity, to on mówi słuchaj Marek ale tu jest przester, to nie może tak być, na co ja mu tłumaczyłem, że może, a nawet musi, właśnie o to chodzi, tak ma być, a on tylko zrezygnowany wpuszczał mnie do kabiny, gdzie nagrywałem wokale. Był tam mikrofon AKG C3000 albo C3000B - prosty wielkomembranowy mikrofon pojemnościowy, który był wtedy chyba najtańszy na rynku ale to nie miało dla mnie większego znaczenia, bo ja byłem wtedy bardzo głośny, strasznie się darłem. I dlatego potrzebowałem studia, żeby się otworzyć. Nie mogłem tego nagrać w domu, bo podświadomie zawsze miałem zaciśnięte gardło, przez jakąś empatię dla rodziny i sąsiadów zapewne. A jak widziałem Burka to nie miałem żadnych oporów, bo to był człowiek z którym nagrywałem pierwszy materiał jak miałem chyba 15 lat. Im bardziej więc on mi niedowierzał, tym bardziej ja mu chciałem pokazać - zobacz, teraz nadchodzi taka rzecz, nie jakieś tam gitary, nie żaden syf, tylko takie ciosy tu idą. On mi to nagrał z niedowierzaniem w oczach, zgrał mi to na jakiś przenośny dysk, a ja to zaniosłem do domu i zacząłem kroić. I w podobny sposób rejestrowałem wokale do „Znowu lato”, co zdarzyło się mniej więcej rok później, tym razem w studio Marina Macuka, które znajdowało się piętro nad Kakadu. Nazywało się Elvis van Tomato Studio i Macuk miał tam Neumanna TLM 103. I dlatego też „Znowu lato” to jedyny numer na płycie w którym mój wokal brzmi nieco inaczej niż na reszcie, bo po prostu został nagrany na świetnym mikrofonie, który jest co prawa najtańszym z tej linii, ale ma tę samą kapsułę co trzy razy droższy U87.
I z tymi dwoma numerami udało ci się znaleźć wydawcę.
Tak, miałem dwa single, które były wymogiem tego, żeby coś było postrzegane jako podstawa pod przyszły album, który ma szansę się sprzedać. Kiedy więc podpisałem kontrakt z Pomatonem, całą zaliczkę wydałem od razu na sprzęt. Kupiłem sampler Akai S6000 i miałem taki plan, żeby dokupić do tego jeszcze Eventide DSP4000, co by mi dało już pełen pakiet i nie potrzebowałbym już nic innego, ale… nie wystarczyło mi już kasy. Ten Eventide to było H3000 - czyli najbardziej kultowy procesor efektów - na sterydach i jeden z najbardziej kluczowych sprzętów w historii drum’n’bassu, no ale niestety nie było mi dane go wtedy nabyć. Miałem jednak sampler, który praktycznie nie miał żadnych ograniczeń - 256 MB pamięci w czasach w których MPC miało 8 MB, pamięć polifoniczna, wewnętrzny procesor efektów, dodatkowe karty wyjść; to była rzeźnia. Współczesny Kontakt od Native Instruments dorównał tej maszynie dopiero parę lat temu, a ja ją miałem już w 1999 roku i wtedy właściwie skończyły się moje problemy techniczne, a tak mi się przynajmniej wydawało.
E-mu APS był pierwszym interfejsem z porządnymi przetwornikami i świetnie napisanym oprogramowaniem. W obyciu porównywalny z dzisiejszym, wszechobecnym UA Apollo Twin. Świetną rzeczą były efekty DSP. Był np. bardzo czuły distortion, który można było ustawić na konkretną częstotliwość, dostosowując do obrabianego materiału. Były też dobry chorus i flanger, dzięki którym można było wszystko rozciągnąć w panoramie. Na takim sprzęcie powstały utwory Rzeczywistość i Znowu lato, które złożyły się na moje pierwsze demo i zostały zaakceptowane przez wytwórnię.
Co było największym problemem na jaki natrafiłeś przy produkcji Kolejnego kroku?
Najbardziej wycieńczająca była wewnętrzna walka inżyniera dźwięku z producentem i artystą. Bo inżynier musiał mieć ostre zmysły - nieustannie kontrolować tonalny balans materiału i czuwać nad mnóstwem technicznych detali, a producent musiał mieć sprawny i krytyczny umysł ogarniający materiał od strony muzycznej i całościowej. Artysta natomiast był kompletnym przeciwieństwem ich obu - surfującym na falach codzienności ekstrawertykiem widzącym świat jako ogromną mozaikę zdarzeń, problemów, ludzkich dróg i ich wyborów. Największym problemem było więc to, że to wszystko musiało się zmieścić w jednej głowie. W praktyce więc jednego dnia byłem producentem, innego inżynierem, a zwykle trzeb było być wszystkim naraz, co powodowało liczne kreatywne bloki i gubienie się w ślepych uliczkach, co przeciągało wszystko w nieskończoność.
A od strony czysto technicznej?
Od początku miałem wizję stworzenia mojej, zupełnie osobnej jakości w drum’n’bassie i z perspektywy czasu wydaje mi się, że udało mi się zrealizować ją w jakiś osiemdziesięciu procentach. Te brakujące dwadzieścia, to właśnie ten brakujący Eventide o którym wspominałem. Nie byłem w stanie go sobie wtedy kupić, bo nawet dzisiaj kosztuje on bardzo dużo, a wtedy była to dla mnie zupełnie kosmiczna kwota. A, że właściwie cały ówczesny drum’n’bass opierał się w ogromnym stopniu na brzmieniu Eventide’ów i Lexiconów, to nie mając do nich dostępu naprawdę ciężko było konkurować z Wielką Brytanią. Nie mówiąc już o tym, że nie mieliśmy wtedy nawet żadnego lampowego kompresora, jednak Burek powiedział mi wtedy, że wszystko można osiągnąć zwykłym parametrycznym equalizerem, tylko trzeba mieć dobre ucho. Artur Bursakowski był w ogóle człowiekiem od którego wszystkiego się nauczyłem; pracowałem z nim od 1992 roku, więc w momencie premiery „Kolejnego kroku”” to była już prawie dekada. Miał niesamowitą cierpliwość i ogromną wiedzę, a do tego był hipisem, który się tego wszystkiego od kogoś nauczył i chciał tę wiedzę przekazywać dalej. Jak jeszcze nagrywaliśmy u niego te wszystkie punkowe rzeczy, to on gardził tą estetyką, ale to była muzyka, więc potrafił nam to wszystko wytłumaczyć jak dzieciom - na czym polega to soniczne spectrum, ten balans, ta cała inżynieria dźwięku. Za każdym razem więc jak czegoś nie wiedziałem, to on potrafił mi na każde pytanie odpowiedzieć w sekundę.
Czym więc zastępowałeś tego Eventide’a?
Burek miał wtedy w studio zupełnie futurystyczny jak na tamte czasy, pierwszy zewnętrzny procesor cyfrowy - Behringera DSP-8000 Ultra Curve, który oprócz czytania i zapisywania krzywych EQ, pełnił też rolę bardzo dokładnego parametrycznego EQ i analizatora widma. A ja miałem wówczas jeden z pierwszych pakietów Wavesa, który brzmiał jak prawdziwy sprzęt i praktycznie w kwestii kompresji nie było wtedy alternatywy dla C1. I korzystałem też z takich plug-inów jak Voxengo EQCurve czy Antares Microphone Modeler, które potrafiły naśladować krzywe i charakterystyki różnych equalizerów czy - jak ten drugi, wymyślony przez firmę, która później stworzyła Auto-Tune’a - mikrofonów. Opierałem się głównie na własnych uszach, equalizerach parametrycznych i software’owych saturatorach. Nasycałem też dźwięk używając przetworników z tego samplera Akai, bo główne outputy w tych urządzeniach - nie ważne czy z serii S czy Akai MPC - miały wzmacniacz, który mogłeś wysterować pokrętłem volume i on praktycznie ścieśniał i nasycał dźwięk bez cyfrowego przestrerowania, był to poniekąd analogowy przester. Moim drugim największym, technicznym odkryciem tego czasu był natomiast Genrator czyli poprzednik Reaktora, pierwszy program wypuszczony przez Native Instruments. Ten dzisiejszy potentat był wówczas malutką manufakturą software’u, która wypuściła właśnie najbardziej zaawansowany program do tworzenia muzyki, który do dzisiaj na wielu polach nie ma sobie równych, choć minęło od tamtej pory ponad dwadzieścia lat. Jedynym jego problemem było to, że jego interfejs był… nie dla ludzi. Był to bowiem system modularny, który składał się z wielu poziomów elementów, podzespołów i komponentów, a każdy komponent można było otworzyć i wejść w pod-komponenty, z których każdy można było zmodyfikować. Miałeś więc tę bibliotekę instrumentów i efektów, z których każdy można było otworzyć - tak jakbyś oglądał płytkę PCB ze wszystkimi czipami i każdy z nich można było wymienić, zmodyfikować czy przeciągnąć do niego kabelki… To było dla mnie wybawienie, bo brak tego Eventide’a mocno mi doskwierał. W kawałku „Senne powieki” jest na przykład taki zrewersowany wibrafon i za nic nie mogłem znaleźć do niego pogłosu, który dałby mi ten soundscape, który znałem z brytyjskich produkcji. Nie mogłem, bo Eventide DSP4000 miał blackhole i często kupowano go właśnie po to, żeby tworzyć ten soundscape; podobnie zresztą jak w przypadku Lexiconów. Zacząłem jednak szukać czegoś takiego w Generatorze i choć z niego też nie potrafiłem wyciągnąć takiego długiego i płynnego, organicznego i głębokiego reverbu, to jednak coś tam znalazłem i kleiłem ogon do ogona do ogona do ogona, aż wreszcie dało się tego słuchać.
Generator to dziś Reaktor 6, którego workflow w ogóle się nie zmienił. Po wejściu do biblioteki zaznaczam wybrany efekt lub instrument, otwieram go, a w zakładce Panel uzyskuję dostęp do kolejnych warstw: schematu blokowego, schematu ideowego, a nawet pojedynczych elementów. Znalazłem w Generatorze efekty bliskie saturatorom lampowym – bity zaczęły się wreszcie przegryzać, a bas sunąć po podłodze. Może nie brzmi to dzisiaj jak jakaś niesamowita ściana dźwięku, ale przy tym co wówczas było dookoła, osiągnąłem naprawdę konkretną moc.
Skoro więc mamy pokrótce zarysowany twój studyjny set-up, przejdźmy może do sampli, które w to Akai wgrywałeś…
To w ogromnej mierze zasługa jednego człowieka - prawdziwej legendy krajowej sceny DJskiej i wielkiego miłośnika jungle/drum’n’bass - MK Fever’a. On w tamtych latach miał już potężną baterię syntezatorów - miał TR-808, SH-101, jakiś system modularny Rolanda… miał sound! Więc ja wziąłem DATa i kable, wsiadłem w pociąg do Krakowa i przyjechałem do niego na dwa tygodnie tylko po to, żeby pozgrywać sobie próbki. Nagrywałem tylko czyste ataki, dosłownie po sekundzie tych dźwięków i później zawsze mogłem sobie to wydłużyć; musiałem mieć tylko ten oryginalny, analogowy atak. Po powrocie do Szczecina miałem więc chyba z 2 godziny takich próbek i zacząłem to miarowo zrzucać, katalogować i konwertować na format Akai, robić sustain loopy i całą tą drobiazgową ciachaninę. Dużo korzystałem z SH-101, tego klasycznego acidowego Rolanda, który w przeciwieństwie do TB-303 ma nie jeden oscylator ale trzy takie same - jeden nastrojony na sub, a dwóm pozostałym możesz zmieniać charakterystykę z piły na kwadrat, możesz spiąć w unisono i możesz je też rozsynchonizować. A, że ma łudząco i satysfakcjonująco podobny filtr co TB-303, to jest wprost wymarzonym instrumentem do ciosania grubych basów. Miałem więc całą tą - zupełnie unikatową jak na tamte czasy - bibliotekę brzmień i robiłem z nich wszystko - czasem tła, czasem layery basu, ale też te g-funkowe leady, których jest tam kilka. Wrzucałem to do Akai jako surowy sampel, kładłem na to sustain loopa i nakładałem filtry. Co było świetne w oryginalnych samplerach Akai, to że były bardzo analogowe w brzmieniu - ich brzmienie jest bardzo nieliniowe, podobnie jak dzisiaj w tych plug-inach UAD ale też wydaje mi się, że one były w jakiś sposób optymalizowane pod to, żeby dawać takie ciepłe, pełne brzmienie. Żeby dźwięki się nie zabijały, nie wysysały nawzajem, tylko się uzupełniały. Tam była jakaś software’owa magia, definitywnie nieliniowa w tych urządzeniach, bo wrzucało się tam jakiś dźwięk i on praktycznie wychodził lepszy - musiało tam być jakieś poszerzenie spectrum czy inny ukryty patent.
…
Chciałem jeszcze na moment wrócić do tego Generatora, bo nie dość, że jego interfejs był nieco wymagający, to jeszcze był on bardzo pamięciożerny i cały czas wieszał mi się przy nim komputer. Bo też komputery były w tamtych latach bardzo słabe i nawet MIDI na moim set-upie stanowiło często problem - używałem Cubase’a, odtwarzałem sample z karty APS, a jak jeszcze do tego dochodziło MIDI, to zaczynało mieć czkawkę po jakimś czasie. To była nieustanna walka z żywiołem. Dziś niewyobrażalna, bo często nawet najtańszy laptop udźwignie właściwie wszystko, a wtedy składałem kompa z najlepszych podzespołów jakie mogłem kupić, a on i tak miał problem z dźwiganiem muzy. Im więcej jednak miałem do tego cierpliwości i nie zrażałem się stratami przy restartowaniu systemu, tym bardziej zaczynało to brzmieć ciekawie. Bo znalazłem w końcu w tym Generatorze efekty bliskie saturatorów lampowych i to sprawiło, że bity zaczęły się wreszcie przez to wszystko przegryzać, a bas sunąć po podłodze. I może z perspektywy czasu, nie brzmi to dzisiaj jak jakaś niesamowita ściana dźwięku, ale przy tym co wówczas było dookoła, wydaje mi się, że osiągnąłem naprawdę konkretną moc.
Wróćmy więc może jeszcze teraz na chwilę do wokali o których już wspominałeś przy okazji Rzeczywistości i Znowu lato.
Pisanie tekstów szło mi zawsze łatwo, szczególnie, że już wcześniej pisałem je dla moich punkowych kapel, ale tu natrafiłem na problem tego, żeby te wszystkie słowa brzmiały atrakcyjnie w takich tempach, na takich bitach. Nieustannie więc przerabiałem to, żeby w kocu mój głos stawał się częścią bitu. Bo jak robiłem bity, to tam wszystko szło szesnastkami i rymy traktowałem jak hi-hat albo loop instrumentu perkusyjnego turlający się po tym bicie; czasem wręcz usuwałem hi-haty, bo wiedziałem, że tam będzie rym, który będzie robił za ten cykacz pomiędzy uderzeniami stopy. Proces był więc taki, że pisałem na początku bardzo surowy tekst, a później go ćwiczyłem i dopasowywałem szczegóły względem tego, żeby to wszystko brzmiało jak jeden wielki mechanizm perkusyjny, żeby się kręciło. To musiało się trzymać bitu, ale jednocześnie musiało się przez niego przedzierać przy czym znów natrafiłem na ten problem co przy „Rzeczywistości”, bo wszystko robiłem w moim domowym studio, gdzie zawsze było pełno ludzi i trudno było mi się od tego wszystkiego oderwać na tyle, żeby skupić się tylko na ekspresji. I tu również finalnie dogadałem się z Macukiem – powiedziałem mu po prostu, że wiesz Marcin, mam problem, musze nagrać wokale na płytę i potrzebuję do tego studia tylko dla siebie, bo to jest coś z wygarem i jak wokół mnie są ludzie, to nie potrafię się na tyle otworzyć, musze być sam. No i on mi dał klucze do swojego studia, gdzie przychodziłem po nocy i sam się rejestrowałem - włączałem record, szedłem do kabiny nagrywać i wracałem nacisnąć stop. Swoją drogą pamiętam, jak się okazało, że nie tylko ja miałem artystyczny konflikt z presją dnia powszedniego. Piętro niżej, nocami działali wówczas ludzie z Quo Vadis - metalowego zespołu dla którego wcześniej już robiłem moje pierwsze hardcorowo-junglowe remixy - i oni wtedy przyszli, że co tu się dzieje, czy to leci z głośników czy ktoś tak drze mordę?!? A ja wyłażę z kabiny i mówię Cześć Tomek - bo się znaliśmy przez te remixy i jeszcze z czasów jak grałem w punkowych kapelach - To ty?!? Ty już nie grasz na gitarze?!? Tylko tak głośno drzesz japę teraz; o ja pierdolę! To wręcz idealny materiał na knajpianą anegdotę mówiącą o tym, że byłem tak głośny, że metalowy zespół przyszedł mnie uciszać, bo nie słyszeli co grają. W rzeczywistości jednak oni chyba tam miksowali materiał w pełnym skupieniu i przyszli sprawdzić co się tu dzieje. I nie chcę tu sobie schlebiać w żaden sposób, ale byłem głośny, tak po prostu miałem - unikalność tej jakości, którą prezentowałem na mikrofonie jest nierozerwalnie związana z jej intensywnością.
Byłeś głośny, a jednocześnie dosyć melodyjny jak na ówczesne około-rapowe standardy…
Bo moje pierwsze rapy były stylizowane na ragga. Słuchałem reggae, dubu i jump-upowego drum’n’bassu, więc moje pierwsze próby wokalne to było toastowanie. Jak graliśmy z moim kumplem DJ’em Calvinem nasze pierwsze wspólne imprezy jungle’owe, to ja brałem do ręki mikrofon i nawijałem tak jak to brzmiało wówczas na większości płyt. W Wielkiej Brytanii była to zwykle nawijka jamajskiego pochodzenia, więc to wydawało mi się najbardziej naturalne. A, że robiłem to po polsku, to zaczęło też od razu ewoluować w jakaś moja stronę - Wini mówił, że jest w tym coś góralskiego, część ludzi mówiła, że jest to prostackie i surowe, a jeszcze inne, że to jest punk, bo co ty byś Oreu nie zrobił, to zawsze będzie punk. Drum’n’bass w tamtych latach to był zresztą punk, metal czy hardcore, tylko za tę teksturę - którą w tych gatunkach tworzyły gitara i bas - odpowiadała tu jeden syntetyczny dźwięk, który miał w sobie podstawę czyli sub i harmoniczne, które wychodzą gdy ścinasz zaokrągloną sinusoidę w kanciasty kwadrat, gdzie każda krawędź dodaje tych hałaśliwych składowych. Problemem w rocku było to, że jeśli nagrywałeś dwie gitary i bas, to miałeś problemy fazowe - w tej kwestii wszystko musi się zgadzać, bo inaczej zaczyna się wykluczać, rozpadać i słabe płyty od tych dobrych odróżnia często właśnie zgodność fazowa. Wtedy masz to pieprznięcie, tę ścianę dźwięku, a na marnych płytach instrumenty często ze sobą konkurują i nikt nie wie co jest grane. W drum’n’bassie natomiast to wszystko idzie z jednego urządzenia czy też sampla, co nikogo koniec końców nie interesuje jeśli to, co wychodzi z głośników gada jak trzeba. Wtedy może to być syntezator albo sampel puszczony przez drogi albo tani distortion - nie ma to znaczenia, skoro jest SOUND.
I to jest chyba dobre podsumowanie tej naszej pogawędki…
Tak, sound jest zawsze najważniejszy. Przy tej płycie jednak nauczyłem się też innych rzeczy - tego, że studio to nie sprzęt, ale przestrzeń z akustyką, reżyserką i ludźmi, którzy mają pojęcie o tym, co robią. Jeśli masz te trzy elementy, to kwestia tego jakiej klasy są tam graty schodzi na dalszy plan; liczy się treść i atmosfera, która pozwala tę treść wydobyć. I też zyskałem pewność tego, że nie zawsze chodzi o to, żeby być… dobrym muzykiem. Bo jeśli nim w jakichś tam dziedzinach zostałem, to przypadkiem, po drodze. Zawsze wolałem żyć muzyką, przeżywać ją i taplać się w niej, niż się na siłę doskonalić i obsesyjnie porównywać z innymi. Ten wyścig to ślepa uliczka i recepta na niespełnienie, bo też nie ma najlepszych muzyków, to złudzenie, zawsze znajdzie się ktoś lepszy. Ile czasu byś nie ćwiczył, po nie ważne ile godzin dziennie, to nawet jak zmarnujesz na to całe życie, w każdym momencie może przyjść ktoś, kto kompletnie bez żadnego przygotowania zagra tę jedną nutkę doprawdy perfekcyjnie i od serca… I co wtedy?