20.04.2017 
Piotr Figiel fot. fot. Raveview

Piotr Figiel opowiada nam m.in. o tym dlaczego wyżej ceni program Cubase niż Ableton, czemu tak chętnie korzysta z saturacji podczas miksowania utworów oraz ile czasu zajęło mu przygotowanie live-act’u w którym głównym instrumentem jest Octatrack. O tym czy był to wystarczający czas możecie przekonać się wideo na którym nasz gość prezentuje swój występ na żywo...

Już dawno w naszym cyklu nie gościliśmy przedstawicieli muzyki techno, więc może na początku zatrzymajmy się przy tym, jak ten gatunek wygląda dzisiaj.

Piotr Figiel: Sądzę, że techno ma się całkiem dobrze i jeszcze przynajmniej przez jakiś czas będzie popularne. Z drugiej strony, niektórzy twierdzą, że rozpoczął się już jego schyłek. Sytuacja jest o tyle trudna do zdiagnozowania, że moda na konkretny styl albo wręcz podgatunek w elektronice w dużej mierze zależy od miejsca, o którym mówimy.

Sądzisz, że ten trend się utrzyma?

Nie wiem, czy jestem dobrym prorokiem, bo ostatnio prognozowałem, że wrócą brzmienia oldskulowe, ale ostatecznie nic takiego się nie zdarzyło i z tego co widzę w tym momencie na popularności zyskują brzmienia lo-fi. Tak jak wspominałem, duże znaczenie ma tutaj kwestia lokalna – ludzie w Berlinie bawią się przy zupełnie innych utworach niż w Moskwie. Dużym zaskoczeniem było dla mnie odkrycie, że ostatnio na wschodzie triumfy święcą hardstyle, gabber i cięższe odmiany techno.  Z kolei np. w Argentynie nieustannie od wielu lat hitem pozostaje progressive house. Trudno wskazać tutaj konkretne przyczyny takiego stanu rzeczy.

A w jaki sposób Ty zainteresowałeś się tą stylistyką?

Może to zabrzmi nieco śmiesznie, ale było to jeszcze za czasów, kiedy chodziłem do gimnazjum, więc dość dawno temu. Muzyką elektroniczną zainteresowałem się głównie przez program Viva Zwei i relacje z imprez takich, jak Love Parade czy Mayday. Wtedy też zacząłem stawiać pierwsze kroki na polu tworzenia własnych dźwięków.

Co było podstawowym budulcem tych utworów?

Na początku była to po prostu zabawa z dźwiękiem, więc wykorzystywałem elementy, które były dołączone do danego programu. Moimi pierwszymi narzędziami były Magix Music Maker, Future Beat i Orion, które dodawano do gazet. Pamiętam Fruity Loopsa, gdzie w wersji demo nie istniała możliwość zapisu efektów pracy. Jedynym sposobem na utrwalenie tego co zrobiłem było nagranie utworu na kasetę magnetofonową. To wszystko ciągle jednak przypominało zabawę muzyką, a dopiero na studiach zobaczyłem, że mogę zajmować się tym profesjonalnie. Studiowałem informatykę stosowaną, a później - inżynierię akustyczną.

Zobacz także test wideo:
Technics EAH-A800 - bezprzewodowe słuchawki z redukcją szumów
Technics EAH-A800 - bezprzewodowe słuchawki z redukcją szumów
Wszystkim osobom dorastającym w latach 70. i 80. minionego wieku należąca do Panasonica marka Technics nieodmiennie kojarzy się z gramofonami oraz doskonałym sprzętem hi-fi.

Informatyka dużo Ci dała, jeśli chodzi o produkcję muzyki?

Na pewno nauczyłem się tam szczegółowego obycia z komputerem. Wydaje mi się, że studia wymusiły też na mnie analityczne myślenie. Przypuszczam, że pozwala mi to dzisiaj rozwiązywać  niektóre problemy szybciej. Na pewno pomogło mi to w zrozumieniu podstaw teorii sygnałów i całego cyfrowego przetwarzania oraz zjawisk, które przy okazji tam zachodzą. Dzięki temu lepiej również rozumiem, co dzieje się, kiedy robię mastering czy miks.

Zanim przejdziemy do kwestii związanych z postrodukcją, wróćmy jeszcze do DAWa, bo zatrzymaliśmy się na etapie dema Fruity Loopsa.

Później był jeszcze okres, w którym mocowałem się z Reasonem, ale ostatecznie do dzisiaj głównym programem, w którym pracuję, jest Cubase. Mam oczywiście też Abletona, ale nie do końca pasuje mi jego workflow. Pewnie gdybym miał z niego korzystać, to z pushem, czyli bardziej na zasadzie instrumentu niż DAWa. Często używam też różnego rodzaju przetwarzania równoległego i przez lata pracy na różnych platformach, bo był to jeszcze Logic i Pro Tools, zawsze działy się z tym jakieś dziwne rzeczy. Moim zdaniem, kompensacja latencji, przynajmniej w momencie, kiedy to testowałem, nie działała tam dobrze. Dlatego ostatecznie zostałem przy programie Cubase.

W studiu pracujesz głównie w środowisku cyfrowym czy korzystasz również z syntezatorów analogowych?

Rzeczywiście poruszam się raczej w cyfrze, ale posiadam też sprzęty analogowe. Jestem wielkim fanem wyśmiewanych przez wszystkich instrumentów Korg Volca, które po prostu uwielbiam. Są małe, tanie, ale można na nich zrobić sporo interesujących rzeczy. Mam też Octatracka, który służy głównie do grania live, choć tak naprawdę jest to przecież cyfrowa maszynka zamknięta w pudełku. Oprócz tego Mutable Instruments Shruthi-1 i PreenFM2, z których korzystam zarówno podczas pracy w studiu, jak i na scenie. To bardzo mały i skromny, ale jednocześnie dość potężny setup, z którego staram się wycisnąć jak najwięcej. Zdaję sobie sprawę, że panuje teraz moda na analoga i niektórzy mam wrażenie brną trochę ślepo w tę stronę.

Zauważasz coś takiego jak moda na analoga?

Jasne. Myślę, że wszyscy to zauważają. Kolejny raz nastąpiło wahnięcie trendów, bo jeszcze na początku lat 2000, kiedy cyfra stawała się popularna, ludziom trochę odechciało się korzystać z analogów i na potęgę wyprzedawali swoje studia. Teraz znowu wracamy na stronę analogową, po okresie zachłyśnięcia się możliwościami, jakie daje środowisko cyfrowe.

Co o tym myślisz?

Zdaję sobie sprawę, że wybór między cyfrą a analogiem nie jest do końca obojętny dla brzmienia czy choćby dla workflow w studio, ale kluczowe wydaje mi się pytanie o to, czy słuchacz jest w stanie rozpoznać różnicę i czy właściwie ma to dla niego znaczenie. Obserwując np. Pensado’s Place czy też inne materiały związane z zagadnieniami studyjnymi, widać, że bardzo wiele osób, które zjadło na tym zęby, porzuca analogowe sprzęty na rzecz rozwiązań oferowanych przez software. Chociażby Andrew Scheps mówi wprost, że od jakiegoś czasu miksuje wyłącznie w środowisku cyfrowym i  - co najważniejsze - finalny odbiorca nie słyszy różnicy. Pojawia się zatem pytanie, czy koszt, który trzeba ponieść, aby wyposażyć studio w analogi i czas, który trzeba poświęcić choćby na recall, przynoszą wymierne korzyści. Osobiście uważam, że stworzenie dobrze brzmiącego utworu, tylko na sprzęcie analogowym wymaga sporych umiejętności, z czego niekoniecznie początkujący producenci mogą sobie zdawać sprawę.

Trzeba też poświęcić niemało czasu na poznanie danego urządzenia.

To oczywiście zależy od instrumentu, bo jednak możemy podjąć pierwsze kroki, nie znając dogłębnie danego narzędzia, ale żeby poznać pełnię możliwości, trzeba czasu. No i oczywiście sama obsługa urządzenia to ta najprostsza część z całej zabawy. Przykładowo, opanowanie podstawowych funkcji Octatracka zajęło mi jakiś tydzień. Wymyślenie jak z niego zagrać na żywo i przygotowanie materiału pod ten pomysł zajęło 3 miesiące czasu i kilka wersji materiału, zanim doszedłem do wygodnej dla mnie formy grania.

Zdaję sobie sprawę, że wybór między cyfrą a analogiem nie jest do końca obojętny dla brzmienia ale kluczowe wydaje mi się pytanie o to, czy słuchacz jest w stanie rozpoznać różnicę i czy właściwie ma to dla niego znaczenie.

Domyślam się, że wykształcenie informatyczne też jakoś Cię ukierunkowało w tę stronę…

Pewnie tak, bo rzeczywiście nie mam problemu, żeby do czegoś usiąść i głębiej to zbadać. Ostatnio jeden ze znajomych zapytał mnie, czy to prawda, że dźwięk po nagraniu na Octatracka jest płaski. Stwierdziłem, że nigdy nie zwróciłem na to uwagi, więc zaciekawiony zagadnieniem,  przez dwa wieczory testowałem go na różne sposoby. Ostatecznie nie udało mi się obiektywnie wykazać, czy rzeczywiście tak jest i stwierdziłem, że szkoda na to czasu. Czasem ciągnie mnie w takie dziwne strony…

Problemów, których nie da się rozwiązać?

Raczej bardzo specyficznych zagadnień. Lubię wiedzieć jak pewne rzeczy działają już u samego źródła a takie zestawienia w jakiś sposób otwierają mi oczy i uszy, karmiąc jednocześnie zapędy mojego wewnętrznego naukowca. Przykładowo kiedyś robiłem porównania różnych częstotliwości próbkowania przy dosyć sporym przetwarzaniu w DAWie, porównania kilkunastu wtyczkowych klonów SSL G-Compressor’a, badanie charakterystyki częstotliwościowej Volca Sample etc. Takie ultra geekowskie rozkminy, które dla purystów będą miały fundamentalne znaczenie, ale dla normalnego użytkownika czy słuchacza niekoniecznie. W końcu najważniejsza w tym wszystkim jest muzyka.

Zatem w jaki sposób - najczęściej - rozpoczynasz pracę nad swoim utworem?

Z reguły zaczynam od rytmu, od sekcji perkusyjnej i czegoś, co Amerykanie nazwaliby „hook”, a na co nie ma dobrego polskiego określenia. Chodzi o motyw lub element, który pociągnie cały utwór do przodu – może być to jakiś dziwny loop, groove, melodia etc. Ważne dla mnie jest szybkie przejście od pomysłu do jego wykonania, dlatego przygotowałem sobie w Cubase template z gotowymi ścieżkami, grupami, efektami, instrumentami i ich konfiguracją. Nie oznacza to oczywiście “presetologii stosowanej” - po prostu nie muszę się zastanawiać nad tym co uruchomić i jak skonfigurować, tylko przechodzę od razu do pracy.

Niedawno ukazała się Twoja EP-ka...

Tak, EP-ka „Traces” wyszła w Lost in Ether Records. Na ten materiał złożyły się utwory, które powstawały w różnym czasie, a finalnie okazało się, że idealnie się uzupełniają. A więc jest tam utwór z mojego niedoszłego albumu; poza tym, kawałek, którego główny motyw powstał z dźwięków z pociętej taśmy. Do tego numer, który miał już 3 inne życia i dopiero na tej EP-ce przybrał ostateczną formę. Całości dopełnia tzw. “szybka piosenka”, czyli taka, która powstała w 3 godziny na kanapie. Poza moją działalnością solową skupioną na techno, wspólnie z Dominikiem Gawrońskim tworzymy projekt nieco bardziej “piosenkowy”. Nazywa się Krakowitz i próbujemy w nim przywołać nostalgię lat dziecięcych. Jest to muzyka wpadająca w ucho, oparta  na melodii, atmosferze i emocji, którą próbujemy tam zawrzeć. Wydaje mi się, że w tym projekcie świetnie się uzupełniamy. Dominik jest lepszy w pisaniu melodii, natomiast ja w sound designie, wspólnie składamy utwory z naszych pomysłów, a potem ja siedzę i szlifuję finalne brzmienie.

Opowiedz, w jaki sposób to robisz.

Na ten moment, w dużej mierze intuicyjnie zgodnie z pomysłem, który mam w głowie. To, co wydaje mi się najważniejsze, to brzmienie dźwięku już u samego źródła i jeszcze wcześniej - jego miejsce w aranżacji. Nie ma nic gorszego niż źle zaaranżowany utwór, w którym różne instrumenty grają w tym samym rejestrze. Takie ciężkie do zmiksowania koszmarki to grzech każdego początkującego producenta. Dlatego zawsze już na samym etapie wymyślania numeru staram się uzyskać dobre brzmienie, tak żeby miks ograniczał się do cząstkowej equalizacji i automatyki której staram się jak najwięcej używać.

A co robisz, kiedy dostajesz takie skopane nagranie?

Staram się współpracować z artystami tak, żeby mieli świadomość, że nie wszystko jestem w stanie naprawić w procesie miksu czy masteringu. Bardzo często po prostu proszę o poprawki lub sugeruję, co można by zmienić, aby uzyskać lepszy efekt. Czasem sam wprowadzam poprawki na bazie materiału źródłowego, oczywiście w porozumieniu i za zgodą  autora utworu.

Wyobrażam sobie, że takie zwracanie uwagi może spotkać się z dużym oporem.

Trzeba się nauczyć empatii w stosunku do artystów z którymi pracujesz, ale to dotyczy przecież każdej branży, w której pod uwagę bierzemy czyjś gust. Wydaje mi się też, że nie ma czegoś takiego, jak jedno brzmienie, które jest obiektywnie uważane za najlepsze. Każdy odbiera muzykę trochę inaczej, więc trzeba mieć to w głowie pracując z innymi ludźmi.

Zdradzisz nam swoje ulubione patenty, które stosujesz w miksie?

Coś, do czego doszedłem po długim czasie, to kwestia kompresji, a właściwie jej nadużywania. Im mniej jej używam, tym osiągam lepsze efekty. Zamiast kompresji, raczej korzystam z saturacji, która  w pewnym sensie robi to samo. Mam wrażenie, że “klasyczne” kompresory czy to w formie softwarowej czy hardware’owej lepiej jednak sprawdzają się, na żywym, akustycznym, dość zmiennym materiale, niż na mocno powtarzalnej elektronice. Tutaj wg. mnie lepiej sprawdzi się automatyka, czy po prostu powrót do źródła, jeżeli jest taka możliwość. Przykładowy problem: “brak punchu”, pierwsze co przychodzi na myśl - kompresujemy, a dla mnie dużo lepszy rezultat daje pogrzebanie w obwiedni ADSR syntezatora czy samplera i potem użycie lekkiej saturacji. Saturacja ma tę zaletę, że nie musimy się martwić o attack i release, które źle ustawione w kompresorze powodują nienaturalne pompowanie, “zjadanie” transjentów co w efekcie oddala dźwięk.

Pomówmy teraz o masteringu.

Generalnie, staram się trzymać zasady „less is more” i zazwyczaj udaje mi się osiągnąć zadowalające rezultaty z użyciem tylko EQ, lekkiej kompresji i limitera. Jeżeli dany utwór nie wymaga użycia jakiegoś narzędzia, to go po prostu nie używam. Te z których korzystam, stosuję najbardziej transparentnie jak się da - w szczególności kompresję i limiting. Dla mnie cały proces masteringu to kwestia znalezienia odpowiedniego balansu tonalnego utworu w kontekście całego albumu czy EP-ki oraz jego optymalizacja pod kątem dobrej translacji na innych systemach. Kwestia głośności jest dla mnie drugorzędna, zależy od materiału, który dostanę i od konkretnych wymagań klienta, które ustalamy przed rozpoczęciem pracy. Zdarza się czasem tak, że materiał wejściowy nie jest na tyle głośny, żeby spełnić te wymagania, wtedy zaczyna się gimnastyka i sprawdzanie, które tricki z arsenału się sprawdzą. Jednym z nich jest, tak jak w miksie, odpowiednia saturacja i choć nie jest to w żadnym wypadku proces transparenty, użyty subtelnie, na szczytach sygnału, pozwala na podniesienie poziomu nagrania bez negatywnych skutków użycia kompresora czy mocno pracującego limitera.

Jakich narzędzi używasz do masteringu?

Jak już chyba wspominałem, korzystam zarówno z narzędzi cyfrowych, jak i analogowych. Po stronie cyfrowej będą to PSP Neon, PSP Xenon, Brainworx dynEQ, Waves C4, Waves L2, a także Sonnox Inflator. Do tego dochodzą mierniki: Voxengo SPAN, PSP Triple Meter, miernik LUFS i Stereo Enhancer z Cubase. Jeżeli natomiast chodzi o hardware, to jest to Interfejs RME UCX, API Lunchbox z Elysia XFilter, Bettermaker 502P i Elysia XPressor. Wspomniana saturacja jest cyfrowa, chyba, że wpadnę na “dziki” pomysł przesterowania wejścia przetwornika. Czasem tak robię.

Jak często?

Przez ostatni rok zdarzyło mi się bodaj trzy razy. Chociaż tak jak wspominałem, w masteringu ważna jest dla mnie transparentność, czasem świadomie z niej rezygnuję. Jeżeli materiał się nadaje do tego typu “eksperymentów” albo artysta ma jakąś konkretną wizję i efekt jest super to czemu nie pójść na całość. Niekiedy warto sprawdzić rzeczy, za które w szkole inżynierii dźwięku by Cię zjedli.

W masteringu ważna jest dla mnie transparentność ale czasem świadomie z niej rezygnuję. Niekiedy warto sprawdzić rzeczy, za które w szkole inżynierii dźwięku by Cię "zjedli".

Stosujesz więcej takich zabiegów?

Zdarza się. Szczególnie w produkcji i miksie przestałem się krygować i działam według zasady „if it sounds good, it sounds good”. Kiedyś bardzo się przejmowałem różnego rodzaju “dobrymi praktykami”, ale patrząc z perspektywy czasu widzę, że nie była to dobra droga. Odrzuciłem wszelkie wykładnie typu „nie można podbić na equalizerze więcej niż 6 decybeli”. No bo w zasadzie dlaczego nie? Szczególnie podczas sound designu, tego typu reguły do niczego sensownego nie prowadzą. Jakiś czas temu widziałem dyskusję na forum dzwiek.org, gdzie siedzi czołówka polskich realizatorów, dotyczącą clippingu sumy i przetworników. Kilku uczestników tej wymiany zdań stwierdziło, że zdarza się im clippować cyfrowo sumę wewnątrz DAWa, nie wychodząc na zewnątrz… Więc jeśli w ten sposób osiągasz efekt, o który chodziło, to czemu nie.

Artykuł pochodzi z numeru:
Nowe wydanie Estrada i Studio
Estrada i Studio
marzec 2017
Kup teraz
Star icon
Produkty miesiąca
Earthworks SR117 - mikrofon pojemnościowy wokalny
Sennheiser HD 490 PRO Plus - słuchawki studyjne
Close icon
Poczekaj, czy zapisałeś się na nasz newsletter?
Zapisując się na nasz newsletter możesz otrzymać GRATIS wybrane e-wydanie jednego z naszych magazynó