17.05.2018  | Piotr Lenartowicz
Duy Gebord fot. Filip Antczak

Radosław Sirko, bo tak naprawdę nazywa się artysta kryjący się pod pseudonimem Duy Gebord nie narzeka na brak zajęć - współprowadzi label Audile Snow, pisze doktorat o możliwych wykorzystaniach dźwięków oraz cały czas produkuje i wydaje swoją muzykę. W naszej rozmowie zasadniczo poruszyliśmy wszystkie z ww. tematów, jednak z pewnością każde z zagadnień wymagałoby oddzielnego opracowania.

Twój najnowszy materiał ukazał się na kasecie w Pointless Geometry, ale nie zamierzam pytać o stosunek jaki masz do tego konkretnego nośnika, bo przecież we współprowadzonej przez ciebie oficynie Audile Snow wydajecie muzykę...

Duy Gebord: ...na kartach microSD. To był pomysł Nerki, z którą wspólnie prowadzimy nasz mały label. Szanujemy labele naszych znajomych i serdecznie im kibicujemy, niemniej nagrywanie muzyki na taśmę lub tłoczenie jej na winylu w 2018 roku może się już jawić jako coś wtórnego. Artysta i tak zawsze przekazuje wydawcy pliki w formacie WAV. A ponieważ wydajemy muzykę cyfrową, można powiedzieć, że taka forma jest bliższa źródłom tej muzyki. Co więcej, w taki sposób jesteśmy w stanie zagwarantować dużo lepszą jakość niż chociażby na płytach CD, ponieważ używane przez nas karty microSD mają pojemność 2 GB. Dzięki temu możemy umieścić na nich pliki WAV 24-bit. Nie chcemy się jednak z nikim ścigać, bo nie o to chodzi. Zresztą wydawanie muzyki to tak naprawdę niewiele więcej niż zamykanie fali akustycznej w plastiku i ładne jej opakowywanie. W planie egzystencjalnym taka czynność nie jest specjalnie wzniosła ani nie ma jakiegoś głębszego sensu.

To prawda, jednak cały czas produkujesz i publikujesz kolejne nagrania.

Bo sprawia mi to dużą przyjemność. Moje albumy to dla mnie punkty odniesienia i potrzebuję co jakiś czas uwolnić się od naprodukowanej muzyki. Poprzedni album Labyrinthine Hydrops wydałem w taki sposób, że wrzuciłem go do internetu na godzinę, po czym usunąłem. Każdy kto chciał, mógł go sobie ściągnąć, reupować, wrzucić na jakikolwiek p2p, wydać w swoim labelu albo podpisać swoim nazwiskiem. To zamiłowanie do niestandardowych sposobów wydawania wzięło się prawdopodobnie stąd, że pisałem magisterkę o japanoisie i bardzo podobały mi się te wszystkie sytuacje, gdzie artyści wykonywali działania jakby „w poprzek” tradycyjnemu wypuszczaniu muzyki i jej promocji. W 1989 roku Gerogerigegege celowo wydali jeden ze swoich albumów (Showa) jako album zespołu Ramones Britzkrieg ‘75 (Demo Tracks), bez jakiejkolwiek wzmianki na swój temat. Notabene cały album składał się z field recordingu pary uprawiającej seks na tle hymnu Japonii. Albo Noisembryo Merzbowa, które zostało umieszczone w zepsutym odtwarzaczu samochodowym – tak, aby nie dało się go wyciągnąć i aby kupić również samochód, który stanowił jego „opakowanie”. Takie działania można byłoby określić mianem sabotażu, ja traktuję je jako konceptualne.

Poza takim niestandardowym myśleniem o nośniku omawiana stylistyka odpowiadała Ci również pod względem samej muzyki?

Tak, bo muzyka to tylko jeden z modusów funkcjonowania dźwięku. Muzyka jako suma przebiegów przez pewne wysokości w czasie, które wpisują się w struktury melodyczne, rytmiczne i harmoniczne; przebiegów, które są animowane przez instrumenty o stroju równomiernie temperowanym – taka muzyka jest nawet nie tyle nudna, co szkodliwa. Dlatego właśnie noise wydał mi się kiedyś atrakcyjny. Przez lata zajmowałem się dźwiękiem teoretycznie, prowadziłem poszukiwania, nazwijmy je semantyczno-strukturalne, starając się odpowiedzieć na pytanie, czy dźwięki same z siebie mogą cokolwiek znaczyć. Najczęściej nie, niemniej są takie zjawiska dźwiękowe, które niezależnie od kontekstu znaczą – na przykład cisza czy właśnie noise. Następnie zastanawiałem się, jak wyjść poza ten impas noise’u. Badając ten nurt pod kątem fenomenu kulturowego jesteśmy w stanie powiedzieć sporo, ale ostatecznie dochodzimy do pewnej ściany ekstremum. Później pisałem (m.in. do Glissanda i Opcji) o różnych eksperymentach artystycznych, które starają się wyjść poza tę standardową sytuację koncertową, o muzyce zwierząt i roślin, o historii zapisu dźwięku. Przede wszystkim o tym, że dźwięk może być autonomicznym, artystycznym bytem, który jest w stanie coś znaczyć, ale najczęściej tylko w danym kontekście. Bardzo chciałem znaleźć w tym, że zajmuję się dźwiękiem, jakiś sens, dlatego ostatecznie skupiłem się na sytuacjach, w których dźwięk faktycznie coś zmienia i ma fizyczny wpływ na rzeczywistość. I teraz piszę o tym doktorat.

O czym konkretnie?

Piszę właśnie o tych wszystkich innych wykorzystaniach dźwięków, np. o ultradźwiękach, które służą do podgrzewania, zamrażania, i czyszczenia; czy o infradźwiękach, których używa się jako broni akustycznej. Ale też o sytuacjach artystycznych, które wykorzystują te inne właściwości dźwięku. Na przykład cymatyka, czyli poruszanie cieczami za pomocą dźwięków i tworzenie z nich form przestrzenno-kinetycznych. Ostatnio zajmuję się głównie tym, a moja autorska muzyka powstaje jakby „po drodze”.

„Kiedy już wszedłem głębiej w Abletona, to zacząłem odchodzić od noise’u i bardziej bawić się brzmieniami, syntezą, bitem”

fot. Filip Antczak

A zdarza się, że wykorzystujesz te inne właściwości dźwięków w swojej muzyce?

Na razie nie potrafię. Jestem dopiero na etapie, na którym czytam o nich i je odkrywam. Część z nich jest słabo rozpoznana, np. sonoluminescencja, czyli zjawisko, podczas którego ultradźwięki oscylują tak szybko, że emitują światło. Tego jest naprawdę dużo – DOSy (narkotyki dźwiękowe), otoemisja akustyczna, akustoforeza, holografia akustyczna czy cała ta kultura zorientowana wokół częstotliwości 432 Hz. To tu dobrze widać przykłady takiego myślenia, że dźwięk jest siłą w sposób konkretny wpływającą na rzeczywistość. Podoba mi się to podejście, choć akurat argumenty orędowników częstotliwości 432 Hz to stek bzdur. Jakiś czas temu napisałem tekst o polskim sound arcie i podczas zbierania materiałów dowiedziałem się o pracy Przemka Saneckiego. Grał on koncert na ultradźwięki w Obornikach Śląskich. Całość polegała na tym, że słychać było jedynie wyjące w okolicy psy. Tak więc, co jakiś czas zdarzają się takie inicjatywy, że ktoś bawi się podobnymi zjawiskami.

Zastanawia mnie, co dokładnie miałeś na myśli mówiąc, że muzyka jest szkodliwa.

Muzyka ma w kulturze ogromną wartość. Jest dziedziną sztuki, formą ekspresji, sposobem komunikacji, nośnikiem subkultur, ideologii i religii. Słucham bardzo dużo muzyki, często po kilka nowych albumów dziennie. Jednocześnie muzyka została wynaleziona przez człowieka (choć jest to uproszczenie, czego dowodzą badania zoomuzykologiczne: nie tylko człowiek wynalazł muzykę) w celu umilenia czasu przy pracy. Więc jej prymarna funkcja to narzędzie do spędzania czasu. To, że potrafi być elementem zabawy, jest wspaniałe, w tym zawiera się jej potencjalna subwersywność: zabawa jest z jednej strony czynnikiem socjalizującym, a z drugiej towarzyszy różnego rodzaju rytuałom przejścia. Natomiast szkodliwy jest skostniały, akademicki puryzm, dla którego muzyką pozostaje niezmiennie coś, co można zapisać za pomocą nut, a coś innego już niekoniecznie. To podejście antyrozwojowe, którego skutkiem jest na przykład to, że aby zgłosić utwór do ZaiKSu, trzeba podać jego zapis nutowy. Dla muzyka eksperymentalnego to zwyczajnie śmieszne. Niezbyt dobrze wspominam też naukę gry na keyboardzie i na gitarze w szkołach muzycznych. W takich miejscach najczęściej prezentowana bywa optyka, w ramach której istnieje tylko kilka możliwości typu „dobrze” i nieskończona ilość możliwości typu „źle”. Wyobrażam sobie, że posiadanie słuchu absolutnego musi być piekłem.

To, że prowadzisz warsztaty z Abletona, wynika właśnie z twojej pracy naukowej?

Zobacz także test wideo:
Technics EAH-A800 - bezprzewodowe słuchawki z redukcją szumów
Technics EAH-A800 - bezprzewodowe słuchawki z redukcją szumów
Wszystkim osobom dorastającym w latach 70. i 80. minionego wieku należąca do Panasonica marka Technics nieodmiennie kojarzy się z gramofonami oraz doskonałym sprzętem hi-fi.

Szczerze mówiąc, w tej chwili robię to przede wszystkim dlatego, że mam „do odrobienia” trochę godzin zajęć na doktoracie. Ale prowadziłem takie warsztaty też wcześniej, między innymi na zaproszenie zaprzyjaźnionego Biura Dźwięku Katowice. Abletona nauczyłem się sam, po prostu pewnego dnia powiedziałem sobie, że moja pierwsza sesja będzie pierwszym utworem. Wcześniej kombinowałem z Fruity Loopsem, ale jakoś się nie zaprzyjaźniliśmy. To było dwa-trzy lata przed projektem Duy Gebord. W tym samym czasie zacząłem studiować realizację dźwięku, na której mieliśmy zajęcia z montażu. Były potwornie nudne – montowanie przez kilka miesięcy kilkunastu śladów jakiegoś zespołu rockowego. Korzystałem wtedy z Samplitude, po drodze przy okazji różnych praktyk i staży w radiach i studiach, nauczyłem się trochę Cubase, Nuendo i Pro Tools. No, ale to wszystko służyło bardziej do montażu niż produkcji, a ja od początku chciałem robić swoją muzyczkę. Ponieważ pamiętam, jak ciężko było mi zabrać się za naukę programu od zera, teraz pokazuję to innym. Kilka godzin na zasadzie „ten klocek to jest dźwięk, a ten klocek to jest sygnał MIDI, można z nimi robić to i tamto, a tak się robi bicik, a tak się gra na żywo”.

„Hardware jest dla mnie tylko źródłem sygnału do późniejszej obróbki – i tak najważniejszy pozostaje komputer”

fot. Filip Antczak

Początkowo, podczas pracy nad swoimi autorskimi produkcjami, poruszałeś się właśnie w środowisku cyfrowym?

Przy kompozycji – tak, od początku pracowałem w środowisku cyfrowym. Natomiast pierwsze występy muzyczne opierały się na analogach. Moim pierwszym instrumentem był mikser, którym grałem no inputowo, do tego kostki gitarowe, gitara z elektrycznym pilnikiem do paznokci, który pobudzał struny, i przesterowana płyta gramofonowa z lekcją angielskiego. Kiedy już wszedłem głębiej w Abletona, to zacząłem odchodzić od noise’u i bardziej bawić się brzmieniami, syntezą, bitem. Potem kupiłem Yamahę RM1x, która ma jeszcze port na dyskietki, później Rolanda MC-505, jakieś graty za półdarmo od kolegów, SU200, Volki i jakiś moduł.

Lubisz poznawać dokładnie instrumenty, zanim zaczniesz na nich nagrywać?

Znam je na swój sposób, bo nigdy nie chce mi się czytać instrukcji do końca. Czasami spinam je przez MIDI jakoś dziwacznie, ale nigdy niczego nie spaliłem. Można powiedzieć, że bardziej wydobywam z nich dźwięki, niż na nich gram. Hardware jest dla mnie tylko źródłem sygnału do późniejszej obróbki – i tak najważniejszy pozostaje komputer.

W Abletonie korzystasz z wielu wtyczek?

Mam swoje ulubione wtyczki, z których korzystam w taki mój „własny” sposób, np. Addictive Drums. Często kopiuję z nich same paterny MIDI i wrzucam na inne instrumenty. Albo Guitar Rig, w którym parę audio-chainów producenckich ma ładne brzmienie i potem trzymam taką wtyczkę w sesji live, choć sporo waży i czasem zacina mi kompa. Ostatnio korzystam też z U-he Satin, czyli wtyczki imitującej brzmienia taśmowego reverbu i delaya. Używam też, choć bardziej przy masterze, takiego jednogałkowca YOU WA SHOCK!, który wrzucam sobie na basy. Zazwyczaj kopiuję suchy bas i ten z tym efektem, bo można z nim mocno przegiąć. Czasami robię też takie rzeczy około-soundartowe. Na przykład: gdy odzyskiwałem pliki z dysku, program odnalazł też dużo audio-śmieci, takich sekundowych fragmentów z gier, filmów itp., i wszystkiego tego ciągle używam. Bawiłem się też kiedyś w data bending: zapisywanie pliku WAV jako TXT, potem TXT jako BMP i z powrotem. Powstają z tego różne ciekawe glitche. Albo otwieranie różnych plików jako raw data w Audacity. Mam dużo pomysłów, które chciałbym przemycić i założyć może bandcampa z takimi materiałami, gdzie sam koncept będzie już „dziełem”.

Jaki masz stosunek do sprzętu i technikaliów? Śledzisz nowinki czy wychodzisz z założenia, że na wszystkim da się coś „ukręcić”?

Reprezentuję raczej to drugie podejście. Śledzę nowinki w zakresie pewnych odkryć – na przykład ostatnio czytałem o mikrofonie kwantowym, który jest w stanie wyłapywać najdrobniejsze drgania i za pomocą którego można uchwycić dźwięk pojedynczego atomu. Albo o wizualnym mikrofonie, czyli algorytmie umożliwiającym rekonstrukcję dźwięków z samego obrazu wideo, który zarejestrował drgania przedmiotów. Te rzeczy interesują mnie bardziej niż to, że jakaś firma wypuściła kolejną wersję produktu do robienia tego samego, na którą i tak mnie nie stać.

Wspominałeś o masteringu. Rozumiem, że nad postprodukcją pracujesz w domenie cyfrowej?

Zasadniczo polega to na tym, że biorę track i kopiuję go kilka razy. Następnie na korektorze obcinam kolejne ślady zakresami, ale zostawiam sobie jeden czysty do miksu i jeden czysty do podsłuchu. Na grupę czasami wrzucam Neutral Mastering z Abletona i skręcam Gain. Przez to materiał podlega ekspansji, która czyni track bardziej dynamicznym. A reszta to równanie poziomów i precyzyjna korekcja, wycinanie rezonujących częstotliwości. Ludzkie ucho tak działa, że jeżeli coś jest głośniejsze, to wydaje się lepiej brzmiące, więc czasami wystarczy po prostu nałożyć to samo na siebie. Może jest to też kwestia izofonów? W każdym razie zamiast dawać głośniej na suwaku, kompresorze lub Utility, uzyskuję wrażenie większej głośności w bardziej naturalny sposób. A przy okazji pojawia się niewielki reverb, który też sprawia, że materiał nie brzmi jak pchany prosto do ucha.

Artykuł pochodzi z numeru:
Nowe wydanie Estrada i Studio
Estrada i Studio
kwiecień 2018
Kup teraz
Star icon
Produkty miesiąca
Earthworks SR117 - mikrofon pojemnościowy wokalny
Sennheiser HD 490 PRO Plus - słuchawki studyjne
Close icon
Poczekaj, czy zapisałeś się na nasz newsletter?
Zapisując się na nasz newsletter możesz otrzymać GRATIS wybrane e-wydanie jednego z naszych magazynó