Zarówno sam budynek jak i działka przy ul. Rakowieckiej 21 zostały zakupione przez Skarb Państwa w 2014 r. Jest to zbudowany na przełomie XIX i XX wieku dla Warszawskiego Towarzystwa Dobroczynności dawny Dom Sierot Dziewcząt WTD i Zakład Opatrzności Bożej dla Sierot Dziewcząt. Ze wskazaniem projektanta tego wyniosłego, czterokondygnacyjnego, ceglanego i (ponoć) neogotyckiego budynku są pewne kłopoty. Jedne źródła jako autora wymieniają Władysława Kozłowskiego, a inne (z epoki) Apoloniusza Nieniewskiego lub Władysława Marconiego. Niemniej budynek przetrwał II wojnę światową, a po niej mieścił się tam dom dziecka i Warszawskie Centrum Pomocy Rodzinie.
W czerwcu 2015 ogłoszono konkurs na opracowanie koncepcji architektonicznej nowej siedziby ZPSM Nr 1, w którym wygrał projekt Konior Studio Tomasza Koniora (Akademia Muzyczna w Katowicach, Narodowa Orkiestra Symfoniczna Polskiego Radia). Powstała sala koncertowa, której akustykę zaprojektował Yasuhisa Toyota – dyrektor i główny projektant Nagata Acoustics z Los Angeles i Tokio (Elbphilharmonie w Hamburgu, Walt Disney Concert Hall, Bard College Performing Arts w Nowym Jorku, Suntory Hall w Tokio itd.). Można więc mówić o dziele wybitnym, tak pod kątem architektonicznym jak i akustycznym.
Z Panem Tadeuszem Mieczkowskim, który został konsultantem tego projektu od strony techniki studyjnej, miałem niewątpliwą przyjemność spotkać się i przeprowadzić rozmowę właśnie w tej sali. Ma ona amfiteatralną widownię i mieści ponad 300 osób oraz estradę dla 75 muzyków. Sala jest pomieszczeniem wolnostojącym w otwartej przestrzeni wnętrza budynku, co zapewnia dodatkową izolację akustyczną.
Tadeusz Mieczkowski - Regułą jest to, że nie ma reguł
Tadeusz Mieczkowski i Tomasz Wróblewski w sali koncertowej Zespołu Państwowych Szkół Muzycznych nr 1 w Warszawie.
Gdy przed naszym spotkaniem, przejrzałem dla odświeżenia Pańską filmografię i dyskografię, to na AllMusic ma Pan blisko 100 zrealizowanych prac, a na Filmweb ponad 120.
Tadeusz Mieczkowski: Nie czytam tych zestawień, ale kiedyś mnie namówiono, abym się zapisał do Stoartu. Moja praca nie jest chroniona prawami autorskimi; za mało nas jest, nikt się o to nie postarał. Wystąpiłem więc o wykaz nagrań, których dokonałam dla Polskiego Radia na przestrzeni już ponad 30 lat. Po jakimś czasie odebrałem telefon, w którym pani stwierdziła, że odmawia wykonania takiego wydruku, ponieważ doszła już do 92000 pozycji. Ponadto nagrania te nie podlegają ochronie, ponieważ Stoart chroni wyłącznie utwory ukazujące się na twardych nośnikach. W dzisiejszych czasach to już anachronizm, bo za chwilę na dobre pożegnamy się z nośnikami fizycznymi.
Od czego na ogół zaczyna się Pańska praca?
Zazwyczaj producent pyta się mnie, gdzie chciałbym takie nagranie zrobić. Gdy wiem, co mam nagrać, dopasowuję do tego znane mi lub uznane miejsca pod względem akustycznym i technologicznym. Potem pojawiają się kwestie logistyczne. Dokonywałem nagrań w wielu miejscach na świecie – od Polski po Chiny czy Amerykę Północną. W zależności od tego, gdzie jest studio i gdzie jest artysta, tam się robi nagranie. Tak naprawdę koszt tego przedsięwzięcia interesuje mnie najmniej. Gdybym patrzył przez pryzmat finansów i podporządkował się zaleceniu, że bazujemy na przetargach i najniższych kosztach, to wszystko skończyłoby się bardzo źle dla sztuki reżyserskiej. Powstawałyby nagrania przeciętne, słabe, ale tanie.
A jak Pan patrzy na tę kwestię w kontekście aktualnych warunków zwanych pandemicznymi?
Ten stan rzeczy pokazał, że w pewnym sensie dużo da się zrobić w warunkach domowych. Muzycy mogą siedzieć u siebie w domach, że można zrobić orkiestrę, w której jeden muzyk gra w sypialni, drugi w stodole, trzeci w kuchni, a potem wszyscy razem wykonują coś i to jest dzieło. Mam z tym problem, ponieważ dla mnie nie jest to dziełem, a jedynie pokazaniem technologicznych możliwości, że tak się da. Natomiast jakość tego, jest według mnie niestety niska. Zarówno pod względem brzmieniowym jak i akustycznego zintegrowania. Drugim problemem jest to, że przy usadzeniu orkiestry trzeba przestrzegać reguł dystansu społecznego. Muzyk od muzyka ma siedzieć oddalony o dwa metry, co kompletnie zmienia technologię pracy. Stosuje się więc bardzo dużą ilość mikrofonów – praktycznie każdy muzyk ma swój mikrofon podpórkowy, a do tego całe omikrofonowanie opiera się często wyłącznie na mikrofonach podpórkowych.
Czyli rezygnuje się z mikrofonów dla sekcji?
Przeważnie tak, bo to nie ma sensu. Nawet gdy będzie czterdziestu muzyków, to przy takich odległościach między muzykami mikrofon usłyszy tylko 5-6 osób i jakiś nieciekawy dźwięk z tyłu. I to jest problem. Jak zrobić w tych czasach nagranie, które będzie nasycone akustycznie, a nie technologicznie.
Jak w tym kontekście postrzega Pan kwestię tworzenia muzyki, często filmowej, z gotowych sampli orkiestrowych?
Tendencja do zastępowania wszystkiego samplami jest bardzo wyraźna. Najlepsze rozwiązania akustyczno-brzmieniowe uzyskuje się mieszając te technologie, ponieważ nie każdy instrument zachowuje swoją naturalność po spróbkowaniu. Ponadto zastosowanie samplingu pozbawia dzieło interpretacji artysty. Gdy zaprosimy trzech różnych artystów, prosząc ich o nagranie fortepianu do filmu, damy im te same nuty i nagramy w identycznych warunkach akustycznych i technicznych, to za każdym razem wyjdzie co innego. Nie będzie miało znaczenia, czy nagramy to na dwa mikrofony czy na dziesięć.
Czy podpisze się Pan pod stwierdzeniem, że zadaniem reżysera dźwięku jest przede wszystkim uzyskanie najbardziej optymalnych warunków do realizacji nagrania i nie przeszkadzanie artyście w wykonaniu?
Wręcz przeciwnie. Często, zwłaszcza w muzyce filmowej, dźwięk się kreuje, a nie tylko rejestruje. Ponadto praca z muzyką do obrazu nie ma większego sensu bez samego obrazu, a finalny miks bez wszystkich warstw dźwiękowych. Wprawdzie można nagrać muzykę nie widząc filmu, bo kiedyś tak się robiło. Nagrywano muzykę w różnych wariantach wykonawczych, z których konsultant muzyczny wybierał później fragmenty najbardziej pasujące do konkretnych scen. Ja jestem przeciwny takiemu schematowi działania. Z drugiej jednak strony, muzyka do filmu Katyń Andrzeja Wajdy, skomponowana przez Krzysztofa Pendereckiego została napisana wcześniej. Utwory zostały zaadaptowane do potrzeb filmu, ale w tym sensie, że poszczególne fragmenty do konkretnych scen zostały jakby „wyjęte” z zapisu nutowego. Trzeba było im nadać jakieś początki i zakończenia. Z tej perspektywy bardzo istotne jest współdziałanie z artystą. Sesje nagraniowe w ich dosłownym sensie są na ogół krótkie. Czasami sam montaż całego dzieła potrafi trwać rok, ale już samo nagranie to kwestia godzin. Tomasz Stańko nagrywał różne wersje, ale była w zasadzie innym utworem. Nie było mowy o żadnej kompilacji ujęć – musiała być jednolita całość.
Jak wobec tego prezentuje się kwestia podejścia kompozytorów do kwestii wierności wykonania stworzonego przez nich dzieła?
Są tacy, którzy w tym zakresie wymagają bardzo dużej precyzji, ale są też tacy, którzy chcą mieć element interpretacji artysty. To tak jak z reżyserem, który wybrał konkretnego autora właśnie po to, aby uzyskać określone środki wyrazu. Tak samo jest z muzykami. Jeśli te warunki są spełnione, to wychodzą piękne rzeczy i wszyscy wszystkim pomagają. Jeśli mam wysokiej klasy instrumenty, znakomitych muzyków, doskonałe wnętrze, takie jak to [rozmawiamy w niedawno oddanej do użytku sali koncertowej Zespołu Szkół Muzycznych w Warszawie na ulicy Rakowieckiej – przyp. TW], w którym jest pięknie akustycznie i wizualnie, gdzie można operować światłem, by zapewnić muzykom odpowiedni nastrój, gdzie muzyk może widzieć film i mieć wzrokowy kontakt z pozostałymi muzykami, to mogą powstać naprawdę wspaniałe rzeczy.
To oznacza, że sala koncertowa jest w zasadzie sercem w przypadku nagrań orkiestrowych, na przykład na potrzeby filmu.
W samej rzeczy tak właśnie jest. W tym przypadku oprócz sali koncertowej jest również wybudowana reżysernia, do której trafiają sygnały ze wszystkich pomieszczeń dla wykonawców, które znajdują się w tym budynku. Są tu więc dwie sale kameralne, dwie sale organowe, sala klawesynowa, perkusyjna – wszystkie te sale są połączone sieciowo i wyposażone w bardzo dobre przetworniki. Taka była koncepcja tego miejsca, aby móc wszystko połączyć ze wszystkim, zarówno pod względem audio jak i wideo. W sali kameralnej dużej można posadzić zespół albo postawić chór, w sali kameralnej małej można zamontować zestaw instrumentów perkusyjnych, które są z reguły bardzo głośne, w sali koncertowej można posadzić orkiestrę symfoniczną. Można odseparować harfy, które są na ogół bardzo ciche i o ile kompozytor nie przewidział partii harfy tylko w tych miejscach, gdzie inni grają piano, to nie sposób jej usłyszeć. Harfę jest w stanie „przykryć” nawet kwintet smyczkowy, nie mówiąc już o instrumentach dętych blaszanych. W związku z tym trzeba się wspierać technologią pod postacią przystawek i różnego typu innych rozwiązań. Wracając więc do odpowiedzi na jedno z poprzednich pytań – chociażby z tego względu nie są to już te czasy, w których jednym z zadań reżysera dźwięku jest nie przeszkadzać. Technologia ma pomagać artyście, ale trzeba też pomóc artyście w tym, żeby to wykorzystał.
Sala kameralna jest jednym z wielu pomieszczeń znajdujących się w ZSPM, które są cyfrowo połączone z reżysernią.
Co Pan sądzi o mitycznej przewadze sonicznej technologii analogowej nad cyfrową?
Nagrania analogowe mają swoją specyfikę wynikającą z różnego typu zniekształceń występujących na każdym z elementów toru sygnałowego, jednak największym ich problemem jest dla mnie ograniczenie przestrzenne wyłącznie do kanału lewego i prawego. Zmiksowałem kilka potężnych dzieł Wojciecha Kilara i Wojciecha Pendereckiego w systemie Dolby Atmos i to jest zupełnie inny, niedostępny dla analogu świat. Pracowałem też nad płytą tria Leszka Możdżera „Polska”, nagraną w Alverni, którą zmiksowałem w formacie 5.1 pod kątem Super Audio CD. Niestety zainteresowanie tego typu nagraniami jest na świecie znikome i potrzeba pasjonata, który zechce to wydać dla garstki ludzi, którzy takie płyty SACD kupią.
Rośnie natomiast zainteresowanie sprzętem konsumenckim do przestrzennej reprodukcji dźwięku.
Owszem, ale dla mnie dźwięk przestrzenny jest wtedy, kiedy to wszystko ma sens, jest odpowiednio sfazowane, wiadomo, gdzie jest przód, a gdzie tył, że w trakcie miksowania mogę odpowiednio pozycjonować instrumenty – a takie rzeczy jestem w stanie robić tu, na Rakowieckiej. Tu nie chodzi o to, że słychać w dźwięku jak leci strzała z tyłu i trafia aktora z przodu. Nie chodzi też o stacjonarne rozmieszczenie źródeł, ale też o pewną kreację, choćby pod postacią przemieszczających się efektów, rozszerzania panoramy i częstotliwości, choćby w zakresie niskich częstotliwości, co daje niesamowite brzmienie na przykład kontrabasu. Nawet jeśli to nie jest przestrzeń prawdziwa, ale przez kogoś wykreowana, to działa ona pięknie i ja chcę taką przestrzeń. Namacalną sonicznie i powtarzalną, a nie taką, jaką oferują najnowsze laptopy z dźwiękiem przestrzennym, którego największą zaletą jest chyba to, że nie wiadomo co skąd dochodzi i każdy może sobie zmieniać presety.
Jak w Pańskim przypadku wygląda kwestia omikrofonowania instrumentów.
Oczywiście wiem, gdzie należy mikrofony stawiać, ale zanim postawię, obchodzę źródło dźwięku, badam dane pomieszczenie, tu przechylam głowę, tam przechylam głowę, kucam, odwracam się. Potem patrzę, jakie mikrofony mam do dyspozycji, podłączam i dobieram tor sygnałowy. Słucham co z tego wychodzi i koryguję poszczególne elementy. Zdarza się, że czasem coś zupełnie z boku ma wpływ na dźwięk zasadniczy. Kiedyś wszedłem do studia, zacząłem robić nagranie i okazało się, że były tam włączone dodatkowe mikrofony po jakimś innym nagraniu. Przyszedł technik i zapytał, czy może te stojące w kącie mikrofony zabrać, bo i tak ich nie używałem. Gdy je wyniósł, nagle stwierdziłem, że mam gorsze brzmienie! Poprosiłem więc o przyniesienie tych mikrofonów z powrotem i stało się coś takiego, o czym w szkole mówi się, że jest bez sensu. Mikrofony, które w ogóle nie patrzyły na instrument i stały w zupełnie nieadekwatnym miejscu, w ciekawy sposób ubarwiły nagranie.
Regułą jest to, że nie ma reguł?
W moim przypadku tak. Czasem jest tak, że wstaję rano i mówię do siebie, że nie, dziś nie miksuję, nie mam do tego natchnienia. W analogu wszystko było prostsze, bo był kompresor, korektor, tłumik, panorama, wysyłka na pogłos i koniec. Teraz, gdy mam 800 wtyczek (pluginów), to często nie wiem, którą zastosować, czy dwie, czy dziesięć, a jeśli tak, to dlaczego aż tyle lub tylko tyle. W miejscu, w którym teraz jesteśmy, zadbano już o akustykę, a mnie zaproszono do projektu, kiedy trzeba było wpłynąć na to, co się tutaj znajdzie. Centrum tego wszystkie znajduje się w oddzielnym pomieszczeniu – w reżyserni jest w zasadzie tylko kontroler i odsłuch. Od cyfry już nie uciekniemy, wszystko jest gromadzone na serwerach i przez nie obsługiwane. Nie ma już archiwów taśm i płyt, wszystko jest zdigitalizowane. Teraz pod kątem archiwizacji robi się pliki ciągłe i tworzy do nich opisy, obecnie w formacie Cue. Tam są wszelkie informacje, więc bardzo szybko można wyszukać dane nagranie. Tych informacji jest znacznie więcej niż w przypadku kodu ISRC, który pojawił się wraz z płytami CD. Wracając do tego obiektu, zastosowana w nim technologia sprawia, że znajdujący się w dowolnej sali artysta może zobaczyć dyrygenta, który będzie dyrygował w sali koncertowej, mając jednocześnie odsłuch w czasie rzeczywistym. Są miksery personalne i można stworzyć tyle niezależnych miksów, ile będzie mikserów.
Imponująca swoim wyglądem i akustyką sala organowa.
Z miksem realizowanym przez samych muzyków na własne potrzeby jest jednak pewien problem...
Tak, to prawda. W większości przypadków każdy chce najlepiej słyszeć samego siebie, co powoduje, że nie ma zgodności w zakresie artykulacji. Owszem, muzyk ma lepszą kontrolę nad swoją partią, ale gorszą nad kompleksowym wykonaniem w ramach grupy instrumentów. Mając osobisty odsłuch i grając na przemian partie zespołowe i solowe, muzyk traci poczucie gry w grupie i gry solo, za każdym razem grając tak samo. Takiego instrumentu w trybie solo często nie da się wyciągnąć, zwłaszcza w przypadku nagłośnienia. I potem pojawiają się komentarze, że źle nagłośnili, bo nie było słychać solówki... Poza tym, bądźmy szczerzy, nie wszyscy muzycy mają technologiczne podejście. Czasami się okazuje, że przez sześć godzin nagrań u muzyka grała tylko jedna słuchawka. Muzyk wychodzi z sesji i nawet o tym nie wie. On jest w swoim artystycznym świecie, słyszy siebie wewnętrznie i to mu w niczym nie przeszkadzało. W przypadku instrumentów mniejszych, takich jak skrzypce czy altówki, muzycy uwielbiają odsłuch tylko na jedno ucho, bo drugim nasłuchują własnego instrumentu.
W obiekcie, w którym się znajdujemy, jest reżysernia, gdzie cały odsłuch oparto na monitorach Genelec z serii The Once. To też Pański wybór?
Tak, ale w tym względzie u mnie demokracji nie ma. Cały system został skalibrowany tak, aby najlepszy odsłuch był tylko w jednym miejscu – tu, gdzie siedzi reżyser dźwięku. Zawsze tak kalibruję głośniki, aby to reżyser dźwięku miał optymalny monitoring. Technologie cyfrowe, w przeciwieństwie do analogowych pozwalają na to, aby wprowadzić tu np. 192 ścieżki i nie potrzebujemy do tego aż 192 tłumików. Wszystko jest pod ręką.
Dziękuję za rozmowę.
>>>>>>>>>>>>>>>>>>>>>>>>>>
Sala koncertowa i inne
Koncepcja geometrii sali koncertowej autorstwa Konior Studio bazuje na okrągłym obrysie ścian zewnętrznych i wewnętrznych wypukłych żaglach. Miękki kształt i naturalne materiały zapewniają wyjątkowe walory akustyczne i wizualne. Dzięki współpracy z Yasuhisą Toyotą uzyskano najwyższej klasy parametry z pięknie ukształtowanym pogłosem dochodzącym do dwóch sekund. Na każdym etapie projektowania przeprowadzano analizy akustyczne i geometryczne, włącznie z trójwymiarowymi symulacjami komputerowymi.
O znakomitą akustykę zadbano także we wszystkich salach muzycznych. Należą do nich sala kameralna duża mieszcząca 79 osób widowni, sala kameralna mała na 63 osoby i organowa sala kameralna na 91 osoby. Łącznie w budynku znajduje się 118 sal lekcyjnych i studio nagrań. Cała inwestycja jest finansowana ze środków Ministerstwa Kultury i Dziedzictwa Narodowego.
Jeden z elementów systemu nagłośnieniowego sali koncertowej, opartego na rozwiązaniach firmy d&b Technologies.
Jacek Majewski (Konsbud Audio) o Pro Tools i monitorach
Jako element sterujący systemu miksowania mamy tu kontroler Avid S4, bazujący na takim samym module centralnym, oprogramowaniu i systemie pracy co modułowy S6. Ta konfiguracja S4 ma 16 tłumików, moduł master i moduł dodatkowy między innymi z manipulatorami dźwięku dookolnego. W przeciwieństwie do rozwiązań analogowych, w których każdy tor, bez względu na to, czy jest wykorzystany czy też nie, musi być w pełni wyposażony w zestaw manipulatorów i funkcji, tutaj możemy mieć mniej manipulatorów o bardziej uniwersalnej funkcjonalności. Działają one na warstwach, które obsługujący wybiera zgodnie ze swoimi aktualnymi potrzebami. Dla lepszej identyfikacji Avid stosuje kodyfikację kolorów przypisanych do różnych procesów, takich jak korektory, kompresory czy efekty. Jednym rzutem oka można się zorientować, jakie procesy są w danej chwili przypisane do konkretnych manipulatorów, wyświetlaczy i przycisków. Dzięki temu można na tym kompaktowym kontrolerze pracować szybko i efektywnie. Jest to zresztą wspólna cecha wszystkich kontrolerów opartych na standardzie Eucon, a więc S1, S3, S6 i Pro Tools Dock. Za ich pomocą można obsługiwać nie tylko Pro Tools, tak jak tutaj, ale też szereg innych programów DAW kompatybilnych z Eucon. Jeden kontroler może też obsługiwać kilka stacji roboczych jednocześnie.
Główne wyposażenie reżyserni obiektu stanowi Avid S4 z systemem Pro Tools HD Ultimate oraz pięć monitorów Genelec The Ones.
Sercem programowym zainstalowanego tu systemu jest stale aktualizowany Pro Tools HD Ultimate. To samo dotyczy także oprogramowania konsolety. Z programem Pro Tools pracuje Pro Tools HD Native Thunderbolt, a komputerem jest znajdujący się w maszynowni komputer Mac Pro. W charakterze interfejsu audio funkcjonuje system MTRX, który również jest urządzeniem skalowanym, pozwalającym na wyposażenie go w dodatkowe moduły zwiększające funkcjonalność pod kątem wejść i wyjść, obsługi sieci, rozbudowy o kolejne elementy systemu itd. Cechą charakterystyczną MTRX jest także to, że oferuje on bardzo wszechstronny system monitoringu, oparty na matrycy 1500x1500 z możliwością tworzenia profilów połączeń wejść i wyjść w ramach sieci, która tu oparta jest na protokole MADI. Możemy tworzyć wiele grup wejść, a także wyjść – tych ostatnich od monofonicznych po formaty wielokanałowe i w różnych formatach cyfrowych i analogowych. Możliwa jest zatem realizacja wszystkich zadań na etapie postprodukcji, w tym konwersja formatów kanałów. Działa to świetnie zarówno z systemem monitorowym jak i kontrolerem S4, który zapewnia łatwą i wygodną obsługę.
Jako monitory lewy, środkowy i prawy zastosowaliśmy tu modele 8361 SAM z serii The Ones, uważanej za najdoskonalsze dzieło firmy Genelec – współosiowe, trójdrożne, pełnopasmowe, spełniające wszystkie kryteria tego producenta w zakresie jednopunktowego źródła jednorodnego dźwięku. Tutaj mamy je umieszczone pionowo, ale równie dobrze mogą one pracować w pozycji poziomej, całkowicie zachowując swoje właściwości w zakresie propagacji dźwięku. Konstrukcja ich przetworników niskotonowych sprawia, że są one wyjątkowo wydajne i kierunkowe przy przetwarzaniu niskich tonów. Jako głośniki surround mamy model o rozmiar mniejszy, czyli 8351, również SAM i także z serii The Ones. Kluczowym i niezbędnym elementem całości jest GLM – system automatycznej kalibracji dla dźwięku dobiegającego ze wszystkich monitorów oraz subwoofera do punktu odsłuchowego. Pozwala on uzyskać maksymalnie wyrównaną odpowiedź częstotliwościową oraz najlepszą możliwą impulsową w miejscu dokonania pomiaru, czyli odsłuchu. System ten kompensuje też sygnał kierowany do subwoofera tak, aby wyrównać go fazowo i ujednolicić pod względem ciśnienia SPL. GLM pozwala też na szybkie przekonfigurowanie odsłuchu z zachowaniem optymalizacji brzmienia, pomiędzy trybami pracy: LR, LCR, 5.1, 5.0 i 0.1. Mamy dzięki temu możliwość kontroli materiału na różnych systemach odsłuchowych bez konieczności jakiegokolwiek przełączania.
Maciej Dobrski (Konsbud Audio) o systemie sieciowym
Sieć cyfrowa w tej instytucji bazuje na rozwiązaniach firmy Lawo, w tym przypadku na routerze Nova 73. Mamy trzy rodzaje interfejsów: MADI, Ravenna, która jest natywnym formatem przepływu dźwięku w ramach całego systemu, a także wejścia i wyjścia AES/EBU. Cała rama współpracuje z trzema stageboksami: przy scenie głównej znajduje się stagebox 32x32+AES/EBU, jeden jest przewidziany jako stagebox przenośny, a tutaj znajduje się ten, który ma być użytkowany w salach prób, mający 8 wejść i 4 wyjścia. Zamysłem całego systemu było to, aby był on w stanie obsłużyć wszystkie znajdujące się tu sale, których jest co najmniej kilkanaście. Do każdej z tych sal możemy pójść z tym małym lub większym stageboksem i dokonać rejestracji sygnału tutaj w studiu.
Sieć łączy się z MTRX za pośrednictwem MADI, pozwalając na przesył do 128 kanałów. Do routera podłączona jest też konsoleta nagłośnieniowa w sali koncertowej – Allen & Heath D-Live. Protokół Audio over IP Ravenna bez kłopotów jest w stanie pracować z próbkowaniem do 192 kHz, choć w tej chwili do bieżącej pracy używa się próbkowania 48 i 96 kHz. Zastosowanie 192 kHz w sposób oczywisty zmniejszy liczbę dostępnych kanałów, ale jest to cechą wszystkich tego typu systemów.
Redundancja jest dwupłaszczyznowa – mamy redundantne karty routera i zasilacze. System zorganizowany jest w ten sposób, że jeden zasilacz jest włączony przez UPS, a drugi jest wzięty z oddzielnego obwodu już z pominięciem zasilacza awaryjnego. UPS w zupełności wystarczy do tego, żeby w przypadku braku prądu dograć kilkanaście minut i bez kłopotów zapisać całą sesję. Ponadto router charakteryzuje się tym, że każda z kart ma swój pakiet podtrzymania, więc nawet zanik zasilania nie spowoduje dezintegracji systemu – router zapisze wszystkie ustawienia i w prawidłowy sposób zamknie swój system.
Maciej Dobrski o systemie wideo
Do realizacji takich wymagań, jak nagrania z różnych sal czy rozłożenie składów instrumentalnych w zależności od potrzeb realizacyjnych, niezbędna jest sprawna komunikacja, zarówno głosowa jak i wizualna. Pan Tadeusz Mieczkowski nieco przeprofilował początkowy projekt, wskazując na potrzebę zastosowania systemu komunikacji właśnie wizualnej. Chodziło tu głównie o to, aby muzycy w poszczególnych salach mieli widok dyrygenta w sali koncertowej i by pojawiła się możliwość wysyłania obrazu z Pro Tools.
Maciej Dobrski: Monitory, które tutaj widzimy, nie są podłączone do centralnego komputera Mac Pro, ale wszystkie przechodzą przez router Blackmagic, co daje możliwość wysłania każdego obrazu w dowolne miejsce, gdzie jest monitor. Gdy zachodzi taka potrzeba, to jest też mobilny stojak, który można ustawić np. przy dyrygencie, który może widzieć zarówno to, co dzieje się w innych salach jak i obraz Pro Tools. Konfiguracja ta uwzględnia także takie zastosowania jak system dubbingu z obrazem wysyłanym z Pro Tools.