HFM

Nowe testy

czytajwszystkieaktualnosci2

 

Gdy muzyką rządzi cyfra

068 071 HIFI 04 2018 001W dobie triumfu techniki cyfrowej maszyny coraz częściej i coraz skuteczniej zastępują człowieka w różnych dziedzinach.


Począwszy od banalnego przykładu kas samoobsługowych, aż po rozwiązania z pogranicza absurdu, takie jak chociażby japoński Hen Na Hotel, którego personel stanowi sztab robotów przyjmujących gości w recepcji, przenoszących bagaże i sprzątających. Ale czy algorytm jest w stanie zastąpić twórcę i zrobić karierę w świecie muzycznym?

 
 
U źródeł muzyki algorytmicznej
Mimo że pytanie wydaje się tendencyjne, rzeczywistość pokazuje, że powierzenie części kompozytorskich decyzji matematyce nie jest, bynajmniej, artystycznym grzechem. Przeciwnie – wielu upatruje w tym niemalże gwarancji intelektualnego wysublimowania utworu, choć z wartością estetyczną bywa już różnie. Programy komputerowe umożliwiające kreację dzieł muzycznych w oparciu o algorytmy to wynalazek drugiej połowy XX stulecia. Ale sam pomysł użycia algorytmu jako mechanizmu kształtującego przebieg utworu jest dosyć stary.
Zalążków muzyki algorytmicznej można się właściwie doszukiwać już u zarania europejskiej polifonii, którą regulowały zasady, pozwalające wykonawcy na samodzielne wyprowadzanie nowego materiału z melodii zapisanej w nutach. W swoim traktacie „Musica enchiridiadis” (895) Hucbald z Saint-Amand pisze, w jaki sposób śpiewacy mają doimprowizować drugi głos do chorału gregoriańskiego poprzez dobór odpowiednich współbrzmień. Te wytyczne przyjęły bardziej złożoną formę w polifonii franko-flamandzkiej XV wieku, by osiągnąć szczyt wyrafinowania w muzyce Jana Sebastiana Bacha. Jedno z dzieł lipskiego kantora – „Verschiedene Canones über die ersten acht Fundamental-Noten vorheriger Arie aus den Goldberg-Variationen” – to rodzaj zagadki, którą wykonawca musi samodzielnie rozwiązać poprzez kombinację różnych tematów w ich rozmaitych permutacjach. Wyliczono, że możliwe jest osiągnięcie 269 rozwiązań tej łamigłówki.
Mimo że elegancką muzykę Józefa Haydna czy Wolfganga Amadeusza Mozarta zazwyczaj przeciwstawia się „matematycznej” muzyce Bacha, klasycy wiedeńscy wcale nie stronili od intelektualnych zabaw i wykorzystywali metody probabilistyczne. Świetnym przykładem jest „Musikalisches Würfelspiel“ KV Anh. 294d  Mozarta, czyli „Muzyczna gra w kości”. Kompozytor stworzył jedenaście wersji każdego taktu menueta. Warianty te mogą być ze sobą zestawiane w różnych kombinacjach, zależnie od tego, jaką liczbę pokażą dwie równocześnie wyrzucone kości. Dzięki temu wykonawca może, na bazie prostego algorytmu, „stworzyć” ogromną ilość różniących się od siebie menuetów.
Jako zjawisko przełomowe z punktu widzenia historii muzyki algorytmicznej traktuje się często dodekafonię. Technika kompozytorska Arnolda Schoenberga zakłada, że punktem wyjścia dla każdego utworu powinna być seria, czyli układ 12 różnych dźwięków. Seria może być poddawana rozmaitym permutacjom – jednak, mimo że dla każdych 12 dźwięków istnieje aż 479001600 potencjalnych permutacji, fantazja kompozytorska bez wątpienia schodzi na drugi plan względem ścisłych matematycznych obliczeń.
Jeszcze bliższy współcześnie pojętej kompozycji algorytmicznej (choć wciąż mówimy o czasach ołówka i papieru) jest serializm – technika wykształcona tuż po wojnie, na letnich kursach kompozytorskich w Darmstadcie. Zasady, które w dodekafonii regulowały wysokości dźwięków, kompozytorzy serialni przeszczepili na grunt innych parametrów muzyki, takich jak wartości rytmiczne, barwa, dynamika czy artykulacja.
Niezwykle oryginalną postać przyjęła muzyka algorytmiczna w twórczości Johna Cage’a, amerykańskiego twórcy, który – niechętnie nastawiony do szeroko pojętej konwencji – często oddawał przebieg swych utworów w ręce przypadku. Kolejność zaprojektowanych przez Cage’a zdarzeń określały więc operacje wywiedzione ze źródeł tak wydawałoby się absurdalnych, jak atlasy gwiazd czy chińska wyrocznia I Ching. Dzięki współpracy z programistami, z czasem algorytmy Cage’a mogły zostać wpuszczone w przeznaczone dla nich programy, a kompozytor nie musiał już dłużej rozpisywać na kartce tysięcy wariantów utworu.
To niebagatelna zaleta muzyki komputerowej, która oszczędziła twórcom mnisiej pracy, pozwalając im skoncentrować się na wdrażaniu coraz bardziej nowatorskich i szalonych pomysłów.

068 071 HIFI 04 2018 002

W poszukiwaniu perpetuum mobile
Na wskroś niekonwencjonalny John Cage dążył do wyzwolenia muzyki z wszelkich ograniczeń – zarówno kulturowych, jak i technologicznych. Jednym z jego największych wyzwań było stworzenie „muzyki nieskończonej”. Trwanie w czasie wydaje się z muzyką nierozerwalnie związane. Bez względu na to, czy mówimy o klasyce, jazzie czy gamelanie, zawsze ogranicza je początek i koniec. Oczywiście pewnym wyjściem jest zapętlenie utworu, ale czy odtwarzanie w kółko tego samego dzieła nie jest pójściem na łatwiznę wobec tak ambitnego wyzwania?
Stworzenie muzyki trwającej wiecznie, która opierałaby się na bardziej złożonym mechanizmie niż prosty loop, interesowało też angielskiego twórcę muzyki ambientowej, Briana Eno. W 1978 roku zrealizował on utwór „Music for Airports”, który miał pełnić funkcję dźwiękowego tła na terenie terminalu Marine Air na lotnisku LaGuardia w Nowym Jorku. Kompozycja powstała przez nałożenie na siebie zapętlonych nagrań o różnych czasach trwania – mimo że algorytm Eno angażował funkcję zapętlania, wykorzystanie wielu ścieżek pozwoliło na stworzenie zmiennych, nieprzewidywalnych ambientowych faktur. W 1990 roku pomysł Briana Eno podchwycili dwaj programiści, Pete i Tim Cole, pisząc program KOAN, służący do tworzenia muzyki generatywnej. Pozwala on określić niektóre parametry, takie jak: rytm, harmonia czy wysokość dźwięków, zdefiniować relację pomiędzy nimi oraz określić cechy losowości. Na bazie ustalonych przez użytkownika zasad powstaje nieskończony strumień dźwiękowy, generowany w czasie rzeczywistym.
Muzyka generatywna to dość ciekawe rozwiązanie problemu ograniczenia czasowego. Jednak brak początku i końca sprawia, że niemożliwe jest zapisywanie utworów generatywnych na mediach reprodukcyjnych, takich jak płyta CD. Jak więc słuchać takiej muzyki? Pewien sposób na wyjście z tej sytuacji zaproponowali Maurice Methot i Hector LaPlante, zakładając w 1997 roku jeden z najwcześniejszych serwisów streamingowych w Internecie: The Algorithmic Stream. Platforma ta transmituje nigdy się nie powtarzające struktury dźwiękowe, generowane przez komputer w czasie rzeczywistym. Muzyka rozbrzmiewa tam nieprzerwanie od czasu założenia serwisu do dziś.

068 071 HIFI 04 2018 002

Od analogowego studia do rozbudowanego języka programowania
Wczesną muzykę komputerową cechowało użycie algorytmów „poza czasem”. W praktyce oznaczało to, że najpierw program generował materiał muzyczny. Następnie materiał ten musiał być spisany w formie partytury i dopiero wówczas możliwe było wykonanie utworu przez muzyków. Tak wyglądał ów proces chociażby w przypadku pierwszego utworu „skomponowanego” przez komputer – „Illiac suite” z 1956 roku. Owoc współpracy Lejarena Hillera, Leonarda Issacsona i komputera ILLIAC I to czteroczęściowy kwartet smyczkowy, który wykonywany jest tradycyjnie – przez muzyków z nut. Podobna była zasada działania pionierskiego programu komputerowego Projekt 1 Gottfrieda Michaela Koeniga (1963), generującego muzyczne struktury. Był on w stanie wyprodukować niemalże nieskończoną ilość wariantów tego samego modelu strukturalnego; mimo to nie pozwalał na generowanie dźwięku w czasie rzeczywistym. Umożliwił to dopiero rozwój technologii na przestrzeni ostatnich trzydziestu lat.
Miano pioniera należy się Instytutowi Sonologii w Utrechcie, którego dyrektorem w latach 1964-1986 był właśnie Michael Koenig. Zbudowano tam analogowe studio modułowe, złożone z niezależnych części, takich jak oscylatory, filtry czy generatory obwiedni, które mogły się ze sobą łączyć i których parametrami sterowało napięcie. Tworząc siatkę połączonych modułów, twórca mógł wprowadzać algorytm generujący dźwięk w czasie rzeczywistym.
Modułowe studio analogowe z niezależnymi jednostkami komunikującymi się za pomocą połączeń kablowych z czasem jednak przestało wystarczać. Aby kompozycję algorytmiczną mogło uprawiać szersze grono twórców, nieuniknione stało się zwirtualizowanie drogiego, nieporęcznego sprzętu i stworzenie na jego bazie nowego języka komputerowego.

068 071 HIFI 04 2018 002

Max/MSP to wizualny język programowania obiektowego, stworzony przez Millera Puckette’a w połowie lat 80. XX wieku i wciąż rozwijany. Jego pierwotnym przeznaczeniem było, co prawda, interaktywne wykonywanie muzyki, ale Max sprawdzał się znakomicie również w cyfrowym przekształcaniu sygnału i jako kontroler w czasie rzeczywistym. Mimo że był w stanie wdrażać algorytmiczne systemy muzyczne, z początku brakowało mu narzędzi kompozytorskich na wyższym poziomie. Dlatego w 1992 roku wprowadzono RTC-lib (Real Time Composition Library for Max) – wbudowaną w oprogramowanie bibliotekę, służącą do kompozycji algorytmicznej i umożliwiającą takie zabiegi, jak kompozycja serialna, permutacje czy aleatoryzm kontrolowany. Nowa biblioteka po raz pierwszy znalazła zastosowanie w „Lexikon-Sonate” Karlheinza Essla (1992) – niekończącym się utworze interaktywnym, generującym w czasie rzeczywistym muzykę fortepianową, imitującą historię swojego gatunku, począwszy od Bacha, aż po współczesną awangardę.
Max/MSP to muzyczno-informatyczny kombajn, który stwarza niemal nieograniczone pole dla wyobraźni twórców, umożliwiając realizację całego wachlarza nietuzinkowych konceptów, począwszy od przetwarzania na żywo odgłosu, wydawanego przez odbijającą się piłeczkę ping-pongową, przez sonifikację zegara, po przenoszenie na grunt muzyki złożonych algorytmów. Co bardziej dociekliwi tworzą w tym języku własne programy, które – skrojone na miarę ich potrzeb – są później przydatne w komponowaniu.
Wśród nich na uwagę zasługuje Paweł Hendrich, twórca programu Linearis. Wrocławskiego kompozytora od wielu lat interesowało myślenie o muzyce jako o zestawie parametrów – takich jak wysokość, głośność, czas trwania – i odpowiadających im wartości. Przez pewien czas, tworząc muzykę, skrupulatnie prowadził wyliczenia na kartce. Z czasem dojrzała w nim potrzeba stworzenia uniwersalnego narzędzia, które umożliwiłoby zarówno skomponowanie utworu utrzymanego w harmonice tonalnej, jak i w estetyce Stockhausena. Linearis powstawał przez wiele lat. Ostateczna postać wyłoniła się w roku 2014, równolegle do skomponowania przez Hendricha utworu „Alopopulo” na skrzypce, zespół kameralny i komputer.

068 071 HIFI 04 2018 002

Program oparty jest na MIDI, co oznacza, że użytkownik pracuje na parametrach właściwych dla tego protokołu. W pierwszej kolejności należy wybrać dziedzinę dźwięków, z których złożona będzie pożądana struktura (jednostką jest półton). Kolejnym etapem jest wybór, w jakiej kolejności dźwięki będą wykonywane. Następnie twórca ustala dane dotyczące parametrów, takich jak: velocity (głośność), note on-note off (informacja o długości trwania każdego dźwięku) czy channel (typy artykulacji w ramach partii jednego instrumentu). W ten sposób, krok po kroku, powstaje wielowarstwowa informacja MIDI, która może dotyczyć jednej frazy, jednej melodii, ale i całej partii. Zbiór wygenerowanych informacji jest w kolejnej fazie eksportowany do programu do edycji nut, by na końcu całego procesu została utworzona partytura.
Czy w takiej metodzie kompozytorskiej ciągle liczy się natchnienie albo po prostu – by uniknąć romantycznych konotacji – talent? Paweł Hendrich twierdzi, że komponując, pozostaje wierny intuicji, a jego wyjściowy materiał zawsze jest efektem improwizacji. Melodia, która powstaje w wyniku improwizacji, ma w sobie szereg informacji, komunikatów, których parametrów człowiek nie jest w stanie kontrolować ani na bieżąco przetwarzać. Złożone permutacje nie stanowią natomiast najmniejszego problemu dla komputera. Stąd pomysł, by wyjściową melodię zapisać w postaci cyfrowej i wyprowadzać z niej dalszy materiał na zasadzie tworzenia wariantów.
Bez względu na to, na ile pomocniczą funkcję w procesie twórczym sprawuje komputer, sam fakt, że maszyna na pewnych obszarach przejmuje ster, wyznacza cezurę pomiędzy muzyką algorytmiczną, a tą, w której kompozytor kontroluje każdy detal swego utworu. Jak mawiają, diabeł tkwi w szczegółach.
Weźmy jakikolwiek utwór z kategorii evergreenów: IX symfonię Beethovena, etiudę „Rewolucyjną” Chopina czy – sięgając do innej półki – piosenki Beatlesów lub Queen. Zmiana pojedynczego dźwięku, wyjęcie jakiegokolwiek elementu – krótkiej struktury rytmicznej, wstawki perkusyjnej pod koniec, dwóch akordów w sekcji dętych blaszanych – i zastąpienie go innym, spowodowałoby skazę na utworze, który jest doskonały właśnie w takiej postaci, w jakiej pozostawił go kompozytor. W muzyce algorytmicznej kompozytor nie musi być już tak czuły na detale – on dostarcza pewien koncept, pewne wyobrażenie o brzmieniu, a tkanki dźwiękowe, które powstają, tworzą się w pewnym stopniu poza nim. Oczywiście, mogą się one okazać bardzo atrakcyjne brzmieniowo, nie mówiąc o wyrafinowaniu intelektualnym, które zazwyczaj znacząco przewyższa ograniczone możliwości ludzkiego umysłu.
A jednak… czy tej muzyce nie brakuje tego „czegoś”, co powoduje, że chcemy do niej wracać i słuchać po raz drugi, trzeci i czwarty; w kółko? Odpowiedź na to pytanie pozostawiam już Państwu.

 


 

 

Aleksandra Chmielewska
Źródło: HFM 04/2018

Pobierz ten artykuł jako PDF