Sztuczna inteligencja nie tylko zmienia sposób, w jaki słuchamy muzyki, ale także sposób, w jaki ją tworzymy. Coraz więcej artystów korzysta z narzędzi AI, aby generować nowe brzmienia, komponować utwory, miksować i masterować nagrania. Niektórzy uważają to za zagrożenie dla kreatywności i autentyczności muzyki, inni za szansę na eksperymentowanie i odkrywanie nowych możliwości. W książce „Zarażeni dźwiękiem. Rynek muzyczny w czasach sztucznej inteligencji” Dr Stanisław Trzciński przedstawia aktualne trendy i przyszłe scenariusze rozwoju muzyki w erze AI. Zastanawia się, jakie będą konsekwencje dla artystów, odbiorców i branży muzycznej oraz jak zachować równowagę między innowacją a tradycją.
Wykorzystanie sztucznej inteligencji do dystrybucji muzyki
Spotify, jeden najpopularniejszych i najszybciej rozwijających się serwisów streamingowych na świecie korzysta z jednego z najbardziej zaawansowanych systemów algorytmów, które dopasowują repertuar muzyczny do indywidualnych preferencji użytkownika. Serwis wykorzystuje big data o zachowaniach swoich słuchaczy. W przypadku nowych użytkowników Spotify proponuje playlisty tematyczne, które wydają się najbardziej popularne na danym terytorium. W kolejnych cyklach użytkowania serwisu listy takie są coraz bardziej dostosowane do upodobań słuchacza. Serwis podpowiada tysiące playlist na każdy nastrój i funkcję oraz na każdy gatunek muzyczny i dla każdego typu słuchacza. Dlatego wiele z nich nosi nazwy związane z nastrojem, funkcjami wykorzystania lub gatunkami muzycznymi. Inne pokazują zestawienia (Top30) albo to, dla jakiej grupy są stworzone. Algorytmy wykorzystują wszystkie ślady aktywności użytkowników, co pozwala dobrać muzykę zgodnie z tym, czego użytkownicy słuchają. Spotify analizuje które utwory użytkownik odtworzył, zapisał do swoich playlist lub pominął, a także to, na które strony artystów zajrzał po odsłuchaniu piosenki, które polubił. Narzędzie do analizowania odnajduje użytkowników o podobnym profilu muzycznym i wzajemnie poleca im piosenki, których jedna z tych osób jeszcze nie słuchała. Przez matematyczne obliczenia algorytm tworzy wektory użytkowników i piosenek, a następnie porównuje je z innymi wektorami w poszukiwaniu tych najbardziej podobnych. Mechanizm filtrowania i analizy informacji dotyczy także samego repertuaru, szczególnie nowych piosenek i nowych artystów. Przydatny okazuje się tutaj model surowych ścieżek audio, w którym utwory analizowane są dzięki sieciom neuronowym i tworzony jest spektogram (tzw. wykres widma amplitudowego sygnału). Zebrane dane – dotyczące tempa, tonacji, czasu trwania i głośności utworu – porównywane są z lubianymi i znanymi przez użytkownika piosenkami. Wiele z wynalezionych propozycji ląduje w cotygodniowej playliście rekomendowanej w każdy poniedziałek „Odkryj w tym tygodniu” (algorytm obsługujący tę playlistę jest nowatorski, działa na innej zasadzie i został precyzyjnie opisany przez autora w książce) lub w piątek „Radar Premier”. System stosowany przez Spotify nazywa się BaRT i wykorzystuje zarówno analizy o zachowaniach użytkownika, jak i informacje zewnętrzne o tym, czego słuchali inni. BaRT jest w stanie uczyć się naszych zachowań i przewidywać satysfakcję, którą mierzy się, na przykład prawdopodobieństwem konsumpcji i współczynnikami klikalności.
System rekomendacji i filtrowania stosowany przez Spotify to tylko jeden z przykładów pokazujących jak działają algorytmy w serwisach streamingowych dystrybujących dzisiaj muzykę. To jeden z kluczowych obszarów wpływu sztucznej inteligencji, ale nie jedyny.
Wykorzystanie sztucznej inteligencji automatyzacji procesów produkcyjnych
Na rynku dostępnych jest szereg aplikacji wykorzystujących generatywną sztuczną inteligencję do automatyzacji procesów produkcji i tworzenia nowej muzyki. Prosta i niezwykle intuicyjnie działająca platforma Google koncernu Alphabet Inc. może najskuteczniej zrewolucjonizować rynek muzyczny. Na początku 2023 roku okazało się bowiem, że Google dysponuje nową platformą sztucznej inteligencji MusicLM, będącą zresztą kolejnym stadium rozwoju wcześniejszego projektu pod nazwą AudioLM, która naśladuje – wszelkiego rodzaju gatunki muzyczne na podstawie polecenia wpisanego przez użytkownika. O ile generator muzyki opracowany przez Google, nie zastąpi naszych ulubionych wykonawców, o tyle w przypadku muzyki w przestrzeniach publicznych albo podczas nagrywania audiobooków, gdy muzyka dopasuje się do aktualnej akcji w książce, albo do akcji w grze, to narzędzie może całkowicie zmienić wykorzystywanie muzyki i licencji do muzyki w tle w świecie komercyjnym. Jeszcze innym, także ciekawym projektem firmy Google w obszarze muzyki jest SingSong, czyli generator akompaniamentu instrumentalnego do wokalu. Testy tego narzędzia pokazują, że użytkownicy uznają efekty działania tego narzędzia za lepsze, niż w przypadku nieco starszego modelu Google, czyli AudioLM. Jest on zdolny do generowania muzyki w tym samym stylu, co odtworzony wcześniej fragment jakiegoś utworu.
Chiński gigant Tencet Music Entertainment ogłosił we wrześniu 2022 roku, że stworzył ponad 1000 utworów zawierających wokale stworzone przez technologię AI, imitując ludzki głos w sposób wcześniej nieznany za pomocą opatentowanej technologii syntezy głosu o nazwie Lingyin Engine. Dzięki tej technologii można m.in. odtworzyć wokale zmarłych artystów. Z kolei wielka światowa gwiazda – zespół BTS skorzystał z narzędzia AI stworzonego w Korei Południowej pod nazwą Supertone. Dzięki tej technologii tworzy gry, audiobooki i podkłada głosy w dubbingu czy do animacji.
Przykładami innych ważnych graczy na rynku sztucznej inteligencji w obszarze muzyki są między innymi marki: CoSo (platforma Splice), Song Starter (platforma Bandlab) oraz Jukedeck, Mawf i Sponge Band firmy ByteDance, należącej do wielkiego chińskiego gracza TikToka. Ten ostatni, szykuje się do dużej batalii w tym obszarze. W czerwcu 2023 roku ogłosił powstanie nowej aplikacji Ripple do tworzenia muzyki opartej na sztucznej inteligencji, która może zamienić nuconą melodię w piosenkę.
Wykorzystanie sztucznej inteligencji do komponowania muzyki
Dzięki sztucznej inteligencji powstały również narzędzia, które wspomagają twórców. W 2016 roku naukowcy z Sony CSL Research Laboratory z Paryża oraz z Uniwersytetu Pierre’a i Marii Curie (UPMC) opracowali system FlowMachines, który zaprojektował badacz sztucznej inteligencji, François Pachet. Analizuje on tysiące utworów i generuje utwory w stylu danego zespołu. Natomiast w początkowej fazie prac nad algorytmami muzycznymi – wspomniany już koncern Google stworzył narzędzie, opierając się na programie Magenta, który jedynie pomaga artystom wykreować partie klawiszowe do zagranych przez siebie partii instrumentalnych. W 2018 roku amerykańska artystka Taryn Southern opublikowała album stworzony m.in. przy użyciu produktu typu open source o nazwie Amper, który tworzy muzykę, korzystając z danych generowanych dzięki użytkownikom serwisów Google Magenta, AIVA i IBM Watson Beat.
W 2017 roku, założony przez Pierre’a i Vincenta Barreau, Denisa Shtefana i Arnauda Deckera start-up Aiva Technologies zaprezentował algorytm AIVA, który jest w stanie generować muzykę klasyczną, korzystając z niechronionych prawem autorskim 15 tys. dzieł muzyki poważnej, dostępnych w ramach domeny publicznej.
Kilka miesięcy temu Seth Forsgren i Hayk Martiros stworzyli narzędzie Riffusion do tworzenia w czasie rzeczywistym nieskończonej zawartości kompozycji wraz z wizualizacją spektrogramu 3D. Obecnie, polski inżynier z Politechniki Warszawskiej, a zarazem perkusista – Mateusz Modrzejewski – prowadzi badania nad zastosowaniem AI i głębokich sieci neuronowych w muzyce. Inżynier chce wykorzystać AI do uzupełnienia utworów, które wymyślił i stworzył człowiek.
Inną fascynującą aplikacją wykorzystującą sztuczną inteligencję, jest Wekinator stworzony przez Rebeccę Fiebrink. Aplikacja pozwala na tworzenie nowych instrumentów muzycznych, a także dźwięków, których do tej pory nie słyszeliśmy. A wszystko to dzieje się – w dużym uproszczeniu – przez uczenie komputera reagowania dźwiękami na nasze gesty, przy czym w przypadku aplikacji Wekinator w rękach profesjonalnych artystów możliwe jest tworzenie niezwykłych dzieł sztuki.
Nic dziwnego, że artyści eksperymentują, używając nowych technologii – wydaje się to kuszące i kreatywne. Dzięki algorytmom AI ukończono już po latach, nie tylko niedokończone kompozycje Gustava Mahlera i Franza Schuberta, ale też słynną niedokończoną X Symfonię Ludwiga van Beethovena. Inwestycje wielkich graczy na rynku muzycznym w sztuczną inte- ligencję są faktem i nie da się wykluczyć znacznie szybszego, rewolucyjnego wariantu rozwoju AI na rynku produkcji muzyki.
Nowe urządzenia do słuchania muzyki dzięki AI
Dzięki sztucznej inteligencji będziemy zaskakiwani w przyszłości także kolejnymi, rewolucyjnymi urządzeniami do słuchania muzyki. Istniejąca już kilkanaście lat na rynku izraelska firma Noveto Systems, posiadająca 44 patenty i biura w wielu krajach świata, zaproponowała w 2020 roku rozwijanie nowej technologii zwanej SoundBeaming (z ang. promieniowanie dźwięku), w ramach której moduł czujników lokalizuje i śledzi pozycję uszu, przesyłając dźwięk za pomocą fal ultradźwiękowych, które są generowane – a jakże by inaczej – za pomocą algorytmów i wysyłane w eter za pośrednictwem specjalnie zaprojektowanego układu przetworników – kiedy człowiek się porusza, dźwięk podąża za nim, a w pewnych wariantach możemy słyszeć także dźwięki spoza bańki. Firma ta, promując swój nowy produkt, stworzony na opatentowanej przez siebie technologii audialnej nazwanej i3DS4, chce stworzyć zupełnie nowy rodzaj słuchania sensorycznego, który zmieni sposób, w jaki ludzie odbierają dźwięk w niewidzialnych słuchawkach.
Coraz bardziej prawdopodobna wydaje się również wizja miliardera Elona Muska, który prezentując w 2019 roku swoją nową, kierowaną przez Jareda Birchalla, firmę Neuralink, zapowiedział jasno, że wszczepi nam – między innymi sterujący naszymi hormonami – chip do mózgu, a w 2020 roku uzupełnił tę wizję informacją, że ów, łączący się bezprzewodowo z komputerem, interfejs pozwoli użytkownikom na strumieniowe przesyłanie muzyki bezpośrednio do mózgów.
Tak naprawdę nie jesteśmy w stanie przewidzieć co się wydarzy, rozwój sztucznej inteligencji jest tak szybki, że trudno nawet przewidzieć jaki będzie stan ten technologii za rok. W opinii dr Stanisława Trzcińskiego część artystów, a na pewno producentów, masteringowców, realizatorów nagrań i tym podobnych, niechybnie zostanie zastąpiona przez AI. Pozostają pytania: kiedy, jak wielu i w jakich obszarach. Autor zgadza się z wizją opublikowaną w czasopiśmie „Ruch Muzyczny” w 2022 roku (10/2022), że najbardziej prawdopodobnym scenariuszem staje się personalizacja doświadczenia słuchaczy, w tym dopasowanie ścieżki dźwiękowej codzienności do nastroju, otoczenia i potrzeb, także poprzez tworzenie nieskończenie wielu wariantów tego samego utworu, co oznacza, że w historii kompozycji pewna epoka dobiega końca.