Hirdetés

Új dalt énekel az évtizedek óta halott zenész

Azon már nem lepődnek meg olyan sokan, ha egy zenész halála után olyan lemez jelenik meg, amin az eddig be nem mutatott dalai hallhatóak, annak ellenére, hogy talán ezek közül néhányat soha esze ágában sem lett volna a nagyközönségnek is megmutatni. Most viszont az algoritmusoknak és a mesterséges intelligenciának köszönhetően itt a zenei deepfake, ami egyszerre nagyon ijesztő, és lenyűgöző.

Kezdjük a legelején, mi az a zenei deepfake?

A deepfake fogalma egyértelműen a pornóból vándorolt át a köztudatba. Olyan manipulált videók, amik egészen egyszerűen nem történtek meg. Először nagyon béna módon tették rá ismert színésznők vagy modellek arcát a pornóvideók női szereplőire, aztán az egész egyre fejlettebb lett. Ma már ott tart a dolog, hogy nemrég például a Telegram került bajba amiatt, hogy több ezer nő kamu meztelen képe került ki az internetre. Azok a nők sosem álltak meztelenül kamera elé, de egy orosz cég jó poénnak tartotta, ha különböző felhasználók kérésére kamu meztelen képet készítettek róluk.

Az is kiderült, hogy deepfake pornó videói többségében nem híres színészekről készülnek, hanem egyszerű átlagos nőkről, akiken így áll bosszút egy volt szerelmük, vagy kollégájuk, ismerősük szeretne egy ilyen videót otthoni használatra.

Aztán ahogyan várható volt, a deepfake szépen átvándorolt a politikai életbe, és egyre közelebb járunk ahhoz, hogy szakavatott szemek is nehezen döntsék el, hogy az Egyesült Államok elnöke valójában háborút indít Kína ellen, vagy egy politikus valóban mondott-e olyat, mint amit a videón látunk.

A deepfake egyre profibban utánozza az arc mimikáját, a beszédhangot és a hanglejtést is.

Aztán most megjelent a zenében, és ez sokkal nagyobb galibát okoz, mint azt elsőre gondolnánk.

Új dalát, húsz évvel a halála után írta

Frank Sinatra azt énekli, hogy karácsonykor itt a pezsgőfürdőzés ideje, ami tényleg úgy hangzik, mintha Sinatra megőrült volna abban a párhuzamos univerzumban, ahova halála után került. Pedig a dalt az Open AI szoftvere írta, és itt még lehet találni egy rakás olyan dalt vagy dalkezdeményt vagy nem is lehet igazán tudni, hogy mit, amilyen valamilyen előadó stílusában készített a mesterséges intelligencia. Szöveg is van hozzá, természetesen azt is a mesterséges intelligencia készítette, sőt néhol már az éneket is lehet hallani. Most még az egész kezdetleges, és semmi értelme, de például az említett Frank Sinatra-dal tényleg emlékeztet Sinatra dalaira és hangjára.

Az algoritmus a Motörhead, Rage, Katy Perry, Napalm Death vagy a Rotting Christ stílusában tud alkotni. Ehhez 1,2 millió dalt szedtek le az internetről a megfelelő metaadatokkal és szövegekkel. Sok dal kaparászáshoz, és nyers, nagyon rossz minőségű felvételekhez hasonlít, de itt nem a művészi alkotás a fontos, vagy legalábbis most még nem. Azonban a zenei deepfake is fejlődik, és miért ne fejlődne, akkor hamarosan jöhet egy új Motörhead-lemez, ami a zenekar stílusában íródott, a szövegek is lehetnének Motörhead-dalok, sőt még Lemmy hangja is meglepően hasonló lesz, mégsem a zenekartól jön. Vagyis részben tőlük, hiszen az ő dalaikon tanult az algoritmus, de kérdés, hogy kié lesz ilyenkor a jogdíj? Kinek a dala lesz ez? Lehet ezt Motörheadnek nevezni? Vagy mennyiben már ez, mint mikor egy zenekar inspirálóik mondjuk a Motörhead munkásságából, mégis ők a dalszerzők?

Lenyűgöző mérnöki munka

Mivel az Open AI nem szereti a munkája részleteibe beavatni az embereket, ezért Dr Matthew Yee-King, a Goldsmiths akadémikusa magyarázta el, hogyan is működik ez az egész. Gyakorlatilag egy szótárt csinálnak a zenéből, annyira rétegeire bontják az egészet. Ebből a rengeteg kis töredékből aztán újra össze lehet rakni egy új egészet, de elég kicsik ahhoz, hogy csak nyomokban lehessen ráismerni az eredetire. Az algoritmus a megadott inger alapján rendezi újra a kis részeket. tehát mondjuk kiválasztja valaki, hogy Madonna, a rendszer pedig megtalálja és összerakja a „szótár” releváns részeit, és szöveget is ad hozzá. Aktív előadóknál maximum röhög egyet rajta az ember, de olyanoknál, akik már régóta nincsenek köztünk, egész hátborzongató az eredmény, mikor banális kliséket vagy szavakat értelmetlen sorrendben énekel valakinek a szelleme, aki a digitális térben kísért.

Nem az Open AI az egyetlen

Több vállalat is kísérletezik a deepfake zenékkel, vagy a zene és a mesterséges intelligencia együttműködésével, igaz nem mind ennyire ijesztő mint az Open AI projektje. A Google Magenta projektje azt kutatja, hogy a gép tanulásba hogyan lehet belevenni a kreativitást. Az Amper Music például mesterséges intelligenciával előállított zenét hoz létre médiatartalmakhoz, amiknél nem létezik a szerzői jog, hiszen egy algoritmus a szerző. Ezzel már meg is érkeztünk ahhoz a ponthoz, mikor felmerül a hamisítás és a szellemi jogok kérdése. Aki nem akar semmit fizetni egy zenéért, az előállítathat egy nagyon hasonló dalt töredékáron. Vagy egy streaming szolgáltató rakhat tele lejátszási listákat olyan előadók zenéivel, amik igazából nem léteznek, de egy bizonyos stílusban alkotnak. Mivel nem léteznek, ezért jogdíjat sem kell fizetni, így nagyobb lehet a profit. Nem csoda, hogy a Spotify is saját mesterséges intelligencia részleggel rendelkezik, amit folyamatosan fejlesztenek.

deepfake zene
Fotó: Troy T / Unsplash

Az első jogi esetek már el is indultak, miután egy Youtube-felhasználó Jay-Z hangját imitálta mesterséges intelligencia segítségével, és ehhez Shakespeare és Billy Joel szavait adta a szájába. Fontos megérteni, hogy jelen esetben sem az a gond, hogy Jay-Z Shakespeare-t szaval, hanem az, hogy Jay-Z egyáltalán nem tudott semmiről, manipulálták a hangját, ami ma még lehet, hogy egy ártatlan versszavalás, de holnap már bármi elképzelhető, ezért fontos tudatosítani az emberekben, és a mesterséges intelligencia ilyen jellegű felhasználásával foglalkozó tartalomelőállítókban is, hogy van egy olyan határ, amit nem lehet átlépni. Azt ugyanis a jog sem tisztázta még, hogy ilyen esetben ki lehete mondani, hogy az például Jay-Z hangja, hiszen nem az történik, hogy a hangfelvételeiből ollóznak össze egy újat, hanem már a hangot is a technológia állítja elő.

Melyiket sérti egyáltalán? A szerzői jogot? Vagy a hangfelvétel tulajdonosának a jogát?

Alapvetően egy zeneszámnál megkülönböztetjük a szerzői jogot, ami mint a neve is mutatja a dalszerzőké. Ide tartozik a zene, és a szöveg is. Azonban egy szerzeménynek lehet több előadója vagy több hangfelvétele is, és az sem olyan egyértelmű, hogy a dalszerző egyben előadó is. Gondoljunk csak mondjuk Beyoncéra, akinek egy dalát néha több mint tízen írják, mégis csak ő adja elő. Ő általában a szerzők között is szerepel, de nem biztos, hogy a hangfelvétel is az övé, sok esetben ez a kiadó tulajdona. Ez mindig az adott produkció és a kiadó közti szerződés függvénye, és alapesetben egy rajongót sem kell, hogy foglalkoztasson, hogy milyen jogok kinél vannak.

Egy mesterséges intelligencia által írt dalnál viszont nem egyértelmű, hogy kik is a szereplők. Kezdjük ott, hogy új hangfelvétel születik, és egy új mű, vagyis egyszerűen lehet azt mondani, hogy szinte úgy működik az egész, mint mikor egy zenekar túl sokat hallgat Metallicát, aztán írnak egy dalt, amire a kritikusok azt mondják, hogy ez a szegény ember Metallicája. Hiába egyértelmű a nyúlás, mégsem a Metallica tagjai lesznek a dalszerzők, és a Metallica kiadója sem kap semmit.

Itt azonban az sem egyértelmű, hogy ki kap valamit? Aki írta az algoritmust? Vagy aki zenékkel etette? Akié a szerver, amin fut?  Egyikük sem vett részt a dalszerzésben, és nem is nevezhető dalszerzésnek, ami itt történik. De akkor miért dalszerző, az az elektronikus zenét játszó előadó, aki szintén egy programot használ arra, hogy különböző hangokat pakoljon össze, és a számítógépe a hangszere?

Ezek mind olyan kérdések, amikre a zeneipar, és a jogvédők sem tudják még a megfelelő válaszokat, pedig egyre sürgetőbb lenne.

depfake music
Fotó: Edward Howell / Unsplash

Mi van, ha valamit nem vettünk észre?

Mikor milliónyi zenét ismer az algoritmus, felvetődhet az a megközelítési mód, hogy keressen olyan vakfoltokat, amiket eddig nem vettek észre a művészek, de működnek. Ha sikerül megújítania egy műfajt vagy egy teljesen újat létrehoznia? Sokan alig várják, hogy a dalaikban például ne David Bowie hangmintáit és dalrészleteit használják, hanem a mesterséges intelligenciának köszönhetően David Bowie hangja énekeljen velük valamit.

Ez az a pont, ami már nem csak jogi, hanem etikai kérdéseket is felvet, és amihez az Open AI kísérleti programjával egyre közelebb jutunk.

Ha ezzel meg is birkózik valahogy a zeneipar, akkor jön a következő nagy kérdés, ami többé-kevésbé már most aktuális, egyáltalán mi szükség lesz zenészekre? Több nagy kiadó már most a mesterséges intelligenciát hívja segítségül, hogy kiderüljön, hogy egy dal a világ melyik pontján, milyen demográfiai adatokkal rendelkező csoportoknál lehet sikeres. Ha a kezükben van a tökéletes dal receptje, ami az egész világon sok pénzt hoz, ráadásul nem is kell fizetni jogdíjakat, hiszen nincs ember mögötte, akkor már csak az előadót kell kiiktatni, és virtuális zenekart összehozni, amire szintén van már példa.

Vagy éppen elérkezik az az idő, amikor elég csak azt mondani, hogy szeretnék egy új dalt, megmondani a stílust és előadókat, és a rendszer már ki is adja az új slágert, ami az egyén zenei ízlését is folyamatosan tanulva nagy valószínűséggel tetszeni fog.

LángOS - Lángoló Original Stories

Exkluzív tartalmakért, heti újdonságokért iratkozz fel a Lángoló hírlevelére!

38,927KedvelőTetszik
3,060KövetőKövetés
3,510FeliratkozóFeliratkozás
Hirdetés
Hirdetés

Tesztek

Audiópartnerünk