Mint arról korábban írtunk, a Google – pontosabban a tech cégen belül a YouTube – a zenei MI-alkalmazásait felelős módon, a zenészekkel együttműködve akarja fejleszteni. Igaz, ennek bejelentése után pár hónappal a Billboard arról írt, hogy a modelleket jogvédett zenéken tanították be, majd csak ezután kezdték el megkeresni a jogtulajdonosokat.
A legújabb fejlesztéseket – elsősorban a kép- és videógeneráló alkalmazásokat – bemutató hivatalos poszt betekintést enged abba, hogy a zenészekkel, szerzőkkel együttműködve fejlesztett eszközök most hol tartanak. Az nem derül ki, hogy mikor tervezik a nyilvánosság számára elérhetővé tenni az – egyelőre legalábbis – Music AI Sandbox névre hallgató alkalmazáscsomagot.
Ahogy a Music Ally írja, a videóban nagyon ügyelnek a megfogalmazásra, tehát arra, hogy a mesterséges intelligenciát a kreativitást, a (professzionális) alkotókat segítő eszközként mutassák be, és nem olyasmiként, ami potenciálisan „leváltja” őket.
Így Justin Tranter sztárszerző (Justin Bieber, Selena Gomez, Imagine Dragons stb.) arról beszél, hogy ő nem „újsulis producer”, vagyis feltehetően nem olyasvalaki, aki eleve gépen, zeneszerkesztőben ír dalokat. Így, mondja, „az MI eszközök segítenek abban, hogy megvalósíthassam, amit a fejemben hallok, mert megértik azt a nyelvet, amit én dalszerzőként beszélek.”
Wyclef Jean azt magyarázza, hogy régen a hiphop-producerek lemezeket túrtak olyan instrumentális részletekre vadászva, amikből loopokat lehet készíteni; most ugyanezt meg lehet tenni az MI által generált dalokkal, ami tehát olyan, mint a lemeztúrás, csak éppen mennyiségi korlátok nélkül. Marc Rebillet elektronikus zenész pedig azt mondja, hogy az általa írt loopok „ritkásabb helyeit” töltötte ki az MI, és „ironikus módon az eredmény egy kicsit emberibb lett, mint volt”. A fenti videó mellett három demó is felkerült a YouTube-ra.
Emellett a poszt arról is szól, hogy a Google számára az MI területén központi jelentőségű a felelős fejlesztés, és „minden technológiánkon az alkotók közösségével és más érdekeltekkel egyeztetve, az ő visszajelzéseikre figyelve dolgozunk”. Így például fejlesztenek egy SynthID nevű eszközt, ami érzékelhetetlen digitális vízjellel látja el az MI által generált képeket, hangokat, szövegeket és videókat.
Több lap megjegyzi, hogy arról viszont egyáltalán nem esik szó, hogy min tanították be a YouTube zenei MI alkalmazásait.
Categories: Hírek
Leave a Reply