A Google idén januárban jelentette be, hogy működik a szöveges utasítások alapján zenét készítő MI-fejlesztése. Akkor nem hozták nyilvánosságra, mert kb. 1%-ban egy-az-egyben átvett a betanításra használt zenékből teljes részleteket. (A betanításhoz 280 ezer órányi hangfelvételt használtak.)
Azóta – ahogy közleményükben írják – több workshopokat tartottak zenészekkel (köztük a legismertebb az elektronikus zenével foglalkozó Dan Deacon), hogy lássák, „hogyan segítheti ez a technológia a kreatív folyamatokat”. Ezután tették nyilvánossá a tavaly elindított AI Test Kitchen keretein belül. Itt lehet jelentkezni a kipróbálására (arról nem írnak, hogy kb. milyen hosszú várakozásra kell számítani).
Az Engadget információi szerint a MusicLM – feltehetőleg nem vagy nemcsak művészi, hanem jogi okokból is – nem ír énekdallamokat, illetve ha arra kéri a felhasználó, hogy egy bizonyos zenész stílusát utánozza, akkor hibaüzenettel válaszol. Egy-egy szöveges promptra két hangfájlt állít elő, és ha a felhasználó visszajelez, hogy melyik szerinte a jobb, azzal segít a rendszer fejlesztésében.
Szintén az Engadget szerzője írt részletesen a tapasztalatairól. „Mondjuk azt, hogy a MusicLM nem fogja egyhamar elvenni a zenészek munkáját” – foglalja össze az eredményt. Több szöveges prompt esetén is azt tapasztalta, hogy általában ígéretesen kezdődnek a generált zenék, aztán „eltévednek”, mintha „valami megszállná a zongoristát” vagy valaki kicserélné a kottát, vagy egyszerűen egészen más stílusba vált hirtelen a zene. Ezt az oldalra beillesztett lejátszókkal ellenőrizni is lehet.
Categories: Hírek
Leave a Reply