Vai al contenuto

Cosa succede quando l’Intelligenza Artificiale viene applicata all’ambito musicale?

Cosa succede quando l’Intelligenza Artificiale viene applicata all’ambito musicale?

Mentre ascoltiamo una canzone, la nostra mente intuisce prontamente quale siano le atmosfere sentimentali che quest’ultima suscita in ogni individuo. Naturalmente quando ascoltiamo una canzone la sensibilità dei vari ascoltatori non è mai la stessa, così come i vari gusti. Tuttavia, un pezzo triste, è triste.
Ma se ribaltiamo questo punto di vista? Cosa succede quando a fare questa azione è un’intelligenza artificiale?

Le canzoni dell’IA

L’IA potrebbe sicuramente aiutarci a catalogare l’enorme quantità di repertorio musicale che l’utente può trovare su Spotify, Deezer, Tidal, Apple Music, YouTube Music, e Amazon Music Unlimited. Ciascuna di queste piattaforme vanta circa 30 milioni di brani. Non è semplice né ordinarle, né organizzare playlist in base all’umore e alle attività che coinvolge: quelle per la palestra, quelle per quando siamo tristi, o quelle che devono caricarci.

Analisi di una Ricerca

Un Team di ricerca di Deezer, piattaforma francese, con più di sei milioni di abbonati, ha sviluppato un’intelligenza artificiale, in grado di associare le canzoni al mondo sentimentale di riferimento.
Questa indagine, dal nome “Music mood detection based on audio lyrics with deep neural nets” è stata pubblicata su Arvix.
“L’individuazione automatica dell’umore musicale è un campo di ricerca vivace da molto tempo, da almeno vent’anni” si evince nella ricerca. Il compito principale è quello di determinare automaticamente l’emozione predominante quando si ascolta un brano, sfruttando il Deep e il Machine Learning e includendo nell’analisi alcune parole dei brani, solitamente trascurate. “In questo lavoro ci siamo concentrati sul compito dell’individuazione multimodale dell’umore basata su tracce audio e sui testi delle canzoni” il testo continua.
Per fare questo i ricercatori hanno costruito un modello basato su un set di caratteristiche. Hanno addestrato l’intelligenza artificiale utilizzando tracce audio senza testi, hanno ricostruito linguisticamente quei brani tramite la piattaforma word2vec e attingendo a un famoso dataset, chiamato Million Song Dataset. In un primo momento, si è cercato di raccogliere una grande varietà di etichette descrittive utilizzate da Last.fm. Dopo, si è provato ad arricchire queste etichette introducendo 14mila parole inglesi che hanno tentato di fornire loro una valutazione in base all’intensità dell’emozione descritta. Queste canzoni sono state poi catalogate nell’archivio di Deezer.
Quali sono i risultati di questa ricerca? 18.644 canzoni che il Team di ricercatori ha sfruttato sia per allenare la propria rete neurale sia per verificarne il funzionamento.

Argomenti