L’IA fa musica. Ma a che scopo?

Strumenti potenti, illusioni fragili e una prospettiva inquietante sul futuro del copyright di cui nessuno sembra accorgersi.

I tools di IA generativa musicale


Suno, Udio, Wondera: nomi che fino a poco tempo fa erano appannaggio esclusivo di appassionati di tecnologia, oggi sono entrati nel vocabolario quotidiano di chiunque abbia anche solo una curiosità musicale. L’intelligenza artificiale generativa applicata alla musica è una realtà concreta, accessibile, spesso sorprendente. Ma attorno a questi strumenti si stanno costruendo aspettative, tensioni e paradossi che vale la pena esaminare con attenzione e senza pregiudizi, senza per questo evitare di ragionare sulle implicazioni future per quanto piuttosto spiacevoli.

Gli umori e le aspettative

Mi è capitato di frequentare alcune community online dedicate a questi tools e ne ho approfittato per cercare di capire l’aria che si respira tra gli utilizzatori di questi nuovi strumenti e i loro detrattori. Dopo qualche settimana di permanenza nei forum ho potuto trarre alcune osservazioni interessanti: leggendo i post e ascoltando i brani pubblicati dagli utenti, emergono almeno tre profili molto distinti di utilizzatori.

C’è chi usa la piattaforma per puro divertimento, senza pretese, come un gioco nuovo e affascinante a cui dedicarsi nel tempo libero, e questo è forse l’uso più sano e onesto che se ne possa fare.

C’è chi, con testi curati e scelte sonore ricercate, sembra seguire un percorso artistico credibile di cui già ha posto le fondamenta prima dell’arrivo delle IA e che quindi utilizza lo strumento come ponte tra idea e realizzazione bypassando i costosi e lunghi processi di produzione.

E poi c’è una quota enorme di produzioni approssimative, testi da tema delle elementari, generi copiati e ricopiati, singoli utenti che pubblicano decine di brani al giorno; molti non fanno nemmeno lo sforzo di scriversi il prompt, preferendo farselo preparare da altre piattaforme come chat Gpt, Claude o Gemini.
Insomma poca fantasia e tanta presunzione messa in evidenza soprattutto da una domanda ricorrente che, a differenza di quello che ci si potrebbe aspettare, non è “come posso migliorare questo brano?” ma piuttosto “come faccio ad aumentare gli ascolti?”, “come posso fare a monetizzare?”, “su quale piattaforma mi conviene distribuire?”.
È il paradosso della slot machine musicale: uno strumento pensato per abbattere le barriere creative viene usato principalmente come scorciatoia verso il successo e il guadagno senza sforzo. Peccato che queste piattaforme, almeno allo stato attuale, offrano pochissimo controllo sul risultato finale e una volta generato il brano, intervenire sugli errori e sulla struttura della composizione è un lavoro lungo, frustrante e spesso senza risultati. Se viene bene è un colpo di fortuna, altrimenti meglio premere nuovamente il tasto “genera” e riprovare, come una slot machine appunto. E come in ogni slot machine, l’illusione di vincere facile è il vero prodotto venduto.
Il problema non è lo strumento. È dimenticare che nella storia della musica il successo è sempre stato la somma di talento, competenze, anni di lavoro e una buona dose di fortuna, anche quando dietro c’erano grandi autori, grandi produttori e grandi case discografiche. Ridurre tutto questo a un prompt di testo è quantomeno ingenuo.
A rendere il quadro ancora più interessante ci sono le reazioni di molti musicisti “tradizionali” che, in questi spazi di discussione, cercano di far notare i limiti della musica generata da IA. Le risposte che ricevono sono quasi tutte simili: “adesso che tutti possono fare musica vi sentite minacciati?”, “il vostro tempo è finito”, “non siete più gli unici a poter fare musica”. Una narrativa di rivalsa che tradisce qualcosa di irrisolto: non è entusiasmo per un nuovo strumento creativo, è frustrazione pregressa verso un mondo musicale percepito come elitario e irraggiungibile, come se fare il musicista fosse un privilegio innato. Ma fare il musicista non è una prerogativa di pochi fortunati bensì è studio, sacrificio, esercizio, anni passati a sbagliare e momenti di sconforto e voglia di abbandonare, esattamente come qualsiasi altra professione che richiede formazione e impegno. Insomma una cosa sicuramente non semplice ma alla portata di tutti i comuni mortali.

Controversie legali e sostenibilità della proliferazione

Nel frattempo, il settore ha già dovuto fare i conti con la realtà legale. Nel giugno 2024, Sony Music, Universal Music Group e Warner Music Group hanno citato in giudizio sia Suno che Udio, accusandoli di violazione massiva del copyright per aver addestrato i propri modelli su registrazioni protette senza alcuna autorizzazione.
Le cause si sono poi risolte in accordi: Universal Music Group ha raggiunto un accordo con Udio nell’ottobre 2025, seguita da Warner Music Group, che contemporaneamente ha siglato un’intesa anche con Suno nel novembre 2025.

I termini degli accordi con Suno prevedono che i download rimangano disponibili per gli utenti paganti, con un limite mensile, e introducono nuove esperienze che permetteranno agli utenti di creare contenuti utilizzando voci, composizioni e immagini di artisti Warner che scelgano di aderire. Insomma le major hanno smesso di combattere e hanno scelto di sedersi al tavolo, Il che non è necessariamente una buona notizia per chi sperava in un freno alla proliferazione.
E mentre si discute di tutto questo, il problema vero si sta silenziosamente costruendo altrove. Negli anni ’90, secondo i dati citati da Wikipedia sull’era degli album, venivano pubblicati circa 35.000 album l’anno a livello mondiale, un numero filtrato e selezionato dall’industria. Nel 2016, con l’avvento del digitale, si arrivava già a circa 158 nuove canzoni al giorno. Oggi, secondo quanto dichiarato dai CEO di alcune major musicali a Billboard, si pubblicano circa 100.000 brani al giorno su tutte le piattaforme streaming. Deezer ha stimato che nel 2025 riceve circa 50.000 brani generati con IA ogni giorno, pari al 34% di tutti i caricamenti.

Le conseguenze sono già visibili e quantificabili. Secondo il report Luminate 2024, su 202 milioni di brani disponibili sulle piattaforme streaming, 175,5 milioni non raggiungono la soglia minima di 1.000 ascolti annui richiesta da Spotify per generare royalties: l’86,88% di tutta la musica presente sulla piattaforma non produce un centesimo. Milioni di file che occupano server, consumano banda, richiedono gestione: a costo zero per chi li carica, a costo reale per le piattaforme e, indirettamente, per l’intero ecosistema musicale.

Ma c’è un risvolto ancora più sottile, su cui quasi nessuno si è ancora fermato a riflettere: il problema della saturazione dello spazio creativo musicale.
Le combinazioni possibili di note, ritmi e armonie sono matematicamente finite e non infinite come si potrebbe pensare. Lo ha dimostrato in maniera concreta già nel 2020 il programmatore e avvocato specializzato in copyright Damien Riehl con un ragionamento semplice quanto dirompente: “se le melodie sono essenzialmente combinazioni matematiche, e le combinazioni sono finite, prima o poi qualcuno le avrà già scritte tutte”. Insieme al musicista e programmatore Noah Rubin ha trasformato questo pensiero in uno strumento reale e funzionante creando un algoritmo capace di generare 300.000 melodie al secondo da catalogare e rilasciare nel pubblico dominio.

La sua logica era difensiva: nel sistema del copyright, chi per primo deposita una melodia ne diventa il titolare, e chiunque la utilizzi in futuro rischia una causa per violazione. Anticipando tutti e rendendo disponibile a chiunque l’intero spazio melodico possibile, Riehl ha cercato di neutralizzare preventivamente questa minaccia, sottraendo quel territorio a chiunque volesse farne un’arma legale.


Ora proiettiamo questo scenario nell’era dell’IA generativa. Milioni di utenti che ogni giorno premono un tasto e ottengono brani completi; melodia, armonia, testo, arrangiamento tutto in pochi secondi. La maggior parte di questi brani viene caricata sulle piattaforme, e una parte viene anche depositata per la tutela dei diritti. Non perché ci sia un reale valore artistico da proteggere, ma perché la procedura è automatica o quasi, e costa poco o nulla.
Il paradosso che si sta costruendo silenziosamente è questo: un compositore umano che domani scrive una melodia originale, frutto della propria creatività e del proprio percorso artistico, potrebbe vedersi negare il deposito di quel brano perché quella sequenza di note risulta già registrata. Registrata da chi? Da un utente di Suno che sei mesi prima aveva generato migliaia di brani in automatico, che non ha mai ascoltato davvero, e di cui probabilmente non ricorda nemmeno l’esistenza.
Il peso della prova, in un contenzioso del genere, ricadrebbe interamente sul compositore umano: dimostrare che la propria creazione è indipendente, originale, non derivata. Una battaglia legale kafkiana contro un brano generato da una macchina, depositato da qualcuno che non sa nemmeno di averlo fatto.
Quello che l’IA rischia di fare, insomma, non è solo inondare le piattaforme di musica spazzatura ma di colonizzare il futuro della creatività umana, occupando in anticipo uno spazio che nessuno ha ancora esplorato.

L’intrattenimento autoreferenziale

C’è un ultimo scenario, forse il più radicale, che vale la pena almeno abbozzare. L’IA generativa applicata alla musica non si ferma alla proliferazione di produzioni povere di valore artistico ma, una volta esaurita la sbornia cerca-fortuna, potrebbe degenerare in un meccanismo autoreferenziale dove ognuno provvederà a creare da sé la musica che preferisce ascoltare, eliminando del tutto la necessità di un artista come intermediario tra un’emozione e la sua traduzione sonora. 

Le conseguenze sarebbero più profonde di qualsiasi problema di copyright: la musica ha sempre funzionato come ponte tra chi la crea e chi la ascolta, tra culture diverse, tra generazioni. Una delle esperienze più formative nella vita di un ascoltatore è sorprendersi per qualcosa di inaspettato, un genere mai esplorato, un artista lontanissimo dal proprio gusto abituale e riconoscerci qualcosa di sé; un modo per scoprire che qualcuno dall’altra parte del mondo ha vissuto la tua stessa cosa e l’ha raccontata meglio di quanto avresti saputo fare tu. 

Un sistema che ti conosce troppo bene non può offrirti questo. Ti restituisce solo quello che già sei: ognuno rinchiuso nella propria bolla sonora perfetta, senza più il gusto e il rischio  della scoperta. 

Il business dell’intrattenimento musicale come lo conosciamo ne uscirebbe distrutto. Ma il danno più grande sarebbe antropologico.

Conclusioni

Il punto non è essere contro l’IA nella musica. Il punto è chiedersi cosa si vuole davvero fare con questi strumenti. Offrire la possibilità di produrre un brano anche a chi, con idee interessanti e una necessità espressiva impellente, manca della dimestichezza con strumenti musicali e/o software di produzione? Arrendersi a un futuro dispotico delegando agli algoritmi la scelta di cosa ascoltare rinchiudendosi nella propria bolla sonora e rinunciando per sempre al gusto della scoperta? Oppure, come sembra si stia già concretizzando sotto i nostri occhi, tentare di vincere alla slot machine, semplificando ulteriormente un paradigma già in atto nel mondo della produzione tradizionale dove vengono sfornati pezzi tutti uguali rispettando i canoni cosiddetti “di successo”? 

Concetto perfettamente sintetizzato da Madame nel brano “Mai più” contenuto nell’album appena pubblicato:

“I pezzi fatti col nastro trasportatore, La fabbrica dell’orrore, sperando che esca la hit.”

NOTE

Un discorso a parte merita l’approccio di Moises, che si differenzia in maniera sostanziale da Suno e Udio. Invece di generare brani completi a partire da un prompt testuale, Moises si concentra sulla generazione e manipolazione di singole tracce ,una linea di basso, una batteria, una chitarra, da integrare in un progetto musicale già esistente. È uno strumento pensato per chi uno strumento lo sa già suonare: un musicista che vuole velocizzare il proprio workflow, aggiungere elementi che non padroneggia o sperimentare nuove direzioni sonore senza snaturare il proprio processo creativo. Un approccio più collaborativo che sostitutivo, e probabilmente più onesto nei confronti di ciò che la musica dovrebbe essere. 

Condividi questo articolo!
Pasquale Tarricone, napoletano classe 1971, ha studiato per qualche anno pianoforte classico ed ha conseguito il diploma di solfeggio al conservatorio San Pietro a Majella di Napoli. Acquisite le necessarie nozioni di teoria musicale e sufficiente tecnica pianistica, si è completamente dedicato allo studio di ogni tipo di strumento elettronico: sintetizzatori, campionatori, drum machine, sequencer midi, per poi approdare al mondo della registrazione audio digitale. Diplomato in informatica è diventato esperto di sistemi operativi e di software musicali. Ha suonato con numerose cover band di estrazione Rock con influenze elettroniche, ha collaborato alla stesura di brani per diverse pop band emergenti e ha realizzato diversi jingle ambient in ambito pubblicitario. Per diversi anni è stato parte integrante dell’organico Not Ordinary Dead, gruppo elettronico-punk con tre dischi pubblicati e numerosi concerti eseguiti in tutta Italia. Attualmente è tastierista della tribute band dedicata a Madonna “Into The Groove”, con la quale si esibisce in locali e manifestazioni in tutta la Campania, e lavora come fonico collaborando con diverse cover band del panorama live regionale.
Nessun commento