L’inventore di strumenti musicali con l’AI
Nicola Privato, di Dolo, lavora in Islanda, in un laboratorio che studia e prepara la musica del futuro: «Cambierà il modo di comporre le canzoni, ma i concerti resteranno»
In Islanda, tra vulcani in eruzione e geyser che sfiorano il cielo, c’è un laboratorio dove si sperimentano i suoni del domani e si creano nuovi strumenti grazie all’interazione tra intelligenza artificiale e artisti in carne e ossa.
L’Iil (Intelligence Instruments Lab) si trova a Reykjavik, dove vivono poco più di 120 mila persone, ed è stato fondato dall’islandese Thor Magnusson, professore di “future music” presso l’Università del Sussex (UK).
Nella sua squadra di visionari ci sono compositori e artisti come Nicola Privato, 43 anni di Dolo, fresco vincitore del prestigioso premio Guthnam per i migliori inventori di strumenti.
«Il modo di fare musica cambierà, ma non il ruolo di coesione sociale che la musica ha da sempre» spiega Privato, ideatore di Thales, due dischi magnetici che, interagendo tra loro, scatenano suoni all’avanguardia.
Privato, come nasce la passione per la musica?
«Sono cresciuto in mezzo alla musica, in famiglia ce l’abbiamo dentro. Mia mamma ha sempre cantato. Fin da piccolo suonavo il flauto traverso, poi sono stato chitarrista jazz e ho suonato con Marcello Tonolo e Franco Nesti. Per anni ho diretto la scuola Thelonious Monk e organizzato festival jazz a Mira».
Quando ha iniziato a interessarsi della musica del futuro?
«L’occasione è arrivata durante la pandemia. Sentivo sempre più l’esigenza di coinvolgere il pubblico e sorprenderlo. Ho iniziato da autodidatta a studiare music computing, mi sono iscritto al biennio di Musica elettronica a Padova, dove ho scoperto che non ero l’unico a voler allargare il concetto di performatività. E ho iniziato a prendere contatti con una comunità sparsa in tutto il mondo di persone che uniscono l’arte alla scienza. Poi ho partecipato al bando triennale di Thor Magnusson e sono passato. In Islanda c’è molta più ricerca di frontiera e la tendenza a non continuare a produrre lo stesso sapere, ma a spingersi sempre oltre. Essendo in pochi, c’è sempre molta interazione tra artisti da ambiti diversi».
In cosa consiste la sua ricerca?
«Studiando l’interazione di sistemi complessi con il musicista, sono arrivato a confrontarmi con l’Ai e con l’impatto che ha su chi compone e su chi ascolta. Uno dei mie primi lavori è stato W.E.I.R.D. Durante la pandemia volevo continuare a fare performance. Ho sviluppato una composizione interattiva che dipendeva da Twitter e si attivava ogni volta che venivano pubblicate le parole emergency, uncertainty e identity, dando vita a composizioni sempre diverse che fotografavano anche l’allarme sociale. In ciascun movimento una delle tre parole era associata a una cellula melodica o sezione e, in base alla frequenza di pubblicazione, l’algoritmo creava una partitura. Ad esempio, nel terzo movimento, più la parola “emergency” veniva pubblicata, più il suono era intenso. Questo lavoro è stato molto apprezzato ed è stato pubblicato su alcune riviste di settore. Ma la mia prima sperimentazione è stata EdiTidE, sistema generativo sull’acqua alta del 12 novembre 2019 come risposta a quanto successo, alla complessità dei fenomeni e al pochissimo controllo che ne abbiamo. Il brano utilizzava i dati meteorologici e delle maree per dar vita a una composizione sempre in mutamento».
La musica dell’Ai è destinata a prendere il posto dei musicisti?
«L’AI non ha un corpo e non potrà mai rielaborare la complessità dell’esperienza vissuta, né capire il contesto. Per questo sono convinto che i concerti con i musicisti ci saranno sempre, ma cambierà la musica: ci saranno lavori nuovi e altri verranno affiancati dall’Ai. Abbiamo allenato per ore l’Ai sullo strumento basco txalaparta, che si suona in due. Alla fine, quando uno dei musicisti l’ha provato, non ha sentito differenze sonore, ma si percepiva l’assenza della corporeità dell’altro musicista. Il concerto rimarrà l’occasione di provare emozioni con veri musicisti. Lo studio della musica con l’Ai ci permette di esplorare le potenzialità del suono e di continuare a essere artisti e compositori».
Cosa si ascolterà in futuro?
«Esiste una comunità multidisciplinare internazionale di riferimento che si chiama Nime, mentre tra i gruppi di riferimento c’è il duo Dadabots, che fa prompt djing utilizzando l’Ai. L’ispirazione per il mio strumento Thales l’ho avuta mentre guardavo Marco Donnarumma, che ha inventato uno strumento biofisico, xth-sense, che capta il flusso del sangue e lo amplifica nello spettro dell’udibile. Durante la performance, Donnarumma sembrava avesse una sfera tra le mani. Ho pensato: se ci fosse davvero? E ho realizzato i Thales, Talete, in onore del filosofo che per primo ha studiato i magneti. Sono due dischi con magneti che interagiscono e attivano sintetizzatori basati sull’Ai. Poi c’è Stacco, ideato con Giacomo Lepri, che ha forma ovale, funziona con sfere magnetiche e ha lo spartito sulla superficie».
Ci sono dei problemi etici in questo settore?
«Tanti. Non è ancora normato nulla, soprattutto sull’uso di dati per l’allenamento di modelli generativi senza il consenso dell’autore».
E lei cosa ascolta?
«Quando ascolto per piacere il jazz, il primo amore».
Riproduzione riservata © La Nuova Venezia