Etica e Intelligenza artificiale, ce ne parla la fisica triestina che lavora per Meta

Presani si è trasferita da tempo negli Stati Uniti. Si occupa di sicurezza e impatto sociale legati all’intelligenza artificiale

La fisica triestina Eleonora Presani
La fisica triestina Eleonora Presani

Pensare alla scienza e alla tecnologia senza considerarne l’impatto sociale è impossibile, perché qualsiasi nuova scoperta ha un influsso sulla società. E nel caso dell’intelligenza artificiale generativa la questione è ancor più cruciale, perché si tratta di una tecnologia che si sta sviluppando a una velocità impressionante e a cui le persone hanno avuto accesso diretto fin da subito. Perciò è di primaria importanza comprendere e gestire queste tecnologie in modo responsabile, bilanciando funzionalità, eticità e sicurezza.

Si occupa di queste problematiche la fisica triestina Eleonora Presani, che dopo la laurea all’Università di Trieste, un dottorato in fisica delle particelle elementari all’Università di Amsterdam e un’esperienza di ricerca al Cern, a bordo della Stazione spaziale internazionale, è approdata al mondo dell’editoria scientifica, dove ha ricoperto incarichi prestigiosi, si è trasferita a New York ed è atterrata a Fair, il gruppo di ricerca sull’Ai fondamentale di Meta, e quindi, nel 2023, a Gen Ai, dipartimento responsabile della creazione dei modelli di Ai usati nelle varie applicazioni del mondo Meta: qui lavora per garantirne la sicurezza, l’eticità e l’affidabilità. Grande sostenitrice dell’open source anche nel campo dell’Ai, in linea con la filosofia di Zuckerberg, racconta – in questa intervista realizzata in occasione dell’evento Homecoming UniTs, organizzato dall’ateneo giuliano l’11 dicembre per mettere in contatto i suoi alumni con gli attuali studenti – le difficoltà di stabilire per l’Ai degli standard etici e di sicurezza che possano valere a livello globale.

Dottoressa Presani, quando ha capito che avrebbe voluto concentrarsi sull’impatto sociale della scienza e in particolare dell’Ai?

«Sono cresciuta e ho studiato a Trieste, una realtà in cui la scienza è parte integrante della società. I miei genitori sono biologi e hanno lavorato per anni al Burlo, molti miei amici lavorano in Area Science Park e alla Sissa. L’esempio di Margherita Hack ha alimentato fin da ragazzina la mia passione per la fisica e l’astrofisica. Perciò non ho mai considerato la scienza slegata dal suo impatto sociale e ho sempre avuto a cuore la divulgazione scientifica: ho scelto una carriera che coniuga questi aspetti».

Come si è avvicinata a questo mondo e cosa pensa dell’Ai generativa?

«Ho scoperto l’esistenza dell’intelligenza artificiale durante l’università: viene impiegata da tempo in vari ambiti, ma finora era sempre stata usata dagli esperti. Ora l’Ai generativa parla il linguaggio degli esseri umani: è il grande cambiamento, ma credo che sia un po’ sopravvalutata perché noi umani abbiamo la tendenza ad associare l’intelligenza alla capacità linguistica».

Per lavoro si occupa di garantire la sicurezza dei modelli di Ai, come si fa?

«Bisogna trovare il giusto compromesso tra sicurezza e utilità e non sarà comunque soddisfacente per tutti. Per esempio, la priorità va alla privacy o alla funzionalità? In Europa risponderebbero alla privacy, in Usa alla funzionalità. Perciò spesso è necessaria una negoziazione con le autorità locali: in Ue, nonostante l’Ai Act, il panorama regolatorio è molto frammentato, perché ogni nazione ha i propri istituti per l’Ai che interpretano e implementano queste leggi. Servirebbe un sistema di governance che permetta la comunicazione tra governi, istituzioni e industria».

E come garantirne l’eticità?

«L’etica è soggettiva e varia a seconda delle culture: per sistemi usati a livello globale è difficile definire il giusto compromesso. In MLcommon, no-profit con cui collaboro per conto di Meta, ci basiamo sul codice dell’Istituto per la pace degli Stati Uniti, che ingloba i diritti umani universali. La trasparenza, l’equità e la non discriminazione sono essenziali».

Quali sono le implicazioni sociali più significative dell’Ai generativa?

«È una tecnologia accessibile a tutti, ma a volte soffre di allucinazioni e serve un minimo di conoscenza per capire come interpretare gli output di questi modelli. Perciò è fondamentale lavorare sull’educazione: è necessario alzare il livello medio d’istruzione e aiutare i più piccoli a sviluppare un proprio spirito critico. Oggi abbiamo tantissime informazioni a disposizione: il problema è come interpretarle e gestirle». —

© RIPRODUZIONE RISERVATA

Riproduzione riservata © La Nuova Venezia