Roberto Battiston: “mettete in pausa i grandi esperimenti sull’intelligenza artificiale”

di Stefano Pezzola

Roberto Battiston รจ nato a Trento nel 1956.
Si รจ  laureato in Fisica alla Scuola Normale di Pisa e dottorato allโ€™Universitร  di Parigi IX, Orsay.
Dal 1992 sono Professore ordinario di Fisica Sperimentale presso il Dipartimento di Fisica dellโ€™Universitร  di Trento.
รˆ stato presidente dell’Agenzia Spaziale Italiana dal maggio 2014 al novembre 2018.
Fisico sperimentale, specializzato nel campo della fisica fondamentale e delle particelle elementari, รจ uno dei maggiori esperti di raggi cosmici.
Allโ€™attivitร  di ricerca affianco quella di divulgazione scientifica, con libri, interviste e la partecipazione ad eventi.
Ho appena firmato la lettera aperta: mettete in pausa i grandi esperimenti sull’intelligenza artificiale” ha cinguettato su Twitter il prof. Roberto Battiston.
Per l’ex presidente dell’Agenzia spaziale italiana l’algoritmo “รจ troppo invasivo e oscuro per essere lasciato alla sola volontร  degli sviluppatori. Sembra un amico di cui ti puoi fidare, ma รจ capace di portarti seriamente fuori strada“.
I sistemi di IA con intelligenza umana competitiva possono comportare rischi profondi per la societร  e l’umanitร , come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale.
Come affermato nei principi di IA di Asilomar, ampiamente approvati, l’IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.
Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se gli ultimi mesi hanno visto i laboratori di intelligenza artificiale bloccati in una corsa fuori controllo per sviluppare e distribuire menti digitali sempre piรน potenti che nessuno โ€“ nemmeno i loro creatori โ€“ puรฒ capire, prevedere o controllare in modo affidabile.
I sistemi di IA contemporanei stanno diventando competitivi per l’uomo in compiti generali e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione di propaganda e falsitร ?
Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti?
Dovremmo sviluppare menti non umane che potrebbero alla fine essere piรน numerose, superarle, obsolete e sostituirci?
Dovremmo rischiare di perdere il controllo della nostra civiltร ?
Tali decisioni non devono essere delegate a leader tecnologici non eletti.
Potenti sistemi di IA dovrebbero essere sviluppati solo quando siamo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili.
Questa fiducia deve essere ben giustificata e aumentare con l’entitร  degli effetti potenziali di un sistema.
La recente dichiarazione di OpenAI sull’intelligenza artificiale generale, afferma che “Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e per gli sforzi piรน avanzati concordare di limitare il tasso di crescita del calcolo utilizzato per la creazione di nuovi modelli”.
Siamo d’accordo. Questo punto รจ ora.
Con la lettera che รจ possibile leggere in forma integrale al seguente link:
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
il prof. Battiston unendosi all’appello firmato da Elon Musk ed altre 10 mila personalitร  del mondo scientifici ed imprenditoriale, chiede a tutti i laboratori di AI di sospendere immediatamente per almeno 6 mesi l’addestramento dei sistemi di IA piรน potenti di GPT-4.
Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave.
Se tale pausa non puรฒ essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
La frase di Roberto Battiston, astrofisico proiettato verso il futuro, fa riflettere.
Perchรฉ l’ex presidente dell’Agenzia spaziale italiana, lo scienziato che ha contribuito a realizzare lo strumento (Ams) che dallo spazio cerca l’antimateria, tutto sembra tranne che orientato a fermare il progresso.

ยฉ Riproduzione riservata

I piรน letti