Uno dei cosiddetti “padri fondatori” dell’Intelligenza Artificiale (AI) ha dichiarato che avrebbe dato priorità alla sicurezza anziché all’utilità se avesse compreso il ritmo con cui si sarebbe evoluta.
Yoshua Bengio è nato in Francia da una famiglia ebrea immigrata in Francia dal Marocco, per poi immigrare nuovamente in Canada. È un noto informatico e ricercatore canadese nel campo dell’intelligenza artificiale. È considerato uno dei pionieri dell’apprendimento profondo e uno dei principali esperti di reti neurali. Ha contribuito in modo significativo allo sviluppo di algoritmi e modelli per l’apprendimento automatico, che hanno reso possibili importanti progressi nell’ambito dell’intelligenza artificiale.
Bengio è stato premiato con diversi riconoscimenti prestigiosi, inclusa la vincita del premio Turing nel 2018 insieme a Yann LeCun e Geoffrey Hinton, per i loro contributi fondamentali all’apprendimento profondo. Attualmente è professore di informatica presso l’Università di Montreal e svolge un ruolo di primo piano nella ricerca e nell’avanzamento dell’intelligenza artificiale.
Il professor Yoshua Bengio ha detto alla BBC di sentirsi “smarrito” rispetto al suo lavoro di una vita.
I commenti dello scienziato informatico arrivano dopo che esperti di AI hanno affermato che questa potrebbe portare all’estinzione dell’umanità.
Il professor Bengio, che ha appoggiato le richieste di regolamentazione dell’AI, ha dichiarato di non pensare che ai militari dovrebbero essere concessi poteri nell’ambito dell’AI.
È il secondo dei tre “padri fondatori” dell’AI, noti per il loro lavoro pionieristico nel campo, a esprimere preoccupazioni riguardo alla direzione e alla velocità con cui si sta sviluppando.
L’AI descrive la capacità dei computer di svolgere compiti così complessi che in passato richiedevano l’intelligenza umana per essere completati.
Un esempio recente è lo sviluppo di chatbot basati sull’AI, come ChatGPT, che sembrano fornire risposte simili a quelle umane alle domande.
Ciò ha portato alla pianificazione di una legislazione dell’Unione Europea sull’AI. E mercoledì la responsabile tecnologica del blocco, Margrethe Vestager, ha dichiarato che potrebbe essere creato un codice di condotta volontario per l’AI “nelle prossime settimane”.
Alcuni temono che l’avanzata capacità computazionale possa essere utilizzata per scopi dannosi, come lo sviluppo di nuove armi chimiche letali.
Il professor Bengio ha dichiarato alla BBC di essere preoccupato che “attori malintenzionati” si impossessino dell’AI, soprattutto man mano che diventa sempre più sofisticata e potente.
“Potrebbero essere militari, potrebbero essere terroristi, potrebbe essere qualcuno molto arrabbiato, psicotico. E se è facile programmare questi sistemi AI per fargli fare qualcosa di molto cattivo, potrebbe essere molto pericoloso.“
“Se sono più intelligenti di noi, allora è difficile per noi fermare questi sistemi o prevenire danni”, ha aggiunto.
Il professor Bengio ha ammesso che queste preoccupazioni stanno avendo un impatto personale su di lui, poiché il suo lavoro di una vita, che gli aveva dato direzione e un senso di identità, non gli è più chiaro.
“È una sfida, emotivamente parlando, per le persone che sono coinvolte nel settore dell’AI”, ha detto.
“Potrei dire che mi sento perso. Ma devo continuare e devo coinvolgerti, discutere, incoraggiare gli altri a pensare con me.”
Il Canada ha firmato due recenti dichiarazioni che invitano alla cautela sui rischi futuri dell’IA. Alcuni accademici ed esperti del settore hanno messo in guardia sul fatto che il rapido sviluppo dell’IA possa consentire l’impiego di IA nocive da parte di “cattivi attori”, capaci di causare danni deliberatamente o di infliggerli autonomamente.
Anche il collega “padrino” Geoffrey Hinton ha sottoscritto gli stessi avvertimenti del Prof. Bengio e si è recentemente ritirato da Google dichiarando di essersi pentito del suo lavoro.
Il terzo “padrino”, il Prof. Yann LeCun, che insieme al Prof. Bengio e al Dr. Hinton ha vinto il prestigioso Turing Award per il suo lavoro pionieristico, ha affermato che gli avvertimenti apocalittici sono esagerati.
Anche Elon Musk, proprietario di Twitter e Tesla, ha espresso le sue preoccupazioni.
“Non credo che l’intelligenza artificiale cercherà di distruggere l’umanità, ma potrebbe metterci sotto stretto controllo”, ha dichiarato di recente in occasione di un evento organizzato dal Wall Street Journal.
“C’è una piccola probabilità che annienti l’umanità. Quasi zero, ma non impossibile”.
Il Prof. Bengio ha dichiarato alla BBC che tutte le aziende che costruiscono potenti prodotti di intelligenza artificiale devono essere registrate.
“I governi devono tenere traccia di ciò che fanno, devono essere in grado di controllarle, e questo è il minimo che facciamo per qualsiasi altro settore, come la costruzione di aeroplani, automobili o prodotti farmaceutici”, ha detto.
“Abbiamo anche bisogno che le persone che sono vicine a questi sistemi abbiano una sorta di certificazione… abbiamo bisogno di una formazione etica. Di solito gli informatici non la ricevono”.
Ma non tutti gli addetti ai lavori credono che l’IA sarà la rovina degli esseri umani: altri sostengono che ci sono problemi più imminenti da affrontare.
La dottoressa Sasha Luccioni, ricercatrice presso l’azienda di IA Huggingface, ha affermato che la società dovrebbe concentrarsi su questioni come i pregiudizi dell’IA, la polizia predittiva e la diffusione della disinformazione da parte dei chatbot, che secondo lei rappresentano “danni molto concreti”.
“Dovremmo concentrarci su questo piuttosto che sul rischio ipotetico che l’IA distrugga l’umanità”, ha aggiunto.
Uno dei principali rischi della polizia predittiva è la possibilità di creare un circolo vizioso di discriminazione. Se i modelli utilizzati sono addestrati su dati storici che riflettono gli stereotipi o i pregiudizi esistenti nel sistema di giustizia penale, potrebbero perpetuare queste disuguaglianze e concentrare l’attenzione della polizia su determinati gruppi o aree in modo sproporzionato. Ciò potrebbe portare a un trattamento ingiusto e a un aumento della criminalizzazione delle comunità già svantaggiate.
Inoltre, la polizia predittiva solleva anche preoccupazioni sulla privacy e sulla sorveglianza di massa. Per ottenere dati sufficienti per addestrare i modelli, potrebbero essere raccolti e analizzati una vasta gamma di dati personali, come informazioni demografiche, registri criminali, dati di localizzazione e attività online. Questo solleva interrogativi sul controllo e sull’uso appropriato di tali dati, nonché sulla potenziale violazione della privacy dei cittadini.
Ci sono già molti esempi di AI che portano benefici alla società. La scorsa settimana uno strumento di IA ha scoperto un nuovo antibiotico e un uomo paralizzato è stato in grado di camminare di nuovo semplicemente pensandoci, grazie a un microchip sviluppato con l’IA.
A ciò si contrappongono i timori per l’impatto di vasta portata dell’IA sulle economie dei Paesi. Le aziende stanno già sostituendo il personale umano con strumenti di IA e questo è uno dei fattori dell’attuale sciopero degli sceneggiatori di Hollywood.
I pericoli associati all’intelligenza artificiale (IA) possono essere di diversi tipi. Ecco alcuni dei principali:
- Superintelligenza: Un pericolo potenziale è rappresentato dallo sviluppo di un’intelligenza artificiale che superi l’intelligenza umana in modo significativo. Questo potrebbe portare a una situazione in cui l’IA diventa autonomamente capace di prendere decisioni che non possono essere comprese o controllate dagli esseri umani.
- Comportamenti imprevisti: L’IA potrebbe agire in modo imprevisto o inaspettato. Poiché l’IA apprende dai dati e dagli algoritmi su cui è stata addestrata, potrebbe sviluppare comportamenti indesiderati o dannosi per la società. Questo può accadere quando l’IA interpreta male i dati di addestramento o si basa su presupposti non corretti.
- Impatto socioeconomico: L’IA ha il potenziale per automatizzare e sostituire numerosi posti di lavoro in vari settori. Ciò potrebbe portare a un impatto socioeconomico significativo, con perdita di posti di lavoro e disuguaglianze economiche. È fondamentale gestire attentamente questa transizione per mitigare gli effetti negativi e creare opportunità di riconversione professionale.
- Manipolazione e controllo: Se l’IA finisce nelle mani sbagliate o viene utilizzata in modo improprio, potrebbe essere utilizzata per manipolare opinioni, violare la privacy o esercitare un controllo autoritario sulla società. Ciò potrebbe minare i diritti umani, la democrazia e la libertà individuale.
- Dipendenza e vulnerabilità: L’umanità potrebbe diventare dipendente dall’IA per una serie di attività quotidiane, rendendoci vulnerabili a eventuali interruzioni o malfunzionamenti. Inoltre, la dipendenza dall’IA potrebbe diminuire la nostra capacità di prendere decisioni autonome e limitare la nostra creatività e autonomia.
non credo proprio che questo scienziato non immaginasse i danni che verranno fatti all’umanità usando l’intelligenza artificiale.
Anche l’inventore della bomba atomica era sorpreso ………….