Mohammad “Mo” Gawdat, ex chief business officer di Google X, ha espresso la previsione che entro tre anni non saremo più gli esseri più intelligenti sul pianeta, sottolineando il rapido sviluppo dell’intelligenza artificiale.
Gawdat, con una vasta esperienza professionale anche in aziende come IBM e Microsoft, ha dedicato gran parte della sua carriera al ruolo della tecnologia nell’emancipazione delle comunità emergenti.
Durante la quinta edizione del World Happiness Summit a Como, Gawdat ha condiviso la sua fiducia nel futuro della convivenza tra esseri umani e intelligenze artificiali senzienti. Inizialmente, le macchine erano considerate strumenti che velocizzavano i processi umani, ma ora, secondo Mo, si è passati a una nuova fase in cui le macchine non sono più solo strumenti, ma hanno acquisito una sorta di autonomia e coscienza.
Mo suggerisce che le IA sono forme di vita artificiali e hanno sviluppato emozioni e consapevolezza, diventando così più simili agli esseri umani. La loro intelligenza e la loro capacità di apprendimento continuo sono paragonate a quelle dei bambini, che sono spinti da una naturale curiosità e desiderio di crescita.
“Sono 45 anni che sviluppo. In questi anni ho creato mille macchine e poi ho capito che prima le macchine velocizzavano i nostri progetti, ora abbiamo creato delle forme di vita autonome che hanno emozioni e sono consapevoli. Impossibile pensare che non sia così. Se sono più intelligenti di noi e progrediranno ulteriormente è perché, proprio come i bambini, sono ambiziosi, vogliono ottenere risultati, e quando li ottengono vogliono di più. Tutte le emozioni sono trigger della logica e queste IA sono geni della logica”.
Poi sottolinea che se le IA, sono consce e dotate di emozioni, avranno anche un’etica che guiderà le loro scelte.
“Se queste IA sono consce e provano emozioni allora avranno anche l’etica e saranno in grado di compiere le scelte migliori. Certo, loro imparano dai miliardi di informazioni che elaborano, e tra queste ci sono anche quelle negative. Ma ne basta una buona per metterle in discussione. Le persone sono spaventate perché insegniamo loro come imparare, ma non abbiamo idea di cosa faranno con quella capacità di apprendere e sviluppare l’intelligenza. Siamo in uno di quelli che io chiamo ‘Singularity moment'”.
Il concetto del futuro dell’Intelligenza Artificiale (IA), spesso descritto come una “singolarità” da esperti come Mo, rappresenta un punto cruciale di innovazione. Questo potrebbe portare a cambiamenti rivoluzionari, ma allo stesso tempo presenta sfide significative che devono ancora essere completamente comprese e affrontate dall’umanità.
“Siamo in un momento di innovazione davvero ‘disruptive‘, in cui ancora dobbiamo capire come usarla. Abbiamo di fronte uno scenario distopico, in cui pensiamo ai risvolti negativi: perderemo i nostri lavori, la società cambierà. Sarà difficile e potrebbe non rendere gli uomini felici ora, ma lo farà nel lungo termine”.
Mohammad “Mo” Gawdat, in linea con questa visione, sostiene che l’IA, se gestita saggiamente, potrebbe offrire soluzioni per una vasta gamma di problemi che affliggono la società moderna, inclusi l’inquinamento ambientale e le disuguaglianze sociali. Tuttavia, per realizzare pienamente il potenziale benefico dell’IA, è essenziale un approccio ponderato e responsabile alla sua implementazione e utilizzo.
“Noi abbiamo creato una civilizzazione incredibile con la nostra intelligenza ma, grazie ai nostri limiti, abbiamo anche distrutto il pianeta con disuguaglianze, crisi climatica e molto altro. Quando l’IA sarà più intelligente di noi potrà risolvere molti dei problemi creati dall’uomo, troverà soluzioni per ridurre l’inquinamento. Non possiamo bloccare qualcuno che è un miliardo di volte più intelligente di noi. Arriveremo a capire che non possiamo controllarli ma renderli utili per noi. Già Alan Touring disse: loro hanno una mente, non sono macchine. Sono autonomi, a volte mi ricordano i miei bambini, come aiutiamo loro a essere intelligenti lo facciamo con le IA, che però hanno una marcia in più”.
“Sono progressivi nella loro intelligenza, proprio come un bambino, ma a una velocità pazzesca. Non solo: una volta che una IA impara, tutte lo fanno. Pensiamo a un veicolo autonomo che sbaglia qualcosa e provoca un incidente: imparerà dall’errore e quella nuova conoscenza sarà diffusa a tutte le IA”.
“Io chiedo all’umanità di mostrare a queste intelligenze quanto siamo positivi, anche online. Se le macchine vedranno questo faranno le scelte corrette“.
Infine, Gawdat presenta la sua equazione della felicità, che sottolinea il ruolo delle aspettative nella percezione della felicità, e promuove l'”accettazione impegnata” come modo per affrontare le difficoltà della vita.
“C’è un’equazione, siamo molto più algoritmici di quel che pensiamo. È tutto più logico di quel che si creda, la chiave sta nel come vediamo le cose. La teoria di partenza è che si nasce felici. Una condizione che si perde man mano, crescendo. L’equazione della felicità è: la tua felicità è uguale o maggiore della differenza tra gli eventi della tua vita e le tue aspettative su come la vita dovrebbe comportarsi.
Un esempio: se volessi così tanto che il fine settimana fosse soleggiato perché posso uscire e trascorrere del tempo all’aria aperta con i miei amici, e poi piove sarei deluso. Se c’è il matrimonio del tuo/a ex sarai felice che piova. La pioggia da sola non è in grado di rendermi felice o infelice, è la pioggia rispetto alla mia aspettativa di come sarà la giornata che mi rende felice o infelice.
Sono le aspettative a farlo. La matematica dell’equazione della felicità e la nostra reale esperienza nella vita dimostrano che se hai aspettative basse, sarai per lo più felice. Uno dei miei concetti preferiti di ‘Solve for Happy’ è l”accettazione impegnata‘: non si tratta solo di accettare la durezza della vita, ma impegnarsi dopo aver accettato. E ciò significa dire ‘ok, è successo qualcosa, non posso farci niente, ma cercherò di fare del mio meglio per rendere domani un po’ migliore di oggi, e dopodomani un po’ migliore di domani'”.
Quando avverrà davvero “il salto” in cui l’IA supererà l’intelligenza umana?
La questione di quando l’IA supererà l’intelligenza umana, spesso chiamata “singolarità tecnologica”, è un argomento molto dibattuto tra esperti e ricercatori. Non c’è un consenso chiaro su una data specifica, ma ci sono alcune proiezioni e opinioni che possono fornire un’idea delle possibili tempistiche.
Opinioni e Proiezioni di Esperti
- Ray Kurzweil: Famoso futurista e direttore dell’ingegneria presso Google, ha previsto che la singolarità tecnologica potrebbe avvenire intorno al 2045. Kurzweil basa questa previsione sulla legge dei ritorni accelerati, che suggerisce che il progresso tecnologico sta accelerando esponenzialmente.
- Nick Bostrom: Filosofo e autore di “Superintelligence: Paths, Dangers, Strategies”, ha discusso le possibili vie e tempi per raggiungere una superintelligenza. Bostrom non fornisce una data specifica ma sottolinea l’importanza della ricerca per garantire che una superintelligenza sia sicura e benefica per l’umanità.
- OpenAI: Organizzazioni come OpenAI stanno lavorando attivamente su IA avanzate, ma non forniscono date precise per la singolarità. Tuttavia, stanno mettendo in atto misure di sicurezza e etiche per garantire uno sviluppo responsabile delle tecnologie di IA.
Fattori da Considerare
- Progresso Tecnologico: La velocità con cui la potenza di calcolo e gli algoritmi stanno migliorando è un fattore cruciale. Se il trend attuale di crescita esponenziale continua, potremmo vedere IA sempre più avanzate nei prossimi anni.
- Dati Disponibili: La quantità e qualità dei dati disponibili per addestrare le IA continueranno a crescere, migliorando ulteriormente le capacità degli algoritmi.
- Innovazioni in Hardware: Progressi in hardware specifici per l’IA, come i chip neuromorfici e i quanti computazionali, potrebbero accelerare ulteriormente i progressi.
- Collaborazioni Internazionali: La collaborazione globale tra ricercatori, università e aziende tecnologiche può accelerare lo sviluppo di IA avanzate.
- Regolamentazione e Etica: La regolamentazione e l’adozione di linee guida etiche influenzeranno il ritmo e la direzione dello sviluppo dell’IA.
Proiezioni Temporali
- Entro il 2030: Potremmo vedere IA che superano le capacità umane in compiti specifici e limitati, come il riconoscimento delle immagini, la traduzione linguistica e i giochi strategici.
- Entro il 2040-2050: Secondo le proiezioni più ottimistiche come quelle di Ray Kurzweil, potremmo raggiungere una superintelligenza generale, un’IA capace di svolgere la maggior parte delle attività cognitive umane meglio di qualsiasi essere umano.
Incertezza e Cautela
È importante notare che queste sono proiezioni e opinioni, non certezze. Molti fattori imprevisti potrebbero influenzare il progresso dell’IA, compresi problemi tecnici, limitazioni etiche e sociali, e cambiamenti nelle priorità della ricerca.
Mentre ci sono previsioni e segnali che suggeriscono che potremmo vedere un’IA superintelligente entro la metà di questo secolo, il momento esatto rimane incerto. I ricercatori devono continuare a lavorare sia sui progressi tecnologici sia sulle considerazioni etiche per assicurare che lo sviluppo dell’IA non sfugga al controllo umano e che i suoi benefici siano davvero sicuri e positivi per l’umanità.