Intelligenza artificiale: quali sono i pericoli?

Secondo Stephen Hawking «l’intelligenza artificiale può portare alla scomparsa dell’umanità, alla sua distruzione», tanto che assieme ad altre importanti personalità del settore, come Bill Gates ed Elon Musk, fondatore di Tesla, da tempo l’astrofisico lancia forti appelli di sensibilizzazione verso questa tecnologia.

stephen.hawking

Negli ultimi tempi, infatti, algoritmi sempre più evoluti e tecniche di machine learning trovano la loro applicazione nei campi più svariati, dall’economia alle telecomunicazioni, dalla genetica alla finanza, svolgendo un ruolo sempre più centrale all’interno della nostra società. Inoltre, secondo alcuni, come l’imprenditore Ray Kurzweil, la potenza di calcolo dei computer è sempre più vicina a quella del cervello umano, che potrebbe essere superato nel giro di pochi decenni.
I timori, in questo senso, sono principalmente di due tipi. Il primo, che a prima vista potrebbe sembrare distante e quasi impossibile, è il classico scenario di fantascienza, in cui macchine più evolute dell’uomo prendono il controllo su quest’ultimo. Ovviamente, relativamente a questo scenario, non si deve pensare alle versioni volutamente esagerate ed inutilmente antropomorfizzate tipiche dei blockbuster hollywoodiani. Se però si presta attenzione a come ormai la quasi totalità dei processi più complessi che regolano il nostro mondo, come per esempio la gestione dei mercati internazionali, in cui la maggior parte delle operazioni sono svolte non da uomini ma da software, o anche semplicemente la gestione del traffico aereo, siano sempre più interconnessi tra loro e sottomessi all’automazione, si capisce come uno sviluppo erroneo di tali tecnologie potrebbe avere effetti devastanti. In questo senso possono offrire uno spunto di riflessione le parole del filosofo Nick Bostrom, il quale afferma che se mai arriveremo a vere forme di intelligenza artificiale, sarà fondamentale implementare al loro interno tutto l’insieme di valori tipici dell’essere umano, per avere la sicurezza che gli obiettivi da esse perseguiti siano in linea con le aspettative.
L’altra paura legata a questo tipo di tecnologie non riguarda tanto il loro corretto sviluppo, quanto la loro desiderabilità. Anche ammesso che costruire un essere pensante con capacità superiori all’uomo sia possibile, avrebbe senso farlo, o si finirebbe per sminuire il senso stesso dell’esperienza umana, in un mondo in cui ogni attività, anche intellettuale, tipica dell’essere umano potrebbe essere svolta in modo migliore da una macchina? Occorre chiedersi, appunto, se sia più desiderabile aspirare a forme di intelligenza compiuta, o piuttosto continuare a sviluppare strumenti formidabili nella risoluzione di compiti specifici, ma incapaci di ogni altro tipo di «ragionamento».
L’unico modo sano di affrontare tali questioni non può che essere quello di continuare nella ricerca e nella dialettica, auspicabilmente in modo sempre più vasto e profondo: arrivare alla piena espressione di tali problemi senza avere pronta la loro soluzione potrebbe essere disastroso. In questo senso è fondamentale che anche esperti in campi apparentemente lontani dall’ambito tecnologico, come filosofia, sociologia o politica, si occupino di tali argomenti, che hanno a che fare più con l’etica e la morale che con la mera tecnica tecnologica.