Saremo superati dall’intelligenza artificiale?

167-5

Sarà possibile l’avvento della Singolarità Tecnologica, ovvero il momento in cui il progresso tecnologico accelera a tal punto da oltrepassare la comprensione e le previsioni degli esseri umani moderni, e quindi dell’intelligenza artificiale? Sarà una minaccia per l’uomo? Queste sono le domande a cui si prefigge di rispondere il nuovo film scritto e diretto da Alex Garland, Ex Machina che uscirà in Italia domani. Il film, a differenza di molte altre pellicole uscite negli ultimi anni, riesce a descrivere la tematica dell’intelligenza artificiale in modo fedele alla realtà e, soprattutto, interessante anche per i non addetti ai lavori. È la storia di un programmatore miliardario che assolda un impiegato nel suo personale laboratorio per vedere se il suo nuovo robot è a tutti gli effetti una intelligenza artificiale (detta Ia).

Per tornare all’interrogativo di partenza, secondo alcuni studiosi, la Singolarità Tecnologica sembra un avvenimento certo. Infatti, tale concetto, le cui origini risalgono già al 1950, trova una prima conferma con l’inventore Ray Kurzweil, che dimostra, partendo dall’analisi storica dell’andamento del progresso, nella legge dei ritorni accelerati (The Law of Accelerating Returns), che l’evoluzione della tecnologia segue un processo esponenziale e non lineare come invece si sarebbe facilmente portati a pensare: ovvero ad ogni scoperta fatta si riduce il tempo necessario per giungere alla scoperta successiva. A sostegno di questa tesi si può notare come, ad esempio, nel «Progetto Genoma umano» i ricercatori, sebbene in 7 anni riuscirono a codificare solo l’1% del genoma, furono in grado nei 6 anni successivi di completare la ricerca. Ciò sta a significare che l’era della Singolarità Tecnologica è alle porte e che potremmo, presto o tardi, doverci confrontare con tematiche di questo tipo. Molte sono difatti le paure e le critiche che vengono mosse agli intellettuali e studiosi che lavorano a sostegno della realizzazione di una Ia.
Alcuni affermano che l’avvento di una singolarità tecnologica non abbia molte possibilità di realizzarsi empiricamente e contestano la teoria del processo esponenziale di Kurzweil sostenendo che tale curva potrebbe non avere siffatto andamento per un periodo di tempo infinito, ma che potrebbe diventare lineare o flettersi allentando così il ritmo della crescita delle future scoperte.

fgqe7dwbvrsvsw2iaveb

Un altro punto di vista di molti critici, come Theodore Kaczynski, è che un élite o le classi abbienti della società potrebbero strumentalizzare l’uso dell’ intelligenza artificiale a proprio vantaggio sottomettendo o sterminando tutto il resto della collettività.
Invece altri studiosi, come Bill Joy, propongono di arrestare tale progresso prima possibile perché, secondo quest’ultimi, la nuova intelligenza creata sarebbe troppo pericolosa e potrebbe non rispettare i propri creatori sino a voler sterminare l’intero genere umano (ovvero fino al verificarsi del cosiddetto concetto di Grey goo).
Tuttavia i sostenitori dell’Intelligenza Artificiale Amichevole e altri singolaristi, pur riconoscendo tale pericolo, sostengono che si possa lavorare al fine di rendere la IA più sicura, creandola in modo tale che agisca benevolmente verso gli umani. Questa idea trova sostegno nelle «Tre Leggi della Robotica» ideate da Asimov che costringerebbero in ogni modo il robot a non rivoltarsi malignamente contro alcun individuo.
Ciò che è certo per ora è che nulla si sa del domani e dei pericoli che ci riserverà il futuro. L’unica cosa che resta da fare è cominciare ad informarsi preventivamente a riguardo e a trattare in modo logico e razionale tali argomenti per non rischiare nell’avvenire di accorgersene troppo tardi.

Luisa Bizzotto

Studio all’Università di Padova Ingegneria Chimica e dei Materiali.
Scrivo per La Voce che Stecca dal 16 luglio 2015 e su queste pagine mi occupo di cultura, scienza, musica e sport.

Shares