Con lo sviluppo incalzante delle intelligenze artificiali, cominciano a delinearsi scenari che preoccupano anche gli addetti ai lavori.
Sono oltre mille tra ricercatori ed investitori che nelle ultime settimane hanno firmato una lettera aperta ai governi mondiali con una sola richiesta: imporre una pausa all’addestramento delle intelligenze artificiali di almeno sei mesi, il tempo di sviluppare dei protocolli di sicurezza condivisi contro l’eventualità che la mente digitale sfugga al controllo dei suoi stessi creatori.
Tra i firmatari molti nomi che stupiscono: da Steve Wozniak, co-fondatore di Apple, passando da Elon Musk, che pure ha investito in queste stesse tecnologie, a Mohammad Emad Mostaque, fondatore di Stability.ia, una delle società sviluppatrici di una delle IA più di successo al momento. Lo scenario temuto è quello profetizzato da innumerevoli opere letterarie e cinematografiche, eppure è radicato solidamente nel mito di Icaro, tanto antico quanto attuale.
Lo sviluppo smodato e senza controllo delle IA preoccupa non solo nell’eventuale risveglio di una coscienza ribelle nelle macchine, uno “scenario Skynet” come lo aveva immaginato Cameron nel suo immortale “Terminator”, ma anche nell’eventualità orwelliana, ben concreta, dello sfruttamento di questi mezzi da parte di governi autoritari, che sarebbero così in grado di controllare le vite dei cittadini capillarmente in un mondo che del digitale non può più fare a meno.
Salta alla mente Pechino, che già utilizza sistemi tecnologicamente avanzati proprio a questo scopo e che nelle intelligenze artificiali vede un’occasione straordinaria tanto per la politica interna quanto per quella estera. La lettera, pubblicata dalla no profit “Future of Life”, richiede agli stessi sviluppatori di migliorare gli strumenti già sviluppati secondo principi di accuratezza, trasparenza, lealtà e credibilità, invece di cercare lo strumento con la maggiore potenza possibile. Geoffrey Hinton, da molti considerato uno dei padri delle intelligenze artificiali, ad inizio maggio ha abbandonato Google, dove ha lavorato per oltre un decennio, per poter parlare dei pericoli enormi di questa tecnologia.
La preoccupazione di Hinton sta nella quantità di conoscenze generali che le IA possiedono, già di gran lunga superiori a quelle del più colto degli esseri umani, e nella loro futura capacità di ragionamento per metterle in relazione: per adesso i ragionamenti della macchina sono piuttosto semplici, ma è proprio la velocità di questo sviluppo a preoccuparlo. Eppure, nonostante le voci autorevolissime schieratesi contro il progresso cieco, la crescita di queste tecnologie pare solo all’inizio. Perché si possa pensare di congelare lo sviluppo delle IA è necessario avviare un dialogo globale sulla materia, cosa che appare difficile data la già citata occasione che queste potrebbero rappresentare per alcuni attori politici.