
Human Compatible
Vedere il nome di Stuart Russell da solo è strano, lo immagino sempre come “Russell and Norvig”, uno dei testi fondamentali sull'intelligenza artificiale. Human Compatible d’altra parte non è un libro di testo, ma un saggio che probabilmente non avrei notato, o comprato. Spunta da uno zaino mentre passeggio con un paio di ex-colleghi—“Tieni, secondo me lo trovi interessante.”—e lo agguanto volentieri. Apprezzo ricevere suggerimenti, ancora meglio quando ricevo direttamente il libro.
Con tutte le discussioni sulla “intelligenza artificiale” di quest’anno, uno potrebbe aspettarsi un certo contenuto. Ma è un libro del 2019, quando “GPT” era solo una tabella per le partizioni. Russell ci racconta di sistemi che non abbiamo ancora, ma a suo parere non sono troppo lontani: quelli capaci di pianificare ed agire ad una velocità superiore agli essere umani. Per sistemi con queste capacità il modello corrente, che si basa sull'ottimizzare una funzione ignorando il resto, non è accettabile: sarebbe impossibile prendere in considerazione tutte le variabili dell’ambiente in cui viviamo, ed un sistema davvero intelligente farebbe di tutto per raggiungere il suo obbiettivo, incluso prevenire o eliminare ogni ostacolo. Ogni variabile non inclusa nel modello (l’acidità del mare, la composizione dell’atmosfera, la popolazione umana) è a rischio di “ottimizzazione”.
Russell propone alcuni principi che lasciano gli esseri umani in controllo: incertezza su fini e mezzi, l’osservazione delle reazioni umani, la capacità di fare domande per completare il quadro. Con queste salvaguardie, l'intelligenza artificiale si affianca agli esseri umani, invece di agire ed accelerare su un binario separato. Implementare qualcosa che sia in grado di capire e bilanciare le necessità degli esseri umani è un problema enorme, ma il risultato sarebbe generale, applicabile ad un sistema finanziario quanto ad uno industriale.
Il libro è ben scritto ed interessante, ma mi lascia incerto. L’autore elenca un numero di modi in cui implementazioni sbagliate dei principi proposti finirebbero in distopia. Le misure di sicurezza sembrano complesse e fragili, e richiedono chiarezza sulle preferenze di individui e gruppi di persone, e su come queste cambiano nel tempo. Abbiamo quindi da risolvere prima un problema umano, poi uno tecnologico. Forse ha senso: cominciamo con il capire la gente, e nel frattempo magari ci passa la voglia dell’AI?
La cosa che più cozza con la mia visione del mondo è forse l’elenco di tutti i problemi che Russell vuole “risolvere” con l’intelligenza artificiale. Per me non ha senso creare enorme complessità per... piegare vestiti, organizzare calendari, neppure per la guida autonoma. La visione dell’istruzione per tutti sembra partire da uno strano concetto di povertà:
With AI tutors, the potential of each child, no matter how poor, can be realized. The cost per child would be negligible, and that child would live a far richer and more productive life.
Chi è questo bambino affamato che ha soldi per un abbonamento ad Apple Teach, ed energia per studiare? Forse è nutrito e pagato dal governo? Prima di questo futuro radioso, dovremo convivere con mille ditte che cercano di far soldi dai sistemi statistici e semi-rotti che abbiamo oggi. Semi-rotti perché incapaci di astrarre, di incertezza, o di notare errori. Qualcuno li userà per problemi a cui non è saggio applicarli, e faranno danni. Di certo fregheranno soldi ai creduloni.
Russell rimarca un paio di punti importanti. Primo: è troppo rischioso che a portare avanti questa ricerca siano corporazioni alla ricerca di profitti. Secondo: il robot intelligente ed autonomo rimane nella fantascienza, perché l’IA sarà famelica di energia e costosa; ci saranno sistemi centralizzati che controllano macchinari in remoto. Da un lato quindi grossi monopoli, dall’altro fragilità e ineguaglianza geografica—nulla di nuovo?