Un’intervista con Luciano Floridi: robot, ambiente e le possibilità

Luciano Floridi è considerato tra i migliori pensatori e studiosi di quest’epoca. Avevo letto il suo “The Fourth Revolution: How the infosphere is reshaping human reality” e ancora letto più volte del suo lavoro, spesso sul blog di Luca De Biase. L’ho potuto intervistare per un numero di Origami, il settimanale monografico de La Stampa, dedicato alla rivoluzione dei robot. Eravamo partiti da un’altra mia intervista a Martin Ford, e a pensarci i due pensatori vanno letti uno dopo l’altro.

Origami è un foglio unico (e ampio) ma la carta è per definizione scarsa e dunque l’intervista fatta a Floridi non poteva trovare spazio per intero. L’ho riletta e la pubblico qua. In grassetto le domande e alcuni passaggi chiave.

Luciano Floridi

Dopo la rivoluzione dell’informazione ci avviciniamo a grandi passi nell’epoca dei robot. Come ci dobbiamo preparare?

“La prima cosa è che se invece di guardare a Hollywood guardassimo alla Fiat, sarebbe meglio. Dovremmo guardare alla robotica per come la nostra industria automobilistica l’ha creata veramente. È quella robotica che stiamo vedendo uscire dalle fabbriche e entrare in casa in ufficio, in piazza con il robottino che pulisce a terra, che rimpiazza la segretaria o il segretario.

Il secondo punto è: se recuperiamo le radici non fantascientifiche e storiche della robotica seria (fino a poco tempo fa si parlava non di milioni ma di centinaia di migliaia di robot, era un altro mondo. Ora i robot sono ovunque), dovremmo guardare il genere di ambiente che noi creiamo affinché questi automati di vario genere siano efficaci. La lezione che dovremmo sicuramente prendere dall’industria automobilistica è che si costruisce l’ambiente intorno al robot e non viceversa. Tu non rilasci un robottino in mezzo alla strada e gli dici ‘impara a togliere le foglie dal parco’. In realtà costruisci il parco con sensori, barriere, fili invisibili affinché il robottino possa raccogliere le foglie.
Allora dobbiamo chiederci: quando facciamo uscire i robot dall’ambiente industriale e li facciamo entrare in ambiente casalingo, in ufficio, nelle strade, come stiamo modificando questi ambienti?

Tutta la narrativa sull’intelligenza artificiale è altamente distraente, perché è basata sul fatto che questi robot siano in grado di agire con l’ambiente come lo siamo noi, o come topo e gatto. Agenti intelligenti come gli animali sono in grado di cogliere gli aspetti del reale e sfruttarli. Quella dei robot è una storia che va in direzione opposta: stiamo trasformando il mondo in un ambiente sempre più robot-friendly. Qua iniziano a entrare in gioco le questioni etiche serie. Se questa premessa è condivisibile allora la preoccupazione (concern) è che questo adattamento degli ambienti in cui introduciamo la robotica da un lato non venga compreso, dall’altro non venga discusso. Non vedo un dibattito serio su quanto dovremmo adattare le case e dove dovremmo fermarci.

Così andiamo implicitamente verso una situazione in cui saremo noi umani ad adattarci agli ambienti che abbiamo adattato ai robot affinché i robot funzionino. Questo è un po’ preoccupante, non per la versione fantascientifica del robot che dominerà la nostra vita: quelle sono fandonie. Invece sono problemi seri: se l’auto driverless viene parcheggiata nel parcheggio della stazione dei treni e l’unico modo per pagare il parcheggio è con automobile driverless che paga con telefonino intelligente con carta di credito, abbiamo tagliato via tre quarti della popolazione che non può più parcheggiare alla stazione. È una buona idea? Non mi sembra.

Se adattiamo i semafori ai robot che li devono gestire è chiaro che il semaforo non ha bisogno dei colori. Non ha bisogno di esserci, potremmo trovarci in una città in cui un guidatore tradizionale ancora nella fase di transizione che guida una vettura, non ha più semafori.

Purtroppo i nostri ambienti funzionano sempre meglio nei confronti della tecnologia digitale tanto più ci sono dati. Il robot è assetato di dati, non capisce il mondo, se non ci sono dati è letteralmente un ferro da stiro: il ferro da stiro di nonna non gestiva la camicia perché non aveva dati sulla camicia. È un processo che dovremmo discutere perché l’abbondanza di dati porta alla fine della privacy”.

Parliamo di privacy ma non della stessa privacy sconvolta dalle rivelazioni sulla sorveglianza globale?

“La perdita di privacy viene vista come fosse monodimensionale, nei confronti di tutti, ma non è così. Va vista come fossero le Alpi, con dei picchi e delle valli: c’è gente che prenderà molto vantaggio dai nostri dati e alcuni che non li toccheranno nemmeno. Se Nest deve raccogliere il massimo quantitativo di dati, accede alla mia localizzazione sul telefono – questa è già realtà -. Ho dato accesso ai dati, perché a me conviene troppo. Il risultato è che Google ha ulteriori dati sulla mia presenza o assenza in casa o ufficio. Questi sono problemi che andrebbero affrontati in maniera critica da subito. Una volta che li abbiamo costruiti, questi ambienti, diventa difficile tornare indietro.

Io non sono un determinista. Il determinismo tecnologico non ha senso, ma bisogna essere consapevoli dei passi fatti che sono irreversibili. Il problema è che sei libero di scegliere il treno su cui salire ma non sei libero di scendere quando vuoi”.

La soluzione è nella regolazione?

“Bisognerebbe studiare questi problemi, ora. Poi operare con regole che permettano lo sviluppo migliore di queste tecnologie. Io sono sempre stato favorevole alle nuove tecnologie, con un disegno in mente che sia di tipo sociopolitico e non commerciale. Se il disegno è commerciale finisce per essere un po’ miope. Il mercato non ha normalmente delle regole che gli permettono di guardare di qui a cent’anni. Il mercato opera su equilibri istantanei. Si spera che poi possa andare in una direzione giusta, ma la speranza non è una strategia. Non sono troppo ottimista”.

Si fa spesso l’esempio dell’auto driverless e del suo software che deve decidere se investire un uomo e salvare il passeggero o viceversa.

“È un esempio estremizzato e rischia di diventare una sciocchezza. Perché, se ci fosse un umano opererebbe molto meglio? Se ci fosse Alice al posto del computer, a decidere la tra persona a sinistra, Einstein o tre bambini a destra? In quella situazione non c’è soluzione, questi generi di esperimenti mentali vengono costruiti affinché si entri in una scelta pratica: tutte e due sono sbagliate, puoi tirare la monetina. All’informatico direi: in quel caso si faccia una scelta random, perché non c’è una scelta giusta. Una volta che ti ci sei trovato è una lose-lose situation. La vera domanda è: vogliamo essere in un contesto in cui questo è il genere di scelta che ci viene posta? O stai nella padella a friggere o salti nel fuoco, che preferisci? Preferisco una vita in cui non mi trovo a quel capolinea.

Per certe situazioni bisogna essere coerenti e ammettere che non c’è una scelta buona. Apriamo però la discussione: davvero vogliamo dare il potere di scelta a un robot piuttosto che a un individuo? Al confine tra Corea del Nord e del Sud oggi operano dei robot armati, creati da Samsung. Inizialmente erano autonomi al 100%, identificavano un umano e potevano sparare a vista. Poi per fortuna l’esercito sudcoreano ha detto: “No, per favore vorremmo avere qualcuno che prema il bottone e decida”. Queste sono le scelte di oggi: le soluzioni del tutto automatiche sono possibili ma a volte sono totalmente idiote, ed è grave che invece di pensare a come non arrivare a quel punto si cominci a pensare a come, una volta arrivato a quel punto, creare il robottino che sappia trovare la soluzione giusta”.

Eppure non mi pare che stiamo andando in questa direzione. Tutto ciò che si può automatizzare viene automatizzato. Il premio per le aziende sembra tutto in quel processo.

“È il valore aggiunto, si punta a ridurre sempre più il costo dell’errore. Tutta l’operazione verte a minimizzare il rischio, non a chiedersi se il rischio è in corso perché non avremmo dovuto adottare quella strategia”.

C’è una risposta?

“La risposta è più intelligenza e più politica, con la P maiuscola, che decide come dovrebbe essere il mondo. Invece di pensare alle driverless cars, dovremmo pensare a un mondo senza cars, che sarebbe più intelligente. Però questo dibattito ce lo siamo perso per strada. Io sono del 1964: fino a dieci-quindici anni fa il dibattito era “come rendiamo le città sempre più libere dalle automobili”. Oggi il dibattito è come le rendiamo sempre più amichevole nei confronti delle driverless cars. La soluzione risiede nel re-impossessarsi delle decisioni politiche da un punto di vista sociale invece che delegarle dal punto di vista economico. Bravo il filosofo perché poi a farlo in pratica non sarà facile”.

Ci sono però esempi ancora più impressionanti e meno visibili, come le corti di giustizia che prendono decisioni su studi algorimtici.

“Da anni a Philadelphia c’è un software che la polizia utilizza, Predpol. È un po’ di intelligenza artificiale, sempliciotta, che cerca di predire dove avverranno i crimini. È altamente conservativo, finisce per proteggere il già protetto. Non è aperto a modifiche sociali. Purtroppo funziona bene perché i dati e i ragionamenti che ci facciamo sono legati a quella logica. La questione, sempre un po’ filosofica: ma è la logica giusta? Il passo indietro è un po’ il passo kantiano: le condizioni di possibilità di questo problema sono quelle giuste oppure no? È lì che sta il dente che duole. Una volta che il passo è stato preso, poi le conseguenze vanno da sé. Non sono tanto ottimista. La strategia è chiara, se ricordi Gramsci… io sono un’ottimista della volontà e un frustrato della ragione. La frustrazione della ragione viene dal fatto di vedere le opportunità e capire anche che non le coglieremo. In larga parte sospetto che finiremo per fare un macello, un pasticcio, così come l’abbiamo fatto con l’ambiente, con il traffico, con l’inequality internazionale. A gente come noi non resta altro che continuare, imperterriti, a dire che c’è un’alternativa, migliore. Speriamo che il mondo ascolti”.

Non è semplice. Il tuo discorso sull’ambiente svela come in realtà decidiamo poco come costruirlo. Decide chi lo può fare, spesso una grande azienda. La grande azienda che costruisce un prodotto fa sì che quell’ambiente abbia poi bisogno di quel prodotto. Detta così può sembrare un discorso da marxisti di un altro secolo…

“Io credo che non siano state nemmeno le aziende a volere questo potere. È che qualcuno lo doveva esercitare. La politica non l’ha esercitato e alla fine l’ha esercitato il mondo delle aziende. Io non credo in un disegno particolare: al mondo aziendale il potere politico piace influenzarlo, non gli piace gestirlo. Le aziende ovviamente vogliono avere voce in capitolo e vogliono influenzare il potere politico, ma non vogliono avere la responsabilità di gestirlo. Se poi si trovano a gestirlo è perché non c’è stato proprio altro modo, c’è stato un vuoto di politica. Qualcuno a Roma a Bruxelles, a Londra a Washington non ha fatto il suo lavoro”.

Così Google e Facebook si comportano come Stati, dotati di ambasciatori e diplomazie.

Se ricordi tempo fa si discuteva dei ripetitori della telefonia mobile. Quello non era un altro modo di dire “dobbiamo creare l’ambiente giusto affinché la telefonia funzioni”? La costruzione dell’ambiente è stata dettata da fattori economici. Quando si parla delle grandi risorse di dati che lo Stato possiede e le vorrebbe rendere libere accessibili a tutti, questo è un grande errore: vanno rese libere ai cittadini ma non alle aziende. La differenza tra me e Google quando lo Stato italiano decidesse di aprire una banca dati è macroscopica. Google avrebbe enormi interessi economici allora dovrebbe anche pagare quei dati. Da anni scrivo di questa cosa, non mi pare che nessuno mi dia retta. Quello che stiamo vedendo è un grande fallimento politico, non un’aggressività aziendale rampante”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.