Society I valori dei robot? Li scelgono gli umani!
Un'intervista con Luca De Biase per meglio comprendere il rapporto tra i sistemi valoriali umani e i sistemi "valoriali digitali" e per capire cosa significhi macchina pensante.
- Non c'è competizione tra umani e macchine. Si tratta di una competizione degli umani tra loro che si svolge anche attraverso la realizzazione di macchine che hanno determinate capacità e potenzialità di sviluppo.
- L'innovazione tecnologica non è autonoma dal sistema di valori degli umani, dalle loro capacità organizzative e interpretative, dal loro orientamento a obiettivi di efficienza dei processi oppure di qualità dei prodotti.
- Le regole favorevoli alla collaborazione, quelle per esempio orientate a favorire la dinamica della cosiddetta “open innovation”, sono incarnate in format operativi che conducono gli umani a scambiarsi conoscenze e idee in modo tale da generare occasioni di innovazione diversi da quelli che si creano all’interno delle singole organizzazioni.
- Per adesso le macchine analizzano i dati e imparano in un certo senso all’interno di specifici domini di conoscenza. Tutto il resto non lo fanno o lo fanno seguendo precisamente il progetto che gli umani hanno pensato per crearle: più che pensare, le macchine estendono il pensiero degli umani che le hanno pensate.
Stai raccontando per Il Sole 24 Ore il futuro del lavoro. È una gara contro le macchine e con le macchine per innovare e competere meglio?
L’idea secondo la quale le macchine sono in competizione con gli umani è relativamente assurda: sono gli umani a progettare e costruire. Dunque, casomai, si tratta di una competizione degli umani tra loro che si svolge anche attraverso la realizzazione di macchine che hanno determinate capacità e potenzialità di sviluppo. Non c’è dubbio che alcuni mestieri e certe mansioni tendono ad essere sostituiti da macchine che li svolgono in maniera più efficiente. In certi periodi, come quello attuale, questo genere di fenomeno si manifesta più di frequente. Ci si può domandare in che modo gli umani possano reagire e prepararsi proattivamente alle conseguenze di questa tendenza. Sappiamo che prima di tutto occorre comprendere il fenomeno. Di certo, l’innovazione deriva spesso dalla capacità di vedere una possibilità imprevista in una nuova tecnologia già esistente, con la conseguenza di cambiare un contesto economico e organizzativo tanto da abilitare un ulteriore salto tecnologico. Ma questo non significa che la dinamica dello sviluppo tecnologico sia autonoma dal sistema di valori degli umani, dalle loro capacità organizzative e interpretative, dal loro orientamento a obiettivi di efficienza dei processi oppure di qualità dei prodotti. In ogni caso una responsabilità umana si rintraccia. Tutto questo non si configura tanto come una competizione degli umani contro le macchine: piuttosto mette in competizione i sistemi di giudizio degli umani tra loro.
Se in realtà fatichiamo a collaborare con gli umani, ci riuscirà meglio con le macchine più o meno intelligenti?
Il punto è proprio questo. Come fanno gli umani a riconoscere il valore della collaborazione tra loro rispetto al vantaggio che sperano di ottenere competendo tra loro? Indubbiamente i sistemi valoriali necessari a questa scelta si incarnano in sistemi di regole che guidano i comportamenti. Ebbene: vale la pena di ricordare che una parte delle regole vengono incarnate nelle macchine e che queste, con la loro interfaccia, le “insegnano” agli umani che le usano. Le regole favorevoli alla collaborazione, quelle per esempio orientate a favorire la dinamica della cosiddetta “open innovation”, sono incarnate in format operativi che conducono gli umani a scambiarsi conoscenze e idee in modo tale da generare occasioni di innovazione diversi da quelli che si creano all’interno delle singole organizzazioni.
Cosa ne pensi delle macchine che pensano? O che affermano di pensare?
Ovviamente bisogna essere d’accordo su quello che significa pensare. Che cosa dovrebbero fare le macchine che pensano? Analizzare i dati, comprendere i sentimenti, generare nuove macchine e prendere decisioni senza l'intervento umano? Per adesso le macchine analizzano i dati e imparano in un certo senso all’interno di specifici domini di conoscenza. Tutto il resto non lo fanno o lo fanno seguendo precisamente il progetto che gli umani hanno pensato per crearle: più che pensare, le macchine estendono il pensiero degli umani che le hanno pensate. Ma l’esperienza può aiutare a comprendere meglio. Prendiamo il caso delle macchine che investono automaticamente in borsa. Certamente analizzano enormi quantità di dati. Certamente prendono decisioni senza ogni volta richiedere l’intervento umano. Chiaramente non hanno alcuna comprensione dei sentimenti e, anzi, sono usate proprio per ridurre l’impatto dell’emotività degli umani nelle scelte di investimento. La loro capacità di pensare è esattamente pari alla capacità di pensare che in esse hanno instillato i loro progettisti. La loro “autonomia” consiste nell’accesso e nell’elaborazione di una quantità di dati che nessun umano potrebbe trattare e nel prendere decisioni agendo di conseguenza in tempi molto più veloci di quelli di qualunque umano. In questo consiste la loro autonomia intellettuale. Non è poco. Ma la sua funzione esatta è quella di estendere e amplificare i difetti - e i pregi - del pensiero di chi le ha progettate e messe in funzione. Tutto questo sottolinea la responsabilità di chi fa questi strumenti.