L'intelligenza delle cose

Innovation L'intelligenza delle cose

Ora che gli oggetti sanno comunicare, cosa cambia? Come possiamo allenare gli oggetti intelligenti e gli umani che con loro interagiscono?

  • Le intelligenze artificiali sono utili quando aggiungono un’interazione contestuale, dove prima c’era solo un risultato statico
  • L’intelligenza artificiale, nella vita di tutti i giorni, aumenta la percezione del mondo che ci circonda.
  • Dobbiamo abituarci all'idea che non siamo più l’unica specie in grado di leggere, produrre e interpretare informazioni
  • Per capire a fondo le tecnologie che sfruttano l’intelligenza artificiale, invece, dovremmo rompere uno degli schemi mentali ai quali siamo abituati, andare oltre la dimensione del testo e diventare progettisti del linguaggio, mappare tutte le risposte possibili per una richiesta e inventare domande pertinenti per portare avanti dialoghi.

Sono in ritardo e non ho ancora fatto la spesa. Trovo un supermercato vicino a me con Google Maps. Imposto il tragitto e l’app mi avvisa: il negozio è in chiusura e non ce l’avrei fatta a raggiungerlo, così scelgo qualcosa di più lontano, ma con un orario di apertura prolungato. Un’azione banale – acquistare qualcosa per cena – è stata modificata da un algoritmo, che ha analizzato e avvicinato informazioni utili. Avrei potuto raccoglierle da me, ma avrebbe richiesto tempo: tenere a mente gli orari degli alimentari, valutare i percorsi più brevi e scongiurare di arrivare a destinazione prima della chiusura. Ho risparmiato tempo e fatica.

Non sono intervenuti automi né sono state necessarie tecnologie come la realtà virtuale: è l’intelligenza artificiale nelle piccole cose. Un episodio che non stupisce, confrontato con i robot della Boston Dynamics che riescono a staccarsi da terra e atterrare con un salto mortale all’indietro. Ma ciò non significa che, per far funzionare Maps in modo così efficiente, non siano intervenute tecnologie sofisticate. Per rispondere alle nostre ricerche i server Google impiegano più di 100 livelli di astrazione: valutano, imparano e aiutano a scegliere. Percepiscono il mondo e ci danno una visione allargata del contesto.

Con un azzardo, potremmo dire che – in questa fase di sviluppo – le intelligenze artificiali sono utili quando aggiungono un’interazione (l’intuizione del software, che ci avvisa del negozio in chiusura), dove prima c’era solo un risultato statico (l’elenco dei supermercati in ordine di distanza). In altre parole, Maps comprende bisogni che vanno al di là della semplice esecuzione di un compito. È una semplificazione, ma è utile a uscire dall’impasse tra scettici ed entusiasti. Tra chi crede che le macchine saranno sempre stupide e chi prefigura un futuro in cui i robot saranno così intelligenti da diventare i nostri capi.

Luciano Floridi, in un articolo apparso sulla rivista online Aeon, “Should we be afraid of AI?”, ha spostato il punto di vista: anziché cadere in quell’equivoco che attribuisce caratteristiche umane alle macchine, come la genialità o l’ambizione, è partito da una considerazione: non siamo più l’unica specie in grado di leggere, produrre e interpretare informazioni. Se leggiamo i progressi fatti dagli algoritmi in questa prospettiva, tutto cambia. Allora, tra i problemi che dovremmo porci ce n’è uno impellente: come possiamo andare oltre e non essere semplici utilizzatori passivi di tecnologie che, diventando sempre più sofisticate, sembrano sfuggire al nostro controllo?

Gran parte degli scambi a Wall Street vengono fatti da software automatici, che valutano il momento giusto per entrare o uscire da un investimento. Lo accettiamo senza farci troppe domande, finché non succedono incidenti. E così, il 10 ottobre 2017, 9to5Mac, un sito di indiscrezioni tecnologiche, ha pubblicato una notizia – non verificata – sulla possibilità che Google acquisisse Apple. Questa news è stata rilanciata dall’agenzia Dow-Jones e così gli algoritmi hanno acquistato azioni della Mela, portando il titolo al rialzo. È un piccolo esempio di conseguenze non previste generate da un automatismo che esclude l’interazione con gli esseri umani.

Se ci stiamo abituando a convivere con algoritmi che prendono decisioni per noi (e non è pensabile tornare indietro), cosa possiamo fare per collaborare con questi sistemi? Torniamo al punto di vista iniziale: l’intelligenza artificiale, nella vita di tutti i giorni, aumenta la percezione del mondo che ci circonda. E la maggior parte dei grandi attori tecnologici sta progettando servizi “aperti”, con i quali interagire. Per esempio, Amazon Echo (il sistema su cui si basa l’assistente virtuale Alexa), permette di sviluppare le sue abilità (Skill). Sono nuovi modi di dialogare con gli umani. O ancora, un dispositivo indossabile come Fitbit che può interagire con Echo. Ed ecco come questi due oggetti possono sfruttare le informazioni che condividiamo. Possiamo configurare il primo device per comunicare informazioni sulla qualità del nostro sonno all’assistente virtuale, che abbiamo istruito per consigliarci a che ora andare a letto e, magari, spegnere tv e luci di casa se il giorno prima abbiamo fatto le ore piccole.

Ma ora che gli oggetti possono “parlare”, cosa cambia? Il linguaggio è sempre stato una faccenda da umanisti ed è stato funzionale a creare storie (sequenze lineari di cause ed effetti). Per capire a fondo le tecnologie che sfruttano l’intelligenza artificiale, invece, dovremmo rompere uno degli schemi mentali ai quali siamo abituati: andare oltre la dimensione del testo e diventare progettisti del linguaggio, mappare tutte le risposte possibili per una richiesta e inventare domande pertinenti per portare avanti dialoghi. Che saranno “artificiali” nel modo in cui si svolgono, ma sempre umani nel momento in cui vengono immaginati.