Utilizziamo i cookie per offrire una miglior esperienza di navigazione sul nostro sito. Continuando a navigare confermi di essere d’accordo sul loro utilizzo. Leggi la nostra Privacy e Cookie policy.

Sketchin
img patternimg pattern

Foresight

Umani, AI e 5 regole di design per un mondo che cambia

Gli esseri umani ormai vivono e lavorano fianco a fianco alle Intelligenze Artificiali. Ecco cinque regole che abbiamo imparato per progettare in questo contesto.

Sketchin

18.02.2020 - 7 min lettura

Le AI sono sempre più presenti nella nostra vita quotidiana e stanno definendo i confini di una terra per lo più sconosciuta e noi, come designer, ci siamo concentrati su come affrontare questo nuovo scenario e, partendo dalla nostra esperienza, abbiamo trovato cinque regole che ci aiutano a progettare quando ci sono delle AI coinvolte.

Come si progetta la giusta interazione tra un uomo e un intelligenza artificiale? Ma prima ancora, che cosa intendiamo per AI? Scordiamoci entità onniscienti e maligne alla AL9000, ma più semplicemente quelle con cui abbiamo a che fare ogni giorno: il navigatore, i chatbot, gli assistenti virtuali, l’aspirapolvere, i sistemi che ci suggeriscono beni da acquistare o quale serie guardare la sera…

Sono anni che vivono con noi, e sono anni che come studio lavoriamo su sistemi esperti e cognitivi. In questo periodo di tempo, abbiamo sviluppato una serie di riflessioni sull’argomento.

Il nostro viaggio alla ricerca di queste regole parte da un libro, e un libro molto importante per di più perché in esso sono enunciati per la prima volta alcuni degli assiomi della fisica moderna come il movimento rettilineo uniforme, l’idea di inerzia e il momento meccanico. Si tratta delle “Dimostrazioni matematiche intorno a due nuove scienze scritto nel 1638 da Galileo Galilei, padre della scienza moderna.

La storia di questo libro è un’avventura: pubblicato in segreto in Olanda dopo che l’Inquisizione Romana condannò l’autore come eretico e gli proibì di pubblicare qualsiasi altra opera dopo la celeberrima abiura. Ma Galilei era un ribelle e lo pubblicò lo stesso.

Quest’opera riporta i dialoghi fittizi tra i medesimi personaggi del più famoso Dialogo sopra i due massimi sistemi del mondo: Simplicio, Salviati e Sagredo. Ognuno incarna un modo di pensare e un atteggiamento verso la realtà: Salviati afferma per la prima volta i principi del metodo scientifico moderno. Crede nel potere dell’osservazione e nella sperimentazione. Simplicio è un tradizionalista, crede che le fonti tradizionali siano vere. La sua conoscenza è dedotta dalle fonti. Sagredo cerca di mediare tra questi due orientamenti contrapposti, interessandosi soprattutto ai risultati tecnici ed economici delle nuove scienze.

AI ed esseri umani: atteggiamenti, abitudini mentali e pregiudizi

La stessa visione incarnata dai protagonisti dell’ultima opera di Galileo si può ritrovare nella nostra vita quotidiana e descrive come gli esseri umani e l’intelligenza artificiale affrontano la realtà: i primi si comportano come Simplicio, mentre la seconda è come Salviati.

I loro approcci non si escludono a vicenda. Sono complementari e colmano le lacune l’uno dell’altro.

Gli esseri umani, come Simplicio, basano le loro conoscenze sull’esperienza e la tradizione (intesa in senso lato come le cose che ci vengono insegnate) e utilizzano queste informazioni per costruire modelli di realtà che permettono di semplificare le decisioni e reagire prontamente a un contesto in continua evoluzione; deducono la loro conoscenza dai modelli cognitivi: alcuni brillanti filosofi — come Carl Gustav Hempel — hanno chiamato questo modo di pensare modello nomologico-deduttivo.

I benefici di questo atteggiamento mentale sono:

  • Intuizione: possiamo usare l’empatia e le sensazioni per trovare nuove correlazioni tra fatti ed eventi.
  • Deduzione: possiamo creare nuovi modelli e usarli per affrontare eventi inaspettati o sconosciuti.
  • Creatività: possiamo concepire nuove idee e aggiungere qualcosa di completamente nuovo a ciò che sappiamo.

D’altra parte, questo modo di pensare ha diversi limiti: possiamo elaborare solo una piccola e incompleta quantità di dati e quindi il nostro giudizio è parziale. I pregiudizi alleggeriscono il nostro carico cognitivo, è vero, ma possono anche condurci a conclusioni sbagliate.

Siamo irrazionali e spinti più dall’istinto, dalle passioni e dalle emozioni che dalla logica.

Le macchine, come Salviati, pensano in modo diverso, secondo un modello chiamato statistico-induttivo. Trovano correlazioni statistiche tra i dati e li usano per dedurre soluzioni (il modo più razionale di allocare denaro per un investimento, ad esempio, o il modo più veloce di spostarsi da un punto ad un altro). Come l’altro atteggiamento, anche questo ha pro e contro.

Le AI sono tutte logica, le loro inferenze sono oggettive, possono gestire un’enorme quantità di dati ed esplorare un contesto più ampio.

Le AI sono profondamente influenzate dalla qualità dei dati che usano per alimentare la loro “mente” e sono inermi di fronte ad eventi inaspettati o completamente nuovi.

Ecco perché è così difficile progettare un servizio che coinvolge sia l’uomo che l’intelligenza artificiale.

Breve storia di un fallimento: il nostro primo agente basato sull’intelligenza artificiale

Avremmo dovuto meditare di più su questi diversi atteggiamenti quando abbiamo progettato il nostro primo Robo-for-Advisor. Per farla breve: non è andata molto bene.

Abbiamo progettato uno strumento per consigliare i consulenti finanziari di una banca privata e aumentare l’efficacia del loro lavoro. Il nostro agente analizzava le proposte di investimento e suggeriva al proprio partner umano come gestire il portafoglio clienti e come massimizzare gli investimenti fino ad un teorico +84%.

La UX dello strumento era ottima e quanti lo hanno utilizzato hanno effettivamente migliorato le loro prestazioni del 30%. Cosa è andato storto, allora?

Semplicemente la larga maggioranza dei consulenti finanziari non lo ha usato: temevano che il Robo-for-Advisor potesse sostituirli verso i clienti o comunque riportare tutte le loro azioni al management, ma sarebbe andata male in ogni caso perché, e soprattutto, il rapporto tra il consulente umano e l’AI era troppo rigido.

C’era un solo in comando: o l’umano o l’AI, e quest’ultima ha imposto la forza delle sue inferenze sull’essere umano. Lo strumento ne escludeva il tocco e l’intuizione.

Il cliente finale poteva avere delle riserve (etiche o semplicemente pregiudiziali) su un investimento proposto e non intendeva usare il suo denaro di conseguenza. Non sarebbe stata una scelta razionale, ma sarebbe rimasta una scelta accettabile, dotata di senso e di valore. A quel punto, al consulente non restava che mettere a tacere il suo compagno artificiale e fare a meno dei super poteri del Robo Advisor. Inoltre, lo strumento non era stato progettato per apprendere dall’esperienza o per tenere in considerazione le indicazioni del consulente finanziario, e così è rimasto lì: potentissimo, temuto e in larga parte inutile.

Sagredo e il ruolo del design

Quindi, cosa dovrebbe fare un designer quando si trova di fronte a sistemi complessi? La risposta è Sagredo, il terzo personaggio dell’ultimo lavoro di Galileo, quello che media tra gli approcci degli altri due.

Il design deve trarre il meglio da questi due approcci alla realtà: la flessibilità, la creatività e l’adattabilità dell’essere umano combinati con la potenza inferenziale e computazionale delle macchine.

In altre parole, i designer dovrebbero considerare gli umani e le AI come parte di un sistema dinamico e concentrarsi non già sulle interfacce di servizio, ma sulla costruzione di un rapporto equilibrato tra le due entità aggiungendo funzionalità che permettano alle parti di sperimentarsi.

Ne abbiamo già un bell’esempio: il navigatore GPS. Questa è la più antica IA che usiamo e a cui siamo ormai abituati. Ci fidiamo dei suoi suggerimenti ma lo sfidiamo quando non siamo d’accordo, e lui si adegua. Il GPS è proattivo e rispetta le nostre scelte e modifica i suoi suggerimenti in base a un contesto in evoluzione (cambio di programma, eventi di traffico, errori del guidatore).

Il nostro rapporto con il nostro GPS si basa sulla fiducia: ci affidiamo ai suggerimenti del nostro GPS e siamo, allo stesso tempo, sicuri di avere il controllo del nostro percorso.

5 regole di design per costruire un rapporto equilibrato tra esseri umani e AI.

Come si progetta la giusta interazione tra un uomo e un intelligenza artificiale?

Quindi per progettare la giusta interazione tra un uomo e un’AI è necessario pensare che l’interfaccia dovrà rappresentare l’interazione con soggetti complessi dove i rispettivi comportamenti dovranno costantemente adattarsi reciprocamente. La progettazione dovrà quindi fondarsi su 5 principi progettuali:

  • Garantire l’apertura e la completezza delle informazioni: tutte le info alla base di una scelta della AI dovranno essere rese visibili all’uomo perché possa accettare la scelta. es c’è un incidente, cambio strada.
  • Gli esseri umani devono poter scegliere liberamente: gli esseri umani devono essere gli unici in grado di prendere scelte più importanti; la scelta finale deve essere possibile per l’uomo indipendentemente da quello che dice la macchina.
  • Creare un rapporto dialettico, collaborativo e fiduciario tra gli Umani e le AI: la fiducia si costruisce attraverso una relazione duratura e sulla base di una serie di incontri positivi: l’uomo deve poter ignorare le indicazioni dell’AI e questa si deve adeguare senza perdere, tuttavia, la loro completezza.
  • Quantificare il valore delle AI: il valore dell’AI deve essere reso tangibile e quindi diventare comprensibile e accettabile (quanti soldi posso guadagnare? Quanti minuti posso risparmiare se mi fido del mio GPS).
  • Proteggere la privacy: gli utenti devono essere sicuri di potersi fidare della loro controparte informatica. Le informazioni che si scambiano devono essere a disposizione esclusiva dell’utente e non di altri: devo essere sicuro che il mio GPS non dirà alla polizia ogni volta che ho infranto il limite di velocità, per fare un esempio.

Continua a leggere

Case StudyPublic Company