twitterlinkedinmail


Tra gli aspetti controversi (e francamente ce ne sono molti) che riguardano il prevedibile e sempre più pervasivo impiego in un futuro non troppo lontano, delle self-driving cars, ce ne è uno che rimane spesso sottaciuto e relegato sullo sfondo:

A chi attribuire la responsabilità in caso di incidenti “non previsti”, causati da tali dispositivi automatizzati?

La questione ha assunto carattere di attualità non solo a seguito dell’uccisione di un passante, avvenuta nel marzo 2018, da parte di una self-driving car di Uber, ma soprattutto in relazione alla presunta “intelligenza” che caratterizzerebbe tali dispositivi, solo per pura assonanza accostabile alle capacità intellettive umane, non tanto in termini di capacità di previsione degli esiti possibili, quanto piuttosto in termini di scelta e decisione.

L’impiego di tecnologie che demandano alle macchine compiti e intenzionalità una volta appannaggio esclusivo degli esseri umani, solleva per forza di cose la questione (e il relativo timore) di una possibile progressiva e generale deresponsabilizzazione indotta dalla società tecnologizzata.

Le questioni etiche irrinunciabili

L’introduzione delle self-driving cars lasciano sullo sfondo diverse questioni che implicano scelte etiche che difficilmente sono implementabili negli automatismi.

Di fronte alla scelta tra l’evitare un incidente e investire un passante, quale “decisione” prenderà ad es. una self-driving car?

A chi attribuire la responsabilità delle scelte automatizzate?

Davvero la guida autonoma è più sicura?

Una delle convinzioni più diffuse riguardanti l’Artificial Intelligence è quella che sostiene che gli algoritmi sarebbero meno soggetti ad errori di valutazione rispetto agli umani, e che pertanto andrebbero demandate ad essi anche quelle attività che comunemente sono appannaggio degli operatori umani.

Tra gli esempi solitamente addotti a supporto di tale tesi, vi è quello della guida autonoma (self-driving).

Anche di fronte a casi come quello dell’investimento di un passante da parte di una autovettura a guida (semi) autonoma di Uber, avvenuto nel marzo del 2018, e che ha portato alla morte della vittima, i sostenitori della superiorità degli algoritmi sono comunque propensi a ritenere che la colpa sia da ricondurre ad un errore umano, piuttosto che agli algoritmi stessi.

Ma le cose stanno davvero così?

Perchè gli algoritmi di guida autonoma non sono meno rischiosi

Come gli esperti di tecnologie digitali amano spesso ripetere, viviamo in un’epoca guidata dai dati (data driven).

La disponibilità crescente di grandi moli di dati (e la capacità di elaborarli) ha permesso lo sviluppo di servizi fino a poco tempo fa inimmaginabili.

Gli algoritmi si sono evoluti al punto di riuscire a sfruttare la crescente quantità di dati disponibili, rendendo possibili servizi avanzati che vanno dalla ricerca intelligente dei contenuti, alla individuazione delle località di maggior interesse sfruttando la geolocalizzazione, alla traduzione automatica dei testi in diverse lingue.

Per quanto il livello di precisione dei risultati ottenuti tramite tali servizi “intelligenti” cresca di giorno in giorno, essi tuttavia non sempre forniscono risultati ottimali.

Diversi livelli di precisione hanno diverse conseguenze a seconda dei contesti

Se gli algoritmi danno la risposta giusta per i motivi sbagliati

Uno degli aspetti più controversi che caratterizza gli algoritmi è costituito dalla irragionevole affidabilità ad essi attribuita, determinata dall’innegabile efficacia predittiva associata ai dati.

In altri termini: la fiducia che viene riconosciuta alle capacità predittive degli algoritmi è diretta conseguenza dell’efficacia predittiva ritraibile dai dati stessi.

Proprio l’efficacia predittiva dei dati ha ispirato il recente paradigma decisionale “data-driven” (guidato dai dati).

Tuttavia, non sempre tale efficacia predittiva ci autorizza a fidarci ragionevolmente dei risultati ottenuti dalle procedure automatizzate data driven ovvero “guidate dai dati”.

Efficacia predittiva non sempre è sinonimo di affidabilità

Per rendersene conto, basta prendere in considerazione i risultati ottenuti utilizzando uno degli strumenti più diffusi che sfrutta la potenza predittiva degli algoritmi di apprendimento automatizzato in abbinamento alle grandi moli di dati: i traduttori automatici.

È innegabile che negli ultimi anni tali strumenti siano migliorati in maniera impressionante, e le traduzioni automatiche di un testo da e verso differenti lingue, ottenute mediante tools di intelligenza artificiale come Google Translate, costituiscono in definitiva delle traduzioni “per lo più” affidabili.

Tuttavia è in quel “per lo più” che si nasconde il diavolo: anche se non affidabili al cento per cento, si suppone che tali traduzioni vengano interpretate da esseri umani “senzienti”, vale a dire in grado di comprendere il “senso” di tali traduzioni.