twitterlinkedinmail

Le responsabilità nascoste delle automobili a guida autonoma

“People are mindful; computers are mindless”
“The Glass Cage. Automation and Us”, Nicholas Carr

Tra gli aspetti controversi (e francamente ce ne sono molti) che riguardano il prevedibile e sempre più pervasivo impiego in un futuro non troppo lontano, delle self-driving cars, ce ne è uno che rimane spesso sottaciuto e relegato sullo sfondo:

A chi attribuire la responsabilità in caso di incidenti “non previsti”, causati da tali dispositivi automatizzati?

La questione ha assunto carattere di attualità non solo a seguito dell’uccisione di un passante, avvenuta nel marzo 2018, da parte di una self-driving car di Uber, ma soprattutto in relazione alla presunta “intelligenza” che caratterizzerebbe tali dispositivi, solo per pura assonanza accostabile alle capacità intellettive umane, non tanto in termini di capacità di previsione degli esiti possibili, quanto piuttosto in termini di scelta e decisione.

L’impiego di tecnologie che demandano alle macchine compiti e intenzionalità una volta appannaggio esclusivo degli esseri umani, solleva per forza di cose la questione (e il relativo timore) di una possibile progressiva e generale deresponsabilizzazione indotta dalla società tecnologizzata.

Le questioni etiche irrinunciabili

L’introduzione delle self-driving cars lasciano sullo sfondo diverse questioni che implicano scelte etiche che difficilmente sono implementabili negli automatismi.

Di fronte alla scelta tra l’evitare un incidente e investire un passante, quale “decisione” prenderà ad es. una self-driving car?

A chi attribuire la responsabilità delle scelte automatizzate?

Le responsabilità delle scelte automatizzate dei veicoli devono essere ricondotte al produttore della macchina “intelligente”, oppure al proprietario della stessa, come accade attualmente nei comuni incidenti stradali (coperti peraltro da polizze assicurative obbligatorie)?

Senza voler evocare suggestioni fantascientifiche (in stile “Trilogia della Fondazione” di I. Asimov), occorre sottolineare come la capacità di scelta non implichi solo questioni “razionali”, suscettibili di essere emulate da algoritmi, ovvero problemi di corrette stime e previsioni (ad es. sulla direzione di marcia da prendere, o sul corretto angolo di sterzata e relativa accelerazione da imprimere al veicolo, ecc.), compiti nei quali le capacità computazionali delle macchine hanno dimostrato di surclassare ampiamente quelle degli esseri umani.

Al contrario, si tratta di comprendere che molte delle scelte e decisioni che comunemente siamo chiamati a prendere quotidianamente (spesso senza rendercene conto) implicano inevitabilmente valutazioni di natura etica.

Il timore è che in questo modo si demandino alle macchine non solo i compiti (siano essi “ripetitivi” o “predittivi”, a seconda dei casi) per i quali esse sono state progettate, ma anche quelle scelte la cui responsabilità (ci piaccia o meno) è e rimane irrimediabilmente nostra, in quanto esseri coscienti e consapevoli.

Davvero la guida autonoma è più sicura?

Una delle convinzioni più diffuse riguardanti l’Intelligenza Artificiale è quella che sostiene che gli algoritmi sarebbero meno soggetti ad errori di valutazione rispetto agli umani, e che pertanto andrebbero demandate ad essi anche quelle attività che comunemente sono appannaggio degli operatori umani.

Tra gli esempi solitamente addotti a supporto di tale tesi, vi è appunto quello delle auto a guida autonoma (self-driving cars).

Anche di fronte a casi come quello dell’investimento di un passante da parte di una autovettura a guida (semi) autonoma di Uber, avvenuto nel marzo del 2018, e che ha portato alla morte della vittima, i sostenitori della superiorità degli algoritmi sono comunque propensi a ritenere che la colpa sia da ricondurre ad un errore umano, piuttosto che agli algoritmi stessi.

Ma le cose stanno davvero così?

L'accesso a questo contenuto è limitato agli utenti registrati. Procedi con il login.