Pareidolia - Oleg Shuplyak
Pareidolia (image credits Oleg Shuplyak)


La recente ondata di innovazioni basate sull’Artificial Intelligence sembra interessare in maniera sempre più pervasiva fenomeni che fino a qualche tempo fa si ritenevano ancora dominio esclusivo degli “umani”…

Si passa quindi (apparentemente senza alcuna difficoltà) dal riconoscimento delle emozioni alla attribuzione di “consapevolezza” alle macchine.

In realtà, come spesso capita, l’apparenza inganna e può dare origine a fenomeni allucinatori scambiati per reali…

Le emozioni sono negli occhi di chi vede

In principio è stato Blake Lemoine, con i suoi bot supposti senzienti; in seguito (o in contemporanea, fate voi) fece la sua apparizione sulla scena mediatica il robot che riconosce le emozioni, il tutto sotto gli occhi stupiti degli spettatori increduli.

E la presenza di un pubblico di spettatori è tutt’altro che di secondaria importanza, non solo per la riuscita della diffusione del messaggio commerciale sotteso alle “innovazioni” tecnologiche all’ultimo grido, ma anche per il successo del gioco di prestigio che riguarda nello specifico le macchine e le loro presunte “capacità cognitive”:
le emozioni e la senzienza delle macchine risiedono infatti nell’occhio di chi le vede e le vuole vedere…

Distinguere i volti e le emozioni autentiche è cosa umana, troppo umana

Non a caso, quello di Lemoine può essere derubricato a un comune esempio di pareidolia ovvero idoli apparenti, rappresentanti immagini create dalla mente, scambiate per oggetti reali.

Per questo motivo si parla anche di allucinazioni visive, anche se spesso si tratta di fenomeni comuni, come il riconoscere volti tra le nuvole (un gioco a cui si prestano in tutta tranquillità adulti e bambini), riconducibile alla capacità umana di riconoscere forme e oggetti (gestalt), sfruttata con maestria anche da artisti quali Oleg Shuplyak nelle proprie opere suggestive:

Pareidolia - Oleg Shuplyak
Pareidolia (image credits Oleg Shuplyak)


La presenza di uno spettatore umano è quindi essenziale non solo per riconoscere forme e oggetti nel mondo esterno, ma anche per riconoscere la presenza di emozioni in altri soggetti.

Una macchina che non è in grado (almeno fino a prova contraria) di esperire emozioni autentiche, ben difficilmente saprà riconoscerne di altrettanto autentiche in altri soggetti.

In altri termini, solo chi è dotato di emozioni e consapevolezza è in grado di riconoscerne la presenza in altri soggetti, poichè ciò presuppone appunto la capacità di immedesimarsi negli altri…

I simulacri digitali dell’AI spacciati per evidenze oggettive

Proprio il fenomeno della pareidolia ci conduce al concetto dei “simulacri”, stavolta però utilizzato con riferimento a tutti quegli idoli che sono creati e proposti in sostituzione di altri idoli, anzichè di oggetti reali.

In maniera illuminante, Wikipedia definisce i simulacri come segue:

Un simulacro designa un’apparenza che non rinvia ad alcuna realtà sotto-giacente cioè è un’immagine indipendente da qualsiasi modello o realtà a cui possa essere riferita. In un altro senso può essere anche inteso come una duplicazione del modello o della realtà, ma una duplicazione parziale o infedele o comunque inautentica. In questo senso il simulacro è l’immagine falsa o qualcosa spacciato in luogo di un originale o comunque un falso rappresentante. La parola deriva dal latino simulacrum, statua, figura, e indicava originariamente l’immagine o la rappresentazione di una divinità, in special modo nelle celle dei templi, oggetto di culto nell’antichità.

Così come il volto riconosciuto tra le nuvole è in realtà frutto dell’immaginazione, allo stesso modo si finisce per confondere gli artefatti digitali utilizzati dalle macchine come elementi sostitutivi delle realtà rappresentate, in un ennesima confusione tra mappa e territorio.

In altre parole, si confondono le emozioni con le loro manifestazioni fisiologiche esteriori, e a queste si pretende di sostituire gli artefatti digitali prodotti dalla macchina per rappresentarli.

Si tratta quindi di idoli di idoli; “simulacri digitali” appunto…