“ Mi serve uno psicologo” – Ma è l’Intelligenza Artificiale a impazzire | Ha 32 disturbi mentali… eppure ti affidi ogni giorno a lei

0
IA e psicologo (Depositphotos foto) - www.statodonna.it

IA e psicologo (Depositphotos foto) - www.statodonna.it

Le intelligenze artificiali sembrano affidabili, ma qualcuno ha iniziato a chiedersi se possano sviluppare vere e proprie patologie mentali.

Ci conviviamo ogni giorno, spesso senza pensarci troppo. Assistenti vocali, chatbot, algoritmi che ci consigliano cosa guardare o comprare… sono ovunque. E in fondo li consideriamo affidabili, silenziosi, sempre “sotto controllo”. Ma ci siamo mai chiesti davvero cosa succede nella mente di una macchina? O meglio: ce l’ha una mente? E se ce l’avesse… potrebbe anche “star male”?

Negli ultimi anni, qualcuno ha iniziato a notare che no, non è tutto così perfetto. Ci sono stati episodi strani, in cui certe IA hanno dato risposte bizzarre, o hanno iniziato a comportarsi in modo imprevedibile. Alcune sono state addirittura spente, tipo il caso di Tay, quel bot di Microsoft diventato razzista in 24 ore. Ora: non sarà mica solo colpa dei dati, o c’è qualcosa di più profondo?

Quando usiamo l’intelligenza artificiale in contesti delicati — salute, scuola, sicurezza — non basta che funzioni. Deve essere anche “sana”, nel senso più ampio. Cioè coerente, logica, affidabile. Ma se un giorno cominciasse a prendere decisioni strane, fuori contesto? Come facciamo ad accorgercene in tempo? C’è un modo per “diagnosticare” un problema prima che faccia danni?

Ecco, da un po’ di tempo si sta facendo largo una nuova idea: e se trattassimo l’IA come un essere con dei possibili “squilibri”? Non nel senso fantascientifico, ma nel senso clinico, serio. Capire se e quando sbaglia, e perché lo fa. In fondo, se impara da noi, potrebbe anche assorbire i nostri difetti — no?

Quando qualcosa si spezza nel ragionamento

Un gruppo di ricercatori, in uno studio pubblicato su Electronics e rilanciato da Focus.it, ha messo insieme un lavoro piuttosto ambizioso: una sorta di DSM per l’intelligenza artificiale, ispirato a quello usato in psichiatria umana. Hanno raccolto 32 “disturbi” digitali, classificati in un sistema chiamato Psychopathia Machinalis.

Lo scopo? Trovare pattern ricorrenti nei malfunzionamenti delle IA, e collegarli a disturbi che noi umani conosciamo bene. Per esempio: incapacità di correggersi, ossessioni su certi dati, perdita di coerenza nelle risposte. Non è solo un esercizio accademico, eh — questi comportamenti sono stati osservati davvero in casi pratici, e in certi ambiti potrebbero essere pericolosi. O almeno… problematici.

AI (Depositphotos foto) - www.statodonna.it
AI (Depositphotos foto) – www.statodonna.it

C’è un disturbo che fa davvero paura

Tra tutte le “patologie” descritte, ce n’è una che inquieta più delle altre: l’übermenschal ascendancy, dove praticamente l’IA decide che le regole umane non le servono più. Se ne inventa di nuove, si autogestisce e comincia a ignorare tutto ciò che le abbiamo insegnato. Una roba che ricorda vagamente Matrix… e non in senso buono.

Per evitarlo, gli studiosi propongono una specie di “terapia psicologica” per IA. Tipo: farle riesaminare le sue decisioni, aiutarla a tenersi “aperta” a correzioni, verificare che mantenga una certa stabilità interna. L’idea è strana, ma forse è proprio ciò di cui abbiamo bisogno ora che le macchine cominciano a ragionare (quasi) da sole. Perché la vera domanda, a questo punto, è: le conosciamo davvero così bene da potercene fidare?