Le AI hanno le allucinazioni! Chiamate lo psichiatra

Mi racconti come si sente oggi, cara AI

Le AI si sono sviluppate a dismisura e le vediamo utilizzate in molti modi, soprattutto dalle aziende più all’avanguardia. Esistono però dei software basati su reti neurali di tipo deep-neural-network che sembrerebbero essere decisamente deboli. Parlando in termini “antropomorfi” potremmo dire che queste intelligenze vadano incontro a fenomeni di allucinazioni. Perchè?  Sembra infatti che apportare anche semplici modifiche a immagini, testi o audio su cui i software lavorano sconvolga la mente artificiale, confondendola.

Questa grave fragilità potrebbe essere un problema per i prodotti che dipendono dall’apprendimento automatico o quelli basati su sistemi di visione elettronica, come le auto a guida autonoma. Ovviamente i migliori team di esperti e di ricercatori sono già all’opera per risolvere le difficoltà e migliorare le difese delle AI.

ai allucinazione 1

 

Durante una conferenza sull’apprendimento automatico tenutasi a gennai, è  stata annunciata la selezione di 11 nuovi paper da presentare ad aprile, che propongono modi per difendere o rilevare tali attacchi. Solo tre giorni dopo uno studente del MIT, Anish Athalye, ha lanciato una pagina web in cui mostra di aver distrutto ben sette barriere difensive presentate dai paper. Alcuni erano addirittura stati presentati da istituzioni come Google e Amazon. “Un programmatore malintenzionato con un po’ di creatività può creare facilmente un attacco per aggirare tutte queste difese” ha scritto Athalye. È chiaro che ancora non si sa come difendere le deep-neural-network senza però smettere di migliorare ogni giorno le tecnologie dell’AI.

Molto problematico risulta essere il settore della guida automatica, la più soggetta ad allucinazioni. “Tutti questi sistemi sono vulnerabili”, dice Battista Biggio, ricercatore italiano assistente presso l’Università di Cagliari. “Alla comunità di studio sull’apprendimento automatico manca un approccio metodologico per valutare la sicurezza”.

ai allucinazione 2
Questa è un’immagine creata da Athalye, che mostra due uomini sugli sci. Richiesta l’interpretazione dell’immagine al servizio Cloud Vision di Google, questo ha risposto di essere sicuro al 91% di aver visto un cane.

Fino a oggi questi attacchi sono stati dimostrati solo in esperimenti di laboratorio. Ma ora devono essere presi sul serio. I sistemi di visione dei veicoli autonomi, gli assistenti vocali che hanno abilitate le funzioni che gli permettono di spendere soldi e i sistemi di apprendimento automatico devono essere tutti degni di fiducia per poter conseganre nelle loro mani degli ambiti così delicati. È su questo che si incentra la ricerca a cui ha contribuito Bo Li, un ricercatore post-doc a Berkeley. Grazie a questo studio si è riusciti a dimostrare che attaccare adesivi sul cartello di stop permette di renderlo “invisibile” agli occhi dell’AI.

Per rendere le difese dei software meno vulnerabili di fronte ad attacchi esterni, i ricercatori del deep learning potrebbero aver bisogno di diventare più cattivi. Athalye e Biggio affermano entrambi che questo campo di ricerca dovrebbe adottare le pratiche già diffuse nella ricerca sulla sicurezza. “Le persone tendono a fidarsi l’una dell’altra nell’apprendimento automatico”, afferma Biggio. “La mentalità della sicurezza è esattamente l’opposto, devi essere sempre sospettoso che possa sempre accadere qualcosa di brutto.” Un rapporto pubblicato da ricercatori esperti nell’ambito della ricerca sulla sicurezza ha consigliato a coloro che lavorano sull’apprendimento automatico di pensare di più a come la tecnologia che stanno creando potrebbe essere usata in modo improprio. Dopotutto nemmeno alle intelligenze artificiali piace avere allucinazioni.

ai allucinazione 3
Il cartello stop è letto come “persona” e basta.

Riuscire a risolvere questo enigma sulla salvaguardia delle AI potrebbe richiedere un ripensamento radicale della tecnologia di apprendimento automatico. Ovviamente, parlando di software, risulta scontato dire che una deep-neural-network è molto diversa da un cervello umano. Ma proprio su questo si sono concentrati alcuni ricercatori di Google. Il grande colosso con sede a Mountain View ha mostrato di essere riuscito ad ingannare tanto l’uomo quanto la macchina con alcune immagini create artificialmente. Dove sarebbe dunque la differenza fondamentale? L’essere umano non interpreta le foto come meri dati, ma arriva ad una percezione immediata del significato complessivo di questa, sulla base delle relazioni che esistono tra i vari componenti.

Geoff Hinton, il più importante ricercatore di Google per il machine learning, sta cercando di fornire al software proprio questo tipo di abilità. Pensa che riuscire ad algoritmizzare il processo umano e cognitivo di interpretazione consentirebbe al software di imparare a riconoscere qualcosa solo da poche immagini e non a creare uno schema solo dopo l’analisi di migliaia di queste. Insomma, tutti questi ricercatori ed esperti che si stanno prodigando nella formulazione di una tesi finale per risolvere il disagio delle AI sembrano lavorare come veri e propri psichiatri. “Non puoi vivere da due parti, dalla parte della realtà e dalla parte del sogno, così ti vengono le allucinazioni.”
(Antonio Tabucchi)

 

L’esperimento riguardo al “camuffamento” dello stop di cui ha parlato Bo Li:

 

Fonte 1 | Fonte 2

Benedetta Di Marcello

I videogame sono la mia passione, la tecnologia un mistero tutto da scoprire, la natura e gli animali il mio cuore, la scienza è la mia religione. Puoi conoscere il cuore di un uomo già dal modo in cui egli tratta gli animali. (Immanuel Kant)