Questo sito contribuisce alla audience di Il Messaggero

Venerdì 29 Marzo
Scarica la nostra app

Intelligenza Artificiale, studiati nuovi algoritmi per difendersi dai messaggi malevoli

Intelligenza Artificiale, ecco le ultime evoluzioni che le rendono più sicure, pubblicate su Nature

Intelligenza Artificiale, studiati nuovi algoritmi per difendersi dai messaggi malevoli
Intelligenza Artificiale, le ultime novità - Foto Lettera42

Intelligenza Artificiale, studiati nuovi algoritmi per proteggere i dispositivi dai messaggi subdoli

Un articolo pubblicato sulla rivista Nature, ha reso noto che gli informatici hanno escogitato un modo per rendere il riconoscimento vocale del computer più sicuro da attacchi malevoli e subdoli. Per attacchi malevoli si intendono quei messaggi che sembrano normali ma che nascondono comandi che possono disorientare un dispositivo come ad esempio un assistente personale virtuale.

Gran parte dei progressi compiuti nell’intelligenza artificiale (AI) negli ultimi dieci anni – auto senza conducente, traduttore linguistico, etc – provengono da reti neurali artificiali, programmi che imitano per certi versi il funzionamento del cervello. Questa tecnica, chiamata anche deep learning quando viene applicata su larga scala, trova i pattern nei dati da sola, senza bisogno di istruzioni esplicite. Ma gli algoritmi di deep-learning spesso funzionano in modi misteriosi e la loro imprevedibilità li rende vulnerabili.

La vulnerabilità dei pattern

Di conseguenza, i pattern che l’IA usa per riconoscere le immagini, potrebbero non essere quelli che gli umani usano. I ricercatori sono stati in grado di modificare subdolamente le immagini e altri input in modo che alle persone sembrino identici, ma ai computer differiscono. L’anno scorso, ad esempio, alcuni scienziati informatici hanno dimostrato che collocando alcuni adesivi innocui su un segnale di stop, potevano convincere un programma di intelligenza artificiale che si trattasse di un cartellone che indicasse dei limiti di velocità inducendola a commettere un errore.

Il metodo utilizzato per neutralizzare gli attacchi

Bo Li, uno scienziato informatico dell’Università dell’Illinois a Urbana-Champaign, e i suoi coautori hanno elaborato un nuovo algoritmo che trascrive una clip audio completa e, separatamente, solo una parte di esso. Se la trascrizione di quel singolo pezzo non corrisponde esattamente alla parte corrispondente della trascrizione completa, il programma attiva una sorta di procedura di arresto.

Gli autori hanno dimostrato che per diversi tipi di attacco, i metodi da loro sperimentati sono sempre stati in grado di neutralizzarli. Inoltre, anche nei casi in cui chi attacca conosce bene il sistema di difesa, gli attacchi vengono neutralizzati nella maggior parte dei casi.

I nuovi algoritmi sulla comprensione del testo

Alexandros Dimakis, uno scienziato informatico presso l’Università del Texas ad Austin, e i suoi collaboratori hanno studiato una potenziale minaccia per l’Intelligenza Artificiale che riguarda la comprensione del testo. Gli attacchi precedenti hanno cercato sinonimi di certe parole che lascerebbero invariato il significato del testo, ma potrebbero condurre un algoritmo di deep-learning, ad esempio, a classificare lo spam come sicuro, o le notizie false come positive o negative come positive. I nuovi algoritmi testati aumentano la precisione dei filtri per evitare che questo possa accadere anche se in futuro verranno fatti altri studi per potenziare le controffensive contro i messaggi malevoli.

La nostra newsletter! Ricevi gli aggiornamenti e le ultimissime su Meteo e Scienza via mail!

ISCRIVITI ORA!

Biagio Romano

Classe '93, napoletano di nascita, interista di fede. Scrivo sul web da quando avevo 16 anni: prima per hobby, poi per lavoro. Curioso di natura, amo le sfide (soprattutto vincerle). Mi affascinano il mondo dell'informazione e quello della comunicazione.

SEGUICI SU:

Ultima Ora

Ultima Ora Terremoto