L'intelligenza artificiale è immune da attacchi hacker?
Falso: E' esposta come tutte le tecnologie, è possibile anche comprometterne l'addestramento

Redazione ANSA
24 maggio 2023 - 13:42
Intelligenza Artificiale.  Foto di Gerd Altmann da Pixabay © Ansa

Cosa verifichiamo

L'intelligenza artificiale (IA) sta profondamente cambiando la società in cui viviamo, il suo utilizzo è nei settori più disparati come l’automazione industriale, la medicina, e la finanza. L'IA inoltre si ritiene contribuirà in maniera importante allo sviluppo di nuove tecnologie cambiando il nostro modo di vivere e lavorare. Constatata la rapida adozione di questa tecnologia è lecito chiedersi se sistemi basati sull’intelligenza artificiale siano immuni da attacchi informatici.

Analisi

Le tecniche e gli obiettivi dei cyber criminali sono in costante progresso e spesso sfruttano l'attualità o dei temi emergenti. Con l'aumento di popolarità del software di Intelligenza artificiale ChatGpt è stata osservata la creazione di nuovi virus e minacce informatiche così come la creazione di e-mail che distribuiscono phishing. Potremmo raggruppare gli attacchi all'IA in due macrocategorie, spiega Pierluigi Paganini, Ceo di Cyberhorus e professore di Cybersecurity presso l'Università Luiss Guido Carli. Cioè gli attacchi contro i sistemi e gli attacchi ai modelli di Intelligenza artificiale.

Alla prima categoria appartengono gli attacchi all’infrastruttura su cui si basa un sistema di intelligenza artificiale, ad esempio, alle reti o ai server che lo ospitano, alle comunicazioni tra le componenti e l'accesso non autorizzato ai dati ed al modello stesso. Gli attacchi appartenenti alla seconda categoria prendono di mira specificamente il modello di IA utilizzato dal sistema. Un esempio è la manipolazione dei dati di addestramento o la modifica dei parametri del modello. In un attacco basato sulla manipolazione dei dati l’attaccante modifica o manipola i data set utilizzati per l’addestramento o l’alimentazione di un modello di intelligenza artificiale con l’intento di interferire con il suo comportamento. Immaginiamo, ad esempio - osserva Paganini - di addestrare un sistema per il riconoscimento di un attacco informatico, qualora un attaccante riuscisse a fornire false informazioni sugli attacchi nel set di addestramento potrebbe portare il modello a non riconoscere correttamente un attacco quando questo si verifica. In realtà i modelli possono essere attaccati non solo in fase di addestramento, ma anche in fase di esercizio, ovvero fornendo ai sistemi basati sull'IA dati studiati per influenzarne il comportamento ed indurre il sistema a prendere decisioni errate.

Un’altra tecnica di attacco ai dati, nota come attacco di inferenza, consiste nel tentativo di ottenere informazioni sensibili dal modello di IA mediante una serie di interrogazioni ad hoc. Questi attacchi potrebbero essere sfruttati per eludere le limitazioni imposte al modello nell’iterazione con gli umani. Una ulteriore tecnica di attacco potrebbe avere come obiettivo quello di avvelenare il modello di intelligenza artificiale usato da un sistema. Può essere condotto in diverse fasi del processo di addestramento, dalla raccolta dei dati all’addestramento stesso. Talvolta si parla anche di modifica dei pesi del modello, ovvero della capacità di un attaccante di modificare direttamente i pesi del modello durante la fase di addestramento.

Conclusioni

I sistemi basati sull'intelligenza artificiale, come qualunque altro sistema tecnologico, sono vulnerabili ad attacchi informatici. L'esperto di si sicurezza Pierluigi Paganini raccomanda di essere vigili sull'evoluzione del panorama delle minacce e di proteggere i propri dispositivi e le infrastrutture su cui si lavora

Fonti

Pierluigi Paganini, Ceo Cybhorus e professore di Cybersecurity presso l'Università Luiss Guido Carli e coordinatore scientifico Sole 24 Ore formazione

National Institute of Standards and Technology

Institute of Electrical and Electronics Engineers

The Economist

Def Con Las Vegas

ANSA.it

Riproduzione riservata © Copyright ANSA
Il Fact-check è uno strumento dell'agenzia ansa contro la disinformazione
Offriamo informazioni utili contro le falsità che circolano attraverso la rete

I nostri team fanno del loro meglio per consultare tutte le domande che ci vengono sottoposte. Lavoriamo per rispondere alle richieste e proposte che ci pervengono sulla base di diversi criteri e ci riserviamo il diritto di operare una selezione tra tutte le richieste dando priorità a quelle più rilevanti e interessanti per il pubblico. Riteniamo che i reclami fantasiosi, infondati, offensivi, minacciosi o chiaramente derivanti da un'azione coordinata di spam non richiedano una nostra risposta. Per consentirci di rispondere a una richiesta di verifica, il messaggio o la dichiarazione su cui si richiede di indagare devono alludere a fatti o dati. Non verifichiamo opinioni o, in genere, affermazioni su eventi non ancora accaduti.

Informativa privacy

(*) Tramite il modulo è possibile inviare informazioni su possibili errori nei fact check ANSA

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.