Il data poisoning è un tipo di attacco informatico che prende di mira i modelli di apprendimento automatico (machine learning) manipolando i loro dati di addestramento. L’obiettivo di questi attacchi è manipolare il comportamento del modello introducendo, modificando o eliminando punti dati nel set di addestramento. Questo può portare il modello a prendere decisioni o previsioni errate una volta implementato.
Ci sono due tipi principali di attacchi di data poisoning:
1. **Attacchi mirati (Targeted Attacks)**: Questi hanno lo scopo di influenzare il comportamento del modello per input specifici, come ad esempio far sì che un sistema di riconoscimento facciale non riconosca un determinato individuo, senza degradare significativamente le sue prestazioni complessive[1].
2. **Attacchi non mirati (Nontargeted Attacks)**: Questi cercano di ridurre l’accuratezza, la precisione o il richiamo (recall) generale del modello aggiungendo rumore o punti dati irrilevanti, degradando così le sue prestazioni su vari input[1].
Il successo di un attacco di data poisoning dipende dalla capacità dei dati avvelenati di evitare il rilevamento durante la pulizia dei dati o il pre-processing, e dall’efficacia dell’attacco nel degradare le prestazioni del modello[1].
Il data poisoning può avere gravi implicazioni, specialmente poiché sempre più aziende si affidano a sistemi di intelligenza artificiale e apprendimento automatico. Può essere utilizzato per vari scopi malevoli, inclusi la disinformazione, le truffe phishing, l’alterazione dell’opinione pubblica o il discredito di individui o marchi.
Per proteggersi dal data poisoning, le organizzazioni possono impiegare robusti filtri dei dati, addestramento avversario, convalida degli input, monitoraggio e trasparenza del modello per identificare e mitigare l’impatto dei dati avvelenati.
Citations:
[1] Data Poisoning: The Essential Guide | Nightfall AI Security 101 https://www.nightfall.ai/ai-security-101/data-poisoning
[2] What is Data Poisoning & Why Should You Be Concerned? https://internationalsecurityjournal.com/data-poisoning/
[3] Papers with Code – Data Poisoning https://paperswithcode.com/task/data-poisoning
Quali sono alcuni esempi di attacchi basati sul data poisoning?
Esempi di attacchi di Data Poisoning includono:
1. **Sistemi di rilevazione di anomalie di rete**: Gli aggressori possono introdurre dati che riducono l’accuratezza dei modelli utilizzati per identificare attività di rete sospette, rendendo più difficile per il sistema riconoscere le vere minacce[1].
2. **Filtri antispam**: Gli attacchi di Data Poisoning possono essere diretti contro i filtri antispam, ad esempio, manipolando i dati in modo che il sistema non riconosca tentativi di accesso non autorizzati o violazioni della privacy[4].
3. **Sistemi di guida autonoma**: Un attacco di Data Poisoning potrebbe essere condotto su di un segnale stradale di “stop” semplicemente appiccicandoci sopra un adesivo, inducendo il sistema di AI dell’automobile ad interpretare erroneamente il segnale[7].
4. **Sistemi di underwriting assicurativo basati su AI**: Gli attacchi potrebbero portare a valutazioni di rischio errate, influenzando le decisioni su prezzi e coperture[2].
Per proteggere i modelli di AI dal Data Poisoning, è fondamentale adottare tecniche di difesa e strumenti di minimizzazione del rischio, come una buona tutela delle backdoor di accesso ai sistemi e lo sviluppo di AI più resilienti all’inquinamento dei dati[5].
Citations:
[1] Data poisoning, un pericolo per tutte le intelligenze artificiali – Cyber Security 360 https://www.cybersecurity360.it/outlook/data-poisoning-pericolo-ai/
[2] Che cos’è il data poisoning https://www.repubblica.it/tecnologia/2020/10/29/news/che-cos-e-il-data-poisoning-299481018/
[3] Avvelenare i modelli di AI: il Data Poisoning https://www.dirittoegiustizia.it
[4] Intelligenza artificiale e data poisoning: come “avvelenare” i dati https://www.diritto.it/intelligenza-artificiale-data-poisoning-avvelenare/
[5] Cos’è il Data Poisoning e come si può combattere? – WitIt https://www.witit.it/cose-il-data-poisoning-e-come-si-puo-combattere/
[6] Luca Andreola – Avvelenare i modelli di AI: il Data Poisoning – LinkedIn https://it.linkedin.com/posts/lucaandreola_avvelenare-i-modelli-di-ai-il-data-poisoning-activity-7163125709471789058-VDJ6
[7] Cos’è il Data Poisoning e perché merita immediata attenzione? https://www.ainewnormal.com/cultura/%5B8%5D-po.html
[8] toxicity data – Traduzione in italiano – Dizionario Linguee https://www.linguee.it/inglese-italiano/traduzione/toxicity+data.html