Over 10 years we help companies reach their financial and branding goals. Engitech is a values-driven technology agency dedicated.

Gallery

Contacts

411 University St, Seattle, USA

engitech@oceanthemes.net

+1 -800-456-478-23

Artificial Intelligence

Cos’è il Data Poisoning e come si può combattere?

Ancora una volta ci troviamo a parlare di sicurezza digitale e dei fenomeni che minacciano i nostri dati sul web.
Oggi parleremo di Data Poisoning, il cosiddetto inquinamento dei dati, compiuto da hacker esperti in Intelligenza Artificiale.

La vulnerabilità del Machine Learning

Il Machine Learning – uno dei principali ambiti dell’Intelligenza Artificiale – ha il fondamentale compito di garantire ai computer un apprendimento automatizzato attraverso l’esperienza. Attraverso programmi di apprendimento automatico gli algoritmi di Machine Learning usano metodi matematico-computazionali che consentono di apprendere informazioni direttamente dai dati. Questi algoritmi migliorano le loro prestazioni progressivamente al numero delle informazioni apprese. Così facendo, quindi, il sistema informatizzato migliora le sue prestazioni nel tempo, senza il continuo intervento umano.

Dopo questa breve parentesi introduttiva sul Machine Learning, arriviamo al tema centrale di questo articolo: il rischio che l’apprendimento automatico comporta. Il ML può essere applicato ai sistemi di sicurezza informatica grazie, ad esempio, alle sue capacità tutelative che consentono di filtrare messaggi fraudolenti. Ma per ogni punto di forza c’è una debolezza, fra cui appunto il Data Poisoning.

Le modalità di Data Poisoing

Il Data Poisoning è un attività esercitata dall’uomo con lo scopo di inquinare i dati che sono processati dall’Intelligenza Artificiale per alterare l’apprendimento automatico. Questo processo pone problemi simili ai cosiddetti adversarial attack, in cui gli hacker individuano quali modifiche – impercettibili all’occhio umano – apportare a un’immagine o altro per confondere l’Intelligenza Artificiale. 

Il Data Poisoning può manifestarsi in due differenti modalità: il Feedback Data Poisoning e il Training Data Poisoning.

Feedback Data Poisoning

Si attua quando l’hacker intraprende delle azioni che sfruttano i meccanismi di feedback al fine di manipolare l’apprendimento del sistema. L’Intelligenza Artificiale, basata sull’apprendimento automatico, procederà così ad una classificazione errata di un determinato contenuto, alterando l’apprendimento complessivo. Il dato è infatti percepito come regolare dall’AI, sebbene l’algoritmo che lo genera sia stato alterato.

Training Data Poisoning

In questo caso l’hacker si introduce nel sistema di apprendimento da una backdoor effettuando un’iniezione di dati corrotti all’interno del sistema. L’attore effettua quindi una mutazione dei dati dall’interno in questo caso, aggirando il sistema. Ciò gli consente di manipolare i set di dati che sono solitamente utilizzati per favorire l’apprendimento dell’AI al fine di controllare il comportamento del sistema.

C’è una soluzione al Data Poisoning?

Quanto appena detto ci fa comprendere come l’Intelligenza Artificiale non sia poi così degna del suo nome. O meglio, come il suo approccio, ancora troppo legato alla mente umana, non gli consenta di attuare un processo di reale comprensione dell’errore e di agire di conseguenza.

Sembra quindi molto difficile difendersi da questi attacchi criminali, ma non impossibile.
Il primo passo da compiere è quello di una buona tutela delle backdoor di acceso ai sistemi. Ma di principale importanza resta lo sviluppo di un’AI sempre più volta alla comprensione basica della vita virtuale e non riferita al pensiero umanizzato.

Campi di applicazione del Data Poisoning

Come ci spiega più approfonditamente il Professor Osvaldo Prosperi nel sul articolo Cos’è il “ Data Poisoning ” e perché merita immediata attenzione? di cui vi consigliamo la lettura, il Data Poisoning è applicabile in numerosi campi.
Ad oggi l’utilizzo più gettonato di questa tecnica da parte dagli hacker è per:

  • l’estrapolazione dei dati sensibili presenti nelle aziende;
  • eludere i sistemi di sicurezza che utilizzano Machine Learning;
  • alterare modelli con finalità criminali;
  • attività terroristiche che mirano all’infiltrazione all’interno delle organizzazioni statali o alla compromissione della sicurezza nazionale.

Author

Lara Mastrofini