How AI sta modificando lo scenario della cybersicurezza e del cybercrimine

La crescente popolarità dei tool di Intelligenza Artificiale potrebbero essere un pericolo per la sicurezza

How AI sta modificando lo scenario della cybersicurezza e del cybercrimine

L'intelligenza artificiale è una delle tecnologie più rivoluzionarie dei nostri tempi e sta cambiando il modo in cui concepiamo la sicurezza informatica e al crimine informatico. In soli due mesi, il chatbot sviluppato da OpenAI ha superato i 100 milioni di utenti attivi e si è confermata come l'applicazione consumer in più rapida crescita nella storia. Gli utenti che desiderano servirsi dell'intelligenza artificiale per creare malware ed e-mail per spionaggio, attacchi ransomware, spam e altre attività nefaste attualmente dominano le discussioni nei forum sul crimine informatico.

Un cybercriminale ha condiviso il codice ad un ladro di informazioni creato adoperando l'intelligenza artificiale di ChatGPT quale dimostrazione delle sue abilità. Il malware, scritto in Python, è capace di localizzare, copiare ed estrarre 12 formati di file standard da un sistema compromesso, inclusi documenti Office, PDF e immagini.

Le campagne scoperte di recente mostrano persino il modo in i criminali insegnano ai robot e agli assistenti di intelligenza artificiale a introdurre un codice dannoso nel linguaggio di programmazione per diffondere minacce. La campagna Trojan Puzzle dimostra che i criminali informatici stanno sfruttando la popolarità dell'intelligenza artificiale e della tecnologia a proprio vantaggio.

Negli ultimi anni si è registrato un aumento degli attacchi informatici, sempre più sofisticati, frequenti e difficili da prevenire. Tuttavia, se da un lato l'intelligenza artificiale offre nuove opportunità per combattere la criminalità informatica, dall'altro introduce anche nuovi rischi e sfide. Questo articolo indaga sul modo in cui l'intelligenza artificiale sta alterando lo scenario della sicurezza informatica e del crimine informatico.

Impiegare l'intelligenza artificiale per prevenire gli attacchi informatici

Gli approcci tradizionali alla sicurezza informatica stanno diventando sempre meno efficaci man mano che gli attacchi informatici crescono in numero e complessità. Tuttavia, con l'ascesa dell'IA, stanno emergendo nuove opportunità per affrontare tali sfide. Gli algoritmi di intelligenza artificiale sono in grado di analizzare grandi quantità di dati e rilevare modelli e anomalie che gli esseri umani potrebbero non notare, il che è particolarmente promettente per l'individuazione delle minacce nella sicurezza informatica. L'intelligenza artificiale è in grado di prevenire o mitigare potenziali danni attraverso il rilevamento e la risposta in tempo reale.

Anche l'autenticazione e il controllo degli accessi, tradizionalmente vulnerabili agli attacchi, sono sottoposti a trasformazione da parte dell'intelligenza artificiale. Con i sistemi di autenticazione biometrica basati sull'intelligenza artificiale come il riconoscimento facciale, il riconoscimento vocale e la scansione delle impronte digitali, le password e altri metodi di autenticazione possono essere resi più sicuri e convenienti. Questi sistemi sono anche in grado di adattarsi ai cambiamenti nel comportamento degli utenti, aggiungendo un ulteriore livello di sicurezza.

Malware basato su IA: la nuova minaccia

Il malware basato sull'intelligenza artificiale sta diventando sempre più sofisticato e difficile da rilevare nel campo della sicurezza informatica. Nel 2019, ad esempio, i ricercatori hanno scoperto DeepLocker, un malware basato sull'intelligenza artificiale sviluppato da IBM che utilizza “l'IA avversaria” per evitare il rilevamento. DeepLocker è destinato a rimanere inattivo fino a quando non viene rilevato un obiettivo specifico, come un individuo o un'organizzazione. Può distribuire un carico utile per sferrare un attacco distruttivo una volta identificato il bersaglio.

Un altro esempio di malware basato sull'intelligenza artificiale è l'attacco di malware senza file del 2017 a una banca internazionale. Il malware, soprannominato “Silent Starling”, si serviva di un algoritmo di intelligenza artificiale per evitare il rilevamento da parte del software antivirus. Per diversi mesi, il malware è stato in grado di infettare i sistemi della banca e rubare informazioni riservate senza essere rilevato. L'attacco è stato scoperto solo dopo che un'anomalia nella rete della banca è stata scoperta e ricondotta al malware.

Gli attacchi malware basati sull'intelligenza artificiale sono particolarmente preoccupanti perché possono adattarsi ed evolversi in tempo reale per evitare il rilevamento. Questi attacchi possono essere utilizzati per rubare dati sensibili, dirottare sistemi o lanciare attacchi denial-of-service, tra le altre cose. Con l'avanzare della tecnologia IA, è probabile che la minaccia del malware basato sull'IA cresca, richiedendo lo sviluppo di nuove strategie di rilevamento e prevenzione.

La nuova generazione di ingegneria sociale

ChatGPT, nelle mani sbagliate, può permettere a chiunque di creare un'e-mail di phishing convincente e persino scrivere il codice per un attacco malware, inserire un codice in un allegato e-mail dall'aspetto innocente.

Negli ultimi anni, ci sono state segnalazioni di criminali informatici che hanno eseguito attacchi di ingegneria sociale utilizzando tattiche simili con altri modelli di intelligenza artificiale conversazionale. I ricercatori, ad esempio, hanno scoperto una campagna di phishing nel 2020 che utilizzava il modello linguistico GPT-3 di OpenAI per generare email di phishing convincenti che sembravano provenire da fonti attendibili.

Da notare che l'utilizzo di ChatGPT per attacchi di ingegneria sociale sarebbe sia immorale che illegale. OpenAI, la società che ha creato ChatGPT, ha messo in atto misure di salvaguardia per prevenire l'uso dannoso della sua tecnologia, come il monitoraggio dell'uso improprio e la richiesta agli utenti di accettare termini e condizioni che vietano comportamenti dannosi. Tuttavia, la minaccia degli attacchi di ingegneria sociale alimentati dall'intelligenza artificiale è in forte crescita, sottolineando l'importanza della continua ricerca e sviluppo di misure di sicurezza per contrastare tali minacce.

Opportunità e rischi

L'intelligenza artificiale offre nuove opportunità per combattere la criminalità informatica, ma introduce anche nuovi rischi e sfide. Lo sviluppo di sistemi di sicurezza informatica basati sull'intelligenza artificiale è un'area di ricerca promettente, ma è ancora nelle sue fasi iniziali. Devono essere affrontate molte questioni tecniche ed etiche, come l'affidabilità e l'interpretabilità degli algoritmi di intelligenza artificiale, la possibilità di pregiudizi e discriminazioni e i rischi di attacchi informatici agli stessi sistemi di intelligenza artificiale.

Un altro problema sono i requisiti necessari per la collaborazione tra professionisti della sicurezza informatica, esperti di intelligenza artificiale e responsabili politici. L'intelligenza artificiale è una tecnologia in rapida evoluzione e lo sviluppo di soluzioni efficaci richiede un approccio multidisciplinare. La collaborazione tra le discipline è fondamentale per garantire che l'intelligenza artificiale sia utilizzata a vantaggio della società piuttosto che per scopi dannosi.

Riguardo l'autore
Gabriel E. Hall
Gabriel E. Hall - Appassionata di studi sui virus

Gabriel E. Hall è un'appassionata ricercatrice di malware che ha lavorato per senzavirus.it per quasi un decennio.

Contatta Gabriel E. Hall
Informazioni sulla compagnia Esolutions