AI in Cyber Security: i rischi dell'AI
Da anni l'intelligenza artificiale (AI) migliora gli strumenti di sicurezza informatica. Ad esempio, gli strumenti di apprendimento automatico hanno reso più potenti i software di sicurezza di rete, anti-malware e di rilevamento delle frodi, trovando anomalie molto più velocemente degli esseri umani. Tuttavia, l'intelligenza artificiale ha anche rappresentato un rischio per la sicurezza informatica. Gli attacchi brute force, denial of service (DoS) e social engineering sono solo alcuni esempi di minacce che utilizzano l'AI.
Si prevede che i rischi dell'intelligenza artificiale per la sicurezza informatica aumenteranno rapidamente con gli strumenti di IA che diventano più economici e accessibili. Ad esempio, è possibile ingannare ChatGPT per fargli scrivere un codice maligno o una lettera di Elon Musk che richiede donazioni,
È inoltre possibile utilizzare una serie di strumenti di deepfake per creare tracce audio o video falsi sorprendentemente convincenti con pochissimi dati di addestramento. Ci sono anche crescenti preoccupazioni per la privacy, dato che sempre più utenti si sentono a proprio agio nel condividere informazioni sensibili con l'intelligenza artificiale.
Leggete questa guida approfondita per saperne di più:
- Definizione di AI.
- Rischi dell'intelligenza artificiale.
- L'intelligenza artificiale nella sicurezza informatica.
- IA e rischi per la privacy.
Cos'è l'AI: Intelligenza Artificiale
L'IA, o Intelligenza Artificiale, si riferisce allo sviluppo di sistemi informatici in grado di eseguire compiti e prendere decisioni che tipicamente richiedono l'intelligenza umana. Comporta la creazione di algoritmi e modelli che consentono alle macchine di imparare dai dati, riconoscere gli schemi e adattarsi a nuove informazioni o situazioni.
In parole povere, l'IA è come insegnare ai computer a pensare e imparare come gli esseri umani. Permette alle macchine di elaborare e analizzare grandi quantità di dati, identificare modelli o anomalie e fare previsioni o prendere decisioni sulla base di tali informazioni. L'IA può essere utilizzata in diverse applicazioni, come il riconoscimento delle immagini e del parlato, l'elaborazione del linguaggio naturale, la robotica e la sicurezza informatica, per citarne alcune.
In generale, l'IA mira a imitare l'intelligenza umana per risolvere problemi complessi, automatizzare compiti e migliorare l'efficienza e la precisione in diversi campi.
Apprendimento automatico e apprendimento profondo
L'apprendimento automatico (ML) è un sottoinsieme comunemente utilizzato dell'IA. Gli algoritmi e le tecniche di ML consentono ai sistemi di apprendere dai dati e prendere decisioni senza essere esplicitamente programmati.
L'apprendimento profondo (DL) è un sottoinsieme del ML che sfrutta modelli di calcolo artificiale ispirati al cervello umano, chiamati reti neurali, per compiti più avanzati. ChatGPT è un esempio di IA che utilizza il ML per comprendere e rispondere alle richieste generate dall'uomo.
IA stretta e intelligenza artificiale generale
Tutti i tipi di IA sono considerati IA ristretta. Il loro campo di applicazione è limitato e non sono senzienti. Ne sono un esempio gli assistenti vocali, i chatbot, i sistemi di riconoscimento delle immagini, i veicoli a guida autonoma e i modelli di manutenzione.
L'intelligenza artificiale generale (AGI) è un concetto ipotetico che si riferisce a un'intelligenza artificiale autoconsapevole in grado di eguagliare o addirittura superare l'intelligenza umana. Mentre alcuni esperti ritengono che l'AGI sia lontana diversi anni o addirittura decenni, altri credono che sia impossibile.
Che cos'è l'IA generativa?
L'intelligenza artificiale generativa si riferisce a un sottoinsieme di tecniche di intelligenza artificiale che prevedono la creazione e la generazione di nuovi contenuti, come immagini, testi, audio o persino video. Si tratta di addestrare dei modelli per comprendere gli schemi nei dati esistenti e poi utilizzare questa conoscenza per generare nuovi contenuti originali che assomiglino ai dati di addestramento.
Un approccio popolare all'IA generativa è l'uso di reti generative avversarie (GAN). Le GAN sono costituite da due reti neurali: una rete generatrice e una rete discriminatrice. La rete generatrice crea nuovi contenuti, mentre la rete discriminatrice valuta e distingue tra i contenuti generati e quelli reali. Le due reti lavorano in modo competitivo, con il generatore che cerca di produrre contenuti che il discriminatore non può distinguere dai dati reali.
L'IA generativa trova applicazione in diversi ambiti. Ad esempio:
-
Generazione di immagini: L'IA generativa può essere utilizzata per generare immagini realistiche, come la creazione di volti fotorealistici, paesaggi o persino oggetti completamente nuovi che non esistono nel mondo reale.
-
Generazione di testo: I modelli generativi possono essere addestrati per generare testi coerenti e contestualmente rilevanti, che possono essere utilizzati per attività come chatbot, creazione di contenuti o traduzione linguistica.
-
Generazione di musica e audio: L'intelligenza artificiale generativa può creare nuove composizioni musicali o generare suoni e voci realistici.
Sebbene l'IA generativa abbia molte applicazioni positive, ci sono anche preoccupazioni per il suo potenziale uso improprio, come la generazione di contenuti falsi o di video deepfake che possono essere usati per ingannare o manipolare le persone. Le considerazioni etiche e l'uso responsabile dell'IA generativa sono fattori importanti per affrontare questi rischi.
Nel campo della sicurezza informatica, l'intelligenza artificiale generativa può essere sia uno strumento che una sfida. Può essere utilizzata per generare dati sintetici realistici per addestrare i modelli e migliorare le misure di sicurezza, ma può anche comportare dei rischi quando viene utilizzata per scopi dannosi, come la generazione di e-mail di phishing convincenti o gli attacchi di social engineering di deepfake . Ciò evidenzia l'importanza di sviluppare difese robuste e meccanismi di rilevamento per mitigare le potenziali minacce.
Quali sono i rischi dell'IA nella sicurezza informatica?
Come ogni tecnologia, l'IA può essere utilizzata per scopi positivi o dannosi. Gli attori delle minacce possono utilizzare alcuni degli stessi strumenti di IA progettati per aiutare l'umanità per commettere frodi, truffe e altri crimini informatici.
Esploriamo alcuni rischi dell'IA nella sicurezza informatica:
1: Ottimizzazione degli attacchi informatici
Gli esperti sostengono che gli aggressori possono utilizzare l'IA generativa e i modelli linguistici di grandi dimensioni per scalare gli attacchi a un livello di velocità e complessità mai visto prima. Possono utilizzare l'IA generativa per trovare nuovi modi per minare la complessità del cloud e sfruttare le tensioni geopolitiche per attacchi avanzati. Possono anche ottimizzare le loro tecniche di attacco ransomware e phishing perfezionandole con l'IA generativa.
2: Malware automatizzato
Un'intelligenza artificiale come ChatGPT è eccellente nell'elaborare accuratamente i numeri. Secondo il professore della Columbia Business School Oded Netzer, ChatGPT è già in grado di "scrivere codice abbastanza bene".
Gli esperti sostengono che nel prossimo futuro potrebbe aiutare gli sviluppatori di software, i programmatori di computer e i codificatori o sostituire parte del loro lavoro.
Sebbene un software come ChatGPT disponga di alcune protezioni per impedire agli utenti di creare codice dannoso, gli esperti possono utilizzare tecniche intelligenti per aggirarle e creare malware. Ad esempio, un ricercatore è riuscito a trovare una scappatoia e a creare un complesso eseguibile per il furto di dati quasi impercettibile. L'eseguibile era sofisticato come un malware creato da un attore di minacce sponsorizzato da uno Stato*.
Questa potrebbe essere la punta dell'iceberg. I futuri strumenti basati sull'intelligenza artificiale potrebbero consentire agli sviluppatori con competenze di programmazione di base di creare malware automatizzato, come un bot maligno avanzato. Quindi, cosa sono i bot maligni? Un bot maligno può rubare dati, infettare reti e attaccare sistemi con un intervento umano minimo o nullo.
* https://www.foxnews.com/tech/ai-created-malware-sends-shockwaves-cyber sicurezza-mondo
3: Sicurezza fisica
Con l'utilizzo dell'IA da parte di un numero sempre maggiore di sistemi come i veicoli autonomi, le attrezzature di produzione e costruzione e i sistemi medici, i rischi dell'intelligenza artificiale per la sicurezza fisica possono aumentare. Ad esempio, un'auto a guida autonoma basata sull'IA che subisce una violazione della sicurezza informatica potrebbe comportare rischi per la sicurezza fisica dei passeggeri. Allo stesso modo, il set di dati per gli strumenti di manutenzione in un cantiere potrebbe essere manipolato da un aggressore per creare condizioni pericolose.
Rischi per la privacy dell'intelligenza artificiale
In quello che è stato un bug imbarazzante per il CEO di OpenAI Sam Altman, ChatGPT ha fatto trapelare parti della cronologia delle chat di altri utenti. Sebbene il bug sia stato risolto, ci sono altri possibili rischi per la privacy dovuti alla grande quantità di dati che l'IA sminuzza. Ad esempio, un hacker che violasse un sistema di IA potrebbe accedere a diversi tipi di informazioni sensibili.
Un sistema di intelligenza artificiale progettato per il marketing, la pubblicità, la profilazione o la sorveglianza potrebbe anche minacciare la privacy in modi che George Orwell non poteva immaginare. In alcuni Paesi, la tecnologia di profilazione dell'IA sta già aiutando gli Stati a invadere la privacy degli utenti.
Rubare modelli di intelligenza artificiale
Esistono alcuni rischi di furto di modelli di intelligenza artificiale attraverso attacchi di rete, tecniche di ingegneria sociale e sfruttamento delle vulnerabilità da parte di soggetti minacciosi come agenti sponsorizzati dallo Stato, minacce interne come spie aziendali e hacker informatici comuni. I modelli rubati possono essere manipolati e modificati per assistere gli aggressori in diverse attività dannose, aggravando i rischi dell'intelligenza artificiale per la società.
Manipolazione e avvelenamento dei dati
Sebbene l'IA sia uno strumento potente, può essere vulnerabile alla manipolazione dei dati. Dopo tutto, l'IA dipende dai suoi dati di addestramento. Se i dati vengono modificati o avvelenati, uno strumento alimentato dall'IA può produrre risultati inaspettati o addirittura dannosi.
In teoria, un aggressore potrebbe avvelenare un dataset di addestramento con dati dannosi per modificare i risultati del modello. Un aggressore potrebbe anche avviare una forma più sottile di manipolazione, chiamata bias injection. Questi attacchi possono essere particolarmente dannosi in settori come quello sanitario, automobilistico e dei trasporti.
Impersonificazione
Non bisogna guardare oltre il cinema per vedere come gli strumenti basati sull'IA aiutino i registi a ingannare il pubblico. Ad esempio, nel documentario Roadrunner, la voce del defunto chef Anthony Bourdain è stata creata in modo controverso con l'audio generato dall'IA e ha facilmente ingannato gli spettatori. Allo stesso modo, l'attore veterano Harrison Ford è stato convincentemente invecchiato di diversi decenni grazie alla potenza dell'intelligenza artificiale in Indiana Jones e il quadrante del destino.
Un aggressore non ha bisogno di un grande budget hollywoodiano per realizzare un trucco simile. Con le giuste riprese, chiunque può creare filmati deepfake utilizzando applicazioni gratuite. È inoltre possibile utilizzare strumenti gratuiti basati sull'intelligenza artificiale per creare voci finte straordinariamente realistiche, addestrate su pochi secondi di audio.
Non deve quindi sorprendere che l'AI vengaora utilizzata per truffe di rapimento virtuale. Jennifer DeStefano ha vissuto il peggior incubo di un genitore quando sua figlia l'ha chiamata, urlando e singhiozzando. La sua voce è stata sostituita da un uomo che minacciava di drogarla e abusare di lei se non avesse pagato un riscatto di 1 milione di dollari.
Il problema? Gli esperti ipotizzano che la voce sia stata generata dall'intelligenza artificiale. Le forze dell'ordine ritengono che, oltre agli schemi di rapimento virtuale, in futuro l'intelligenza artificiale potrebbe aiutare i criminali in altri tipi di frodi di impersonificazione, tra cui le truffe ai nonni.
L'intelligenza artificiale generativa può anche produrre testo con la voce di leader di pensiero. I criminali informatici possono utilizzare questo testo per realizzare diversi tipi di truffe, come omaggi fraudolenti, opportunità di investimento e donazioni su mezzi come le e-mail o le piattaforme di social media come Twitter.
Attacchi più sofisticati
Come accennato, gli attori delle minacce possono utilizzare l'IA per creare malware avanzato, impersonare altre persone per le truffe e avvelenare i dati di formazione dell'IA. Possono utilizzare l'intelligenza artificiale per automatizzare attacchi di phishing, malware e furto di credenziali. L'intelligenza artificiale può anche aiutare gli attacchi a eludere i sistemi di sicurezza, come il software di riconoscimento vocale, in attacchi chiamati attacchi avversari.
Danno reputazionale
Un'organizzazione che utilizza l'IA può subire danni alla reputazione se la tecnologia funziona male o subisce una violazione della sicurezza informatica, con conseguente perdita di dati. Tali organizzazioni possono incorrere in multe, sanzioni civili e deterioramento delle relazioni con i clienti.
Come proteggersi dai rischi dell'IA
Sebbene l'IA sia uno strumento potente, può presentare alcuni rischi per la sicurezza informatica. Sia gli individui che le organizzazioni devono adottare un approccio olistico e proattivo per utilizzare la tecnologia in modo sicuro.
Ecco alcuni consigli che possono aiutarvi a mitigare i rischi dell'IA:
1: Verificare i sistemi di intelligenza artificiale utilizzati
Verificare la reputazione attuale di qualsiasi sistema di IA utilizzato per evitare problemi di sicurezza e privacy. Le organizzazioni dovrebbero verificare periodicamente i propri sistemi per eliminare le vulnerabilità e ridurre i rischi legati all'intelligenza artificiale. L'audit può essere effettuato con l'assistenza di esperti di sicurezza informatica e intelligenza artificiale che possono completare test di penetrazione, valutazioni di vulnerabilità e revisioni del sistema.
2: Limitare le informazioni personali condivise attraverso l'automazione
Sempre più persone condividono informazioni riservate con l'intelligenza artificiale senza comprendere i rischi dell'IA per la privacy. Ad esempio, il personale di importanti organizzazioni è stato sorpreso a inserire dati aziendali sensibili in ChatGPT. Persino un medico ha inserito il nome e le condizioni mediche del suo paziente nel chatbot per redigere una lettera, senza rendersi conto del rischio di sicurezza di ChatGPT.
Queste azioni comportano rischi per la sicurezza e violano le norme sulla privacy come l'HIPAA. Sebbene i modelli linguistici dell'IA non siano in grado di rivelare informazioni, le conversazioni vengono registrate per il controllo della qualità e sono accessibili ai team di manutenzione del sistema. Per questo motivo è bene evitare di condividere informazioni personali con l'IA.
3: Sicurezza dei dati
Come già detto, l'IA si basa sui dati di addestramento per ottenere buoni risultati. Se i dati vengono modificati o avvelenati, l'IA può produrre risultati inaspettati e pericolosi. Per proteggere l'IA dall'avvelenamento dei dati, le organizzazioni devono investire in tecnologie di crittografia, controllo degli accessi e backup all'avanguardia. Le reti devono essere protette con firewall, sistemi di rilevamento delle intrusioni e password sofisticate.
4: Ottimizzare il software
Seguire tutte le migliori pratiche di manutenzione del software per proteggersi dai rischi dell'IA. Ciò include l'aggiornamento del software e dei framework di IA, dei sistemi operativi e delle app con le patch e gli aggiornamenti più recenti per ridurre il rischio di sfruttamento e di attacchi malware. Proteggete i vostri sistemi con una tecnologia antivirus di nuova generazione per bloccare le minacce dannose avanzate. Inoltre, investite in misure di sicurezza della rete e delle applicazioni per rafforzare le vostre difese.
5: Formazione in contraddittorio
L'addestramento avversivo è una misura di sicurezza specifica per l'IA che aiuta l'IA a rispondere agli attacchi. Il metodo di apprendimento automatico migliora la resilienza dei modelli di IA esponendoli a scenari, dati e tecniche diversi.
6: Formazione del personale
I rischi dell'IA sono piuttosto ampi. Rivolgetevi a esperti di sicurezza informatica e IA per formare i vostri dipendenti sulla gestione dei rischi dell'IA. Ad esempio, dovrebbero imparare a controllare le e-mail che potrebbero essere attacchi di phishing progettati dall'intelligenza artificiale. Allo stesso modo, dovrebbero evitare di aprire software non richiesti che potrebbero essere malware creati dall'intelligenza artificiale.
7: Gestione delle vulnerabilità
Le organizzazioni possono investire nella gestione delle vulnerabilità dell'IA per ridurre il rischio di violazioni e fughe di dati. La gestione delle vulnerabilità è un processo end-to-end che prevede l'identificazione, l'analisi e il trattamento delle vulnerabilità e la riduzione della superficie di attacco legata alle caratteristiche uniche dei sistemi di intelligenza artificiale.
8: Risposta agli incidenti dell'IA
Nonostante le migliori misure di sicurezza, la vostra organizzazione potrebbe subire un attacco di cyber-sicurezza legato all'intelligenza artificiale, dato che i rischi di quest'ultima stanno crescendo. Per riprendersi da un evento del genere, è necessario disporre di un piano di risposta agli incidenti chiaramente delineato che comprenda il contenimento, l'indagine e la bonifica.
Il rovescio della medaglia: come l'IA può favorire la sicurezza informatica
Industrie di diverse dimensioni e settori utilizzano l'IA per migliorare la sicurezza informatica. Ad esempio, tutti i tipi di organizzazioni in tutto il mondo utilizzano l'IA per autenticare le identità, dalle banche ai governi. I settori finanziario e immobiliare utilizzano l'IA per individuare le anomalie e ridurre il rischio di frodi.
Ecco ulteriori informazioni su come l'IA possa essere utile per la sicurezza informatica:
1: Rilevamento delle minacce informatiche
Le minacce informatiche più sofisticate possono aggirare le tecnologie di sicurezza informatica standard utilizzando diverse tecniche di elusione, tra cui la modifica del codice e della struttura. Tuttavia, i software antivirus avanzati possono utilizzare l'intelligenza artificiale e l'intelligenza artificiale per trovare anomalie nella struttura complessiva, nella logica di programmazione e nei dati di una potenziale minaccia.
Gli strumenti di rilevamento delle minacce basati sull'intelligenza artificiale possono proteggere le organizzazioni cacciando queste minacce emergenti e migliorando le capacità di avviso e risposta. Inoltre, i software di sicurezza degli endpoint basati sull'intelligenza artificiale possono proteggere i computer portatili, gli smartphone e i server di un'organizzazione.
2: Modelli predittivi
I professionisti della sicurezza informatica possono passare da una posizione reattiva a una proattiva utilizzando l'IA generativa. Ad esempio, possono utilizzare l'IA generativa per creare modelli predittivi che identifichino nuove minacce e riducano i rischi.
Tali modelli predittivi porteranno a:
- Rilevamento più rapido delle minacce
- Risparmio di tempo
- Riduzione dei costi
- Miglioramento della risposta agli incidenti
- Proteggersi meglio dai rischi
3: Rilevamento del phishing
Le e-mail di phishing sono un vettore di minacce significativo. Con pochi rischi, gli attori delle minacce possono utilizzare le spedizioni di phishing per rubare informazioni sensibili e denaro. Inoltre, è sempre più difficile distinguere le e-mail di phishing da quelle reali.
L'intelligenza artificiale può favorire la sicurezza informatica migliorando la protezione dal phishing. I filtri e-mail che utilizzano l'intelligenza artificiale possono analizzare il testo per segnalare le e-mail con schemi sospetti e bloccare diversi tipi di spam.
4: Identificare i bot
I bot possono danneggiare o distruggere reti e siti web, con un impatto negativo sulla sicurezza, la produttività e le entrate di un'organizzazione. I bot possono anche impossessarsi di account con credenziali rubate e aiutare i criminali informatici a mettere in atto frodi e truffe.
I software che sfruttano modelli basati sull'apprendimento automatico possono analizzare il traffico di rete e i dati per identificare i modelli di bot e aiutare gli esperti di sicurezza informatica a eliminarli. I professionisti della rete possono anche utilizzare l'AI per sviluppare CAPTCHA più sicuri contro i bot.
5: Protezione delle reti
Gli aggressori possono esfiltrare i dati o infettare i sistemi con ransomware dopo aver violato una rete. L'individuazione precoce di queste minacce è fondamentale. Il rilevamento delle anomalie basato sull'intelligenza artificiale può analizzare il traffico di rete e i registri di sistema alla ricerca di accessi non autorizzati, codice insolito e altri schemi sospetti per prevenire le violazioni. Inoltre, l'intelligenza artificiale può aiutare a segmentare le reti analizzando i requisiti e le caratteristiche.
6: Risposta agli incidenti
L'intelligenza artificiale può potenziare la caccia alle minacce, la gestione delle minacce e la risposta agli incidenti. Può lavorare 24 ore su 24 per rispondere alle minacce e intraprendere azioni di emergenza, anche quando il team è offline. Inoltre, può ridurre i tempi di risposta agli incidenti per minimizzare i danni di un attacco.
7: Mitigare le minacce interne
Le minacce interne devono essere prese sul serio, perché possono costare a un'organizzazione ricavi, segreti commerciali, dati sensibili e altro ancora. Esistono due tipi di minacce insider: quelle dolose e quelle non intenzionali. L'intelligenza artificiale può contribuire a bloccare entrambi i tipi di minacce interne, identificando i comportamenti a rischio degli utenti e bloccando le informazioni sensibili che escono dalle reti dell'organizzazione.
8: Rafforzare il controllo degli accessi
Molti strumenti di controllo degli accessi utilizzano l'intelligenza artificiale per migliorare la sicurezza. Possono bloccare gli accessi da indirizzi IP sospetti, segnalare eventi sospetti e chiedere agli utenti con password deboli di cambiare le proprie credenziali di accesso e di passare all'autenticazione a più fattori.
L'intelligenza artificiale aiuta anche ad autenticare gli utenti. Ad esempio, può sfruttare la biometria, le informazioni contestuali e i dati sul comportamento degli utenti per verificare con precisione l'identità degli utenti autorizzati e ridurre il rischio di abusi.
9: Identificare i falsi positivi
La gestione dei falsi positivi può essere estenuante per i team IT. La mole di falsi positivi può comportare problemi di salute mentale. Inoltre, possono costringere i team a non vedere le minacce legittime. Il volume dei falsi positivi può però essere ridotto con strumenti di sicurezza informatica che utilizzano l'intelligenza artificiale per migliorare l'accuratezza del rilevamento delle minacce. Tali strumenti possono anche essere programmati per gestire automaticamente le minacce a bassa probabilità che consumano tempo e risorse di un team di sicurezza.
10: Efficienza e costi del personale IT
Molte piccole e medie imprese non possono permettersi di investire in un grande team interno di sicurezza informatica per gestire minacce sempre più sofisticate 24 ore al giorno. Tuttavia, possono investire in una tecnologia di sicurezza informatica alimentata dall'intelligenza artificiale che funziona 24 ore su 24, 7 giorni su 7, per offrire un monitoraggio continuo, migliorare l'efficienza e ridurre i costi. Questa tecnologia può anche scalare con la crescita di un'azienda in modo conveniente.
Inoltre, l'IA migliora l'efficienza del personale perché non si stanca. Offre la stessa qualità di servizio a tutte le ore del giorno, riducendo il rischio di errori umani. L'IA è anche in grado di gestire un numero di dati nettamente superiore a quello di un team di sicurezza umano.