Tecnologia

Allerta! OpenAI ammette: ChatGPT sfruttato per creare malware!

2024-10-14

Autore: Giulia

In un annuncio scioccante, OpenAI ha rivelato di aver individuato e fermato diversi gruppi di hacker che utilizzavano il popolare chatbot ChatGPT per creare malware, lanciare campagne di disinformazione, aggirare i sistemi di sicurezza informatica e condurre attacchi di spear-phishing.

Questo è il primo riconoscimento ufficiale da parte di OpenAI che la sua intelligenza artificiale possa essere abusata per facilitare attività criminali. Anche se esperti del settore avevano lanciato segnali d’allerta già dal gennaio 2022, recentemente è emerso che le misure di sicurezza di ChatGPT sono state aggirate per fornire istruzioni dettagliate su come costruire esplosivi.

Ad aprile, un rapporto di Proofpoint aveva segnalato un uso emergente delle tecnologie AI nella creazione di malware. Il gruppo di hacker TA547 aveva utilizzato strumenti di intelligenza artificiale per generare script per un attacco mirato verso utenti in Francia.

Nel suo ultimo report, OpenAI ha rivelato che ChatGPT è stato impiegato da tre gruppi di hacker, principalmente legati a Cina e Iran. Il gruppo cinese noto come "SweetSpecter" ha inviato email di spear-phishing mirate a membri del personale di OpenAI, nascondendo file malevoli all’interno di richieste di supporto apparentemente legittime. Questi allegati portavano ad installare il malware SugarGh0st, ponendo a rischio i dati sensibili.

In un caso ancora più preoccupante, il gruppo iraniano "CyberAv3ngers", associato ai Guardiani della Rivoluzione Islamica, ha sfruttato ChatGPT per ottenere credenziali di accesso predefinite per PLC, sviluppando script personalizzati e offuscando il codice di attacco. Un altro gruppo, "Storm-0817", ha utilizzato ChatGPT per creare software di scraping per Instagram e per tradurre contenuti da LinkedIn. Inoltre, hanno sviluppato malware per Android in grado di rubare dati personali come contatti, cronologia delle chiamate e posizione dell'utente.

OpenAI ha annunciato che tutti i profili associati a queste attività illecite sono stati banditi permanentemente, e i dati raccolti sono stati condivisi con autorità e ricercatori specializzati nella sicurezza informatica. Secondo Bleeping Computer, anche se non sono emerse nuove tipologie di attacchi, la possibilità di abilitare attività criminali con minori competenze rappresenta un motivo di seria preoccupazione.

Questa diffusione di tecnologie AI potrebbe abbassare ulteriormente la barriera all'ingresso per i cybercriminali, consentendo anche a chi ha meno esperienza di avvicinarsi a tecniche d'attacco sempre più sofisticate. Dobbiamo essere vigili, poiché l'integrazione di strumenti come ChatGPT potrebbe portare a un aumento esponenziale delle minacce nel cyberspazio.