
Els grups de hackers estan utilitzant models d’IA com ChatGPT per a diversos propòsits maliciosos:
- Investigar objectius i vulnerabilitats.
- Millorar scripts i tècniques d’atac.
- Desenvolupar estratègies d’estafa i enginyeria social.
- Traduir contingut per a operacions en diversos idiomes.
Grups de hackers de Rússia, Corea del Nord, Iran i Xina han estat identificats utilitzant IA per a ciberatacs.
- Strontium (Rússia): Investigació de tecnologies militars i scripting.
- Thallium (Corea del Nord): Investigació de vulnerabilitats i redacció de contingut per a phishing.
- Curium (Iran): Generació de codi per a evitar la detecció antimalware.
- Charcoal Typhoon (Xina): Investigació de plataformes i vulnerabilitats, traducció per a enginyeria social.
Microsoft i OpenAI, creadors de ChatGPT, treballen per a contrarestar l’ús maliciós de la IA:
- Han tancat comptes i actius vinculats a grups de pirates informàtics.
- Adverteixen sobre el risc de frau impulsat per IA, com la suplantación de veu.
- Desenvolupen un ‘Security Copilot’ per a ajudar els professionals de ciberseguretat a identificar i combatre atacs basats en IA.
Conclusions:
La IA és una eina poderosa que pot ser usada tant per al bé com per al mal.
La ciberseguretat ha d’evolucionar per a afrontar els nous reptes que presenta la IA.
La col·laboració entre empreses, governs i experts en ciberseguretat és crucial per a protegir-nos contra les amenaces emergents.
FONT: Genbeta