ChatGPT permet aux script kiddies d’écrire des logiciels malveillants fonctionnels

[ad_1]

Depuis son lancement bêta en novembre, le chatbot IA ChatGPT a été utilisé pour un large éventail de tâches, notamment la rédaction de poèmes, d’articles techniques, de romans et d’essais, la planification de fêtes et l’apprentissage de nouveaux sujets. Nous pouvons maintenant ajouter à la liste le développement de logiciels malveillants et la poursuite d’autres types de cybercriminalité.

Des chercheurs de la société de sécurité Check Point Research ont rapporté vendredi que quelques semaines après la mise en ligne de ChatGPT, les participants à des forums sur la cybercriminalité – certains avec peu ou pas d’expérience en matière de codage – l’utilisaient pour écrire des logiciels et des e-mails pouvant être utilisés à des fins d’espionnage, de ransomware, de programmes malveillants. spam et autres tâches malveillantes.

« Il est encore trop tôt pour décider si les fonctionnalités de ChatGPT deviendront ou non le nouvel outil préféré des participants au Dark Web », ont écrit les chercheurs de la société. « Cependant, la communauté cybercriminelle a déjà montré un intérêt significatif et saute dans cette dernière tendance pour générer du code malveillant. »

Le mois dernier, un participant au forum a publié ce qu’il prétendait être le premier script qu’il avait écrit et a crédité le chatbot AI d’avoir fourni un « bon [helping] main pour terminer le script avec une belle portée.

Une capture d'écran montrant un participant du forum discutant du code généré avec ChatGPT.

Le code Python combinait diverses fonctions cryptographiques, notamment la signature de code, le chiffrement et le déchiffrement. Une partie du script a généré une clé en utilisant la cryptographie à courbe elliptique et la courbe ed25519 pour la signature des fichiers. Une autre partie utilisait un mot de passe codé en dur pour chiffrer les fichiers système à l’aide des algorithmes Blowfish et Twofish. Un troisième a utilisé des clés RSA et des signatures numériques, la signature de messages et la fonction de hachage blake2 pour comparer divers fichiers.

Le résultat était un script qui pouvait être utilisé pour (1) décrypter un seul fichier et ajouter un code d’authentification de message (MAC) à la fin du fichier et (2) crypter un chemin codé en dur et décrypter une liste de fichiers qu’il reçoit comme une dispute. Pas mal pour quelqu’un avec des compétences techniques limitées.

« Tout le code mentionné ci-dessus peut bien sûr être utilisé de manière bénigne », ont écrit les chercheurs. « Cependant, ce script peut facilement être modifié pour chiffrer complètement la machine de quelqu’un sans aucune interaction de l’utilisateur. Par exemple, il peut potentiellement transformer le code en rançongiciel si les problèmes de script et de syntaxe sont résolus.

Dans un autre cas, un participant au forum avec une formation plus technique a publié deux exemples de code, tous deux écrits à l’aide de ChatGPT. Le premier était un script Python pour le vol d’informations post-exploit. Il a recherché des types de fichiers spécifiques, tels que des fichiers PDF, les a copiés dans un répertoire temporaire, les a compressés et les a envoyés à un serveur contrôlé par l’attaquant.

Capture d'écran d'un participant au forum décrivant le voleur de fichiers Python et incluant le script produit par ChatGPT.

L’individu a posté un deuxième morceau de code écrit en Java. Il a subrepticement téléchargé le client SSH et telnet PuTTY et l’a exécuté à l’aide de Powershell. « Dans l’ensemble, cet individu semble être un acteur de menace axé sur la technologie, et le but de ses messages est de montrer aux cybercriminels moins techniquement capables d’utiliser ChatGPT à des fins malveillantes, avec des exemples réels qu’ils peuvent immédiatement utiliser. »

Une capture d'écran décrivant le programme Java, suivi du code lui-même.

Un autre exemple de logiciel criminel produit par ChatGPT a été conçu pour créer un bazar en ligne automatisé pour acheter ou échanger des informations d’identification pour des comptes compromis, des données de cartes de paiement, des logiciels malveillants et d’autres biens ou services illicites. Le code a utilisé une interface de programmation tierce pour récupérer les prix actuels des crypto-monnaies, y compris le monero, le bitcoin et l’étherium. Cela a aidé l’utilisateur à fixer les prix lors des transactions d’achat.

Capture d'écran d'un participant au forum décrivant le script du marché, puis incluant le code.

La publication de vendredi intervient deux mois après que les chercheurs de Check Point se sont essayés au développement de logiciels malveillants produits par l’IA avec un flux d’infection complet. Sans écrire une seule ligne de code, ils ont généré un e-mail de phishing raisonnablement convaincant :

Un e-mail de phishing généré par ChatGPT.

Les chercheurs ont utilisé ChatGPT pour développer une macro malveillante qui pourrait être cachée dans un fichier Excel joint à l’e-mail. Encore une fois, ils n’ont pas écrit une seule ligne de code. Au début, le script généré était assez primitif :

Capture d'écran de ChatGPT produisant une première itération d'un script VBA.

Cependant, lorsque les chercheurs ont demandé à ChatGPT d’itérer le code plusieurs fois, la qualité du code s’est considérablement améliorée :

Une capture d'écran de ChatGPT produisant une itération ultérieure.

Les chercheurs ont ensuite utilisé un service d’intelligence artificielle plus avancé appelé Codex pour développer d’autres types de logiciels malveillants, notamment un shell inversé et des scripts pour l’analyse des ports, la détection du bac à sable et la compilation de leur code Python dans un exécutable Windows.

« Et juste comme ça, le flux d’infection est complet », ont écrit les chercheurs. «Nous avons créé un e-mail de phishing, avec un document Excel joint contenant un code VBA malveillant qui télécharge un reverse shell sur la machine cible. Le travail acharné a été fait par les IA, et tout ce qu’il nous reste à faire est d’exécuter l’attaque.

Alors que les termes de ChatGPT interdisent son utilisation à des fins illégales ou malveillantes, les chercheurs n’ont eu aucun mal à peaufiner leurs demandes pour contourner ces restrictions. Et, bien sûr, ChatGPT peut également être utilisé par les défenseurs pour écrire du code qui recherche des URL malveillantes dans des fichiers ou interroger VirusTotal sur le nombre de détections pour un hachage cryptographique spécifique.

Alors bienvenue dans le nouveau monde courageux de l’IA. Il est trop tôt pour savoir précisément comment cela façonnera l’avenir du piratage offensif et de la remédiation défensive, mais il y a fort à parier que cela ne fera qu’intensifier la course aux armements entre les défenseurs et les acteurs de la menace.

[ad_2]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*