[ad_1]
Les chercheurs Zhi Wang, Chaoge Liu et Xiang Cui ont publié lundi dernier un article démontrant une nouvelle technique pour faire passer les logiciels malveillants au-delà des outils de détection automatisés, dans ce cas, en les cachant à l’intérieur d’un réseau de neurones.
Les trois ont intégré 36,9 Mo de logiciels malveillants dans un modèle AlexNet de 178 Mo sans altérer de manière significative la fonction du modèle lui-même. Le modèle intégré aux logiciels malveillants a classé les images avec une précision presque identique, à moins de 1 % du modèle sans logiciels malveillants. (Cela est possible parce que le nombre de couches et le nombre total de neurones dans un réseau de neurones convolutifs sont fixés avant l’entraînement, ce qui signifie que, tout comme dans le cerveau humain, de nombreux neurones d’un modèle entraîné finissent par être en grande partie ou entièrement dormants. )
Tout aussi important, le fait d’enfermer le malware dans le modèle l’a brisé d’une manière qui a empêché la détection par les moteurs antivirus standard. VirusTotal, un service qui « inspecte les éléments avec plus de 70 scanners antivirus et services de liste de blocage d’URL/domaines, en plus d’une myriade d’outils pour extraire des signaux du contenu étudié », n’a suscité aucun soupçon sur le modèle intégré aux logiciels malveillants.
La technique des chercheurs choisit la meilleure couche avec laquelle travailler dans un modèle déjà formé, puis intègre le malware dans cette couche. Dans un modèle formé existant, par exemple, un classificateur d’images largement disponible, il peut y avoir un impact indésirablement important sur la précision en raison du manque de neurones dormants ou principalement dormants.
Si la précision d’un modèle intégré à un malware est insuffisante, l’attaquant peut choisir de commencer par un modèle non entraîné, d’ajouter de nombreux neurones supplémentaires, puis d’entraîner le modèle sur le même ensemble de données que le modèle d’origine utilisé. Cela devrait produire un modèle avec une taille plus grande mais une précision équivalente, et l’approche offre plus d’espace pour cacher des trucs désagréables à l’intérieur.
La bonne nouvelle est que nous ne parlons en fait que de stéganographie : la nouvelle technique est un moyen de cacher les logiciels malveillants, pas de les exécuter. Afin d’exécuter réellement le malware, il doit être extrait du modèle empoisonné par un autre programme malveillant, puis réassemblé dans sa forme de travail. La mauvaise nouvelle est que les modèles de réseaux neuronaux sont considérablement plus grands que les images photographiques typiques, offrant aux attaquants la possibilité de cacher beaucoup plus de données illicites à l’intérieur sans détection.
Le chercheur en cybersécurité, le Dr Lukasz Olejnik, a déclaré à Motherboard qu’il ne pensait pas que la nouvelle technique offrait grand-chose à un attaquant. « Aujourd’hui, il ne serait pas simple de le détecter par un logiciel antivirus, mais c’est uniquement parce que personne ne regarde. » Mais la technique représente un autre moyen de faire passer potentiellement des données en contrebande au-delà des sentinelles numériques et dans un réseau intérieur potentiellement moins protégé.
[ad_2]