Bienvenue!

La montée en puissance de « DarkGPT »et les menaces liées à l’Intelligence Artificielle

L’année des modèles linguistiques de grande envergure a été marquée par la prédominance de ChatGPT dans le domaine de l’IA. Cependant, cette avancée n’est pas sans risques, comme le souligne l’enquête menée par Ed Williams de Trustwave Spiderlabs, dévoilée le 4 septembre 2023.

Avec la progression continue de la technologie de l’IA et des modèles linguistiques de grande envergure (LLMs) à l’échelle mondiale, il était malheureusement prévisible que des acteurs malveillants et des cybercriminels exploiteraient cette technologie émergente à des fins criminelles. Ce moment est désormais arrivé.

Alors que le Printemps de l’IA a suscité l’enthousiasme quant aux futures façons de travailler grâce à l’IA générative et aux LLMs, nous assistons à des développements concrets transformant l’IA en une arme pour des stratagèmes sophistiqués et des attaques de rançongiciels, avec des conséquences potentiellement graves et durables sur la cybersécurité.

Ces dernières semaines, de nouveaux « abonnements sombres » pour des applications et des logiciels soutenus par l’IA ont surgi sur le darknet, comme « DarkGPT, » « Worm-GPT, » et plus récemment « Evil-GPT, » accessibles au grand public à parti de seulement 90 $ par mois.

L’acquisition par des individus malveillants d’un outil similaire à ChatGPT pourrait avoir des conséquences dévastatrices sur la cybersécurité, l’ingénierie sociale et la sécurité numérique en général. Ceci souligne l’importance de maintenir une vigilance constante pour protéger et impartialement faire progresser la technologie de l’IA, afin de reduire les risques potentiels liés à ces nouveaux outils comme Dark/Worm/Evil-GPT.

David Jeudy

De la même catégorie