Dernières actus

Hausse de l'absentéisme : 5 conseils pour limiter son cout pour l'entreprise. L’absentéisme au travail… voir

Média Day Michelin 2024 : Michelin annonce des innovations majeures en faveur de la cohésion sociale et sociétale… voir

50% des Français sont persuadés que les nouvelles technologies vont détruire des emplois. Sur quoi peuvent-ils… voir

Depuis qu'OpenAI a lancé ChatGPT fin novembre, tout le monde s'inquiète de l'impact qu'aura la création de contenu par l'IA, notamment dans le domaine de la cybersécurité. De nombreux chercheurs craignent que les solutions d'IA générative ne démocratisent la cybercriminalité.


Avec ChatGPT, n'importe quel utilisateur peut entrer une requête et générer du code malveillant et des e-mails de phishing convaincants sans aucune expertise technique ni connaissance du codage.


Si les équipes de sécurité peuvent également exploiter ChatGPT à des fins défensives, par exemple pour tester du code, en abaissant la barrière d'entrée des cyberattaques, la solution a considérablement compliqué le paysage des menaces.

Benoit Grunemwald - Expert en Cybersécurité chez ESET France réagit :

« L'intelligence artificielle permet aux cybercriminels de créer, de multiplier et d'améliorer leurs attaques. Le recours à l'AI par les acteurs malveillants n'est pas nouveau. Cependant les progrès et la simplicité de mise en œuvre, notamment offert par chatGPT, peuvent permettre d'augmenter à nouveau l'efficacité et la quantité de contenus malveillants produit. Courriels d'hameçonnage ou articles servant la désinformation ne sont que la partie émergée de l'iceberg des possibilités offertes par l'IA. Ne laissant pas le champ libre aux attaquants, l'industrie de la cyber sécurité s'appuie de sur très nombreuses années sur l'IA pour protéger les internautes et les organisations. A ce titre, couplée au Cloud, l'IA permet de réduire l'avance que peuvent avoir les criminels sur nos défenses.»


Lire les commentaires de Matt Psencik, Director, Endpoint Security Specialist chez Tanium, à propos de l'arrivée de ChatGPT et de ses implications sur la cyber sécurité :

" ChatGPT est l'un des premiers chatbots qui m'a impressionné par sa capacité à répondre à des questions incroyablement complexes et à fournir une réponse compréhensible. Est-il exempt de bugs et parfait ? Non, mais il n'a jamais prétendu l'être puisqu'il est encore en version bêta. Même lorsqu'il sera mis en production, il est probable que tout ne soit pas parfait, car tous les modèles d'apprentissage ont des défauts qui se répercutent sur les réponses individuelles. L'avantage que je vois ici est la capacité à obtenir rapidement une idée générale de ce qui se passe et de pouvoir ensuite rechercher un sujet connexe pour vérifier cette réponse en partant de rien. Un bon exemple du côté de la cybersécurité est la possibilité de prendre un extrait de code (qu'il s'agisse de code hexadécimal brut, de code assembleur ou d'un langage de haut niveau comme Python ou C++) et de demander au robot « Que fait ce code ? ».

Je pourrais passer des heures à examiner chaque section de ce code, à chercher ce que fait chaque mot-clé ou chaque balise, puis finir par comprendre ce qu'il fait, ou bien je peux demander à ChatGPT de me donner un résumé de qualité, puis d'examiner les sections détaillées de l'explication pour apprendre rapidement ce que tout cela fait. Ce n'est pas une boule de cristal qui nous donne toutes les réponses, mais c'est un peu comme un groupe de tuteurs et d'experts qui répondent à ce qu'ils savent sur un sujet d'une manière compréhensible, ce qui permet d'envisager un transfert rapide des connaissances. ChatGPT doit être utilisé comme un outil complémentaire, mais sa qualité dépend des questions qui lui sont posées, des modèles sur lesquels il a été formé et, surtout, des capacités de compréhension du cerveau qui a posé la question en premier lieu."

Sticky Menu
COLOR SKINS
COLOR SCHEMES