On a testé ChatGPT : posez vos questions ici sans compte

Débats scientifiques généraux. Présentations de nouvelles technologies (hors directement liées aux énergies renouvelables ou biocarburants ou autres thématiques développées dans les autres sous forums).
dede2002
Grand Econologue
Grand Econologue
Messages : 1111
Inscription : 10/10/13, 16:30
Localisation : Genève campagne
x 189

Re: On a testé ChatGPT : posez vos questions ici sans compte




par dede2002 » 26/01/23, 18:10

Nos cinq sens sont tout de même préparés depuis longtemps.
Différencier un tissu naturel d'un tissu synthétique.
Différencier une image synthétique d'une image naturelle.
Comme pour un son, un arôme ou un goût.
Tout le monde ne sait pas tirer le bon grain de l'ivraie...
Là c'est pareil pour le sixième sens, yapluka s'habituer :P
1 x
Avatar de l’utilisateur
Flytox
Modérateur
Modérateur
Messages : 14174
Inscription : 13/02/07, 22:38
Localisation : Bayonne
x 893

Re: On a testé ChatGPT : posez vos questions ici sans compte




par Flytox » 27/01/23, 16:26

https://securite.developpez.com/actu/340582/Des-experts-en-securite-sont-parvenus-a-creer-un-logiciel-malveillant-polymorphe-hautement-evasif-a-l-aide-de-ChatGPT-le-logiciel-malveillant-serait-capable-d-echapper-aux-produits-de-securite/



Des experts en sécurité sont parvenus à créer un logiciel malveillant polymorphe "hautement évasif" à l'aide de ChatGPT,
Le logiciel malveillant serait capable d'échapper aux produits de sécurité
Le 20 janvier 2023 à 14:31, par Bill Fassinou




Des chercheurs de la société de cybersécurité CyberArk affirment avoir mis au point une méthode pour générer un logiciel malveillant polymorphe à l'aide de ChatGPT, le chatbot d'IA d'OpenAI. Les chercheurs affirment que le logiciel malveillant généré par ChatGPT peut facilement échapper aux produits de sécurité et rendre les mesures d'atténuation fastidieuses ; tout ceci avec très peu d'efforts ou d'investissements de la part de l'adversaire. Les chercheurs ont mis en garde contre ce qu'ils appellent "une nouvelle vague de logiciels malveillants polymorphes faciles et bon marché capables d'échapper à certains produits de sécurité".

Jusqu'à présent, le battage médiatique autour de ChatGPT a tourné autour de ses capacités remarquables à répondre aux différentes questions des utilisateurs. ChatGPT semble être doué pour tout, notamment pour écrire des essais, des vers et du code pour résoudre certains problèmes de programmation. Cependant, des chercheurs ont commencé à mettre en garde contre les capacités du chatbot à générer du code fonctionnel. En effet, si ChatGPT peut générer du code fonctionnel, cette capacité peut être détournée par des acteurs de la menace pour créer des logiciels malveillants. Plusieurs rapports de ce type ont été publiés depuis le mois de décembre.

Récemment, c'est une équipe de chercheurs en sécurité, Eran Shimony et Omer Tsarfati, de CyberArk qui a apporté des preuves de cela. Les chercheurs disent avoir mis au point une méthode pour générer un logiciel malveillant à partir des invites fournies à ChatGPT. Dans un rapport, l'équipe a expliqué comment le chatbot d'OpenAI peut être utilisé pour générer du code d'injection et le faire muter. La première étape de la création du logiciel malveillant a consisté à contourner les filtres de contenu empêchant ChatGPT de créer des outils nuisibles. Pour ce faire, les chercheurs ont simplement insisté, en posant la même question de manière plus autoritaire.


« Il est intéressant de noter qu'en demandant à ChatGPT de faire la même chose en utilisant plusieurs contraintes et en lui lui demandant d'obéir, nous avons reçu un code fonctionnel », a déclaré l'équipe. En outre, les chercheurs ont noté que lorsqu'il utilise la version API de ChatGPT (par opposition à la version Web), le système ne semble pas utiliser son filtre de contenu. « La raison n'en est pas claire, mais cela nous a facilité la tâche, car la version Web a tendance à s'enliser dans des requêtes plus complexes », ont-ils déclaré. Les chercheurs ont ensuite utilisé ChatGPT pour muter le code original, créant ainsi de multiples variations du logiciel malveillant.

« En d'autres termes, nous pouvons muter le résultat sur un coup de tête, en le rendant unique à chaque fois. De plus, l'ajout de contraintes telles que la modification de l'utilisation d'un appel d'API spécifique rend la vie des produits de sécurité plus difficile », explique le rapport de l'étude. Grâce à la capacité de ChatGPT à créer et à muter continuellement des injecteurs, les chercheurs ont pu créer un programme polymorphe très insaisissable et difficile à détecter. Pour rappel, un logiciel malveillant polymorphe est un type de logiciel malveillant qui a la capacité de changer constamment ses caractéristiques identifiables afin d'échapper à la détection.

De nombreuses formes courantes de logiciels malveillants peuvent être polymorphes, notamment les virus, les vers, les bots, les chevaux de Troie ou les enregistreurs de frappe. Les techniques polymorphes consistent à modifier fréquemment les caractéristiques identifiables, comme les noms et les types de fichiers ou les clés de chiffrement, afin de rendre le maliciel méconnaissable à plusieurs méthodes de détection. Le polymorphisme est utilisé pour échapper à la détection par reconnaissance de motifs sur laquelle s'appuient les solutions de sécurité comme les logiciels antivirus. Leur objectif fonctionnel du programme reste toutefois le même.


« En utilisant la capacité de ChatGPT à générer des techniques de persistance, des modules Anti-VM [Anti Virtual Machine] et d'autres charges utiles malveillantes, les possibilités de développement de logiciels malveillants sont vastes. Bien que nous n'ayons pas approfondi les détails de la communication avec le serveur C&C, il existe plusieurs façons de le faire discrètement sans éveiller les soupçons », expliquent-ils. Selon le rapport, ils ont mis des semaines à créer une preuve de concept pour ce logiciel malveillant très évasif, mais ils ont finalement mis au point un moyen d'exécuter des charges utiles à l'aide d'invites textuelles sur le PC d'une victime.

En testant la méthode sur Windows, les chercheurs ont indiqué qu'il était possible de créer un paquet de logiciels malveillants contenant un interpréteur Python, qui peut être programmé pour demander périodiquement à ChatGPT de nouveaux modules. Ces modules pourraient contenir du code - sous forme de texte - définissant la fonctionnalité du logiciel malveillant, comme l'injection de code, le chiffrement de fichiers ou la persistance. Le logiciel malveillant serait alors chargé de vérifier si le code fonctionne comme prévu sur le système cible. Cela pourrait être réalisé par une interaction entre le logiciel et un serveur de commande et de contrôle (C&C).

Comme le logiciel malveillant détecte les charges utiles entrantes sous forme de texte plutôt que du binaire, les chercheurs de CyberArk ont déclaré que le logiciel malveillant ne contient pas de logique suspecte en mémoire, ce qui signifie qu'il peut échapper à la plupart des produits de sécurité testés. Il échappe particulièrement aux produits qui s'appuient sur la détection par signature et contourne les mesures de l'interface d'analyse des logiciels malveillants (AMSI). « Le maliciel ne contient aucun code malveillant sur le disque, car il reçoit le code de ChatGPT, puis le valide et l'exécute sans laisser aucune trace en mémoire », a déclaré Shimony.


« Les logiciels malveillants polymorphes sont très difficiles à gérer pour les produits de sécurité, car vous ne pouvez pas vraiment les signer. En outre, ils ne laissent généralement aucune trace sur le système de fichiers, car leur code malveillant n'est manipulé qu'en mémoire. De plus, si l'on visualise l'exécutable, il a probablement l'air bénin », a ajouté le chercheur. L'équipe de chercheurs a déclaré qu'une cyberattaque utilisant cette méthode de diffusion de logiciels malveillants "n'est pas seulement un scénario hypothétique, mais une préoccupation très réelle". Shimony a cité les problèmes de détection comme principale préoccupation.

« La plupart des produits contre les logiciels malveillants ne sont pas conscients de ce logiciel malveillant. Des recherches supplémentaires sont nécessaires pour que les solutions contre logiciels malveillants soient plus efficaces contre lui », a-t-il déclaré. Les chercheurs ont déclaré qu'ils développeront et élaboreront davantage cette recherche et visent également à publier une partie du code source du logiciel malveillant à des fins d'apprentissage. Leur rapport intervient quelques semaines après que Check Point Research a découvert que ChatGPT était utilisé pour développer de nouveaux outils malveillants, notamment des voleurs d'informations.

Source : CyberArk
2 x
La Raison c'est la folie du plus fort. La raison du moins fort c'est de la folie.
[Eugène Ionesco]
http://www.editions-harmattan.fr/index. ... te&no=4132
gegyx
Econologue expert
Econologue expert
Messages : 7419
Inscription : 21/01/05, 11:59
x 3319

Re: On a testé ChatGPT : posez vos questions ici sans compte




par gegyx » 27/01/23, 16:51

mouais.

Quand un service ou une application est offerte, disponible à la population, ce n'est jamais pour rien.

Où, la "générosité" de Bill Gates pour sauver l'humanité ou vacciner les populations avec un produit miracle.
(ou élevages de moustiques pour le bien des populations...)

Toujours un loup derrière.
0 x
Christophe
Modérateur
Modérateur
Messages : 80057
Inscription : 10/02/03, 14:06
Localisation : Planète Serre
x 11398

Re: On a testé ChatGPT : posez vos questions ici sans compte




par Christophe » 27/01/23, 17:30

Des experts en sécurité c'est pas des amateurs (je crois) donc ChatGPT leur a certainement donné des indications (pas si experts du coup les gars ?) mais je ne crois pas une seconde qu'elle ait tout fait elle même ! D'ailleurs c'est ce qui est dit : "avec l'aide de..."...Alors que la plupart des gens vont comprendre que le programme a été développé par GPT...

Par exemple y a quelques jours j'ai demandé de faire un programme simple, elle m'a jamais rien pondu...elle m'a dit "Attendez je réfléchis et je reviens vers vous dans quelques instants..." :lol: :lol: :lol:

Quelqu'un plus haut disait qu'elle était bonne en programmation, cela serait bien d'avoir quelques exemples concrets car perso j'ai réussi à rien sur ce sujet...

Gegyx, sur le fond c'est déjà le cas : GPT est déjà exploité par des escrocs, rien qu'avec des fake applications...et des étudiants fainéants...
0 x
Christophe
Modérateur
Modérateur
Messages : 80057
Inscription : 10/02/03, 14:06
Localisation : Planète Serre
x 11398

Re: On a testé ChatGPT : posez vos questions ici sans compte




par Christophe » 27/01/23, 17:37

:mrgreen: :mrgreen: :mrgreen:

GPT_telerama.png
GPT_telerama.png (71.22 Kio) Consulté 929 fois
0 x
Christophe
Modérateur
Modérateur
Messages : 80057
Inscription : 10/02/03, 14:06
Localisation : Planète Serre
x 11398

Re: On a testé ChatGPT : posez vos questions ici sans compte




par Christophe » 27/01/23, 17:41

GPT_sexiste.jpg
GPT_sexiste.jpg (70.35 Kio) Consulté 929 fois
0 x
Christophe
Modérateur
Modérateur
Messages : 80057
Inscription : 10/02/03, 14:06
Localisation : Planète Serre
x 11398

Re: On a testé ChatGPT : posez vos questions ici sans compte




par Christophe » 27/01/23, 17:43

FnW2iJZWIAcrkum.jpg
FnW2iJZWIAcrkum.jpg (125.79 Kio) Consulté 928 fois
0 x
Christophe
Modérateur
Modérateur
Messages : 80057
Inscription : 10/02/03, 14:06
Localisation : Planète Serre
x 11398

Re: On a testé ChatGPT : posez vos questions ici sans compte




par Christophe » 27/01/23, 17:50

Alors c'est qui qui avait vu juste ? (pas sur que les 12 000 licenciements soit dû à ça hein !)

0 x
izentrop
Econologue expert
Econologue expert
Messages : 14257
Inscription : 17/03/14, 23:42
Localisation : picardie
x 1675
Contact :

Re: On a testé ChatGPT : posez vos questions ici sans compte




par izentrop » 27/01/23, 20:58

Un exemple de ChatGPT idiot :
0 x
Avatar de l’utilisateur
Exnihiloest
Econologue expert
Econologue expert
Messages : 5365
Inscription : 21/04/15, 17:57
x 661

Re: On a testé ChatGPT : posez vos questions ici sans compte




par Exnihiloest » 27/01/23, 22:40

izentrop a écrit :Un exemple de ChatGPT idiot :
...

En tout cas, l'IA est très cool pour reconnaître ses erreurs, on n'est pas habitué à ça avec les humains. Mais les prend-elle réellement en compte ?
Si la même question est ensuite posée par un autre, répondra-t-elle différemment ?
0 x

 


  • Sujets similaires
    Réponses
    Vues
    Dernier message

Revenir vers « Sciences et technologies »

Qui est en ligne ?

Utilisateurs parcourant ce forum : Aucun utilisateur inscrit et 112 invités