Le développement de l’Intelligence Artificielle (ou intelligence artificielle ou AI en anglais) évolue maintenant si vite que nous devons nous demander si nous, les mortels, sommes encore nécessaires. Après tout, les algorithmes peuvent faire bien des choses mieux que nous. Une entreprise qui récompense les gens pour avoir trouvé des bogues logiciels n’est pas d’accord.
L’intelligence artificielle attire voir
Immunefi est une soi-disant « plate-forme de bug bounty ». Si vous êtes bon en programmation, vous pouvez gagner de l’argent grâce à cette plate-forme en corrigeant les vulnérabilités de sécurité et d’autres problèmes dans les logiciels Web 3.0. L’année écoulée a montré l’importance de ce type de travail, car de nombreuses applications Web 3 sont perdu beaucoup d’argent à cause de hacks.
Mais l’intelligence artificielle a soudainement déclenché une révolution. Le nouveau chatbot ChatGPT d’OpenAI appelle des choses si intelligentes que les gens utilisent le programme en masse pour tricher. Par exemple, les étudiants soumettent des essais rédigés par ChatGPT en quelques secondes. Il a également quelque chose à dire sur le bitcoin (BTC) et l’ethereum (ETH).
Le logiciel sait surprendre avec des réponses originales et philosophiques à de grandes questions, ce qui rend tentant de prétendre que vous avez vous-même formulé de telles affirmations.
Faux rapports de bogues cryptographiques grâce à l’IA
Immunefi est également touché, écrit-il sur Twitter. Il a déjà banni 15 personnes de la plateforme pour avoir utilisé le chatbot. Les rapports de bogues semblent bons à première vue, mais si vous examinez plus en détail quels sont exactement les problèmes, vous constaterez que c’est un non-sens. Les bogues logiciels décrits dans ces entrées n’existent tout simplement pas.
Un participant de la plateforme s’est entretenu avec CoinDesk. « [Bugs opsporen] est vraiment un art », a-t-il déclaré. « Lorsque vous utilisez ChatGPT, vous remarquez que quelque chose ne va pas. Aucun développeur n’écrirait une bonne histoire sans aucune référence à la plateforme de contrat intelligent en question.
La société a demandé à ChatGPT pourquoi il n’était pas judicieux de l’utiliser pour la chasse aux bogues. Le bot lui-même confirme qu’il n’est pas conçu pour ce type de tâche et ne peut donc pas détecter les bugs.
Voici ChatGPT sur les raisons pour lesquelles vous ne devriez pas utiliser ChatGPT pour générer et soumettre des rapports de bogue.
Rappel supplémentaire que la soumission de rapports de bogues ChatGPT sur Immunefi vous fera bannir car la sortie n’est jamais exacte ou pertinente. pic.twitter.com/nOvVOmQVmG
– Immunefi (@immunefi) 4 janvier 2023
Laisser un commentaire