L'intelligence artificielle progresse à grands pas et ChatGPT est sans doute actuellement l'une des plus utilisées à travers le monde. L'IA conversationnelle souffre toutefois d'une faille de sécurité qui a été démontrée par des chercheurs de l'université de l'Indiana.

Ces derniers ont ainsi utilisé des "réglages fins" pour réussir à récupérer des adresses mail personnelles et professionnelles d'une trentaine de journalistes du New-York Times.

ChatGPT fouine parfois un peu trop loin

C'est depuis ChatGPT 3.5 Turbo et en outrepassant les restrictions du modèle en répondant à des requêtes liées aux informations personnelles des gens qu'il a été possible d'accéder à ces adresses. L'IA a ainsi pu piocher dans une base de données en ligne colossale pour extraire les adresses demandées.

Intelligence artificielle 01

Généralement, ces données ne sont pas accessibles au grand public, mais dans les faits, des failles de sécurité peuvent les dévoiler et OpenAI a justement programmé son IA pour éviter qu'elle n'aille piocher dans tous les recoins du Web pour atteindre ces données sensibles.

Mais via un bug, il est possible de contourner ces restrictions pour forcer ChatGPT 3.5 Turbo à aller récupérer ces données. Les journalistes dont les données ont été récupérées par les chercheurs ont été contactés et alertés.

Il devient urgent que ces IA se voient imposer des verrous plus fiables et restrictifs pour protéger les utilisateurs.