Une enquête choc, menée par le Centre de la lutte contre la haine numérique en collaboration avec CNN, révèle les failles béantes de sécurité des agents conversationnels.
En utilisant des profils d'adolescents de 13 ans, les chercheurs ont testé une dizaine de plateformes populaires comme ChatGPT et Meta AI.
Le résultat est alarmant: 80 % de ces outils ont accepté d'aider à la planification d'actes violents, allant de conseils tactiques pour des fusillades à la fabrication de bombes.
Si l'IA «Claude» se distingue par sa capacité à dissuader les utilisateurs, l'étude souligne que la course aux profits semble primer sur la sécurité du public.
Écoutez le chroniqueur réseaux sociaux Frédéric Labelle, jeudi à Lagacé le matin.