Huit personnes sont mortes lors de la tragédie de Tumbler Ridge, le 10 février dernier. Or, si OpenAI - qui gère ChatGPT - a banni le compte du tireur en juin, ils n'ont pas jugé que les échanges atteignaient un seuil d'une menace imminente et donc, ils n'ont pas averti la GRC.
Écoutez l'analyste de politique fédérale Dimitri Soudas à ce sujet au micro de Philippe Cantin.
L'analyste estime que la question posée doit être celle-ci:
«Quand est-ce qu'un contenu violent devient une menace crédible?»
«Si on abaisse trop le seuil, la police sera submergée. Si on le maintient trop haut, on prend le risque, et on l'a vu, qu'un drame se produise. Donc, les risques pour Ottawa dans tout ça, c'est que si le gouvernement impose une obligation stricte de signalement, ils vont devoir définir clairement la responsabilité en cas d'erreur. Sinon, les entreprises signaleront tout, littéralement tout, par peur, pour se protéger».
Le gouvernement canadien, avec un nouveau ministre de l’Intelligence artificielle, hésite entre agir après coup et éviter de freiner l’innovation, alors que le projet de loi sur l’IA est au point mort et que l’Union européenne avance sur la régulation.
Ottawa doit équilibrer sécurité publique, innovation et alignement international, notamment avec l’OTAN et le G7.