Le 30 novembre prochain, cela fera un an que ChatGPT est entrée dans nos vies, pour le meilleur et pour le pire. Plusieurs questions sont toutefois soulevées sur le plan éthique, alors que beaucoup d'entreprises, entre autres, se tournent vers l'intelligence artificielle pour développer leurs services.
Écoutez Benoit Yelle, associé et agent de brevets pour le cabinet d’avocats Lavery et membre du groupe de propriété intellectuelle, au micro de l’animateur Louis Lacroix sur le sujet.
Selon ce dernier, les entreprises sont encore au stade d’exploration.
«C’est d'améliorer l'efficacité, mais c'est aussi d'avoir une espèce de sound board, d'aller chercher un autre avis sur quelque chose qu'on voudrait formuler d'une certaine façon, ou un sujet dont on voudrait traiter. C'est vraiment un outil linguistique à la base.»
Il ajoute qu’il faut toujours contre-vérifier aux éléments factuels de ChatGPT.
«Dans notre travail, dans un cabinet d'avocats par exemple, on prépare des opinions juridiques», dit l'avocat.
«En aucun cas, il est question d'utiliser un outil comme ChatGPT pour faire des opinions juridiques. Ça ne nous amènerait nulle part parce qu'il faudrait refaire le travail. Par contre, si j'ai besoin de formuler un courriel à un collègue, ça, c'est très bien. Moi, je le dis souvent aux entreprises, l'endroit où vous intégrez la technologie d'IA générative dans votre processus est critique. Si vous le faites là où c'est le cœur de votre entreprise, le risque est très, très grand parce qu'il faut que vous vérifiiez absolument tout ce qui se passe, parce que l'outil peut effectivement complètement halluciner des réponses.»