Numero 4 Lexmag - Magazine - Page 54
chatbot qui analyse non seulement l’information issue des sources juridiques,
mais encore celle présente en source ouverte sur des blogs juridiques sélectionnés. L’outil s’avère capable de fournir des informations juridiques générales, mais également de traiter des cas particuliers. Par exemple, questionné
sur les options qui s’o昀昀rent au procureur de la République pour apporter
une réponse pénale à une infraction, l’IA énonce les di昀昀érentes formes de
réponse pénale (poursuites, réponses alternatives, etc.). Interrogée sur le cas
particulier d’un voleur récidiviste, l’IA estime que le procureur choisirait de
poursuivre la personne mise en cause. Elle est également capable d’indiquer
que cette option est déterminée par l’état de récidive du suspect. L’IA précise
ainsi qu’« une répétition de comportements délictueux peut indiquer que les
mesures alternatives aux poursuites ou les compositions pénales précédentes
n’ont pas eu l’e昀昀et dissuasif souhaité, ce qui pourrait inciter le procureur de
la République à poursuivre ». Si la question posée demeure simple, le niveau
d’analyse et de raisonnement juridique de l’IA est incontestable. L’IA connaît
les règles applicables, elle est capable de les appliquer à un cas concret et elle
motive sa décision par un raisonnement convaincant. En d’autres termes, l’IA
reproduit ou simule les principales caractéristiques de l’intelligence humaine
dans le domaine juridique. Toutefois, en matière d’IA générative, il convient de
garder une certaine distance et de ne pas se laisse emporter par la qualité de
certaines analyses ou de certains raisonnements. L’IA générative commet, de
façon fréquente, de grossières erreurs.
Les erreurs de l’IA Générative
En mai 2023, un avocat new-yorkais a soumis un dossier contenant des références à des a昀昀aires judiciaires fictives générées par ChatGPT, sans se rendre
compte que ces références étaient inventées [11]. Ces fausses décisions ont été
citées dans une a昀昀aire concernant une plainte pour blessure corporelle devant
le tribunal fédéral de New-York. Lors de l’audience, l’avocat a admis qu’il avait
utilisé ChatGPT pour faire ses recherches juridiques et qu’il n’avait pas vérifié les
sources fournies par l’IA. Il a été sanctionné par le juge pour manquement à ses
devoirs professionnels. Un juge colombien [12] et un juge brésilien [13] ont utilisé
cette même IA générative pour rédiger une partie de leurs décisions. Pour le juge
brésilien, les erreurs commises par l’IA l’ont conduit devant le Conseil national
de justice. Ces a昀昀aires ont mis en lumière les dangers de l’utilisation de l’IA dans
le domaine du droit sans supervision humaine rigoureuse. Les chatbots, généralistes comme juridiques, présentent en e昀昀et des limites qui peuvent a昀昀ecter leur
fiabilité dans les conseils et services qu’ils fournissent.
Les principales lacunes identifiées concernent d’une part, le manque de précision des réponses apportées. Les réponses s’avèrent parfois trop générales et
ne permettent pas de résoudre précisément le problème juridique posé. À titre
d’exemple, nous avons interrogé un chatbot juridique français sur un problème
54
[11] P. Sugy, À cause de ChatGPT,
un avocat américain cite des
arrêts... qui n’ont jamais existé,
29 mai 2023, Le Figaro [en ligne].
[12] E. Duval, ChatGPT : un juge
colombien tranche une affaire
à l’aide du logiciel d’intelligence
arti昀椀cielle, 3 février 2023,
Libération [en ligne].
[13] Erreur de code. Un juge
brésilien s’aide de l’IA et rend
une sentence pleine de fautes,
Liberation, 14 novembre 2023
[en ligne].