accordion-iconalert-iconarrow-leftarrowarticleShowedbacktotopCreated with Sketch. bookmarkcall-iconcheckchecked-iconclockclose-grcloseconnexion-iconfb-col fb-footer-iconfb-iconfb feedMark__icon--radiofeedMark__icon--starPage 1Created with Avocode.filterAccordion-arrowgoo-col headerBtn__icon--connecthomeinfo-blueinfo insta-1 instalank2IconCreated with Avocode.lglasslink-2linklink_biglinkedin-footer-iconlinkedin-iconlinkedin Svg Vector Icons : http://www.onlinewebfonts.com/icon lock-bluelockmail-bluemail-iconmailnot_validoffpagenavi-next-iconpdf-download-iconplus print-iconreadLaterFlagrelatedshare-icontagsLink-icontop-pagetw-col tw-footer-icontw-icontwitter unk-col user-blueuseruserName__icon--usernamevalidyoutube-footer-iconyoutube Svg Vector Icons : http://www.onlinewebfonts.com/icon
Offert

Risques encourus et bonnes pratiques : la CEPEJ présente aux professionnels du droit une note dédiée à l'utilisation de l'IA générative

Le Groupe de travail de la Commission européenne pour l'efficacité de la justice (CEPEJ) sur la cyberjustice et l'intelligence artificielle (CEPEJ-GT-CYBERJUST) a publié une note pour donner une première réflexion sur ce que les juges et autres professionnels de la justice du secteur public peuvent attendre de l'utilisation d'outils d'IA générative dans un contexte judiciaire.

Après une rapide définition et une rapide description du fonctionnement des LLM, la note du groupe de travail se concentre sur les risques encourus par son utilisation. Il recense sept risques :

  • la production potentielle d'informations factuellement inexactes ("hallucinations") ;

  • la divulgation possible de données sensibles et risque de confidentialité ;

  • l'absence de références pour les informations fournies et violation potentielle de la propriété intellectuelle et des droits d'auteur ;

  • la capacité limitée à fournir la même réponse à une question identique ;

  • la reproduction potentielle des résultats ;

  • les stabilité et fiabilité variables des modèles d'IA générative pour les processus critiques et sensibles au facteur temps ;

  • l'exagération des biais cognitifs.

La groupe de travail propose également des conseils et autres bonnes pratiques pour maximiser l'utilisation de ces outils. Ces conseils découlent majoritairement des risques. Si certains relèvent du bon sens, d'autres sont plus intéressants comme le fait de privilégier des systèmes entraînés sur des données certifiées et officielles, dont la liste est connue, afin de limiter les risques de biais, d'hallucination et de violation des droits d'auteur. L'autre conseil important consiste à être le plus complet et précis dans les demandes. Pour pouvoir apporter une réponse intéressante, il faut diriger le plus possible l'IA. Cela permet d'éviter les écueils mentionnés plus haut.