accordion-iconalert-iconarrow-leftarrowarticleShowedbacktotopCreated with Sketch. bookmarkcall-iconcheckchecked-iconclockclose-grcloseconnexion-iconfb-col fb-footer-iconfb-iconfb feedMark__icon--radiofeedMark__icon--starPage 1Created with Avocode.filterAccordion-arrowgoo-col headerBtn__icon--connecthomeinfo-blueinfo insta-1 instalank2IconCreated with Avocode.lglasslink-2linklink_biglinkedin-footer-iconlinkedin-iconlinkedin Svg Vector Icons : http://www.onlinewebfonts.com/icon lock-bluelockmail-bluemail-iconmailnot_validoffpagenavi-next-iconpdf-download-iconplus print-iconreadLaterFlagrelatedshare-icontagsLink-icontop-pagetw-col tw-footer-icontw-icontwitter unk-col user-blueuseruserName__icon--usernamevalidyoutube-footer-iconyoutube Svg Vector Icons : http://www.onlinewebfonts.com/icon

Un guide pratique pour prévenir et atténuer les biais dans les systèmes d'IA utilisés par les forces de l’ordre

Un rapport du laboratoire d'innovation d'Europol publié le 27 juin 2025 aborde la question cruciale des biais de l'intelligence artificielle (IA) dans les services répressifs et se concentre sur ses implications pour l'efficacité opérationnelle, la confiance du public et l'équité. Il met en évidence les dangers de ces biais et propose des stratégies pour les détecter et les atténuer. La législation européenne sur l'IA mettant l'accent sur la nécessité d'une utilisation sûre, transparente et impartiale de l'IA, ce rapport propose des recommandations ciblées pour une adoption responsable de l'IA par les forces de l'ordre....

Déjà abonné ? Identifiez vous

La suite de cet article est réservée aux abonnés

  • Les veilles des 13 fils matières en illimité
  • Veille quotidienne exhaustive
  • Alertes en temps réel
  • Newsletter à la fréquence de votre choix
  • Personnalisation de l'interface

Demander un essai gratuit