accordion-iconalert-iconarrow-leftarrowarticleShowedbacktotopCreated with Sketch. bookmarkcall-iconcheckchecked-iconclockclose-grcloseconnexion-iconfb-col fb-footer-iconfb-iconfb feedMark__icon--radiofeedMark__icon--starPage 1Created with Avocode.filterAccordion-arrowgoo-col headerBtn__icon--connecthomeinfo-blueinfo insta-1 instalank2IconCreated with Avocode.lglasslink-2linklink_biglinkedin-footer-iconlinkedin-iconlinkedin Svg Vector Icons : http://www.onlinewebfonts.com/icon lock-bluelockmail-bluemail-iconmailnot_validoffpagenavi-next-iconpdf-download-iconplus print-iconreadLaterFlagrelatedshare-icontagsLink-icontop-pagetw-col tw-footer-icontw-icontwitter unk-col user-blueuseruserName__icon--usernamevalidyoutube-footer-iconyoutube Svg Vector Icons : http://www.onlinewebfonts.com/icon
Offert

Le Conseil de l'Europe adopte le premier traité international sur l'IA

Législation

À l'occasion de la 133e session du Comité des ministres, le Conseil de l'Europe a adopté la Convention-cadre du Conseil de l’Europe sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit présentée par le Comité sur l’intelligence artificielle (CAI). Une première mondiale dans ce domaine. La convention-cadre sera ouverte à la signature à Vilnius (Lituanie) le 5 septembre à l'occasion d'une conférence des ministres de la justice.

Le traité, également ouvert à la signature de pays non européens, établit un cadre juridique qui s'applique tout au long du cycle de vie des systèmes d'IA, traite des risques que peuvent représenter ces systèmes et promeut une innovation responsable. Il adopte une approche fondée sur les risques concernant la conception, le développement, l'utilisation et la mise hors service des systèmes d'IA, imposant un examen attentif de toutes les potentielles conséquences négatives liées à l'utilisation de systèmes d'IA.

La convention est le fruit de deux années de travail du CAI, qui a rassemblé, aux fins de la rédaction du traité, les 46 États membres du Conseil de l'Europe, l'Union européenne et 11 États non-membres (Argentine, Australie, Canada, Costa Rica, États-Unis d'Amérique, Israël, Japon, Mexique, Pérou, Saint-Siège et Uruguay), ainsi que des représentants issus du secteur privé, de la société civile et du monde universitaire, intervenant en qualité d'observateurs.

Champ d'application. - Le traité s'applique à l'utilisation des systèmes d'IA par les pouvoirs publics – y compris les entreprises qui agissent pour leur compte – et par les acteurs privés. La convention prévoit deux façons permettant aux parties de se conformer à ses principes et à ses obligations dans le cadre de la réglementation du secteur privé : les parties peuvent choisir d'être directement soumises aux dispositions applicables de la convention ou, à défaut, prendre d'autres mesures pour se conformer aux dispositions du traité, sans déroger à leurs obligations internationales en matière de protection des droits de l'homme, de la démocratie et de l'État de droit. Cette approche s'impose en raison des disparités existant entre les systèmes juridiques des différents pays.

Obligations à la charge des États signataires. - La convention énonce des exigences de transparence et de contrôle adaptées à des contextes et à des risques spécifiques, notamment l'identification des contenus générés par les systèmes d'IA.

Les parties devront adopter des mesures pour :

  • identifier, évaluer, prévenir et atténuer les risques éventuels et évaluer la nécessité d'un moratoire, d'une interdiction ou d'autres mesures appropriées concernant l'utilisation de systèmes d'IA lorsque cette utilisation est susceptible de présenter des risques incompatibles avec les normes relatives aux droits de l'homme ;

  • déterminer les responsabilités et établir l'obligation de rendre des comptes en cas d'impacts négatifs, veiller à ce que les systèmes d'IA respectent l'égalité, y compris l'égalité de genre, garantir l'interdiction de la discrimination et la protection de la vie privée ;

  • veiller à ce que les victimes de violations des droits de l'homme dans le cadre de l'utilisation de systèmes d'IA disposent de voies de recours et bénéficient de garanties procédurales. Les personnes qui interagissent avec un système d'IA devraient notamment être informées qu'elles interagissent avec un tel système ;

  • veiller à ce que les systèmes d'IA ne soient pas utilisés pour porter atteinte aux institutions et aux processus démocratiques, notamment aux principes de séparation des pouvoirs, d'indépendance de la justice et d'accès à la justice.

Les parties à la convention ne seront pas tenues d'appliquer les dispositions du traité aux activités liées à la protection des intérêts de sécurité nationale, mais elles devront veiller à ce que ces activités soient menées dans le respect des institutions et processus démocratiques et du droit international. La convention ne s'appliquera pas aux questions de défense nationale ni aux activités de recherche et de développement, sauf si la mise à l'essai de systèmes d'IA est susceptible d'interférer avec les droits de l'homme, la démocratie et l'État de droit.

Afin d'assurer sa mise en œuvre effective, la convention établit un mécanisme de suivi sous la forme d'une conférence des parties.

Enfin, la convention exige que les parties mettent en place un mécanisme de contrôle indépendant pour contrôler le respect de la convention et qu'elles sensibilisent le public, animent et éclairent le débat public et mènent des consultations multipartites sur la manière d'utiliser la technologie de l'IA.