1. Identifier les systèmes d’IA
D’une part, les employeurs qui utilisent l’IA doivent identifier, d’ici le 2 février 2025, les systèmes d’IA qu’ils utilisent et à quelles fins. Dans ce cadre, ces employeurs doivent contrôler quel est leur rôle (utilisateur, fournisseur, importateur, distributeur) et à quelle catégorie de risque appartient le système d’IA.
Les systèmes d’IA peuvent être classés dans les catégories suivantes en fonction des risques qu’ils présentent :
-
Systèmes d’IA présentant des risques inacceptables
Ces systèmes sont contraires aux normes et valeurs de l’UE et conduisent à des violations flagrantes des droits fondamentaux. Parmi les exemples, citons la « notation sociale » (social scoring – évaluation ou classification des personnes pendant une période donnée sur la base de leur comportement social ou de leurs caractéristiques personnelles ou autres caractéristiques connues, déduites ou attendues) et les systèmes d’IA permettant de déduire les émotions d’une personne physique au travail et dans les établissements d’enseignement.
-
Systèmes d’IA à haut risque
Ces systèmes ont un impact négatif sur la sécurité ou les droits fondamentaux. Parmi les exemples, citons les systèmes d’IA pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d’emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats.
-
Systèmes d’IA à risque limité
Ces systèmes présentent des risques limités pour les droits des citoyens de l’UE. Les chatbots, par exemple, entrent dans cette catégorie.
-
Systèmes d’IA présentant un risque minimal
Ces systèmes ne présentent aucun risque pour les droits des citoyens de l’UE. Les filtres anti-spam, par exemple, entrent dans cette catégorie.
Depuis le 2 février 2025, les systèmes d’IA présentant des risques inacceptables sont interdits. À partir du 2 août 2026, certaines obligations concernant les systèmes d’IA à haut risque et à risque limité devront être respectées. À partir du 2 août 2026, les employeurs qui n’utilisent pas encore de système d’IA à haut risque devront en informer les représentants des travailleurs et les travailleurs concernés.
Pour les systèmes d’IA présentant un risque minimal, le règlement sur l’IA ne prévoit aucune obligation.
2. Connaissance de l’IA
Depuis le 2 février 2025, les employeurs qui utilisent l’IA doivent veiller à ce que leur personnel et les autres personnes qui exploitent et utilisent des systèmes d’IA pour le compte de l’employeur possèdent des connaissances suffisantes sur l’IA. Il ne s’agit donc pas seulement des informaticiens.
Le règlement sur l’IA ne précise pas les mesures exactes que l’employeur doit prendre. Cela dépend des connaissances techniques, de l’expérience, de la formation et de l’éducation des travailleurs concernés. Le contexte dans lequel les systèmes d’IA sont utilisés et les personnes à l’égard desquelles les systèmes d’IA sont utilisés jouent également un rôle dans les mesures à prendre.
3. Politique en matière d’IA
Les employeurs qui utilisent l’IA doivent élaborer une politique en matière d’IA contenant des directives relatives à l’utilisation de l’IA au sein de l’entreprise. Celle-ci vous permet de fournir aux travailleurs concernés les informations nécessaires et de déterminer quels travailleurs sont autorisés à utiliser quels systèmes d’IA et de quelle manière dans le cadre de leur travail au sein de l’entreprise. Il est également recommandé d’y inclure les mesures concernant les formations continues en IA.
Nous sommes en train de préparer une politique en matière d’IA, mais elle n’est pas encore finalisée. Dès qu’elle sera prête, nous vous la communiquerons.
Source : Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828, Journal officiel de l’Union européenne, 12 juillet 2024 ; https://artificialintelligenceact.eu/.
Si vous avez des questions ou si vous souhaitez plus d’informations à propos de cet article, contactez le service juridique de Sodalis.