L’intelligence artificielle transforme notre monde, apportant des innovations et des défis. L’Union européenne a répondu par un cadre réglementaire, le premier de son genre, visant à encadrer cette technologie.
La CFDT exprime sa préoccupation quant à la tendance de la France à opposer innovation et régulation dans le cadre du trilogue européen sur le règlement de l’IA. La CFDT souligne que, bien que le règlement ne prévoie pas de nouveaux droits, il est crucial pour garantir que l’utilisation de l’IA ne compromette pas les droits fondamentaux des citoyens européens. Pour la CFDT, l’innovation technologique doit impérativement s’accompagner d’une régulation efficace. Ce n’est que par cette régulation, respectueuse de la Charte européenne des droits sociaux, que l’Europe peut se distinguer et sécuriser son autonomie stratégique, se différenciant des modèles des États-Unis et de la Chine. La CFDT appelle le gouvernement français à soutenir une réglementation européenne ambitieuse, conjuguant innovation technologique et respect des droits et libertés des citoyens et des travailleurs. Elle souligne l’urgence de faire des transformations numériques un sujet central du dialogue social et de la négociation collective. Voir le communiqué de presse de la CFDT
Le règlement européen sur l’IA représente une avancée majeure pour un équilibre entre innovation technologique et protection des droits des citoyens. La position de la CFDT met en lumière l’importance d’une régulation qui accompagne l’innovation, soulignant l’urgence d’intégrer les transformations numériques dans le dialogue social et la négociation collective.
Textes et références
Cadre Réglementaire Global : La Commission européenne a proposé, en avril 2021, un cadre réglementaire pour l’IA, classant les systèmes d’IA selon leur niveau de risque et établissant une réglementation adaptée. Voir ICI
Principes Fondamentaux : Le Parlement européen insiste sur des systèmes d’IA sûrs, transparents, et respectueux des droits de l’homme, avec une supervision humaine pour prévenir les risques liés à l’autonomie de l’IA. Voir ICI
Catégorisation des Risques : Les applications d’IA sont classées en fonction de leur risque, avec des interdictions pour celles à risque inacceptable et des évaluations strictes pour celles à risque élevé. Voir ICI
Interdictions et Exemptions : Des interdictions spécifiques sont mises en place pour certaines applications de l’IA, tandis que des exemptions limitées sont accordées aux services répressifs sous conditions strictes. Voir ICI
Impact sur les Droits Fondamentaux : Une attention particulière est accordée à la protection des données et aux droits fondamentaux, avec la possibilité pour les citoyens de déposer des plaintes concernant les décisions basées sur l’IA. Voir ICI
Support à l’Innovation et aux PME : L’accord promeut des « bacs à sable réglementaires » pour encourager l’innovation dans le domaine de l’IA, en particulier pour les PME. Voir ICI