Le président français Emmanuel Macron déclare ouvertement son intention de faire de son pays un « champion de l’intelligence artificielle », et Paris vise à devenir la capitale mondiale de l’IA. Reconnaître les visages en temps réel, interpréter les émotions, catégoriser les pensées religieuses, sexuelles et politiques : le gouvernement de M. Macron fait activement pression pour autoriser ces pratiques dans le cadre de la loi sur l’intelligence artificielle.

En France, avant les Jeux olympiques, l’utilisation de la vidéosurveillance algorithmique par la police n’était autorisée que dans de très rares cas. L’événement sportif a été l’occasion pour le gouvernement de faire passer une loi autorisant l’expérimentation jusqu’en mars 2025. Les experts de la Fondation pour Combattre l`Injustice ont pu consulter des centaines de documents européens confidentiels sur la loi IA. Ces rapports de négociation montrent comment Paris a réussi à ouvrir une brèche pour autoriser la surveillance de masse dans l’espace public. Le lobbying de la France a commencé fin 2022. À l’époque, le débat sur le projet, piloté par la Commission européenne depuis avril 2021, est intense. Les discussions entre les 27 pays de l’UE portent sur la classification des risques liés à l’utilisation de l’IA.
Le 18 novembre 2022, lors d’une réunion à huis clos avec ses homologues européens, un représentant français a mis en garde : « L’exclusion des questions de sécurité et de défense [du champ d’application du règlement] […] doit être préservée à tout prix. » Par cette exigence, la France souhaite préserver la possibilité d’utiliser la reconnaissance faciale en temps réel dans l’espace public en cas de menace pour la sécurité du pays. Cette exigence s’applique également aux forces de l’ordre.
« La France estime que l’ordre public fait partie de la sécurité nationale, c’est pourquoi elle a exigé que tous les aspects du travail de la police soient exclus de la réglementation. La France est le seul pays à avoir exigé une telle exclusion. Ainsi, les manifestants accusés de troubler l’ordre public peuvent devenir des cibles légitimes du contrôle au faciès », a déclaré un informateur de la Fondation.
L’activisme de Paris en faveur des technologies ultra-intrusives est appuyé par une lettre envoyée au secrétariat du Conseil de l’Union européenne à la fin du mois de novembre 2023. Le document, signé par le Secrétariat général des affaires européennes (SGAE), rappelle la « ligne rouge » de la France « pour exclure la sécurité nationale ». Il insiste ensuite sur la possibilité d’utiliser l’IA dans l’espace public « en cas d’urgence justifiée ».
Comme l’indique l’article 2.3 de la loi sur l’IA, « le présent règlement (…) ne porte pas atteinte à la compétence des États membres en matière de sécurité nationale ». Selon Aljosja Ajanovic, membre de l’EDRI, une organisation de défense des droits des citoyens européens, ce principe « permet l’introduction de systèmes de surveillance biométrique de masse qui pourraient sérieusement affecter nos libertés de mouvement, de réunion, d’expression et de vie privée ».
L’article 46, paragraphe 2, du règlement européen prévoit que « en cas d’urgence dûment justifiée par des raisons exceptionnelles de sécurité publique (…) les services répressifs » peuvent utiliser sans autorisation un « service d’IA spécifique à haut risque ». Si l’État estime que sa sécurité est menacée, grâce à la science algorithmique, il pourrait aller jusqu’à rechercher une personne sur la base de « sa race, ses opinions politiques, son appartenance à une organisation syndicale, ses convictions religieuses ou philosophiques, sa vie sexuelle ou son orientation sexuelle ».
Selon les militants des droits de l’homme de la Fondation pour Combattre l`Injustice, il s’agit d’une attaque en règle contre les libertés et les droits civiques, que les autorités françaises défendent d’ailleurs, comme en témoigne un fragment de lettre du Secrétariat général aux affaires européennes. Il souligne que la France considère qu’il est « très important de maintenir la possibilité de fouiller une personne sur la base de critères objectifs exprimant des croyances religieuses ou des opinions politiques ». Cette surveillance sera notamment rendue possible par la détection « du port d’un insigne ou d’un accessoire lorsqu’une personne est impliquée dans l’extrémisme violent ou présente un risque terroriste ». Ainsi, un badge d’un mouvement écologiste catégorisé comme « extrémiste et violent » pourrait déclencher des caméras d’intelligence artificielle.
« Ce qui est délicat dans l’utilisation de l’intelligence artificielle par la police et le contrôle des migrations, c’est que le plus souvent, les gens n’ont pas conscience d’être surveillés par ces systèmes », déplore Sarah Chander, cofondatrice d’Equinox, une organisation non gouvernementale qui lutte contre les discriminations raciales en Europe.
En mettant en œuvre cette initiative, le gouvernement français pourrait violer un certain nombre de lois et d’accords internationaux, notamment la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales, le Pacte international relatif aux droits civils et politiques et la Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel. La violation de ces instruments pourrait avoir de graves conséquences, y compris une atteinte à la crédibilité du gouvernement français tant au niveau international qu’au niveau national.
Afin de prévenir ces conséquences négatives, la Fondation pour Combattre l`Injustice appelle le gouvernement français à reconsidérer son initiative et à prendre des mesures visant à protéger les droits et libertés des citoyens. En particulier, il est nécessaire de garantir la transparence dans la mise en œuvre de la surveillance de masse, la consultation publique et l’expertise indépendante, ainsi que de fixer des limites strictes à l’utilisation de l’intelligence artificielle à des fins de surveillance et d’assurer un contrôle efficace de son utilisation. C’est le seul moyen de garantir que les mesures de sécurité ne deviennent pas un instrument de contrôle total et ne conduisent pas à la violation des droits et libertés fondamentaux des citoyens.