9.7.2024, Propos recueillis par Laurence Julliard / Photo: Jean-Luc Barmaverain
Comment faire en sorte que ces technologies profitent aux consommateurs ? Le Conseil fédéral analysera d’ici à la fin de l’année le besoin de régulation. Des mesures en matière de protection contre la discrimination, d’analyses de risques et de protection des données seront nécessaires.
AlgorithmWatch CH vient de lancer un appel au Conseil fédéral demandant des mesures contre la discrimination par l’intelligence artificielle (IA) et les algorithmes. La FRC soutient cette démarche qui est aussi ouverte à la signature de la population. L’occasion de rencontrer Estelle Pannatier, chargée de politique et de plaidoyer au sein de cette association.
En quoi consiste votre travail? AlgorithmWatch CH émane de la société civile. Elle met en lumière l’utilisation de systèmes algorithmiques et d’IA et leurs effets sur les individus et la collectivité. Nous nous engageons pour que ces technologies renforcent la justice, les droits humains, la démocratie et la durabilité au lieu de les affaiblir. Notre plaidoyer se base sur des faits établis, un travail d’investigation, de recherches journalistiques et scientifiques.
Votre association est une jeune structure. Y a-t-il eu un déclencheur particulier? AlgorithmWatch existe depuis 2017 en Allemagne et depuis 2020 en Suisse. Algorithmes et IA sont toujours plus utilisés, notamment pour prendre des décisions ou les influencer. Ce peut être traiter les déclarations d’impôts, évaluer les candidatures à l’emploi, proposer de la musique, guider dans une ville. AlgorithmWatch veille à ce que ces systèmes bénéficient aux êtres humains et ne leur nuisent pas.
Quels ont été vos premiers combats? Nous travaillons à visibiliser l’utilisation de ces systèmes en Suisse et nous les référençons dans notre Atlas de l’automatisation. Nous nous engageons pour que des conditions-cadres soient mises en place lors de leur utilisation, notamment dans les administrations publiques et sur les lieux de travail. Et maintenant, nous menons cette campagne qui demande au Conseil fédéral de faire de la protection contre la discrimination l’une des priorités de la future régulation autour de l’IA.
Un tiers de la population ne maîtrise pas les gestes de base dans le numérique. Quelles réflexions cela vous évoque-t-il? Cela montre le fossé qui s’est créé. L’éducation et la formation à ces technologies sont donc primordiales. Mais ces chiffres témoignent aussi du fait que la responsabilité face à l’utilisation croissante du numérique, réseaux sociaux compris, ne doit pas être reléguée au niveau individuel. Des conditions-cadres doivent garantir que ces technologies bénéficient réellement à toute la population.
Tant des particuliers que des entreprises se ruent sur ChatGPT. Cet outil leur sauve la mise dans bien des situations. Où situez-vous les points de vigilance? Les systèmes d’IA génératives présentent des risques: en matière de protection des données, de désinformation ou de discrimination par exemple. Aujourd’hui, les fournisseurs de produits d’IA générative les mettent très tôt sur le marché, acceptant ainsi des abus voire invitant activement à des abus dans certains cas. Ces systèmes devraient être réglementés tout au long de la chaîne de création de valeur, du développement à l’utilisation. Développeurs et utilisateurs devraient être soumis à un devoir de diligence strict. Cela inclut l’obligation d’évaluer les risques pour les droits fondamentaux, la protection des données, l’environnement ainsi que les risques systémiques pour la société. Une analyse d’impact devrait permettre de minimiser ces risques. Et les résultats devraient être transparents.
On voit désormais des produits alimentaires développés par IA. On fait face à des chatbots lorsqu’on a une question chez son opérateur, son assurance, sa banque. Quels risques tout cela pose-t-il pour les consommateurs? Les chatbots sont de plus en plus utilisés aussi bien dans le secteur privé que dans le secteur public, mais ils ne sont pas exempts d’erreurs. Ils sont souvent le point de contact le plus visible entre les individus et les systèmes automatisés. Mais il existe de nombreux autres systèmes qui servent à faire des recommandations, des pronostics ou à prendre des décisions. Or nous ne savons généralement pas qui utilise ces systèmes, ni où ni pourquoi. Cela rend la défense des consommateurs d’autant plus difficile. C’est pourquoi la transparence est un premier pas indispensable pour garantir que les personnes puissent comprendre les décisions.
De nombreuses plateformes en ligne rivalisent d’astuces pour collecter une grande quantité de données sur les internautes. Voyez-vous un lien entre IA et protection des données? Les données sont au cœur du fonctionnement de l’IA. Les enjeux de protection des données sont donc intrinsèques. Mais l’utilisation de systèmes algorithmiques et d’IA a de nombreuses autres conséquences sur la société et les personnes, en matière d’injustices par exemple. Lorsque les systèmes prennent des décisions basées sur des données qui contiennent des préjugés, ces derniers sont intégrés dans les décisions et peuvent engendrer toutes sortes de discrimination.
Un récent reportage montrait que le commerce de détail Spar utilisait l’AI en identifiant les visiteurs pour leur fournir une publicité ciblée directement en rayon. Là encore, y voyez-vous des risques? Ce type de systèmes de publicité ciblée est généralement basé sur la catégorisation de données biométriques (voir notre reportage à Sophia Antipolis, nov. 2019, ndlr). Le ciblage selon l’âge, le genre ou la taille est donc très préoccupant, d’autant plus que ces données très sensibles sont utilisées à des fins commerciales. Utilisés dans l’espace public, ces systèmes peuvent entraîner une surveillance de masse. Non seulement ils manquent souvent de fondement scientifique solide, mais ils présentent en plus un risque accru de discrimination. L’an dernier, les CFF prévoyaient la mise en place d’un système de catégorisation biométrique dans les gares. Nous nous étions mobilisés contre le projet avec la Société numérique. Grâce à la pression populaire, il a été abandonné.
Qu’en est-il des réseaux sociaux? Eux aussi forment, parfois à tort, une partie de l’opinion publique. Une grande partie de notre vie publique et privée se déroule sur les plateformes comme Facebook, X ou TikTok. En tant qu’utilisateurs, nous ne savons que partiellement pourquoi l’algorithme nous recommande les contenus que nous voyons, sur la base de quels critères les contenus sont supprimés et si cela se fait de manière non discriminatoire. Il est difficile d’évaluer pleinement leur influence sur la formation de l’opinion publique. Compte tenu de l’enjeu, l’Union européenne les a réglementés par le biais du Digital Services Act et du Digital Market Act. En Suisse, un projet de loi est attendu pour l’automne. Des mesures doivent être prises pour minimiser les risques engendrés par ces plateformes.