L’intelligence artificielle révolutionne tous les secteurs… mais gare aux dérives sociales et démocratiques ! Pour Karma Com Solidarité, il est temps d’imaginer une IA solidaire, transparente et souveraine, au service du bien commun. Décryptage.
I. Une révolution technologique aux effets ambivalents
L’intelligence artificielle (IA) s’impose comme le moteur d’une nouvelle ère technologique, promettant des avancées spectaculaires en santé, finance, éducation ou encore environnement.
Pourtant, derrière ces prouesses techniques, des risques sociaux et démocratiques majeurs planent : concentration de la valeur entre quelques géants du numérique, discriminations cachées par les algorithmes et surveillance accrue des données personnelles. Face à ces enjeux, l’Union européenne (UE) a adopté le règlement 2024/1689, dit AI Act, qui instaure un cadre pionnier pour classifier les systèmes d’IA selon leur niveau de risque et exiger transparence et audits pour les applications à haut risque. En France, la CNIL renforce ce dispositif en publiant depuis 2023 un « plan IA » et des fiches pratiques visant à aligner le développement des systèmes IA sur les exigences du RGPD.
Cet article décrypte les multiples facettes de la révolution IA — impacts économiques et sociaux, risques éthiques et démocratiques — et propose un rôle actif aux associations pour promouvoir une IA solidaire, éthique et régulée.
1. Mutation de l'économie et transformation du marché du travail
Sur le plan économique, l’IA représente un puissant moteur de croissance. Elle est capable de générer plusieurs points supplémentaires de produit intérieur brut (PIB) au cours des prochaines années. Elle favorise l’automatisation de nombreuses tâches répétitives et ouvre la voie à de nouveaux métiers, tout en rendant certaines professions obsolètes. Cette mutation rapide du marché du travail impose de nouveaux défis : il faut anticiper ces changements, accompagner les transitions professionnelles et offrir des formations adaptées, surtout aux personnes les plus fragiles, afin d’éviter une aggravation de la fracture sociale et numérique.
L’IA ne se contente pas de remplacer les tâches répétitives : elle redessine l’écosystème professionnel. Certaines activités sont menacées de suppression, tandis que d’autres émergent (data steward, éthicien IA, spécialiste en cybersécurité). Selon le FMI, près de 40 % des emplois actuels pourraient être affectés d’ici 2030, avec un risque de déclassement pour les travailleurs faiblement qualifiés, rendant la requalification et la formation continue indispensable.
Depuis quelques années, la montée en puissance de l’automatisation appuyée sur des algorithmes sophistiqués transforme en profondeur tous les secteurs d’activité, de la finance à la logistique. Selon une étude McKinsey, ces gains de productivité pourraient représenter, à l’horizon 2040, une hausse de 0,1 % à 0,6 % par an de la croissance économique mondiale, selon le rythme d’adoption technologique. Toutefois, ces bénéfices se concentrent majoritairement entre les mains des grands acteurs du numérique et des start-ups valorisées, risquant de creuser un fossé économique avec les PME, les ONG et les territoires moins dotés en ressources.
2. Inégalités d’accès et fracture numérique
L’inclusion numérique reste un défi majeur : en France, on estime à plus de 13 millions le nombre de personnes « éloignées » du numérique, soit près de 20 % de la population. Cette fracture se double de disparités d’âge, de genre et de territoire. Sans mesures ciblées — ateliers de médiation numérique, prêts de matériel, formations de proximité — l’IA risque d’accentuer la marginalisation de ces publics.
ll. Éthique et risques de discrimination liés à l'IA
L’essor de l’IA ne se limite pas à des questions économiques. Il soulève également des enjeux éthiques et sociaux majeurs. Les algorithmes peuvent reproduire ou même amplifier des discriminations, parfois de manière invisible. Les décisions automatisées manquent souvent de transparence et peuvent porter atteinte à la vie privée. Ces problèmes posent la question fondamentale de la place de l’humain : il est essentiel que l’autonomie des individus, le respect des droits, la non-discrimination et l’équité soient garantis dans le développement et l’utilisation de ces technologies.
1. Biais et discriminations algorithmiques
Les algorithmes apprennent sur des données historiques, trop souvent teintées de préjugés sociétaux, reproduisant et amplifiant ainsi des injustices. Une étude de l’Université de Washington a démontré que trois grands modèles de langage utilisés pour le tri de CV favorisaient 85 % de noms à consonance blanche contre seulement 11 % de noms à consonance féminine.
2. Opacité, responsabilité et gouvernance
Le concept de « boîte noire » illustre la difficulté de comprendre comment une IA prend ses décisions. Qui assume la responsabilité lorsqu’un algorithme se trompe et viole un droit ? L’AI Act impose désormais un audit indépendant pour les applications à haut risque.
3. Données personnelles et surveillance
Les systèmes d’IA exploitent des volumes massifs de données personnelles pour profilages et prévisions comportementales. Dans certaines «Smart Cities», la vidéosurveillance algorithmique a montré ses limites en termes de respect de la vie privée et de biais discriminatoires.
III. Quel cadre juridique pour une IA responsable ?
1. L’AI Act européen : un tournant historique
Pour répondre à ces défis, l’Union européenne a mis en place un cadre juridique inédit : le règlement (UE) 2024/1689, plus connu sous le nom d’« AI Act », entré en vigueur le 1er août 2024. Ce texte pionnier établit une régulation des systèmes d’intelligence artificielle en fonction du niveau de risque qu’ils présentent.
Les usages jugés inacceptables, comme la notation sociale automatisée, la manipulation comportementale ou la surveillance de masse, sont interdits. Les systèmes dits à « haut risque », utilisés notamment dans les domaines de la santé, de l’éducation, de la justice, de l’emploi ou de la sécurité, sont soumis à des exigences très strictes. Ils doivent faire l’objet de contrôles rigoureux, fournir une documentation technique détaillée, assurer une transparence dans leur fonctionnement et faire l’objet de vérifications régulières. Les systèmes présentant un risque limité ou minimal sont autorisés de manière plus souple, à condition de respecter certaines obligations de loyauté, d’information et de respect des droits fondamentaux.
L’objectif principal de ce règlement est de protéger les citoyens européens tout en encourageant une innovation responsable. Il vise à instaurer la confiance dans les technologies, à créer des mécanismes de contrôle efficaces, mais aussi à préserver la souveraineté technologique de l’Europe face aux grandes entreprises extra-européennes. Il prévoit également la mise en place de « bacs à sable » réglementaires, c’est-à-dire des environnements d’expérimentation encadrés, où les nouvelles technologies peuvent être testées en conditions réelles tout en restant sous surveillance juridique.
2. Le cadre juridique français
En France, le RGPD complète ce dispositif : l’article 22 accorde à chaque individu le droit de ne pas subir une décision fondée exclusivement sur un traitement automatisé, avec possibilité d’intervention humaine et de contestation de la décision. La CNIL, quant à elle, a publié depuis 2023 un plan d’action et des recommandations sur l’IA, mettant l’accent sur la protection des données personnelles, la limitation de la collecte et le renforcement du consentement éclairé. En juin 2024, la CNIL a également diffusé ses premières fiches pratiques pour accompagner les professionnels — y compris les associations — dans le respect des exigences du RGPD lors du développement de systèmes IA.
3. Limites actuelles et défis à relever
Malgré les avancées récentes, certaines zones d’ombre persistent et freinent une adoption sereine de l’intelligence artificielle, en particulier dans le secteur associatif.
Parmi les critiques récurrentes :
Confidentialité des données et risques accrus de cyberattaques.
Automatisation excessive, entraînant perte d’autonomie et dilution des responsabilités humaines.
Désinformation amplifiée par des contenus générés automatiquement, difficilement vérifiables.
Impact environnemental élevé lié à l’entraînement des modèles massifs.
À ces enjeux techniques et éthiques s’ajoutent des obstacles structurels : beaucoup d’associations peinent à mobiliser des ressources pour financer des audits ou recruter des experts juridiques, limitant leur capacité à se conformer aux nouvelles normes. Le Conseil d’État, dans son avis n° 62.115 du 3 juin 2025, a d’ailleurs souligné que le manque de cohérence entre les dispositifs nationaux et européens crée des incertitudes juridiques, freinant l’adoption d’IA « à haut risque » dans le secteur non lucratif.
IV. Le rôle clé des associations : Une IA au service du bien commun
Dans un contexte où l’intelligence artificielle transforme rapidement nos sociétés, le rôle des associations est essentiel pour garantir que son développement serve l’intérêt général. Une approche inclusive de l’IA signifie qu’elle doit être accessible à toutes, même aux structures les plus modestes, tout en restant éthique — respectueuse des données personnelles, transparente dans ses décisions et exempte de biais discriminants —, souveraine en privilégiant des solutions technologiques maîtrisées localement, et responsable grâce à un accompagnement et une formation adaptés.
1. Intégrer des outils IA open source pour gagner en autonomie
Plutôt que de dépendre uniquement des solutions propriétaires des géants du numérique, les associations peuvent adopter des outils libres qui renforcent leur indépendance.
Decidim, plateforme participative open source, permet de co-construire projets et décisions en toute transparence, tout en garantissant la portabilité et la sécurité des données.
Des bibliothèques Python comme Scikit-Learn ou TensorFlow (en mode communautaire) offrent des briques modulaires pour développer des chatbots ou analyser des données bénévoles sans dépendre d’API commerciales.
L’hébergement local via des data centers éthiques ou coopératifs assure une souveraineté technologique et une empreinte carbone réduite par rapport aux hyper-scales étrangers.
La mutualisation de ces ressources au sein de coopératives tech (LINAGORA, Open Source Factory) permet de limiter les coûts de licence, de monter en compétences et de renforcer la confiance des bénéficiaires.
2. Former et sensibiliser les bénévoles et publics fragiles
L’inclusion numérique passe par la montée en compétences de tous les acteurs.
Organisation d’ateliers de découverte de l’IA vulgarisant les notions de machine learning, les biais algorithmiques et la protection des données.
Mise en place de sessions pratiques sur des cas d’usage concrets : assistant virtuel pour l’orientation sociale, analyse des besoins des publics handicapés…
Déploiement de parcours de «data literacy» en partenariat avec des tiers-lieux pour renforcer l’esprit critique face aux recommandations algorithmiques.
Ces actions favorisent l’appropriation responsable des outils et renforcent l’empowerment des populations vulnérables, tout en démocratisant l’IA.
3. Agir comme vigie citoyenne et force de proposition
Les associations doivent aussi peser dans le débat public afin que l’IA reste un outil de justice sociale.
Participation aux concertations européennes et aux groupes de travail de la CNIL pour porter la voix du terrain et défendre les droits des plus faibles.
Collaboration avec des observatoires citoyens (Observatoire de l’IA, AI Watch) pour produire des rapports indépendants sur l’impact social des technologies.
Organisation de forums publics et d’ateliers participatifs afin de co-élaborer des chartes éthiques ou recommandations législatives, à l’instar de la coalition IA & Éthique.
Par ces initiatives, les associations deviennent de véritables architectes d’une IA plus juste, transparente et respectueuse des libertés, capable d’allier innovation technologique et solidarité humaine.
Conclusion : quelle IA voulons-nous pour demain ?
L’intelligence artificielle n’est pas qu’une affaire de technologies et d’algorithmes : elle engage un choix de société. Si l’Europe a posé des bases solides avec l’AI Act, le RGPD et divers dispositifs nationaux, leur mise en œuvre reste un défi pour les structures de terrain, en particulier pour les structures les plus modestes. Les associations, par leur capacité d’innovation citoyenne, leur ancrage local et leur rôle de médiation, sont au cœur de cette transformation : elles peuvent intégrer des solutions open source, mutualiser des ressources, former les publics et agir comme vigies éthiques dans le débat démocratique.
Co-construire une IA responsable, inclusive et sobre nécessite un engagement collectif où citoyens, institutions publiques, acteurs économiques et société civile avancent de concert. C’est à cette condition que l’IA pourra devenir un levier d’émancipation, de justice sociale et de durabilité, enrichissant l’intelligence humaine au lieu de la supplanter.
Bibliographie :
1. Articles, rapports et revues juridiques :
- OCDE, «L’intelligence artificielle dans la société», 2019, Paris : https://www.oecd.org/content/dam/oecd/fr/publications/reports/2019/06/artificial-intelligence-in-society_c0054fa1/b7f8cd16-fr.pdf
Délégation à la prospective, «L’IA et l’avenir du service public», 2023/2024, Sénat : https://www.senat.fr/rap/r23-491/r23-491-syn.pdf
Sénat, Rapport OPECST n° 170 « ChatGPT, et après ? », 28 novembre 2024 : https://www.senat.fr/notice-rapport/2024/r24-170-notice.html
International organisation of employers, «L’impact de l’IA sur le travail et l’emploi» : https://www.ioe-emp.org/index.php?t=f&f=160464&token=0b11192d5fbd2c95d2f1d0162a932bf4597007a1
Etienne Vergès et Géraldine Vial, «Décryptage de l’IA appliquée au Droit – Vers une intelligence juridique artificielle ou comment l’IA transforme les professions juridiques», 5 décembre 2024 : https://www.lexbase.fr/article-juridique/112909750-dossier-special-decryptage-de-lia-appliquee-au-droit-vers-une-intelligence-juridique-artificielle-ou
Vie publique, «Intelligence artificielle : le cadre juridique européen de l’IA en sept questions», 11 février 2025 : https://www.vie-publique.fr/questions-reponses/292157-intelligence-artificielle-le-cadre-juridique-europeen-en-7-questions
Direction générale des Entreprises, «Le Règlement européen sur l’intelligence artificielle : publics concernés, dates clés, conséquences pour les entreprises», 14 février 2025 : https://www.entreprises.gouv.fr/decryptages-de-nos-experts/le-reglement-europeen-sur-lintelligence-artificielle-publics-concernes
Cédric Villani, «Donner un sens à l’intelligence artificielle», 8 mars 2018: https://www.cours-appel.justice.fr/sites/default/files/2019-04/Rapport%20Villani,%20donner%20un%20sens%20%C3%A0%20l’intelligence%20artificielle,%202018.pdf
Revue Française d’études constitutionnelles et politiques, «L’intelligence artificielle», n°170, septembre 2019: https://revue-pouvoirs.fr/wp-content/uploads/pdfs_articles/170pouvoirs_intelart.pdf
Fasken, «The EU AI Act: All You Need to Know», 14 novembre 2024 : https://www.fasken.com/fr/knowledge/2024/11/the-eu-ai-act
Intereconomics, Review of European Economic Policy, «Better Regulation and the EU’s Artificial Intelligence Act», mars 2025 : https://www.intereconomics.eu/contents/year/2025/number/3/article/better-regulation-and-the-eu-s-artificial-intelligence-act.html
CNIL, « Développement des systèmes d’IA : la CNIL publie ses recommandations sur l’intérêt légitime», juin 2025 : https://www.cnil.fr/fr/recommandations-developpement-ia-interet-legitime
CNIL, « IA et RGPD : la CNIL publie ses nouvelles recommandations pour accompagner une innovation responsable », février 2025 : https://www.cnil.fr/fr/ia-et-rgpd-la-cnil-publie-ses-nouvelles-recommandations-pour-accompagner-une-innovation-responsable
CNIL, Les fiches pratiques IA pour la phase de développement, mai 2024 : https://www.cnil.fr/fr/les-fiches-pratiques-ia
CNIL, «Intelligence artificielle : le plan d’action de la CNIL», mai 2023 : https://www.cnil.fr/fr/intelligence-artificielle-le-plan-daction-de-la-cnil
Conseil d’État, « La sécurité, condition de nos libertés », juin 2023 : https://www.conseil-etat.fr/uk/le-conseil-d-etat/publications-colloques/rapports-d-activite/bilan-d-activite-2022/la-securite-condition-de-nos-libertes
Conseil d’État, «Intelligence artificielle et action publique : construire la confiance, servir la performance», août 2022 : https://www.conseil-etat.fr/publications-colloques/etudes/etudes-a-la-demande-du-gouvernement/intelligence-artificielle-et-action-publique-construire-la-confiance-servir-la-performance
France Stratégie, « Infrastructures numériques et aménagement du territoire », janvier 2023 : https://www.strategie-plan.gouv.fr/files/files/Publications/Rapport/fs-2023-rapport-thd-janvier.pdf
McKinsey, «The economic potential of generative AI : The next productivity frontier», juin 2023 : https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier
Nature, Zhisheng Chen, « Ethics and discrimination in artificial intelligence-enabled recruitment practices », septembre 2023 : https://www.nature.com/articles/s41599-023-02079-x
MIT News, « Explained : Generative AI’s environmental impact », 17 janvier 2025 : https://news.mit.edu/2025/explained-generative-ai-environmental-impact-0117
Wikipedia, « Environmental impact of artificial intelligence» : https://en.wikipedia.org/wiki/Environmental_impact_of_artificial_intelligence
Élysée, « Make France an AI Powerhouse », 10 et 11 février 2025 : https://www.elysee.fr/admin/upload/default/0001/17/d9c1462e7337d353f918aac7d654b896b77c5349.pdf
Digital Strategy EU, « Regulatory framework for AI » : https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai#:~:text=The%20AI%20Act%20is%20the,legal%20framework%20on%20AI%20worldwide.
- EU Artificial Intelligence Act overview : artificialintelligenceact.eu
2- Lois, règlements et jurisprudence :
- Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act) : https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr
- Article 22 du Règlement général sur la protection des données (RGPD) du 25 mai 2018 : GDPR-text.co
- Conseil d’État, Avis 62.115 du 3 juin 2025 : https://conseil-etat.public.lu/fr/avis/2025/juin2025/03062025/62115.html
Par Zeineb Zhioua, Juriste en droit international et européen
