Vers une objection de conscience face à l’IA générative ?

From MontpeLLIA
Jump to navigation Jump to search

Vers une objection de conscience face à l’IA générative ?

Pour information : près de 3.000 enseignants et chercheurs ont signé un manifeste contre l’intelligence artificielle générative — celle qui crée du contenu nouveau — dont ils refusent l’emploi impératif. L’entrepreneure Charlotte de Vilmorin partage leur inquiétude : il ne peut y avoir de progrès social et moral sans avoir le choix.

Ce jour-là, je suis tombée sur un manifeste écrit par des enseignants et des chercheurs, invoquant l’objection de conscience face à l’IA générative dans le milieu éducatif. A priori un simple billet sur un blog mais qui a été signé par près de 3.000 personnes en quelques jours ! Qu’un mouvement tente d’ouvrir une voie pour questionner notre capacité à consentir ou non à un progrès technologique, ne peut laisser indifférent.




Quand l’outil devient un système

L’objection de conscience, traditionnellement, est un acte de résistance face à ce qui nous semble intolérable. On la connaît dans les domaines de la guerre, de la médecine, ou de la foi ; ces moments où des individus, malgré les pressions, disent "non" à ce que tout le monde accepte. Mais face à la technologie, cette idée semble presque décalée. "Refuser un outil ? Mais c’est absurde !" Pourtant, quand cet outil devient un système, quand il façonne nos vies, nos pensées, et surtout notre planète, sans que nous ayons vraiment choisi, la question mérite d’être posée : à quel moment nous a-t-on demandé notre avis ? Et surtout à quel moment notre consentement devient-il une soumission ?

Avons-nous seulement pris le temps de nous demander si nous avions le choix ? Nous cliquons sur "J’accepte" sans lire les conditions générales.

Nous vivons dans un monde où le "progrès" est devenu une évidence. "On ne peut pas revenir en arrière", "c’est comme ça", "tout le monde le fait"… Ces phrases fatalistes sont répétées avec tant d’insistance qu’elles finissent par se transformer en vérité. Jacques Ellul, philosophe et théologien protestant spécialiste de la technique, montre dans son essai La Technique ou l’Enjeu du siècle (1954) comment la technique a changé de nature en passant d’un outil permettant à l'homme de se dépasser à un processus autonome auquel l’on est assujetti.

Une ardoise salée

Alors que peut-on y faire ? L’IA générative est là, omniprésente, fascinante, déjà quasiment incontournable. Elle nous promet un gain de temps précieux, une créativité illimitée, des solutions clés en main à moindre coût. Mais à quel prix ? Le manifeste des enseignants chercheurs est très clair à ce sujet, et l’ardoise est en réalité salée pour le collectif...

Nous laissons les algorithmes décider à notre place dans tous les domaines : ce que nous lisons, ce que nous écoutons, ce que nous achetons, ce que nous pensons, même ceux que nous aimons.

Un prix écologique : les data centers consomment déjà plus d’électricité et d’eau que des pays entiers, et la course à l’IA ne fait qu’aggraver les choses. Sans régulation, écrit le Shift Project (think tank présidé par Jean-Marc Jancovici), l’IA pourrait représenter 10 à 20 % de la consommation électrique mondiale d’ici 2030. Le groupe Meta est d’ailleurs en train de construire des data-centers de la taille de Manhattan pour faire face aux besoins liés à l’IA et à la super-intelligence ! Un prix humain : derrière les algorithmes, il y a des mines de métaux, des travailleurs du clic sous-payés forcés à regarder des images abominables, des conditions de travail indignes… Un prix anthropologique : avec l’IA générative, nous risquons de perdre ce qui fait notre humanité, la capacité à créer et à penser par nous-mêmes.

Interroger notre consentement

Alors, on se répète : "Je n’ai pas le choix." Mais est-ce vrai ? Avons-nous seulement pris le temps de nous demander si nous avions le choix ? Nous cliquons sur "J’accepte" sans lire les conditions générales. Nous adoptons les nouveaux outils parce que "tout le monde le fait", ou que "c’est pratique". Nous laissons les algorithmes décider à notre place dans tous les domaines : ce que nous lisons, ce que nous écoutons, ce que nous achetons, ce que nous pensons, même ceux que nous aimons.

Le manifeste des enseignants et chercheurs ne propose pas de rejeter en bloc la technologie. Il invite à une chose bien plus pertinente : à interroger notre consentement. À ne pas laisser l’IA, ni aucune technologie s’imposer "comme si de rien n’était". Il nous laisse espérer que notre rapport à la technologie n’est pas une fatalité, mais que c’est bien une série de petits choix, de petits "oui" ou "non" quotidiens qui finissent par dessiner le monde dans lequel nous vivons.

Un choix en conscience

Le pape Paul VI déjà en 1970 dans un discours prononcé devant la FAO, nous mettait en garde : "Les progrès scientifiques les plus extraordinaires, les prouesses techniques les plus étonnantes, la croissance économique la plus prodigieuse, si elles ne s’accompagnent d’un authentique progrès social et moral, se retournent en définitive contre l’homme." Est-on en train de prendre la bonne voie ? Il est toujours grand temps de nous autoriser à avoir le choix, et à interroger notre conscience pour poser un choix véritablement libre.




Face à l’IA générative, l’objection de conscience

Manifeste pour l’enseignement supérieur et l’éducation nationale

Si vous souhaitez être tenu·e au courant des suites du manifeste, vous pouvez envoyer un email vide à objectionconscienceiag-subscribe@lists.riseup.net et vous serez ainsi ajouté·e à notre liste de diffusion à ce sujet.]

Nous, membres de l’enseignement supérieur et de la recherche (ESR) et de l’éducation nationale (EN), déclarons adopter une posture d’objection de conscience face au déploiement des technologies d’IA générative[1] (IAg) dans nos institutions.

L’objection de conscience désigne le refus individuel, mais aussi collectif en tant qu’il est publiquement partagé, de prendre part à une activité que l’on perçoit comme incompatible avec des valeurs fondamentales.

Dans le cas présent, nous considérons que le déploiement de l’IAg dans les institutions de l’ESR et de l’EN est incompatible avec les valeurs de rationalité et d’humanisme que nous sommes censé·es représenter et diffuser.

Trois considérations majeures justifient cette position. Pour des raisons de concision, ce manifeste ne les développe pas mais on trouve dans la littérature scientifique de quoi les étayer solidement[2].

Considération 1.

L’IAg est un gouffre énergétique et matériel tel que personne ne peut prétendre qu’elle soit compatible avec les grands engagements internationaux tels que l’Accord de Paris sur le climat, et plus généralement avec la protection du vivant. Accepter le déploiement de l’IAg, c’est amplifier le dépassement des limites planétaires. Ceci est une attitude résolument anti-humaniste eu égard à la gravité de la situation. Le caractère écocidaire de l’IAg est en soi une raison suffisante pour en refuser le déploiement au sein de nos institutions.

Considération 2.

L’IAg représente un choix technologique qui agit comme un accélérateur des infrastructures industrielles sur lesquelles repose le secteur du numérique : mines, datacenters, centrales électriques, usines de matériel électronique, etc. Ainsi, outre les problèmes de pollution massive déjà évoqués, ce sont les lourds dégâts sociaux associés à ce système qui se voient renforcés : travail prolétarisé dans les usines de fabrication et ultraprolétarisé dans le « travail du clic », non-respect des droits humains, conflits d’usage (eau, métaux, énergie), rapports extractivistes et néo-coloniaux entre pays du Nord et du Sud, déstabilisation géopolitique des régions minières, etc. Dans tous ces domaines, la compétition effrénée à laquelle se livrent les acteurs de l’IAg mènera aux méthodes les plus sauvages et prédatrices. Il nous semble inacceptable de contribuer à une telle dynamique par nos pratiques pédagogiques et scientifiques.

Considération 3.

La banalisation des IAg dans le grand public alimente des usages qui ouvrent la voie à un futur dystopique – qui est, pour partie, déjà là : multiplication des vidéos deepfake, désinformation à grande échelle par des « usines à trolls », dépendance affective aux compagnies virtuelles, intensification du marketing digital et des escroqueries, etc. Plus généralement, il permet à des mégafirmes d’accumuler un pouvoir démiurgique, mégafirmes dont les dirigeants ne font pas mystère de leurs projets mégalomaniaques, eugénistes et de leur détestation de la démocratie. Nos institutions ne peuvent soutenir de telles techno-oligarchies, y compris de manière indirecte.

---

Le support principal de l’objection de conscience est le refus de participer à une activité qui contrevient à des valeurs fondamentales. Dans le cas de l’IAg, les trois considérations ci-dessus permettent d’assurer cette posture au regard de nos missions d’éducation et de diffusion des savoirs.

Face à ces analyses globales, les arguments les plus fréquents de légitimation de l’introduction de l’IAg dans nos institutions apparaissent immédiatement irrecevables [3]. Notamment, l’idée commune selon laquelle la diffusion de l’IAg dans nos sociétés serait « inéluctable » ne remet aucunement en cause la pertinence de l’objection de conscience. En effet, le principe de l’objection de conscience, voire de toutes les formes de résistance, consiste à s’opposer à ce qui contrevient à nos valeurs fondamentales non pas parce que l’on pense que l’on va « gagner », mais parce que l’on a la certitude que c’est ce qui est juste et digne, ici et maintenant. Par ailleurs, contrairement à d’autres technologies délétères déjà profondément implantées dans nos sociétés, l’apparition des IAg est récente et par conséquent ses usages ne sont pas profondément intégrés dans nos pratiques professionnelles. Ainsi, l’effet de « verrouillage sociotechnique » empêchant tout retour en arrière n’est pas encore pleinement là avec les IAg et il est encore effectivement possible d’exercer un refus.

Engagements

Nous, membres de l’ESR et de l’EN signataires de ce manifeste nous engageons à :

  • adopter face au déploiement des IAg dans nos institutions une posture d’objection de conscience. Face à un phénomène qui nous dépasse mais dont nous savons qu’il est mortifère, nous choisissons d’opposer un refus net, indiscutable, et politique parce qu’il est partagé : nous ne les utiliserons pas, à moins d’y être expressément contraint·es, dans nos cours, dans nos communications, dans nos recherches, dans nos activités administratives. Nous refuserons, autant que nos situations individuelles nous le permettent, de participer à des projets ou à des activités qui les mobilisent (enregistrement et compte-rendu automatique de réunion ; activité pédagogique ; formation à l’usage, fût-il qualifié de raisonné ou éthique, etc.). À tout le moins, nous exprimerons publiquement notre malaise profond face à ces pratiques. Nous sommes par ailleurs conscient·es que le terme « IAg » recouvre des applications très diverses, dont certaines sont déjà largement intégrées à nos pratiques, telles que la traduction ou la transcription automatique. S’il n’est pas réaliste de tout remettre en cause, il s’agit au moins de stopper ce qui peut encore l’être.
  • afficher dans nos activités, nos signatures mails, nos publications, nos diaporamas, etc. notre ralliement à ce manifeste via un logo et/ou le lien vers le présent texte. L’enjeu est de ne jamais laisser l’IAg apparaître dans nos milieux professionnels « comme si de rien n’était » et d’afficher partout dans nos sphères d’activité que « cela ne va pas de soi ». Parvenir à ouvrir des discussions sur le sujet par cet affichage permettrait déjà d’éviter une banalisation qui, dans des institutions prescriptrices comme les nôtres, se confond avec de la promotion.
  • promouvoir autant que possible une réflexion collective sur la place du numérique dans nos institutions. Si les arguments que nous opposons au déploiement de l’IAg nous permettent en effet de refuser une nouvelle « escalade numérique », nous savons également que le système sociotechnique du numérique dans son ensemble est sujet aux mêmes questionnements. Le « stop » opposé à l’IAg pourrait ainsi être l’ouverture d’une séquence d’évaluation de nos dépendances plus générales à un système problématique, qui permette de s’engager vers la « sobriété numérique » [4] en vue d’aboutir à un numérique effectivement soutenable.

Ce manifeste a été écrit collectivement par des membres de l’Atelier d’Ecologie Politique de Toulouse, qui regroupe des scientifiques réfléchissant en interdisciplinarité aux enjeux socio-écologiques et au rôle de l’ESR dans ce contexte.

____
  1. Les IA génératives constituent un type particulier de système d’Intelligence Artificielle, destiné à générer du texte, des images, des sons, des vidéos, sur la base de modèles de langage (LLM pour Large Language Model) entraînés sur de vastes corpus de données.
  2. Une bibliographie indicative est proposée en fin de document.
  3. Celles et ceux qui souhaitent des éléments de discussions plus précis sur ce type d’arguments (l’IA « souveraine », l’IA « sobre », la « praticité », l’IAg « inéluctable », etc.) pourront par exemple consulter le texte « Oui mais l’IAg… » publié sur le site web de l’Atécopol de Toulouse.
  4. Pour aller plus loin sur ce sujet voir : affiche 10 de l’exposition « Pour la sobriété numérique dans l’ESR » (https://www.irit.fr/exposition-sobriete-numerique/).

Bibliographie indicative

Éléments de réflexion critique sur l’adoption de l’IAg dans l’ESR et l’EN

L’université face au déferlement numérique, Thomas Bouchet et. al., Variations, 2016
L’IA, junk food de la pensée, Christophe Cailleaux et Amélie Hart, Académia, 2025
En finir avec la neutralité de l’IA, Guillaume Carbou, AOC, 2025
Against uncritical adoption of AI technologies in academia, Olivia Guest et. al., Zenodo (2025)
“ChatGPT, c’est juste un outil !“ : les impensés de la vision instrumentale de la technique, Olivier Lefebvre, Terrestres, 2025
Pourquoi je n’utilise pas ChatGPT, Florence Maraninchi, Académia, 2025
“I’m a High Schooler. AI Is Demolishing My Education.” The end of critical thinking in the classroom, Ashanty Rosario, The Atlantic (2025)

Impact environnemental du Numérique et des IAg

Imposing AI: Deceptive design patterns against sustainability, Anaelle Beignon et al., 11th Workshop on Computing Within Limits (2025)
IA, données, calcul : quelles infrastructures dans un monde décarboné ?, Maxime Efoui-Hess et. al, Shift Project (2025)
From Efficiency Gains to Rebound Effects: The Problem of Jevons’ Paradox in AI’s Polarized Environmental Debate, Alexandra Sasha Luccioni et al., Proceedings of the 2025 ACM Conference FaccT’25, 2025.
Exposition pour la sobriété numérique dans l’ESR, Laure Vieu et. al., Institut de Recherche en Informatique de Toulouse, VertIT, Gricad, CNRS, 2025
Le vrai coût environnemental de la course à l’IA, Lou Welgryn et Théo Alves Da Costa, Bon Pote, 2025
L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt, Denis Trystram et al., The Conversation, 2025.

Enjeux sociaux du numérique et de l’IAg

Pris dans la toile. De l’utopie d’Internet au capitalisme numérique, Sébastien Broca, Seuil, 2025
En attendant les robots. Enquête sur le travail du clic, Antonio Casilli, Point, 2019
Derrière l’IA générative, une main d’oeuvre invisible et précaire, Le Devoir, 2025
Dématérialisation. Le monde numérique est-il un paradis virtuel ou un bagne industriel ?, Célia Izoard et Aurélien Berlan, Greenwashing, Seuil, 2022
La ruée minière en Afrique, Le Monde, 2025
AI colonialism, MIT Technology Review, 2022
AI is a multi-billion dollar industry. It’s underpinned by an invisible and exploited workforce, Ganna Pogrebana, The conversation, 2025