Version smartphones allégée
🟥 Accueil 🟨 Médias 🟦 International
Lien du flux RSS
L’expertise universitaire, l’exigence journalistique

▸ les 50 dernières parutions

16.01.2026 à 14:58

Avant le pétrole vénézuelien, il y a eu les bananes du Guatemala…

Aaron Coy Moulton, Associate Professor of Latin American History, Stephen F. Austin State University
img
L’éviction de Jacobo Árbenz au Guatemala en 1954 rappelle que l’usage de la force américaine en Amérique latine n’est pas nouveau. Mais les méthodes, elles, ont changé.
Texte intégral (2645 mots)

Dans les années 1950 déjà, les États-Unis intervenaient contre un gouvernement démocratiquement élu au nom d’une menace idéologique, tout en protégeant des intérêts économiques majeurs. Mais si les ressorts se ressemblent, les méthodes et le degré de transparence ont profondément changé.


Dans la foulée de la frappe militaire américaine qui a conduit à l’arrestation du président vénézuélien Nicolás Maduro le 3 janvier 2026, l’administration Trump a surtout affiché son ambition d’obtenir un accès sans entrave au pétrole du Venezuela, reléguant au second plan des objectifs plus classiques de politique étrangère comme la lutte contre le trafic de drogue ou le soutien à la démocratie et à la stabilité régionale.

Lors de sa première conférence de presse après l’opération, le président Donald Trump a ainsi affirmé que les compagnies pétrolières avaint un rôle important à jouer et que les revenus du pétrole contribueraient à financer toute nouvelle intervention au Venezuela.

Peu après, les animateurs de « Fox & Friends » ont interpelé Trump sur ces prévisions :

« Nous avons les plus grandes compagnies pétrolières du monde », a répondu Trump, « les plus importantes, les meilleures, et nous allons y être très fortement impliqués ».

En tant qu’historien des relations entre les États-Unis et l’Amérique latine, je ne suis pas surpris de voir le pétrole, ou toute autre ressource, jouer un rôle dans la politique américaine à l’égard de la région. Ce qui m’a en revanche frappé, c’est la franchise avec laquelle l’administration Trump reconnaît le rôle déterminant du pétrole dans sa politique envers le Venezuela.

Comme je l’ai détaillé dans mon livre paru en 2026, Caribbean Blood Pacts: Guatemala and the Cold War Struggle for Freedom (NDT : livre non traduit en français), les interventions militaires américaines en Amérique latine ont, pour l’essentiel, été menées de manière clandestine. Et lorsque les États-Unis ont orchestré le coup d’État qui a renversé le président démocratiquement élu du Guatemala en 1954, ils ont dissimulé le rôle qu’avaient joué les considérations économiques dans cette opération.

Un « poulpe » puissant

Au début des années 1950, le Guatemala était devenu l’une des principaux fournisseurs de bananes pour les Américains, comme c’est d'ailleurs toujours le cas aujourd’hui.

La United Fruit Company possédait alors plus de 220 000 hectares de terres guatémaltèques, en grande partie grâce aux accords conclus avec les dictatures précédentes. Ces propriétés reposaient sur le travail intensif d’ouvriers agricoles pauvres, souvent chassés de leurs terres traditionnelles. Leur rémunération était rarement stable, et ils subissaient régulièrement des licenciements et des baisses de salaire.

Basée à Boston, cette multinationale a tissé des liens avec des dictateurs et des responsables locaux en Amérique centrale, dans de nombreuses îles des Caraïbes et dans certaines régions d’Amérique du Sud afin d’acquérir d’immenses domaines destinés aux chemins de fer et aux plantations de bananes.

Les populations locales la surnommaient le « pulpo » – « poulpe » en espagnol – car l’entreprise semblait intervenir dans la structuration de la vie politique, de l'économie et de la vie quotidienne de la région. En Colombie, le gouvernement a par exemple brutalement réprimé une grève des travailleurs de la United Fruit en 1928, faisant des centaines de morts. Cet épisode sanglant de l’histoire colombienne a d'ailleurs servi de base factuelle à une intrigue secondaire de « Cent ans de solitude », le roman épique de Gabriel García Márquez, lauréat du prix Nobel de littérature en 1982.

L’influence apparemment sans limites de l’entreprise dans les pays où elle opérait a nourri le stéréotype des nations d’Amérique centrale comme des « républiques bananières ».

United Fruit possédait notamment la marque de bananes Chiquita, qu’elle a largement promue, y compris à travers cette publicité produite dans les années 1940.

La révolution démocratique guatémaltèque

Au Guatemala, pays historiquement marqué par des inégalités extrêmes, une vaste coalition s’est formée en 1944 pour renverser la dictature répressive lors d’un soulèvement populaire. Inspirée par les idéaux antifascistes de la Seconde Guerre mondiale, cette coalition ambitionnait de démocratiser le pays et de rendre son économie plus équitable.

Après des décennies de répression, les nouveaux dirigeants ont offert à de nombreux Guatémaltèques leur premier contact avec la démocratie. Sous la présidence de Juan José Arévalo, élu démocratiquement et en fonction de 1945 à 1951, le gouvernement a mis en place de nouvelles protections sociales ainsi qu’un code du travail légalisant la création et l’adhésion à des syndicats, et instaurant la journée de travail de huit heures.

En 1951, lui a succédé Jacobo Árbenz, lui aussi président démocratiquement élu.

Sous Árbenz, le Guatemala a mis en œuvre en 1952 un vaste programme de réforme agraire, attribuant des parcelles non exploitées aux ouvriers agricoles sans terre. Le gouvernement guatémaltèque affirmait que ces politiques permettraient de bâtir une société plus équitable pour la majorité indigène et pauvre du pays.

United Fruit a dénoncé ces réformes comme le produit d’une conspiration mondiale. L’entreprise affirmait que la majorité des syndicats du pays étaient contrôlés par des communistes mexicains et soviétiques, et présentait la réforme agraire comme une manœuvre visant à détruire le capitalisme.

Pression sur le Congrès pour une intervention

Au Guatemala, United Fruit a cherché à rallier le gouvernement américain à son combat contre les politiques menées par Árbenz. Si ses dirigeants se plaignaient bien du fait que les réformes guatémaltèques nuisaient à ses investissements financiers et alourdissaient ses coûts de main-d’œuvre, ils présentaient aussi toute entrave à leurs activités comme faisant partie d’un vaste complot communiste.

L’entreprise a mené l'offensive à travers une campagne publicitaire aux États-Unis et en exploitant la paranoïa anticommuniste dominante de l’époque.

Dès 1945, les dirigeants de la United Fruit Company ont commencé à rencontrer des responsables de l’administration Truman. Malgré le soutien d’ambassadeurs favorables à leur cause, le gouvernement américain ne semblait pas disposé à intervenir directement dans les affaires guatémaltèques. L’entreprise s’est alors tournée vers le Congrès, recrutant les lobbyistes Thomas Corcoran et Robert La Follette Jr., ancien sénateur, pour leurs réseaux politiques.

Dès le départ, Corcoran et La Follette ont fait pression auprès des républicains comme des démocrates, dans les deux chambres du Congrès, contre les politiques guatémaltèques – non pas en les présentant comme une menace pour les intérêts commerciaux de United Fruit, mais comme les éléments d’un complot communiste visant à détruire le capitalisme et les États-Unis.

Les efforts de la compagnie bananière ont porté leurs fruits en février 1949, lorsque plusieurs membres du Congrès ont dénoncé les réformes du droit du travail au Guatemala comme étant d’inspiration communiste. Le sénateur Claude Pepper a qualifié le code du travail de texte « manifestement et intentionnellement discriminatoire à l’égard de cette entreprise américaine » et d’« une mitrailleuse pointée sur la tête » de la United Fruit Company.

Deux jours plus tard, le membre de la Chambre des représentants John McCormack a repris mot pour mot cette déclaration, utilisant exactement les mêmes termes pour dénoncer les réformes. Les sénateurs Henry Cabot Lodge Jr., Lister Hill et le représentant Mike Mansfield ont eux aussi pris position publiquement, en reprenant les éléments de langage figurant dans les notes internes de la United Fruit.

Aucun élu n’a prononcé un mot sur les bananes.

Lobbying et campagnes de propagande

Ce travail de lobbying, nourri par la rhétorique anticommuniste, a culminé cinq ans plus tard, lorsque le gouvernement américain a orchestré un coup d’État qui a renversé Árbenz lors d’une opération clandestine.

L’opération a débuté en 1953, lorsque l’administration Eisenhower a autorisé la CIA à lancer une campagne de guerre psychologique destinée à manipuler l’armée guatémaltèque afin de renverser le gouvernement démocratiquement élu. Des agents de la CIA ont alors soudoyé des membres de l’armée guatémaltèque tandis que des émissions de radio anticommunistes étaient diffusées et un discours, porté par les religieux et dénonçant un prétendu projet communiste visant à détruire l’Église catholique du pays, se propageait dans tout le Guatemala.

Parallèlement, les États-Unis ont armé des organisations antigouvernementales à l’intérieur du Guatemala et dans les pays voisins afin de saper davantage encore le moral du gouvernement Árbenz. La United Fruit a également fait appel au pionnier des relations publiques Edward Bernays pour diffuser sa propagande, non pas au Guatemala mais aux États-Unis. Bernays fournissait aux journalistes américains des rapports et des textes présentant le pays d’Amérique centrale comme une marionnette de l’Union soviétique.

Ces documents, dont un film intitulé « Why the Kremlin Hates Bananas », ont circulé grâce à des médias complaisants et à des membres du Congrès complices.

La volonté de la United Fruit de renverser le gouvernement démocratiquement élu du Guatemala a été renforcée par ce film de propagande anticommuniste.

Détruire la révolution

En définitive – et les archives le démontrent –, l’action de la CIA a conduit des officiers de l’armée à renverser les dirigeants élus et à installer un régime plus favorable aux États-Unis, dirigé par Carlos Castillo Armas. Des Guatémaltèques opposés aux réformes ont massacré des responsables syndicaux, des responsables politiques et d’autres soutiens d’Árbenz et Arévalo. Selon des rapports officiels, au moins quarante-huit personnes sont mortes dans l’immédiat après-coup, tandis que des récits locaux font état de centaines de morts supplémentaires.

Pendant des décennies, le Guatemala s'est retrouvé aux mains de régimes militaires. De dictateur en dictateur, le pouvoir a réprimé brutalement toute opposition et instauré un climat de peur. Ces conditions ont contribué à des vagues d’émigration, comprenant d’innombrables réfugiés, mais aussi certains membres de gangs transnationaux.

Le retour de bâton

Afin d’étayer l’idée selon laquelle ce qui s’était produit au Guatemala n’avait rien à voir avec les bananes — conformément au discours de propagande de l’entreprise — l’administration Eisenhower a autorisé une procédure antitrust contre United Fruit, procédure qui avait été temporairement suspendue pendant l’opération afin de ne pas attirer davantage l’attention sur la société.

Ce fut le premier revers d’une longue série qui allait conduire au démantèlement de la United Fruit Company au milieu des années 1980. Après une succession de fusions, d’acquisitions et de scissions, ne demeure finalement que l’omniprésent logo de Miss Chiquita, apposé sur les bananes vendues par l’entreprise.

Et, selon de nombreux spécialistes des relations internationales, le Guatemala ne s’est jamais remis de la destruction de son expérience démocratique, brisée sous la pression des intérêts privés.

The Conversation

Les recherches d’Aaron Coy Moulton ont bénéficié de financements du Truman Library Institute, de Phi Alpha Theta, de la Society for Historians of American Foreign Relations, du Roosevelt Institute, de l’Eisenhower Foundation, de la Massachusetts Historical Society, de la Bentley Historical Library, de l’American Philosophical Society, du Dirksen Congressional Center, de la Hoover Presidential Foundation et du Frances S. Summersell Center for the Study of the South.

15.01.2026 à 16:01

En 2026, à quoi vont ressembler les nouveaux deepfakes qui vont déferler sur nos écrans

Siwei Lyu, Professor of Computer Science and Engineering; Director, UB Media Forensic Lab, University at Buffalo
img
Après une explosion des deepfakes en 2025, l’année 2026 s’annonce encore plus critique avec l’émergence de contenus synthétiques interactifs en temps réel.
Texte intégral (1455 mots)
La barrière technologique à l’entrée a sauté : générer des deepfakes est désormais plus accessible _via_ les outils IA grand public. Image générée par Siwei Lyu/IA Google Gemini 3

En 2025, la génération de deepfakes a explosé : visages, voix et mouvements du corps créés par des systèmes d’intelligence artificielle deviennent presque indiscernables des humains, bouleversant la perception et la sécurité des contenus en ligne.


Au cours de l’année 2025, les techniques de génération de deepfakes ont connu une évolution spectaculaire. Les visuels de visages, de voix et de corps entiers générés des systèmes d’IA ont gagné en qualité – bien au-delà de ce que beaucoup d’experts imaginaient encore il y a quelques années. Ces vidéos sont aussi davantage utilisées pour tromper ceux qui les regardent.

Dans de nombreuses situations du quotidien – en particulier les appels vidéo de faible résolution et les contenus diffusés sur les réseaux sociaux –, leur réalisme est désormais suffisant pour berner à coup sûr des publics non spécialistes. Concrètement, les médias synthétiques sont devenus indiscernables d’enregistrements authentiques pour le grand public et, dans certains cas, même pour des institutions.

Et cette flambée ne se limite pas à la qualité. Le volume de deepfakes générés a lui aussi explosé : l’entreprise de cybersécurité DeepStrike estime qu’on est passé d’environ 500 000 vidéos de ce type présentes en ligne en 2023 à près de 8 millions en 2025, avec une croissance annuelle proche de 900 %.

Je suis informaticien et je mène des recherches sur les deepfakes et d’autres médias synthétiques. De mon point de vue, la situation risque encore de s’aggraver en 2026, à mesure que les deepfakes évolueront vers des entités synthétiques capables d’interagir en temps réel avec des humains.

Des améliorations spectaculaires

Plusieurs évolutions techniques expliquent cette escalade. Tout d’abord, le réalisme a franchi un cap grâce à des modèles de génération de vidéos conçus spécifiquement pour maintenir la cohérence temporelle. Ces modèles produisent des vidéos aux mouvements cohérents, avec des identités stables pour les personnes représentées et un contenu logique d’une image à l’autre. Ils dissocient les informations liées à la représentation de l’identité d’une personne de celles relatives au mouvement, ce qui permet d’appliquer un même mouvement à différentes identités ou, inversement, d’associer une même identité à plusieurs types de mouvements.

Ces modèles génèrent des visages stables et cohérents, sans les scintillements, déformations ou anomalies structurelles autour des yeux et de la mâchoire qui constituaient des signes techniques fiables de deepfakes auparavant.

Deuxièmement, le clonage vocal a franchi ce que j’appellerais le « seuil d’indiscernabilité ». Quelques secondes d’audio suffisent désormais pour générer un clone convaincant – avec une intonation, un rythme, des accents, des émotions, des pauses et même des bruits de respiration naturels. Cette capacité alimente déjà des fraudes à grande échelle. De grands distributeurs indiquent recevoir plus de 1 000 appels frauduleux générés par l’IA chaque jour. Les indices perceptifs qui permettaient autrefois d’identifier des voix synthétiques ont en grande partie disparu.

Troisièmement, les outils grand public ont fait chuter la barrière technique à un niveau proche de zéro. Les évolutions d’OpenAI avec Sora 2, de Google avec Veo 3 et l’émergence d’une vague de start-up font qu’il suffit aujourd’hui de décrire une idée et de laisser un grand modèle de langage comme ChatGPT d’OpenAI ou Gemini de Google rédiger un script, pour générer en quelques minutes des contenus audiovisuels aboutis. Des agents d’IA peuvent automatiser l’ensemble du processus. La capacité à produire à grande échelle des deepfakes cohérents et construits autour d’un récit s’est ainsi largement démocratisée.

Cette combinaison d’une explosion des volumes et de figures synthétiques devenues presque indiscernables d’êtres humains réels pose de sérieux défis pour la détection des deepfakes, en particulier dans un environnement médiatique où l’attention est fragmentée et où les contenus circulent plus vite qu’ils ne peuvent être vérifiés. Des dommages bien réels ont déjà été constatés – de la désinformation au harcèlement ciblé et aux arnaques financières – facilités par des deepfakes qui se propagent avant que le public n’ait le temps de comprendre ce qui se passe.

Le temps réel, nouvelle frontière

Pour l’année à venir, la trajectoire est claire : les deepfakes se dirigent vers une synthèse en temps réel capable de produire des vidéos reproduisant fidèlement les subtilités de l’apparence humaine, ce qui facilitera le contournement des systèmes de détection. La frontière évolue du réalisme visuel statique vers la cohérence temporelle et comportementale : des modèles qui génèrent du contenu en direct ou quasi direct plutôt que des séquences préenregistrées.

La modélisation de l’identité converge vers des systèmes unifiés qui capturent non seulement l’apparence d’une personne, mais aussi sa façon de bouger et de parler selon les contextes. Le résultat dépasse le simple « cela ressemble à la personne X » pour devenir « cela se comporte comme la personne X sur la durée ». Je m'attends à ce que des participants à des appels vidéo soient synthétisés en temps réel ; à voir des acteurs de synthèse pilotés par l’IA dont le visage, la voix et les gestes s’adaptent instantanément à une consigne ; et à ce que des arnaqueurs déploient des avatars réactifs plutôt que des vidéos fixes.

À mesure que ces capacités se développent, l’écart perceptuel entre humains authentiques et synthétiques continuera de se réduire. La véritable ligne de défense ne reposera plus sur le jugement humain, mais sur des protections au niveau des infrastructures. Cela inclut des mécanismes de traçabilité sécurisée, comme la signature cryptographique des médias et l’adoption par les outils de génération IA des spécifications de la Coalition for Content Provenance and Authenticity. Cela dépendra également d’outils d’analyse multimodaux, comme le Deepfake-o-Meter que je développe avec mes équipes dans mon laboratoire.

Se contenter d’examiner les pixels attentivement ne suffira plus.

The Conversation

Siwei Lyu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.01.2026 à 15:59

Streaming de jeux vidéo : femmes, LGBTQIA+ et personnes racisées face à la cyberviolence

Thomas Jammet, Professeur associé, Haute école spécialisée de Suisse occidentale (HES-SO)
Michael Perret, Enseignant-chercheur en communication, médias sociaux et jeux, Haute école spécialisée de Suisse occidentale (HES-SO)
img
La cyberviolence est omniprésente dans le domaine du streaming et des jeux vidéo en ligne. Les femmes, les personnes racisées ou LGBTQIA+ sont particulièrement exposées.
Texte intégral (2015 mots)
Maghla, une des streameuses les plus connues en francophonie, a dénoncé publiquement le cyberharcèlement sexiste dont elle était victime. Maghla, CC BY

La cyberviolence est omniprésente dans le domaine du streaming – en particulier de jeux vidéo – et touche particulièrement les personnes minorisées, au point d’infléchir carrières et pratiques. Quels mécanismes sont à l’œuvre ? À l’heure où la visibilité se paie cher, comment rendre ces espaces numériques plus vivables ?


Depuis le milieu des années 2010, l’intérêt porté par la recherche et par le grand public s’est progressivement déplacé des « effets des jeux vidéo violents » ou des jeux vidéo « qui rendent violents » à la place de la violence ordinaire dans les interactions entre membres d’une situation de jeu. Parmi les terrains de la cyberviolence, la diffusion en direct de sessions de jeux vidéo (streaming) est fortement concernée.

Cette violence s’observe entre les joueurs et joueuses, au cours des parties en ligne, mais également de la part du public qui peut participer activement à travers l’interface de discussion (chat). Selon une récente étude de l’ADL Center for Technology and Society, plus du trois quarts des joueurs adultes aux États-Unis ont subi une forme de cyberviolence, allant de l’insulte en ligne au harcèlement.

Le streaming prend aujourd’hui des formes variées et se déploie sur une pluralité de plateformes, dont Twitch, YouTube ou Kick. Twitch demeure la plus utilisée : en 2024, elle représentait environ 61 % du total des heures de visionnage live dans le secteur de la webdiffusion.

Dans nos travaux, nous nous intéressons aux violences que subissent les streameurs et streameuses de jeux vidéo, un phénomène encore largement sous-estimé malgré ses effets concrets sur les pratiques et la carrière des vidéastes.

Les personnes minorisées tenues à l’écart

La cyberviolence touche durement Twitch, un « environnement communicationnel » où la personne qui diffuse est placée dans une « position exposée », livrée aux regards et aux prises de parole – parfois peu amènes – d’un large public. Le streaming fonctionne comme un régime de visibilité qui valorise l’« authenticité », la « proximité », l’humour et la « spontanéité ». Il se caractérise par une forte dimension spectatorielle et spectaculaire, qui cristallise la cyberviolence.

D’une part, les comportements violents surgissent de manière cyclique dans les environnements multijoueurs et les chats : les provocations et la toxicité entre les joueurs et joueuses sont monnaie courante, la violence peut même être encouragée par les streameurs et streameuses. D’autre part, le public peut se comporter en perturbateur intentionnel et faire dérailler la performance de la webdiffusion par des propos inappropriés, voire violents, publiés dans le chat, surtout quand ces propos deviennent collectifs et prennent la forme de « raids haineux ».

Comme en témoignait, en 2023, une vidéaste de Suisse romande déplorant la banalité et la violence de ces actes de harcèlement :

« On reçoit des compliments, des propositions sexuelles, mais aussi des menaces de mort. »

Ces agressions semblent même encouragées par le modèle économique des plateformes, dans la mesure où elles suscitent des controverses qui permettent d’augmenter le nombre de vues, mais aussi d’abonnés (followers) et de dons monétaires de leur part.

Les micro-agressions s’y accumulent de telle sorte qu’elles peuvent créer un environnement hostile et excluant pour les personnes minorisées qui s’adonnent à l’activité de webdiffusion. Par « groupes minorisés », on désigne notamment les femmes, les personnes racisées ou encore les personnes LGBTQIA+, qui sont statistiquement très exposées aux attaques : 49 % des femmes, 42 % des personnes noires et 39 % des personnes LGBTQIA+ déclarent avoir été harcelées en ligne sur la base de leur identité, tandis que 82 % des victimes de violences sexistes ou sexuelles sont des femmes ou des filles.

Une brutalisation croissante

Dans le contexte de la culture vidéoludique, historiquement façonnée par la masculinité hégémonique toxique et geek, la position exposée des streameurs et streameuses est loin de garantir aux personnes minorisées la légitimité accrue qu’elle confère aux joueurs (blancs et) masculins.

Cette visibilité fonctionne de manière différenciée : si elle tend à renforcer la crédibilité des hommes, elle offre en revanche davantage de prises aux critiques et aux attaques visant celles et ceux qui n’appartiennent pas à cette catégorie, les exposant à la surveillance de leurs comportements en jeu, à la mise en cause de leur légitimité et à du cyberharcèlement, ce qui rend leur maintien dans les environnements en ligne comparable à une course d’obstacles.

Participant à part entière à la dynamique de la webdiffusion, que ce soit par le soutien ou la moquerie, mais aussi l’insulte, le public contribue à la présence systémique de comportements sexistes, racistes, et parfois à l’humiliation constante de streameurs et streameuses. Ce dernier point s’est tristement et fatalement illustré avec le décès en direct du streameur Jean Pormanove en août 2025 sur Kick, une plateforme critiquée pour la faiblesse de son système de modération. Ici, les encouragements du public ont conduit au pire, poussant les personnes humiliant Jean Pormanove à poursuivre leurs sévices des jours durant.

Les recherches les plus récentes semblent indiquer ainsi une brutalisation croissante dans les usages quotidiens du Web, caractérisée par un double processus de banalisation et de légitimation de la violence dans les espaces (publics) numériques.

Une régulation déficiente, des stratégies d’adaptation épuisantes

Les règles de modération sur les plateformes de streaming oscillent entre approches réactives punitives – fondées sur la sanction a posteriori et, dans les cas les plus extrêmes, le bannissement définitif – et approches proactives, qui visent à prévenir les comportements offensants.

Sur Twitch, la régulation consiste essentiellement à punir les fauteurs de troubles. Elle s’exerce, d’une part, de manière centralisée, via des algorithmes et des lignes de conduite générales. Ces règles peuvent mener à la suppression de contenus, une suspension temporaire ou un bannissement, mais leur application dépend largement des signalements et du travail de modérateurs et modératrices bénévoles. D’autre part, la régulation s’opère de manière décentralisée par l’entremise des streameurs et streameuses (qui disposent d’un pouvoir discrétionnaire sur leur chaîne) et de leurs équipes. Son efficacité est limitée puisqu’elle repose aussi en grande partie sur le travail gratuit des modérateurs et modératrices qui font face à des offenses massives et continues.

Dans ce contexte, les streameurs et streameuses subissant des agressions entreprennent de nombreux efforts pour se préserver en essayant de « recadrer » les membres de leur audience qui les agressent. Nous avons étudié à ce propos le cas de l’expulsion d’un spectateur sexiste par une streameuse amatrice, et celui d’un streameur à succès qui, confronté à des sous-entendus racistes et par ailleurs harcelé en dehors de la plateforme, a fini par renoncer à son activité. D’autres travaux montrent que, face à l’absence de communication et de soutien technique de Twitch, certains streameurs et streameuses s’organisent en réseau pour partager des outils et des stratégies permettant de gérer le public pendant les attaques et d’apporter un soutien émotionnel à leurs pairs.

Ces exemples témoignent d’un important travail de sensibilisation du public, souvent épuisant, entrepris par les streameurs et streameuses_minorisés pour pallier le manque de régulation offert par les plateformes qui hébergent leur activité. Ce travail, destiné à rendre moins acceptables les actes de cyberviolence, est encore insuffisamment étudié à ce jour.

Accompagner les streameurs et streameuses dans leur travail de régulation

La recherche pourrait venir prêter main-forte aux acteurs et actrices du streaming dans leur effort crucial pour favoriser une dynamique saine des interactions avec le public. Mobiliser le savoir expérientiel des joueurs et des joueuses, des modérateurs et des modératrices est essentiel pour comprendre comment les streameurs et streameuses peuvent transformer, au quotidien, un environnement parfois hostile en espace viable.

Dans cette optique, une démarche participative associant chercheurs et communautés vidéoludiques permettrait d’identifier des moyens de réparer l’offense et de formaliser des dispositifs de régulation plus inclusifs que les outils techniques existants. À l’heure où la cyberviolence pousse nombre de personnes minorisées à abandonner leur activité de streaming, il est urgent de débrutaliser les pratiques vidéoludiques.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

15.01.2026 à 15:58

Comment les États-Unis pourraient-ils contribuer à achever le régime des mollahs ?

Pierre Firode, Professeur agrégé de géographie, membre du Laboratoire interdisciplinaire sur les mutations des espaces économiques et politiques Paris-Saclay (LIMEEP-PS) et du laboratoire Médiations (Sorbonne Université), Sorbonne Université
img
En Iran, Donald Trump pourrait s’inspirer du modèle afghan de la fin 2001 : Washington avait obtenu la chute des talibans en armant des groupes locaux et en les soutenant par une campagne de frappes aériennes.
Texte intégral (2136 mots)

Des frappes états-uniennes sur des cibles en Iran semblent possibles à ce stade, mais, en tout état de cause, une simple série de bombardements ne suffira pas à faire chuter le régime. L’option la plus efficace consisterait, pour Washington, à approvisionner en armes des groupes locaux, à commencer par ceux des Kurdes, et à les appuyer par une campagne aérienne. C’est ainsi que, il y a près de vingt-cinq ans, en Afghanistan, les Américains avaient soutenu leurs alliés locaux, qui avaient chassé les talibans et pris Kaboul. Il reste que plusieurs puissances régionales ne verraient pas d’un très bon œil une issue qui aboutirait à un net renforcement des Kurdes…


Alors que le régime des mollahs s’engage dans un massacre à huis clos de son propre peuple afin d’étouffer la révolution commencée dans le bazar de Téhéran le 28 décembre 2025, tous les observateurs guettent l’annonce d’une campagne de bombardements américains. La réussite spectaculaire de l’enlèvement de Nicolas Maduro au Venezuela le 3 janvier et les déclarations récentes de Donald Trump – le régime iranien sera « frappé très durement, là où ça fait mal » – semblent en effet plaider en ce sens. Trump pourrait profiter de l’extrême fragilité de la République islamique d’Iran pour lui porter le coup de grâce à en frappant les lieux de pouvoir, décapitant ainsi le régime.

Toutefois, cette perspective abondamment relayée dans la presse présente plusieurs écueils évidents : même si une campagne de bombardement pourrait « décapiter » le régime, on voit mal comment des frappes aériennes pourraient permettre au peuple désarmé de tenir tête aux milliers de pasdaran, la milice des Gardiens de la révolution, bras armé du régime, et des bassidji, forces paramilitaires estimées à 600 000 ou 700 000 combattants, qui massacrent aujourd’hui les manifestants pour écraser la révolution.

Seule une campagne de frappes très longue et massive, mobilisant sur la durée plusieurs centaines d’appareils, pourrait vraiment fragiliser ces milices au point de permettre aux civils, désarmés pour la majorité, de renverser un régime qui s’apparente de plus en plus à une dictature militaire. Or, les déclarations de Trump suggèrent pour l’instant une opération courte et spectaculaire et rien n’indique que les États-Unis veuillent s’impliquer dans une campagne de longue durée comme celles menées contre la Serbie lors de la guerre du Kosovo en 1999 ou contre les armées de Saddam Hussein au Koweït lors de la phase initiale de l’opération Tempête du désert en 1991. Un autre indice semble aller en ce sens : pour l’heure, la Maison Blanche n’a déployé aucun porte-avions au large du Golfe persique, ce qui réduit la masse d’appareils disponibles et semble confirmer l’hypothèse d’une offensive aérienne éclair sur le modèle de la guerre des douze jours de l’été dernier.

Dans ce contexte, on pourrait se demander si le type d’opération apparemment choisi par la Maison-Blanche est réellement de nature à renverser le régime. Quelles sont les autres options dont dispose Washington pour parvenir à cette fin ?

Armer les minorités en lutte contre le régime

Les rares vidéos qui nous parviennent de la répression menée par les pasdaran et leurs auxiliaires bassidji montrent à quel point le peuple iranien manque d’armes pour se défendre et pour renverser le régime aux abois.

Équiper matériellement la résistance iranienne semble donc davantage répondre aux demandes immédiates des manifestants qu’une campagne de bombardements qui détruirait certes les centres du pouvoir mais pas l’appareil sécuritaire et répressif qui maille tout le territoire iranien. Dans cette optique, les Américains pourraient décider d’équiper des groupes armés déjà existants et opérationnels en Iran parmi les minorités iraniennes : les Baloutches, les Azéris et les Kurdes sont en lutte pour l’autonomie contre Téhéran depuis des décennies et disposent de milices comme le PJAK kurde ou Jaish al-Adl baloutche qui, si elles étaient correctement équipées, pourraient tenir tête aux pasdaran.

Les Kurdes seraient, dans l’optique américaine, la minorité la plus intéressante, puisque les Kurdes iraniens pourraient s’appuyer sur les bases arrière que leur fournit le Kurdistan irakien – et ce, d’autant plus facilement que les Américains sont très présents dans cette région frontalière.

La base américaine d’Erbil pourrait servir de hub logistique pour équiper la résistance kurde iranienne depuis les provinces kurdes de l’Irak.

Situation de la ville d’Erbil, dans le nord de l’Irak, au Kurdistan irakien. Google Maps

Washington a récemment renforcé cette base pour lutter contre l’État islamique et y a déployé des unités d’élite, particulièrement la Delta Force et la 101e division aéroportée. Cette dernière unité possède une importante flotte d’hélicoptères CH-47 Chinook et UH-60 Blackhawk qui pourraient acheminer les armes depuis le carrefour d’Erbil jusqu’au Kurdistan iranien.

Sachant que les Kurdes ont joué un rôle très actif dans tous les mouvements de révolte contre le pouvoir des mollahs et notamment dans le mouvement « Femme, Vie, Liberté » en 2022, et que les Kurdes irakiens ont, ces derniers jours, largement fait part de leur soutien à leurs compatriotes iraniens, ce pari d’armer la minorité kurde pourrait s’avérer gagnant pour Washington.

Une guerre sur le modèle afghan ?

Dès lors, les Américains pourraient mener une guerre par proxy sur le sol de la République islamique, sans envoyer d’importants contingents au sol, conformément aux promesses électorales faites par Trump à sa base MAGA.

Les États-Unis pourraient effectuer une campagne de bombardements en soutien à leurs alliés locaux comme ils l’avaient fait contre le régime des talibans en Afghanistan après les attentats du 11 Septembre. Pendant les mois d’octobre et de novembre 2001, les Américains avaient soutenu la minorité tadjique, organisée autour de la milice rebelle l’Alliance du Nord, formée en 1992 par le commandant Massoud, par une campagne de bombardements ciblés et par l’envoi de forces spéciales capables de coordonner les bombardements et de coordonner les rebelles sur le terrain.

Il semble probable que les succès américains obtenus lors de cette première phase de la guerre d’Afghanistan constituent un modèle pour Trump : rappelons que Kaboul a été prise le 13 novembre 2001 par l’Alliance du Nord sans que les Américains ne déploient des contingents massifs au sol.

C’est bien l’occupation de l’Afghanistan dans un deuxième temps qui mobilisera beaucoup de troupes américaines, entraînera d’importantes pertes parmi ces militaires et se soldera par un échec cuisant. Fort de ce double enseignement, Trump pourrait soutenir les rebelles via des bombardements et l’envoi de forces spéciales, sans chercher à occuper l’Iran.

Une politique risquée… mais inévitable ?

Il reste que la mise en œuvre d’une telle stratégie expose à plusieurs risques de déstabilisation régionale, ce qui pourrait dissuader Washington d’armer massivement les minorités iraniennes.

Trump pourrait se montrer réceptif aux craintes des puissances régionales comme la Turquie ou la Syrie, qui ne veulent surtout pas voir une contagion sécessionniste se diffuser au Moyen-Orient. Il est probable d’Ankara ou Damas considéreraient le développement d’une guérilla kurde iranienne comme un danger nourrissant les velléités de leurs propres communautés kurdes.

De plus, les régimes autoritaires du Golfe comme l’Arabie saoudite ou le Qatar pourraient percevoir le succès de la révolution iranienne comme une menace pour le maintien de leurs propres systèmes, sachant notamment que l’Arabie est confrontée au mécontentement de la minorité chiite à l’est du pays, spécialement depuis le Printemps arabe et la révolte de Qatif en 2011.

Ces facteurs expliquent sans doute les hésitations de Trump ces jours derniers et le temps que prend Washington pour lancer ses frappes contre l’Iran. Cela dit, l’ampleur de la répression perpétrée par le régime de Téhéran est telle qu’un point de non-retour a sans doute été franchi et que la perspective d’une guerre civile entre les milices du régime et les franges les plus déterminées et les mieux équipés des révolutionnaires iraniens soit devenue presque inévitable. Fort ce constat, Washington pourrait accepter les risques qu’implique l’envoi d’armes en Iran et consentir à une opération armée plus longue que prévu, mais dont la perspective de gain reste énorme pour le président américain, lequel pourrait ainsi se prévaloir d’avoir apporté un appui décisif à une révolte populaire contre un ennemi déterminé des États-Unis et, aussi, de leur allié le plus proche dans la région, à savoir Israël.

The Conversation

Pierre Firode ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.01.2026 à 15:57

Exit madame Irma dans sa roulotte, place aux tarologues en ligne

Elisabeth Eglem, Maitre de Conférences en Sciences de Gestion , Université de Perpignan Via Domitia
img
Les tarologues s’adaptent à leur époque et à leurs clients présents en ligne et enclins au développement personnel. Comme ces entrepreneurs divinatoires s’y prennent-ils ?
Texte intégral (1674 mots)
Depuis la fin du XX<sup>e</sup>&nbsp;siècle, la pratique du tarot tend à se tourner vers le développement personnel. StayGoldDesignCo/Shutterstock

En 2026, les tarologues sont devenus influenceurs à l’ère du tout-numérique. Ces nouveaux entrepreneurs doivent maîtriser la communication numérique et les attentes de leurs clients en termes de développement personnel. Témoignage de la stratégie de plusieurs tarologues sur le réseau social Instagram.


D’après un sondage Ifop de 2022, 29 % des Français déclarent croire à la cartomancie. Les chiffres financiers l’attestent. Le marché des cartes de tarot est en pleine expansion, estimé à 515 millions d’euros en 2024 et à un milliard d’euros d’ici 2033.

De nombreuses personnes consultent un tarologue davantage pour mieux gérer leurs émotions et développer leurs capacités à réaliser des objectifs personnels et professionnels que pour connaître leur avenir. Ces objectifs s’inscrivent dans une logique de développement personnel, comme le montre ce compte Instagram.

Notre étude cherche à comprendre la stratégie de marketing digital des tarologues et leur rapport au marché du développement personnel. Elle est issue de l’observation régulière de dix comptes Instagram de tarologues sur une période de six mois, complétée par cinq entretiens.

Perspective divinatoire et développement personnel

À partir des années 1960, la pratique du tarot se tourne vers la connaissance de soi via la projection d’émotions sur les cartes.

Alors, l’utilisation du tarot dans une perspective divinatoire a-t-elle totalement disparu ? À étudier les réseaux sociaux des tarologues, ces derniers continuent à proposer leurs services de divination, cette façon de prédire l’avenir par l’interprétation de certains phénomènes sur demande. Les contenus en lien avec la magie et l’ésotérisme sont toujours légion.

En 2024, notre étude montre que le langage des tarologues s’inscrit dans la recherche de bien-être émotionnel et de l’amélioration de l’estime de soi. Cela ne doit rien au hasard. Le réseau social Instagram est caractérisé par un vocabulaire tourné vers l’action, l’expression de valeurs individuelles et les compétences émotionnelles : « focus », « énergies », « travail sur soi », « être aligné », « fluide », « transformation », « changement », etc.

Le tarot apparaît comme un outil permettant d’identifier des points de résistance et de se (re)mettre en mouvement.

« Le tarot dit quelque chose, mais c’est à la personne de continuer sa vie et de prendre ses décisions, elle doit agir, sinon il se ne passera rien », souligne Emily, tarologue.

La notion de « libre arbitre », souvent mentionnée, met en valeur la responsabilité du client qui doit être prêt à faire des efforts pour obtenir des résultats : « Le tarot te donne une longueur d’avance pour prendre la direction qui te convient », explique Will. Et d’après Leena : « Il y a un côté mindset, tu as tiré une carte qui t’invite à voir ta journée sous un jour positif, comme ça même si tu ne te sens pas super bien le matin, ça va te motiver à passer une bonne journée malgré tout. »

Recherche de visibilité

L’insertion des tarologues dans le monde numérique passe par le suivi des usages des réseaux sociaux et la compréhension de leur fonctionnement. L’influence de l’algorithme qui, par ses changements réguliers, modifie les règles du jeu. Sandrine, tarologue interviewée dans notre étude, constate que « l’algorithme ne met en valeur que les reels ».

Les grandes tendances impactent la façon de catégoriser les services proposés par le tarologue via la formulation de la bio, le choix des photos ou la manière de monter les vidéos. D’après la psychologue Listhiane Pereira Ribeiro et l’anthropologue Candice Vidal e Souza, les pratiques de tirage de cartes sont influencées par les codes de l’entrepreneuriat numérique.

Leena, tarologue, adapte ses choix de publication aux différents formats : « Je vais créer plus de proximité en stories et plus d’information dans les posts. »

Les outils proposés – stories, reels, emojis, recours à des plateformes telles que Canva – permettent d’adapter les publications aux habitudes du public tout en essayant de retenir son attention. Will, tarologue, explique que « quelque chose de long n’a en général pas d’impact ».

Les stories à la une sont utilisées pour publier des contenus stratégiques qui doivent rester permanents : l’histoire du tarologue, les prestations proposées, les tarifs, les témoignages, etc. Inversement, les stories classiques sont utilisées pour lancer des événements promotionnels. Exemple : « Jusqu’à ce soir 22 heures, deux questions pour 10 euros », ou « Pour vous, qui est le Bateleur ? »

Le Magicien – ou le Bateleur dans le tarot de Marseille – traduit le passage de l’idée à la réalité. Emzzi/Shutterstock

Le Bateleur, parfois appelé le Magicien, est la première carte du tarot de Marseille. Elle représente un jeune homme debout devant une table recouverte de différents objets, dont la symbolique oriente vers tous les potentiels et vers les nouveaux départs.

La difficulté reste de capter un public à la fois peu disponible et soumis à des offres similaires concurrentes. Au-delà de l’utilisation adaptée des formats existants, la clé réside dans l’authenticité perçue de la personne du tarologue et de ce qu’il propose.

« Il y a une sorte d’uniformité sur Instagram. Tous les dimanches soir, tu as l’énergie de la semaine, les “guidances” de la semaine… Il faut essayer de sortir de ça », explique Will.

L’utilisation des outils contribue à rendre ludique le rapport aux cartes, à travers leur mise en scène sur le réseau. Les cartes elles-mêmes par leur esthétique qui varie suivant le style du jeu (gothique, antique, tarot de Marseille traditionnel, humoristique, etc.) contribuent à la communication visuelle. Elles peuvent être mises en valeur par la couleur du fond, certains objets apparents sur la photo, etc. Certains tarologues adoptent une vision relativement humoristique du tarot, permettant de le dédramatiser.

The Conversation

J'ai interviewé des tarologues dans le cadre de la recherche ayant donné lieu à un article dont ma proposition pour The Conversation est issue. Certaines citations des ces entretiens apparaissent dans le texte.

15.01.2026 à 15:51

Face à l’IA, les médias ne pourront pas faire l’économie d’une profonde remise en question de leur mode de fonctionnement

Henri Isaac, Maître de conférences en sciences de gestion, Université Paris Dauphine – PSL
img
Les IA génératives obligent les médias à revoir leur modèle d’affaires. Le risque est de perdre des lecteurs et des recettes publicitaires et d’entrer dans une logique low cost.
Texte intégral (2808 mots)

L’intelligence artificielle remet profondément en cause la raison d’être des médias et leur modèle d’affaires. Leur survie pourrait passer par une rapide réflexion sur ce qui fait leur cœur de métier, à l’image de la politique suivie par le New York Times. Au risque de sombrer dans des offres très low cost ou de devenir des fournisseurs des géants de l’IA.


Trois ans après l’irruption de ChatGPT, les médias cherchent comment se positionner vis-à-vis de l’intelligence artificielle (IA) générative. Avec les précédentes vagues de numérisation (Web, plateformes sociales), les entreprises de médias ont dû faire face à une baisse d’audience ou à des problèmes de distribution de leurs contenus. L’arrivée de l’IA pose une question beaucoup plus existentielle à ces entreprises : celle de la pérennité à très court terme de leur modèle d’affaires, soit la façon dont l’entreprise opère et crée de la valeur pour ses parties prenantes.

Déstabilisés, les médias abordent cette nouvelle phase dans une position affaiblie. Faiblesse économique avec des pertes massives d’audiences, qui se traduisent pour certains par une chute des recettes publicitaires et d’abonnés. WPP, la principale agence mondiale de publicité, prévoit que les recettes publicitaires sur les plateformes (Instagram, TikTok, YouTube, etc.) de contenus générés par les utilisateurs dépassent en 2025 les recettes des médias historiques. Seuls 11 % des Français sont abonnés à un média en ligne en 2025.

La valeur du journalisme discutée

À cela s’ajoute un affaiblissement du rôle institutionnel des médias historiques. La confiance dans les médias connaît une érosion continue, particulièrement marquée en France. Seuls 29 % des Français ont confiance dans les médias contre 38 % en 2015, ce qui place la France au 41e rang mondial de l’indice de confiance analysé par le Reuters Institute dans son digital report].

Outre la fatigue informationnelle, une partie importante de la population manifeste une volonté d’évitement des médias historiques. Plus ces personnes consomment de contenus sur les plateformes sociales, plus elles remettent en question les règles et normes du journalisme.


À lire aussi : Quand les IA cadrent l’information et façonnent notre vision du monde


Un risque de disparition pure et simple

Dans cette situation difficile, les enjeux de l’IA peuvent apparaître différents pour la radio, la télévision et la presse. Clonage de voix, génération automatisée de vidéo, avatar (présentateur), génération automatique d’articles, chaque famille de médias doit relever ses propres défis. Mais la transformation des médias historiques en plateformes multimédias produisant des contenus dans des formats toujours plus nombreux (vidéo, podcast, article vocalisé, transcription de vidéo, sous-titrage) leur forge un destin commun face à l’IA.

Si, pour l’heure, les médias ont pour la plupart évité de repenser leur modèle d’affaires dans la phase de numérisation précédente, le déploiement des infrastructures cognitives, l’arrivée des moteurs de réponses (answer engine) remplaçant les moteurs de recherche (search engine), leur impose de le repenser entièrement sous peine de disparation.

Choisir un modèle low cost

Comme de nombreux marchés, les médias font face à l’irruption d’un modèle low cost que l’IA générative rend de plus en plus possible en compressant les coûts de plusieurs maillons de la chaîne de valeur. Génération de titres, édition d’articles, production d’images et de vidéos, doublage, traduction multilingue, sous-titrage, indexation automatisée, le champ d’applications de l’IA générative est très large et offre de substantielles sources de réduction de coûts. Dans ce modèle low cost, l’IA est déployée sur les processus internes, sur les fonctions de production de l’information (back-office) sans être utilisée directement dans la relation directe avec l’audience.

Dans le contexte de fragilité financière de bien des médias, succomber à une promesse d’une baisse des coûts est très tentant. Sous pression, les médias ont d’ores et déjà réduit une partie de leurs coûts de production en s’appuyant sur de larges systèmes de sous-traitances. Aller plus loin, au risque de dégrader la qualité des contenus rapprocheraient dangereusement les médias des producteurs de fermes de contenus produits par l’IA. Ces acteurs, qui se multiplient, contribuent à dégrader la qualité de l’espace informationnel, phénomène qualifié d’« _AI slop* » ».

Vendre des licences

Par ailleurs, les usages croissants des outils conversationnels fondés sur l’IA, comme ChatGPT, devraient conduire à modifier profondément la construction des audiences numériques. Le modèle actuel repose très largement sur les flux générés par les grandes plateformes, à commencer par Google. Le passage d’un moteur de recherches (search engine Google) à un moteur de réponses (answer engine, ChatGPT) pourrait réduire fortement le trafic vers les sites des médias, les utilisateurs se contentant de la réponse des outils d’IA. La captation par les producteurs d’IA d’une part substantielle des recettes de médias historiques les affaiblirait à nouveau.

Dans ce monde nouveau du « zéro clic », les acteurs de l’IA réintermédient la relation entre les médias et les audiences. Cette position pourrait les amener à développer une offre publicitaire qui produirait une nouvelle baisse des recettes des médias. Dans un tel environnement, les médias se trouveraient dans la position de fournisseur des acteurs de l’IA. Les médias peuvent proposer des données d’entraînement des modèles d’IA grâce à leurs archives indexées et des données fraîches dont les modèles d’IA sont dépourvus par définition.

L’enjeu pour les entreprises du secteur est alors de négocier au mieux la valeur des contenus fournis. Mais le rapport de force n’est pas forcément en faveur des médias et risque de conduire à des accords de licence peu rémunérateurs, l’information étant vue comme une commodité – une matière première – par les acteurs de l’IA.

Certifier et labelliser l’information

Afin d’augmenter la valeur de ces contenus, les médias pourraient les certifier comme provenant d’un média labellisé JTI (Journalism Trust Initiative) (1), si tant est que traçabilité et certification soient valorisées par les utilisateurs, justifiant une rémunération supérieure. Compte tenu de la faible confiance accordée aux médias, on peut douter de leur capacité à imposer un tel modèle de valeur aux producteurs d’IA.

Dans ce modèle business-to-business-to-consumer (B2B2C) de producteur certifié, dans lequel les médias produiraient des contenus en marque blanche, la valeur de leur marque risque de s’éroder. Ce modèle n’est donc guère souhaitable à long terme. En effet, il est hautement probable qu’il se combine au modèle low cost afin de maintenir des coûts de production d’autant plus faibles que les producteurs d’IA chercheront à obtenir des prix plus bas. Détenant la relation avec le consommateur final, ils pourront aisément mettre en concurrence les différents médias.

Un nouveau modèle ?

Être un des fournisseurs des producteurs d’IA ne pouvant suffire à garantir la pérennité des médias à long terme, repenser la proposition de valeur des médias est donc essentiel. Si le cœur de celle-ci doit rester la fourniture d’une information fiable et/ou d’une expérience de divertissement riche et unique, les médias cherchent depuis plusieurs années à enrichir cette proposition de valeur par des diversifications d’activités, qui n’ont pas abouti pour le moment à des offres distinctes à même d’assurer le développement et la pérennité des médias.

Le développement des agents d’IA crée de nouvelles expériences pour les utilisateurs. Davantage conversationnelles, elles nécessitent d’adapter l’offre proposée. Autrement dit, les médias devront franchir le pas de l’utilisation de l’IA dans l’interaction avec les audiences.

Cette véritable mutation devrait être l’occasion de repenser l’offre en termes de services. La transformation numérique est la généralisation d’une tendance plus vaste de transformation des produits en services, dont les médias se sont tenus éloignés jusqu’à aujourd’hui. Ce mouvement déplace le cœur de la création de valeur de l’échange vers l’usage. La valeur n’est plus tant dans la transaction et le transfert vers le client d’un produit (le journal, le film, l’article, etc.) que dans l’usage que le client en fera. Dans l’espace numérique, cet usage peut être approché, géré, développé grâce aux données produites par les dispositifs qui soutiennent ses services.

Le « New York Times », exemplaire ?

Le cas du New York Times illustre bien cette logique servicielle. Après avoir acquis plusieurs acteurs (WireCutter, 2016, The Athletic, Wordle 2022), le New York Times a cessé de promouvoir l’offre dite « news-only » dans ses campagnes marketing et pousse systématiquement l’accès via l’offre groupée News + Games + Cooking + Wirecutter + The Athletic + Audio.

En 2025, la refonte de l’application mobile fait de l’offre groupée la porte d’entrée unique d’un ensemble Read-Play-Swipe où l’on accède indifféremment aux articles, aux rubriques jeux, cuisine et audio. Chaque verticale proposée est conçue autour d’usages concrets : s’informer, se détendre, préparer à manger, choisir un produit, suivre son club, remplir un temps mort.

Cette offre multiservice repose sur plusieurs tâches de la vie quotidienne. La logique n’est plus seulement « le journal du jour », mais une disponibilité permanente de services d’actualités : push personnalisés, dossiers, explications pédagogiques (explainers, chronologies), alertes thématiques. L’abonné à l’offre groupée est en relation quasi permanente avec la marque via des usages variés tout au long de la journée, ce qui augmente son engagement et facilite la rétention des clients.

Dans cette logique de servicisation, le New York Times vend de moins en moins un produit (un PDF, un numéro) et de plus en plus un flux continu d’aides pour comprendre le monde, accessible partout, synchronisé entre web, app et audio. Les jeux servent de porte d’entrée vers l’offre groupée. Les nouveaux abonnés arrivant par ce canal sont ensuite orientés vers les autres services. Les jeux fonctionnent comme un service de fidélisation. Quand l’actualité est déprimante, ils offrent un usage positif et stable, qui protège la relation d’abonnement. On est typiquement dans une logique de valeur d’usage. Le consommateur ne paie pas pour « avoir des grilles de mots croisés ou de sudoku », mais pour un moment quotidien de détente intellectuelle, ritualisé.

Nouveaux liens avec le client

NYT Cooking fonctionne comme une application de service culinaire, pour répondre quotidiennement à la question « Qu’est-ce qu’on mange ce soir ? » Là encore, la valeur n’est plus seulement informative (lire des recettes). Elle est aussi pratique en proposant des outils d’aides à la planification des repas, la gestion du temps, l’inspiration. Surtout, le service s’intègre dans la routine familiale. Le New York Times a même signé un partenariat avec le service de livraison de courses Instacart pour les abonnés du service NYT Cooking.

France Culture, 2025.

Wirecutter est, quant à lui, un service d’aide à la décision (choisir un aspirateur, un smartphone, un matelas), une sorte de « conseiller personnel » plutôt qu’une rubrique consommation classique. Pour le New York Times, c’est une source de revenus diversifiés (affiliation) et un moyen de couvrir une autre dimension de la vie quotidienne, complémentaire de l’information et du divertissement.

The Athletic est un service de suivi sportif, organisé par club, ligue, compétition, avec analyses et podcasts qui captent des abonnés dont le besoin est davantage de « suivre [s]on équipe/[s]on sport » que l’actualité générale. C’est un service pour passionnés. Désormais, le quotidien offre un ensemble de contenus, notifications, podcasts, analyses autour d’une communauté de fans.

Un actif insuffisamment inexploité : les archives

Ce cas de servicisation d’un média se décline pour d’autres, comme la presse locale. Des services centrés sur la ville, le territoire, sont envisageables y compris le suivi fin de la démocratie locale grâce aux données ouvertes.

La presse magazine peut dans la logique de Wirecutter du New York Times bâtir des services de coaching sur de nombreux sujets dont elle a l’expertise nécessaire. Cette logique servicielle permet aux médias d’être un moteur de réponses (answer engine) et de rivaliser grâce à leurs expertises avec des services d’IA.

Dans cette perspective, les actifs accumulés (archives) retrouvent de la valeur. Articulés avec les compétences journalistiques, elles constituent la base d’un avantage concurrentiel face aux IA conversationnels en fournissant des réponses fiables, documentées et articulées. Il n’en demeure pas moins que cette transformation profonde du modèle de média est une source de tensions au sein des médias et appelle à un véritable aggiornamento culturel.

Ne pas répéter les erreurs du passé nécessite de dépasser des logiques de stratégies individuelles qui ne garantissent pas la pérennité à long terme. À cet égard, les tentatives d’actions collectives, comme la mutualisation des inventaires publicitaires, la création d’un identifiant unique pour les médias à des fins publicitaires, les négociations avec les grandes plateformes numériques, montrent bien que les médias n’ont pas réussi jusqu’ici à se coaliser de façon efficace face aux enjeux communs.

La situation appelle à l’abandon de telles postures tant l’avenir apparaît sombre. Il est urgent de dépasser les antagonismes pour bâtir un espace numérique informationnel et faire émerger de nouveaux modèles d’affaires pérennes.


(1) The Conversation France est labellisé JTI depuis 2025 (ndlr).

The Conversation

Henri Isaac est membre du Think tank Renaissance Numérique.

15.01.2026 à 10:30

La faute de nos biais cognitifs, vraiment ? Comment cette notion fabrique l’inaction écologique

Pierre-Yves Carpentier, Doctorant en Psychologie Sociale, Politique et Environnementale, Université Côte d’Azur
Benoît Dérijard, Chercheur en écologie marine, Université Côte d’Azur
Clara Vincendon, Doctorante en psychologie sociale et de l'environnement, Université Côte d’Azur
img
Les biais cognitifs servent souvent d’alibi à l’inaction écologique, ce qui occulte des causes systémiques essentielles, comme le montre l’exemple des océans.
Texte intégral (2295 mots)

Face à l’urgence écologique, l’inaction est souvent justifiée par nos biais cognitifs individuels. Mais cette lecture psychologisante occulte l’essentiel. Des causes politiques, économiques et sociales sont à l’œuvre dans l’effondrement du vivant actuel. On le verra à travers l’exemple des océans et des milieux marins.


Face à l’urgence climatique, pourquoi sait-on mais n’agit-on pas ? Telle est la question posée par l’activiste Camille Étienne dans son documentaire Pourquoi on se bat ? (2022). Parmi ses invités figure Sébastien Bohler, journaliste et chroniqueur, notamment connu pour son essai le Bug humain (2019). Dans l’ouvrage, il explique que notre cerveau privilégierait le court terme au détriment de la planète. Il en conclut qu’il faut rééduquer notre cerveau pour déclencher l’action collective.

Ce discours, qui attribue l’inaction écologique à des biais cognitifs, c’est-à-dire à des mécanismes automatiques du cerveau, est repris par de nombreuses communications grand public. Sa simplicité est séduisante, mais il pose plusieurs problèmes. En effet, il ne dit rien des écarts considérables de comportements que l’on peut observer entre individus ou sociétés, il occulte les facteurs politiques, économiques et culturels et surtout il offre un alibi aux industries qui ont tout intérêt à maintenir l’exploitation intensive de la nature.

Cette explication est attrayante, mais ne permet pas de comprendre ce qui organise l’inaction ni d’y apporter des solutions concrètes et efficaces. Le cas du milieu marin illustre particulièrement cette logique : la gouvernance de l’océan est particulièrement délicate dans un contexte où prédomine l’exploitation économique, alors que les problèmes qui en découlent (catastrophes environnementales, destruction des moyens de subsistance de celles et ceux qui en dépendent ailleurs dans le monde…) sont souvent invisibilisés.

L’exemple des océans

L’océan constitue un bon exemple des limites de ce discours. Il s’agit du principal espace naturel à être exploité en continu à l’échelle planétaire : pêche, transport maritime, tourisme, sans parler de l’exploitation minière. Les prélèvements massifs y ont conduit à un effondrement global des espèces marines.

Cette découverte est relativement récente. En effet, la recherche océanographique s’est développée plus tardivement que ses équivalents terrestres, du fait, entre autres raisons, des difficultés d’accès du milieu marin. Ce retard explique en partie pourquoi la prise de conscience environnementale liée à la mer a été plus tardive que celle concernant les forêts ou les terres agricoles, par exemple.

De plus, l’océan a un statut particulier : c’est un bien commun global. Or, dans notre économie actuelle, les ressources libres et non régulées tendent à être surexploitées, les acteurs économiques cherchant à maximiser leurs bénéfices individuels avant que la ressource ne s’épuise. Cette dimension collective rend la gouvernance océanique complexe et retarde sa mise en place, puisqu’elle est dépendante de la coopération internationale.

Surtout, l’océan est un milieu qui nous est étranger : la dégradation des fonds, la raréfaction des espèces ou l’acidification des eaux se produisent hors de nos champs sensoriels. Ce contexte est particulièrement propice à l’émergence de biais cognitifs pour expliquer leur effondrement écologique.

Des biais réels mais surestimés

Depuis les années 1980, la recherche sur le sujet a montré qu'il existait à la fois des biais psychologiques et des remèdes à ces derniers. Pour n’en citer que quelques-uns : biais d’optimisme, de présentisme (c'est-à-dire, notre tendance à préférer les résultats immédiats au détriment des résultats futurs) ou encore distance psychologique.

Appliqués à l’écologie, ils se traduisent par une minimisation des risques environnementaux, qui sont alors perçus comme lointains, temporaires ou réversibles. De ces constats naît l’idée que l’inaction environnementale serait préprogrammée dans notre cerveau de façon universelle et que les solutions devraient viser cette partie rétive de nos psychologies.

Autre exemple : le phénomène de « shifting baseline » (aussi appelé amnésie environnementale), qui décrit la tendance pour chaque nouvelle génération à réévaluer comme « normal » un état de plus en plus dégradé de la nature. Pour le milieu marin, les professionnels prennent alors pour référence des niveaux de biodiversité déjà appauvris. Chaque nouvelle étape de dégradation des écosystèmes est ainsi intégrée comme un nouvel état stable, ce qui rend la perte globale plus difficile à voir.

Les biais cognitifs possibles sont nombreux : les facteurs individuels participant à l’inaction écologique sont depuis longtemps étudiés, connus et intégrés. Mais leur influence sur l’inaction climatique est surestimée.


À lire aussi : Inaction climatique : et si on était victime du biais de « statu quo » ?


Quand les biais cognitifs tombent à l’eau

Souvent mobilisés pour expliquer les comportements humains, ces biais peinent pourtant à décrire toute la réalité. Raisonnons par l’absurde : s’il existe des biais universels qui nous poussent à minimiser les enjeux environnementaux, voire à détruire l’environnement, comment expliquer les écarts parfois importants en termes de croyances et de comportements que l’on peut observer d’une personne à l’autre, d’une société à l’autre ?

Comment expliquer que, pour nombre de sociétés, le terme de nature n’existe tout simplement pas, parce qu’il n’y a pas de différence faite entre ce qui est considéré comme soi (humain) et comme autre, animal ou végétal ?

L’effondrement écologique ne peut se comprendre sans faire l’analyse des sociétés qui y contribuent et qui exacerbent nos biais individuels. Dans nos sociétés industrialisées, l’accroissement du capital structure à la fois nos environnements sociaux et nos motivations. Or, l’avènement des sociétés capitalistes n’a pas été le résultat de seuls biais cognitifs ou de processus biologiques universels : il a été mené par une petite fraction de l’humanité qui, avec les moyens matériels et politiques adéquats, a pu l’imposer à la majorité, entraînant la rupture des rapports sociaux et environnementaux préexistants.

Dans les milieux marins, l’effondrement écologique s’explique surtout par les conditions économiques et politiques qui le rendent possible à l’échelle globale : pêche industrielle peu régulée, marchandisation de la biodiversité marine (tourisme, aquaculture…), intérêts économiques et politiques liés au contrôle de l’extraction minière et énergétique (hydrocarbures offshore, minerais marins)… Le tout inscrit dans un système économique global fondé sur l’accumulation.

Tout cela montre que l’effondrement écologique actuel est davantage la conséquence d’arrangements sociopolitiques que de biais cognitifs individuels qui nous pousseraient naturellement à détruire les écosystèmes. Il nous faut sortir de cette vision et agir sur les causes systémiques qui produisent l’inaction.

En effet, nous pouvons agir sur les organes politiques et économiques qui encadrent la gestion des milieux naturels, dont les milieux marins. Or, c’est précisément ce que les discours majoritaires sur les biais psychologiques empêchent de faire. En légitimant l’idée selon laquelle ces biais universels – car inscrits dans notre biologie – seraient à l’origine des problèmes d’exploitation, ils invisibilisent les rapports de pouvoir, déresponsabilisent les politiques et fournissent des outils permettant ensuite de justifier l’inaction.


À lire aussi : Climat : comment l’industrie pétrolière veut nous faire porter le chapeau


Déplacer la focale de l’individuel au collectif

Que faire ? Individuellement, il est bien sûr possible d’agir sur sa consommation de produits issus de la surpêche et de l’exploitation animale, de limiter les déplacements polluants ou encore de rejoindre des collectifs afin de gagner en capacité d’action et d’information.

Quels arguments pour convaincre et engager à l’action ? La recherche en psychologie et en communication environnementale a identifié six « vérités clés » :

  • le changement climatique existe,

  • il est créé par nos sociétés industrielles,

  • il existe un consensus scientifique,

  • il a des conséquences graves sur l’humanité et la biodiversité,

  • la majorité des personnes en sont inquiètes et veulent agir,

  • enfin, des actions efficaces existent.

L’action collective doit ensuite œuvrer à tous les niveaux, du local à l’international, en gardant pour boussole :

  • le respect des droits et de la dignité des populations,

  • une gouvernance la plus égalitaire et démocratique possible,

  • et la mise en place de mesures efficaces, contrôlées et collaboratives de gestion des biens communs, tels que des aires marines protégées exigeantes.

Les aires marines protégées, en fonction de leur degré de protection, peuvent être plus ou moins efficaces. Issu de Kirsten Grorud-Colvert et al. (2021)

L’effondrement du climat et de la biodiversité ne sont donc pas des fatalités, mais les conséquences des systèmes sur lesquels nous pouvons avoir un impact – à condition de les réorienter vers des modèles plus justes et soutenables.

The Conversation

Pierre-Yves Carpentier est membre de l'association Alternatiba06 qui œuvre pour l'écologie.

Benoit Dérijard a reçu des financements du CNRS (Centre National de la Recherche Scientifique), de l'Université Côte d'Azur, du FEAMPA (Fonds Européen pour les Affaires Maritimes, la Pêche et l'Aquaculture), de la Région Sud et de l'OFB (Office Français de la Biodiversité).

Clara Vincendon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.01.2026 à 10:30

Faut-il en finir avec les incitations à mieux gérer nos déchets ? Le problème posé par les sciences comportementales

Camille Dormoy, Docteure en sociologie, spécialiste des politiques publiques de gestion des déchets/économie circulaire, Université de Picardie Jules Verne (UPJV)
img
Réduire les déchets à coups d’incitations individuelles séduit les institutions. Mais cette approche masque les causes sociales, matérielles et politiques du problème.
Texte intégral (1896 mots)

Pour réduire les déchets, les politiques publiques misent de plus en plus sur les sciences comportementales, comme les « nudges » (dispositifs de suggestion). Cette idée est séduisante, mais elle déplace la responsabilité d’un problème systémique vers les individus. Les défauts de tris et autres dépôts sauvages sont alors souvent requalifiés comme de « mauvais comportements ». Le problème de cette approche ? Elle invisibilise les déterminants matériels, sociaux et politiques de la production des déchets.


Depuis une dizaine d’années, les collectivités territoriales, les agences nationales et une partie du secteur privé se sont engouffrées dans une voie présentée comme prometteuse : l’application des sciences comportementales à la réduction des déchets.

L’idée est que si les individus trient mal, jettent au mauvais endroit ou produisent trop de déchets, c’est qu’ils manquent d’information, de motivation ou parce que les dispositifs censés orienter leurs gestes (emplacement des bacs, lisibilité des consignes…) n’envoient pas les « bons signaux ». Des campagnes fondées sur les « nudges », des dispositifs incitatifs ou des signalétiques présentées comme « engageantes », sont alors présentées comme suffisantes pour transformer les comportements ordinaires et les pratiques quotidiennes.

Ce récit séduit. En effet, il permet d’agir vite, à moindre coût, et sans remettre en cause les logiques structurelles qui génèrent les déchets. Mais cette vision est réductrice. Elle repose sur une vision des conduites humaines qui méconnaît profondément les rapports sociaux, les conditions d’habiter, les trajectoires résidentielles, les inégalités matérielles et symboliques.

Surtout, elle déplace la question politique des déchets à l’échelle des individus. Ce faisant, elle en assigne la responsabilité aux habitants, présentés comme des acteurs indisciplinés mais rationalisables à coups de micro-incitations.


À lire aussi : Les mots de la gestion des déchets : quand le langage façonne nos imaginaires


Dispositifs défaillants et production institutionnelle de la stigmatisation

Sur le terrain, les observations ethnographiques montrent un paysage différent. Il est davantage structuré par des dispositifs sociotechniques, économiques, organisationnels que par les intentions individuelles.

Dans de nombreux quartiers, le tri est entravé par des infrastructures inadaptées. Citons par exemple les vide-ordures encore en usage qui empêchent toute séparation des flux à la source, l’absence d’espaces de stockage dans les logements, les bacs trop éloignés ou difficilement accessibles… certains dispositifs semblent conçus sans avoir tenu compte des pratiques quotidiennes de circulation des habitants. On peut ainsi penser aux points d’apport volontaire dispersés sur plusieurs centaines de mètres, qui imposent de longs trajets pour trier le verre, le papier et les plastiques.

Ces contraintes matérielles façonnent les gestes quotidiens, bien davantage qu’un prétendu manque de volonté ou de sensibilisation. S’y ajoute un autre phénomène, particulièrement saillant dans les quartiers populaires : des pratiques de circulation d’objets – don, récupération, redistribution informelle – se trouvent placées sous un régime de suspicions et de sanctions.

Autrement dit, ce qui relevait auparavant d’une économie populaire du réemploi est désormais requalifié en dépôts sauvages et incivilités. Et cela non pas parce que les pratiques auraient nécessairement changé, mais parce que leur visibilité est perçue comme un problème par les institutions.

Cette requalification transforme des logiques de subsistance ou de solidarité en manquements à la norme. Dans ce cadre, les acteurs institutionnels chargés de la gestion des déchets valorisent avant tout une logique de salubrité publique. Leur action se concentre alors sur l’évacuation, la disparition rapide des traces, l’entretien visuel de la voie publique. Le déchet y est traité comme un rebut dont il faut se débarrasser, et non comme une ressource susceptible d’être valorisée. Ainsi, des objets laissés temporairement dans l’espace public dans l’attente d’un repreneur ou d’un réemploi sont ramassés par les camions de collecte. Et ce faisant, définitivement soustraits à toute possibilité de réutilisation, parfois réduits à l’état de déchets ultimes par le broyage.

Ce glissement est lourd d’effets. Dans ces quartiers, les déchets deviennent des marqueurs sociaux. Ils servent à requalifier des groupes, à leur attribuer des comportements naturalisés, à désigner des « responsabilités » qui coïncident souvent avec des stigmatisations ethno-sociales préexistantes.

La propreté devient alors un instrument de classement. La figure de l’« habitant défaillant » se substitue aux défaillances structurelles des dispositifs sociotechniques, économiques et organisationnels. Rebut d’un côté, ressources de l’autre : la distinction n’est pas seulement technique, elle est sociale et politique. Elle organise la manière dont les territoires sont perçus, traités et hiérarchisés.


À lire aussi : Pollution, un mot qui permet aussi d’opérer un classement social


Les sciences comportementales masquent les vrais enjeux

Dans ce contexte, le recours aux sciences comportementales agit comme un masque. Il détourne l’attention des problèmes très concrets qui structurent la gestion des déchets au quotidien :

  • infrastructures défaillantes ou mal pensées (vide-ordures qui encouragent à jeter sans trier, locaux poubelles saturés, équipements peu lisibles),

  • conditions de travail éprouvantes (gardiens inexistants ou cantonnés à « tenir » les parties communes sans moyens ni formation sur le tri, prestataires de nettoiement soumis à des règles strictes et à des cadences élevées),

  • et des conflits permanents entre acteurs (bailleur, métropole, prestataires, habitants).

Au lieu de rendre ces dysfonctionnements visibles, l’analyse se concentre sur le dernier maillon de la chaîne : l’habitant, présenté comme celui qui se trompe, résiste ou ne fait pas assez d’efforts. C’est pourtant l’organisation du système qui crée les conditions mêmes de ces « mauvais gestes ».

Les éboueurs, les agents de tri, les services techniques et les décisions politiques disparaissent derrière une théorie simplifiée des comportements, où l’individu devient un point d’application dépolitisé. Pour les instituions, cette approche est séduisante à plusieurs titres :

  • d’abord parce qu’elle promet des résultats visibles à court terme ;

  • ensuite, parce qu’elle évite d’avoir à ouvrir le dossier – plus coûteux et plus conflictuel – de la réduction à la source, de la régulation de la production, ou de la reconfiguration des infrastructures (transformation matérielle et organisationnelle des dispositifs existants). Cela impliquerait ainsi de remettre en cause des équipements qui orientent structurellement les pratiques vers l’évacuation plutôt que vers la valorisation. Ou encore de redéfinir le rôle des acteurs de terrain – gardiens, agents de propreté, prestataires –, aujourd’hui cantonnés à une gestion de la salubrité visible ;

  • enfin, elle s’accorde avec une conception néolibérale de l’action publique où chacun est sommé d’être responsable de son empreinte.

Pourtant, cette logique se heurte à deux limites majeures.

La première tient aux résultats eux-mêmes de ces interventions comportementales. D’abord, leurs effets sont difficiles à mesurer. Elles peuvent également se révéler peu durables, puisque fortement dépendante des configurations sociales et matérielles dans lesquelles elles sont déployées. Enfin, elles peuvent modifier les comportements à court terme, mais ces ajustements se défont rapidement lorsque les incitations cessent, tant que l’organisation concrète reste inchangée. En pratique, les effets observés dans des cadres expérimentaux se révèlent difficiles à transposer durablement dans les contextes ordinaires.

La seconde limite est politique. En recentrant l’attention sur les comportements individuels, ces interventions contribuent à déplacer la responsabilité vers ceux qui disposent de la marge de manœuvre la plus étroite. Les habitants les plus précaires deviennent les premiers visés par ces dispositifs correctifs, alors même qu’ils subissent des infrastructures défaillantes et des conditions d’habiter plus contraignantes que d’autres.

Pendant ce temps, les ressorts structurels de la production de déchets demeurent intouchés. L’action publique se focalise ainsi sur ceux qui ont le moins de pouvoir d’action et épargne ceux qui déterminent réellement les volumes et les flux.

Sortir de la vision psychologisante de la gestion des déchets

En finir avec les sciences comportementales appliquées à la gestion des déchets ne signifie pas rejeter toute forme d’attention aux pratiques quotidiennes et individuelles. Cela implique plutôt de déplacer son centre de gravité. Pour cela, il convient de sortir d’une vision psychologisante, de réintroduire les dimensions matérielles, institutionnelles, historiques, politiques et sociales, et enfin de reconnaître que les déchets ne sont pas seulement une affaire d’individus mais aussi de systèmes.

Les infrastructures, les logiques économiques de production, la division sociale du travail, les politiques urbaines et les rapports de pouvoir façonnent bien davantage les volumes, les flux et les gestes que ne le feront jamais les autocollants sur un bac jaune.

Si les sciences comportementales ont pu offrir quelques outils ponctuels, elles ne constituent ni une théorie sociale ni une politique publique durable. La gestion des déchets exige une compréhension plus exigeante, celle d’un monde où la matérialité, les normes, la stigmatisation, les inégalités et les infrastructures s’entremêlent. S’y dérober en réduisant sa complexité à des micro-incitations n’est pas seulement inefficace, c’est aussi renoncer à penser ce que les déchets révèlent réellement de nos sociétés.

The Conversation

Camille Dormoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.01.2026 à 17:12

Iran : l’adhésion prudente des minorités ethniques au mouvement de protestation

Shukriya Bradost, Ph.D. Researcher, International Security and Foreign Policy, Virginia Tech
img
Les revendications des minorités ethniques iraniennes diffèrent de celles de nombreux habitants de Téhéran.
Texte intégral (3326 mots)
Manifestants à Téhéran, 10&nbsp;janvier 2026. Fourni par l'auteur

Près de la moitié des Iraniens ne sont pas des Perses. Si les habitants des régions périphériques — Kurdistan, Baloutchistan, Azerbaïdjan… — soutiennent le mouvement de contestation, ils redoutent également un éventuel retour de la monarchie Pahlavi, qui ne leur a pas laissé que de bons souvenirs…


Lorsque les manifestations actuelles en Iran ont commencé au Grand Bazar de Téhéran le 28 décembre 2025, le gouvernement les a d’abord considérées comme gérables et temporaires.

Les marchands des bazars ont toujours fait partie des groupes sociaux les plus conservateurs du pays, profondément ancrés dans la structure économique de l’État et étroitement liés au pouvoir politique. Le gouvernement estimait donc que leurs protestations n’étaient pas de nature révolutionnaire et qu’il ne s’agissait que d’une campagne de pression de courte durée visant à stabiliser une monnaie, le rial, en chute libre et à freiner l’inflation — deux phénomènes menaçant directement les moyens de subsistance des commerçants.

Lors de sa première réaction publique au mouvement du bazar, le guide suprême iranien Ali Khamenei a ouvertement admis que les commerçants avaient des raisons d’être mécontents. C’était la première fois qu’il reconnaissait la légitimité d’une manifestation contestataire. Rappelant l’alliance historique entre l’État et le bazar, il a indiqué que le gouvernement considérait que les troubles étaient maîtrisables.

Les autorités n’avaient pas prévu ce qui allait se passer ensuite : les manifestations se sont étendues à plus de 25 provinces et constituent désormais un risque direct pour la survie du régime, lequel a réagi par une répression violente au cours de laquelle plus de 6 000 personnes auraient déjà été tuées.

Spécialiste des groupes ethniques iraniens, j’ai observé la façon dont ces groupes minoritaires, malgré leurs doutes quant à l’issue du mouvement et quant aux projets de certaines figures centrales de l’opposition, se sont joints à la contestation.

Les minorités ethniques se joignent à la manifestation

L’Iran est un pays d’environ 93 millions d’habitants dont l’État moderne s’est construit autour d’une identité nationale centralisée, ce qui masque une importante diversité ethnique. La majorité perse représente 51 % de la population ; 24 % des habitants du pays s’identifient comme Azéris ; le nombre de Kurdes est estimé à entre 7 et 15 millions de personnes, soit environ 8 à 17 % de la population totale. Enfin, les minorités arabe et baloutche constituent respectivement 3 % et 2 % des Iraniens.

Carte de la répartition des groupes ethniques en Iran. Wikimedia

Depuis le lancement du projet de construction nationale par la monarchie Pahlavi en 1925, les gouvernements successifs, qu’ils aient relevé de la monarchie ou de la République islamique qui l’a renversée en 1979, ont toujours considéré la diversité ethnique comme un défi sécuritaire et ont réprimé à plusieurs reprises des revendications en faveur de l’inclusion politique, des droits linguistiques et de la gouvernance locale.

Dans les manifestations actuelles, les régions où les minorités sont présentes en nombre se sont au départ moins mobilisées que lors de la dernière vague importante de manifestations : celle de 2022-2023, conduite sous le slogan « Femme, vie, liberté », déclenchée par la mort d’une Kurde iranienne nommée Jina Mahsa Amini.

Les Kurdes ont commencé à se joindre aux manifestations actuelles le 3 janvier, dans la petite ville de Malekshahi (province d’Ilam). S’est ensuivie une violente descente des forces de sécurité contre des manifestants blessés à l’intérieur de l’hôpital d’Ilam, qui a provoqué l’indignation au-delà de la communauté locale et attiré l’attention internationale.

Depuis, les manifestations se sont poursuivies à Ilam. Dans la province voisine de Kermanshah, en particulier dans la région pauvre de Daradrezh, elles ont éclaté en raison de la précarité économique et de la discrimination politique dont les Kurdes sont victimes.

Une approche stratégique de la protestation

Les communautés d’Ilam et de Kermanshah continuent de subir une exclusion fondée sur leur identité kurde. Et ce, malgré le fait qu’elles partagent leur foi chiite avec le pouvoir en place à Téhéran — un facteur qui leur a historiquement permis d’avoir un meilleur accès au gouvernement que la population kurde sunnite.

À la suite du meurtre de plusieurs manifestants à Ilam et Kermanshah, les partis politiques kurdes ont publié une déclaration commune appelant à une grève dans toute la région.

Il convient de souligner que les dirigeants kurdes n’ont pas appelé à manifester, mais uniquement à faire grève. Lors du soulèvement « Femme, vie, liberté », le gouvernement avait traité les villes kurdes comme des zones rebelles, qualifiant les manifestations de « menace pour l’intégrité territoriale de l’Iran » et utilisant cette justification pour procéder à des massacres et à des exécutions massives.

En optant cette fois-ci pour des grèves, les dirigeants kurdes ont cherché à manifester leur solidarité avec le mouvement qui touche l’ensemble du pays tout en réduisant le risque de subir un nouveau massacre.

Téhéran, 10 janvier 2026. Fourni par l’auteur, CC BY

L’appel a été suivi : presque toutes les villes kurdes se sont retrouvées à l’arrêt.

Le Baloutchistan, dans le sud-est de l’Iran, a rapidement suivi le Kurdistan. Après les prières du vendredi 9 janvier, des manifestations ont éclaté, également motivées par la marginalisation ethnique et religieuse que la région subit depuis longtemps.

L’Azerbaïdjan iranien, une région située dans le nord-ouest du pays, s’est joint à la contestation plus tard et plus prudemment. Cette manifestation tardive et modeste reflète la position favorable dont jouissent actuellement les Azéris au sein des institutions politiques, militaires et économiques iraniennes. Historiquement, du XVIe siècle à 1925, les Turcs azéris chiites ont dominé l’État iranien, l’azéri étant la langue de la cour.

La période de la monarchie Pahlavi a marqué une rupture : la langue azérie a été interdite et l’autonomie locale réduite. Mais depuis 1979, la République islamique a partiellement restauré l’influence azérie, autorisant les religieux à s’adresser à leurs fidèles dans leur langue maternelle et intégrant des personnes d’origine azerbaïdjanaise dans le gouvernement central à Téhéran. L’actuel guide suprême, Ali Khamenei, est d’ailleurs d’origine azérie.

Une longue histoire de répressions

Des mouvements politiques de nature ethnique ont vu le jour dans tout l’Iran immédiatement après la révolution de 1979, que de nombreux groupes minoritaires avaient soutenue dans l’espoir d’obtenir une plus grande inclusion et des droits plus étendus.

Mais ces mouvements ont été rapidement réprimés : la République islamique a écrasé les soulèvements dans l’Azerbaïdjan iranien, le Baloutchistan, le Khouzestan et d’autres régions périphériques.

Le Kurdistan a été l’exception : la résistance, les affrontements militaires et les violences étatiques, y compris les massacres, s’y sont poursuivis pendant plusieurs années.

Cette répression et l’impact de la guerre Iran-Irak, durant laquelle la mobilisation nationale a éclipsé les griefs internes, ont étouffé les revendications des minorités ethniques tout au long des années 1980. Celles-ci ont refait surface dans les années 1990, notamment sous l’impulsion d’un renouveau culturel et de la formation d’identités transfrontalières après l’effondrement de l’Union soviétique. Au Kurdistan iranien, la lutte armée a largement évolué en une lutte civile, tandis que de l’autre côté de la frontière, au Kurdistan irakien, les forces peshmergas ont conservé leurs armes et leur entraînement militaire. Le gouvernement iranien a considéré ce réveil comme une menace stratégique et a réagi en décentralisant les autorités sécuritaires et militaires afin de pouvoir réprimer rapidement les manifestations sans attendre l’approbation de Téhéran.

Les revendications divergentes des manifestants

Ces précédents expliquent pourquoi les manifestations actuelles en Iran ont été, du moins au début, plus centralisées que les soulèvements précédents. Les régions où vivent des minorités ethniques ne sont pas indifférentes au changement, mais leurs habitants sont sceptiques quant à l’issue du mouvement.

De nombreux manifestants des villes à majorité persane réclament des libertés sociales, une reprise économique et une normalisation des relations avec l’Occident, en particulier avec les États-Unis. Mais les communautés ethniques expriment des revendications supplémentaires : décentralisation du pouvoir, reconnaissance des droits linguistiques et culturels, et véritable partage du pouvoir au sein de l’État.

Depuis plus de quatre décennies, les revendications des minorités ethniques sont qualifiées par la République islamique de séparatistes ou de « terroristes » et ont donné lieu à de nombreuses arrestations et exécutions. Cette rhétorique a également influencé les principaux groupes d’opposition dominés par les Perses — couvrant tout le spectre idéologique, de la gauche à la droite, et opérant principalement en exil — qui perçoivent les exigences des minorités ethniques comme une menace pour l’intégrité territoriale de l’Iran.

La crainte d’un retour du chah

Reza Pahlavi, le fils exilé du dernier chah d’Iran, se positionne comme le leader de l’opposition et une figure de transition. Ce qui ne va pas sans inquiéter les communautés ethniques.

Le bureau de Pahlavi a publié une feuille de route pour un gouvernement de transition qui contraste fortement avec ses déclarations publiques selon lesquelles il ne cherche pas à monopoliser le pouvoir. Ce document présente Pahlavi comme un leader doté d’une autorité extraordinaire. Dans la pratique, la concentration du pouvoir qu’il propose sous sa direction ressemble fortement à l’autorité actuellement exercée par le guide suprême iranien.

Un manifestant brandit la photo d’un homme sur laquelle est inscrit « Roi Reza Pahlavi »
Reza Pahlavi, le fils du défunt souverain iranien Mohammad Reza Pahlavi, a vu son soutien augmenter parmi les manifestants, comme ceux que l’on voit ici en Allemagne le 12 janvier 2026. John Macdougall/AFP

Pour les groupes ethniques minoritaires, cette perspective est particulièrement préoccupante. La feuille de route qualifie leurs revendications de menaces pour la sécurité nationale, reprenant ainsi les discours étatiques traditionnels plutôt que de s’en éloigner. Cette position explicite a renforcé le scepticisme dans les régions périphériques à l’égard du système qui pourrait venir remplacer la République islamique si celle-ci venait à chuter.

Contrairement à l’ayatollah Khomeini en 1979, dont la vision révolutionnaire était délibérément vague quant au statut futur des groupes ethniques, le projet actuel des dirigeants de l’opposition dépeint un ordre politique centralisé qui exclut l’inclusion ethnique et le partage du pouvoir.

Pour les communautés dont les langues ont été interdites et dont les régions ont été systématiquement sous-développées pendant la monarchie, la résurgence des slogans monarchistes dans les villes centrales renforce la crainte qu’un changement de pouvoir aboutisse à une nouvelle marginalisation des régions périphériques du pays.

Le mouvement de contestation peut-il ignorer les sentiments des régions provinciales ?

Les manifestations actuelles révèlent donc plus qu’une simple résistance à un régime autoritaire. Elles mettent en évidence une division fondamentale sur la signification du changement politique et sur ceux à qui il profitera.

Dans un pays aussi divers sur le plan ethnique que l’Iran, où des millions de personnes appartiennent à des communautés ethniques non persanes, un ordre politique durable ne peut être fondé sur un pouvoir centralisé dominé par une seule identité ethnique.

Toute transition future, qu’elle passe par une réforme du système actuel ou par un changement de régime, aura plus de chances de réussir si elle s’inscrit dans un cadre politique qui reconnaît et intègre les revendications de toutes les régions et communautés. Sans cette inclusion, la confiance dans le processus de changement restera difficile à gagner et les espoirs d’un avenir meilleur s’amenuiseront.

The Conversation

Shukriya Bradost est affiliée au Middle East Institute.

14.01.2026 à 16:33

Sur quelles recommandations un dentiste s’appuie-t-il pour prescrire, ou non, des antibiotiques ?

Maruxa Zapata Cachafeiro, Profesora de Salud Pública, Universidade de Santiago de Compostela
Mª de la Almudena Rodríguez Fernández, Profesora de Medicina Preventiva y Salud Pública, Universidade de Santiago de Compostela
img
Selon une étude récente, les recommandations relatives à la prescription d’antibiotiques en dentisterie, quand elles existent, sont de qualités inégales d’un pays à l’autre.
Texte intégral (1394 mots)
En odontologie aussi, il est indispensable d’agir contre l’antibiorésistance en mettant à la disposition des chirurgiens-dentistes des guides de bonne pratique fiables pour accompagner leurs prescriptions d’antibiotiques. Ungvar/Shutterstock

Selon une étude récente, les recommandations relatives à la prescription d’antibiotiques en odontologie sont très variables et de qualités inégales d’un pays à l’autre… quand elles existent.


Nous savons tous qu’il faut faire bon usage des antibiotiques. Dans votre centre de santé, vous avez probablement vu une affiche ou une publicité qui alertent sur leur perte d’efficacité. Actuellement, la résistance des bactéries à ces médicaments est l’une des principales menaces qui pèse sur la santé mondiale.

Nous avons tous contribué, dans une plus ou moins grande mesure, à la situation dans laquelle nous nous trouvons. En tant que patients, nous sommes nombreux à avoir sauté une dose d’antibiotiques, à ne pas avoir terminé le traitement préconsié ou à avoir directement pris les comprimés qui nous restaient d’un traitement précédent. Une autre part importante de la responsabilité incombe au secteur de la santé, car les antibiotiques sont souvent prescrits de manière inutile ou inappropriée.

La solution apparaît pourtant évidente. Si les professionnels ne prescrivaient ces médicaments qu’en cas de nécessité et que les patients suivaient leurs conseils, cette partie du problème serait résolue. Mais ce n’est pas si simple. Du moins pour les dentistes.

Que penseriez-vous si votre dentiste vous prescrivait des antibiotiques alors que leur principe actif porte la mention « à déterminer » ? C’est pourtant bien cette prescription que ce professionnel de santé devrait suivre, dans certains cas, s’il utilisait comme unique source d’informations les guides de bonne pratique clinique auxquels il a accès.

Tous les pays ne disposent pas d’un guide de référence

Ces guides correspondent à un ensemble de recommandations élaborées par des experts et des organismes tels que les ministères de la santé, les syndicats professionnels de dentistes (et autres organisations professionnelles représentatives de la profession, ndlr) ou l’Organisation mondiale de la santé, afin d’aider à la prise de décision. Ces recommandations sont basées sur une revue systématique des preuves scientifiques disponibles.

Cependant, comme nous l’avons découvert dans notre récente étude, dans laquelle nous avons analysé les recommandations qui existent au niveau international en matière de prescription d’antibiotiques, celles-ci ne sont pas toutes de qualité et de fiabilité équivalentes. D’ailleurs, tous les pays ne disposent pas de guides de ce type.

Tout d’abord, nous avons constaté que tous les dentistes ne disposent pas d’un document de référence : seuls neuf pays ont publié des recommandations sur la prescription d’antibiotiques pour les pathologies bucco-dentaires. De plus, seules 10 des 17 guides analysés peuvent être classés comme « recommandés » en fonction de leur qualité. Deux guides sont même classés comme « non recommandés ».

Les dentistes de Belgique, d’Espagne, d’Écosse et du Royaume-Uni sont les plus chanceux, car ce sont eux qui ont accès aux guides de meilleure qualité.

En Espagne, par exemple, le document qui répondait aux critères pour être considéré comme un guide de pratique clinique est le Guide thérapeutique antimicrobien de la région d’Aljarafe. Il a été créé par le ministère régional de la santé d’Andalousie et mis à jour dans le cadre du Plan national de résistance aux antibiotiques du ministère de la santé.

D’autres organismes ont également publié des recommandations, notamment le ministère chilien de la santé, le Collège royal des chirurgiens d’Angleterre, l’Organisation mondiale de la santé, le Centre fédéral d’expertise des soins de santé belge (KCE), l’Association dentaire américaine et le Programme écossais d’efficacité clinique dentaire.

(Pour la France, l’étude se réfère aux recommandations de l’Agence du médicament concernant la « Prescription des antibiotiques en pratique bucco-dentaire », ndlr).

Quels antibiotiques les dentistes prescrivent-ils ?

Tout n’est pas négatif : en général, dans la plupart des cas, les guides disponibles s’accordent à dire que le dentiste doit prescrire en premier choix l’amoxicilline (un dérivé de la célèbre pénicilline de Fleming). Selon les études, c’est l’un des principes actifs les plus prescrits par les dentistes, qui font donc bien leur travail.

Les guides s’accordent également sur la durée de ce traitement, même si certains ne font aucune référence à la durée.

Cependant, la concordance diminue lorsque nous analysons les principes actifs recommandés pour traiter des maladies spécifiques. Et le problème est encore plus important lorsque le patient est allergique à l’amoxicilline (ce qui est relativement fréquent, puisque jusqu’à 25 % de la population pourrait l’être). Dans ce cas, les recommandations deviennent très disparates. 29 % des guides recommandaient le métronidazole, 24 % l’azithromycine, 24 % la clindamycine, 18 % les céphalosporines et 6 % la doxycycline. Pourtant ces différences ne sont pas justifiées.

Comment améliorer les guides de bonne pratique

Ces documents peuvent être améliorés sur différents aspects concrets : la rigueur des preuves, la manière de présenter les informations et l’applicabilité des recommandations relatives à la prescription d’antibiotiques.

Améliorer tous ces aspects pourrait faciliter l’utilisation de ces guides et aider les dentistes à prendre les meilleures décisions. De plus, ces derniers seront moins enclins à s’informer auprès d’autres sources qui, a priori, pourraient présenter davantage de biais, à l’image de l’industrie pharmaceutique dont les intérêts commerciaux peuvent entrer en ligne de compte.

L’objectif final apparaît clairement : nous devons réduire les consommations inutiles d’antibiotiques. Nous ne pouvons pas rester les bras croisés. Le problème de la résistance aux antibiotiques n’est plus une menace, c’est une réalité. En Europe, environ cent décès par jour sont attribuables à des infections causées par des bactéries résistantes aux antibiotiques. Il est urgent d’agir ensemble, et nous avons besoin que les professionnels de santé disposent de sources fiables et pratiques leur permettant d’être certains qu’ils prennent la meilleure décision pour leurs patients.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

14.01.2026 à 16:23

Comment fonctionne l’hérédité ? Une nouvelle étude explore le rôle de l’épigénétique

Vincent Colot, Directeur de recherche, École normale supérieure (ENS) – PSL
Pierre Baduel, Chargé de recherche en génétique, École normale supérieure (ENS) – PSL
img
On transmet à sa descendance ses gènes, son ADN. Mais certaines espèces peuvent également transmettre un autre type d’information, dite épigénétique, qui indique quels gènes peuvent ou non s’exprimer.
Texte intégral (2481 mots)

On transmet à sa descendance ses gènes, son ADN. Mais certaines espèces peuvent également transmettre un autre type d’information, dite épigénétique, qui indique quels gènes peuvent ou non s’exprimer. Une nouvelle étude parue dans Science explore les mécanismes qui permettent cette transmission chez les plantes.


Comment fonctionne l’hérédité ? Ou, en d’autres termes, par quels mécanismes moléculaires un organisme peut-il transmettre certaines caractéristiques à sa descendance via la reproduction sexuée ?

Depuis les années 1940, on sait que l’ADN porte l’information génétique transmise de génération en génération. Mais différentes observations chez les plantes indiquent que toutes les différences héritables observées entre individus, comme un retard de floraison ou un changement de la pigmentation du maïs, ne sont pas dues à des mutations de la séquence de l’ADN.

Dans notre étude publiée en novembre 2025 dans Science, nous montrons que l’épigénétique contribue, chez les plantes, aux différences héritables entre individus, notamment en réponse à des stress environnementaux comme la sécheresse.

Les modifications dites « épigénétiques » n’affectent pas la séquence de l’ADN proprement dite, mais plutôt sa capacité à favoriser ou non l’expression des gènes. Dans notre étude, nous élucidons certains des mécanismes par lesquels des modifications épigénétiques, en l’occurrence la méthylation de l’ADN (voir encadré), peuvent être transmises, chez les plantes, sur des dizaines de générations… ou au contraire être rapidement rétablies dans leur état initial.


À lire aussi : Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard


Le mystère de la plante qui fleurissait tard

Arabidopsis thaliana est une plante que les scientifiques utilisent beaucoup, à tel point que l’on parle de « plante modèle ». Lorsqu’en 2000 un important retard de floraison a été observé dans une souche de laboratoire d’A. thaliana les recherches se sont naturellement d’abord concentrées sur l’identification de la mutation de la séquence d’ADN potentiellement responsable de ce retard. Or, aucune mutation n’a été identifiée en lien avec ce retard de floraison !… En cause : une perte de méthylation de l’ADN au niveau d’un gène, désigné FWA.

Qu’est-ce que la méthylation de l’ADN ?

  • On dit que l’ADN est méthylé lorsqu’il porte une modification chimique particulière : il s’agit d’un groupement chimique « méthyl- » ajouté dans le cycle de certaines bases (la cytosine, abbréviée C) de l’ADN.
  • Chez les plantes, la méthylation de l’ADN est le plus généralement inhibitrice, c’est-à-dire qu’elle limite l’expression des gènes avoisinants, lorsqu’elle est densément présente sur toutes les cytosines d’une région donnée.
  • Chez les mammifères, on ne trouve la méthylation de l’ADN que dans le contexte CG (une cytosine suivie d’une guanine) et elle est inhibitrice lorsqu’elle est présente sur des régions denses en CG, appelées îlots de CG.

Normalement, le gène FWA d’A. thaliana qui code un répresseur de la floraison est méthylé, ce qui le rend « silencieux », c’est-à-dire qu’il ne s’exprime pas. Dans la souche de laboratoire présentant un retard de floraison, la méthylation de ce gène a disparu – par accident ; le gène FWA est alors réactivé, ce qui conduit à retarder la floraison.

Or, cette perte de la méthylation de FWA est transmise de façon fidèle à la descendance sur au moins plusieurs dizaines de générations. Ceci explique l’hérédité du retard à la floraison… alors même que la séquence du gène FWA (et du reste du génome !) reste inchangée.

Pourquoi de telles observations chez les plantes et non chez les mammifères ?

Les mammifères, comme les plantes, utilisent la méthylation de l’ADN pour réguler l’expression des gènes (voir encadré plus haut). En revanche, il n’existe pas de caractères épigénétiques héritables chez les animaux dans la nature (bien qu’il y ait des exemples au laboratoire sur des séquences transgéniques de mammifères).


À lire aussi : Nous héritons de la génétique de nos parents, mais quid de l’épigénétique ?


La raison n’est pas encore clairement établie, mais la communauté scientifique soupçonne qu’il existe des différences dans la manière dont ces deux groupes d’organismes reprogramment la méthylation de l’ADN à chaque génération.

En effet, nous savons aujourd’hui que les mammifères, mais non les plantes, effacent et rétablissent de manière quasi totale la méthylation de l’ADN le long de leur génome à chaque génération. Ainsi donc, des altérations accidentelles de l’état de méthylation des séquences du génome seraient plus facilement héritables chez les plantes.

Bien que frappants, les exemples décrits jusqu’à présent d’une telle hérédité « épigénétique » (comme dans le cas de FWA) n’avaient pas permis d’établir les mécanismes régissant ce mode additionnel de transmission des caractères.

C’est à cette question que nous nous sommes attelés : en comparant systématiquement des lignées expérimentales et naturelles d’A. thaliana, nous avons obtenu une première démonstration formelle de l’ampleur de l’héritabilité épigénétique dans la nature (chez les plantes) et des mécanismes qui la régissent.

L’hérédité épigénétique dans nos lignées de laboratoire

Pour cela, nous avons d’abord exploité des lignées expérimentales d’A. thaliana générées et caractérisées depuis vingt ans par notre équipe et qui ne diffèrent que dans leurs états de méthylation de l’ADN le long du génome.

Plus précisément, nous avons intentionnellement localisé les différences de méthylation d’ADN au niveau d’« éléments transposables » ou « transposons » (voir encadré ci-dessous). En effet, les éléments transposables sont chez les plantes les cibles principales de la méthylation de l’ADN, qui limite ainsi leur activité mais peut également affecter l’activité des gènes avoisinants.

Qu’est-ce qu’un élément transposable ?

  • Les éléments transposables ou transposons sont des éléments génétiques qui ont la capacité de se déplacer le long du génome, soit _via_ un intermédiaire ARN (on parle dans ce cas de rétrotransposons), soit directement par excision et réinsertion (transposons à ADN).
  • De par leur capacité à se propager dans le génome, les éléments transposables représentent des fractions significatives de l’ADN des génomes eucaryotes (45 % chez l’humain, 85 % chez le maïs !). Cependant, la grande majorité des éléments transposables du génome sont des copies dérivées d’événements de transposition anciens et ont perdu toute capacité de mobilisation depuis, ce sont donc essentiellement des fossiles.
  • Lorsque les éléments transposables sont mobiles, les mutations qu’ils génèrent en s’insérant au sein ou à proximité des gènes ont souvent des effets majeurs. Par exemple, la mobilisation d’un transposon a été impliquée dans l’apparition spontanée de l’hémophilie de type A chez l’humain. Chez les plantes, les mutations causées par des éléments transposables ont été notamment exploitées en agriculture.
  • Les éléments transposables, mobiles ou non, sont le plus souvent maintenus dans un état épigénétique dit « répressif », notamment par la méthylation de l’ADN chez les plantes et les mammifères.

Nous avons ainsi montré pour 7 000 éléments transposables présents le long du génome d’A. thaliana qu’une perte de méthylation de l’ADN peut être héritée sur au moins une dizaine de générations, parfois jusqu’à 20… et sans doute beaucoup plus, mais pas infiniment néanmoins.

En étudiant en détail cette transmission épigénétique dans plus d’une centaine de lignées expérimentales, nous avons établi que plus un élément transposable est présent en grand nombre de copies dans le génome, plus il est la cible d’un contrôle épigénétique intense et, dès lors, plus rapidement la méthylation de l’ADN est restaurée sur cet élément lors de la reproduction sexuée.

Dans la nature

Fort de ces résultats, nous avons entrepris ensuite de chercher dans 700 lignées d’A. thaliana isolées dans la nature des pertes héritables de la méthylation de l’ADN de la même amplitude et sur les mêmes 7 000 éléments transposables.

Résultat : environ un millier d’éléments transposables (soit plus de 15 % des 7 000 étudiés) présentent, dans au moins une lignée naturelle, une perte héritable de méthylation de l’ADN très similaire à celle induite expérimentalement dans les lignées de laboratoire.

Qui plus est, nous avons montré que cette perte de méthylation de l’ADN est le plus souvent héritée indépendamment des variations de la séquence d’ADN entre lignées naturelles, et qu’elle est donc bien d’ordre épigénétique.

Ainsi donc, le potentiel de transmission épigénétique révélé expérimentalement au laboratoire est bel et bien le reflet, au moins en partie, de ce qui se passe dans la nature.

Le lien avec les stress environnementaux

Une différence majeure distingue néanmoins les variations épigénétiques expérimentales de celles retrouvées dans la nature : si les premières affectent sans discrimination tout type d’éléments transposables, les secondes sont préférentiellement restreintes à ceux d’entre eux situés à proximité de gènes, notamment des gènes impliqués dans la réponse aux stress biotiques (réponse aux pathogènes) ou abiotiques (variation de température ou d’humidité par exemple).

Cet enrichissement est d’autant plus lourd d’implications, que nous avons pu clairement établir que, comme leur contrepartie expérimentale, les variations épigénétiques naturelles modulent l’expression des gènes voisins.

Par exemple, la perte de méthylation de l’ADN d’un élément transposable situé à proximité d’un gène de réponse au froid et à la sécheresse magnifie l’induction de ce dernier d’un facteur 5 ! De plus, les lignées expérimentales présentant cet élément transposable sous sa forme déméthylée répondent plus vite à la sécheresse que celles portant la version méthylée. Or, les lignées naturelles porteuses de la version déméthylée proviennent de régions du globe où les événements de gel et de sécheresse sont plus fréquents en été, ce qui suggère que la perte de méthylation de l’ADN donne prise à la sélection naturelle.

L’origine de ces pertes de méthylation de l’ADN dans la nature reste néanmoins à établir. Une hypothèse est que l’environnement joue un rôle d’inducteur, mais nos observations et un bilan complet de la littérature apportent peu de soutien à cette théorie. Nous pensons plutôt que ces variants héritables de méthylation de l’ADN apparaissent de manière aléatoire et récurrente, et sont ensuite sélectionnés par l’environnement en fonction de leurs impacts sur l’expression des gènes.

Ces travaux, s’ils ne remettent certainement pas en cause l’importance prépondérante des variations de séquence de l’ADN dans l’origine des différences héritables entre individus, démontrent néanmoins que les variations épigénétiques peuvent elles aussi y contribuer significativement, du moins chez les plantes.


Le projet Prise en compte des éléments transposables et de leur variation épigénétique dans les études de la relation génotype-phénotype — STEVE est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Vincent Colot a reçu des financements de l'ANR et de l'Union européenne

Pierre Baduel a reçu des financements de l'ANR et de la FRM.

14.01.2026 à 16:22

The first ice core library in Antarctica to save humanity’s climate memory

Thomas Stocker, Emeritus Professor of Climate and Environmental Physics, University of Bern
img
With an average temperature of -50°C, Antarctica’s first-ever 100% natural sanctuary protects endangered ice cores from global warming.
Texte intégral (1719 mots)
Ice Core Storage at the Ice Memory Sanctuary in Concordia, Antarctica. Gaetano Massimo Macri/Ice Memory Foundation, Fourni par l'auteur

On Wednesday, January 14, 2026, the coolest library on Earth was inaugurated at the Concordia station, Antarctica. Samples from glaciers rescued worldwide are now beginning to be stored there for safekeeping. This will allow, among other things, future generations to continue studying traces of past climates trapped under ice, as glaciers on every continent continue to thaw out at a fast pace.

With its temperature of -50°C, the archive sanctuary built below the surface at Concordia will allow endangered ice cores extracted from the Andes, Svalbard, the Alps, the Caucasus, and the Pamir Mountains in Tajikistan to escape global warming without the need for technical intervention or refrigeration.

Former co-chair of the IPCC’s “Science” working group, Swiss climatologist and physicist Thomas Stocker is now president of the Ice Memory Foundation, which initiated this project, together with the University of Grenoble Alpes (France) and Ca’ Foscari University of Venice (Italy). He explains the urgency for this long-term initiative.


The Conversation: Could you give us a concrete example of how these ice cores stored in Antarctica could be used by scientists in the future?

Thomas Stocker: We can take the example of a new substance found in the atmosphere, like a pesticide. If in fifty years from now, a scientist wants to know what the concentration of that compound was in the year 2026, say in the European Alps or in Asia, they can now turn to an ice core.

If the ice core had not been collected and stored in Antarctica, the scientist would simply be at a loss to answer the question. But thanks to these ice cores that are now being safeguarded in Antarctica, researchers can analyse a sample of that core in Antarctica, measure the compound from the ice that was collected fifty or one hundred years ago, and reconstruct the data to answer that question.

But in order to allow future scientists to answer the many questions that will arise, we need to act quickly. A very recent article in Nature takes a global view of glacier loss and predicts that the number of glaciers to vanish will increase until around 2040, at which point annual glacier loss worldwide is set to peak.

Thereafter numbers will decline not because global warming has halted, but because one by one, glaciers disappear off the face of the earth, leaving fewer glaciers in a state of meltdown, a prospect which, in turn, ultimately destroys the prestigious and precious environmental archives available.

Temperatures in the Alps are rising about twice as fast as the global average, so it’s essentially a race against time. We need to secure these ice cores when water from the melting surface in summer has not yet penetrated the ice.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Since you started working, you have undoubtedly seen many methodological and technological advances that have enabled us to make the ice “talk”. What are your hopes for future generations? What factors would allow for further “dialogue” with the ice core that will be stored at Concordia?

T.S.: I can only extrapolate from what we have learned and experienced in science over the last fifty years. We witnessed the arrival of new technology that, all of a sudden, offers the analysis of parameters of elemental composition, of the concentration of gases trapped within the ice that suddenly, like a key, opens a door to a whole new series of information about our environmental system.

So what I can see happening is new optical methods to determine the isotopic composition of different elements in various chemical substances, the likelihood of high-precision analytical tools being invented in the next decades or so that go down to the picogram level or or femtomole level, to tell us something about atmospheric composition, and particles such as dust and minerals from various regions which have been deposited in these ice cores that give us information about the conditions or state of the atmosphere in the past.

How were the snow caves built for ice core storage?

You are an Emeritus Professor of Climate and Environmental Physics. Which other fields will the Ice Memory project be useful for?

T.S.: Biology comes to mind. If you find organic remains or DNA in these ice cores, that’s biology. You can question the chemical composition of the atmosphere. That’s chemistry. If you question what’s the mineral composition of small dust particles that are deposited in these ice cores. That’s geology. And so, you have a whole range of different branches of science that can draw new information from these ice cores.

The Ice Memory Project brings together different scientific disciplines, as well as scientists of many nationalities. How challenging can this be in a time of increasing geopolitical tensions?

T.S.: Ice Memory is a case in point for how multilateralism plays out in the scientific community. It’s an opportunity for scientists in every nation to make use of this unique sanctuary in Concordia. And for us, it’s really an iconic endeavour that goes beyond frontiers, beyond political divisions, to really safeguard data from planet Earth, not only for the next generation of scientists, but for humanity in general.

We also urge all nations who have glaciers on their territory to participate and support scientific community-led ice coring expeditions in these areas, and to follow Tajikistan’s example. Tajikistan was the first nation to donate an ice core, 105 metres of precious ice from a unique location (the Kon Chukurbashi ice cap, for preservation in the Ice Memory foundation’s storage sanctuary in Antarctica.

Pamir Mountains ice core handed over by Tajikistan for Antarctic preservation.

During the Cold War, Antarctica was one of the few places on Earth where Russians and Americans could exchange ideas and conduct scientific research together. Could Antarctica still be a place where dialogue replaces rivalry?

T.S.: I am absolutely convinced that the unique environment Antarctica offers that’s so rich with nature and life, and so special on our planet, means that considerations surrounding each country’s position and values are secondary. The top priority, as we have demonstrated over the past fifty years of scientific exploration in the field, is really to understand our climate system, observe nature from the perspective of Antarctica, and to protect it. This gives us the opportunity to truly immerse ourselves, work together, and exchange ideas on specific scientific issues that concern us all, and in particular, concern the future of the planet we share.

Interview by Gabrielle Maréchaux, Environment Journalist at The Conversation France.

The Conversation

Thomas Stocker is the president of the Ice Memory Foundation.

14.01.2026 à 16:10

Le luxe face à l’accélération sociale : pour une pédagogie de la lenteur

Hiba Camille Zielinski, Enseignante-Chercheur, EDC Paris Business School
img
Et si la véritable valeur du luxe n’était pas dans le prix des produits, mais dans un rapport apaisé au temps. Temps du désir avant l’achat et durée de vie du produit acquis…
Texte intégral (1564 mots)

Avec les fêtes de fin d’année, la course aux achats s’est intensifiée et révèle notre rapport accéléré au désir et au temps. En analysant les mécanismes d’attention et de saturation décrits par Hartmut Rosa et Shoshana Zuboff, le luxe pourrait offrir un contrepoint, en proposant un temps long en réponse à l’érosion du sens dans un monde saturé d’images.


Comme chaque année, à la fin de 2025, tout semble s’accélérer, comme si le monde avait appuyé sur une touche d’avance rapide : le choix, l’achat, les livraisons se succèdent sans pause, donnant l’impression que le temps s’est contracté et que l’attente n’a plus sa place. Mais c’est précisément dans cette période de frénésie que le luxe retrouve sa place. Non pas en participant à cette course, mais en rappelant que désirer prend du temps, qu’offrir est un geste, et que la valeur ne naît pas de l’urgence mais de la mémoire. Dans un monde saturé d’instantané, le luxe peut redevenir ce qu’il n’aurait jamais dû cesser d’être, une pédagogie de la lenteur.

Cette tension entre vitesse sociale et temps long est au cœur d’un basculement. Nous vivons à l’ère de ce que le sociologue Hartmut Rosa nomme l’accélération sociale : multiplication des flux, contraction du temps, injonction à aller toujours plus vite. Le désir n’y est plus un mouvement intérieur, mais une réaction programmée, stimulée par les écrans, les notifications, les tendances fulgurantes.

La philosophe et sociologue Shoshana Zuboff, avec la notion de capitalisme de surveillance, montre comment nos comportements sont transformés en données, puis en impulsions marchandes. Le cadeau n’est plus le fruit d’un choix mais d’un algorithme, d’une suggestion, d’un réflexe conditionné. L’objet se détache de toute signification pour devenir un simple élément du flux, un produit qui satisfait une seconde, puis disparaît.

Le luxe comme résistance

Dans cet environnement, la mode et la beauté ont changé de statut. Elles ne répondent plus seulement à une esthétique, mais à une immédiateté émotionnelle. L’objet n’est plus ce que l’on choisit mais ce que l’on reçoit, dans un flux continu d’images et de recommandations. L’acte d’achat glisse du rituel à l’automatisme, de la décision à l’impulsion.


À lire aussi : Quand les imaginaires des marques nous inspirent


Face à cette vitesse, le luxe occupe un rôle particulier. Historiquement, il s’est construit sur une compréhension radicalement différente du temps. Le luxe français est né dans l’atelier, pas dans le flux. Il s’est façonné autour du geste lent, de la précision du savoir-faire, de la maîtrise de la main. Hermès, Chanel, Dior : ces maisons ne faisaient pas seulement des objets, elles faisaient des durées. Chaque couture, chaque finition, chaque forme était un acte de transmission, un apprentissage, une continuité. L’objet ne valait pas par son immédiateté, mais par sa capacité à durer, accompagner, traverser les années. Chez Hermès comme chez Chanel, l’attente faisait partie intégrante de l’expérience. La selle, le sac ou la robe étaient commandés, puis réalisés dans un temps assumé, parfois long, car la valeur de l’objet tenait précisément au fait qu’il ne pouvait être ni accéléré ni standardisé.

Comme l’a analysé Walter Benjamin dans l’Œuvre d’art à l’époque de sa reproductibilité technique (1936), la reproduction efface l’aura de l’objet, c’est-à-dire sa capacité à créer une présence singulière et mémorable et fournit un outil essentiel pour comprendre ce qui est en jeu aujourd’hui. Dans son texte de 1936, il affirme que l’œuvre perd son aura lorsqu’elle est répliquée sans singularité. L’aura, c’est cette qualité invisible qui fait qu’un objet porte en lui un morceau d’existence. Ce n’est pas son prix, ni sa rareté, mais sa capacité à créer une présence. Lorsque tout se ressemble, tout s’oublie. Lorsque tout va vite, rien ne s’imprime.

La vertu du temps long

Le luxe risque parfois de perdre cette aura lorsqu’il cède à la tentation de la répétition, du logo omniprésent, ou d’une communication trop mimétique de la rapidité numérique. Mais il possède aussi l’un des rares leviers capables de résister à ce mouvement : le temps long. Sa valeur véritable n’est pas l’exclusivité, mais la durabilité symbolique.

Ce temps long n’est pas seulement un processus, c’est un point de vue culturel. Car le luxe a toujours eu un rôle double :

  • il inspire, en proposant une vision du beau, une manière d’habiter le monde ;

  • il écoute, en absorbant les sensibilités d’une époque pour les transformer.

Cette double dynamique lui permet d’offrir un contrepoint culturel à la frénésie contemporaine, en rappelant que la valeur se construit par transmission, et non par accumulation.

Ce rôle n’est pas moral mais relationnel. Il montre qu’un objet peut être autre chose qu’un réflexe, qu’un cadeau peut être un récit, qu’un geste peut porter une mémoire. C’est une responsabilité sociale et environnementale, bien sûr, protéger les métiers, préserver les ressources, valoriser le travail humain mais aussi une responsabilité symbolique : faire exister un autre rythme dans un monde qui s’épuise de courir.

BFM Business, 2025.

L’art d’attendre

Le sociologue Jean Baudrillard l’avait pressenti, en exprimant comment dans une société de profusion l’objet tend à perdre sa valeur symbolique et sa capacité à produire de la durée (le Système des objets, 1968) :

« Dans la profusion, l’objet perd son aura. »

Cette phrase résonne aujourd’hui avec une intensité nouvelle. Lorsque tout se multiplie, tout s’épuise. Lorsque tout est disponible immédiatement, plus rien n’est désirable.

C’est ici que le luxe retrouve sa force : il ne vaut que s’il conserve une distance, une rareté qui n’est pas économique mais temporelle. Le luxe est une expérience d’attente. Un désir qui mûrit, qui se construit, qui se prépare.

La recherche de liens

À l’heure où la génération Z (née entre 1998 et 2010) oscille entre anxiété, surcharge et besoin de réassurance, le luxe peut redevenir un espace de stabilité.

Les travaux de la chercheuse Susan Fournier sur les relations à la marque montrent que les consommateurs cherchent moins une possession qu’un lien relationnel inscrit dans la durée.

Ce qui compte n’est plus l’objet en lui-même, mais la manière dont il nous accompagne, nous ressemble, ou nous rassure. Le luxe, lorsqu’il demeure fidèle à son essence, peut offrir cet attachement qui ne se consomme pas, mais se cultive.

Loin de la course aux cadeaux instantanés, le luxe peut rappeler qu’un objet transmis possède une force que la vitesse ne pourra jamais remplacer. Une force de présence et une force de mémoire. Le cadeau peut alors devenir aussi un objet de réassurance émotionnelle.

Et si, dans une société épuisée par l’accélération, c’est l’occasion du luxe de se réinventer non plus comme industrie du prestige, mais comme pédagogie de la lenteur et de la durée. Car l’enjeu du luxe n’est donc plus d’impressionner, mais de laisser une empreinte. Car ce que l’on garde et qui importe vraiment, finalement, ce n’est pas l’objet du désir mais l’empreinte laissée par ce dernier.

The Conversation

Hiba Camille Zielinski ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.01.2026 à 15:53

Faut-il arrêter de croire en la culture pour la sauver ?

Fabrice Raffin, Maître de Conférence à l'Université de Picardie Jules Verne et chercheur au laboratoire Habiter le Monde, Université de Picardie Jules Verne (UPJV)
img
Certaines croyances qui structurent en profondeur le secteur culturel français méritent d’être questionnées.
Texte intégral (1417 mots)
La Comédie-Française, à Paris (I<sup>er</sup>arrondissement). Wikipédia, CC BY

Le secteur culturel se trouve aujourd’hui pris en étau. D’un côté, les attaques se multiplient : restrictions budgétaires, controverses autour d’un élitisme supposé, accusations de déconnexion ou de coût excessif. De l’autre, les acteurs du secteur, malgré leur engagement, peinent à regarder leur situation avec lucidité : une grande partie de la population demeure à distance de l’offre culturelle, tandis que beaucoup d’institutions continuent d’agir comme si leurs propositions s’adressaient « à tout le monde ».


Les difficultés que rencontre le milieu culturel sont parfois évoquées par les acteurs du secteur culturel, mais aussitôt amorties par des formules qui neutralisent leur portée. L’argument du manque de moyens est souvent présenté comme une explication suffisante, comme si l’énoncer résolvait le problème. L’échec de la démocratisation culturelle est constaté, mais compensé par des « j’ai envie d’y croire » ou « j’ai le droit d’être idéaliste ». Autant de manières de maintenir un récit devenu fragile. Dans ces moments, la croyance tient lieu d’analyse et empêche d’examiner les causes structurelles des tensions actuelles.

Or ces causes ne tiennent pas uniquement au contexte budgétaire ou politique. Elles sont aussi liées à la persistance de trois idées fausses qui continuent de structurer le secteur et d’orienter la manière dont la culture se raconte à elle-même, selon une croyance magico-lyrique, disait Jean Caune.

Une partie de la population n’aurait pas accès à la culture

Cette affirmation repose sur une définition restrictive, qui identifie la culture aux œuvres reconnues par l’histoire de l’art et par les institutions. Vu sous cet angle, une partie du public apparaît effectivement éloignée. Mais si l’on envisage la culture à partir des expériences esthétiques vécues que chacun d’entre nous peut vivre (même hors institution), le constat change. L’expérience du beau, de l’émotion existe partout, dans tous les milieux sociaux, mais elle s’appuie sur des pratiques et des sociabilités différentes. Les formes institutionnelles ne sont qu’une partie de ce paysage. Les pratiques culturelles de nombreux Français relèvent de moments festifs, de loisirs expressifs, de pratiques variées où l’artistique se mêle au plaisir et à la relation aux autres. On parle bien de culture néanmoins, parce que ces moments sont tous structurés autour d’une expérience esthétique qui mobilise des formes artistiques, même si elles ne correspondent pas aux canons de l’histoire de l’art. Dire que certains « n’ont pas accès » revient à confondre absence de fréquentation des institutions et absence de pratiques culturelles et à invisibiliser des pratiques bien réelles, mais non reconnues comme telles.

Il existe des œuvres universelles

Ce deuxième postulat, encore solidement ancré, suppose que certaines formes artistiques possèdent une valeur évidente pour tous. Il continue de guider de nombreuses programmations et une part majeure du financement public. Pourtant, dans la réalité, ces œuvres suscitent souvent indifférence, évitement, voire répulsion chez une large partie de la population. Non (seulement) parce que les publics seraient insuffisamment éduqués, mais parce que ces œuvres appartiennent à un univers symbolique particulier, façonné par des groupes sociaux précis – en premier lieu les professionnels de la culture identifiés aux classes supérieures.

Leur présentation comme « universelles » sert alors de justification à une hiérarchie esthétique qui ne dit pas son nom. Malgré des évolutions avec les droits culturels, elle permet de financer majoritairement des formes consacrées tout en reléguant au second plan les pratiques festives, vernaculaires, relationnelles ou populaires, pourtant largement partagées. L’erreur consiste à prendre un goût particulier – celui des élites culturelles – pour une norme collective, et à imposer cette norme au nom de l’intérêt général. Cette confusion empêche de reconnaître qu’il existe, dans la société, plusieurs régimes légitimes de culture. Certains, ceux des professionnels, reposent sur la contemplation artistique, d’autres sur l’hédonisme et le plaisir, d’autres encore sur l’intérêt relationnel et la dimension sociale de la pratique. Les traiter comme secondaires ou « non culturels » revient à nier la diversité des expériences esthétiques qui structurent aujourd’hui les usages culturels réels.


À lire aussi : Dionysos vs Apollon : expériences esthétiques et milieux sociaux


La culture crée du lien social

Cette croyance est devenue un réflexe défensif : si la culture produit du lien, elle serait légitime par principe. Pourtant, la culture engage des identités, des manières de se situer, des frontières symboliques. Dire ce que l’on pratique ou ce que l’on apprécie revient à exprimer une appartenance, parfois une prise de distance. Une même pratique peut rapprocher certains individus et groupes sociaux et tenir d’autres à l’écart. Le lien qui en découle est donc variable, parfois fragile, parfois conflictuel, loin de l’image d’un ciment social universel. Ainsi, les formes culturelles qui véhiculent des messages politiques, comme certains textes de rap, ne créent par l’adhésion des personnes qui font l’objet de leurs critiques, voire de leurs invectives, par exemple envers les policiers. Le lien qui s’établit entre ces derniers et de jeunes chanteurs, certes social, est surtout conflictuel.

Cette croyance a un autre effet, plus discret : elle évite d’examiner ce que financent réellement les politiques publiques. L’argent public ne soutient pas toutes les pratiques culturelles, mais un ensemble restreint de formes considérées comme légitimes. Les pratiques festives, quotidiennes ou relationnelles, pourtant largement partagées, demeurent marginales dans les arbitrages. De même, sont exclues des financements des formes artistiques qui seraient trop politisées ou revendicatives. En découle également un formatage de l’offre artistique institutionnelle : en recherchant un lien consensuel, les productions deviennent policées, ni trop expérimentales, ni trop politiques, sans exubérance surtout. En invoquant un lien social supposé, on contourne la question essentielle : quelles cultures sont effectivement soutenues, avec quelles attentes ? Lesquelles restent en marge, et pour quels publics ?

L’ensemble de ces croyances rassurantes a longtemps protégé la politique culturelle de ses angles morts. Elles ne suffisent plus. La situation actuelle exige d’autres repères : reconnaître la diversité des pratiques, comme le font déjà certaines collectivités territoriales ; admettre les hiérarchies existantes ; assumer les choix que produit l’argent public. La culture n’a pas besoin de récits unifiants, mais d’un diagnostic lucide. C’est seulement en clarifiant ce qui est soutenu, pour quels motifs et au bénéfice de qui, que la politique culturelle pourra se réinventer et répondre aux attentes d’une société plus diverse qu’elle ne l’a jamais été.

The Conversation

Fabrice Raffin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.01.2026 à 15:18

En Inde, les 60 millions de chiens des rues fouillent de moins en moins les poubelles, et c’est dangereux

Nishant Kumar, India Alliance Fellow, National Centre for Biological Science, Bangalore & Department of Biology, University of Oxford
img
Nourris par les citadins plutôt que contraints à aller chercher leur pitance dans les poubelles, les chiens des rues indiennes développent de nouveaux comportements, dangereux pour les habitants.
Texte intégral (2364 mots)
Des chiffres vieux de dix ans évoquent une population de 60 millions de chiens des rues en Inde, bien trop pour les rassembler dans des foyers. Dasarath Deka/Shutterstock

On compte plus de 60 millions de chiens errants en Inde. Depuis le déclin des vautours à la fin des années 1990, l’apparition de nouvelles sources de nourriture issues des déchets leur permet d’accéder aux déjections des abattoirs, au nourrissage spontané et aux carcasses abandonnées (la disparition des vautours a entraîné l’absence de régulation des populations de charognards, comme les chiens et les rats). Le comportement de ces animaux opportunistes a évolué, révélant l’interdépendance complexe entre chaîne alimentaire, pratiques humaines et santé publique.


Quand j’étais enfant, dans l’Inde rurale, ma grand-mère donnait chaque après-midi au chien du village un demi-chapati et un bol de lait, manifestement insuffisants pour couvrir ses besoins. Le chien survivait en fouillant les environs et en récupérant de la nourriture auprès des maisons voisines. Des années plus tard, à Delhi, j’ai croisé des chiens errants refusant des biscuits tant ils recevaient de nourriture de la part des habitants du quartier, qui tous rivalisaient d’attention à leur égard.

En Inde, l’entrelacement de valeurs religieuses et culturelles a instauré une forte tolérance à l’égard des non-humains et de la faune sauvage, toutes classes sociales confondues. Une attitude ancrée dans des millénaires de coexistence. Les populations acceptent délibérément de s’exposer à des risques importants pour vivre avec les animaux. Mais cet équilibre se fragilise à mesure que les villes s’étendent et que les chiens deviennent plus territoriaux dans des espaces partagés toujours plus encombrés et jonchés de déchets.

L’Inde compte au moins 60 millions de chiens en liberté, selon un décompte vieux de plus de dix ans. Des enquêtes plus récentes en recensent environ 1 million rien qu’à Delhi. Dans le même temps, le pays concentre plus d’un tiers des décès dus à la rage dans le monde.

À la différence de la plupart des pays occidentaux, la culture et le droit indiens proscrivent l’abattage. Les chiens doivent être capturés, stérilisés, vaccinés puis – impérativement – réinstallés sur leur territoire initial. En pratique, ces règles sont fréquemment bafouées.

Tout change en août 2025. Après plusieurs attaques de chiens errants contre des enfants, la Cour suprême indienne ordonne brièvement la capture de tous les chiens des rues de Delhi et de sa région, avec leur placement en refuges ou en fourrières, promettant pour la première fois depuis des décennies des rues sans chiens.

La décision est inapplicable – il n’existe tout simplement pas de structures pour accueillir des millions d’animaux – et déclenche une vive réaction des associations de protection animale. Deux jours plus tard, la Cour fait machine arrière et rétablit la politique de stérilisation en vigueur.

Les décisions ultérieures ont resserré le périmètre d’application. En novembre 2025, la Cour a ordonné le retrait des chiens des écoles, des hôpitaux et des zones de transport public dans tout le pays, tout en imposant des restrictions à l’alimentation des chiens dans l’espace public et en encourageant la mise en place de clôtures pour les tenir à distance.

Plus récemment encore, le 7 janvier 2026, elle a demandé aux autorités de clôturer et de sécuriser l’ensemble des 1,5 million d’écoles et d’établissements d’enseignement supérieur de l’Inde contre les chiens, et ce, en seulement huit semaines. Mais, comme les précédentes injonctions, ce calendrier ambitieux fait abstraction des contraintes d’infrastructure et a peu de chances de réduire significativement la fréquence des morsures et des infections qui en découlent. La Cour entend actuellement les parties prenantes, cherchant une voie médiane entre le retrait à grande échelle des chiens et le respect du bien-être animal.

La nation est divisée. L’État semble incapable de tuer ces chiens, de les héberger dans des foyers ou de les contrôler. La question de leur devenir relève à la fois de la sécurité publique et de la protection animale, mais touche aussi à quelque chose de plus profond : le dernier chapitre de l’un des partenariats les plus remarquables de l’évolution.


À lire aussi : « Permis de tuer » ou sécurité publique ? En Turquie, une loi controversée sur les chiens errants


Une expérience de coexistence

Les chiens sont la seule espèce de vertébrés à avoir suivi les migrations humaines hors d’Afrique, à travers tous les climats et tous les types de peuplement. Si le moment exact de leur domestication reste incertain, on sait que les chiens ont évolué pour vivre aux côtés des humains. Mais ce lien entre espèces se heurte aujourd’hui à un défi inédit : celui de l’urbanisation tropicale.

Trois chiens en Inde
Les chiens des rues en milieu urbain peuvent se montrer très territoriaux. thinkpaws.org

Au cours des derniers siècles, alors que les chiens gagnaient leur place dans nos foyers, les humains ont créé plus de 400 races, belles, laborieuses ou affectueuses. Cette coévolution est importante : elle a rendu les chiens sensibles aux signaux humains et capables de développer de forts liens avec des personnes ou des lieux précis. Dans l’Inde urbaine, où les chiens n’appartiennent à personne mais ne sont pas vraiment sauvages, ces liens se traduisent par un comportement territorial autour d’un foyer ou d’une personne qui les nourrit.

Le laboratoire socio-écologique unique de l’Inde

L’Inde offre une perspective inégalée sur cette relation. Historiquement, les chiens des rues jouaient le rôle d’éboueurs. Dans les quartiers plus modestes, ils le font encore. Mais dans les zones plus aisées, ils sont désormais nourris délibérément.

Scène de rue en Inde
Chiens, cochons, vaches et humains coexistant. thinkpaws.org

Des recherches préliminaires à Delhi menées avec ma collègue Bharti Sharma montrent que les chiens s’organisent en meutes autour de foyers précis, où quelques personnes qui les nourrissent régulièrement peuvent couvrir presque 100 % de leurs besoins alimentaires. Cela permet des densités de chiens bien plus élevées que ce que le rôle d’éboueur pourrait supporter.

La collision urbaine

C’est ici que la coexistence ancienne se heurte à l’urbanisme moderne. Les rues indiennes sont des espaces multifonctions. Dans les climats tropicaux, les récupérateurs de déchets et les travailleurs manuels opèrent souvent la nuit
– exactement aux heures où les chiens se montrent les plus territoriaux et où les habitants plus aisés qui les nourrissent dorment.

Dans les climats tropicaux, les chiffonniers et les ouvriers travaillent souvent la nuit – précisément aux heures où les chiens se montrent les plus territoriaux et où les habitants plus aisés qui les nourrissent dorment.

Les chiens ont adapté leur comportement – aboiements, poursuites, morsures occasionnelles – de manière à être involontairement récompensés par ceux qui les nourrissent, tout en créant des dangers pour les autres. Les chiffres sont inquiétants : des millions de morsures et des milliers de décès dus à la rage chaque année.

Pour autant, une réaction contre les décisions de la Cour suprême était inévitable. Avec la gentrification, qui redéfinit qui peut décider de l’organisation de la vie urbaine, un conflit de valeurs est apparu : certains défendent la présence partagée des animaux, d’autres privilégient l’élimination des risques.

La voie à suivre

Les villes indiennes ont peut-être atteint leur « apogée de coexistence ». Malgré les nuisances quotidiennes – aboiements, poursuites – des millions de personnes continuent de nourrir ces chiens. Pourtant, le même chien qui remue la queue devant ses nourrisseurs familiers peut mordre un inconnu. Il ne s’agit pas d’agression irrationnelle, mais d’une protection territoriale née d’un lien profond avec une communauté humaine spécifique.

Les villes occidentales ont abattu leurs chiens errants il y a longtemps, car les priorités sociales y étaient plus homogènes. La diversité de l’Inde empêche un tel consensus. Il faudra sans doute encore de vingt à trente ans avant que l’ensemble de sa population urbaine considère la présence de chiens territoriaux comme intolérable.

À mesure que l’Inde s’urbanise, elle doit choisir entre préserver des espaces pour des relations anciennes, antérieures aux villes elles-mêmes ou suivre la voie occidentale d’un contrôle total. Le rituel de ma grand-mère, donnant son demi-chapati, incarnait un ancien accord : un investissement minimal, une coexistence pacifique et un bénéfice mutuel. Les chiens de Delhi, suralimentés et défendant leur territoire, incarnent aujourd’hui une nouvelle intimité plus intense – et il n’est pas certain que cette situation soit bénéfique pour les deux espèces.

The Conversation

Nishant Kumar bénéficie d’un financement de la DBT/Wellcome Trust India Alliance Fellowship. Il est chercheur associé à cette bourse au National Centre for Biological Science, TIFR, à Bangalore, en Inde, son accueil à l’étranger étant assuré par le Département de biologie de l’Université d’Oxford. Il est également cofondateur et scientifique en chef d’un think-tank de recherche basé à Delhi, Thinkpaws : www.Thinkpaws.org.

14.01.2026 à 14:32

How cocaine traffickers launder cartel money

Pierre-Charles Pradier, Maître de conférences en Sciences économiques, LabEx RéFi, Université Paris 1 Panthéon-Sorbonne
img
The disappearance of 500-euro notes and the creation of bitcoin have led money laundering networks to pay drug traffickers in cryptocurrencies and ship cash to Dubai (United Arab Emirates).
Texte intégral (1546 mots)
On 4 May&nbsp;2016, the European Central Bank (ECB) decided to stop issuing 500 euro notes. The number of these notes in circulation will fall from 614&nbsp;million at the end of 2015 to just under 220&nbsp;million by mid-2025. DerkachevArtem/Shutterstock

The cocaine market exploded between 2014 and 2023. Production in Colombia increased more than sevenfold to nearly 2,700 tonnes, according to the United Nations Office on Drugs and Crime (UNODC).

Behind the scenes, drug traffickers find equally illicit ways to pay their suppliers and foot soldiers, or to spend the proceeds of their criminal trade. Their solution? Money laundering. It is estimated that 25% of the funds collected is laundered.

Criminals generally launder money in three stages: firstly, they inject it into the financial system; secondly, they layer it with the aim of obscuring the origin of the funds, and finally, they integrate it into the financial system, a process aimed at legitimising the money. This typology does not take into account the fact that money laundering is sometimes partial, i.e. it stops at the first stage. Let us consider an example.

Take the money from cocaine originating from the main exporter of coca: Colombia. Some of it is laundered entirely on site, by reinjecting the cash into legitimate businesses – restaurants, hairdressers, etc. – while another part is used to pay for the goods. To do this, it has long been sufficient to provide cash – in banknotes – which is then laundered in Colombia.

Cash smuggling

In Europe, the cash is exchanged for €500 notes by accomplices working in banks and then entrusted to money mules. The latter take the plane with sums of between £200,000 and £500,000.

It is this link in the drug trafficking chain – bulk cash smuggling – that has allowed cryptocurrencies to emerge as a key cog in narco traffic.

To fully get one’s head around the use of cryptocurrencies in drug money laundering, one needs to understand how cash smuggling works. An article by Peter Reute and Melvin Soudijn (the former is a criminologist and the latter an intelligence officer with the Dutch police) has made it possible to accurately measure the costs of this operation. They accessed the accounting records of traffickers in six cases tried for offences that took place between 2003 and 2008. Between them, they accounted for €800 million transported between the Netherlands and Colombia.

The costs amounted to around 3% for changing small denominations into €500 notes, the same amount to pay the mule, and slightly less for their travel expenses. The heavy surveillance at Amsterdam-Schiphol Airport meant that they had to fly from elsewhere in Europe. Factoring in additional costs, the transport of funds to Colombia alone costs between 10% and 15%, or even up to 17% of the amounts moved.

In concrete terms:

  1. The cocaine leaves Colombia.

  2. It is sold by intermediaries in Europe.

  3. The money collected from this sale is turned into 500 euro notes, at the cost of a 3% fee.

  4. The €500 notes are entrusted to mules, at the cost of a 3% fee.

  5. The mules travel to Colombia, at the cost of 3% fee.

  6. The cash arrives in Colombia to pay for the drugs, then is laundered on the spot, again at a cost.

According to the authors, anti-money laundering regulations have succeeded in significantly increasing the costs of smuggling, particularly transport, but not the selling price, as we consider France’s booming cocaine market. Indeed, national consumption has increased ninefold since 2000. To circumvent these regulations, traffickers are relying on the 500-euro note.

End of the 500-euro note

In a twist on 4 May 2016, the European Central Bank (ECB) decided to stop issuing 500-euro notes. The number of these notes in circulation fell from 614 million at the end of 2015 to just under 220 million by mid-2025.

’It has been decided to permanently discontinue the production of the 500-euro note and to remove it from the “Europe” series, taking into account concerns that this denomination could facilitate illegal activities,’ the bank explained.

That same year, a new financial asset burst onto the scene: bitcoin.

Enter cryptocurrencies

As 500-euro notes grew scarcer from 2016, Bitcoin contributed to redrawing the map of cash trafficking.

Instead of an integrated chain where cash returns to the source of the drugs to pay for deliveries, we are witnessing a process of specialisation. On the one hand, drug traffickers exchange their cash for cryptocurrencies, which they use to pay for their supplies in Colombia. On the other, a money laundering network collects the banknotes and transports them along easier routes, such as those leading to Dubai (United Arab Emirates).

How do we know this? Thanks to, for example, Operation Destabilise by the UK’s National Crime Agency. The press release describes an international money laundering network controlled by Russians. They used an exchange platform that did not exercise its duty of care, Garantex, for cryptocurrency transactions, and Dubai, for cash transactions.

The money laundering network collected cash from drug traffickers and paid them in crypto tokens (particularly USDT-Tether), charging only 3% in fees. Compared to the 10% to 15% that transport cost in Colombia before the 500-euro note was phased out, this represents a saving of 70% to 80%.

Reporting

Cryptocurrencies – initially Bitcoin and now stablecoins such as USDT-Tether – have enabled drug traffickers to save on the cost of sending cash by choosing the safest routes. It is too early to know whether the significant increase in transatlantic drug trafficking, as reported in a recent investigation by the Financial Times, is linked to this technical innovation.

In concrete terms, the new method follows this new route between drug traffickers and money laundering networks:

  1. The cocaine leaves Colombia.

  2. It is sold by intermediaries in Europe.

  3. The money collected from this sale is exchanged for USDT-Tether cryptocurrencies, with a 3% fee.

  4. The USDT-Tether cryptocurrencies are sent to Colombia to pay for the drugs.

  5. For the money laundering network, the cash is entrusted to mules, who travel to Dubai, for a 1% fee.

  6. In Dubai, the cash is laundered for a 1% fee.

Legislation against crypto asset laundering

It’s reasonable to believe that the recent anti-money-laundering rules on crypto-asset service providers in countries that have signed the Crypto-Asset Reporting Framework will complicate matters for criminal organizations. We can also trust the latter will pinpoint the smallest loopholes and exploit them.

The invention of cryptocurrencies has set back the fight against organized crime by years, but the “coalition of the willing”, including Switzerland, the Bahamas, Malta and France, is finally getting organized.

In France, the fight against money laundering is being strengthened by a law “aimed at freeing France from the trap of drug trafficking”, passed in June 2025. A specialized national public prosecutor’s office has been created. A raft of measures is being put in place, from the administrative closure of front businesses (by prefects rather than mayors, who are too exposed) to the freezing of drug traffickers’ assets and initiatives against the mixing of crypto-assets.

But traffickers are adapting to avoid being caught, as we will see in a second article.

The Conversation

Pierre-Charles Pradier worked for the Directorate of Territorial Surveillance in the 1990s.

14.01.2026 à 14:24

La première bibliothèque de carottes glaciaires en Antarctique pour protéger la mémoire climatique de l’humanité

Thomas Stocker, Emeritus Professor of Climate and Environmental Physics, University of Bern
img
Grâce à sa température moyenne de -50&nbsp;°C, le sanctuaire construit en Antarctique permettra de stocker sans assistance technique des carottes de glace déjà prélevées partout dans le monde.
Texte intégral (1687 mots)

Le mercredi 14 janvier 2026, la première bibliothèque de carottes de glace au monde a été inaugurée à Concordia, en Antarctique. Des échantillons provenant de glaciers du monde entier commencent à y être stockés. Ils permettront notamment aux générations futures de continuer à étudier les traces des climats passés piégés dans la glace, alors que les glaciers de tous les continents fondent à un rythme effréné.

Grâce à sa température moyenne de -50 °C, cette carothèque souterraine pourra préserver du réchauffement climatique des carottes de glace déjà prélevées dans les Andes, au Svalbard (archipel norvégien en mer du Groenland), dans les Alpes, dans le Caucase ou dans les montagnes du Pamir au Tadjikistan, et ce, sans assistance technique ni réfrigération.

Ancien coprésident du groupe de travail Science du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), le climatologue et physicien suisse Thomas Stocker est aujourd’hui président de la Fondation Ice Memory, à l’initiative de ce projet en collaboration avec l’Université Grenoble Alpes et l’Université Ca’ Foscari de Venise. Il explique l’urgence de cette initiative qui se projette sur le temps long.


The Conversation : Pouvez-vous nous donner un exemple concret de la façon dont ces carottes de glace stockées en Antarctique pourraient être utilisées par les scientifiques du futur ?

Thomas Stocker : Prenons l’exemple d’un nouveau composé chimique présent dans l’atmosphère, comme un pesticide. Si, dans cinquante ans, un ou une scientifique souhaite connaître la concentration de ce composé en 2026, par exemple dans les Alpes européennes ou en Asie, il se tournera vers une carotte de glace.

Mais si la carotte de glace n’a pas été prélevée et stockée en Antarctique, ce ou cette scientifique sera incapable de répondre à cette question. Grâce aux carottes de glace stockées à Concordia, cependant, il ou elle pourra prélever un échantillon, mesurer la concentration de ce composé dans la glace prélevée il y a cinquante ou cent ans, reconstituer les données et répondre à cette question.

Mais pour permettre aux futurs scientifiques de répondre à toutes les questions qu’ils se poseront, nous devons agir rapidement. Un article scientifique très récent, publié dans Nature, s’est penché sur l’évolution globale de la fonte des glaces et prévoit que le nombre de glaciers qui disparaissent augmentera jusqu’en 2040 environ, ce qui représenterait le pic annuel de la fonte des glaciers dans le monde.

À partir de là, la fonte des glaciers se réduira. Les chiffres vont baisser, non pas parce qu’on aura arrêté le réchauffement climatique, mais parce que, un par un, ces glaciers auront disparu, et il restera de moins en moins de glaciers qui fondent. Donc, vers 2040, on va atteindre un pic de fonte des glaciers, ce qui détruira au passage les archives environnementales prestigieuses et précieuses qu’ils représentent.

Dans les Alpes, nous avons connu un réchauffement environ deux fois plus rapide que le réchauffement moyen mondial, et nous sommes donc entrés dans une véritable course contre la montre. Nous devons prélever ces carottes de glace avant que l’eau provenant de la fonte estivale pénètre dans la glace.

Le glaciologue Claude Lorius explique pourquoi les glaciers forment des archives sans pareil des climats passés.

Depuis vos premiers travaux, vous avez pu bénéficier de nombreuses avancées méthodologiques et technologiques qui nous permettent de « faire parler » la glace. Quels sont vos espoirs en la matière ? Quels facteurs pourraient contribuer à exploiter encore davantage les échantillons de glaciers qui seront conservés à Concordia ?

T. S. : Je ne peux qu’extrapoler à partir de ce que nous avons appris et expérimenté en science au cours des cinquante dernières années. Nous avons effectivement assisté à l’arrivée de nouvelles technologies qui permettent d’analyser les paramètres de la composition élémentaire, la concentration des gaz stockés dans la glace et qui, comme des clés, vous ouvrent soudainement la porte à toute une série d’informations inédites sur notre système environnemental.

Ce que je peux donc imaginer à partir de là, ce sont de nouvelles méthodes optiques permettant de déterminer la composition isotopique de différents éléments dans diverses substances chimiques, des outils d’analyse de haute précision qui pourraient être inventés dans les prochaines décennies et qui permettraient d’atteindre le niveau du picogramme, du picomole ou du femtomole, afin de nous renseigner sur la composition de l’atmosphère, sur ses composants, tels que la poussière, les minéraux provenant de diverses régions qui se sont déposés dans ces carottes de glace, afin de nous informer sur la situation, l’état de l’atmosphère dans le passé.

Comment a été construit le site de stockage des carottes de glace, en Antarctique.

Vous êtes professeur émérite de physique climatique et environnementale. Pour quelles autres disciplines le projet Ice Memory est-il utile ?

T. S. : On peut penser à la biologie. Si vous trouvez des restes organiques ou de l’ADN dans ces carottes de glace, c’est de la biologie. On peut aussi étudier la composition chimique de l’atmosphère. C’est alors de la chimie. On peut même se demander quelle est la composition minérale des petites particules de poussière qui se déposent dans ces carottes de glace. C’est un travail de géologue. Vous disposez donc de toute une gamme de domaines scientifiques différents qui peuvent tirer de nouvelles informations à partir de ces carottes de glace.

Le projet Ice Memory ne fait pas que rassembler différentes disciplines scientifiques, il aspire aussi à fédérer des scientifiques du monde entier. Quel défi cela représente-t-il à une époque où les tensions géopolitiques ne cessent de croître ?

T. S. : Ice Memory est l’un de ces exemples où le multilatéralisme est activement mis en pratique par la communauté scientifique. Il s’agit d’une offre faite aux scientifiques du monde entier, dans tous les pays, afin qu’ils puissent utiliser ce sanctuaire unique situé à Concordia. Pour nous, il s’agit vraiment d’une activité emblématique qui dépasse les frontières et les divisions politiques afin de préserver les informations provenant de la planète Terre, non seulement pour la prochaine génération de scientifiques, mais aussi pour l’humanité en général.

Nous invitons également tous les pays qui possèdent des glaciers sur leur territoire à participer et à soutenir leur communauté scientifique afin de forer des carottes de glace dans ces régions et de suivre l’exemple du Tadjikistan. ce dernier est le premier pays à avoir fait don d’une carotte de glace, 105 mètres de glace précieuse provenant d’un site unique, le glacier Chukurbashi, à la fondation Ice Memory afin qu’elle soit stockée en Antarctique.

Donation du Tadjikistan d’une carotte de glace du glacier Chukurbashi.

Pendant la guerre froide, l’Antarctique était l’un des rares endroits sur Terre où Russes et Américains pouvaient échanger leurs idées et mener ensemble des recherches scientifiques. L’Antarctique peut-elle encore être un lieu où le dialogue remplace la rivalité ?

T. S. : Je suis absolument convaincu que l’environnement unique de l’Antarctique, si riche en nature et en vie, et si particulier sur notre planète, fait que les considérations relatives à la position et aux valeurs de chaque pays sont secondaires. La priorité absolue, comme nous l’avons pratiquée au cours des cinquante dernières années d’activité scientifique sur le terrain, est vraiment de comprendre notre système climatique, d’observer la nature du point de vue de l’Antarctique et de la protéger.

Cela nous donne l’occasion de nous immerger véritablement, de collaborer et d’échanger des idées sur des questions scientifiques spécifiques qui nous concernent tous, car elles concernent l’avenir de cette planète que nous partageons.

Propos recueillis par Gabrielle Maréchaux.

The Conversation

Thomas Stocker est président de la Fondation Ice Memory.

14.01.2026 à 12:28

Comment la première Bible à comporter une carte a contribué à diffuser l’idée de pays aux frontières établies

Nathan MacDonald, Professor of the Interpretation of the Old Testament, University of Cambridge
img
L’apparition de la toute première carte dans une Bible, au début du XVIᵉ siècle, a profondément transformé la manière de représenter la Terre sainte – et, plus largement, le monde.
Texte intégral (2452 mots)

L’apparition de la toute première carte dans une Bible, au début du XVIe siècle, a profondément transformé la manière de représenter la Terre sainte – et, plus largement, le monde. Elle a participé à la naissance d’un monde organisé en États-nations… dont nous subissons encore aujourd’hui l’héritage.


Il y a cinq siècles paraissait la première Bible contenant une carte. L’anniversaire est passé inaperçu, pourtant il célèbre un évenement qui a changé durablement la fabrication des Bibles. Cette carte figurait dans l’Ancien Testament publié en 1525 par Christopher Froschauer à Zurich, et elle a circulé largement dans l’Europe centrale du XVIe siècle.

Pourtant, malgré son importance dans l’histoire de la Bible, cette innovation n’a pas vraiment été un succès. La carte est inversée sur l’axe nord-sud (elle se lit donc à l’envers). La Méditerranée se retrouve à l’est de la Palestine, et non à l’ouest. Une anecdote qui montre à quel point la connaissance européenne du Moyen-Orient restait limitée à l’époque – au point qu’aucun membre de l’atelier d’impression ne s’en soit rendu compte.

La carte avait été dessinée environ dix ans plus tôt par le célèbre peintre et graveur de la Renaissance Lucas Cranach l’Ancien, installé à Wittenberg dans l’actuelle Allemagne. Rédigée en latin, elle représente la Palestine avec plusieurs lieux saints importants comme Jérusalem et Bethléem. En bas, on distingue les montagnes du Sinaï et le chemin emprunté par les israélites lors de leur fuite de l’esclavage en Égypte.

La carte de la Terre sainte de Lucas Cranach l’Ancien dans l’Ancien Testament de Christopher Froschauer
La carte de la Terre sainte de Lucas Cranach l’Ancien dans l’Ancien Testament de Christopher Froschauer. Bibliothèque Wren, The Master and Fellows of Trinity College, Cambridge, CC BY-SA

En regardant de près, on distingue les israélites et leurs tentes, ainsi que plusieurs petites scènes illustrant les épisodes de leur voyage. Le paysage est toutefois plus européen que moyen-oriental, ce qui reflète l’ignorance des imprimeurs concernant cette région. On voit des villes fortifiées entourées d’arbres et, contrairement à la réalité, le Jourdain serpente fortement vers la Mer Morte, tandis que le littoral présente davantage de baies et d’anses.

Au siècle précédent, les Européens avaient redécouvert le géographe gréco-romain du IIe siècle, Ptolémée, et avec lui l’art de produire des cartes précises utilisant latitude et longitude, dans la mesure où l’on pouvait alors estimer cette dernière (elle s’est considérablement améliorée dans les siècles suivants). Avec l’essor de l’imprimerie, la « Géographie » de Ptolémée avait conquis l’Europe : on avait publié son traité scientifique et ses cartes du monde antique avaient été largement reproduites.

Les imprimeurs ont toutefois rapidement découvert que les acheteurs souhaitaient des cartes contemporaines. De nouvelles cartes de la France, de l’Espagne ou encore de la Scandinavie furent bientôt publiées. À nos yeux, elles sont véritablement modernes : le nord est placé en haut de la page et la localisation des villes, des fleuves et des côtes y est représentée avec une grande précision.

Carte de France tirée de la « Géographie » de Ptolémée
Carte moderne de la France dans la « Géographie » de Ptolémée, édition d’Ulm de 1486 (1482). Stanford University, CC BY-SA

Ces cartes ont rapidement supplanté la cartographie médiévale et son approche symbolique du monde, comme la célèbre mappemonde d’Hereford du monde connu vers 1300, où il s’agissait davantage de transmettre une signification culturelle ou religieuse que d’atteindre une précision géographique. Avec une exception, toutefois : la Palestine.

Les premiers éditeurs de Ptolémée proposaient à leurs lecteurs une « carte moderne de la Terre sainte »… qui n’avait en réalité rien de moderne. C’était une carte héritée du Moyen Âge, conçue non pas à partir de la latitude et de la longitude, mais grâce à une grille permettant d’estimer les distances entre les lieux. Elle était orientée avec l’est en haut de la page et l’ouest en bas. On y voyait les grands sites du christianisme, et la Palestine y était découpée selon les territoires des tribus.

La carte de Cranach mêle ces deux approches. En haut et en bas, elle affiche des lignes de méridien, mais la côte est inclinée de sorte que toute la carte est orientée vers le nord-est en haut de la page.

On a l’impression que Cranach ne savait pas tout à fait quel type de carte produire. La représentation se veut réaliste et moderne, mais elle reste chargée de géographie symbolique : en parcourant la carte du regard, on voyage avec les israélites depuis l’esclavage en Égypte jusqu’à la Terre promise, en passant par tous ses lieux emblématiques, comme le mont Carmel, Nazareth, le Jourdain ou Jéricho.

Perceptions de la Palestine

Cette carte illustre bien le peu d’intérêt que l’Europe portait à la Palestine, alors sous domination ottomane. Ce que recherchaient les lecteurs européens, c’était cet espace hybride qu’est la « Terre sainte » : un lieu appartenant à notre monde, mais qui, en même temps, en échappait.

Les villes qui y étaient représentées étaient celles ayant prospéré deux millénaires plus tôt et qui, pour les chrétiens, avaient en un sens davantage de réalité. Elles appartenaient à cet espace imaginaire façonné par les Écritures et la prédication des églises.

Le Passage de la mer Rouge (Poussin) 1633-34
L’Exode peint par Nicolas Poussin dans son tableau « Le Passage de la mer Rouge » (1633-34). Wikimedia, CC BY-SA

Ce mélange étonnant d’ancien et de moderne a eu des effets particulièrement importants lorsqu’il s’est agi de cartographier la Palestine selon les douze territoires tribaux. Les douze tribus issues de Jacob symbolisaient, pour les chrétiens, la légitimité de leur héritage : celui d’Israël, de ses lieux saints et de tout ce qu’ils incarnaient – l’accès à la Jérusalem céleste. Sur ces cartes, les lignes inscrivaient visuellement les promesses éternelles faites par Dieu.

Or, à l’époque moderne, ces mêmes lignes commencèrent à marquer les frontières entre États souverains. Les cartes de la Terre sainte, soigneusement découpée entre les tribus d’Israël, ont ainsi influencé durablement les cartographes. Au fil du XVIe siècle, de plus en plus de cartes dans les atlas ont représenté un monde découpé entre des nations distinctes, dotées de frontières clairement définies.

Le fait qu’une carte découpée en territoires figure dans la Bible donnait, en apparence, une caution religieuse à un monde rempli de frontières. Des lignes qui symbolisaient autrefois l’étendue illimitée des promesses divines servaient désormais à marquer les limites de souverainetés politiques.

Dans les Bibles elles-mêmes, les cartes s’étaient installées pour de bon. Dans les années qui suivirent, les imprimeurs testèrent différentes configurations, mais ils finirent par retenir quatre cartes essentielles : celle des errances des israélites dans le désert, celle des territoires des douze tribus, celle de la Palestine au temps de Jésus, et celle des voyages missionnaires de l’apôtre Paul.

Il y avait là une belle symétrie : deux cartes pour l’Ancien Testament, deux pour le Nouveau. Mais aussi deux cartes de voyages et deux cartes de la Terre sainte. Ces équilibres visuels mettaient en scène les liens entre les évènements : l’Ancien Testament s’accomplit dans le Nouveau, et le judaïsme trouve son aboutissement dans le christianisme.

L’apparition de la première carte dans une Bible marque donc un moment historique fascinant – mais aussi troublant. Elle a transformé la Bible en un objet proche d’un atlas de la Renaissance, tout en s’appuyant sur l’idée d’une supériorité chrétienne : la Terre sainte telle que l’imaginaire chrétien la concevait reléguait la Palestine contemporaine à l’arrière-plan, et le christianisme se posait en héritier ultime du judaïsme.

Cette carte fut également l’un des instruments ayant contribué à façonner le monde moderne des États-nations. Et d’une certaine façon, nous vivons encore aujourd’hui les conséquences de ce tournant.

The Conversation

Nathan MacDonald ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.01.2026 à 12:28

Non, on ne portait pas d’appareil dentaire dans l’Égypte antique… Historiens et archéologues s’attaquent au mythe

Saroash Shahid, Reader in Dental Materials, Queen Mary University of London
img
L’idée que les civilisations antiques auraient été les pionnières de l’orthodontie a longtemps fasciné, mais l’archéologie montre que leurs travaux dentaires répondaient à d'autres objectifs.
Texte intégral (1641 mots)
Les chevauchements de dents n’existaient quasiment pas à l’époque antique. Hryshchyshen Serhii/Shutterstock.com

Longtemps, l’idée que les civilisations antiques auraient inventé l’orthodontie a fasciné chercheurs et grand public. Des fils d’or et des bandes dentaires retrouvés dans des tombes semblaient en apporter la preuve. Mais l’archéologie raconte aujourd’hui une histoire bien différente.


Les anciens Égyptiens et les Étrusques auraient été les pionniers de l’orthodontie, utilisant de délicats fils d’or et du catgut (un type de fil fabriqué à base de boyaux d’origine animale) pour redresser les dents. C’est une histoire que l’on retrouve depuis des décennies dans les manuels de dentisterie, présentant nos ancêtres comme étonnamment modernes dans leur quête du sourire parfait. Mais lorsque des archéologues et des historiens de la dentisterie ont enfin examiné les preuves de près, ils ont découvert que l’essentiel relevait du mythe.

Prenons la contention d’El-Qattah en Égypte, datée d’environ 2500 av. J.-C. Le fil d’or retrouvé avec les restes anciens ne remplissait pas du tout la fonction que l’on imaginait. Plutôt que de tirer les dents pour les aligner, ces fils servaient à stabiliser des dents branlantes ou à maintenir des dents de remplacement en place. Autrement dit, ils fonctionnaient comme des prothèses, pas comme des appareils orthodontiques.

L’or, un indice

Les bandes d’or découvertes dans les tombes étrusques racontent une histoire similaire. Il s’agissait probablement d’attelles dentaires destinées à soutenir des dents fragilisées par des maladies des gencives ou des blessures, et non de dispositifs visant à déplacer les dents vers de nouvelles positions.

Il existe d’ailleurs des raisons pratiques assez convaincantes pour lesquelles ces dispositifs anciens n’auraient de toute façon pas pu fonctionner comme des appareils orthodontiques. Des tests réalisés sur des appareils étrusques ont révélé que l’or utilisé était pur à 97 %, mais l’or pur est remarquablement mou.

Il se plie et s’étire facilement sans se rompre, ce qui le rend inutilisable en orthodontie. Les appareils dentaires fonctionnent en exerçant une pression continue sur de longues périodes, ce qui nécessite un métal à la fois solide et élastique. L’or pur en est tout simplement incapable. Essayez de le tendre suffisamment pour redresser une dent, et il se déformera ou se rompra.

Reste ensuite la question intrigante de l’identité des personnes qui portaient ces bandes d’or. Beaucoup ont été retrouvées sur des squelettes de femmes, ce qui suggère qu’il s’agissait peut-être de symboles de statut ou de bijoux décoratifs plutôt que de dispositifs médicaux. De manière révélatrice, aucune n’a été découverte dans la bouche d’enfants ou d’adolescents – précisément là où l’on s’attendrait à les trouver s’il s’agissait de véritables appareils orthodontiques.

Pas de réel besoin

Mais la révélation la plus fascinante est peut-être celle-ci : les populations anciennes ne connaissaient pas les mêmes problèmes dentaires que ceux auxquels nous sommes confrontés aujourd’hui.

La malocclusion – l’encombrement et le mauvais alignement des dents, aujourd’hui si fréquents – était extrêmement rare autrefois. Des études menées sur des crânes de l’âge de pierre montrent une quasi-absence de chevauchement des dents. La différence tient à l’alimentation.

Nos ancêtres consommaient des aliments durs et fibreux qui exigeaient une mastication intense. Tout ce travail de la mâchoire favorisait le développement de mâchoires fortes et larges, parfaitement capables d’accueillir toutes leurs dents.

À l’inverse, les régimes alimentaires modernes sont mous et transformés, offrant peu d’exercice aux mâchoires. Résultat : nos mâchoires sont souvent plus petites que celles de nos ancêtres, tandis que nos dents restent de la même taille, ce qui entraîne l’encombrement que l’on observe aujourd’hui.

Puisque les dents de travers étaient quasiment inexistantes dans l’Antiquité, il n’y avait guère de raison de développer des méthodes pour les redresser.

Premiers traitements

Cela dit, les populations anciennes ont parfois tenté des interventions simples pour corriger certaines irrégularités dentaires. Les Romains fournissent l’une des premières références fiables à ce qui peut être considéré comme un véritable traitement orthodontique.

Aulus Cornelius Celsus ou Celse, médecin et auteur romain du Ier siècle apr. J.-C., indiquait que lorsqu’une dent d’enfant poussait de travers, il fallait la repousser doucement chaque jour avec un doigt jusqu’à ce qu’elle se déplace vers la bonne position. Bien que rudimentaire, cette méthode repose sur le même principe que celui utilisé aujourd’hui : une pression douce et continue peut déplacer une dent.

Après l’époque romaine, les progrès furent minimes pendant des siècles. Toutefois, au XVIIIe siècle, l’intérêt pour le redressement des dents refit surface, au prix de méthodes parfois particulièrement douloureuses.

Faute d’accès à des instruments dentaires modernes, certains avaient recours à des « cales gonflantes » en bois pour créer de l’espace entre des dents trop serrées. Une petite cale de bois était insérée entre les dents ; en absorbant la salive, le bois se dilatait et forçait les dents à s’écarter. Rudimentaire et atroce, sans doute, mais cette pratique marquait une étape vers la compréhension du fait que les dents pouvaient être déplacées par la pression.

Orthodontie scientifique

La véritable orthodontie scientifique débute avec les travaux du dentiste français Pierre Fauchard en 1728. Souvent considéré comme le père de la dentisterie moderne, Fauchard publie un ouvrage fondateur en deux volumes, Le Chirurgien dentiste, qui contient la première description détaillée du traitement des malocclusions.

Il met au point le « bandeau » – une bande métallique courbe placée autour des dents afin d’élargir l’arcade dentaire. Il s’agit du premier instrument spécifiquement conçu pour déplacer les dents à l’aide d’une force contrôlée.

Fauchard décrit également l’utilisation de fils pour soutenir les dents après leur repositionnement. Son travail marque un tournant décisif, faisant passer l’orthodontie des mythes antiques et des expérimentations douloureuses à une approche scientifique qui conduira, à terme, aux appareils dentaires modernes et aux aligneurs transparents.

Une spécialité à part entière

Avec les progrès de la dentisterie aux XIXe et XXe siècles, l’orthodontie devient une spécialité à part entière. Les bagues métalliques, les arcs, les élastiques, puis l’acier inoxydable rendent les traitements plus fiables.

Des innovations ultérieures – bagues en céramique, appareils linguaux et aligneurs transparents – rendent ensuite le processus plus discret. Aujourd’hui, l’orthodontie s’appuie sur des scans numériques, des modèles informatiques et l’impression 3D pour une planification des traitements d’une précision remarquable.

L’image de populations antiques portant des appareils dentaires en or et en catgut est certes séduisante et spectaculaire, mais elle ne correspond pas aux faits.

Les civilisations anciennes avaient conscience de certains problèmes dentaires et ont parfois tenté des solutions simples. Elles n’avaient toutefois ni le besoin ni la technologie permettant de déplacer les dents comme nous le faisons aujourd’hui.

La véritable histoire de l’orthodontie ne commence pas dans l’Antiquité, mais avec les avancées scientifiques du XVIIIe siècle et au-delà – une histoire déjà suffisamment passionnante sans qu’il soit nécessaire d’y ajouter des mythes.

The Conversation

Saroash Shahid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.01.2026 à 12:28

Mettre un patch sur ses boutons, une mode qui date de plusieurs siècles

Sara Read, Lecturer in English, Loughborough University
img
Au XVIIᵉ siècle, on utilisait les mouches pour cacher les marques laissées par certaines maladies, comme la variole ou la syphilis. Quatre cents&nbsp;ans plus tard, avec les patchs anti-boutons, cette mode resurgit.
Texte intégral (1564 mots)
Des smileys sur les joues des adolescents d’aujourd’hui aux élégantes mouches noires des salons de la Restauration Stuart (ici sur un tableau de 1650), le visage humain a toujours été un terrain de créativité esthétique… Compton Verney Art Gallery/Canva

Aujourd’hui populaires sur les réseaux sociaux, les patchs anti-boutons ne sont pas une invention moderne : leur ancêtre, la « mouche », décorait déjà le visage des élégantes et des coquettes du XVIIe siècle.


Vous avez sans doute déjà croisé des personnes qui se promènent avec de petits stickers sur le visage. Peut-être avez-vous vu des lunes, des étoiles, des nuages ou même des visages souriants orner les joues et le menton des gens que vous rencontrez. Peut-être en portez-vous vous-même. Si certaines personnes les utilisent comme des accessoires de mode, ces autocollants colorés sont en réalité des « patchs anti-imperfections » médicamenteux, conçus pour traiter les boutons ou l’acné.

Certains de ces patchs contiennent un gel qui s’attaque à l’imperfection en cours d’apparition en la maintenant humide afin de favoriser la cicatrisation. D’aucuns préfèrent des patchs en film quasi transparent afin d’en tirer les mêmes bénéfices, mais de manière plus discrète.

Loin d’être une mode récente, les patchs de beauté ont une longue histoire sous leur précédent nom de « mouche ». La tendance a pris son essor une première fois dans l’Europe du XVIIe siècle, avec des patchs fabriqués en papier, en soie ou en velours, voire en cuir fin, découpés en formes de losanges, d’étoiles ou de croissants de lune.

Ils pouvaient être fabriqués dans de nombreuses couleurs, mais on privilégiait généralement le noir, parce qu’il offrait un contraste parfait avec le teint pâle idéalisé des hommes et des femmes de la haute société occidentale, teint qu’ils envisageaient comme un marqueur de statut social, indiquant qu’ils ne travaillaient pas en plein air. La pièce Blurt, Master-Constable (1602) explique un autre attrait des mouches : lorsqu’elles étaient bien disposées, elles pouvaient « attirer les yeux des hommes et provoquer leurs regards ».

Le signe de Caïn

Les mouches sont fréquemment mentionnées dans les textes, de la fin du XVIe et du début du XVIIe siècle. Tout comme aujourd’hui, ces patchs avaient une double fonction. Dans sa pièce de 1601 Jack Drum’s Entertainment, John Marston explique ainsi : « Les mouches sont portées, certaines par fierté, certaines pour retenir l’écoulement, et certaines pour cacher une croûte. »

Ainsi coexistaient des pièces portées par coquetterie, et d’autres – parfois thérapeutiques – destinées à assécher des plaies. Elles servaient également à dissimuler les cicatrices laissées alors par des maladies, comme la variole ou la syphilis.

C’est ce dernier usage qui a conduit les moralistes à s’opposer aux mouches. Un livre anonyme de 1665 affirmait qu’un aumônier du roi d’Angleterre Charles Ier avait prononcé un sermon les comparant à la marque de Caïn. Il allait jusqu’à laisser entendre que le port de ces accessoires favorisait les épidémies de peste :

« Les mouches et les grains de beauté artificiels […] étaient les précurseurs d’autres taches et marques de la peste. »

D’autres moralistes semblaient davantage préoccupés encore par le fait que, tout comme le maquillage, leur fonction était de présenter une fausse apparence, susceptible de tromper son monde. Cette critique s’est généralisée au XVIIIe siècle, lorsque l’usage des mouches s’est retrouvé associé à une conduite sexuelle jugée légère.

La Carrière d’une prostituée, de William Hogarth (1731), est une série de tableaux représentant la chute d’une jeune fille de la campagne, Moll Hackabout. Nouvellement arrivée à Londres, elle est trompée par la tenancière de maison close Elizabeth Needham. Le visage de Needham est couvert de ces mouches.

Sa majesté et les mouches

Le diariste anglais Samuel Pepys mentionne ces patchs à plus d’une douzaine de reprises dans son journal, entre 1660 et 1669. Il les rencontre pour la première fois au printemps  660, lors d’un voyage d’affaires à La Haye, où il croise « deux très jolies dames, très à la mode et portant des mouches noires, qui chantaient joyeusement tout le long du trajet ».

Le lendemain, au cours d’une promenade en ville, il note :

« Tout le monde à la mode parle français ou latin, ou les deux. Les femmes, pour beaucoup d’entre elles, sont très jolies, bien vêtues, élégantes et portent des mouches noires. »

Il précise également que ces dernières étaient souvent humidifiées avec de la salive afin de les faire tenir. En mai 1668, il se souvient avoir vu Lady Castlemaine – maîtresse de Charles II – réclamer une mouche que portait sa servante, la mouiller dans sa bouche puis l’appliquer sur son propre visage. Nous savons aussi, grâce à Pepys, que Jacques, duc d’York, appréciait lui aussi de porter une ou deux mouches.

Dès le mois d’août de la même année, Pepys note dans son journal que son épouse Elizabeth portait des patchs lors d’un baptême. Il semble toutefois l’avoir oublié lorsqu’il écrit en novembre :

« Ma femme m’a paru très jolie aujourd’hui, car c’était la première fois que je lui avais donné la permission de porter une mouche noire. »

Lui-même arbora une mouche en septembre 1664, lorsqu’il se réveilla avec la bouche couverte de croûtes.

La French Touch

La mode des mouches connut son apogée durant la Restauration Stuart (1660-1700), lorsque les royalistes revenus d’exil rapportèrent des modes françaises qu’ils jugeaient le summum du raffinement.

L’écrivaine anglaise Mary Evelyn expliquait ainsi que « mouches » était le terme français en vogue pour désigner les « patchs noirs », un terme parfois utilisé également en anglais. Son poème Mundus Muliebris : Or The Ladies Dressing-Room Unlock’d, and Her Toilets Spread, publié à titre posthume en 1690, constitue une satire mordante des modes francophiles du Londres de la Restauration, auxquelles Evelyn estimait que seules les personnes vulgaires pouvaient céder.

S’il est difficile d’imaginer que les personnes qui portent aujourd’hui des patchs anti-boutons puissent faire l’objet du même type de critiques moralisatrices qu’autrefois, il existe néanmoins certains recoins d’internet où l’on se moque de celles et ceux qui sortent en public avec ces stickers.

Qu’ils soient efficaces ou non, les patchs anti-boutons restent un accessoire inoffensif. À partir de la fin du XVIIe siècle, les ouvrages commencent à mentionner les boîtes à mouches, de petits écrins ouvragés spécialement conçus pour les ranger.

Les personnes à la mode aimaient se montrer avec une petite boîte en argent, destinée à contenir leurs mouches en velours ou en soie. Peut-être faut-il y voir la prochaine étape du retour à la mode de ces patchs anti-boutons.

The Conversation

Sara Read ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.01.2026 à 12:25

De l’histoire à la mémoire : 160 ans de commémoration de la fin de l’esclavage aux États-Unis

Frédérique Sandretto, Adjunct assistant professor, Sciences Po
img
La ratification du 13ᵉ&nbsp;amendement de la Constitution, en 1865, abolit formellement l’esclavage aux États-Unis. Cette rupture juridique, loin de clore l’histoire, ouvre une longue séquence de conflits mémoriels…
Texte intégral (2437 mots)
Cette célèbre photo (1863, ici colorisée) d’un esclave dont on voit le dos couvert de cicatrices s’est retrouvée en septembre 2025 au centre d’une polémique. Plusieurs journaux ont affirmé que l’administration Trump avait demandé au National Park Service de la retirer de plusieurs de ses sites. La Maison Blanche a aussitôt nié avoir fait cette demande. Une illustration de plus des tensions encore à l’œuvre aux États-Unis autour de la mémoire de l’esclavage. William D. McPherson et J. Oliver/Creative Commons, CC BY

De la guerre de Sécession au « 1619 Project », la fin légale de l’esclavage aux États-Unis s’inscrit dans une histoire longue de luttes, de résistances et de controverses. Commémorer l’abolition, c’est interroger les fondements mêmes de la démocratie américaine et ses promesses inachevées.


L’abolition officielle de l’esclavage aux États-Unis est consacrée le 18 décembre 1865, date de la ratification du treizième amendement de la Constitution américaine. Cet amendement interdit formellement l’esclavage et la servitude involontaire, et marque une rupture juridique majeure dans l’histoire politique et sociale des États-Unis. Cette date constitue aujourd’hui la référence historique et symbolique de la fin légale de l’esclavage sur l’ensemble du territoire national.

Le contexte de cette abolition est indissociable de la guerre de Sécession (1861–1865), conflit né des profondes divergences économiques, politiques et morales entre les États du Nord et ceux du Sud. Tandis que le Nord se dirigeait progressivement vers l’abolition, le Sud fondait sa prospérité sur un système esclavagiste profondément enraciné. En 1863, le président Abraham Lincoln promulgua l’Emancipation Proclamation, qui déclara libres les esclaves des États confédérés en rébellion. Toutefois, cette proclamation avait une portée limitée et ne constituait pas une abolition universelle. Seule une réforme constitutionnelle pouvait garantir une suppression définitive et juridiquement incontestable de l’esclavage.

Le treizième amendement fut adopté par le Congrès en janvier 1865, puis ratifié par le nombre requis d’États en décembre de la même année. Abraham Lincoln, bien qu’assassiné en avril 1865, demeure la figure centrale de ce processus abolitionniste, en raison de son engagement politique et moral en faveur de l’amendement. La ratification marque l’aboutissement institutionnel d’un long combat mené par les abolitionnistes, les anciens esclaves et les défenseurs des droits humains.

Les contradictions originelles du projet américain

La commémoration de l’abolition de l’esclavage aux États-Unis ne peut être comprise sans un retour approfondi sur les luttes politiques, sociales et intellectuelles qui ont conduit à la disparition formelle de cette institution, ni sans une analyse des contradictions qui traversent dès l’origine le projet national américain.

L’esclavage constitue en effet l’un des paradoxes majeurs de la construction des États-Unis : alors même que la jeune nation se fonde sur un discours universaliste de liberté, d’égalité et de souveraineté populaire, elle maintient et institutionnalise un système reposant sur la négation radicale de ces principes pour une partie de la population.

Dès la période coloniale, des résistances à l’esclavage émergent, portées à la fois par les personnes réduites en esclavage elles-mêmes – à travers des révoltes, des fuites ou des formes quotidiennes de résistance – et par des mouvements abolitionnistes structurés à partir de la fin du XVIIIᵉ siècle.

La révolte de Stono, survenue en Caroline du Sud en 1739, est l’une des plus importantes insurrections d’esclaves de l’Amérique coloniale. Les insurgés se soulèvent contre leurs maîtres et tentent de rejoindre la Floride espagnole, où la liberté est promise aux esclaves fugitifs. La répression est extrêmement violente, mais l’événement révèle l’ampleur de la résistance organisée des personnes réduites en esclavage.

Parallèlement, les Quakers jouent un rôle pionnier dans la lutte contre l’esclavage en Amérique du Nord dès le XVIIIᵉ siècle. Ils sont parmi les premiers à condamner l’esclavage pour des raisons morales et religieuses, affirmant l’égalité spirituelle de tous les êtres humains. Leur engagement conduit à la création des premières sociétés abolitionnistes et influence durablement le mouvement antiesclavagiste américain.

Au XIXᵉ siècle, ces luttes se renforcent avec la diffusion d’écrits abolitionnistes, de récits d’anciens esclaves et par l’action de réseaux militants, tels que l’Underground Railroad. Toutefois, ces combats se heurtent à des intérêts économiques considérables, en particulier dans les États du Sud, où l’esclavage constitue le pilier du système de production agricole.

La rédaction de la Constitution de 1787 illustre de manière exemplaire cette tension. Bien que le texte ne mentionne jamais explicitement le mot « esclavage », plusieurs dispositions en assurent la protection et la pérennité. Le compromis des trois cinquièmes, la clause relative aux esclaves fugitifs (établissant que les personnes qui échappaient à l’esclavage dans le Sud n’étaient pas réellement libres) ou encore la garantie du maintien de la traite jusqu’en 1808 traduisent un choix politique clair : préserver l’unité des États au prix d’un renoncement moral.

La clause des trois cinquièmes, inscrite dans la Constitution de 1787, est directement liée à la question de l’esclavage aux États-Unis et révèle les profondes contradictions sur lesquelles la nation s’est construite. Lors de la convention de Philadelphie (1787), les États du Sud, fortement esclavagistes, souhaitaient que les esclaves soient comptés comme des citoyens à part entière pour augmenter leur représentation politique au Congrès, tandis que les États du Nord s’y opposaient puisqu’ils refusaient d’accorder des droits politiques à des personnes privées de liberté. Le compromis trouvé fut la clause des trois cinquièmes, selon laquelle chaque esclave serait compté comme trois cinquièmes d’une personne pour le calcul de la population. Cette décision renforça le pouvoir politique des États du Sud tout en maintenant les esclaves dans une situation de déshumanisation totale, puisqu’ils n’avaient ni droits civiques ni libertés fondamentales. L’esclavage, déjà central dans l’économie des plantations de coton et de tabac, fut ainsi institutionnalisé et protégé par le cadre constitutionnel.

Cette clause illustre le paradoxe fondateur des États-Unis, une nation proclamant l’égalité et la liberté tout en acceptant l’exploitation et l’oppression de millions d’Africains réduits en esclavage. À long terme, ce compromis contribua à creuser les tensions entre le Nord et le Sud, tensions qui mèneront finalement à la guerre de Sécession et à l’abolition de l’esclavage en 1865.

Les Pères fondateurs, souvent présentés dans la mémoire nationale comme des figures héroïques de la liberté, apparaissent ainsi comme des acteurs ambivalents, pris entre idéaux philosophiques hérités des Lumières et réalités économiques et sociales profondément inégalitaires. Cette contradiction structurelle nourrit progressivement les divisions politiques et idéologiques qui mèneront à la guerre de Sécession (1861-1865), conflit au terme duquel l’abolition est proclamée par le 13ᵉ amendement. La commémoration de cette abolition renvoie donc moins à une victoire consensuelle qu’à l’issue d’un affrontement violent révélant les failles du projet démocratique américain.

Le « 1619 Project », une relecture de l’esclavage

Dans les débats contemporains sur la mémoire de l’esclavage, le « 1619 Project » occupe une place centrale. Lancé en 2019 par le New York Times, ce projet historiographique et médiatique propose une relecture profonde de l’histoire des États-Unis en plaçant l’esclavage et ses héritages au cœur du récit national. En faisant de l’année 1619 – date symbolique de l’arrivée des premiers Africains réduits en esclavage en Virginie – un point de départ alternatif à 1776, le projet remet en question la centralité de l’indépendance comme moment fondateur unique.

L’impact du « 1619 Project », qui a valu à sa créatrice, Nikole Hannah-Jones, le prix Pulitzer en 2020, est multiple. Sur le plan académique, il s’inscrit dans une historiographie critique qui insiste sur le rôle structurant de l’esclavage dans le développement économique, institutionnel et culturel des États-Unis. Sur le plan politique et mémoriel, il alimente de vives controverses, notamment autour de l’enseignement de l’histoire, de la légitimité des récits nationaux et de la place accordée aux populations afro-américaines dans la mémoire collective.

Ses promoteurs défendent l’idée que l’abolition de l’esclavage ne peut être comprise comme une rupture nette, mais comme un moment dans une longue continuité de domination raciale et de luttes pour les droits civiques. À l’inverse, ses détracteurs dénoncent une approche jugée téléologique ou idéologisée. Quelles que soient ces critiques, le « 1619 Project » a contribué à transformer durablement les cadres de la commémoration de l’esclavage, en mettant l’accent sur les héritages contemporains de cette institution.

L’analyse comparée permet aujourd’hui d’éclairer les spécificités du processus abolitionniste américain. Contrairement à d’autres puissances esclavagistes, l’abolition aux États-Unis résulte d’un conflit armé interne d’une ampleur exceptionnelle. Là où le Royaume-Uni adopte une abolition progressive par voie législative, accompagnée d’indemnisations pour les propriétaires, et où la France proclame l’abolition par décret en 1848 dans un contexte révolutionnaire, les États-Unis connaissent une abolition imposée par la victoire militaire du Nord sur le Sud.

Cette violence structure la mémoire de l’abolition et contribue à expliquer les résistances persistantes à son acceptation pleine et entière. À titre d’exemple, les Copperheads illustrent ce courant. Il ne s’agit pas d’un mouvement officiellement fondé par un leader unique, mais d’une nébuleuse d’élus, de journalistes et de militants – tels que Clement L. Vallandigham, figure emblématique du groupe – unis par leur opposition à la politique de guerre d’Abraham Lincoln. Les Copperheads aspirent avant tout à une paix négociée avec les États confédérés, au nom de la préservation de l’Union telle qu’elle existait avant la guerre, sans transformation sociale profonde. Leur rejet de l’abolition de l’esclavage repose sur plusieurs arguments : ils la considèrent comme inconstitutionnelle, dangereuse pour l’équilibre fédéral, et susceptible de provoquer une concurrence économique entre anciens esclaves et travailleurs blancs du Nord.

Par ailleurs, l’après-abolition américain se caractérise par l’échec partiel de la Reconstruction, période pourtant cruciale pour la redéfinition de la citoyenneté et des droits civiques. Là où certains pays tentent – avec des succès variables – d’intégrer les anciens esclaves dans le corps politique, les États-Unis voient se mettre en place, dès la fin du XIXᵉ siècle, des systèmes de ségrégation et de discrimination légalisée. Cette comparaison met en évidence le caractère inachevé de l’abolition américaine, tant sur le plan social que politique.

Enfin, la commémoration de l’abolition de l’esclavage aux États-Unis s’inscrit pleinement dans les débats contemporains sur la question raciale. L’abolition juridique de 1865 n’a pas mis fin aux inégalités structurelles, comme en témoignent la ségrégation, les violences raciales, les discriminations systémiques et les inégalités socio-économiques persistantes. Les commémorations actuelles, telles que Juneteenth, le 19 juin, reconnu comme jour férié fédéral en 2021 pour célébrer l’émancipation des esclaves, prennent ainsi une dimension éminemment politique. Elles visent non seulement à rappeler un événement historique, mais aussi à souligner la continuité des luttes pour l’égalité et la reconnaissance.

Dans cette perspective, commémorer l’abolition revient à interroger la capacité des États-Unis à se confronter à leur propre passé et à reconnaître les limites de leur projet démocratique. Loin d’être un simple rituel mémoriel, la commémoration devient un espace de débat critique sur la nation, ses valeurs et leurs traductions concrètes. Elle révèle que l’abolition de l’esclavage, plutôt qu’un aboutissement, constitue un moment fondateur d’un combat toujours en cours pour une démocratie réellement inclusive.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.01.2026 à 12:25

Débats sur les rythmes scolaires : la discrète fin de la « guerre du caté »

Yves Verneuil, Professeur des Universités en sciences de l'éducation, Université Lumière Lyon 2
img
Au fil des décennies, les débats sur les rythmes scolaires reviennent mais ne se ressemblent pas toujours. Retour sur quelques épisodes oubliés des années 1970 et 1980.
Texte intégral (1976 mots)

Au fil des décennies, les débats sur les rythmes scolaires reviennent et se ressemblent souvent. Mais il y a des exceptions. Lors de la dernière Convention sur les temps de l’enfant (juin-novembre 2025), les voix de l’Église catholique ne se sont pas fait entendre comme par le passé où on est allé jusqu’à parler de « guerre du caté ». Que nous dit la fin des tensions autour du mercredi matin dans les emplois du temps scolaires ?


La récente Convention citoyenne sur les temps de l’enfant (juin-novembre 2025) a rappelé la difficulté d’adapter les plannings scolaires aux rythmes biologiques des élèves. D’autres enjeux, économiques par exemple (notamment dans les débats sur les calendriers de vacances), s’entremêlent avec cet objectif.

Si l’on pourrait faire remonter au moins à la fin du XIXe siècle les observations des médecins dénonçant l’emploi du temps trop chargé des lycéens, c’est à partir des années 1960 que le débat concernant les rythmes scolaires est devenu récurrent. Dans la préface qu’il rédige pour le livre du Dr Guy Vermeil la Fatigue à l’école (1976), le Pr Robert Debré regrette que le souci de l’enfant « soit quelque peu effacé par des revendications professionnelles et l’égoïsme des adultes ».

Les chronobiologistes, dont la discipline se développe au CNRS dans les années 1970, abondent dans le même sens. Rien de neuf sous le soleil, par conséquent ? Si. Un élément du débat encore présent dans les années 1970-1980 a disparu. Cet élément, c’est la question de l’instruction religieuse et de son positionnement le mercredi. Et sa disparition est significative des évolutions de la société.

Libérer ou non le mercredi matin : un enjeu des rapports entre l’Église et l’État ?

Rappelons que la loi du 28 mars 1882 a prévu que « les écoles primaires publiques vaqueront un jour par semaine, en outre du dimanche, afin de permettre aux parents de faire donner, s’ils le désirent, à leurs enfants, l’instruction religieuse, en dehors des édifices scolaires ».

En 1972, pour rééquilibrer la semaine scolaire, après que les cours du samedi après-midi ont été supprimés dans le primaire par l’arrêté du 7 août 1969, l’arrêté du 12 mai substitue le mercredi libéré au jeudi libéré ; mais le principe reste le même. Cependant, le ministère de l’éducation nationale commence à envisager d’offrir aux écoles la possibilité de déplacer le cours du samedi matin au mercredi matin (circulaire du 12 mai 1972).

Même si les autorités religieuses devraient être consultées, l’épiscopat s’inquiète rapidement, et la circulaire du 23 mai 1979 rappelle qu’en principe, dans l’enseignement primaire, « la journée entière du mercredi doit obligatoirement être dégagée de toute activité scolaire, les neuf demi-journées de travail se répartissant nécessairement sur les autres jours de la semaine ».

Dans l’enseignement secondaire, toute modification dans l’organisation de la semaine devrait également avoir l’aval des autorités religieuses (circulaire du 19 décembre 1979). Cependant, après l’alternance politique de 1981, la question du transfert est reposée. En décembre 1984, Jean-Pierre Chevènement, ministre de l’éducation nationale, envisage de réformer les rythmes scolaires hebdomadaires, en donnant la possibilité aux écoles primaires de libérer le samedi matin.

La décision serait décentralisée au niveau des écoles ou des groupes d’écoles, après que les autorités académiques se seraient assurées d’un consensus suffisant, comprenant les autorités religieuses. Mais Mgr Jean  Vilnet, président de la conférence des évêques de France, et Mgr Albert Decourtray, vice-président, reçus par François Mitterrand le 10 janvier 1985, expliquent au président de la République que, à leurs yeux, il n’est pas question que l’éventuel aménagement des rythmes scolaires compromette l’organisation de la catéchèse en France. Et le 12 février, Mgr Vilnet envoie une lettre au ministre pour l’informer que l’épiscopat entend que soit respecté le cadre défini par la loi de 1882 :

« Toute modification à la répartition des jours scolaires qui briserait l’organisation actuelle de la catéchèse, le mercredi matin, ne pourrait que compromettre les rapports de l’Église et de l’État dans notre pays. Ce que, je pense, vous et moi ne souhaitons pas. »

C’est ce que les journalistes ont appelé la « guerre du caté ».

Transférer les cours du samedi au mercredi : une demande des familles

La question est gelée pendant la période de la cohabitation (1986-1988), mais le retour des socialistes au pouvoir, en 1988, a pour effet de relancer le projet d’autoriser les transferts de cours du samedi au mercredi. L’épiscopat s’empresse de réagir. Les cardinaux Jean-Marie Lustiger et Albert Decourtray sont reçus, le 3 avril 1990, respectivement par le ministre de l’éducation nationale Lionel Jospin et par le premier ministre Michel Rocard.

Résultat : le 31 mai 1990, à Montauban, Lionel Jospin déclare ne pas vouloir imposer de changement brutal et affirme que la liberté dans l’organisation de la semaine scolaire « doit absolument s’accompagner de garanties nationales, notamment pour la catéchèse ». Des négociations ont lieu au ministère. La question du réaménagement du rythme de la semaine est large, mais « on ne parlait que du catéchisme », se souvient Catherine Moisan, chargée du dossier. Finalement, le décret du 22 avril 1991 retient les dispositions suivantes :

« Lorsque […] le conseil d’école souhaite adopter une organisation du temps scolaire qui déroge aux règles fixées par arrêté ministériel, il transmet son projet à l’inspecteur d’académie [qui] ne l’adopte que s’il ne porte pas atteinte à l’exercice de la liberté de l’instruction religieuse. »

Il est remarquable que ce ne soit pas le respect du rythme biologique des enfants qui ait motivé les projets de transfert, mais la demande des parents.

Au cours des Trente Glorieuses, l’importance des activités de loisir s’est accrue. Les parents peuvent désirer pratiquer ces activités avec leurs enfants le samedi, jour où ils sont de moins en moins nombreux à travailler. Dans les grandes villes, ce phénomène est d’autant plus marqué que les activités de loisir sont nombreuses et peuvent se trouver éloignées. De fait, le problème du samedi matin se pose avant tout en milieu urbain.

Un second facteur réside dans les mutations de la famille. De nombreux parents estiment important pour la vie familiale et l’équilibre affectif des enfants de pouvoir vivre pleinement ensemble pendant le week-end. L’augmentation du nombre des divorces joue dans le même sens : pour des raisons à la fois pratiques et affectives, les pères divorcés ayant la garde de leurs enfants un week-end sur deux sont désireux de prendre en charge leurs enfants dès le vendredi soir.

Par ailleurs, les parents qui travaillent préfèrent emmener leur enfant à l’école le mercredi plutôt que le samedi, où ils peuvent souhaiter faire la grasse matinée. L’accroissement du taux d’activité féminin, qui a été très marqué à partir des années 1960, représente un autre facteur : pour une femme qui travaille, il n’est pas toujours facile de trouver une solution de garde pendant toute la journée du mercredi. Aussi la libération du mercredi pour les enfants explique le fait que de nombreuses femmes sont contraintes de demander à travailler à temps partiel.

C’est donc essentiellement des parents que vient la demande de transfert : celle-ci n’est pas envisagée pour des raisons pédagogiques, mais pour faire face à la demande sociale.

Semaine de 4 jours et sécularisation de la société ?

Si les cours du samedi matin sont transférées le mercredi matin, la loi de 1882 n’est-elle pas respectée, puisque le samedi est entièrement libéré ? C’est ce que confirmera une décision de la Cour administrative d’appel de Lyon, le 18 septembre 2007. Mais dans les années 1970-1980, l’épiscopat ne voit pas les choses ainsi.

À ses yeux, les attraits du week-end complet sont irrésistibles pour que l’on puisse espérer, en dehors de parents de forte conviction, que les familles consentent à consacrer une partie des heures à l’instruction religieuse. Quant à placer le catéchisme le mercredi après-midi, ce n’est pas plus réaliste, alors que les enfants sont très sollicités par toutes sortes d’activités culturelles et sportives. Certes, de moins en moins d’enfants vont au catéchisme. Mais pour l’épiscopat, n’y eût-il que quelques cas, ce serait le principe de la liberté religieuse qui serait en jeu.

Admettant que l’évolution vers la libération du samedi est un phénomène de société difficile à combattre, il propose toutefois une solution : la semaine de quatre jours, la réduction de l’horaire hebdomadaire devant être compensée par l’allongement de l’année scolaire. Il fait observer que cette solution est de toute façon souhaitable pour alléger la semaine des enfants. Les oppositions corporatistes (instituteurs) et économiques (tourisme) ne doivent pas primer.

Si cette solution est permise par le décret du 22 avril 1991, elle n’a pas été généralisée. De toute façon, en 2008, les cours du samedi matin ont été supprimés dans les écoles primaires. En 2012, Vincent Peillon décide de remodeler les rythmes scolaires et de placer des cours le mercredi. Cette fois, pas de tempête : l’épiscopat ne réagit pas. Pas plus qu’il n’a réagi à la récente proposition de la Convention citoyenne sur les temps de l’enfant de passer de la semaine d’enseignement de quatre jours, à laquelle sont revenues depuis 2017 la plupart des écoles, à une semaine d’enseignements sur cinq jours, du lundi au vendredi.

Ce silence est révélateur de la conscience d’une perte d’influence dans l’opinion et dans une population française de plus en plus diverse.

The Conversation

Yves Verneuil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.01.2026 à 15:58

L’IA peut-elle rendre la justice ?

Naoufel Mzoughi, Chargé de recherches en économie, Inrae
Gilles Grolleau, Professor, ESSCA School of Management
Murat Mungan, Professor of law; professor of economics (courtesy), director of the Law and Economics Program, Texas A&M University
img
Dans plusieurs pays, la justice expérimente l’usage de l’intelligence artificielle. Des chercheurs ont testé la perception d’une punition selon qu’elle émane d’un juge humain ou d’une IA.
Texte intégral (2415 mots)
Au Canada, on expérimente des médiateurs automatisés. En Chine, des tribunaux s’appuient sur l’IA. En Malaisie, des tests de condamnations assistées par algorithmes sont en cours. Phonlamai Photo

Dans plusieurs pays, dont la France, la justice expérimente l’usage de l’intelligence artificielle. Quelle serait la légitimité d’une décision de justice rendue par un algorithme ? Serait-elle plus dissuasive ? Des chercheurs ont testé la perception d’une punition selon qu’elle émane d’un juge humain ou d’une IA.


L’idée de confier à des systèmes d’intelligence artificielle (IA) des décisions de justice ne relève plus de la science-fiction : au Canada, on expérimente des médiateurs automatisés ; en Chine, des tribunaux s’appuient sur l’IA ; en Malaisie, des tests de condamnations assistées par algorithmes sont en cours. Ces outils ne se limitent pas à un rôle d’assistance : dans certains contextes, ils influencent directement la sévérité des peines prononcées.

Au Québec, par exemple, une « cour virtuelle » résout déjà de nombreux petits litiges commerciaux. Il suffit de se connecter, d’indiquer les faits et un algorithme propose les issues financières les plus probables, offrant ainsi une solution extrajudiciaire et un dédommagement. Environ 68 % des dossiers sont réglés ainsi, en quelques semaines, ce qui évite les envois recommandés et le recours au juge de proximité. Certains États des États-Unis ont également recours au jugement fondé sur les données probantes (« evidence‑based sentencing »), qui s’appuie sur un algorithme capable d’estimer la durée optimale de la peine à infliger à un condamné, en cherchant à réduire au maximum la probabilité de récidive.

En France, plusieurs expériences sont en cours pour tester et intégrer de plus en plus l’IA dans le fonctionnement quotidien des juridictions, sachant que le ministère de la justice prévoit une charte pour un usage responsable de l’IA. Des applications concrètes sont déjà plus ou moins avancées – par exemple avec un système d’occultation automatique des données sensibles dans les décisions de justice, même si la vérification humaine reste indispensable ou des outils d’aide à la qualification pénale. Autre exemple, la réorganisation du tribunal de commerce de Paris mobilise l’IA avec l’ambition d’améliorer le traitement des litiges et libérer du temps pour les juges consulaires, notamment en plaçant les affaires ou en vérifiant les injonctions de payer. Dernière preuve en date de cet engouement, le ministère de la Justice s’est récemment doté d’une direction stratégique dédiée à l’intelligence artificielle.

À mesure que ces systèmes se déploient, de nombreuses questions surgissent. Par exemple, la justice repose beaucoup sur la confiance accordée au système. La légitimité conférée à l’IA en matière de décision de justice est donc cruciale. Autre point : l’un des rôles essentiels du droit pénal est de décourager les comportements hors-la-loi. Une amende pour stationnement sauvage, une peine de prison pour un délit grave : l’idée est qu’une sanction connue, proportionnée et prévisible empêche de franchir la ligne rouge, au moins pour une partie importante de la population. Cela amène à se demander si les sanctions prononcées par un algorithme paraissent plus, ou moins, dissuasives que celles d’un juge en chair et en os.

Pourquoi l’IA inspire la crainte… et parfois une certaine fascination

Concernant la légitimité de l’IA, ses partisans (comme des entreprises de la legal tech, des réformateurs au sein des institutions publiques ou certains chercheurs) avancent plusieurs arguments. Contrairement à un juge humain, susceptible d’être influencé par la fatigue, l’ordre des dossiers, ses valeurs ou même l’apparence d’un prévenu, l’algorithme se veut impartial. Son verdict repose sur des critères prédéfinis, sans états d’âme.

Cette impartialité accroît la prévisibilité des sanctions : un même acte conduit à une même peine, ce qui réduit les disparités entre décisions. Or, une sanction claire et attendue pourrait envoyer un signal plus fort aux citoyens et prévenir davantage les infractions. En outre, l’IA promet une justice plus rapide en automatisant certaines opérations comme la recherche documentaire, l’analyse ou l’aide à la rédaction : la célérité des sanctions, qui pourrait en découler, est bien connue pour jouer un rôle central dans leur efficacité dissuasive. Plusieurs experts reconnaissent que les IA permettent d’accélérer l’action de la justice.

Benoît Frydman, professeur à la faculté de droit de l'université libre de Bruxelles (ULB), « Comment l’IA transforme le droit et la justice ? », Collège de France, octobre 2025.

Enfin, si elles sont conçues de manière transparente et sur des données non biaisées, les décisions automatisées peuvent réduire les discriminations qui minent parfois les décisions de justice, comme celles liées à l’âge ou au genre. Par exemple, le chercheur Daniel Chen, explique que les IA pourraient permettre de corriger les biais des juges humains. Dans cette perspective, l’IA est alors présentée par divers acteurs (start-up de la legal tech, réformateurs pro-IA, experts) comme ayant la capacité de renforcer le sentiment de justice et, par ricochet, la force dissuasive des peines.

Quand la sanction devient trop « froide »

Mais la médaille a son revers. L’IA apprend essentiellement des données issues de jugements humains. Or, ces données peuvent être biaisées. Au lieu de corriger les injustices du passé, on risque de les ancrer, et ce dans un système encore plus opaque, difficile à contester, typique des armes de destruction mathématique (des algorithmes opaques, à grande échelle, qui prennent des décisions impactant gravement la vie de millions d’individus, tout en étant injustes car ils reproduisent et amplifient les inégalités sociales).

Et surtout, la justice, ce n’est pas qu’un calcul. Les juges incarnent une autorité morale. Leur rôle n’est pas seulement d’appliquer la loi, mais de porter un message à l’échelle de la société : dire publiquement ce qui est inacceptable, reconnaître la souffrance des victimes, condamner un comportement en termes éthiques. Cette dimension symbolique est particulièrement importante pour les crimes graves, où l’attente n’est pas seulement la sanction mais aussi l’expression collective d’un rejet moral. Or, l’IA ne peut transmettre ce message. Dans ces cas, elle pourrait être perçue comme moins légitime et donc moins dissuasive.

De plus, les juges ont une certaine latitude pour individualiser les peines, c’est-à-dire pour ajuster les peines en fonction d’éléments variés, souvent qualitatifs et subjectifs (personnalité du prévenu, circonstances et spécificités de l’infraction), difficiles à formaliser et à intégrer dans un système décisionnel relevant d’une IA.

Petits délits, actes criminels : l’IA et les juges à l’épreuve

Une expérience que nous avons conduite en France, en 2023, sur plus de 200 participants a cherché à tester si la perception d’une même punition varie selon qu’elle émane d’un juge humain ou d’une IA. Sur la base de scénarios d’infractions identiques et de sanctions identiques, les participants ont été affectés aléatoirement soit au cas où la décision avait été rendue par un juge humain, soit au cas où elle avait été rendue par une IA. Dans le cas banal d’une personne négligente laissant les excréments de son chien sur le trottoir, la même sanction apparaissait plus dissuasive si elle venait… d’une IA. Facile à juger, cette infraction mineure semble se prêter à un traitement algorithmique, clair et rapide. Mais dans le cas d’un incendie criminel, la sanction par l’IA n’était pas jugée plus dissuasive que celle d’un juge. Comme si, face à une faute lourde, l’autorité morale d’un magistrat restait indispensable.

Bien entendu, notre étude est une modélisation simplifiée de la réalité, dans un cadre épuré, qui passe sous silence de nombreux paramètres. Par exemple, un contrevenant potentiel ne connaît pas toujours la sanction encourue au moment où il envisage de passer à l’acte. Néanmoins, les études montrent que les individus ont une idée de ce qu’ils encourent en s’engageant dans certains comportements et qu’ils révisent leurs croyances en fonction de leurs propres expériences ou de celles vécues par d’autres.

Faut-il en conclure qu’il vaut mieux confier les délits mineurs aux machines et les crimes graves aux humains ? Pas forcément. Cependant, l’expérience révèle un point clé : nous n’attendons pas la même chose d’une sanction selon la gravité de l’infraction.

Peut-être que l’avenir de la justice réside non pas dans un remplacement, mais dans une alliance, dans l’exploitation intelligente d’une complémentarité. Les juges assurent une multitude de fonctions qui ne pourraient être effectuées par un algorithme. Ils représentent notamment une figure d’autorité humaine, garante d’un principe de justice démocratique et soucieuse du bien-être de la société, qui dépasse la simple répression pour représenter la volonté générale et garantir l’équilibre social. Entre autres missions, ils incarnent la société, interprètent les zones grises et sont chargés de transmettre le message moral de la sanction. L’IA pourrait les épauler en contribuant à renforcer la prise en compte automatisée de certains critères jugés préalablement pertinents. Elle pourrait augmenter la rapidité de la prise de décision et assurer une forme de cohérence des jugements en évitant des écarts trop importants entre sanctions pour une infraction similaire.

Une question de confiance

Derrière cette révolution judiciaire, il y a une question plus large : à qui faisons-nous confiance ? Si l’opinion perçoit l’algorithme comme une boîte noire, reproduisant les biais avec une froideur implacable, c’est l’autorité des systèmes juridique et judiciaire qui risque de vaciller.

La justice n’est pas seulement affaire de règles, c’est aussi une scène où la société dit ses valeurs. Tant que les algorithmes ne pourront pas endosser ce rôle symbolique, leurs sentences ne pourront pas remplacer celles énoncées par les juges. Mais s’ils sont conçus avec transparence, rigueur et contrôle humain, ces algorithmes pourraient rendre la justice plus prévisible, et potentiellement, plus dissuasive. Encore faut-il ne jamais oublier qu’au bout d’une ligne de code, ce n’est pas une donnée abstraite qui est jugée, mais un être humain bien réel.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

13.01.2026 à 15:57

« La normalisation du RN pourrait passer par l’effacement de Marine Le Pen »

Luc Rouban, Directeur de recherches (CNRS) au Cevipof, Sciences Po
img
Marine&nbsp;Le&nbsp;Pen joue sa survie politique devant le tribunal de Paris qui la juge en appel pour l’affaire des assistants parlementaires européens. Au même moment, Jordan Bardella monte en puissance. Quelles perspectives pour le RN avant la présidentielle&nbsp;?
Texte intégral (1688 mots)

Le procès en appel dans l’affaire des assistants parlementaires européens du Front national (Rassemblement national, depuis 2018) a débuté ce mardi 13 janvier à Paris. En première instance, Marine Le Pen avait été condamnée à quatre ans d’emprisonnement pour détournement de fonds publics. Une peine d’inéligibilité de cinq ans avait également été prononcée, compromettant sa candidature à la présidentielle de 2027. Avant le jugement en appel, on constate un affaiblissement politique de Marine Le Pen et une montée en puissance de Jordan Bardella. Quelles sont les perspectives pour le RN à moins de deux ans de la présidentielle ? Entretien avec le politiste Luc Rouban.


The Conversation : Faisant appel de sa condamnation en première instance, Marine Le Pen joue son avenir politique. Elle pourrait être définitivement empêchée de candidater à la présidentielle de 2027. Comment analysez-vous sa position face au tribunal ?

Luc Rouban : On ne peut pas, bien sûr, anticiper le jugement, mais Marine Le Pen semble prisonnière d’une situation inextricable : en première instance, sa stratégie a consisté à délégitimer les juges sur le mode « Vous n’avez pas à intervenir dans cette affaire qui est politique, vous êtes en train de tuer la démocratie, etc. » Cette stratégie n’a pas fonctionné et on ne voit pas pourquoi elle fonctionnerait en appel. Changera-t-elle de stratégie en jouant l’amende honorable ? En plaidant l’erreur et la bonne foi ? Cela reviendrait à avouer des délits très graves et à révéler une hypocrisie qui ne pourrait que lui nuire. Je ne vois pas de bonne solution la concernant.

Marine Le Pen a opposé les juges et la démocratie, lors de son premier procès. Vous considérez au contraire que celui-ci, comme celui de Nicolas Sarkozy qui a conduit à son incarcération (pour le financement libyen de sa campagne présidentielle de 2007), est un signe de maturité démocratique.

L. R. : Effectivement, les condamnations de Marine Le Pen et de Nicolas Sarkozy signalent un changement d’époque dans le rapport des Français au politique. L’emprisonnement de Nicolas Sarkozy ou la condamnation de Marine Le Pen ont suscité des contestations de la part de leurs soutiens directs et de la droite en général mais, au fond, elles n’ont pas choqué la majorité des Français. Un sondage de l’institut Verian montre que la stratégie de dénonciation de la justice n’a pas fonctionné : la moitié des personnes interrogées considèrent que Marine Le Pen a été « traitée comme n’importe quel justiciable » et seulement un tiers des personnes interrogées (soit sa base électorale) considèrent qu’elle a été « traitée plus sévèrement pour des raisons politiques ». Ces deux condamnations marquent la fin des privilèges du personnel politique vis-à-vis de la justice. Comme si nous entrions enfin dans une forme de modernité au moment où les élus ne sont plus crédités d’une autorité telle que les citoyens les autorisent à déroger au droit commun. La politique est devenue une activité professionnelle comme une autre, soumise à des réglementations et à des lois et elle passe progressivement d’une fonction d’autorité, qui autorisait la légitimation d’une règle du jeu à deux vitesses, à une fonction de service.

Pour ma part, je considère que la réaffirmation de l’État de droit est tout à fait indispensable et légitime en France. Notre système démocratique est très fragilisé, bien plus que dans d’autres pays européens. Le niveau de confiance des citoyens envers la classe politique et dans la justice est très bas et il doit être restauré. Cela passe notamment par le fait que la justice s’applique à des personnalités qui abusent des fonds publics et pas uniquement à des caissières de supermarché qui se font licencier et sont poursuivies au pénal pour le vol d’une barre chocolatée.

Depuis sa condamnation en première instance Marine Le Pen chute dans les sondages et semble de moins en moins en capacité de porter une dynamique pour le RN…

L. R. : Marine Le Pen s’est présentée comme porteuse de justice et d’équité. Elle fait partie de ceux qui avaient applaudi au moment de la loi Sapin 2, votée à l’unanimité en 2016 à la suite de l’affaire Cahuzac. Or la voilà jugée pour détournement de fonds européens au profit de son parti.

Elle paie donc le prix de ses contradictions, mais aussi de sa stratégie de normalisation destinée à sortir le RN du giron de l’ancien FN de son père, Jean-Marie Le Pen. C’est elle qui a demandé aux députés de se conduire correctement à l’Assemblée nationale, qu’il n’y ait pas de provocations, de phrases antisémites ou racistes de la part des candidats aux différentes élections. Or ce processus de normalisation est en train de se retourner contre elle avec ce procès. Elle est la victime de sa propre stratégie qui la condamne, soit à rester dans la périphérie et l’imprécation, soit à jouer le jeu de la normalité jusqu’au bout. Dans les deux cas, son avenir politique est compromis.

On peut même penser que la délepénisation du RN va désormais passer par l’élimination politique de Marine Le Pen. En effet, ne plus avoir la marque « Le Pen » à la tête du parti pourrait arranger nombre de dirigeants du RN. Pour avoir une chance de gagner en 2027, ce parti doit étendre son électorat aux couches moyennes supérieures diplômées, et cela passera possiblement par un effacement de Marine Le Pen.

Jordan Bardella semble auréolé d’une forte dynamique médiatique et sondagière. Il a même été placé en tête au second tour de la présidentielle par une enquête : selon le baromètre Odoxa, il recueillerait 53 % des voix face à Édouard Philippe, 58 % face à Raphaël Glucksmann, 56 % face à Gabriel Attal et 74 % face à Jean-Luc Mélenchon… Comment analysez-vous ces sondages ? Quels sont les atouts et les faiblesses du président du RN ?

L. R. : Jordan Bardella ne s’appelle pas Le Pen : c’est désormais un atout au sein du RN. Par là, il peut déjà incarner un moment de rupture et de renouveau pour le parti qui aspire à devenir un parti de droite radicale et non plus d’extrême droite, mais aussi un parti plus libéral sur le plan économique. Ce nouveau RN correspondrait assez bien à une culture trumpiste qui fait son chemin en France. Il permettrait notamment de rallier des électeurs Les Républicains (LR) et Reconquête.

Concernant les sondages qui placent Bardella très haut, il faut commencer par dire que cela est bien logique. Si la peine de Marine Le Pen est confirmée en appel, ce qui est anticipé par beaucoup, Bardella devient le représentant du parti dominant, donc il se retrouve « naturellement » en tête. Ensuite, il faut rester prudent avec ces chiffres car l’échéance est lointaine. Reste la grande question : Bardella tiendra-t-il le choc d’une campagne présidentielle ?

On s’interroge sur la crédibilité personnelle de cet homme âgé de 30 ans. Il ne faut pas oublier que les Français recherchent dans une élection présidentielle une forme d’excellence intellectuelle (même s’ils sont souvent déçus ensuite). La course à l’Élysée est une compétition très élitiste et tous les candidats ou présidents qui se sont succédé jusqu’à présent étaient des personnes qui avaient un haut niveau d’études, des ressources culturelles et sociales importantes sans même parler de leur long parcours politique. Ce n’est pas le cas de Jordan Bardella, qui par ailleurs, n’a aucune expérience de terrain, de gestion publique et aucune expérience professionnelle en dehors de la politique.

Ensuite, tout dépendra de qui lui fera face au second tour. S’il s’agit d’un Édouard Philippe, par exemple, maire du Havre, ancien premier ministre, énarque et homme qui connaît bien les rouages de l’État, Bardella pourra-t-il tenir le choc d’un débat du second tour ? On a bien vu que Marine Le Pen n’a pas pu faire face à Emmanuel Macron en 2017. Elle ne connaissait pas les dossiers européens, elle se perdait dans ses fiches… Bardella fera-t-il mieux ? S’il échoue, il sera certainement remplacé au sein d’un RN où d’autres se préparent.


Propos recueillis par David Bornstein.


*Luc Rouban est l’auteur de_ la Société contre la politique_ (2026), aux Presses de Sciences Po.

The Conversation

Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.01.2026 à 15:47

Parler d’écologie en France : que révèle l’analyse linguistique des récits de la transition ?

Albin Wagener, Professeur en analyse de discours et communication à l'ESSLIL, chercheur au laboratoire ETHICS, Institut catholique de Lille (ICL)
img
Quels sont les récits qui font avancer la transition écologique ? Une analyse linguistique de 559 initiatives françaises met au jour les leviers narratifs propices à l’action.
Texte intégral (3439 mots)

La façon dont on parle des initiatives écologiques menées sur le territoire français depuis 1980 raconte beaucoup de choses sur les imaginaires de la transition. Dans une étude publiée par l’Agence de la transition écologique, l’Ademe, en 2025, nous montrons, avec l’appui de la linguistique, comment certains narratifs peuvent devenir de véritables leviers d’action concrète.


La question des récits et des narratifs qu’ils mobilisent est de plus en plus présente dans les discussions sur la transition socio-environnementale. Et cela, parfois jusqu’au « narrative washing », qui revient à masquer l’inaction à l’aide d’une belle histoire. Une étude que j’ai coordonnée pour l’Ademe, publiée en octobre 2025, montre pourtant que les récits jouent un rôle pivot dans les initiatives de transition écologique en France.

L’intérêt pour les récits n’est pas nouveau du côté de l’Ademe, qui a déjà soutenu plusieurs travaux sur le sujet et notamment sur la question des imaginaires de la transition écologique.

Ce qui est nouveau, en revanche, c’est d’avoir étudié ces récits sous un angle linguistique. Ainsi, nous avons constitué un corpus de textes, puis en avons étudié la lexicométrie (c’est-à-dire, l’étude quantitative du lexique). Enfin, nous avons procédé à une analyse de discours.

Concrètement, cela signifie que nous avons rassemblé des textes portant sur des initiatives de transition écologique et les avons étudiés de manière statistique (nombre d’occurrences, sens des mots…), afin de cerner les grands thèmes qui les traversent. Cette approche a été déclinée sur un corpus textuel (comment les acteurs parlent d’eux-mêmes, comment leurs partenaires en parlent, comment les médias et les citoyens les diffusent…) portant sur 559 initiatives menées entre 1980 et 2020 sur tout le territoire, y compris ultramarin. Bien sûr, la France a totalisé beaucoup plus d’initiatives sur la période, mais une sélection a dû être opérée pour nourrir l’analyse.

À la clé, un inventaire des récits écologiques ainsi mis en circulation, qui permet de comprendre comment les discours des uns et des autres se sont approprié les enjeux de transition écologique et quelles sont les dimensions clés mobilisées par les initiatives les plus emblématiques.


À lire aussi : Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique


Où s’ancrent les récits les plus emblématiques ?

Les résultats de l’étude montrent la grande diversité des initiatives, avec de réelles différences en fonction des formes juridiques porteuses (entreprises, associations, collectivités, etc.), des secteurs d’activité, mais aussi des territoires.

Dans ce cadre, nous nous sommes intéressés aux récits dits « emblématiques ». Par là, on entend : uniquement les récits traitant d’actions concrètes, incarnés par des acteurs clés et créateurs d’imaginaires capables de transformer les représentations qui circulent dans la société. Les récits étudiés ne sont donc donc pas des narratifs imaginaires et vaporeux déconnectés de toute réalité socio-économique.

Carte de France hexagonale en fonction du nombre de récits emblématiques identifiés. Ademe, 2025, Fourni par l'auteur

En France hexagonale, les territoires regroupant le plus d’initiatives emblématiques sont ainsi :

  • soit des territoires avec de grandes villes fortement engagées (Rennes, Nantes ou Toulouse, par exemple),

  • des territoires ayant connu des crises socio-économiques fortes (comme le Nord et le Pas-de-Calais),

  • ou encore des territoires ayant un fort attachement linguistique et culturel (Pays basque, Corse, ou Bretagne). On retrouve également cette spécificité sur plusieurs territoires ultramarins, comme Mayotte, La Réunion ou la Guyane.


À lire aussi : Qui parle du climat en France ? Ce que nous apprennent les réseaux sociaux


Les grands thèmes transversaux

Au sein des 559 initiatives étudiées, 11 thèmes transcendent les territoires et les domaines d’activité socioprofessionnels. Ils sont mobilisés dans les récits pour raconter les différentes manières de s’engager pour la transition écologique en France. Nous les avons identifiés grâce au logiciel Iramuteq.

Réseaux de récits du corpus de texte. Plus des termes sont proches sur le graphe, plus les récits où on les retrouve vont être connectés et faire référence l’un à l’autre. Ademe, 2025, Fourni par l'auteur

Le réemploi (couleur orange, en bas à gauche), une thématique importante, apparaît comme légèrement déconnectée des autres. En cause, l’orientation historique de ce modèle, lié au secteur de l’économie sociale et solidaire ainsi que le modèle d’insertion qu’il promeut. Le plus souvent, la gestion de la seconde main est effectuée par des associations qui accompagnent des personnes éloignées de l’emploi (par exemple Emmaüs).

Ceci montre que le modèle de réemploi obéit à une logique propre, plus ancienne et non directement liée à la prise de conscience plus récente de la nécessité d’une transition écologique. En d’autres termes, le secteur du réemploi a d’abord eu une vocation sociale, avant de mettre en avant plus distinctement son orientation écologique, d’où son isolement sur le graphe. Ainsi, associer des publics en situation d’exclusion au traitement d’objets eux-mêmes exclus du marché interroge sur les imaginaires qui traversent le modèle de réemploi et la précarité en général. En réalité, cette double exclusion peut expliquer la déconnexion relative par rapport aux autres thèmes de récit, plus explicitement centrés sur la transition environnementale que sur la dimension sociale.

En haut à gauche, les dimensions de convivialité, d’interaction humaine (couleur bleu foncé) et d’alimentation (en gris) sont liées. Ce marqueur illustre le besoin de retrouver une logique de « bons moments ». Celle-ci lie la consommation de produits alimentaires vertueux au besoin de se retrouver ensemble dans une logique hédonique. Les initiatives présentées par ces récits fonctionnent sur un rythme événementiel et s’appuient sur le besoin de créer des temps d’échange, de partage et de vie sociale.

Sur la partie droite, on distingue le besoin d’inscription territoriale (couleur rose), la question de l’agriculture vertueuse (en rose-violet), les enjeux de financement et d’énergie (en rouge), et enfin la dimension éducative (bleu-vert clair). Ces thèmes constituent autant de manières de mobiliser concrètement la transition avec une dimension territoriale : modèle économique, inscription locale en lien avec les projets des collectivités, sensibilisation des populations, modèles de production énergétique et agricole à réinventer…

Au centre du schéma, enfin, on retrouve les éléments pivots desquels s’articulent toutes les thématiques des récits : l’insertion et l’emploi. Ceci montre que les récits de la transition écologiques ne sont pas nécessairement utopiques : le réalisme économique et social des modèles socio-environnementaux est crucial pour créer du dynamisme économique et de l’emploi.


À lire aussi : Ressourceries, Emmaüs, Le Relais : les acteurs emblématiques de la seconde main menacés par la grande distribution


La place ambivalente de l’environnement

Pour ce qui est des domaines d’activité des initiatives étudiées, on remarque une légère prédominance de l’innovation sociale, qui regroupe notamment les tiers-lieux et écolieux, et plus généralement les espaces qui tentent de réinventer des modalités économiques et sociale. En deuxième position, on retrouve l’économie circulaire et le réemploi, puis les activités agricoles et alimentaires, et enfin l’engagement d’acteurs publics locaux et des collectivités.

Distribution des récits par domaine d’activité. Ademe, 2025, Fourni par l'auteur

Étonnamment, on remarque que les métiers spécifiquement liés à l’environnement et à la biodiversité (en tant que secteurs d’activité économique) sont minoritaires parmi les 559 initiatives. Pourtant, le graphe ci-dessous montre qu’il s’agit du premier sujet mobilisé par les récits d’initiatives emblématiques.

Distribution des sujets de récits. Ademe, 2025, Fourni par l'auteur

Ainsi, si l’environnement n’est pas toujours porteur lorsqu’il est en première ligne des initiatives, il est systématiquement associé aux initiatives comme élément d’accompagnement ou d’amplification.

Des récits qui dépendent des secteurs mais aussi des territoires

Afin de permettre une analyse du corpus la plus fine possible, plusieurs paramètres ont été définis dans le logiciel d’analyse pour représenter des informations récurrentes qui constituent de véritables « variables » des récits. Il s’agit de la date de création de l’initiative, de sa région, son département, le type de territoire, la forme juridique, le métier principal, le ou les objets de l’activité, le nom de l’activité…

En n’affichant que ces grandes catégories de variables, le graphe livre de nouveaux résultats. Par exemple, on remarque que le récit de convivialité semble prédominer en région Bretagne et concerne tout particulièrement les tiers-lieux.

Citons quelques-uns de ces tiers-lieux, visibles sur le graphe : la Manufacture des Capucins dans l’Eure, la Maison Glaz dans le Morbihan, ou encore la Maison du Colonel à Amiens. Cela ne signifie pas que la convivialité soit le seul récit porté par les initiatives étudiées, mais que ces tiers-lieux constituent, en termes de narratif, des moteurs nationaux pour associer la dimension de la convivialité à celle de la transition écologique.

Cette présentation des résultats met en avant d’autres initiatives locales, comme la commune alsacienne de Muttersholtz pour ce qui est de la transition énergétique, l’association réunionnaise Reutiliz pour l’économie circulaire, ou encore le CERDD, Centre ressource du développement durable dans les Hauts-de-France pour l’attachement au territoire.

Les trois piliers de la transition écologique

Ainsi, parmi les grands enseignements de cette étude, on remarque que les récits de transition écologique en France reposent sur trois piliers :

Les trois dimensions des récits de transition écologique en France. Ademe, 2025, Fourni par l'auteur
  • l’attachement au territoire et à ses réalités locales,

  • le besoin de liens sociaux pour créer de l’engagement convivial et désirable autour de la transition,

  • et la stimulation d’une véritable transformation culturelle des modes de vie et des comportements.

Ces récits sont précieux pour inciter à l’optimisme en ces temps de backlash écologique. Mais cette étude laisse une question en suspens : les récits qui sous-tendent la transition écologique sont-ils comparables ailleurs dans le monde ? Adopter une approche comparative entre différents pays permettrait d’identifier les leviers communs sur lesquels s’appuyer en priorité.

The Conversation

L'étude décrite dans cet article a été co-financée par l'Agence de la transition écologique (Ademe).

13.01.2026 à 15:47

Familles recomposées : la délicate question de l’égalité entre les enfants

Justine Vincent, Postdoctorante, Université Lumière Lyon 2
img
Si la recomposition familiale est aujourd’hui banale, elle pose toujours un certain nombre de questions aux parents et beaux-parents, notamment celle du traitement égalitaire de tous les enfants du foyer.
Texte intégral (1987 mots)
L’arrivée d’un nouvel enfant réactive la «&nbsp;norme de traitement égalitaire&nbsp;» de tous les enfants au sein des familles recomposées.

Les familles recomposées sont aujourd’hui banales, mais un certain nombre de questions se posent toujours aux parents et beaux-parents, notamment celle du traitement égalitaire de tous les enfants du foyer.


La recomposition familiale (le fait qu’au moins un des deux conjoins ait eu un enfant au cours d’une précédente union) est une réalité qui concerne un grand nombre de foyers : a minima, en France, 1 enfant sur 10 vit dans cette configuration, les données du recensement ne comptabilisant toutefois pas l’ensemble des familles que l’on définit couramment comme recomposées.

Malgré cette banalisation, aujourd’hui encore un certain nombre de défis se posent aux parents et beaux-parents : quels sont leur place et leur rôle ? Comment faire famille ? En toile de fond de ces interrogations, une question revient souvent : traite-t-on tous les enfants du foyer de manière égalitaire ou favorise-t-on ses propres enfants ?

Plus précisément, comment parents et beaux-parents composent-ils face à cette norme égalitaire, principe de régulation structurant des fonctionnements familiaux contemporains ? Cette question a émergé au cours de ma recherche doctorale, portant sur le « faire famille » en famille recomposée, au cours de laquelle j’ai mené des entretiens auprès de 62 parents ou beaux-parents à la tête de ces configurations et projetant d’avoir ou ayant eu un enfant commun.

La famille égalitaire : un modèle aujourd’hui consensuel

Pour comprendre les fondements de cette question, une prise de recul historique est nécessaire. En effet, si la revendication à l’égalité entre l’ensemble des frères et sœurs semble aujourd’hui relever de l’évidence, elle ne s’est imposée à la faveur de transformations législatives qu’à partir de la fin du XIXᵉ siècle : au droit d’aînesse, qui privilégiait le premier-né masculin, succède alors une égalité entre les enfants face à l’héritage.

Mais la question dépasse le seul enjeu successoral et matériel, et la référence à l’égalité parcourt progressivement de nombreux domaines de la vie familiale : il s’agit pour les parents d’éduquer de manière égale leurs enfants pour réaffirmer le fait de les « aimer pareil ».

L’exploration des pratiques effectives dans les familles met en lumière une application rarement stricte de ce principe égalitaire : des inégalités demeurent entre frères et sœurs. Une logique comptable systématique n’est, par ailleurs, pas toujours possible, la singularisation des trajectoires des enfants à l’âge adulte complexifie sa mise en œuvre.

Pour autant, sur le papier, l’égalité de traitement des enfants constitue un principe consensuel chez les parents. Il s’agit surtout de maintenir l’illusion, ou une « fiction » de l’égalité, pour prévenir des conflits familiaux ou des sentiments de jalousie perçus comme néfastes à la cohésion familiale.


À lire aussi : Familles recomposées : belle-mère, une place toujours inconfortable


Dans les familles recomposées que j’ai pu étudier dans mes travaux de recherche, cet enjeu se trouve particulièrement réactivé quand sont amenés à cohabiter, de manière plus ou moins intermittente et sur un temps plus ou moins long, des enfants nés de couples parentaux différents.

« Est-ce que tu leur paieras le permis de conduire ? »

L’exigence de traitement égalitaire est d’ailleurs parfois rappelée par l’entourage. Au cours d’un entretien, Jessica*, belle-mère de deux enfants de 4 ans et 8 ans, raconte ainsi avoir été interpellée par les parents de son conjoint quand elle est tombée enceinte :

« Ils me disaient “Mais comment tu vas faire ? Les pauvres [ses beaux-enfants], ils vont se sentir exclus” […] ; “Mais quand Léo [son fils] aura 18 ans, ou Maël ou Claire [ses beaux-enfants], est-ce que tu leur paieras le permis de conduire comme tu le paieras à Léo ?” […] J’achetais un truc pour l’arrivée de mon bébé, c’était “Ah, mais Maël et Claire, ils ont eu quoi ?”. »

Signaler que l’on traite tous les enfants de la même manière vise à se rapprocher des principes de régulation des familles « ordinaires » et par là même signifier que l’on est une famille comme une autre.

Préserver la « fiction égalitaire » contribue en miroir à l’élaboration du sentiment de « faire famille », ce dernier ne s’imposant pas avec la même évidence que dans les contextes où les adultes sont les parents de tous les enfants du foyer.

Il s’agit également de montrer à son partenaire que l’on ne différencie pas ses beaux-enfants de ses propres enfants.

« J’essaie d’être plus stricte avec le mien »

Naëlle, séparée du père de son fils de 10 ans, est en couple avec Maxime, qui a eu deux enfants avec sa compagne précédente. Elle estime qu’elle n’est pas « autoritaire avec ses enfants [à lui] et pas avec le [sien à elle] », ajoutant qu’ils « ont les mêmes droits » et « sont disputés sur les mêmes choses ».

Mais elle identifie aussi un paradoxe :

« D’un côté, j’essaie d’être plus stricte avec le mien, pour pas qu’il ait l’impression que je gronde plus les siens, mais, d’un autre côté, je suis bien consciente qu’on supporte plus facilement, le seuil de tolérance voilà, va beaucoup plus loin avec nos enfants qu’avec ceux qui ne sont pas les nôtres. »

La naissance d’un enfant commun au couple recomposé constitue un catalyseur – et un moment d’observation révélateur – de cette actualisation de la « fiction » égalitaire.

Travail de réassurance

Clément, en couple avec Dorine, est un beau-père de 34 ans. Ils ont donné naissance à une petite fille nommée Capucine, âgée de 8 mois quand je les rencontre. Dorine, dès la grossesse, s’est inquiétée de voir Clément privilégier Capucine face à Loïc, qu’elle a eu au cours d’une précédente union :

« Je lui disais que forcément ça changerait un truc […] Et c’était plus des questions du type “Loïc, comment il va le prendre, comment va-t-on se partager le temps ?”, mais je ne sais pas, si ça avait été avec le même père, si je me serais pas posée les mêmes questions en fait. Clément, je lui disais “Une fois que tu vas avoir ta fille, c’est ton sang” […] et en même temps il me disait […] “Mais non, ça ne changera rien”. »

Clément entend les préoccupations de sa compagne, et réaffirme de son côté ne pas faire de différences. Parents, mais surtout beaux-parents, déploient ainsi fréquemment un travail de réassurance, tant auprès de leur partenaire… que des enfants eux-mêmes.

Si la jalousie des enfants à la naissance d’un bébé commun au couple est largement anticipée par les (beaux-)parents, mes recherches montrent que ce sont toutefois les pères plus particulièrement qui tâchent de rassurer leurs aînés quant au fait que « ça ne changera rien » à l’amour et au temps qu’il leur consacre.

En réalité, les hommes, plus généralement, sont davantage exposés à cet impératif de traitement égalitaire : en tant que pères, dont le rôle est plus fréquemment ébranlé que celui des mères à l’issue d’une séparation (parce qu’il doit se reconfigurer sans la médiation de la mère alors même qu’il s’était construit sur celle-ci du temps de la vie commune), l’enjeu est de sécuriser la relation avec leurs premiers enfants.

Pour les beaux-pères qui deviennent pères, notamment quand ils jouent un rôle parfois plus actif que les pères d’origine, il s’agit de confirmer la relation privilégiée qu’ils nouent avec leurs beaux-enfants.

Division genrée des soins

Les forces de rappel de ce principe d’égalité semblent souvent moindres à l’égard des belles-mères dans les entretiens recueillis. Par ailleurs, la division genrée des tâches de soin aux enfants, notamment en bas âge, renforce, par les pratiques, la croyance initiale que le lien maternel est « naturellement » sans commune mesure avec le lien belle-mère/bel-enfant.

Chargées des soins de leur nouveau-né, les belles-mères deviennent de fait moins disponibles pour leurs beaux-enfants – cela peut également concerner les premiers-nés des mères, mais c’est moins « perceptible » dans les discours, parce ce que ce sont les attitudes des beaux-parents qui sont davantage scrutées.

Dans le même temps, les beaux-pères, en prenant en charge les aînés, consacrent souvent plus de temps aux enfants de leur compagne malgré la naissance de leur propre enfant. C’est d’ailleurs ce que constate Ophélie, mère d’une aînée de 8 ans, et ayant eu avec son conjoint actuel une petite fille âgée de 18 mois :

« Finalement, il passe plus de temps avec ma fille qu’avec la sienne en réalité. Après je pense que c’est l’âge aussi. »

In fine, différents répertoires normatifs entrent en tension dans les familles recomposées : la norme d’égalité de traitement de tous les enfants qui permet de créer un sens de la famille coexiste avec la valorisation du fondement biologique dans la parenté, qui contribue à relégitimer des pratiques différenciées envers ses enfants et ses beaux-enfants.

Dès lors que se maintiennent de profondes asymétries de genre dans les rôles parentaux, mères, pères, beaux-pères et belles-mères se heurtent de manière inégale à ces contradictions normatives avec lesquelles composer.


* Les prénoms ont été changés.

The Conversation

Justine Vincent ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

13.01.2026 à 15:45

Enquête sur la diaspora malgache en France

Léo Delpy, Maitre de conférences, Université de Lille
Claire Gondard-Delcroix, Enseignante-chercheuse en économie, Université de Bordeaux
Tantely Andrianantoandro, Socio-économiste, Unité Mixte Internationale-Résiliences, Université catholique de Madagascar, Institut de recherche pour le développement (IRD), Fondation Croix-Rouge française
Tsiry Andrianampiarivo, Maître de conférences au Centre de recherche en économie de Grenoble, Université Grenoble Alpes (UGA)
img
Présentation des résultats d’une enquête qualitative sur la façon dont la diaspora malgache en France se perçoit et s’organise.
Texte intégral (2570 mots)
Manifestation de la diaspora malgache en France, place de la République à Paris, en solidarité avec les manifestations en cours à Madagascar à ce moment-là, 25&nbsp;octobre 2025. Compte Instagram « Malagasy en France »

Forte de près de 170 000 personnes, cette communauté est pourtant peu connue en France. Une enquête permet de mieux comprendre la perception de l’appartenance à la diaspora malgache ainsi que la diversité des relations entre les membres.


La diaspora malgache est l’une des principales diasporas d’Afrique subsaharienne en France. Les dernières estimations, datant de 2015, font état de 170 000 personnes, ce qui la place au même niveau que les diasporas malienne et sénégalaise. Malgré son importance numérique et son rôle important lors des récentes manifestations de la Gen Z à Madagascar, notamment à travers une mobilisation soutenue sur le réseau social Facebook, cette communauté est peu visible. Elle fait notamment l’objet de peu d’études si on la compare aux autres diasporas préalablement citées.

Une communauté peu connue

On peut faire remonter la première présence malgache en France hexagonale à la moitié du XIXᵉ siècle avec la venue de deux étudiants malgaches inscrits en faculté de médecine. Par la suite, d’autres étudiants, principalement issus des classes bourgeoises proches du pouvoir colonial, suivront le même chemin (études de médecine et de théologie). Cependant, comme le précise Chantal Crenn dans son livre Entre Tananarive et Bordeaux. Les migrations malgaches en France, il est difficile de parler de première vague tant le nombre est faible.

Il faut attendre la Première Guerre mondiale pour observer la première vague importante avec l’arrivée de 40 000 hommes, puis une deuxième vague avec la Seconde Guerre mondiale. Après 1947, la venue de Malgaches en métropole est principalement le fait d’étudiants issus de la bourgeoisie des Hautes Terres. Dans les années 1975-1980, les difficultés économiques et politiques de la Grande île vont pousser une partie des étudiants à venir étudier en France métropolitaine et certains à y rester.

Cet article se propose de combler en partie ces lacunes en analysant les résultats de l’enquête qualitative « Perception et réseaux de la diaspora malgache en France », réalisée dans le cadre du projet de recherche TADY entre janvier 2025 et décembre 2025, regroupant 25 entretiens réalisés avec des membres de la diaspora malgache en France (France hexagonale et La Réunion) et à Madagascar.

Dans le cadre de ces entretiens, deux thématiques principales ont été abordées : d’une part, la perception de l’appartenance à la diaspora malgache ; d’autre part, la diversité des relations entre les membres de la diaspora en France, ainsi que les relations entre cette communauté et Madagascar.

Les résultats développés dans cet article n’engagent pas l’ensemble de l’équipe de recherche du projet TADY mais les seuls auteurs de l’enquête « Perception et réseaux de la diaspora malgache en France ». Cependant, les travaux ont bénéficié d’interactions porteuses au sein du projet TADY et les auteurs remercient à ce titre l’ensemble des membres du projet. Nous renvoyons également les lecteurs au rapport « La diaspora malagasy en France et dans le monde : une communauté invisible ? ».

Définitions endogènes de la diaspora malgache

L’analyse des entretiens de notre enquête ne permet pas d’identifier une définition commune et uniforme à l’ensemble des membres de la diaspora.

Cela rejoint la littérature scientifique sur les diasporas et souligne la nécessité de ne pas adopter une définition trop restrictive des groupes diasporiques. Dans les faits, nous identifions plusieurs visions avancées par les personnes enquêtées, qui peuvent être cumulatives ou non.

Premièrement, une vision identitaire et culturelle met en lumière une série d’arguments en lien avec le fait d’être natif de Madagascar ; d’avoir un attachement identitaire et culturel ; ou encore d’avoir la nationalité malgache (sans forcément avoir un attachement particulier à la culture malgache ou au pays). Ainsi, plusieurs entretiens soulignent que l’appartenance à la diaspora malgache renvoie au fait d’être né à Madagascar puis d’avoir migré, ou encore d’avoir la nationalité et de vivre dans un autre pays que Madagascar.

« La diaspora pour moi, c’est être natif du pays tout en étant parti du pays. »

Cette définition est pour certaines personnes une condition essentielle de l’appartenance au groupe diasporique. D’autres ont une vision plus large et considèrent que l’appartenance à la diaspora malgache est davantage liée aux pratiques culturelles, surtout au fait de parler le malgache.

« Quelqu’un de deuxième génération peut être considéré comme de la diaspora, mais cela dépend de l’éducation. Si les deux parents sont nés à Madagascar, et si les parents entretiennent la langue avec leurs enfants. Dans ce cas, oui. Sinon, les enfants peuvent avoir un rejet. Cette adoption passe par la langue mais aussi la culture, l’adoption du pays. »

Deuxièmement, une vision réticulaire et communautaire, avec deux représentations.

La première (représentation plus individuelle) renvoie au fait d’être en relation avec les membres de la diaspora et/ou d’être en relation avec Madagascar.

« Pour moi, la diaspora c’est toute personne qui a une relation avec Madagascar – que la personne soit malgache ou mariée à un Malgache ou née en France mais enfant de Malgache. Voilà, donc dès qu’il y a une relation avec quelqu’un qui vient de Madagascar ou qui est malgache, qu’il soit né ou pas à Madagascar, pour moi, ça constitue totalement la diaspora. »

La deuxième représentation organisationnelle et communautaire (moins fréquente) qualifie la diaspora comme étant toute forme d’action collective et d’organisation (formelle ou non) qui œuvre pour l’intérêt des Malgaches en France ou à Madagascar.

« Selon moi, la diaspora malgache, c’est la communauté de Malgaches à l’étranger qui se retrouvent par leur origine […] et qui se réunissent selon leurs centres d’intérêt (sportif, religion commune, ou un aspect culturel, etc.). »

Comme nous le verrons dans la suite de l’article, cette dimension réticulaire prend une place importante.

La structuration de la diaspora malgache en France

L’analyse des récits nous permet également d’identifier une dimension centrale de la diaspora : celle de la complexité et de la diversité des relations entre diaspora et Madagascar, d’une part, et entre les membres de la diaspora, d’autre part.

Premièrement, l’ensemble des témoignages soulignent l’importance des relations d’entraide entre les membres de la diaspora et Madagascar.

D’abord, les soutiens sont pour la plupart intrafamiliaux et peuvent être plus ou moins réguliers. Ils peuvent intervenir pendant un événement ponctuel (mariage, enterrement, baptême, maladie) ou bien plus régulièrement (transfert mensuel, paiement de frais de scolarité, etc.).

« Chaque fois que mes parents avaient besoin, ou avaient un pépin à Madagascar, il fallait dépanner. Ils n’avaient personne sur qui compter à part moi. Donc on part, on ne se rend pas forcément compte, mais il y a une responsabilité derrière. »

Ces logiques d’entraide s’apparentent souvent à de véritables mécanismes de protection sociale s’inscrivant dans une stratégie familiale construite autour de la migration.

D’autres témoignages relatent des processus d’entraide qui dépassent le simple cercle intrafamilial. À l’échelle de la famille élargie, de nombreuses initiatives sont développées dans le village d’origine des parents ou, plus largement, dans le lieu d’origine de la famille à Madagascar. Les mécanismes d’entraide sous-tendent de nombreux processus de négociation et des échanges complexes. Les écarts économiques et les perceptions de ces écarts renforcent la complexité de ces relations.

De nombreux témoignages soulignent la complexité des réseaux d’entraide entre la diaspora et Madagascar :

« Quand on envoie de l’argent là-bas, comme c’est un pays pauvre, ma famille a des voisins, les voisins savent que la famille de France envoie de l’argent, alors des fois quand on envoie de l’argent, on nourrit tout un voisinage. Donc des fois ma famille en demande un peu plus. C’est en allant là-bas que je l’ai vu et je l’ai vécu. »

Ainsi, les mécanismes d’entraide intrafamiliaux réguliers (entre enfants en France et parents à Madagascar par exemple) sont souvent le pilier de tout un système de redistribution impliquant de nombreuses personnes à Madagascar et en France.

Ensuite, au-delà de la logique de l’aide privée, plusieurs répondants soulignent la nécessité ressentie d’œuvrer directement pour Madagascar. Ils expriment leur sentiment de devoir moral impérieux, souvent cultivé au sein de la famille, à réinvestir leurs compétences acquises en France pour le développement de Madagascar.

Cette position, ancrée dans leur vision propre des enjeux du développement à l’île, se décline entre s’investir via l’aide au développement ou via le secteur privé, dans une perspective critique de l’aide. Dans les deux cas, toutefois, cette volonté de mobiliser ses compétences pour Madagascar entre en tension avec les opportunités limitées sur le marché du travail local, que ce soit en termes d’accès à l’emploi ou en termes de traitement salarial, en lien avec les écarts rapportés par plusieurs répondants entre conditions salariales des expatriés et conditions salariales des personnels nationaux. Les personnes malgaches venues étudier en France craignent de recevoir un salaire local alors que leur niveau de compétence est validé par un diplôme international.

Toutefois, malgré le manque d’opportunités de retour à Madagascar, la participation de la diaspora au développement du pays est bien réelle et prend notamment la forme de ressources immatérielles à travers le transfert d’opinions et d’idées qui peuvent influencer voire façonner celles des membres de la famille et plus largement l’opinion publique et dont le principal support et espace d’expression est Facebook, le réseau social le plus utilisé par les Malgaches.

Plusieurs enquêtés affirment s’informer régulièrement sur la situation du pays et certains prennent le temps de discuter les actualités avec leurs proches à Madagascar.

Par ailleurs, les influenceurs et lanceurs d’alerte sur Facebook basés en Europe, qui bénéficient d’une grande popularité en France comme à Madagascar, ont joué un rôle important dans le mouvement de la Gen Z.

Deuxièmement, l’analyse des récits permet également de caractériser la diversité des réseaux diasporiques en France selon les personnes.

Certaines se trouvent dans des réseaux exclusivement structurés autour de la famille proche et n’ont que peu de relations avec le reste de la diaspora malgache en France.

« En tant que personne faisant partie de la diaspora, je n’ai pas beaucoup échangé avec d’autres personnes de la diaspora, à part la famille. J’ai une définition très personnelle et très restreinte, je ne connais pas d’associations ou autre, je n’en ai jamais fait partie. »

Ces personnes peuvent par ailleurs maintenir des relations avec les membres de la famille présents à Madagascar. Tandis que d’autres, et ce à des niveaux variables, sont insérées dans des associations sportives, culturelles ou religieuses. Les organisations cultuelles malgaches occupent une place centrale dans la structuration des réseaux diasporiques. Au-delà de la fonction cultuelle, les Églises chrétiennes malgaches, dont les deux plus importantes et présentes dans les grandes villes françaises sont l’Église protestante malgache en France et le réseau des communautés catholiques malgaches de France, assurent souvent un rôle déterminant d’accueil et d’intégration des nouveaux arrivants (recherche d’emploi et de logement, conseil administratif), et favorisent également le maintien d’un lien fréquent et fort avec la communauté malgache.

« Sans la communauté malgache, je ne sais pas trop comment j’aurais pu m’en sortir à mon arrivée en France. C’est complètement grâce à la communauté malgache que j’ai pu m’en sortir, parce que ne serait-ce qu’avoir des amis, avoir des gens qui aident, par rapport à tout ce qui est administratif… parce qu’arriver en France sans rien connaître du tout, c’est très compliqué. […] Tout a été facilité par cette communauté malgache. La communauté de l’Église m’a permis de ne pas trop perdre mes repères et de ne pas être perdu totalement après mon arrivée en France. »

En conclusion, les principaux résultats de l’enquête soulignent la complexité des structures des réseaux diasporiques. Cette dernière s’explique non seulement par la diversité des représentations que la diaspora a d’elle-même mais aussi par la multitude des formes d’interaction qu’elle entretient avec Madagascar.


Cet article a été co-écrit avec Sarah M’Roivili.

The Conversation

Léo Delpy a reçu des financements du projet Tady.

Claire Gondard-Delcroix a reçu des financements du projet Tady.

Tantely Andrianantoandro et Tsiry Andrianampiarivo ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

13.01.2026 à 15:44

Relocalisations industrielles : ces acheteurs qui font (ou défont) le « Made in France »

Laurence Viale, Professor in Purchasing and Supply Management, IÉSEG School of Management
Jeanne Bessouat, Associate professor in Supply Chain Management, Université de Strasbourg
img
Multiples et polymorphes, les relocalisations s’imposent dans le débat public. Leur réussite dépend d’un acteur souvent invisible&nbsp;: l’acheteur professionnel.
Texte intégral (1640 mots)

Les relocalisations d’entreprises sont souhaitées par les pouvoirs publics et une partie des consommateurs. Si leurs motivations sont variées, les dirigeants des entreprises ne doivent pas oublier un relais indispensable dans cette stratégie : les acheteurs professionnels. Et selon les cas, ce ne sont pas les mêmes profils qui seront les plus à même de mener à bien ces projets délicats.


Coca-Cola, un acteur local ! Dans une récente communication, l’entreprise détaille avec précision les spécificités de sa production mettant en avant son ancrage territorial. Cela n’est pas anodin, et correspond à une véritable tendance. Au-delà d’une stratégie industrielle, la relocalisation de la production est devenue désormais un récit adopté par les organisations.

Cette stratégie répond à plusieurs attentes : regain recherché de souveraineté des gouvernements, politiques publiques de soutien à l’industrie nationale (à l’image de France 2030), recherche par les consommateurs de produits issus de circuits courts, et pressions post-Covid sur l’ensemble des chaînes d’approvisionnement. Au sein de ces chaînes, un acteur demeure souvent invisible, alors même qu’il joue un rôle stratégique dans cette politique de relocalisation : l’acheteur professionnel dans l’industrie. Il sélectionne et pilote les relations fournisseurs, arbitre entre coûts, risques et délais et, enfin, coordonne les parties prenantes internes pour rendre une relocalisation faisable.

L’acheteur, un acteur clé

Pour ces raisons, nous avons mené une étude sur le rôle joué par les acheteurs dans les décisions de relocalisations. Longtemps vu comme un simple « cost-killer », il occupe aujourd’hui un rôle stratégique, au croisement des enjeux économiques, environnementaux et industriels. Comment les acheteurs, au travers de leurs valeurs et postures, influencent-ils la réussite (ou l’échec) des relocalisations ? Et si la relocalisation ne se décidait pas seulement dans les usines ou les ministères…


À lire aussi : Du cost-killer à l’acheteur intrapreneur, un nouveau métier


La relocalisation renvoie à une multitude de termes : reshoring, backshoring, nearshoring… Souvent nouveaux et encore peu balisés, ces projets sont très exposés médiatiquement (campagne sur le « Made in France ») alors qu’ils nécessitent une adaptation de la chaîne d’approvisionnement à long terme. Ce sont donc des projets complexes, qui conduisent l’acheteur à s’adapter et à endosser des rôles différents. Nous distinguons trois grands types de relocalisation.

La relocalisation comme opportunité

La relocalisation comme opportunité est envisagée au cas par cas par les entreprises. Il s’agit avant tout de saisir une opportunité (plan de relance, marché en forte croissance, soutien public), pour un marché ou un produit spécifique, sans remettre en cause l’ensemble de la stratégie de production.

Lesaffre a par exemple rapatrié sa production de chondroïtine, projet soutenu dans le cadre de France Relance. Cette relocalisation permet de tester une solution locale.

Ici, l’objectif n’est pas de relocaliser l’ensemble de la production. Elle demeure une stratégie de niche pour les entreprises. Certains territoires se révèlent alors particulièrement attractifs. En France, la région Auvergne-Rhône-Alpes concentre à elle seule 48,5 % des projets de relocalisation d’après une étude de la CCI publiée en février 2023.

La relocalisation comme véritable stratégie industrielle

Moins opportuniste, la relocalisation s’inscrit alors dans un horizon temporel à long terme. Il s’agit d’intégrer la relocalisation au sein d’une stratégie industrielle globale, à l’instar de Rossignol. Dans cette perspective, les enjeux sont davantage liés à la gestion des risques, comme la sécurisation des approvisionnements, ou la maîtrise technologique.

Il existe de nombreux outils pour aider les entreprises à relocaliser dans le cadre d’une politique industrielle prônant la relocalisation.

La relocalisation comme réponse aux consommateurs

Envisager la relocalisation comme une réponse aux attentes des consommateurs constitue le troisième type de motivation. En effet, les consommateurs associent souvent les relocalisations à des valeurs positives, en lien avec l’image de marque.

Dans cette perspective, la relocalisation s’inscrit dans la tendance du « Made in France ». La relocalisation correspond alors à une volonté de s’inscrire dans une démarche de durabilité, afin de répondre à une demande des consommateurs.

Et l’acheteur dans tout ça ?

Polymorphe, la relocalisation nécessite de composer avec des logiques économiques, sociales, environnementales et identitaires. Le rôle des acheteurs est alors central, que la relocalisation soit envisagée comme une opportunité, une véritable stratégie industrielle ou une réponse aux consommateurs. L’acheteur est à la fois :

  • garant de la faisabilité du projet de la relocalisation face aux nombreuses incertitudes techniques (nouveaux fournisseurs, risques opérationnels, etc.),

  • arbitre face aux incertitudes économiques (pression budgétaire, coûts imprévisibles, etc.),

  • et coordinateur de l’ensemble des parties prenantes du projet (potentiels conflits).

Nous proposons d’adopter ici des métaphores animalières pour décrire le rôle de l’acheteur au sein des différentes relocalisations. En effet, le rôle de l’acheteur est souvent méconnu des consommateurs, tout comme son impact sur les décisions stratégiques de l’industriel. Adopter des métaphores animales dans notre étude nous permet de mieux illustrer la posture de l’acheteur au sein des différents types de relocalisation. Bien qu’elle ait souvent décidé au niveau stratégique, sa mise en œuvre dépend largement de l’acheteur (choix des fournisseurs, sécurisation, négociation, transition avec les partenaires historiques). Selon les organisations, l’acheteur peut aussi peser en amont dans l’arbitrage.

Profil papillon, hibou ou renard ?

Lorsque la relocalisation est vécue comme une opportunité, nous pouvons considérer l’acheteur comme un papillon : flexible, ouvert au changement et guidé par ses convictions personnelles. Il saisit les opportunités de relocalisation dès qu’elles apparaissent, même lorsque le cadre organisationnel demeure flou ou que le soutien interne est limité. Son engagement est déterminant pour lancer un premier projet, mais il peut être fragilisé par la prudence de l’entreprise, la réaction des partenaires historiques ou l’absence d’alignement stratégique.

Si la relocalisation fait partie intégrante de la stratégie industrielle de l’entreprise, le comportement de l’acheteur s’apparente à un renard, pragmatique et rusé. L’acheteur est alors avant tout un gestionnaire de risques, qui jongle avec les contraintes de coûts, de continuité de fournisseurs et d’exigences juridiques. Son seul objectif est de rendre la relocalisation viable, faisant fi parfois de ses convictions personnelles.

BFM, 2024.

Enfin, lorsque la relocalisation est avant tout une réponse aux attentes des consommateurs, l’acheteur adopte une vision globale et une vigilance exacerbée à la manière d’un hibou afin de répondre à la pression du marché. Il agit dans l’urgence tout en suivant les contraintes réglementaires, avec une marge de manœuvre réduite, au risque de ruptures brutales avec des fournisseurs historiques et d’un décalage entre ses convictions et les objectifs affichés par l’entreprise.

Un rôle pivot

L’utilisation de métaphores permet de mieux illustrer le rôle pivot joué par les acheteurs au sein des relocalisations. Elles se construisent aussi à travers leurs décisions quotidiennes sur le terrain. Cela implique que les entreprises prennent davantage en compte le profil des acheteurs lors de projets de relocalisation.

Pour avancer concrètement sur ces sujets, les entreprises doivent s’investir dans trois directions :

  • Identifier le profil de leurs acheteurs (plutôt papillon, renard ou hibou) et les mobiliser en fonction des projets de relocalisation.

  • Constituer des équipes d’acheteurs aux profils complémentaires, en combinant exploration d’opportunité, gestion des risques et cohérence avec l’image de marque.

  • Adapter les objectifs et la formation des acheteurs, en intégrant les enjeux de relocalisation, en termes de gain d’achat, mais aussi de résilience, de coopération fournisseur et de création de valeur locale.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

13.01.2026 à 15:42

« Stranger Things » : pourquoi le final divise tant les fans

Frédéric Aubrun, Enseignant-chercheur en Marketing digital & Communication au BBA INSEEC - École de Commerce Européenne, INSEEC Grande École
Vladimir Lifschutz, Maître de conférences, Université Paul Valéry – Montpellier III
img
Comment le final de la série peut-il honorer dix&nbsp;ans de participation des fans et satisfaire une communauté qui a appris à en co-créer le sens&nbsp;?
Texte intégral (1936 mots)
Une dernière partie de Donjons et Dragons pour la scène finale de _Stranger Things_. Netflix

Le 31 décembre 2025, Netflix diffusait le dernier épisode de la série Stranger Things. Intitulé « The Rightside Up », cet épisode de deux heures conclut dix années de fiction et d’hommage à la culture populaire des années 1980. Sur les réseaux sociaux, les réactions des fans explosent. Certains crient à la trahison, d’autres défendent les choix narratifs des frères Duffer. Beaucoup pleurent parce que c’est tout simplement la fin. Mais ce qui frappe, c’est l’intensité du débat où se joue une bataille collective pour donner sens à ce qu’on vient de regarder.


Attention, si vous n’avez pas vu la série, cet article en divulgâche l’intrigue !

Pendant dix ans, Netflix a construit un univers tentaculaire autour de l’œuvre des frères Duffer, transformant la série en un véritable espace immersif qui dépasse la fiction : réalité augmentée permettant aux fans de visiter les lieux de la série, jeux vidéo les replongeant dans la ville fictive d’Hawkins, sites interactifs les invitant à participer à l’histoire… Toutes ces expériences ont permis à la plate-forme d’alimenter un lecteur modèle au sens de Umberto Eco, c’est-à-dire un spectateur doté de compétences narratives très développées, capable d’interpréter les codes de la série et d’y participer activement.

La dernière aventure : Le making-of de Stranger Things, Saison 5 | Bande-annonce VOSTFR | Netflix France.

Chaque saison a renforcé les attentes de ce spectateur, qui ne se contentait alors plus seulement de regarder la série mais participait également à la construction de l’univers de la série. Mais comment le final de la série peut-il honorer dix ans de participation et satisfaire une communauté qui a appris à co-créer le sens ?

L’histoire sans fin

Le final peut se lire en deux parties. La première concerne la bataille finale contre Vecna et le Flagelleur mental qui vient clore l’arc narratif principal de la série. La seconde concerne l’épilogue se déroulant dix-huit mois plus tard.

La première partie de ce season finale a beaucoup fait parler d’elle en raison de la faible durée à l’écran de la bataille finale. Les fans se sont alors amusés à comparer la durée de cette scène avec celle où l’un des protagonistes fait son coming-out dans l’épisode précédent.

Mais c’est l’épilogue qui a le plus engendré de réactions divisées de la part des fans. Lors d’une ultime partie de Donjons & Dragons dans le sous-sol des Wheeler, Mike suggère une hypothèse sur ce qui s’est vraiment passé concernant la mort du personnage de Eleven. Kali aurait créé une illusion pour sauver Eleven, la laissant s’échapper. Et puis une vision finale : Eleven vivante, dans un petit village lointain bordé par trois cascades, pour y vivre en paix.

Les frères Duffer laissent volontairement planer le doute, comme ils l’expliquent dans une interview :

« Ce que nous voulions faire, c’était confronter la réalité de sa situation après tout cela et nous demander comment elle pourrait mener une vie normale. Eleven a deux chemins à suivre. Il y a celui qui est plus sombre, plus pessimiste, et celui qui est optimiste, plein d’espoir. Mike est l’optimiste du groupe et a choisi de croire en cette histoire. »

Pour comprendre pourquoi certains fans acceptent cette ambiguïté plutôt que de la rejeter, nous pouvons convoquer le concept du « double visage de l’illusionné » proposé par Philippe Marion. Selon le chercheur, pour entrer pleinement dans une fiction, il faut accepter d’être dupé tout en sachant qu’on l’est.

Les spectateurs de Stranger Things acceptent volontairement les règles du jeu narratif. Ce contrat implicite entre l’œuvre et le spectateur est fondamental. Il explique aussi pourquoi la boucle narrative du final fonctionne. La série débute en 2016 par une partie de Donjons & Dragons et se termine par une autre partie, dans le même lieu. Cela suggère que tout ce que nous avons regardé était en quelque sorte le jeu lui-même, comme l’illustre le générique de fin où l’on voit apparaître le manuel d’utilisation du jeu Stranger Things.

Pendant dix ans, les fans ne sont pas restés passifs. Ils ont débattu, théorisé, réinterprété chaque détail. Et en faisant cela, ils ont construit collectivement le sens de la série. Le théoricien Stanley Fish nomme cela les communautés d’interprétation : des groupes qui créent ensemble la signification d’une œuvre plutôt que de la recevoir. Le final ambigu d’Eleven n’est donc pas une faille narrative mais une invitation à imaginer des suites, à co-créer le sens ensemble.

Mais certains fans ont refusé cette fin. Ils ont alors inventé le « Conformity Gate » : une théorie diffusée sur les réseaux sociaux selon laquelle le final serait une illusion, un faux happy-end. Selon cette théorie, un vrai dernier épisode révélerait que Vecna a gagné. Et pendant quelques jours, les fans y ont cru, espérant un épisode secret qui confirmerait leur lecture.

« J’y crois »

Il se joue dans la conclusion d’une œuvre sérielle un enjeu qui dépasse le simple statut du divertissement ou de l’art. Achever une série, c’est refermer une page de sa vie. La série fonctionne comme un espace de vie organisé parfois autour d’un groupe d’amis, d’un couple, d’une famille, etc.

Infusée pendant des années de rendez-vous répétés, l’implication émotionnelle atteint des sommets qui donnent parfois des réflexions troublantes : « Je connais mieux les personnages de Mad Men que ma propre famille » nous dit un témoignage dans le documentaire d’Olivier Joyard, Fins de séries (2016).

Il y aurait des séries que nous quittons en bons termes, celles qui nous quittent et celles que nous quittons. Ainsi, la fin est une affaire d’affect.

Historiquement, certaines séries ont refusé de conclure explicitement. The Sopranos se termine sur un noir brutal où le destin de Tony reste en suspens. Plus récemment, The Leftlovers, de Damon Lindelof, opère une manœuvre similaire : deux personnages prennent le thé et l’une raconte un voyage dans une réalité alternative. Mais la série refuse d’authentifier ce récit par l’image. Elle laisse les spectateurs décider s’ils y croient ou non.

Le récit de Nora dans le final de The Leftovers.

C’est une stratégie que James Matthew Barrie utilisait déjà dans Peter Pan (1904) où il demandait au public de crier « J’y crois » pour sauver la Fée clochette.

Stranger Things opère la même opération de décentrement final entre deux versions du récit : Eleven s’est-elle sacrifiée ou a-t-elle rejoint cette image d’Épinal de paradis que Mike lui promettait ? C’est d’ailleurs ce même Mike qui apparaît alors en démiurge narratif, alter ego des frères Duffer, maître du jeu et de l’univers ramenant la série entière à sa métafinalité. Il crée deux récits dont l’authentification est laissée à la conviction des auteurs dans la pièce ou presque.

Les personnages font le choix de croire en cette fiction, mais comment peut-il en être autrement puisqu’ils sont eux-mêmes dans la fiction ? Le détail qui diffère de The Leftovers, c’est le choix d’authentifier par l’image la survie d’Eleven dans un plan qui la révèle dans un paysage islandais. Le choix n’est donc pas totalement libre, l’authentification par l’image donne une force supplémentaire à ce happy end dans l’interprétation de la conclusion.

Le débat va néanmoins durer, les fans vont faire vivre la série par la manière dont elle se termine, réactivant ainsi les affects qui lui sont liés.

« Je refuse d’y croire » ou le clivage de la réception

Par ailleurs, l’épilogue final donne à voir quelques images du futur de chaque protagoniste dans les mois à venir prenant soin de laisser hors champ tout un pan à venir de leur vie d’adulte. Rien ne dit que dans quelques années, l’univers de Strangers Things ne sera pas ressuscité à l’instar de tant d’autres œuvres avec une suite directe où Mike et ses amis, devenus adultes, devront faire face à une terrible menace, engageant des retrouvailles inévitables avec Eleven. Pour cela, il suffit de murmurer : « J’y crois. »

Dans une sorte d’ironie finale que seule la fiction sérielle peut nous réserver, les paroles de la chanson de Kate Bush semblent prophétiser la réaction du final pour une partie de l’audience qui souhaite prendre la place des frères Duffer pour réécrire la fin, pour réécrire leur fin, « I’d make a deal with God. And I’d get Him to swap our places » (« Je passerais un accord avec Dieu. Et je lui demanderais d’échanger nos rôles »).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

13.01.2026 à 13:09

Additifs conservateurs : deux grandes études suggèrent des liens avec un risque accru de cancers et de diabète de type 2

Mathilde Touvier, Directrice de l'Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inrae, Cnam, Université Sorbonne Paris Nord, Université Paris Cité, Université Paris Cité
Anaïs Hasenböhler, Doctorante, équipe de recherche en épidémiologie nutritionnelle, Université Sorbonne Paris Nord
img
Deux nouvelles études suggèrent un lien entre la consommation d’additifs conservateurs, des substances présentes dans de nombreux aliments, et un risque accru de cancers et de diabète de type 2.
Texte intégral (2329 mots)

Les additifs conservateurs sont présents dans de nombreux types d’aliments. Or, deux nouvelles études épidémiologiques d’ampleur suggèrent l’existence d’un lien entre leur consommation et un risque accru de cancer et de diabète de type 2. Anaïs Hasenböhler, qui conduit ces travaux, et Mathilde Touvier, qui dirige l’équipe de recherche en épidémiologie nutritionnelle (Cress-Eren, Inserm/Inrae/Cnam/Université Sorbonne Paris Nord/Université Paris Cité), ont répondu à nos questions.


The Conversation : En quoi ont consisté vos travaux sur les additifs conservateurs ?

Mathilde Touvier : Les deux études publiées en janvier s’inscrivent dans le cadre de notre projet de recherche sur les conséquences pour la santé résultant de la consommation d’additifs alimentaires. Depuis environ cinq ans, nous explorons cette voie afin de déterminer si elle peut expliquer les effets sur la santé des aliments industriels, notamment transformés ou ultratransformés.

Dans la lignée de nos précédents travaux sur les émulsifiants ou les édulcorants, nous nous sommes penchés sur la question des conservateurs, qui sont des additifs que l’on retrouve dans de nombreux produits : environ un produit sur cinq répertorié dans la base de données Open Food Facts en contient.

Pour cela, nous avons employé les données collectées dans le cadre de la cohorte NutriNet-Santé, dont l’originalité est de permettre, du fait de la finesse des données recueillies (marques des produits industriels consommés, dosages d’additifs dans certains aliments et boissons, questionnaires répétés sur plusieurs années…), de quantifier les expositions des participants à ces additifs, sur le long terme (le suivi depuis plus de quinze ans pour les premiers inclus). Durant les deux premières années du suivi, 99,7 % des participants ont été exposés à au moins un conservateur, d’où l’importance de s’intéresser à leur impact à long terme sur la santé.

Les analyses statistiques poussées que nous avons menées ont permis de mettre en évidence des liens entre le niveau de consommation de certaines de ces substances et le risque de survenue de certaines maladies chroniques.

Combien de conservateurs sont autorisés en France ? Quels sont ceux que vous avez étudiés ?

Anaïs Hasenböhler : Aujourd’hui, sur les quelque 330 additifs alimentaires autorisés en France et dans l’Union européenne, 80 ont des propriétés de conservateurs.

Parmi ces derniers, 58 se sont révélés être consommés par au moins un participant de l’étude NutriNet-Santé. L’ensemble de ces substances a été prise en compte pour calculer la somme totale d’additifs conservateurs consommés. Soulignons que dans ces travaux, 34,6 % des conservateurs consommés provenaient d’aliments ultratransformés. Nous avons également pu étudier davantage en détail 17 des conservateurs les plus consommés (c’est-à-dire consommés par au moins 10 % de la population), pour lesquels nous disposions de suffisamment de puissance statistique pour étudier le lien avec le risque de maladies chroniques.

Nos travaux révèlent que certains conservateurs étaient à la fois associés à une augmentation de l’incidence de cancer et de diabète de type 2. C’est le cas du sorbate de potassium (E202), du métabisulfite de potassium (E224), du nitrite de sodium (E250), de l’acide acétique (E260), de l’érythorbate de sodium (E316). Tandis que d’autres étaient plus spécifiquement associés à l’une ou l’autre de ces pathologies.

Concernant les cancers, qu’ont révélé vos résultats ?

M. T. : L’étude sur les cancers a porté sur les données de 105 260 participants à la cohorte NutriNet-Santé. Nous avons observé que les personnes qui consommaient davantage de certains conservateurs avaient un risque de cancer plus élevé, avec des associations spécifiques observées pour les cancers les plus fréquents dans la cohorte, à savoir ceux du sein et de la prostate.

La plupart des associations positives entre consommation de conservateurs et incidence plus élevée de cancers concernaient principalement les conservateurs non-antioxydants.

On peut citer les sulfites (trouvés surtout dans les boissons alcoolisées, responsables de 85,4 % des apports en sulfites chez les participants, mais aussi dans des sauces industrielles), les nitrites et nitrates (apportés principalement par les viandes transformées telles que les charcuteries), les sorbates (dont les sources sont plus variées : ils proviennent principalement de produits à base de fruits et légumes ou matières grasses et sauces, mais on en trouve aussi dans les desserts lactés, gâteaux et biscuits), et les acétates (largement utilisés dans les matières grasses et les sauces, telles que vinaigrettes ou condiments, ainsi que dans les viandes transformées, les préparations à base de produits laitiers, les plats préparés).

L’érythorbate de sodium, un additif antioxydant fréquemment ajouté aux viandes transformées (qui contribuaient à hauteur de 42,3 % des apports dans la cohorte) était également associé à une incidence plus élevée de cancer.

Lorsque nous comparions les plus forts consommateurs aux non consommateurs ou aux plus faiblement exposés, les pourcentages d’augmentation d’incidence étaient les suivants :

  • les sorbates, en particulier le sorbate de potassium, étaient associés à une augmentation de 14 % de l’incidence de cancer au global et à une augmentation de 26 % de celle de cancer du sein ;
  • les sulfites étaient associés à une augmentation de 12 % du risque global de cancer. En particulier, le métabisulfite de potassium était associé à une incidence accrue de 11 % de cancer au global et 20 % de cancer du sein ;
  • le nitrite de sodium était associé à une augmentation de 32 % du risque de cancer de la prostate ;
  • le nitrate de potassium était associé à une augmentation du risque de cancer au global de 13 % et de cancer du sein de 22 % ;
  • les acétates étaient associés à une augmentation du risque de cancer au global de 15 % et de cancer du sein de 25 %. Spécifiquement, l’acide acétique était associé à une augmentation de 12 % du risque de cancer en général ;
  • les érythorbates totaux et l’érythorbate de sodium en particulier étaient associés à une incidence plus élevée de cancer au global (12 %) et du cancer du sein (21 %).

La puissance statistique était limitée pour les autres localisations de cancer, qui sont moins fréquemment représentés en population générale et donc également dans la cohorte. Un mode de vie globalement plus sain explique aussi l’incidence plus faible de certains cancers dans l’étude, ce qui a pu empêcher de mettre en évidence pour le moment les associations connues entre nitrites et cancer colorectal, par exemple.

Qu’avez-vous découvert concernant le risque de diabète de type 2 ?

M. T. : L’étude sur le diabète de type 2 a porté sur les données de 108 723 participants de la cohorte NutriNet-Santé. Nos travaux ont permis d’observer une association positive significative entre une exposition plus élevée aux additifs alimentaires conservateurs et une incidence plus forte de diabète de type 2 : les plus gros consommateurs de conservateurs avaient un risque supérieur estimé à 47 % de développer la maladie, comparés aux consommateurs qui en absorbaient le moins.

Sur les 17 conservateurs étudiés individuellement, une consommation plus élevée de 12 d’entre eux était associée à un risque accru de diabète de type 2 : des conservateurs alimentaires non antioxydants largement utilisés – nitrite de sodium (E250, incidence supérieure de 50 % chez les plus forts, comparés à de plus faibles consommateurs), métabisulfite de potassium (E224, 29 %), sorbate de potassium (E202, 115 %), acide acétique (E260, 31 %), acétates de sodium (E262, 23 %) et propionate de calcium (E282, 44 %) – et des additifs antioxydants : ascorbate de sodium (E301, 41 %), alpha-tocophérol (E307, 30 %), érythorbate de sodium (E316, 43 %), acide citrique (E330, 29 %), acide phosphorique (E338, 39 %) et extraits de romarin (E392, 20 %).

Que faut-il retenir de ces résultats ?

M. T. : Ces deux études sont les premières au monde à quantifier les expositions à un large spectre de conservateurs et à étudier leurs liens avec le risque de cancers et de diabète.

S’il est un point qui nous a interpellés, c’est la proportion de conservateurs dont la consommation s’est révélée associée à une incidence plus élevée de ces pathologies : sur les 17 que nous avons testés spécifiquement, 6 étaient associés à une incidence accrue de cancer, et 12 étaient associés au risque de diabète de type 2.

A. H. : Ces résultats épidémiologiques sont cohérents avec de précédents travaux expérimentaux qui consistent à exposer des cultures de cellules ou des modèles animaux à des conservateurs. Dans le cas du diabète de type 2, de telles études avaient par exemple suggéré que certains conservateurs pourraient altérer la signalisation de l’insuline. Parmi les autres pistes d’explication figurent les perturbations du microbiote intestinal, mais aussi des mécanismes d’oxydation, de stress oxydant ou d’inflammation qui pourraient être impliqués dans l’apparition de cancers.

Y a-t-il des limites à cette étude ?

M. T. : Il est important de rester prudent concernant les pourcentages d’augmentation d’incidence observés quand on compare les consommateurs les plus fortement exposés aux moins fortement exposés.

En effet, ces chiffres ne s’appuient que sur une seule étude, basée sur la cohorte NutriNet-Santé. Même si celle-ci est fondée sur une très large population d’étude, avec des données fines d’exposition et un contrôle poussé des principaux facteurs de risque (tabagisme, consommation d’alcool, de sucre, sel, fibres, antécédents familiaux de maladies ou encore activité physique), il va falloir les confirmer par d’autres travaux (études épidémiologiques sur d’autres cohortes, puis méta-analyses…).

Cependant, les associations que nous avons mises en évidence sont statistiquement significatives et concordent, comme on l’a souligné, avec les travaux expérimentaux qui ont déjà été menés.

Quelles mesures prendre pour mieux protéger la santé des consommateurs ?

M. T. : Contrairement aux autres types d’additifs alimentaires (émulsifiants, édulcorants, colorants…), l’intérêt des conservateurs va au-delà du cosmétique et de l’organoleptique.

Ils sont employés pour protéger les aliments contre des altérations potentiellement délétères pour la santé des consommateurs, qu’il s’agisse de modifications chimiques (oxydations) ou de contaminations par des microorganismes.

Le ratio bénéfice-risque de ces substances devra donc être pris en compte dans les futures réévaluations de leur sécurité. Il s’agira de déterminer, au cas par cas, si les conservateurs sont réellement indispensables ou s’ils sont utilisés pour des intérêts, notamment économiques, qui dépassent la seule sécurité alimentaire (garder plus longtemps les produits dans les rayons pour faire des économies, par exemple), s’il existe des alternatives, etc.

Au final, nous espérons que nos travaux permettront de nourrir ces futures ré-évaluations (par l’EFSA, la FDA, etc.), et de faire évoluer la réglementation pour mieux protéger les consommateurs, en abaissant si besoin les doses limites autorisées ou en interdisant certaines substances.

Dans nos perspectives de recherche à court terme, nous poursuivons également des travaux sur les liens entre les additifs conservateurs et le risque de maladies cardiovasculaires et d’hypertension. Nous explorons aussi l’impact des mélanges d’additifs sur le risque de maladies chroniques ainsi que celui de contaminants issus des procédés de transformation et des emballages.

Nous recherchons les mécanismes sous-jacents en dosant des biomarqueurs sanguins d’inflammation, de stress oxydant, de perturbation du métabolisme et en étudiant les microbiotes des participants, en lien avec leurs profils d’expositions aux additifs et aux aliments ultratransformés et leurs contaminants.

Nos partenaires toxicologues et physiologistes complètent ces travaux par des approches expérimentales. Enfin, nous travaillons également sur l’évolution du logo Nutri-Score pour permettre d’intégrer ces nouvelles dimensions en plus du profil nutritionnel, avec par exemple un cadre noir pour signaler si l’aliment est « ultratransformé ».

D’une façon plus générale, ces résultats plaident pour l’application des recommandations du Programme national nutrition santé : privilégier les aliments pas ou peu transformés et limiter les additifs superflus…

The Conversation

Mathilde Touvier a reçu des financements d'organismes publics ou associatifs à but non lucratif (ERC, ANR, INCa, etc.).

Anaïs Hasenböhler a reçu des financements (PhD grant) de Université Sorbonne Paris Nord. Ces travaux ont été financés par des fonds publics ou associatifs à but non lucratif (ERC, INCa, Ministère de la Santé, ...)

13.01.2026 à 13:09

Bilharziose en Europe : d’où vient cette maladie parasitaire et comment s’en protéger ?

Christoph Grunau, Professeur des Universités, expert en épigénetique environnementale, Université de Perpignan Via Domitia
Ronaldo Augusto, Chair Professor Junior (CPJ), expert en maladies émergentes, Université de Perpignan Via Domitia
img
Les schistosomes, des vers parasites, infestent plus de 240&nbsp;millions de personnes dans le monde, souvent sans qu’elles le sachent. Depuis quelques années, cette maladie s’étend. Elle touche désormais la Corse.
Texte intégral (3136 mots)

Les schistosomes, de petits vers parasites, sont à l’origine d’une maladie aux conséquences potentiellement graves : la schistosomiase ou bilharziose. Une simple baignade dans des eaux infestées par leurs larves peut suffire à être contaminé. Longtemps cantonnée à certains pays tropicaux, la maladie s’étend. Elle aborde désormais le sud de l’Europe : des cas ont été recensés en Corse, ces dernières années.


Plus de 240 millions de personnes dans le monde vivent avec un parasite dans le corps sans le savoir. Ces personnes sont infectées par des vers plats appartenant au genre Schistosoma, transmis par des escargots d’eau douce. Ils sont responsables d’une maladie appelée schistosomiase ou bilharziose, dont les complications peuvent être graves, allant jusqu’au cancer du foie ou de la vessie.

Si la grande majorité des personnes touchées vivent en Afrique, en Amérique latine ou en Asie, des foyers localisés ont également été récemment signalés en Europe, notamment dans le sud-est de la Corse.

Aujourd’hui, la lutte contre la bilharziose ne constitue donc plus seulement un enjeu de santé publique locale. Il s’agit d’un défi mondial, qui exige une veille épidémiologique accrue, une coopération internationale renforcée et des stratégies adaptées à une réalité environnementale en mutation.

Une même maladie, différentes manifestations.

La bilharziose est transmise par de petits escargots aquatiques vivant dans les eaux douces. Les larves de schistosomes les infectent, puis se multiplient dans leur organisme, avant d’être libérées dans les eaux environnantes.

Le cycle des schistosomes, responsables de la schistosomiase ou bilharziose. DPDx, Centers for Disease Control and Prevention

Elles vont alors se mettre en quête de leur hôte final, un mammifère (rongeur, bétail, être humain…) immergé à proximité. Une fois à son contact, les larves percent sa peau et pénètrent dans son corps. Après un passage par le foie, elles se transforment en adultes, et s’installent dans les veines proches de l’intestin ou de la vessie.

Si, dans certains cas, les premiers stades de l’infection peuvent se traduire par une irritation de la peau ou de la fièvre, souvent la maladie reste silencieuse pendant des mois.

Les manifestations cliniques qui surviennent ensuite sont principalement liées aux centaines d’œufs produits chaque jour par les femelles. En effet, si une partie est éliminée en même temps que les matières fécales ou les urines (et peuvent donc à nouveau contaminer les eaux), certains restent piégés dans les tissus. Des lésions et des réactions inflammatoires se produisent, qui peuvent avoir de lourdes conséquences.

Cependant, la bilharziose ne se manifeste pas de la même façon partout. En effet, la forme de la maladie varie non seulement selon l’espèce de vers parasites impliquée, mais aussi selon l’espèce d’escargots qui les transmettent, ainsi qu’en fonction des saisons de transmission, propres à chaque région, ou encore des mesures de contrôle, très dépendantes des infrastructures locales.

Type de maladie Symptômes Espèce impliquée Répartition géographique
Schistosomiase intestinale - typiques: douleurs abdominales, diarrhée, et sang dans les selles;

- atteintes avancées: hépatomégalie (augmentation du volume du foie), parfois associée à une ascite (liquide péritonéal) et une hypertension de la veine porte qui augmente le risque d'hémorragie; une splénomégalie (augmentation du volume de la rate) peut aussi être observée. Risque de cancer du foie aux stades tardifs.
Schistosoma mansoni Afrique, Moyen-Orient, Caraïbes, Brésil, Venezuela et Suriname
Schistosoma japonicum Chine, Indonésie, Philippines
Schistosoma mekongi Plusieurs districts du Cambodge et de la République démocratique populaire lao
Schistosoma guineansis et S. intercalatum (espèce voisine) Zones des forêts tropicales humides en Afrique centrale
Schistosomiase urogénitale - typiques: hématurie (sang dans les urines);

- atteintes avancées: lésions rénales, fibrose de la vessie et de l'uretère, et risque de cancer de la vessie aux stades tardifs.
Schistosoma haematobium Afrique, Moyen-Orient, France (Corse)

Dans certains cas d’infection aiguë, des manifestations atypiques (paralysies) ont également été décrites. Chez les enfants, l’infection se traduit par une anémie (car les parasites se nourrissent des cellules sanguines de leur hôte) ainsi que par un retard de croissance.

Pour éviter la transmission de la maladie, outre les gestes individuels (voir encadré « Comment se protéger »), les programmes locaux de lutte contre les escargots et de sensibilisation communautaire sont essentiels, car ils permettent de rompre le cycle de transmission du parasite. Dans les zones endémiques, la participation aux campagnes de traitement collectif au praziquantel permet en outre d’éviter les formes chroniques.

Cette parasitose, bien que connue depuis longtemps, demeure malheureusement d’actualité. Chaque nouveau barrage ou projet d’irrigation, chaque communauté dépourvue d’assainissement créent les conditions pour une transmission renouvelée. Une situation encore aggravée par les modifications liées au changement climatique en cours, ou au développement de certaines pratiques, parmi lesquelles l’écotourisme, qui, en favorisant les voyages dans des zones rurales ou naturelles parfois peu surveillées sur le plan sanitaire, accroît le risque d’exposition à des eaux contaminées par les schistosomes.

Au sein de notre laboratoire, et en collaboration avec des centres de recherche en Europe, Amérique du Nord et Amérique du Sud ainsi qu’en Afrique de l’Ouest, nous travaillons à comprendre la dispersion des parasites et des mollusques vecteurs. Nous étudions aussi la possibilité d’améliorer la résistance des escargots contre le parasite, et nous explorons la possibilité de recourir à des modifications épigénétiques et génétiques pour rendre les parasites vulnérables.

Un parasite qui s’adapte aux activités humaines

Le cycle de la bilharziose repose sur trois éléments : le parasite, l’escargot, et l’eau. Dès que ces trois conditions sont réunies, la transmission est possible. Que ce soit dans les campagnes brésiliennes, le Nil en Égypte, les rizières asiatiques ou les rivières corses, la bilharziose s’adapte aux paysages humains.

En Afrique de l’Ouest, comme au Sénégal et au Bénin, les écosystèmes fluviaux et les températures élevées qui varient peu tout au long de l’année constituent des habitats idéaux pour les escargots appartenant aux espèces Biomphalaria et Bulinus, vecteurs des formes intestinale et urinaire de la maladie. Dans ces régions, la transmission est observée tout au long de l’année. Elle est plus importante au sein des populations ayant un contact intense avec l’eau, comme dans la ville fluviale de Ganvié (Bénin).

Photo de pêcheurs et habitants en pirogue dans la lagune de Ganvié, au Bénin. Ce type d’environnement, où l’eau douce est omniprésente et les contacts humains fréquents, constitue un terrain propice à la transmission de la bilharziose.
Pêcheurs et habitants en pirogue dans la lagune de Ganvié, au Bénin. Ce type d’environnement, où l’eau douce est omniprésente et les contacts humains fréquents, constitue un terrain propice à la transmission de la bilharziose. Ronaldo Augusto, CC BY

Au Brésil, la forme intestinale prédomine. En général, les escargots vecteurs, principalement Biomphalaria glabrata, prolifèrent dans les réservoirs d’eau, les rivières et les lagunes. Les épidémies surviennent principalement dans les communautés rurales du Nord-Est et du Sud-Est, où l’accès à l’eau potable et à l’assainissement de base est souvent insuffisant.

Cependant, il est surprenant de constater que des épidémies peuvent apparaître dans les zones urbanisées, soit en raison de systèmes d’assainissement défaillants, soit parce que des rongeurs se trouvent à proximité de collections d’eau douce. Malgré le succès des programmes de lutte, cette complexité fait de la bilharziose une maladie dynamique, capable de s’adapter à différents scénarios selon la région du Brésil considérée.

Ces deux images prises dans l’État de Tocantins, au nord du Brésil, présentent deux scénarios contrastés de schistosomiase. Deux environnements endémiques distincts sont représentés : l’un, situé dans un parc naturel, où la transmission est principalement
Ces deux images prises dans l’État de Tocantins, au nord du Brésil, présentent deux scénarios contrastés de schistosomiase. Deux environnements endémiques distincts sont représentés : l’un, situé dans un parc naturel, où la transmission est principalement maintenue par la faune sauvage (photo de gauche). L’autre, en zone urbaine, se caractérise par la présence d’habitations et une dynamique de transmission dominée par les rejets de déjections humaines non traitées (photo de droite). Ronaldo Augusto, CC BY

En Asie, la situation est encore plus complexe. En effet, l’espèce qui y sévit, Schistosoma japonicum, présente une capacité particulièrement marquée à contaminer de nombreux hôtes mammifères (elle infecte aussi bien les humains que les bovins et les rongeurs). Le risque d’infection est renforcé par les systèmes agricoles traditionnels, notamment la riziculture et l’élevage bovin, qui favorisent des contacts étroits et durables entre humains, animaux et milieux aquatiques (l’escargot vecteur, Oncomelania hupensis, vit dans les rizières et les zones humides). Cette situation complique fortement les efforts de contrôle. Par ailleurs, chaque inondation peut ouvrir de nouvelles zones de transmission.

Même dans les régions hors des zones tropicales, la bilharziose peut surprendre. C’est par exemple le cas en Corse, ou des touristes ont contracté la maladie après avoir nagé dans la rivière Cavu, entre 2013 et 2022.

Des analyses ont confirmé la présence sur l’île d’escargots Bulinus truncatus et du parasite S. haematobium, probablement introduit par des voyageurs en provenance de zones endémiques au Sénégal. Cet épisode a révélé la vulnérabilité de certains écosystèmes européens.

Une menace ancienne dans des paysages qui changent

Bien plus qu’une simple maladie tropicale, la schistosomiase est un indicateur des inégalités socio-économiques et de la manière dont nos environnements conditionnent notre santé. La comprendre, c’est aussi comprendre la façon dont s’entrelacent infrastructures, climat et comportements humains.

Mieux connaître cette maladie, et mettre au point des moyens de lutte efficace devient d’autant plus crucial que le changement climatique en cours favorise sa propagation. La hausse des températures et les modifications des régimes de pluie créent de nouveaux habitats propices aux escargots vecteurs. C’est aussi le cas de la pression sur les ressources en eau, qui conduit souvent à la création de barrages, de retenues artificielles et de systèmes d’irrigation. Autant d’aménagements générant des zones d’eau calme ou faiblement renouvelée, particulièrement favorables au développement desdits escargots.

Conséquence : de nouvelles zones de transmission pourraient apparaître là où le risque était jusqu’à présent considéré comme nul. Des modèles prédictifs suggèrent déjà que certaines régions du sud de l’Europe, notamment autour du Bassin méditerranéen, pourraient présenter les conditions écologiques nécessaires à l’établissement du cycle de transmission du parasite.

Il faut savoir que le parasite ne s’implante durablement dans une région que si l’hôte intermédiaire est présent et si les conditions climatiques sont favorables. Or plusieurs espèces d’escargots vecteurs, dont Planorbarius metidjensis et Bulinus truncatus, sont déjà présentes dans certaines régions d’Europe méridionale, ce qui explique un potentiel d’établissement localisé mais réel.

La réémergence de la bilharziose en Corse illustre comment cette maladie pourrait cesser d’être perçue uniquement comme une maladie tropicale négligée et commencer à être reconnue comme une infection émergente, y compris dans les pays du Nord.

The Conversation

Christoph Grunau a reçu des financements de l’ANR, de Wellcome Trust, de la Région Occitanie, et de l’UPVD.

Ronaldo Augusto a reçu des financements de l’ANR, de la Région Occitanie, et de l’UPVD.

13.01.2026 à 10:11

Le grand bond en arrière de Donald Trump sur la Fed, la Réserve fédérale des États-Unis

Alain Naef, Assistant Professor, Economics, ESSEC
img
Donald Trump souhaite nommer un de ses proches en mai 2026 à la tête de la Fed. Alors qui pour garantir l’indépendance de la puissante banque centrale des États-Unis&nbsp;? Quels garde-fous&nbsp;?
Texte intégral (1756 mots)
Donald Trump est en guerre affichée contre Jerome Powell, le président de la Réserve fédérale (Fed), la banque centrale des États-Unis. Misscabul/Shutterstock

Une enquête pénale vise Jerome Powell, l’actuel gouverneur de la puissante Réserve fédérale des États-Unis (Fed), dont le mandat arrive à terme en mai 2026. Donald Trump, dont la prérogative est de lui nommer un successeur, souhaite mettre à la tête de la Fed un de ses supporters, Kevin Hassett. Mais alors qui pour être le contre-pouvoir ? Contre-intuitivement, ce pourrait bel et bien être les marchés financiers.


Mervyn King, gouverneur de la Banque d’Angleterre de 2003 à 2013, aimait dire que « l’ambition de la Banque d’Angleterre est d’être ennuyeuse ». Le président de la Banque nationale suisse Thomas Jordan rappelait encore récemment que « la clé du succès est peut-être d’être ennuyeux ». Leur message est clair : la stabilité monétaire repose sur la prévisibilité, pas sur le spectacle.

Avec Donald Trump, cette règle pourrait changer. Le président des États-Unis, lui, n’aime pas être ennuyeux. S’il n’est pas clair que cela lui réussisse en politique intérieure ou extérieure, pour ce qui est de l’économie, c’est différent. La prévisibilité est un moteur de la stabilité des marchés et de la croissance des investissements. Dans ce contexte, les marchés pourraient être l’institution qui lui tient tête.

C’est ce rôle de contre-pouvoir que j’analyse dans cet article. Le conflit à venir se porte sur la nomination du successeur du président de la Réserve fédérale des États-Unis (Fed), la banque centrale des États-Unis, Jerome Powell dont le mandat expire en mai 2026. Dans la loi, le président de la première puissance mondiale a la prérogative de nommer un successeur.

Jerome Powell est actuellement visé par une enquête pénale du département de la justice américain, liée officiellement à la rénovation du siège de la Fed. Le président de la FED, lui, y voit une tentative de pression sur son indépendance, après son refus de baisser les taux d’intérêt. Donald Trump nie toute implication, même s’il dit de Powell qu’il « n’est pas très doué pour construire des bâtiments ». Pour de nombreux observateurs, le timing de l’attaque plaide pour une attaque politique. Les marchés ont réagi avec une montée du prix de l’or.

Car les présidents des banques centrales sont des personnages clés. Avec de simples mots, ils peuvent participer à créer des crises financières. Le président de la Bundesbank eut un rôle dans la crise du système monétaire européen de 1992. Si ce dernier s’était abstenu de faire un commentaire sur l’instabilité de la livre sterling, le Royaume-Uni aurait peut-être rejoint l’euro.

Gouverneurs technocrates

Traditionnellement, le choix du successeur n’est pas uniquement politique. Il se porte sur une figure reconnue, souvent issue du Conseil des gouverneurs. Les sept membres du Conseil des gouverneurs du système de la Réserve fédérale sont nommés par le président et confirmés par le Sénat. Il s’agit ordinairement de technocrates.

Les chercheurs Michael Bordo et Klodiana Istrefi montrent que la banque centrale recrute prioritairement des économistes formés dans le monde académique, soulignant la sélection d’experts de la conduite de la politique monétaire. Ils montrent que les clivages entre écoles « saltwater » (Harvard et Berkeley) et « freshwater » (Chicago, Minnesota). Les économistes freshwater étant plus restrictifs (ou hawkish) en termes de baisse de taux, alors que les « saltwater » préfèrent soutenir la croissance.

Ben Bernanke incarne cette tendance. Du 1er février 2006 au 3 février 2014, il est gouverneur de la FED. Après un premier mandat sous la présidente de George W. Bush, Barack Obama le nomme pour un second mandat. Ce professeur d’économie, défenseur de la nouvelle économie keynésienne, gagne le prix Nobel en 2022 pour ses travaux sur les banques et les crises financières. La gouverneure de 2014 à 2018, Janet Yellen, est auparavant professeure d’économie à Berkeley, à Harvard et à la London School of Economics.

Ce processus relativement apolitique est essentiellement technocratique. Ces conventions seront potentiellement bousculées pour la nomination du prochain gouverneur de la banque centrale des États-Unis. Évidemment, certains gouverneurs avaient des préférences politiques ou des liens avec le président.

Kevin Hassett, économiste controversé

Le candidat de Donald Trump pressenti par les médias est Kevin Hassett. Ce dernier s’inscrit dans le sillage de la vision du nouveau président des États-Unis en appelant à des baisses de taux brutales. Il a qualifié Jerome Powell de « mule têtue », ce qui alimente les craintes d’une Fed docile envers la Maison Blanche.

« Kevin Hassett a largement les capacités pour diriger la Fed, la seule question est de savoir lequel se présentera » entre « Kevin Hassett, acteur engagé de l’administration Trump, ou Kevin Hassett, économiste indépendant », explique Claudia Sahm, ancienne économiste de la Fed dans le Financial Times. C’est cette question qui inquiète les marchés. Cela même si l’économiste a presque 10 000 citations pour ses articles scientifiques et a soutenu sa thèse avec Alan Auerbach, un économiste reconnu qui travaille sur les effets des taxes sur l’investissement des entreprises. De façade, Hassett a tout d’un économiste sérieux. Uniquement de façade ?

Les investisseurs s’inquiètent de la politisation de la Fed. Depuis la nomination de Stephen Miran en septembre 2025 au Conseil des gouverneurs, les choses se sont pimentées. Le président du comité des conseillers économiques des États-Unis est un des piliers de la doctrine économique Trump. Il a longtemps travaillé dans le secteur privé, notamment au fonds d’investissement Hudson Bay Capital Management.

Si les votes de la Fed sont anonymes, le Federal Open Market Committee, chargé du contrôle de toutes les opérations d’open market aux États-Unis, publie un graphique soulignant les anticipations de taux d’intérêt des membres. Depuis l’élection de Stephen Miran, un membre vote en permanence pour des baisses drastiques des taux d’intérêt, pour soutenir Donald Trump. Sûrement Miran ?

Si le nouveau président de la Fed faisait la même chose, on pourrait assister à une panique à bord… qui pourrait éroder la confiance dans le dollar. Les investisseurs internationaux ne veulent pas d’une monnaie qui gagne ou perde de la valeur en fonction du cycle électoral américain. Pour que les investisseurs aient confiance dans le dollar, il faut qu’il soit inflexible à la politique.

Les marchés financiers en garde-fou

Le marché, à l’inverse de la Cour suprême des États-Unis ou du Sénat, n’a pas d’incarnation institutionnelle, mais il a tout de même une voix. Il réagit par les prix, mais pas seulement. Si on ne l’écoute pas, le marché pourrait-il hausser le ton, en changeant les prix et les taux d’intérêt ?

Quelles seraient les conséquences de la nomination d’un président de la Fed pro-Trump et favorable à des coupes de taux pour soutenir le mandat de Trump ? Il se peut que les investisseurs institutionnels puissent fuir la dette américaine, du moins à court terme. Cette réaction augmenterait potentiellement les taux d’emprunt du gouvernement, notamment à long terme.

« Personne ne veut revivre un épisode à la Truss », a résumé un investisseur cité par le Financial Times, à la suite de la consultation du Trésor auprès des grands investisseurs. Liz Truss, la première ministre du Royaume-Uni, avait démissionné sous la pression des marchés en septembre 2022. Elle avait essayé dans un « mini-budget » à la fois d’augmenter les dépenses et de réduire les impôts. Quarante-quatre jours plus tard, elle avait dû démissionner à cause de la fuite des investisseurs qui ne voulaient plus de dette anglaise, jugée insoutenable.

Donald Trump ne démissionnera probablement pas quarante-quatre jours après la nomination de Kevin Hassett. Mais, en cas de panique des marchés, Kevin Hassett lui-même pourrait sauter. Et le dollar perdre encore un peu plus de sa splendide.

The Conversation

Alain Naef a reçu des financements de l'Agence Nationale de la Recherche (ANR).

12.01.2026 à 23:59

Santé mentale des adolescents : les réseaux sociaux amplifient les troubles observés hors ligne, en particulier chez les filles

Olivia Roth-Delgado, Cheffe de projets scientifiques, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
Thomas Bayeux, Chef de projet socio-économique, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)
img
Troubles anxiodépressifs et pensées suicidaires… les réseaux sociaux amplifient certaines vulnérabilités liées à l’adolescence conclut un rapport d’envergure de l’Anses
Texte intégral (2585 mots)

Troubles anxiodépressifs et pensées suicidaires, cyberharcèlement, image de soi dégradée, consommation d’alcool, de cannabis et autres substances psychoactives… les réseaux sociaux exploitent les vulnérabilités des jeunes et contribuent ainsi à amplifier certains troubles dont ces derniers sont victimes.

C’est ce que conclut un rapport d’envergure de l’Agence nationale de sécurité sanitaire (Anses) qui décortique les mécanismes d’action de ces outils numériques paramétrés pour cibler à des fins mercantiles les spécificités mais aussi les fragilités liées à l’adolescence.

Olivia Roth-Delgado et Thomas Bayeux font partie de l’équipe de l’Anses qui a coordonné ces travaux. Ils nous présentent les principaux enseignements de ce rapport.


The Conversation : Le rapport de l’Anses relatif aux « effets de l’usage des réseaux sociaux numériques sur la santé des adolescents » est inédit. Pourquoi ?

Olivia Roth-Delgado : Cette expertise, c’est cinq ans de travail et plus de 1 000 articles analysés. Elle est inédite par son originalité et par son ampleur qui sont sans équivalent, à notre connaissance, pour des instances publiques comme l’Anses.

Pour la première fois, ce sont certains mécanismes de conception des réseaux sociaux qui ont été mis en relation avec des effets sur la santé des adolescents. Ces mécanismes, ce sont les dark patterns en anglais – que nous avons traduits par « interfaces trompeuses ».

L’adolescence est une période de vulnérabilité, car le cerveau est encore en maturation. Les adolescents et adolescentes traversent des changements dans la façon dont ils ressentent et gèrent les émotions, et dans les circuits liés à la récompense. Ils sont aussi plus sensibles au contexte social, ce qui peut favoriser des conduites à risque lorsqu’ils sont entourés de leurs pairs. Et c’est également une période de grande vulnérabilité aux troubles psychiques.

Thomas Bayeux : Se développe, durant l’adolescence, une culture qui invite à se confronter à autrui, une appétence pour la communication, une construction de soi qui conduit à tester les normes, etc. Tous ces arguments nous ont amenés à retenir la tranche d’âge 11-17 ans, lors de laquelle s’opèrent tous ces changements.

Le rôle de l’Anses, en tant qu’agence de santé publique, est d’évaluer les risques pour la santé. Toutefois, dans les chapitres du rapport consacrés aux usages et au maintien des relations entre générations, l’expertise évoque les effets bénéfiques potentiels des réseaux sociaux, à travers les motivations qui poussent à les utiliser durant l’adolescence.

Le rapport évoque des effets particulièrement préoccupants en lien avec l’usage des réseaux sociaux à l’adolescence, comme des troubles anxiodépressifs, des pensées suicidaires ou encore de l’automutilation. Quels sont les mécanismes à l’œuvre ?

O. R.-D. : Parmi les mécanismes que nous avons mis en exergue et étudiés, figurent ces interfaces trompeuses (ou manipulatrices) ainsi que les algorithmes de personnalisation de contenus. Tous correspondent à des mécanismes de captation de l’attention qui retiennent les utilisatrices et utilisateurs sur le réseau social, en leur présentant des contenus de plus en plus ciblés, voire extrêmes.

Si un ou une adolescente a, par exemple, recherché une première fois du contenu sur l’automutilation, ce type de contenus va lui être présenté de manière répétée et peut l’enfermer dans une spirale de difficultés.

T. B. : La captation de l’attention sert le modèle économique sur lequel reposent ces plateformes numériques. Cela leur permet de disposer d’un nombre important de données et de les monétiser et concourt également à la vente d’espaces publicitaires.

Les plateformes numériques ont donc intérêt à ce que les personnes restent sur le réseau social grâce aux deux stratégies que nous avons évoquées : d’une part, la personnalisation des contenus au travers d’algorithmes de plus en plus performants qui enferment celles et ceux qui les utilisent dans une boucle d’informations et, d’autre part, via la mise en avant des contenus les plus impactants.

Les interfaces trompeuses (dark patterns) mobilisent des techniques que nous connaissons tous : les likes, les notifications, le scroll infini, les vidéos qui s’enchaînent de manière automatique, etc.

La période de l’adolescence entre en forte résonance avec ces stratégies mises en place par les réseaux sociaux. À l’Anses, nous voyons là des enjeux majeurs en matière de santé publique, car une offre et une demande se rencontrent en quelque sorte. Et le cocktail peut se révéler détonnant !

Concernant ces troubles liés à la santé mentale, mais aussi le harcèlement, la consommation d’alcool, de tabac, de cannabis et d’autres comportements à risque contre lesquels vous alertez, est-ce à dire que les réseaux sociaux amplifient des phénomènes préexistants ?

O. R.-D. : Tout à fait. Les réseaux sociaux sont un espace social. Ils agissent comme une caisse de résonance des problèmes présents dans la société, à l’image des stéréotypes de genre, de l’incitation à la prise de drogues, etc.

T. B. : Les réseaux sociaux participent à la socialisation et à la construction adolescente, ils constituent une continuité du monde hors ligne, avec ses points positifs et ses travers. Il n’existe pas de barrière étanche entre ce qui se passe hors ligne et sur les réseaux sociaux.

Les règles qui existent pour protéger les mineur·es dans la société devraient donc s’exercer également sur les réseaux sociaux ?

O. R.-D. : C’est le principe fondateur du Digital Services Act, le dispositif réglementaire européen qui vise à réguler les contenus en ligne des très grandes plateformes, selon la formule : « Ce qui est illégal hors ligne est illégal en ligne. »

T. B. : Cette préoccupation motive l’une des recommandations phares du rapport de l’Anses, à savoir que les moins de 18 ans ne puissent accéder qu’à des réseaux sociaux conçus et paramétrés pour protéger les mineurs. Notre propos n’est pas de les bannir. Mais des solutions techniques doivent être engagées pour que les réseaux sociaux soient des lieux sûrs pour les adolescents et adolescentes, et l’Anses insiste pour une responsabilisation des plateformes à cet égard.

Ensuite, pour un adolescent ou une adolescente, discuter de ses pratiques numériques avec autrui – ses pairs, ses parents, des membres du corps enseignant, des éducateurs… – peut se révéler vertueux. Cela ne dédouane pas les pouvoirs publics et les plateformes numériques d’adopter des stratégies à une échelle collective pour que les réseaux sociaux soient des espaces sûrs pour les adolescents et adolescentes.

Le rapport évoque des liens entre l’utilisation des réseaux sociaux et certains troubles, mais il n’établit pas de relation de causalité à proprement parler. Pourquoi ?

O. R.-D. : La question de la causalité reste compliquée. Nous nous appuyons sur une expertise très fournie et documentée. Notre méthodologie est solide, mais elle ne repose pas sur une méthode du poids des preuves. Néanmoins, nous montrons des associations robustes entre l’usage des réseaux sociaux et les troubles que nous avons évoqués et pour lesquelles nous mettons au jour les mécanismes sous-jacents de manière extrêmement pertinente.

Dans le cas du sommeil, par exemple, plusieurs mécanismes jouent. Quand les adolescents consultent les réseaux sociaux le soir avant de se coucher, la lumière bleue des écrans entraîne un retard d’endormissement, car elle stimule ce qu’on appelle un éveil cognitif, ce qui raccourcit la durée de leur sommeil. Or, les effets à long terme sur la santé physique et mentale d’un manque chronique de sommeil sont bien documentés. De plus, quand on consulte des réseaux sociaux, des stimuli émotionnels peuvent aussi empêcher de dormir. On le voit, il existe un faisceau de preuves. Mais les effets concrets des réseaux sociaux sur le sommeil d’un adolescent ou d’une adolescente dépendent aussi de ses usages.

De même, dans la survenue des troubles anxiodépressifs ou d’idées suicidaires, la nature des contenus proposés joue un rôle majeur. On doit également prendre en compte un effet bidirectionnel. Je m’explique : un adolescent ou une adolescente qui est déjà vulnérable psychologiquement aura tendance à consulter davantage les réseaux sociaux. L’algorithme de présentation de contenus va détecter cette fragilité émotionnelle et lui présenter des contenus chargés sur le plan émotionnel. Et c’est là qu’il ou elle va se retrouver enfermé·e dans une spirale délétère. Il est plus difficile d’affirmer une causalité en présence de boucles de rétroaction et d’effets bidirectionnels.

Enfin, sur l’altération de l’image de soi, nous disposons également d’un faisceau convaincant de preuves selon le même type de mécanismes fondés sur une exposition répétée à des contenus valorisant des femmes maigres et des hommes musclés.

Les filles apparaissent plus sensibles que les garçons aux effets négatifs des réseaux sociaux. Comment l’expliquer ?

T. B. : C’est l’un des enseignements majeurs de cette expertise. Les filles représentent clairement un groupe à risque sur les réseaux concernant tous les effets sur la santé, pas uniquement l’altération de l’image de soi. Elles sont plus présentes sur les réseaux sociaux que les garçons, y sont davantage harcelées, victimes de stéréotypes de genre, soumises à des pressions sociales… Les filles accordent également davantage d’importance à ce qu’il se passe sur les réseaux sociaux, aux commentaires qui y sont postés, etc.

Les communautés LGBTQIA+ représentent aussi un groupe à risque sur les réseaux sociaux. Elles sont notamment davantage victimes de cyberharcèlement dont découlent des risques, notamment en matière de santé mentale.

Le rapport de l’Anses relève le fait que le temps passé devant les réseaux sociaux n’est pas le seul critère à prendre en compte.

T. B. : Le temps d’utilisation constitue une mesure utile, mais qui ne suffit pas pour aborder pleinement le sujet. Le temps permet d’étudier certains enjeux de santé, comme la sédentarité, même si les outils numériques nomades se multiplient pour accéder aux réseaux sociaux. Quantifier la durée d’utilisation se révèle également précieux quand on parle d’expositions tardives susceptibles d’impacter le sommeil, par exemple.

En revanche, on sait aussi que la compréhension des usages est essentielle pour étudier certains effets sur la santé. Il est important de savoir ce qui est fait sur le réseau social : publier, liker, lire des commentaires, faire des retouches photos, par exemple, et quel engagement émotionnel est associé à ces pratiques. Il ne faut pas opposer les approches mais plutôt y voir une complémentarité.

Votre rapport s’appuie sur des travaux de recherche qui n’ont pas, ou peu, étudié l’impact des outils numériques les plus récents, comme TikTok ou les « compagnons IA ». Peut-on supposer que ces nouvelles technologies accroissent les risques pour la santé mentale des adolescentes et adolescents ?

O. R.-D. : L’expertise de l’Anses s’est appuyée sur plus d’un millier d’articles publiés majoritairement entre 2011 et 2021. Du fait du cumul entre le temps de la recherche et celui de l’expertise, nous avons été amenés à étudier des technologies qui ont effectivement évolué. Néanmoins, nous nous sommes basés sur un socle commun de mécanismes, comme les interfaces trompeuses (dark patterns) et les algorithmes de personnalisation de contenus, auxquels nous avons associé des effets sur la santé.

Donc nos conclusions comme nos recommandations peuvent s’étendre à des réseaux sociaux plus récents. En ce qui concerne l’intelligence artificielle et les « compagnons IA », l’Anses recommande que des expertises futures se penchent sur la question.

Dans vos recommandations, vous proposez d’associer les adolescentes et les adolescents aux programmes développés pour prévenir les risques.

O. R.-D. : L’Anses propose d’associer les jeunes eux-mêmes aux travaux, car ce sont eux qui connaissent leurs motivations à aller sur les réseaux sociaux, ce sont eux qui construisent et diffusent les nouvelles pratiques. Il nous paraît donc important de les inclure dans les dialogues et la construction des repères, avec les éducateurs et les parents. Ils seront plus enclins à respecter des règles qu’ils auront contribué à formuler. Parmi ses recommandations, l’Anses évoque également le fait de promouvoir des espaces de dialogue entre jeunes pour des retours d’expérience de ce qui leur arrive en ligne.

T. B. : Et encore une fois, nous rappelons que l’Anses ne recommande pas d’interdire les réseaux sociaux, mais de revoir en profondeur leur conception de manière à ce qu’ils ne nuisent pas à la santé des adolescents et les adolescentes.


Propos recueillis par Lionel Cavicchioli et Victoire N’Sondé.

Mise à jour du 13.01.2025 à 11 h 36 CET : mise en page.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 15:58

Les plantes sont bien plus bavardes que vous ne le pensez

François Bouteau, Pr Biologie, Université Paris Cité
img
Beaucoup de végétaux sont capables d’interagir entre eux et avec le reste de leur environnement. Des échanges qui façonnent et transforment activement les paysages.
Texte intégral (1775 mots)

Les plantes sont loin d’être aussi muettes que ce que l’on imagine ! Beaucoup de végétaux sont en réalité capables d’interagir entre eux et avec le reste de leur environnement. Et ces échanges façonnent et transforment activement les paysages.


On pense souvent les plantes comme des êtres silencieux, immobiles, sans intention ni action. Pourtant, de nombreuses études révèlent aujourd’hui qu’elles communiquent activement entre elles, mais aussi avec les autres êtres vivants, animaux, champignons, microorganismes. En communiquant, elles ne font pas que transmettre des informations : elles modifient les dynamiques écologiques et sont ainsi actrices des transformations de leur environnement.

Cette communication n’a rien de magique : elle repose sur des signaux principalement chimiques. Dans les faits, on peut considérer que la communication se produit lorsqu’un émetteur envoie un signal perçu par un récepteur qui, en retour, modifie son comportement. Pour communiquer, les plantes doivent donc être sensibles à leur environnement. De fait elles sont capables de percevoir de très nombreux signaux environnementaux qu’elles utilisent en tant qu’information : la lumière, l’eau, la présence de nutriments, le toucher, les attaques d’insectes ou encore la proximité d’autres plantes.

Elles savent alors ajuster leur développement : orientation des feuilles vers le soleil, développement de leurs racines vers les zones riches en nutriments ou évitement des endroits pauvres ou toxiques. Lorsqu’elles subissent l’attaque d’un pathogène, elles déclenchent des réactions chimiques qui renforcent leurs défenses ou avertissent leurs voisines du danger. Cela implique donc que les plantes sont aussi capables d’émettre des signaux compréhensibles que d’autres organismes récepteurs vont pouvoir interpréter. Ces comportements montrent une véritable capacité d’action : les plantes ne subissent pas simplement leur environnement, elles interagissent avec lui, elles vont lancer des réponses adaptées, orientées vers un but important pour elles, croître.

Parler avec des molécules

La plupart des échanges entre plantes se font notamment grâce à des composés organiques volatils. Ces molécules sont produites par les plantes et se déplacent sous forme gazeuse dans l’air ou dans le sol et peuvent ainsi véhiculer un message. Attaquée par un pathogène, une plante peut libérer des composés volatils qui alertent ses voisines. L’exemple emblématique, bien que controversé, est l’étude menée par l’équipe de Wouter Van Hoven (Université de Pretoria, Afrique du Sud, ndlr) ayant montré que les acacias soumis au broutage des koudous, une espèce d’antilope, synthétisaient des tanins toxiques et que les acacias situés quelques mètres plus loin faisaient de même.

Les chercheurs ont suggéré que les acacias broutés libéraient de l’éthylène, un composé qui induisait la synthèse de tanins chez les acacias voisins, les protégeant ainsi des koudous. Ce type d’interaction a aussi été observé chez d’autres plantes. Chez l’orge, par exemple l’émission de composés volatils permet de réduire la sensibilité au puceron Rhopalosiphum padi. Les pieds d’orge percevant ces composés peuvent activer leurs défenses avant même d’être attaqués par les pucerons.

Certains de ces composés peuvent être synthétisés spécifiquement pour attirer les prédateurs de l’agresseur. Ainsi, lorsqu’elles sont attaquées par des chenilles, certaines plantes, comme le maïs, émettent des molécules pour appeler à l’aide les guêpes prédatrices des chenilles. D’autres signaux chimiques émis dans les exsudats racinaires permettent aux plantes d’identifier leurs voisines, de reconnaître leurs parentes et d’adapter leur comportement selon le degré de parenté. Ces types d’échanges montrent que la communication végétale n’est pas un simple réflexe : elle implique une évaluation du contexte et une action ajustée.

En fonction du contexte, les plantes s’expriment différemment

Mais toutes les plantes ne communiquent pas de la même façon. Certaines utilisent des signaux dits publics, que de nombreuses espèces peuvent percevoir, ce qu’on appelle parfois l’écoute clandestine. D’autres émettent des messages dits privés, très spécifiques, compris uniquement par leurs proches ou leurs partenaires symbiotiques, c’est-à-dire des espèces avec lesquelles elles échangent des informations ou des ressources. C’est le cas lors de la mise en place des symbioses mycorhiziennes entre une plante et des champignons, qui nécessitent un dialogue moléculaire entre la plante et son partenaire fongique.

Ce choix de communication dépend donc du contexte écologique. Dans des milieux où les plantes apparentées poussent ensemble, le partage d’informations profite à tout le groupe : c’est une stratégie collective. Mais dans des milieux compétitifs, il est plus avantageux de garder les messages secrets pour éviter que des concurrentes en tirent profit. Cette flexibilité montre que les végétaux adaptent la manière dont ils transmettent l’information selon leurs intérêts.

Peut-on dire que les végétaux se parlent ?

De fait, les signaux émis par les plantes ne profitent pas qu’à elles-mêmes. Ils peuvent influencer le développement de tout l’écosystème. En attirant des prédateurs d’herbivores, en favorisant la symbiose avec des champignons ou en modulant la croissance des voisines, les plantes participent à un vaste réseau d’interactions.

La question est alors de savoir si les plantes ont un langage. Si l’on entend par là une syntaxe et des symboles abstraits, la réponse est non. Mais si on considère le langage comme un ensemble de signaux produisant des effets concrets sur un récepteur, alors oui, les plantes communiquent. Des philosophes ont recherché si des analogies avec certains aspects du langage humain pouvaient être mises en évidence.

Certains d’entre eux considèrent que la communication chez les plantes peut être considérée comme performative dans la mesure où elle ne décrit pas le monde, mais le transforme. Quand une plante émet un signal pour repousser un herbivore ou avertir ses voisines, elle n’émet pas seulement de l’information, elle agit. Ce type de communication produit un effet mesurable, ce que les philosophes du langage, dans la lignée de l’Américain John Austin, appellent un effet perlocutoire.

Les plantes façonnent activement les écosystèmes

Cette vision élargie de la communication végétale devrait transformer notre conception des écosystèmes. Les plantes ne sont pas des éléments passifs du paysage, mais des actrices à part entière, capables de transformer leur environnement à travers leurs actions chimiques, physiques et biologiques.

Ces découvertes ouvrent des perspectives pour une agriculture durable : en comprenant et en utilisant la communication des plantes, il devient possible de renforcer leurs défenses sans pesticides, grâce à des associations de cultures ou à des espèces sentinelles qui préviennent les autres du danger. La question des paysages olfactifs est aussi un sujet émergent pour la gestion des territoires.

Pour cela il faut que s’installe un nouveau regard sur le comportement végétal. En effet, pendant des siècles, on a cru que les plantes étaient dénuées de comportement, de mouvement ou de décision. Darwin avait déjà observé, au XIXe siècle, qu’elles orientaient leurs organes selon la lumière, la gravité ou le contact. Aujourd’hui, on sait qu’elles peuvent aussi mémoriser certaines expériences et réagir différemment à un même signal selon leur vécu. Certains chercheurs utilisent des modèles issus de la psychologie et de la théorie de l’information pour étudier la prise de décision chez les plantes : perception d’un signal, interprétation, choix de réponse, action.

Repenser la hiérarchie du vivant

Au-delà de la communication, certains chercheurs parlent désormais d’agentivité végétale, c’est-à-dire la capacité des plantes à agir de façon autonome et efficace dans un monde en perpétuel changement. Reconnaître cette agentivité change profondément notre rapport au vivant. Les plantes ne sont pas de simples organismes passifs : elles perçoivent, décident et agissent, individuellement et collectivement. Elles modifient les équilibres écologiques, influencent les autres êtres vivants et participent activement à la dynamique du monde.

L’idée d’agentivité végétale nous invite à abandonner la vision hiérarchique du vivant héritée d’Aristote, qui place l’être humain tout en haut d’une pyramide d’intelligence. Elle nous pousse à reconnaître la pluralité des formes d’action et de sensibilité dans la nature. Comprendre cela, c’est aussi repenser notre propre manière d’habiter la terre : non plus comme des maîtres du vivant, mais comme des partenaires d’un vaste réseau d’êtres vivants où tous sont capables de sentir, d’agir et de transformer leur environnement.

The Conversation

François Bouteau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.01.2026 à 15:57

Répression en Iran : pourquoi les forces de sécurité visent les yeux des manifestants

Firouzeh Nahavandi, Professeure émérite, Université Libre de Bruxelles (ULB)
img
Les tirs de la police visent volontairement les yeux des manifestants. Une pratique dont les racines sont bien plus anciennes que la République islamique.
Texte intégral (1676 mots)

En Iran, les manifestants, et spécialement les manifestantes, font l’objet d’une répression extrêmement violente, avec cette spécificité que les tirs prennent souvent pour cible leurs yeux. En aveuglant l’« ennemi » qui ose les contester, les autorités inscrivent leur action dans la longue histoire du pays.


Au cours des mobilisations iraniennes de ces dernières années, et plus encore depuis celles du mouvement Femme, Vie, Liberté déclenché en 2022, la fréquence élevée de blessures oculaires infligées aux manifestants interpelle les observateurs. Femmes, jeunes, étudiants, parfois simples passants, perdent un œil – voire la vue – à la suite de tirs de chevrotine ou de projectiles à courte distance. Une pratique des forces de sécurité que l’on observe de nouveau actuellement : l’avocate Shirin Ebadi, prix Nobel de la paix en 2003, a ainsi estimé ce 9 janvier que depuis le début des protestations en ce début d’année, « au moins 400 personnes auraient été hospitalisées à Téhéran pour des blessures aux yeux causées par des tirs ».

Ces violences ne relèvent pas de simples bavures. Elles s’inscrivent dans une logique politique qui trouve un écho dans l’histoire longue du pouvoir en Iran, où viser les yeux signifie symboliquement retirer à la victime toute capacité d’existence politique.

Le regard comme attribut du pouvoir

Dans la culture politique iranienne prémoderne, le regard est indissociable de l’autorité. Voir, c’est savoir ; voir, c’est juger ; voir, c’est gouverner. Cette conception traverse la littérature et l’imaginaire politiques iraniens. À titre d’exemple, dans le Shahnameh (Livre des rois), de Ferdowsi (Xe siècle), la cécité constitue un marqueur narratif de déchéance politique et cosmique : elle signale la perte du farr (gloire divine), principe de légitimation du pouvoir, et opère comme une disqualification symbolique durable de l’exercice de la souveraineté. Être aveuglé, c’est être déchu.

Dans le Shahnameh, l’aveuglement d’Esfandiyar par Rostam constitue une scène fondatrice de l’imaginaire politique iranien : en visant les yeux, le récit associe explicitement la perte de la vue à la disqualification du pouvoir et à la fin de toute prétention souveraine.

Rustam aveugle Esfandiar avec une flèche (gouache opaque et or sur papier), non daté. Cliquer pour zoomer. San Diego Museum of Art/Bridgeman Images

Historiquement, l’aveuglement a été utilisé comme instrument de neutralisation politique. Il a permis d’écarter un rival – prince ou dignitaire – sans verser le sang, acte considéré comme sacrilège lorsqu’il touchait les élites. Un aveugle n’était pas exécuté : il était rayé de l’ordre politique.

Le chah Abbas Iᵉʳ (au pouvoir de 1587 à sa mort en 1629) fait aveugler plusieurs de ses fils et petits-fils soupçonnés de complot ou susceptibles de contester la succession.

En 1742, Nader Shah ordonne l’aveuglement de son fils et héritier Reza Qoli Mirza, acte emblématique des pratiques de neutralisation politique dans l’Iran prémoderne.

De l’aveuglement rituel à l’aveuglement sécuritaire : pourquoi les forces de sécurité iraniennes visent-elles si souvent les yeux des manifestants ?

La République islamique ne revendique pas l’aveuglement comme châtiment. Mais la répétition massive de blessures oculaires lors des répressions contemporaines révèle une continuité symbolique.

Autrefois rare, ciblé et assumé, l’aveuglement est aujourd’hui diffus, nié par les autorités, produit par des armes dites « non létales » et rarement sanctionné.

La fonction politique demeure pourtant comparable : neutraliser sans tuer, marquer les corps pour dissuader, empêcher toute réémergence de la contestation.

Dans l’Iran contemporain, le regard est devenu une arme politique. Les manifestants filment, documentent, diffusent. Les images circulent, franchissent les frontières et fragilisent le récit officiel. Toucher les yeux, c’est donc empêcher de voir et de faire voir : empêcher de filmer, d’identifier, de témoigner.

La cible n’est pas seulement l’individu, mais la chaîne du regard reliant la rue iranienne à l’opinion publique internationale.

Contrairement à l’aveuglement ancien, réservé aux élites masculines, la violence oculaire actuelle frappe majoritairement des femmes et des jeunes. Le regard féminin, visible, autonome, affranchi du contrôle idéologique, devient politiquement insupportable pour un régime fondé sur la maîtrise du corps et du visible.

Un continuum de violences visibles

La répression actuelle, qui fait suite aux protestations massives déclenchées fin décembre 2025, s’est intensifiée avec une coupure d’Internet à l’échelle nationale, une tentative manifeste d’entraver la visibilité des violences infligées aux manifestants.

Des témoignages médicaux et des reportages indépendants décrivent des hôpitaux débordés par des cas de traumatismes graves – notamment aux yeux – alors que l’usage croissant d’armes à balles réelles contre la foule est documenté dans plusieurs provinces. Ces blessures confirment que le corps, et particulièrement la capacité de voir et de documenter, reste une cible centrale du pouvoir répressif.

Au-delà des chiffres, les récits des victimes féminines racontent une autre dimension de ces pratiques contemporaines. Alors que la société iranienne a vu des femmes à la pointe des mobilisations depuis la mort de Mahsa Jina Amini en 2022 – dont certaines ont été aveuglées intentionnellement lors des manifestations –, ces blessures symbolisent à la fois l’effort du pouvoir pour effacer le regard féminin autonome, source de menace politique, et la résistance incarnée par des femmes blessées mais persistantes, dont les visages mutilés circulent comme des preuves vivantes de répression.

L’histoire ne se limite donc pas à un passé lointain de neutralisation politique : elle imprègne l’expérience corporelle des femmes aujourd’hui, où l’atteinte à l’œil se lit à la fois comme une violence instrumentale et un signe que la lutte politique se joue aussi sur le champ visuel.

Le corps comme dernier champ de souveraineté

La République islamique a rompu avec le sacré monarchique, mais elle a conservé un principe ancien : le corps comme lieu d’inscription du pouvoir. Là où le souverain aveuglait pour protéger une dynastie, l’État sécuritaire mutile pour préserver sa survie.

Cette stratégie produit toutefois un effet paradoxal. Dans l’Iran ancien, l’aveuglement faisait disparaître politiquement. Aujourd’hui, il rend visible la violence du régime. Les visages mutilés circulent, les victimes deviennent des symboles et les yeux perdus témoignent d’une crise profonde de légitimité.

L’histoire ne se répète pas, mais elle survit dans les gestes. En visant les yeux, le pouvoir iranien réactive une grammaire ancienne de domination : empêcher de voir pour empêcher d’exister politiquement.

The Conversation

Firouzeh Nahavandi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.01.2026 à 15:56

Le plurilinguisme à l’école : une richesse invisible à reconnaître

Sophie Othman, Maître de conférences, Centre de Linguistique Appliquée - CLA, Université Marie et Louis Pasteur (UMLP)
img
En France, près d’un élève sur cinq entend régulièrement une autre langue que le français à la maison. Un plurilinguisme qui peine encore à être reconnu alors qu’il représente un atout.
Texte intégral (1918 mots)

En France, près d’un élève sur cinq entend régulièrement une autre langue que le français à la maison. Or l’école peine encore à reconnaître et à valoriser cette richesse qui constitue, selon la recherche, un atout pour le développement des enfants et des adolescents en général.


Dans de nombreuses familles, les élèves grandissent avec une ou plusieurs langues autres que le français. À la maison, on parle arabe, chinois, créole, lingala, polonais, portugais, tamoul, turc. Cette diversité linguistique fait pourtant rarement l’objet d’une reconnaissance explicite à l’école, où les langues familiales demeurent largement invisibles, voire sont perçues comme un obstacle aux apprentissages.

Selon les estimations de l’Insee et du ministère de l’éducation nationale, près d’un élève sur cinq entend régulièrement une autre langue que le français à la maison. Pourtant, très peu d’établissements proposent des activités d’éveil aux langues. Ce décalage contribue, chez certains enfants, à l’intériorisation de l’idée que leur langue d’origine serait illégitime ou sans valeur scolaire.

Cette invisibilisation peut fragiliser le rapport à l’école, à l’apprentissage et parfois à la société elle-même. Dès lors, une question s’impose : comment mieux reconnaître cette richesse linguistique et en faire un levier éducatif au service de tous les élèves ?

Le plurilinguisme, un atout pour grandir

L’école républicaine française s’est historiquement construite autour d’un modèle linguistique centralisé. Cette priorité accordée au français s’est traduite par une longue marginalisation des langues autres que le français, qu’il s’agisse des langues régionales (occitan, breton, alsacien…) ou des langues de familles issues de l’immigration. Cette dynamique a durablement influencé les représentations et les pratiques scolaires en France, au détriment de la diversité linguistique des élèves.

Or, la recherche en didactique et sociolinguistique est claire : loin de nuire à l’apprentissage du français, le maintien et la valorisation des langues d’origine favorisent le développement cognitif, la réussite scolaire et la confiance en soi.

Les neurosciences confirment d’ailleurs que les enfants plurilingues développent plus tôt certaines capacités d’attention et de flexibilité mentale. En valorisant leurs langues, on reconnaît non seulement leurs compétences, mais aussi leur identité, ce qui renforce leur motivation et leur rapport à l’école.

Accueillir d’autres langues à l’école : l’exemple suisse

Le rapport aux langues à l’école n’est pourtant pas le même partout. Dans d’autres pays européens, la diversité linguistique est pensée comme une composante ordinaire de la scolarité. C’est le cas de la Suisse, pays voisin où le français est également langue de scolarisation, mais où le plurilinguisme constitue un principe structurant du système éducatif.

Ainsi, certains cantons reconnaissent officiellement les cours de langue et culture d’origine comme complémentaires à la scolarité. Même lorsqu’ils se déroulent en dehors du temps strictement scolaire, ces enseignements s’inscrivent dans une politique linguistique cohérente, qui reconnaît la pluralité des répertoires des élèves.

En Allemagne, au Canada ou encore au Luxembourg, des dispositifs similaires existent depuis longtemps. La France ne pourrait-elle pas s’en inspirer ?

La notion de « neutralité linguistique » en France

La frilosité française face à la reconnaissance des langues familiales à l’école tient d’abord à l’héritage du modèle scolaire républicain. Depuis la fin du XIXᵉ siècle, l’école française s’est construite comme un espace d’unification linguistique, où le français est à la fois langue d’enseignement, langue de la citoyenneté et symbole de cohésion nationale. Cette orientation s’est accompagnée d’une mise à distance progressive des autres langues présentes sur le territoire, notamment les langues régionales.

La notion de « neutralité linguistique » permet de décrire ce modèle, même si elle ne constitue pas une expression institutionnelle officielle. Elle est mobilisée par les chercheurs pour qualifier une conception de l’école pensée comme linguistiquement homogène, afin d’éviter toute différenciation perçue comme communautaire. Cette approche a été largement analysée, notamment par Philippe Blanchet, qui montre comment l’unification linguistique a longtemps été considérée comme une condition de l’égalité républicaine.

À cette dimension historique s’ajoute une crainte politique persistante. La question des langues demeure étroitement liée à celle de l’intégration et de l’identité nationale, notamment dans les rapports consacrés à l’éducation plurilingue publiés en 2018 par le Conseil de l’Europe.

Cette institution rappelle pourtant que l’école peut prendre en compte l’ensemble des langues présentes, qu’il s’agisse des langues de scolarisation, des langues familiales, des langues régionales ou des langues étrangères, sans les opposer entre elles.

Il existe enfin des freins plus pratiques. De nombreux enseignants déclarent manquer de formation pour intégrer la diversité linguistique dans leurs pratiques quotidiennes, tandis que les dispositifs institutionnels restent souvent limités ou peu lisibles. Les ressources existent, mais elles sont parfois méconnues ou insuffisamment soutenues sur les plans financier et organisationnel, comme le souligne le Conseil scientifique de l’éducation nationale (CSEN) dans sa synthèse consacrée au bilinguisme et au plurilinguisme à l’école (2023).

La diversité linguistique facteur d’équilibre social

Dans ce contexte, les travaux de Jean-Claude Beacco, chercheur spécialiste des politiques linguistiques et de l’éducation plurilingue, apportent un éclairage essentiel. Pour lui, la diversité linguistique doit être pensée comme une composante de la diversité culturelle, au même titre que la biodiversité dans le domaine écologique.

Reconnaître les langues des élèves ne vise pas uniquement à améliorer les apprentissages, mais participe plus largement à un équilibre social fondé sur la reconnaissance des différences.

Beacco souligne que l’éducation plurilingue constitue un véritable projet citoyen : elle développe la capacité à comprendre l’altérité, à comparer les points de vue et à dialoguer dans des sociétés marquées par la mobilité et la diversité. En mobilisant les langues comme ressources cognitives et culturelles, l’école ne fragilise pas le français ; elle renforce au contraire la compétence à communiquer, à apprendre et à vivre ensemble. Dans cette perspective, l’éducation plurilingue concerne l’ensemble des élèves, appelés à évoluer dans des sociétés de plus en plus interconnectées.

Repenser l’enseignement : du français « seul » au français en dialogue

Dans différentes écoles, des enseignants mettent en place des pratiques qui invitent les élèves à mobiliser les langues parlées dans leur famille : présentation de mots du quotidien, comptines, récits, recettes ou expressions culturelles. Ces activités, documentées dans de nombreux travaux en didactique des langues, ne relèvent pas de l’anecdotique : elles favorisent la coopération entre élèves et contribuent au développement de compétences interculturelles, tout en renforçant l’engagement dans les apprentissages.

Ces pratiques ont notamment été observées dans des projets d’éveil aux langues menés à l’école primaire, approche didactique développée notamment par le chercheur en linguistique Michel Candelier, qui vise à familiariser les élèves avec la diversité linguistique sans enseigner ces langues. Les enseignants rapportent que la mise en circulation des langues familiales transforme les dynamiques de classe. Comme le résume une professeure de CM2 interrogée dans une étude qualitative :

« Quand un élève m’explique un mot en arabe ou en portugais, c’est tout le groupe qui apprend. Le français devient alors un lieu de partage, pas de hiérarchie. »

Ces témoignages rejoignent les propositions formulées par Jean-Claude Beacco, qui invite à aller plus loin en intégrant les comparaisons entre langues au cœur des apprentissages. Concrètement, il s’agit par exemple de comparer la manière dont différentes langues expriment le pluriel, l’ordre des mots dans la phrase, la formation des temps verbaux ou encore les systèmes d’écriture. Un travail sur les accords en français peut ainsi s’appuyer sur les langues connues des élèves pour mettre en évidence similitudes et différences, et développer une réflexion sur le fonctionnement du langage.

Ces activités renforcent la conscience métalinguistique des élèves et montrent que l’on peut apprendre le français en s’appuyant sur les autres langues. L’éducation plurilingue ne se limite donc pas à l’accueil des élèves allophones : elle concerne l’ensemble des élèves et peut irriguer toutes les disciplines, en développant des compétences d’analyse, de comparaison et de mise à distance, essentielles à la réussite scolaire.


Cet article est publié en partenariat avec la Délégation générale à la langue française et aux langues de France du ministère de la culture.

The Conversation

Sophie Othman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.01.2026 à 15:54

La bulle de l’IA n’a rien de nouveau : Karl Marx en a expliqué les mécanismes, il y a près de 150 ans

Elliot Goodell Ugalde, PhD Candidate, Political Economy, Queen's University, Ontario
img
L’alerte lancée par le patron d’OpenAI, Sam&nbsp;Altman, sur une bulle de l’IA met en lumière un problème économique plus profond&nbsp;: le capitalisme produit plus de capital qu’il ne peut en investir de manière rentable.
Texte intégral (2462 mots)
Le secteur de l’IA est en plein essor, mais une grande partie des investissements relève de la spéculation. Saradasish Pradhan/Unsplash, CC BY

L’explosion des investissements dans l’intelligence artificielle révèle, comme l’avait décrit Marx, d’une difficulté structurelle du capitalisme à absorber ses propres excédents, au prix d’une financiarisation accrue et de fragilités économiques croissantes.


Lorsque Sam Altman, patron d’OpenAI, a déclaré plus tôt cette année à des journalistes à San Francisco que le secteur de l’intelligence artificielle (IA) était en train de former une bulle, le marché technologique états-unien a réagi presque instantanément. Combinée au fait que 95 % des projets pilotes en IA échouent, sa remarque a été perçue par les traders comme un signal d’alerte plus large. Même si Altman visait spécifiquement les start-ups non cotées plutôt que les grands groupes en Bourse, certains semblent y avoir vu une évaluation de l’ensemble du secteur.

Le milliardaire de la tech Peter Thiel (NDT : un proche de Donald Trump) a par exemple vendu ses actions Nvidia, tandis que l’investisseur américain Michael Burry – rendu célèbre par The Big Shorta parié des millions de dollars sur une baisse de la valeur de ce fabricant de puces mais également de l’éditeur américain de logiciels d’analyse data Palantir.


À lire aussi : Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne


Au fond, le propos d’Altman ne met pas seulement en lumière la fragilité de certaines sociétés, mais une tendance plus profonde qu’avait anticipée Karl Marx : le problème du capital excédentaire, qui ne parvient plus à trouver de débouchés rentables dans la production.

La théorie marxiste des crises

L’avenir de l’IA n’est pas en cause. Comme Internet après l’éclatement de la bulle de 2001, la technologie est appelée à durer. Ce qui pose question, en revanche, c’est la destination du capital une fois que les actions liées à l’IA ne fourniront plus les rendements spéculatifs promis ces dernières années.

Cette interrogation nous ramène directement à l’analyse marxienne des crises liées à la suraccumulation. Marx soutenait qu’une économie devient instable lorsque la masse de capital accumulé ne peut plus être réinvestie de manière rentable.

Les investissements technologiques masquent la faiblesse économique

Des années de taux d’intérêt bas et de liquidités abondantes durant la pandémie ont gonflé les bilans des entreprises. Une large part de ces liquidités s’est dirigée vers le secteur technologique, en se concentrant sur ce que l’on appelle les « Sept Magnifiques » – Amazon, Alphabet, Meta, Apple, Microsoft, Nvidia et Tesla. Sans ces entreprises, la performance des marchés serait négative.

Cela ne traduit pas un véritable dynamisme technologique ; c’est le signe d’un capital concentré dans une poignée d’actifs surévalués, fonctionnant comme de l’« argent jeté dans la circulation sans base matérielle dans la production », qui circule sans ancrage dans l’activité économique réelle.

La conséquence est qu’une part moindre de l’investissement atteint l’« économie réelle », ce qui alimente la stagnation économique et la crise du coût de la vie – deux phénomènes largement masqués par l’indicateur du PIB.

Comment l’IA est devenue le dernier palliatif

Le géographe de l’économie David Harvey prolonge l’intuition de Marx avec la notion de « spatio-temporal fix », qu’on pourrait traduire par « correctif spatio-temporel », qui désigne la manière dont le capital résout provisoirement la stagnation en repoussant l’investissement dans le temps ou en s’étendant vers de nouveaux territoires.

La suraccumulation produit des excédents de travail, de capacités productives et de capital financier, qui ne peuvent être absorbés sans pertes. Ces excédents sont alors redirigés vers des projets de long terme, ce qui repousse les crises vers de nouveaux espaces et ouvre de nouvelles possibilités d’extraction.

Le boom de l’IA fonctionne à la fois comme un correctif temporel et un correctif spatial. Sur le plan temporel, il offre aux investisseurs des droits sur une rentabilité future qui pourrait ne jamais se matérialiser – ce que Marx appelait le « capital fictif ». Il s’agit d’une richesse qui apparaît dans les bilans alors qu’elle repose peu sur l’économie réelle, ancrée dans la production de biens.

Sur le plan spatial, l’extension des centres de données, des sites de fabrication de puces et des zones d’extraction minière nécessite des investissements matériels considérables. Ces projets absorbent du capital tout en dépendant de nouveaux territoires, de nouveaux marchés du travail et de nouvelles frontières de ressources. Mais comme le suggère l’aveu de Sam Altman, et alors que les mesures protectionnistes du président américain Donald Trump compliquent le commerce mondial, ces débouchés atteignent leurs limites.

Le coût du capital spéculatif

Les conséquences de la suraccumulation dépassent largement le seul monde des entreprises et des investisseurs. Elles se vivent socialement, et non de manière abstraite. Marx expliquait qu’une surproduction de capital correspond à une surproduction des moyens de production et des biens de première nécessité qui ne peuvent être utilisés aux taux d’exploitation existants.

Autrement dit, l’affaiblissement du pouvoir d’achat – ironiquement accéléré par l’essor de l’IA – empêche le capital de se valoriser au rythme auquel il est produit. Lorsque la rentabilité recule, l’économie résout ce déséquilibre en détruisant les moyens de subsistance des travailleurs et des ménages dont les retraites sont liées aux marchés financiers.

L’histoire offre des exemples frappants. L’éclatement de la bulle Internet a ruiné de petits investisseurs et concentré le pouvoir entre les mains des entreprises survivantes. La crise financière de 2008 a chassé des millions de personnes de leur logement tandis que les institutions financières étaient sauvées. Aujourd’hui, de grands gestionnaires d’actifs se couvrent déjà contre de possibles turbulences. Vanguard, par exemple, a opéré un net déplacement vers les obligations.

La spéculation comme moteur de la croissance

La bulle de l’IA est avant tout le symptôme de pressions structurelles, plus que le simple produit d’une dynamique technologique. Au début du XXᵉ siècle, l’économiste marxiste Rosa Luxemburg s’interrogeait déjà sur l’origine de la demande sans cesse croissante nécessaire à la reproduction élargie du capital.

Sa réponse fait écho à celles de Marx et de Harvey : lorsque les débouchés productifs se raréfient, le capital se déplace soit vers l’extérieur, soit vers la spéculation. Les États-Unis optent de plus en plus pour cette seconde voie. Les dépenses des entreprises dans les infrastructures d’IA contribuent désormais davantage à la croissance du PIB que la consommation des ménages, une inversion sans précédent qui montre à quel point la croissance actuelle repose sur l’investissement spéculatif plutôt que sur l’expansion productive.

Cette dynamique tire vers le bas le taux de profit et, lorsque le flux spéculatif s’inversera, la contraction suivra.

Les droits de douane resserrent l’étau sur le capital

L’inflation financière s’est accentuée à mesure que les soupapes traditionnelles permettant au capital de s’orienter vers de nouveaux marchés physiques ou géographiques se sont refermées.

Les droits de douane, les contrôles à l’exportation sur les semi-conducteurs et les mesures commerciales de rétorsion ont réduit l’espace mondial disponible pour les relocalisations. Comme le capital ne peut plus facilement échapper aux pressions structurelles de l’économie intérieure, il se tourne de plus en plus vers des outils financiers qui repoussent les pertes en refinançant la dette ou en gonflant les prix des actifs – des mécanismes qui accroissent finalement la fragilité lorsque l’heure des comptes arrive.

Le président de la Réserve fédérale des États-Unis Jerome Powell s’est dit favorable à d’éventuelles baisses des taux d’intérêt, signe d’un retour vers le crédit bon marché. En rendant l’emprunt moins coûteux, ces baisses permettent au capital de masquer ses pertes et d’alimenter de nouveaux cycles spéculatifs.

Marx a formulé cette logique dans son analyse du capital porteur d’intérêt, où la finance crée des droits sur une production future « au-delà de ce qui peut être réalisé sous forme de marchandises ». Il en résulte que les ménages sont poussés à s’endetter au-delà de ce qu’ils peuvent réellement supporter, échangeant ainsi une crise de stagnation contre une crise du crédit à la consommation.

Bulles et risques sociaux

Si la bulle de l’IA éclate alors que les gouvernements disposent de peu de marges pour redéployer les investissements à l’international et que l’économie repose sur un crédit de plus en plus fragile, les conséquences pourraient être lourdes.

Le capital ne disparaîtra pas mais se concentrera davantage dans les marchés obligataires et les instruments de crédit, gonflés par une banque centrale américaine désireuse de baisser les taux d’intérêt. Cela n’évite pas la crise ; cela en déplace simplement le coût vers le bas de l’échelle sociale.

Les bulles ne sont pas des accidents mais des mécanismes récurrents d’absorption du capital excédentaire. Si le protectionnisme de Trump continue de fermer les débouchés spatiaux et que les correctifs temporels reposent sur un endettement toujours plus risqué, le système s’oriente vers un cycle d’inflation des actifs, d’effondrement, puis de nouvelle intervention de l’État.

L’IA survivra, mais la bulle spéculative qui l’entoure est le symptôme d’un problème structurel plus profond – dont le coût, une fois pleinement révélé, pèsera avant tout sur les classes populaires.

The Conversation

Elliot Goodell Ugalde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

12.01.2026 à 15:53

La Terre du Milieu de Tolkien, un lieu imaginaire pour repenser notre rapport à la nature

Véronique André-Lamat, Professeure de Géographie, Centre national de la recherche scientifique (CNRS)
Léa Menard, Médiatrice scientifique, Centre national de la recherche scientifique (CNRS)
img
«&nbsp;Le Seigneur des anneaux&nbsp;», à travers sa géographie imaginaire, nous invite à nous engager dans une éthique environnementale qui semble plus d’actualité que jamais.
Texte intégral (2841 mots)
La Terre du Milieu. Léa Dutemps, Fourni par l'auteur

L’écrivain anglais J. R. R. Tolkien (1892-1973) était un cartographe de l’imaginaire. Dans le Seigneur des anneaux (1954-1955), il invente un monde dans lequel la frontière entre humanité et animalité est floue. Ses cartes de la Terre du Milieu construisent la cohérence spatiale et la densité narrative de la quête de la Communauté de l’anneau. Montagnes, forêts, rivières y constituent tantôt des épreuves spatiales, tantôt des espaces protecteurs ou de refuge. La géographie y structure le récit et façonne la fiction.


Les mondes imaginaires sont performatifs. Ils se nourrissent du réel dans une projection fictionnelle tout en l’interrogeant. Le Seigneur des anneaux n’y fait pas exception, nous invitant à réfléchir à nos liens avec la nature, à reconnaître sa valeur intrinsèque et à dépasser une conception dualiste opposant nature et culture, ne lui accordant qu’une valeur d’usage ou de ressource, à nous engager dans une éthique environnementale.

En suivant la Communauté, métissée, sur les chemins, parfois de traverse, les menant vers le mont Destin, nous sommes confrontés à différentes manières d’habiter et de transformer la nature : utopies rurales, zones industrieuses, refuges écologiques et lieux symboliques où des choix engagent l’avenir du monde. La fiction devient un outil pour questionner le réel, interroger nos pratiques et réfléchir aux enjeux environnementaux contemporains dans une ère désormais anthropocénique.

Le mont Destin. Léa Dutemps, Fourni par l'auteur

Habiter (avec) le monde : utopies rurales et résistance

La Comté repose sur un système agraire vivrier de polycultures fondé sur de petites exploitations familiales où le tabac réputé n’est que peu exporté. Les Hobbits vivent en autarcie et habitent littéralement une nature jardinée, dans des terriers. Le bocage, les prairies forment un maillage qui limite l’érosion et protège la biodiversité et organisent un territoire où nature et société coexistent harmonieusement. Cet idéal préindustriel s’éteint peu à peu dans le monde occidental moderne où une agriculture intensive et centralisée s’est imposée pour devenir norme sur un territoire remembré.

La Comté. Léa Dutemps, Fourni par l'auteur

La forêt de Fangorn, elle, représente une nature qui résiste à la manière d’une zone à défendre (ZAD). Les Ents, gestionnaires du peuplement forestier, incarnent des arbres doués de parole, capables de révolte. Ils refusent la domination humaine fermant les sentiers d’accès avant de s’engager dans une guerre contre l’industrialisation menée par Saroumane en Isengard. Le chantier stoppé de l’autoroute A69 témoigne de la façon dont la nature peut parfois aujourd’hui par elle-même poser des limites aux projets d’aménagement voulus par l’humain.

La Lothlórien, enfin, symbolise une écotopie, un espace préservé du temps et des pressions humaines, où nature, société et spiritualité vivent en harmonie. La réserve intégrale de la forêt de la Massane, les forêts « sacrées » d’Afrique de l’Ouest ou celles du nord de la Grèce (massif du Pindes) font écho à cet idéal. Pensées comme des écosystèmes dont les dynamiques naturelles sont respectées et où l’intervention humaine contrôlée se fait discrète, elles permettent d’observer et de suivre les espèces, la régénération spontanée des habitats et leur résilience. Mais à l’image de la Lothlórien, un tel système de gestion reste spatialement rare, fragile. Il nécessite de construire la nature comme bien commun dont l’accès et l’usage sont acceptés par les communautés qui cohabitent avec ces espaces forestiers.

La Lothlórien. Léa Dutemps, Fourni par l'auteur

Ces trois types de territoires montrent qu’habiter le monde n’est pas simplement occuper, encore moins s’approprier, un espace de nature mais engager un dialogue avec lui, considérer qu’il a une valeur par lui-même, juste parce qu’il existe, et pas uniquement en tant que ressource. Il s’agit alors de cohabiter dans des interactions où chaque existant prend soin de l’autre.

Exploiter une nature ressource : de l’artificialisation à la destruction

La transformation des espaces de nature, comme le montre Tolkien, peut aussi répondre à une logique d’exploitation intensive, la nature offrant des ressources permettant d’asseoir la domination des humains sur la nature comme sur d’autres humains. Il ne s’agit plus d’envisager une cohabitation être humain/nature mais d’asservir la nature par la technique.

Isengard, le territoire de Saroumane au sud des monts Brumeux, contrôlé par la tour d’Orthanc, incarne la transformation radicale du milieu par et pour l’industrie ; une industrie dont la production d’Orques hybrides, sorte de transhumanisme appliqué à la sauvagerie, vise à renforcer le pouvoir de Saroumane et construire son armée pour prendre le contrôle d’autres territoires. La forêt est rasée, les fleuves détournés, le paysage mécanisé, dans l’unique but d’alimenter l’industrie. Les champs d’exploitation des schistes bitumineux en Amérique du Nord montrent à quel point l’exploitation de la nature peut détruire des paysages, polluer une nature qui devient impropre et dont les fonctions et services écosystémiques sont détruits).

La tour d’Orthanc. Léa Dutemps, Fourni par l'auteur

La Moria, ancien royaume florissant du peuple Nain, est l’exemple de l’issue létale de la surexploitation d’une ressource naturelle. Si le mithril, minerai rare de très grande valeur a construit la puissance du royaume Nain, son exploitation sans cesse plus intense, vidant les profondeurs de la terre, va conduire à l’effondrement de la civilisation et à l’abandon de la Moria. Ce territoire minier en déshérence fait écho aux paysages des régions du Donbass par exemple, qui conservent aujourd’hui encore les traces visibles de décennies d’extraction charbonnière : galeries effondrées, sols instables et villes partiellement abandonnées.

Lieux de rupture et enjeux planétaires

On trouve enfin chez Tolkien une mise en scène d’espaces qui représentent des lieux de bascule pour l’intrigue et l’avenir du monde, en l’occurrence la Terre du Milieu.

Le « bourg-pont » de Bree, zone frontière matérialisée par une large rivière, marque la limite entre l’univers encore protégé, presque fermé, de la Comté et les territoires marchands de l’est, ouverts et instables. Mais Bree est aussi un carrefour dynamique, lieu d’échanges où circulent et se rencontrent des personnes, des biens et des récits. Un carrefour et une frontière où toutefois la tension et la surveillance de toutes les mobilités sont fortes.

La Moria. Léa Dutemps, Fourni par l'auteur

Lieu de transition, symbolisant à la fois ouverture et fermeture territoriales, Bree est un point de bascule dans le récit où convergent et se confrontent des personnages clés de l’intrigue (les Hobbits, Aragorn, les cavaliers noirs de Sauron), les figures du Bien et du Mal autour desquelles vont se jouer l’avenir de la Terre du Milieu. Comme Bree, Calais est un point de friction entre un espace fermé (les frontières britanniques) et un espace ouvert où s’entremêlent société locale, logiques nationales et transnationales, mais où les circulations sont de plus en plus contrôlées.

Enfin, la montagne du Destin, volcan actif, incarne le lieu de rupture ultime, celui où le choix d’un individu, garder l’anneau pour lui seul dans un désir de pouvoir total ou accepter de le détruire, a des conséquences majeures pour toute la Terre du Milieu. Certains espaces jouent un rôle similaire sur notre terre. La fonte du permafrost sibérien ou de l’inlandsis antarctique pourrait libérer d’immenses quantités de carbone pour l’un, d’eau douce pour l’autre, accélérant le dérèglement climatique et la submersion de terres habitées.

Ces lieux où des actions localisées peuvent déclencher des effets systémiques globaux, au-delà de tout contrôle, concentrent ainsi des enjeux critiques, écologiques, géopolitiques ou symboliques.

La fiction constitue un puissant vecteur de réflexion quant à notre responsabilité collective dans la gestion de la nature, quant à nos choix éthiques et politiques dans la manière d’habiter la Terre en tant que bien commun et ainsi éviter d’atteindre un point de bascule qui sera celui d’un non-retour.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 12:02

Le microcrédit, un outil financier qui peut coûter cher aux femmes

Jérémie Bertrand, Professeur de finance, IESEG School of Management et LEM-CNRS 9221, IÉSEG School of Management, IÉSEG School of Management
Caroline Perrin, Chercheuse postdoctorante | Commission européenne
img
Suicide, surendettement, violences conjugales… les effets pervers du microcrédit sont légion pour les femmes. Quelles solutions pour les enrayer&nbsp;?
Texte intégral (1352 mots)
L’accès au microcrédit pour les femmes peut engendrer des violences conjugales. Philippe Lissac/Shutterstock

Grâce au microcrédit, les femmes gagnent une plus grande indépendance financière et un pouvoir décisionnel dans leur activité professionnelle. Corollaires à ce progrès : le surendettement, les violences conjugales et… le suicide. Quelles sont les solutions pour limiter ces effets délétères ?


Cinquante ans après le lancement du microcrédit au Bangladesh, les femmes représentent aujourd’hui 80 % des bénéficiaires, mais en profitent-elles réellement ?

Pression de groupe pouvant entraîner des suicides, spirale de surendettement ou encore manque de contrôle des femmes sur l’utilisation des prêts… autant de dérives qui peuvent accroître la vulnérabilité des emprunteuses.

Dans un état de l’art que nous avons publié récemment, nous regardons l’impact réel du microcrédit sur les femmes. Le résultat n’est pas totalement en leur faveur.

Notre état de l’art s’appuie sur des travaux menés principalement dans des pays en développement, incluant l’Asie du Sud, l’Océanie et l’Afrique subsaharienne.

La pression des pairs

Comment fonctionne le prêt solidaire, outil le plus utilisé en microfinance ?

De petits groupes, composés de cinq à dix individus, empruntent ensemble. Si l’un des membres manque une échéance, les autres doivent avancer son dû. La pression des pairs assure le remboursement du prêt, mais elle déplace la charge sociale sur le groupe.

Cette pression peut être plus ou moins bien supportée. En Andhra Pradesh, un État de l’Inde, le cumul de dettes et des méthodes de recouvrement oppressives ont entraîné une vague de suicides, causant près de 80 morts en 2010. Malgré les mesures de régulation mises en place par les gouvernements et les institutions du secteur, des cas de suicides continuent d’être signalés. Il demeure difficile d’estimer régulièrement le nombre de décès liés au microcrédit, faute de données.

Un surendettement à la clé

Le manque d’accompagnement et d’éducation financière des emprunteurs et emprunteuses peuvent eux mener à l’échec de l’emprunt. Force est de constater que beaucoup de microcrédits financent de petites activités sur des marchés déjà saturés, où la probabilité de dégager un profit est faible.

Concrètement, il s’agit souvent d’activités à faible barrière à l’entrée mais très concurrentielles : petit commerce (vente de nourriture, fruits et légumes, vêtements), kiosques et revente sur marché, petite restauration, couture, etc. Sur des marchés locaux où de nombreuses personnes proposent des produits et des services similaires, la demande est rapidement « partagée ». Les marges sont faibles et les revenus restent volatils, ce qui limite la capacité à rembourser.

Face à cette situation, l’emprunteuse peut devoir contracter un nouveau prêt, l’exposant à un risque de surendettement.

Il peut s’agir d’un renouvellement, ou top-up, auprès de la même institution, d’un second microcrédit auprès d’une autre institution, ou d’un prêt informel (tontine, famille ou autre prêteur particulier). Ces prêts sont souvent de petits montants mais à remboursements fréquents. Leur coût peut être élevé, une fois les intérêts inclus. Le surendettement survient souvent lorsque le nouveau prêt sert à rembourser le précédent plutôt qu’à financer une activité rentable.

Qui décide de l’usage du prêt ?

Si, comme mentionné préalablement, la majorité des microcrédits sont accordés aux femmes, ces dernières n’ont pas forcément la maîtrise de l’argent obtenu qui revient à un parent ou un conjoint. Cela s’explique par les rapports de pouvoir au sein du ménage et des normes sociales, qui font de l’homme le décisionnaire principal du couple, surtout lorsqu’il s’agit d’argent.

Ce décalage entre celle qui paie et celui qui décide peut générer des tensions au sein du ménage. Dans certains contextes, l’accès au microcrédit peut même aller jusqu’à engendrer une hausse de la violence conjugale. Par exemple, à partir d’un échantillon national au Bangladesh, soit 4 163 femmes mariées, les chercheurs Nadine Shaanta Murshid, Ayse Akincigil et Allison Zippay concluent qu’avoir un microcrédit pour les femmes avec un meilleur statut économique est associé à une probabilité de 9 % de plus de subir de la violence domestique.

Prêter autrement ?

Pour limiter ces effets, des solutions existent.

Passer de la garantie de groupe à la responsabilité individuelle réduit la pression des pairs sans hausse des défauts. Au lieu qu’un « groupe solidaire » de 5 à 10 femmes soit collectivement responsable, chaque emprunteuse signe un contrat individuel et n’est responsable que de sa propre échéance. Pourquoi cela peut fonctionner ? Parce que la pression sociale du groupe peut pousser à rembourser même quand le prêt n’est pas rentable.

Proposer des microformations très pratiques en « règles de pouce », comme une formation d’une heure et demie maximum sur les bases de la gestion financière, peut contribuer à rendre les investissements profitables et limiter le risque de surendettement. Elles peuvent porter sur des gestes très concrets de gestion : séparer l’argent du ménage et celui de l’activité, tenir un mini-carnet quotidien des entrées et des sorties ou apprendre à calculer simplement des coûts, des prix et des marges pour identifier ce qui est réellement rentable.

Gérer l’emprunt directement sur les comptes personnels des emprunteuses, notamment via les comptes mobile money, donne aux femmes une autonomie financière effective. Elles reçoivent, paient et épargnent elles-mêmes, tout en réduisant le risque d’appropriation des fonds par un homologue masculin. Le prêt est versé sur le wallet mobile de l’emprunteuse, puis les remboursements se font depuis ce même compte ; cela rend plus difficile la « capture » immédiate en liquide par le conjoint et crée une traçabilité/contrôle directe des flux (réception, paiements fournisseurs, remboursement).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 12:02

À quoi servent les groupements d’employeurs ?

Matthieu Mandard, Maître de conférences en sciences de gestion, Université de Rennes 1 - Université de Rennes
Anne Joyeau, Professeur en management des ressources humaines
Sébastien Le Gall, Professeur des Universités en Stratégie et Management, Université Bretagne Sud (UBS)
img
Dispositif méconnu, les groupements d’employeurs sont pourtant un puissant levier d’emploi. Revue de détail de leurs atouts.
Texte intégral (1673 mots)

Quarante ans après leur naissance, les groupements d’employeurs restent relativement discrets. Pourtant, cette forme juridique originale peut être un puissant levier, notamment pour les (très) petites et moyennes entreprises, en leur donnant les moyens de recruter un salarié en commun. Revue de détail des services proposés par cet outil.


Les groupements d’employeurs ont été institués en France en 1985 afin de permettre aux petites et moyennes entreprises de se regrouper pour recruter de la main-d’œuvre. Malgré leur intérêt, ces structures souffrent d’un manque de reconnaissance car leurs vertus restent mal connues.

Constitués sous forme associative ou, plus rarement, sous le statut de société coopérative, les groupements d’employeurs (GE) permettent aux entreprises d’un même territoire de procéder à des embauches mutualisées. Les GE assurent le rôle d’employeur de salariés, dont le temps de travail est réparti le plus souvent entre deux ou trois entreprises adhérentes. Ils offrent ainsi une souplesse de fonctionnement à ces adhérents, qui disposent de compétences auxquelles ils n’auraient pas eu accès individuellement. Ils permettent aussi aux salariés de réaliser des missions diversifiées tout en bénéficiant d’un emploi à temps plein. Et à l’échelle des territoires, ils constituent un outil pour préserver des emplois et soutenir le dynamisme économique local.

Des structures peu visibles

35 ans après leur apparition, les GE restent cependant méconnus et insuffisamment utilisés. Alors que le tissu économique français est essentiellement constitué de TPE et de PME, les 5 000 GE environ que compte notre pays (dont 900 hors secteur agricole) ne représentent que 55 000 salariés (25 000 hors secteur agricole), selon les estimations réalisées par la DARES en 2021 et par le ministère de l’Agriculture en 2023.

Parmi les raisons avancées pour expliquer ce manque de popularité, le Conseil économique, social et environnemental (Cese) mentionne la pluralité des usages qui sont faits de ces structures, qui rend leur rôle peu lisible. Nous avons donc mené une recherche afin de les mettre en évidence.

S’adapter aux cycles d’activité

En premier lieu, les GE offrent à leurs adhérents la possibilité d’ajuster leurs recrutements aux cycles d’activité. Il s’agit là du rôle qui a présidé à leur création en 1985 : l’objectif était alors d’offrir un cadre légal aux pratiques, jusqu’alors informelles, de partage de personnel entre exploitants agricoles faisant face à un accroissement saisonnier de travail. De nos jours, ce type de recours aux GE s’est étendu à tout type d’entreprise dont l’activité est affectée par la saisonnalité, et en particulier à celles du secteur agroalimentaire.


À lire aussi : Qu’est-ce qu’un « bon employeur » ? Une approche par la notion d’« employeurabilité »


Les GE sont ainsi présents dans toutes les régions, avec des spécificités liées aux caractéristiques des territoires. À titre d’exemple, le GE “Côte Sud Emploi”, qui a été créé par et pour l’industrie agroalimentaire dans le département des Landes, a ainsi engagé des réflexions sur les complémentarités sectorielles en se positionnant également sur le thermalisme.

Mutualiser les compétences

L’usage des GE s’est progressivement étendu, puisqu’ils sont par la suite devenus une modalité stable de mutualisation des compétences. Ils permettent en effet aux PME qui en sont membres de bénéficier quelques jours par semaine de professionnels de fonctions support indispensables à la bonne conduite de leurs activités – marketing, communication, gestion des ressources humaines, hygiène et sécurité, etc.

L’intérêt pour les entreprises est ici de pouvoir bénéficier de compétences sur la durée, auxquelles elles n’auraient pas eu accès à titre individuel. Et les salariés apprécient eux aussi ce mode de recours aux GE, dans la mesure où ils peuvent ainsi acquérir de manière simultanée des expériences professionnelles diversifiées tout en bénéficiant d’un emploi stable.

Les emplois partagés proposés par le GE Mayage localisé dans le département de la Mayenne sont une bonne illustration de cette mutualisation de compétences. Le dirigeant d’une des entreprises adhérentes témoigne ainsi :

« Il y a trois ans, je cherchais à embaucher une personne pour la communication interne et externe de l’entreprise mais correspondant au volume d’une PME. Et Mayage a trouvé la personne qui, trois ans plus tard, est toujours au sein de l’entreprise. J’ai tous les avantages de la prestation sans avoir le salarié à ma charge puisque c’est Mayage qui s’occupe de tout. »

Accompagner la croissance

Un autre usage des GE est également apparu ces dernières années : leur rôle en matière d’accompagnement de la croissance. La croissance des entreprises nécessite en effet la structuration progressive de leur organisation, au travers de la mise en place de fonctions supports auxquelles les GE permettent d’accéder de manière facilitée.

Contrairement à la logique de mutualisation des compétences de long terme évoquée précédemment, il s’agit ici pour les entreprises adhérentes, dont l’activité est en plein essor, d’expérimenter momentanément le recours à des fonctions support à temps partagé, avant d’en disposer à temps plein en interne si leur croissance se poursuit. Les salariés peuvent quant à eux prendre leurs marques dans les entreprises d’accueil avant de les intégrer à temps plein. La TPE-PME bénéficie de la sorte d’un accompagnement à la croissance selon un principe de turn-over positif tel qu’il est qualifié au sein du réseau des GE. Biosupport, un GE francilien, souligne ainsi qu’« une dizaine de salariés passés au GE ont été au final embauchés par une entreprise adhérente ».

Web-agri 2023.

Pour les GE, les conséquences de ce rôle sont ambivalentes, dans la mesure où l’intégration à temps plein implique une diminution du maillage d’emplois. Si le turn-over positif devait être trop important, cela pourrait donc les mettre en difficulté économique. Mais, sur le temps long, cela traduit aussi la capacité des GE à créer des emplois sur le territoire.

Gérer la flexibilité

Si, historiquement, les GE ont été conçus pour accompagner des variations saisonnières d’activité, il s’avère qu’ils accompagnent désormais toutes les variations d’activité, à la hausse comme à la baisse. Les GE représentent ainsi une modalité de gestion de la flexibilité qui fait concurrence aux agences d’intérim.

Dans un contexte économique qui apparaît à l’heure actuelle plus tendu, certains GE font ainsi valoir auprès des dirigeants cette capacité à partager les risques. Le GE permet de gérer une crise en embauchant par exemple le salarié que l’entreprise est contrainte de licencier. Et dès la reprise d’activité, l’entreprise pourra à nouveau bénéficier de la compétence à temps plein. A l’automne 2025, le GE Hélys localisé à Rennes, présentait ainsi son offre aux dirigeants d’entreprise dont la situation économique est délicate :

« Nous pouvons permettre à une entreprise de se séparer administrativement d’un salarié, tout en continuant à bénéficier de ses compétences quelques jours par semaine en l’intégrant dans notre GE. Votre salarié devient le nôtre durant cette période de turbulence. Nous lui proposons un CDI. Nous complétons ensuite son temps de travail auprès d’autres adhérents pour lui permettre de conserver son niveau de vie. […] Et quand la tempête passe, vous pouvez réintégrer votre collaborateur. Vous savez tous le gain de temps et d’argent que cela représente versus le recrutement d’un nouveau profil. »

Vers une reconnaissance des GE ?

Au total, il s’avère que les usages des GE sont multiples, non mutuellement exclusifs, et vont bien au-delà de leur vocation originelle. En les clarifiant, nous espérons permettre aux GE, tout comme aux institutions qui les accompagnent, de communiquer plus précisément sur les services qu’ils proposent, et contribuer ainsi à accroître leur visibilité. À l’heure où les entreprises cherchent à concilier flexibilité et stabilité de l’emploi, les GE constituent une réponse originale encore trop méconnue.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 12:01

Rihanna, Selena Gomez, Kylie Jenner : pourquoi la beauté est le nouvel eldorado des stars

Frédéric Aubrun, Enseignant-chercheur en Marketing digital & Communication au BBA INSEEC - École de Commerce Européenne, INSEEC Grande École
Norchene Ben Dahmane Mouelhi, Marketing, ESCE International Business School
Soraya Zouari, Maitre de Conférences en marketing, Université de Reims Champagne-Ardenne (URCA)
img
Rihanna, Selena Gomez ou Kylie Jenner, les marques de cosmétiques créées par des stars se sont multipliées. Pourquoi cet engouement particulier pour la beauté&nbsp;?
Texte intégral (2033 mots)
La star Selena Gomez a lancé son entreprise de cosmétique Rare Beauty contre la «&nbsp;beauté toxique&nbsp;». bella1105/Shutterstock

Rihanna, Selena Gomez ou Kylie Jenner, ces dernières années les marques dans le secteur des cosmétiques créées ou co-fondées par des stars se sont multipliées. Mais pourquoi cet engouement particulier pour la beauté ?


Fenty Beauty, LolaVie, Blake Brown, Rare Beauty, Kylie Cosmetics, Rhode Skin ou Goop Beauty sont des marques de beauté et de soins capillaires qui ont toutes un point commun : celui d’avoir été lancées par une célébrité, comme Rihanna, Jennifer Aniston, Blake Lively, Selena Gomez, Kylie Jenner, Hailey Rhode Bieber et Gwyneth Paltrow.

Le personal branding, cette stratégie qui transforme le « moi » en image de marque unique que l’on peut valoriser sur la scène médiatique notamment, est d’autant plus pertinente dans le secteur des cosmétiques.

Alors pourquoi un tel engouement dans ce secteur et de ses consommateurs ?

« Sephora Loves Rare BeautySelena Gomez | Beauty Without Flter ».

Effet lipstick

Le marché des cosmétiques aurait générer en 2025 un chiffre d’affaires de 677 milliards de dollars, soit 574 milliards d’euros.

L’intérêt des célébrités pour la beauté n’est pas seulement une question d’image, il est également dicté par une logique économique. Les stars ont rapidement compris qu’en lançant leur propre marque, leur notoriété permettrait de réduire la lenteur de ce processus et d’amorcer une monétisation rapide de leur entreprise. La célébrité agit comme un puissant catalyseur marketing.

Qu’est-ce que le « personal branding » ?

Historiquement, le secteur des cosmétiques est résilient aux crises, ce que les chercheurs nomment « effet lipstick ». Ce dernier explique comment les consommateurs, en période de crises économiques, réduisent les dépenses importantes, telles que l’achat de voiture ou les voyages, pour s’offrir des produits de luxe abordables, comme un rouge à lèvres.

Cette stabilité du marché de la beauté garantit un revenu sûr pour les marques de stars. Il offre des marges brutes élevées et peut encore croître de 100 milliards selon le patron de L’Oréal, Nicolas Hieronimus.

Le coût de production étant faible par rapport au prix de vente, et l’absence des contraintes logistiques, comme les collections de saisons, permettent un faible coût d’entrée et une gestion des stocks simplifiée.

Transférer les attributs positifs de la star

La célébrité qui endosse une marque est définie comme un individu jouissant d’une forte reconnaissance publique qui appose son image sur une marque par le biais d’un contrat publicitaire. Cette approche vise à transférer les attributs positifs de la star vers la marque, facilitant l’identification du message par le consommateur.

Depuis une dizaine d’années, ce qu’on appelle le self-branding for entrepreneurial prend une nouvelle ampleur avec l’avènement des réseaux sociaux. La célébrité devient cheffe d’entreprise et créée sa propre marque. La star n’est plus une simple ambassadrice : elle devient actionnaire, co-fondatrice ou propriétaire d’une marque.

C’est le cas de la comédienne Jennifer Aniston avec sa marque de soins capillaires LolaVie. L’actrice ne se contente pas de poser pour sa marque mais partage elle-même des vidéos de shooting sur les réseaux sociaux. Elle se met en scène en utilisant les produits et va jusqu’à poster des vidéos d’elle coiffant sa meilleure amie, l’actrice Courtney Cox, ou encore son petit ami Jim Curtis.

Jennifer Aniston fait preuve d’authenticité en exposant son intimité et en prenant à contre-pied l’image distante et éloignée de la réalité que peut avoir une célébrité. Elle renforce cette idée en utilisant l’humour dans son spot publicitaire « No Gimmicks » (« Pas d’artifices »).

« Jennifer Aniston x LolaVie | No Gimmicks… It Just Works ».

Contre la beauté toxique

Le succès des marques de beauté fondées par des célébrités s’explique par la disruption stratégique mise en place. Des marques, comme Fenty Beauty, ont été pionnières en prouvant que l’inclusion ethnique avec plus de 40 teintes de fonds de teint proposées n’était pas un simple geste éthique mais une stratégie économique gagnante. « Fenty Beauty est une marque à 360 degrés qui s’adresse autant à une Coréenne qu’à une Irlandaise ou à une Afro-Américaine », décrypte Lionel Durand, patron de l’entreprise Black Up.

Dans la foulée, la marque Rare Beauty a élargi cette notion à l’inclusion émotionnelle, utilisant l’authenticité du discours de sa fondatrice concernant la santé mentale pour rejeter les normes de beauté toxiques. Selena Gomez n’ayant jamais caché sa bipolarité a choisi pour sa marque le slogan « Love Your Rare » (« Aimez votre rareté ») et a créé sa fondation Rare Impact Fund consacrée à cette thématique. Elle capitalise sur une communauté fidèle et engagée, là où d’autres marques valorisent essentiellement la perfection en termes de beauté.

Ces stars utilisent leurs réseaux sociaux comme laboratoires narratifs où elles construisent la crédibilité de leur marque à travers des récits personnels simples, de travail et de passion. Les produits de beauté ont un avantage : ils sont désirables et mobilisent l’attention surtout s’ils sont mis en avant par une célébrité.

Les vidéos Instagram ou TikTok à l’ère du marketing de contenu permettent aux célébrités d’échanger et d’atteindre rapidement leur public. Leurs produits deviennent une extension d’elles-mêmes, des objets identitaires au même titre que la mode ou la musique. La marque bio Goop, de Gwyneth Paltrow, est une ode à son lifestyle. Sur la plateforme TikTok, elle vend ses créations comme des produits skincare, de maquillage ou une ligne de vêtements. L’actrice a développé un empire autour de la mouvance New Age.

Marqueur social

Les marques des célébrités deviennent un marqueur social, une manière de prolonger l’univers de la star dans le quotidien des consommateurs. En 2025, on assiste à la continuité de cette tendance. L’année aura été marquée par des extensions de gammes pour Rhode et Rare Beauty, mais aussi par de nouveaux lancements de marques comme les parfums de Bella Hadid, Orebella, ou la gamme de soins Dua, de Dua Lipa.

Le succès de la marque continue de reposer sur la capacité de la célébrité-entrepreneure à projeter une authenticité perçue et une implication réelle. En face, se trouve un consommateur certes sensible aux réseaux sociaux, mais qui peut s’avérer résistant à certaines manœuvres marketing.

Si la célébrité paraît opportuniste ou déconnectée du produit, la légitimité s’effondre. Tel fut le cas pour Meghan Markle au moment du lancement de sa marque lifestyle, As Ever, de produits alimentaires, bougies et vins. Les critiques ont fusé, l’accusant de peu de professionnalisme, de capitaliser uniquement sur sa notoriété et sur son statut de duchesse de Sussex.

Des marques à durée limitée ?

Les produits de beauté ne sont qu’un exemple de la diversification entrepreneuriale des célébrités. Nombreuses sont les stars qui se tournent vers des marchés où le capital image est essentiel et où le taux de renouvellement des produits est élevé.

C’est le cas du secteur de l’alcool qui offre une marge élevée et une connexion directe avec les fans. L’actrice Cameron Diaz a co-fondé une marque de vin bio et vegan qu’elle a nommé Avaline. Le rappeur Jay Z possède sa maison de champagne, Armand de Brignac.

Le phénomène de la célébrité-entrepreneure révèle une nouvelle dynamique, celle de la marque personnelle. Dès lors, la question qui se pose n’est plus la performance initiale mais la vision stratégique à long terme. Cette hyper-accélération du succès, rendue possible essentiellement par la notoriété, leur permet-elle de devenir des marques à part entière, et non de simples prolongements de la célébrité ?

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

12.01.2026 à 12:01

Faut-il, comme EDF, interdire toute consommation d’alcool dans le monde professionnel ?

Caroline Diard, Professeur associé - Département Droit des Affaires et Ressources Humaines, TBS Education
img
Fini les pots et autres moments sociaux arrosés de boissons alcoolisées&nbsp;? C’est ce qu’a décidé EDF pour 2026. Et, au fait, que dit le droit à ce sujet&nbsp;?
Texte intégral (1833 mots)

EDF a indiqué interdire la consommation d’alcool sur le lieu de travail et dans les repas d’affaires. Cette décision est-elle compatible avec la liberté individuelle ? Peut-elle ou doit-elle s’appliquer dans d’autres entreprises, notamment au nom de la lutte contre les addictions et de la garantie de la sécurité du personnel ?


Dès ce mois de janvier, les salariés d’EDF n’ont plus le droit de consommer d’alcool au travail ni lors d’événements organisés par leur employeur à l’extérieur.

Cette mesure, encadrée par l’article R4228-20 du Code du travail, questionne l’équilibre entre prévention des risques (addictions, comportements inappropriés, accidents du travail), libertés individuelles et préservation des rites qui constituent la culture d’entreprise.

Cette décision très médiatisée intervient dans un contexte où la prévention des risques professionnels et des accidents du travail est au centre du débat public.

Cette décision s’inscrit dans un cadre réglementaire existant et une jurisprudence constante. Cette décision n’a donc rien de bien surprenant.

Protéger la santé et la sécurité

L’organisation d’événements festifs ponctue la vie de l’entreprise. Ces moments supposés conviviaux à l’initiative de l’employeur, du comité social et économique (CSE) ou de certains salariés, contribuent à produire une meilleure cohésion des équipes et au maintien de la culture d’entreprise.

Parfois, l’alcool s’invite dans ces temps collectifs, à l’intersection de la vie professionnelle et personnelle… Il ne suffit pas que la réunion ait lieu en dehors de l’entreprise pour exonérer l’employeur de toute responsabilité. S’il en est à l’initiative, celle-ci reste sous sa responsabilité. La consommation d’alcool sur le lieu de travail comporte cependant de nombreux risques et, à ce titre, est très fortement encadrée en France.


À lire aussi : Boissons au cannabis : comment une faille juridique a créé une industrie de plusieurs milliards de dollars que le Congrès veut maintenant interdire


Ainsi, l’article R4228-20 du Code du travail précise qu’« aucune boisson alcoolisée autre que le vin, la bière, le cidre et le poiré n’est autorisée sur le lieu de travail ». Si la consommation de boissons alcoolisées est susceptible de porter atteinte à la sécurité et à la santé physique et mentale des travailleurs, l’employeur, en application de l’article L. 4121-1 du Code du travail doit en restreindre l’usage. Cet article dispose que « l’employeur prend les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs ».

L’employeur est soumis non pas à une obligation de résultat mais à une obligation de moyens renforcés (Cour de cassation, chambre sociale, 25 novembre 2015, no 14-24.444, Air France).

Règlement intérieur ou note de service ?

L’employeur peut aussi le prévoir dans le règlement intérieur – obligatoire dans les entreprises d’au moins 50 salariés. En effet, ce document fixe les règles de la vie en entreprise et notamment celles relatives à la discipline, la nature et l’échelle des sanctions. À défaut, l’employeur peut l’indiquer par l’intermédiaire d’une note de service reprenant les mesures prises pour protéger la santé et la sécurité des travailleurs et de prévenir tout risque d’accident.

Ces mesures, qui peuvent notamment prendre la forme d’une limitation voire d’une interdiction de consommation d’alcool, doivent être proportionnées au but recherché. Ainsi, l’employeur, en vertu de son pouvoir de direction, peut donc purement et simplement interdire la consommation d’alcool au sein de l’entreprise en invoquant cette obligation de sécurité. Cela lui permet de répondre à l’obligation de moyens renforcés.

Une sanction pouvant aller jusqu’au licenciement peut alors être prononcée à l’encontre des collaborateurs en cas de non-respect, si elle prévue dans le règlement intérieur.

À titre d’exemple, une clause d’un règlement intérieur précise :

« L’introduction, la distribution et/ou la consommation de toute boisson alcoolisée sur le lieu de travail (bureaux, chantiers…) sont interdites, à l’exception des dispositions prévues par l’article R. 4228-20 du Code du travail et uniquement lors des repas en dehors du temps de travail. Cette consommation devra l’être dans des quantités raisonnables de manière à ne pas altérer les capacités à occuper son emploi et/ou à être en mesure de conduire un véhicule, notamment pour regagner son domicile. L’introduction, la distribution et la consommation de produits stupéfiants dans les locaux de travail sont en outre strictement interdits. »

Le danger des pratiques addictives

Par ailleurs, l’employeur – qui est tenu d’identifier et de répertorier les risques dans le document unique d’évaluation des risques professionnels (DUERP) – doit tenir compte des pratiques potentiellement addictives (consommation d’alcool mais aussi de drogues). En effet, les pratiques addictives concernent de nombreux salariés, quels que soient le secteur d’activité ou la catégorie socioprofessionnelle.

Ces consommations, occasionnelles ou répétées, comportent des risques pour la santé et la sécurité des salariés. Il est donc nécessaire d’inscrire le risque lié aux pratiques addictives dans ce document unique (article R. 4121-1 du Code du travail).

Ce document est tenu à la disposition des salariés, des anciens salariés, des membres du comité social et économique, du médecin du travail, de l’agent de contrôle de l’inspection du travail et des agents des Carsat (article R4121-4 du Code du travail).

Interdire en préservant les libertés individuelles

En cas de consommation abusive d’alcool, le salarié pourrait avoir un accident dans l’entreprise ou en rentrant chez lui après un repas d’entreprise par exemple. L’employeur engagerait alors sa responsabilité dans le cadre de l’obligation de sécurité et pourrait être condamné. On pense par exemple à un accident automobile pour un commercial. De son côté, le salarié pourrait également être reconnu responsable.

Ainsi, le 10 avril 2024 (RG no 21/06884), la Cour d’appel de Rennes a statué sur la réalité d’un accident du travail dont l’origine était la consommation d’alcool par un salarié au temps et au lieu du travail. Un chauffeur alcoolisé chargeait un engin de chantier qui a basculé sur lui ; accident des suites duquel il est malheureusement décédé. À noter que les restrictions relatives à l’alcool sont par ailleurs souvent accompagnées de restrictions relatives aux stupéfiants.

Comment contrôler ?

Ainsi, le cadre légal dont relèvent les conduites addictives en entreprise est complexe, car il doit concilier l’obligation de sécurité avec le respect des droits fondamentaux de l’employé (article L.1121-1 du Code du travail).

L’employeur peut ainsi recourir au contrôle de l’alcoolémie sous réserve du respect de certaines dispositions. Le contrôle par éthylotest ne doit pas être systématique. Il doit être justifié par des raisons de sécurité et ne doit concerner que les salariés dont les fonctions sont de nature à exposer les personnes ou les biens à un danger. Ainsi, la liste des postes pour lesquels un dépistage est possible doit être prévue dans le réglement intérieur.

Cesi École d’ingénieurs, 2023.

La restriction doit cependant être proportionnée au but recherché et doit permettre de protéger les intérêts légitimes de l’entreprise. Par exemple, dans un entrepôt où travaillent des caristes (conducteurs de petits véhicules de manutention), il est légitime d’interdire complètement l’alcool, dont la consommation pourrait altérer les réflexes des salariés et produire des accidents. L’usage de substances psychoactives sur le lieu de travail, ou avant la prise de poste, augmente le risque d’accidents du travail, d’erreurs humaines et de comportements inadaptés, notamment dans les secteurs nécessitant de la vigilance ou la manipulation de machines.

Dégradation du climat social

Les conduites addictives peuvent également dégrader le climat social en entreprise. Elles peuvent générer des tensions entre collègues, créer des situations de conflit ou d’incompréhension, et altérer la cohésion des équipes, impacter négativement la productivité et la qualité du travail, augmenter l’absentéisme et les retards, causer des soucis de santé et de gestion des aptitudes.

Au-delà de la dimension juridique liée aux risques humains et de contentieux, la consommation d’alcool ou de drogues est également un enjeu managérial. En effet, la stigmatisation des personnes concernées et le tabou entourant la consommation de substances addictives peuvent freiner la détection et la prise en charge des situations à risques, conduisant à une marginalisation des salariés concernés. Les managers et les services RH doivent apprendre à détecter les signaux faibles. Le recours à la médecine du travail est également indispensable. Information et formations sont importantes dans une stratégie de prévention.

The Conversation

Caroline Diard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.01.2026 à 15:44

L’avenir de l’impression 3D passera par les matériaux

Benoît Vieille, Professeur en mécanique des matériaux aéronautiques, INSA Rouen Normandie
Breteau Thomas, Professeur Agrégé de Génie Mécanique , INSA Rouen Normandie
img
Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités.
Texte intégral (2079 mots)

Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités. Elle offre des perspectives prometteuses en matière de matériaux, mais elle pose également des défis techniques, économiques et environnementaux qui nécessitent une maturation et une adaptation des procédés en lien avec les matériaux utilisés.


Plus connu sous la dénomination « impression 3D », ce procédé met en œuvre des polymères (plastiques) ou des alliages métalliques pour fabriquer des objets du quotidien. Les imprimantes 3D polymères sont accessibles au grand public pour quelques centaines d’euros. Elles permettent notamment de fabriquer des pièces prototypes (d’où le nom prototypage rapide), des coques de téléphone, des pièces de rechange, des prothèses, des bijoux, des jouets, des objets de décorations ou des maquettes. En ce qui concerne les métaux, les machines d’impression sont beaucoup plus chères (quelques centaines de milliers d’euros). On trouve des applications telles que des implants médicaux, des pièces aérospatiales/automobiles, de l’outillage industriel, des bijoux de luxe. On peut également trouver ce principe de fabrication dans le domaine du BTP avec des « imprimantes » qui mettent en œuvre du béton pour fabriquer des maisons, des bâtiments ou tout type de structure en génie civil.

Mais, comme toute nouveauté, le procédé suscite autant d’espoir qu’il ne réserve de surprises (bonnes ou mauvaises) à celles et ceux qui souhaitent utiliser ce nouveau moyen de fabrication.

D’un point de vue technique, l’impression 3D consiste, couche après couche, à durcir (polymériser) une résine liquide ou à venir déposer de la matière (plastique ou métallique) de manière précise et contrôlée (en ajustant les paramètres tels que la température, la vitesse d’impression, le taux de remplissage, l’orientation de l’objet) pour répondre à certaines contraintes de géométrie, poids, optimisation des propriétés mécaniques ou physiques.

La microstructure d’une pièce imprimée en 3D (polymère ou métal) désigne l’organisation interne de sa matière à une échelle microscopique, influencée par le procédé d’impression. La complexité de la géométrie, les dimensions, le prix vont conditionner le choix de la technologie d’impression et des matériaux associés.

Une révolution dans de nombreux domaines industriels

Qu’elle soit alternative ou complémentaire des techniques conventionnelles par enlèvement de matière ou par déformation, la FA révolutionne de nombreux domaines industriels. De la réalisation de pièces monolithiques (en une seule étape de fabrication, sans assemblage) à forte valeur ajoutée à la fonctionnalisation (conférer à la pièce certaines propriétés locales en changeant les paramètres d’impression au besoin), en passant par le prototypage rapide (valider la conception d’une pièce prototype de manière itérative), les possibilités sont multiples. On peut citer notamment des prothèses de hanche en titane adaptées à l’anatomie de chaque patient, des injecteurs de fusée à géométrie complexe et fabriquées en une seule pièce, des moules optimisés avec canaux de refroidissement sur mesure, des bijoux en métaux précieux avec des designs impossibles à obtenir avec des moyens d’usinage conventionnels.

La chaîne de valeurs de la FA – qui définit l’ensemble des étapes de réalisation d’une pièce de l’approvisionnement en matière première, à la conception, aux conditions de mise en œuvre, à la fabrication, au coût énergétique, à la reprise d’usinage, aux opérations de parachèvement, à la qualification de la santé matière, à la caractérisation des propriétés physiques, au recyclage – est cependant plus complexe et potentiellement plus onéreuse. La technicité, oui, mais pas à n’importe quel prix ! Outre les moyens de fabrication spécifiques sur lesquels elle repose, elle nécessite des règles de conception fondamentalement différentes car elle impose de nouvelles contraintes techniques. De la Conception Assistée par Ordinateur, au choix matériau, au programme machine et à l’industrialisation, il faut ainsi redéfinir complètement la manière de penser du cahier des charges à la maintenance des produits issus de la FA.

Des enjeux majeurs pour les matériaux

Un des points fondamentaux du développement de ces nouveaux procédés réside dans la compréhension du lien entre les paramètres de fabrication des pièces (temps d’impression, puissance du laser, vitesse de déplacement de la tête d’impression, dimensions, environnement de travail – sous atmosphère contrôlée ou non), leur santé matière (présence de porosités ou de défauts parfois liés à un manque de fusion/gazéification locaux de la matière) et leurs propriétés physiques (conductivité thermique ou électrique, propriétés mécaniques, densité). Autrement dit, il est nécessaire de fiabiliser les procédés et optimiser les propriétés finales de la pièce en étant capable de contrôler des paramètres de fabrication, lesquels vont beaucoup dépendre des matériaux mis en œuvre. Ainsi, la FA présente des enjeux majeurs pour les matériaux, qu’ils soient techniques, économiques ou environnementaux.

Tout d’abord, les procédés de FA nécessitent de développer, en amont, des matériaux adaptés (filaments, poudres) aux spécificités des procédés (fusion laser, dépôt de matière fondue, alimentation en matière des têtes d’impression), lesquels vont imposer des contraintes en termes de prix, toxicité et recyclabilité. En effet, les poudres métalliques ou polymères spécifiques (de type thermoplastique) dédiées à la fabrication additive restent souvent plus coûteuses que les matériaux conventionnels, d’un facteur 10 environ.

Néanmoins, malgré le coût plus élevé des matériaux et des procédés, l’impression 3D réduit les déchets (pas de copeaux comme en usinage), permet de fabriquer des pièces dont la géométrie est optimisée (allègement des structures) et élimine le besoin de moules coûteux pour les petites séries, ce qui peut compenser l’écart de coût pour des pièces à forte valeur ajoutée. Ainsi, la réduction des coûts est un enjeu clé pour une adoption plus large. De plus, l’approvisionnement en matière première peut être limité, ce qui ralentit le développement des applications industrielles.

La FA permet également de faire de l’hybridation en associant différents types de matériaux lors de l’impression (en utilisant plusieurs têtes d’impression) afin d’obtenir des pièces composites dont les propriétés mécaniques, électriques ou thermiques sont spécifiques. Par exemple, dans l’industrie aérospatiale ou l’automobile, l’impression 3D de pièces comme des moules d’injection ou des échangeurs thermiques avec des canaux de refroidissement complexes intégrés – lesquels sont impossibles à réaliser par usinage classique – permettent d’optimiser la dissipation thermique, améliorant l’efficacité et la longévité de la pièce.

Les procédés de FA permettent également d’imprimer des structures arborescentes (bio-mimétisme) obtenues via des outils d’optimisation topologique qui est une méthode de conception avancée qui utilise des algorithmes pour déterminer la forme optimale d’une structure en fonction de contraintes spécifiques, telles que la résistance, le poids, ou la distribution des efforts. La spécificité de l’impression 3D réside aussi dans la possibilité de produire des structures complexes de type treillis ou architecturées pour fonctionnaliser le matériau (propriétés mécaniques sur mesure, réduction de la masse, diminution des coûts de fabrication, isolation thermique, acoustique, absorption des chocs ou des vibrations).

Fusion de matière

Quand les pièces sont imprimées, il existe – selon le procédé de fabrication – des opérations dites de parachèvement qui consistent à finaliser les pièces. Cela inclut l’usinage des supports de conformage (qui sont comme des échafaudages qui supportent la pièce lors de la fabrication couche par couche), la reprise d’usinage des surfaces (ou polissage) pour améliorer l’état de surface (quand cela est possible) en raison de la rugosité importante des pièces brutes. On peut également réaliser des traitements thermiques pour homogénéiser la microstructure (pièces métalliques) ou de compression à chaud pour limiter le taux de porosités (un des inconvénients majeurs de l’impression 3D). Ces opérations sont fondamentales, car la rugosité de surface et le taux de porosités sont les caractéristiques les plus critiques du point de vue du comportement mécanique. Par ailleurs, quand il s’agit de procédés à base de poudres, il est nécessaire de dépoudrer les pièces pour évacuer le surplus de matière, lequel peut nuire au fonctionnement en service de la pièce ainsi fabriquée.

Par nature, la majorité des procédés de FA impliquent la fusion de matière (plastique ou métallique), ce qui va se traduire par des échauffements localisés et des différences de température très importants au sein de la pièce. Ces gradients thermiques vont conditionner la microstructure, la présence de contraintes internes (en lien avec la microstructure), la santé (présence de défauts), l’anisotropie (les propriétés ne sont pas les mêmes dans toutes les directions) et l’hétérogénéité (les propriétés ne sont pas les mêmes en tout point) des pièces. La fiabilité des pièces imprimées va donc beaucoup dépendre de ces caractéristiques.

En amont, il est alors important d’étudier les interactions entre procédés-microstructure et propriétés mécaniques pour différents types de matériaux. C’est l’objet de nos travaux de recherche menés à l’INSA Rouen Normandie. Pour les polymères, l’impression 3D par dépôt de filament fondu (FFF) présente une porosité intrinsèque qui réduit la résistance à la rupture. En utilisant des procédés tels que le laser shock peening (LSP), un traitement mécanique in situ appliqué à certaines couches pendant l’impression, on peut alors faire de la fonctionnalisation en réduisant localement la porosité et en créant des barrières ralentissant la propagation des fissures, améliorant ainsi la ténacité des matériaux (la résistance à la fissuration du matériau). De manière similaire, pour les alliages métalliques obtenus par Fusion sur Lit de Poudre, en jouant sur les paramètres de fabrication (puissance et vitesse de déplacement du laser notamment), il est possible d’ajuster localement les propriétés du matériau pour moduler sa ténacité ou sa capacité à se déformer plastiquement.*

Aussi, il est nécessaire de caractériser précisément – en aval de la fabrication – les propriétés (thermiques, électriques, mécaniques) des pièces en accord avec les normes de certification propres aux différents domaines d’activité (médical, aéronautique, aérospatiale, automobile, agro-alimentaire).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

11.01.2026 à 15:42

Groenland : rester avec les Inuit polaires

Ludovic Slimak, Archéologue, penseur et chercheur au CNRS, Université de Toulouse
img
En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début de l’effondrement des sociétés inuit traditionnelles.
Texte intégral (2848 mots)

En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début d’un basculement irréversible pour les sociétés inuit. Aujourd’hui, alors que le Groenland redevient un enjeu stratégique mondial, l’histoire semble se répéter. Rester avec les Inuit polaires, c’est refuser de parler de territoires en oubliant ceux qui les habitent.


Le 16 juin 1951, l’explorateur français Jean Malaurie progresse en traîneaux à chiens sur la côte nord-ouest du Groenland. Il est parti seul, sur un coup de tête, avec un maigre pécule du CNRS, officiellement pour travailler sur les paysages périglaciaires. En réalité, cette rencontre avec des peuples dont la relation au monde était d’une autre nature allait forger un destin singulier.

Ce jour-là, après de longs mois d’isolement parmi les Inuit, au moment critique du dégel, Malaurie avance avec quelques chasseurs. Il est épuisé, sale, amaigri. L’un des Inuit lui touche l’épaule : « Takou, regarde » Un épais nuage jaune monte au ciel. À la longue-vue, Malaurie croit d’abord à un mirage : « une cité de hangars et de tentes, de tôles et d’aluminium, éblouissante au soleil dans la fumée et la poussière […] Il y a trois mois, la vallée était calme et vide d’hommes. J’avais planté ma tente, un jour clair de l’été dernier, dans une toundra fleurie et virginale. »

Le souffle de cette ville nouvelle, écrira-t-il, « ne nous lâchera plus ». Les excavatrices tentaculaires raclent la terre, les camions vomissent les gravats à la mer, les avions virevoltent. Malaurie est projeté de l’âge de pierre à l’âge de l’atome. Il vient de découvrir la base secrète américaine de Thulé, nom de code Operation Blue Jay. L’un des projets de construction militaire les plus massifs et les plus rapides de l’histoire des États-Unis.

La base américaine de Thulé au début des années 1950. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Sous ce nom anodin se cache une logistique pharaonique. Les États-Unis redoutent une attaque nucléaire soviétique par la route polaire. En un seul été, quelque 120 navires et 12 000 hommes sont mobilisés dans une baie qui n’avait connu jusque-là que le glissement silencieux des kayaks. Le Groenland ne comptait alors qu’environ 23 000 habitants. En 104 jours, sur un sol gelé en permanence, surgit une cité technologique capable d’accueillir les bombardiers géants B-36, porteurs d’ogives nucléaires. À plus de 1 200 kilomètres au nord du cercle polaire, dans un secret presque total, les États-Unis font surgir l’une des plus grandes bases militaires jamais construites hors de leur territoire continental. Un accord de défense est signé avec le Danemark au printemps 1951, mais l’Operation Blue Jay est déjà engagée : la décision américaine a été prise dès 1950.

L’annexion de l’univers Inuit

Malaurie comprend aussitôt que la démesure de l’opération signe, de fait, une annexion de l’univers Inuit. Un monde fondé sur la vitesse, la machine, l’accumulation vient de pénétrer brutalement, aveuglément, un espace réglé par la tradition, le cycle, la chasse et l’attente.

Le geai bleu est un oiseau bruyant, agressif, extrêmement territorial. La base de Thulé se situe à mi-chemin entre Washington et Moscou par la route polaire. À l’heure des missiles hypersoniques intercontinentaux, hier soviétiques, aujourd’hui russes, c’est cette même géographie qui fonde encore l’argument du « besoin impérieux » invoqué par Donald Trump dans son désir d’annexion du Groenland.

La base de Thulé a une position stratégique entre les USA et la Russie. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Le résultat immédiat le plus tragique de l’Opération Blue Jay ne fut pas militaire, mais humain. En 1953, pour sécuriser le périmètre de la base et de ses radars, les autorités décidèrent de déplacer l’ensemble de la population inughuit locale vers Qaanaaq, à une centaine de kilomètres plus au nord. Le déplacement fut rapide, contraint, sans consultation, brisant le lien organique entre ce peuple et ses territoires de chasse ancestraux. Un “peuple racine” déraciné pour faire place à une piste d’aviation.

C’est sur ce moment de bascule foudroyante que Malaurie situe l’effondrement des sociétés traditionnelles inuit, où la chasse n’est pas une technique de survie mais un principe organisateur du monde social. L’univers inuit est une économie du sens, faite de relations, de gestes et de transmissions, qui donnent à chacun reconnaissance, rôle et place. Cette cohérence intime, qui fait la force de ces sociétés, les rend aussi extrêmement vulnérables lorsqu’un système extérieur en détruit soudainement les fondements territoriaux et symboliques.

Conséquences de l’effondrement des structures traditionnelles

Aujourd’hui, la société groenlandaise est largement sédentarisée et urbanisée. Plus du tiers des 56 500 habitants vit à Nuuk, la capitale, et la quasi-totalité de la population réside désormais dans des villes et localités côtières sédentarisées. L’habitat reflète cette transition brutale. Dans les grandes villes, une part importante de la population occupe des immeubles collectifs en béton, construits pour beaucoup dans les années 1960 et 1970, souvent vétustes et suroccupées. L’économie repose largement sur une pêche industrielle tournée vers l’exportation. La chasse et la pêche de subsistance persistent. Fusils modernes, GPS, motoneiges, connexions satellitaires accompagnent désormais les gestes anciens. La chasse demeure un repère identitaire, mais elle ne structure plus ni l’économie ni la transmission.

Les conséquences humaines de cette rupture sont massives. Le Groenland présente aujourd’hui l’un des taux de suicide les plus élevés au monde, en particulier chez les jeunes hommes inuit. Les indicateurs sociaux contemporains du Groenland - taux de suicide, alcoolisme, violences intrafamiliales – sont largement documentés. De nombreux travaux les relient à la rapidité des transformations sociales, à la sédentarisation et à la rupture des transmissions traditionnelles.

Manœuvres militaires américaines à Thulé. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Revenons à Thulé. L’immense projet secret engagé au début des années 1950 n’avait rien de provisoire. Radars, pistes, tours radio, hôpital : Thulé devient une ville stratégique totale. Pour Malaurie, l’homme du harpon est condamné. Non par une faute morale, mais par une collision de systèmes. Il met en garde contre une européanisation qui ne serait qu’une civilisation de tôle émaillée, matériellement confortable, humainement appauvrie. Le danger n’est pas dans l’irruption de la modernité, mais dans l’avènement, sans transition, d’une modernité sans intériorité, opérant sur des terres habitées comme si elles étaient vierges, répétant, à cinq siècles d’écart, l’histoire coloniale des Amériques.

Espaces et contaminations radioactives

Le 21 janvier 1968, cette logique atteint un point de non-retour. Un bombardier B-52G de l’US Air Force, engagé dans une mission permanente d’alerte nucléaire du dispositif Chrome Dome, s’écrase sur la banquise à une dizaine de kilomètres de Thulé. Il transporte quatre bombes thermonucléaires. Les explosifs conventionnels des bombes nucléaires, destinés à amorcer la réaction, détonnent à l’impact. Il n’y a pas d’explosion nucléaire, mais la déflagration disperse sur une vaste zone du plutonium, de l’uranium, de l’americium et du tritium.

Dans les jours qui suivent, Washington et Copenhague lancent Project Crested Ice, une vaste opération de récupération et de décontamination avant la fonte printanière. Environ 1 500 travailleurs danois sont mobilisés pour racler la glace et collecter la neige contaminée. Plusieurs décennies plus tard, nombre d’entre eux engageront des procédures judiciaires, affirmant avoir travaillé sans information ni protection adéquates. Ces contentieux se prolongeront jusqu’en 2018-2019, débouchant sur des indemnisations politiques limitées, sans reconnaissance juridique de responsabilité. Aucune enquête épidémiologique exhaustive ne sera jamais menée auprès des populations inuit locales.

Aujourd’hui rebaptisée Pituffik Space Base, l’ancienne base de Thulé est l’un des nœuds stratégiques majeurs du dispositif militaire américain. Intégrée à la US Space Force, elle joue un rôle central dans l’alerte antimissile et la surveillance spatiale en Arctique, sous un régime de sécurité maximale. Elle n’est pas un vestige de la guerre froide, mais un pivot actif de la géopolitique contemporaine.

Dans Les Derniers Rois de Thulé, Malaurie montre que les peuples racine n’ont jamais de place possible au cœur des considérations stratégiques occidentales. Face aux grandes manœuvres du monde, l’existence des Inuit y devient aussi périphérique que celle des phoques ou des papillons.

Les déclarations de Donald Trump ne font pas surgir un monde nouveau. Elles visent à généraliser au Groenland un système en place depuis soixante-quinze ans. Mais la position d’un homme ne saurait nous exonérer de nos responsabilités collectives. Entendre aujourd’hui que le Groenland « appartient » au Danemark et dépend de l’OTAN, sans même évoquer les Inuit, revient à répéter un vieux geste colonial : concevoir les territoires en y effaçant ceux qui l’habitent.

Les Inuit demeurent invisibles et inaudibles. Nos sociétés continuent de se représenter comme des adultes face à des populations indigènes infantilisées. Leur savoir, leurs valeurs, leurs manières sont relégués au rang de variables secondaires. La différence n’entre pas dans les catégories à partir desquelles nos sociétés savent agir.

À la suite de Jean Malaurie, mes recherches abordent l’humain par ses marges. Qu’il s’agisse des sociétés de chasseurs-cueilleurs ou de ce qu’il reste de Néandertal, lorsqu’on le déshabille de nos projections, l’Autre demeure toujours l’angle mort de notre regard. Nous ne savons pas voir comment s’effondrent des mondes entiers lorsque la différence cesse d’être pensable.

Malaurie concluait son premier chapitre sur Thulé par ces mots :

« Rien n’aura été prévu pour imaginer l’avenir avec hauteur. »

Il faut redouter par-dessus tout non la disparition brutale d’un peuple, mais sa relégation silencieuse, et radicale, dans un monde qui parle de lui sans jamais le regarder ni l’entendre.

The Conversation

Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.01.2026 à 15:41

Quand les IA cadrent l’information et façonnent notre vision du monde

Adrian Kuenzler, Scholar-in-Residence, University of Denver; University of Hong Kong
img
L’IA sélectionne les informations, influençant subtilement l’opinion des individus (que les informations présentées soient vraies ou fausses). Comment régulier ce problème&nbsp;?
Texte intégral (1938 mots)
Selon une étude OpinionWay pour le think tank La villa numeris, publiée le 15&nbsp;octobre 2025, les Français sont 8&nbsp;% à préférer l’IA aux médias pour s’informer. Matúš Gocman/Unsplash, CC BY

Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.


La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.

Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.

Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.

En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.

Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.

Biais de communication

Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.

Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.

Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.

Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.

Les biais partent des données avec lesquelles ces modèles sont entraînés.

Ce que la régulation peut – et ne peut pas – faire

Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.

Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.

Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.

Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.

La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.

Aller au-delà de la régulation de l’IA

Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.

Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.

Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.

The Conversation

Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

11.01.2026 à 15:41

Après l’abattage de milliers de chevaux sauvages, le parc australien du Kosciuszko retrouve peu à peu ses paysages

David M Watson, Professor in Ecology, Charles Sturt University
Patrick Finnerty, Postdoctoral Research Fellow in Conservation and Wildlife Management, University of Sydney
img
Avec la campagne d’abattage des chevaux sauvages, les zones alpines fragiles ne sont plus piétinées par des sabots durs. Mais les paysages de Kosciuszko mettront des décennies à se rétablir.
Texte intégral (3521 mots)
Des brumbies, chevaux sauvages d’Australie, dans le parc national du Kosciuszko. Fourni par l'auteur, CC BY-ND

Dans le parc national du Kosciuszko, la diminution de la population de brumbies, les chevaux sauvages, ouvre une chance de restauration pour les écosystèmes fragiles du massif. Celles et ceux qui parcourent le parc au quotidien en voient déjà les premiers effets.


Dans le parc national du Kosciuszko, en pleines Alpes australiennes, le paysage évolue lentement. Des zones de végétation, autrefois rasées par les chevaux, repoussent. Les berges de ruisseaux, longtemps érodées, paraissent moins tassées sur les bords. Les visiteurs croisent aussi moins de chevaux immobiles sur les routes, ce qui représentait un réel danger pour la circulation.

En 2023, en effet, la Nouvelle-Galles du Sud a autorisé l’abattage aérien de chevaux sauvages dans le parc national du Kosciuszko. Et fin novembre, le gouvernement a adopté un projet de loi abrogeant le texte qui reconnaissait aux brumbies ou chevaux sauvages un « statut patrimonial » dans le parc (NDT : ces chevaux, arrivés d’Angleterre avec les premiers colons ont été au centre d’une bataille culturelle culturelle ces dernières années).

Ce changement a supprimé les protections juridiques dont bénéficiaient les chevaux dans le parc, qui les distinguaient des autres espèces introduites comme les cerfs, les porcs, les renards et les lapins. Désormais, ils sont traités en Australie de la même manière que les autres espèces invasives, rétablissant une cohérence dans la gestion de leur impact sur les paysages.

La dernière enquête estime qu’environ 3 000 chevaux subsistent dans le parc national du Kosciuszko, contre quelque 17 000 il y a un an. Plus de 9 000 chevaux ont été abattus depuis 2021.

Le plan de gestion actuellement en vigueur prévoit de conserver 3 000 de ces chevaux, un compromis entre protection des écosystèmes et sauvegarde de la valeur patrimoniale de ces animaux. Il doit s’appliquer jusqu’à la mi-2027.

Quels sont les effets environnementaux de la réduction du nombre de chevaux à Kosciuszko ? Et à quoi le parc pourrait-il ressembler à l’avenir ?

Un étalon se tenant dans une tourbière alpine à sphaignes
Un étalon se tenant dans une tourbière alpine à sphaignes. Fourni par l’auteur, CC BY-ND

Les dégâts

Depuis des décennies, les chevaux sauvages constituent une source majeure de dégradations écologiques dans les paysages alpins du Kosciuszko. Leur impact dans ces milieux d’altitude fragiles s’est particulièrement accru au cours de la dernière décennie, période pendant laquelle leur population a augmenté de manière incontrôlée.

Des études empiriques et des analyses d’images satellites montrent que les brumbies réduisent la couverture végétale, dégradent la structure des sols et endommagent les berges des cours d’eau, les tourbières et les marais alpins – des sols riches en carbone formés sur des dizaines de milliers d’années.

Une partie de ces dégâts résulte de leur alimentation, fondée sur des graminées et des plantes herbacées alpines à croissance lente. Un cheval consomme généralement l’équivalent de 2 % de sa masse corporelle par jour, soit environ 8 kilogrammes quotidiens. À titre de comparaison, le plus grand herbivore indigène des hauts plateaux, le kangourou gris de l’Est, consomme environ 600 grammes par jour, c’est 13 fois moins.

Mais l’essentiel des dégâts est causé par leurs sabots. Les chevaux sauvages parcourent jusqu’à 50 kilomètres par jour, et leurs sabots durs écrasent les couches de mousses à sphaignes, compactant en profondeur les sols tourbeux. Ces plantes et ces sols fonctionnent normalement comme des éponges à restitution lente, stockant l’eau de fonte des neiges et alimentant les cours d’eau tout au long de l’été. Et contrairement aux wombats, aux kangourous et à d’autres espèces indigènes, les chevaux sauvages se déplacent en file indienne, traçant de profonds sentiers qui quadrillent les prairies alpines et les assèchent.

Ces transformations affectent l’ensemble de l’écosystème. Les scinques alpins, les rats à dents larges, les grenouilles corroboree, les phalangers pygmées des montagnes et les poissons indigènes dépendent tous d’une végétation dense, de tapis de mousse intacts ou de cours d’eau exempts de sédiments – soit précisément les éléments que les chevaux dégradent.

Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko
Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND

Les cours d’eau ont été particulièrement touchés. Les Alpes australiennes fournissent près d’un tiers des eaux de surface qui alimentent le bassin Murray-Darling (NDT : le plus vaste bassin hydrographique d’Australie), mais le piétinement des chevaux le long des cours d’eau trouble des rivières jusque-là limpides et déstabilise les apports lents et réguliers dont dépendent ces bassins versants.

Ces impacts ne se limitent pas au parc. Ces dernières années, de nombreux chevaux ont gagné des zones voisines, notamment des forêts domaniales, où leurs perturbations s’ajoutent aux effets de l’exploitation forestière commerciale et mettent en danger les visiteurs et les campeurs.

Si l’attention s’est surtout concentrée sur les effets des brumbies au Kosciuszko et, plus largement, dans les écosystèmes alpins, près d’un demi-million de chevaux sauvages affectent les paysages à l’échelle de toute l’Australie, les forêts tropicales claires et les zones semi-arides étant les plus durement touchées.

Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux
Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux. Fourni par l’auteur, CC BY-ND

Ce que nous avons observé jusqu’à présent

Nous avons passé beaucoup de temps dans le parc au cours de l’année écoulée et avons commencé à remarquer de petits changements dans les hauts plateaux, cohérents avec ce que l’on pourrait attendre du programme de contrôle des animaux sauvages.

Nous voyons moins de chevaux lors de nos journées sur le terrain. Dans les zones régulièrement piétinées, de petites poches de végétation réapparaissent sur les surfaces dénudées. Même certaines berges, érodées de longue date, paraissent plus souples sur les bords.

Ces observations restent strictement anecdotiques et ne constituent pas des preuves formelles. Mais elles suggèrent un paysage qui commence à se « réoxygéner » à mesure que la pression diminue. Il y a aussi un aspect sécuritaire. Quiconque circule sur les routes alpines connaît la surprise, au sortir d’un virage dans les eucalyptus, de se retrouver nez à nez avec un cheval, voire un troupeau, sur le bitume. Moins de chevaux signifie moins de ces rencontres dangereuses pour les chercheurs, le personnel des parcs nationaux et les visiteurs.

Le retour progressif

Avec beaucoup moins de chevaux dans les hauts plateaux, la pression commence à diminuer. À mesure que le piétinement diminue, les tourbières et les marais devraient commencer à se régénérer et à retenir l’eau plus longtemps. Les tapis de mousse repousseront et d’autres plantes productrices de tourbe pourront s’implanter à nouveau dans des sols qui ne sont plus constamment compactés et surpâturés.

Moins de pâturage signifie également que les herbes alpines, les carex et les graminées des neiges retrouveront de l’espace pour se développer. Les sols nus vont se stabiliser, les berges des cours d’eau se rétablir et les lits des ruisseaux commencer à se dégager.

Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko
Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND

Ces améliorations se répercutent sur l’ensemble de l’écosystème : des sols plus stables et une végétation plus dense créent un habitat plus favorable aux grenouilles, aux scinques, aux petits mammifères et aux invertébrés qui dépendent d’environnements alpins frais, humides et structurés.

La récupération prendra du temps – des décennies, et non des mois. Des études empiriques à long terme seront indispensables pour suivre les changements et identifier les zones du parc où des efforts de restauration ciblés seront nécessaires pour accélérer le rétablissement.

Enfin, une vraie chance

Rien de tout cela ne se produira en un claquement de doigts. Les écosystèmes alpins se régénèrent lentement, et des décennies de dégâts ne peuvent pas être effacées du jour au lendemain. Les courtes saisons de croissance font que les plantes repoussent progressivement, et non par à-coups. De nombreuses pentes et berges de ruisseaux portent encore les cicatrices du pâturage bovin plus de 60 ans après le départ du bétail. Les perturbations perdurent ici pendant des générations.

La diminution du nombre de chevaux n’est qu’un début, mais c’est une étape essentielle. Et désormais – avec moins de chevaux sur le terrain et la suppression des barrières légales – le parc du Kosciuszko dispose enfin d’une voie réaliste vers la restauration. La prochaine décennie déterminera combien de son fragile patrimoine alpin pourra finalement être retrouvé.

Le fragile écosystème alpin du parc national de Kosciuszko
Le fragile écosystème alpin du parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND
The Conversation

David M. Watson reçoit des financements de recherche du gouvernement fédéral (via l’ARC, le DAFF, le DCCEEW) et siège aux conseils d’administration du Holbrook Landcare Network et des Great Eastern Ranges. Il a exercé deux mandats au sein du Comité scientifique des espèces menacées de la Nouvelle-Galles du Sud, avant de démissionner lorsque la Wild Horse Heritage Act est entrée en vigueur en juin 2018.

Patrick Finnerty est actuellement directeur pour les carrières émergentes en écologie à l’Ecological Society of Australia, coordinateur des jeunes chercheurs à l’Australasian Wildlife Management Society, et membre du conseil de la Royal Zoological Society of NSW. Il reçoit des financements de l’Australian Research Council.

11.01.2026 à 15:40

Cinq pistes pour éviter les clichés sur l’apprentissage et aider les élèves à progresser

Jerrid Kruse, Professor of Science Education, Drake University
img
Apprendre, c’est comprendre. Cela demande des efforts et du temps. Il est important que les élèves en soient conscients pour progresser.
Texte intégral (2351 mots)

C’est pour apprendre que les élèves se rendent chaque jour en classe. Mais savent-ils bien toujours ce que cela signifie réellement ? Les fausses croyances sur la manière dont on acquiert des connaissances sont nombreuses, et elles peuvent compliquer la tâche des enfants et des adolescents. Quelques pistes pour les aider à réajuster leurs méthodes de travail et augmenter leurs chances de réussite.


Au cours de mes années d’enseignement des sciences au collège, au lycée et à l’université, j’ai constaté que certains de mes élèves résistaient à l’exercice de ce que les pédagogues appellent la pensée de haut niveau, incluant l’analyse, la pensée créative et critique, et la résolution de problèmes.

Par exemple, lorsque je leur ai demandé de tirer des conclusions à partir de données ou de mettre au point un protocole pour tester une idée, certains élèves ont répondu : « Pourquoi ne nous dites-vous pas quoi faire ? » ou « N’est-ce pas le rôle de l’enseignant que de nous donner les bonnes réponses ? »

En d’autres termes, mes élèves avaient développé une forte idée préconçue selon laquelle le savoir provient de l’autorité. Après enquête, mes collègues et moi-même avons conclu que ces croyances sur l’apprentissage influençaient leur approche de nos cours, et donc ce qu’ils étaient capables d’apprendre.

Tous les élèves arrivent en classe avec des croyances diverses sur ce que signifie apprendre. Dans le domaine de l’éducation, la croyance la plus recherchée est peut-être ce que nous appelons avoir un état d’esprit de croissance. Les élèves ayant un état d’esprit de croissance croient qu’ils peuvent s’améliorer et continuer à apprendre. En revanche, les élèves ayant un état d’esprit fixe ont du mal à croire qu’ils peuvent approfondir leurs connaissances sur le sujet qu’ils étudient. Lorsque les élèves disent « Je suis nul en maths », ils font preuve d’un état d’esprit fixe.


À lire aussi : À l’école, ce que les élèves pensent de leur intelligence influence leurs résultats


En tant qu’enseignants, nous essayons non seulement d’aider les élèves à comprendre le sujet traité, mais nous cherchons également à leur inculquer des croyances justes sur l’apprentissage afin que rien ne vienne entraver leur capacité à assimiler de nouvelles informations.

Outre l’état d’esprit de croissance, je soutiens que cinq autres croyances sont particulièrement importantes à promouvoir dans les salles de classe afin d’aider les élèves à mieux apprendre et à mieux se préparer au monde moderne.

Apprendre, c’est comprendre

Certains élèves et enseignants assimilent l’apprentissage à la mémorisation.

Si la mémorisation joue un rôle dans l’apprentissage, l’apprentissage approfondi repose quant à lui sur la compréhension. Les élèves ont tout intérêt à reconnaître que l’apprentissage consiste à expliquer et à relier des concepts entre eux pour leur donner un sens.

Se concentrer trop sur la mémorisation peut masquer des lacunes.

a young girl sitting at a desk buries her forehead in a textbook
Apprendre, c’est un processus difficile. demaerre/iStock via Getty Images

Par exemple, je travaillais un jour avec un élève de maternelle qui m’a fièrement montré qu’il savait réciter les chiffres de 1 à 20. Je lui ai alors demandé de compter les crayons sur le bureau. L’élève n’a pas compris ma demande. Il n’avait pas fait le lien entre ces nouveaux mots et le concept des chiffres.

Pour aider les élèves à reconnaître l’importance de la compréhension dans l’apprentissage, les enseignants et les parents peuvent leur poser des questions telles que « Pourquoi est-il préférable de relier une nouvelle idée à une ancienne idée plutôt que d’essayer simplement de mémoriser la réponse ? » ou « Pourquoi une explication est-elle plus utile qu’une simple réponse ? »

Apprendre est un défi

La conviction des élèves selon laquelle l’apprentissage s’apparente à la mémorisation peut refléter une croyance connexe selon laquelle la connaissance est simple et l’apprentissage devrait être facile.

Au contraire, les éducateurs veulent que les élèves acceptent la complexité et les défis qu’elle comporte. En se confrontant aux nuances et à la complexité, les élèves fournissent l’effort mental nécessaire pour former et renforcer de nouvelles connexions dans leur pensée.

Lorsque les élèves pensent que les connaissances sont simples et que l’apprentissage devrait être facile, leur engagement dans la réflexion de haut niveau, nécessaire pour appréhender la complexité et les nuances, en pâtit.

Pour aider les élèves en difficulté à saisir une idée complexe, les enseignants et les parents peuvent leur poser des questions qui les aident à comprendre pourquoi l’apprentissage est complexe et nécessite des efforts.

Apprendre prend du temps

Lorsque les élèves pensent que l’apprentissage est simple et facile, les enseignants ne devraient pas s’étonner qu’ils pensent également que l’apprentissage doit être rapide.

Au contraire, les élèves doivent comprendre que l’apprentissage approfondi prend du temps. Si les élèves pensent que l’apprentissage est rapide, ils sont moins enclins à rechercher des défis, à explorer les nuances ou à réfléchir et à établir des liens entre les idées. Malheureusement, de nombreux programmes scolaires condensent tellement d’objectifs d’apprentissage en un laps de temps très court que la croyance en un apprentissage rapide est subtilement renforcée.

Si les enseignants peuvent faire preuve de créativité dans l’utilisation du matériel pédagogique et consacrer plus de temps à inciter les élèves à explorer la complexité et à établir des liens, le simple fait de passer plus de temps sur un concept peut ne pas suffire à changer les convictions des élèves en matière d’apprentissage.

a man stands facing away from the camera toward students at row desks
L’apprentissage ne se fait pas uniquement auprès des enseignants. Drazen Zigic/iStock via Getty Images

Pour aider les élèves à changer leur façon de penser, je leur demande de discuter de questions telles que « Pourquoi pensez-vous que la compréhension de concepts complexes prend autant de temps ? » ou « Pourquoi une seule leçon ne suffirait-elle pas pour couvrir ce concept ? » Grâce à ces questions, mes collègues et moi avons constaté que les élèves commencent à reconnaître que l’apprentissage approfondi est lent et prend du temps.

L’apprentissage est un processus continu

Les étudiants doivent également comprendre que l’apprentissage n’a pas de fin.

Malheureusement, beaucoup d’étudiants considèrent l’apprentissage comme une destination plutôt que comme un processus continu. Or, comme la connaissance comporte un degré inhérent d’incertitude et qu’un apprentissage accru révèle souvent une complexité accrue, l’apprentissage doit être continu.

Pour aider les élèves à s’interroger sur cette conviction, les enseignants et les parents pourraient leur poser les questions suivantes : « Comment pensez-vous que vos connaissances ont évolué au fil du temps ? » et « Comment pensez-vous que votre apprentissage va évoluer à l’avenir ? »

L’apprentissage ne se fait pas uniquement auprès des enseignants

Je me souviens qu’un lycéen m’avait dit : « Les enseignants sont censés nous donner les réponses pour que nous sachions quoi écrire à l’examen. »

Cet élève avait apparemment compris les « règles du jeu » et n’était pas content lorsque son professeur essayait de l’inciter à réfléchir de manière plus approfondie. Il s’accrochait à un modèle d’apprentissage par transmission, reposant sur des figures d’autorité.

Au contraire, les élèves doivent comprendre que l’apprentissage provient de nombreuses sources, notamment de leurs expériences, de leurs pairs et de leur propre réflexion, autant que de figures d’autorité.

Même si les enseignants et les parents peuvent hésiter à remettre en cause leur propre autorité, ils rendent un mauvais service aux élèves lorsqu’ils ne les préparent pas à remettre en question les figures d’autorité et à aller au-delà.

Pour aider les élèves à changer leur façon de penser, les enseignants peuvent leur demander de réfléchir à la question suivante : « Pourquoi le fait d’apprendre à partir de sources multiples peut-il vous aider à mieux comprendre la complexité et les nuances d’un concept ? »

Changer nos croyances sur l’apprentissage

Souvent, les enseignants et les parents pensent que les occasions de faire appel à un raisonnement de haut niveau suffisent à aider leurs élèves à développer de meilleures croyances concernant l’apprentissage.

Mais de telles croyances nécessitent une attention explicite et doivent être prévues dans les cours. Pour ce faire, il convient de poser des questions ciblant des croyances spécifiques, telles que celles mentionnées dans la chacune des sections précédentes.

Les conversations que j’ai pu avoir par ce biais avec les élèves étaient très intéressantes. De plus, aider les enfants à développer des croyances plus solides sur l’apprentissage est peut-être la chose la plus importante que les enseignants puissent faire pour les préparer à l’avenir.

The Conversation

Jerrid Kruse a reçu des financements de la National Science Foundation, du NASA Iowa Space Grant Consortium et de la William G. Stowe Foundation.

50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview