LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 50 dernières parutions

22.01.2026 à 15:59

Apprendre à varier son alimentation : écouter les émotions des enfants, un enjeu central

Aurélie Maurice, Maîtresse de conférences en Sciences de l'Éducation et de la Formation, Université Sorbonne Paris Nord

S’alimenter est un acte complexe, croisant psychologie, culture et physiologie. Que nous dit la recherche sur la façon d’aider les enfants au quotidien à élargir leur répertoire alimentaire ?
Texte intégral (1336 mots)

Se nourrir est un acte complexe, croisant psychologie, culture et physiologie. Dès lors, comment s’y prendre, en tant que parent ou éducateur, pour aider les enfants à former leur goût et élargir leur répertoire alimentaire ? La recherche donne quelques pistes pour mieux tenir compte de la place des émotions dans le rapport à la nourriture.


L’éducation à l’alimentation des jeunes est au cœur des politiques publiques : elle est l’un des objectifs du Programme national nutrition santé (PNNS) et l’un des axes du Programme national pour l’alimentation (PNA). De plus, un Vademecum sur l’éducation à l’alimentation et au goût a récemment émané de l’éducation nationale. Plusieurs membres de l’Assemblée nationale organisent aussi depuis quelques années des « états généraux » sur le sujet.

Les derniers états généraux d’octobre 2025 ont conduit à une proposition de loi d’expérimentation pour l’instauration d’un enseignement d’éducation à l’alimentation obligatoire à l’école.


À lire aussi : Comment peut-on repenser l’éducation à l’alimentation ?


Alors que l’éducation à l’alimentation s’est longtemps heurtée à des limites, notamment face aux inégalités sociales de santé, de nouvelles approches apparaissent : citons l’approche tridimensionnelle qui intègre les dimensions « nutritionnelle », « psycho-sensorielle et comportementale » et « socio-environnementale ». L’approche hédonique, elle, privilégie le plaisir alimentaire avec trois leviers d’actions : l’exposition sensorielle répétée aux aliments, les interactions sociales lors des prises alimentaires et les croyances sur les aliments.

Si ces démarches mettent en avant l’importance des émotions, comment, concrètement, les prendre en compte au quotidien, lors de repas ou de séances de découverte, que l’on soit parent, acteur ou actrice de l’éducation ?

Veiller au contexte des repas

S’alimenter est un acte complexe, car multidimensionnel : physiologie, sociabilité, identité culturelle et psychologie s’entremêlent. S’alimenter, c’est aussi ressentir toute une palette d’émotions : la joie, le dégoût, la peur… Celles-ci sont pour l’instant peu prises en compte globalement dans les séances d’éducation à l’alimentation. C’est le cas néanmoins dans l’éducation au goût, qui cherche à reconnecter les jeunes avec leurs sens.

Marie Jaunet, Sylvie Delaroche-Houot et moi-même avons mené une revue de la littérature scientifique afin d’explorer comment les émotions peuvent être mobilisées dans le champ de l’éducation à l’alimentation et quels en sont les bénéfices. Cette revue a été effectuée sur 30 articles publiés entre 2005 et 2022, dont 90 % en anglais, provenant principalement d’Amérique du Nord et d’Europe occidentale.

Cette revue montre que les émotions des jeunes sont bel et bien à prendre en compte, et ce, pour plusieurs raisons. Tout d’abord, il apparaît que la composition nutritionnelle des aliments a un impact sur ces émotions. Un repas suffisamment varié et correspondant bien aux besoins nutritionnels des enfants diminuerait les émotions négatives, comme la tristesse ou l’anxiété.

Ensuite, l’importance d’être attentif à ses cinq sens quand on se nourrit est soulignée, notamment, par des études sur l’alimentation consciente chez les enfants. Créer un environnement positif pendant les repas, c’est-à-dire faire du moment du repas un moment joyeux, ludique et apaisant, favorise une prise alimentaire diversifiée et en quantité suffisante de la part des enfants. Cette attention portée à la qualité de l’ambiance des repas est d’autant plus bénéfique qu’elle est travaillée tant à la maison qu’à l’école.

En obligeant les enfants à finir leurs assiettes, ou en se servant de l’alimentation comme d’une récompense ou d’un élément de chantage, certains parents peuvent favoriser le développement d’une « alimentation émotionnelle » chez leurs enfants. Cela peut conduire à un surpoids à moyen et long terme.

Favoriser l’empathie

Un groupe d’experts est arrivé à une classification des styles éducatifs parentaux sur l’alimentation qui en distingue trois types : coercitif (fondé sur la pression, les menaces et les récompenses), structuré (donnant des règles qui encadrent les prises alimentaires) et favorisant l’autonomie (donnant les clés à l’enfant pour qu’il fasse ses propres choix, dans un climat d’amour inconditionnel).

Ces trois grandes catégories conduisent à des états émotionnels très différents, allant de la peur à la joie, et à des pratiques alimentaires enfantines très contrastées (se cacher pour manger des aliments interdits, se restreindre de manière autonome).

Le repas familial peut être un moment propice au partage et à l’écoute des émotions de l’enfant. Aux États-Unis apparaît depuis plusieurs décennies un terme, « parent responsiveness », qui pourrait être traduit par « réactivité parentale », à savoir une attitude empathique des parents, apportant une réponse adaptée aux émotions exprimées par leurs enfants et aux besoins sous-jacents.

Plusieurs chercheurs ont proposé d’adapter ce concept à l’alimentation, et parlent de « responsive feeding » ou « réactivité alimentaire ». Il s’agit de soigner le temps du repas, d’en faire un moment pendant lequel l’enfant se sent à l’aise et en confiance. Le parent cherche à être attentif aux sensations de faim et de satiété de son enfant, à lui répondre rapidement, de façon appropriée, en fonction de l’émotion qu’il exprime et de son stade de développement.

Enfin, les articles étudiés dans la revue de littérature font état de plusieurs outils conçus pour aider les enfants à s’exprimer autour de l’alimentation et à nommer leurs émotions.

Cette revue montre qu’il faut prendre en compte les différentes dimensions de l’acte alimentaire, tel que l’environnement dans lequel l’aliment est consommé. Un climat bienveillant et joyeux apparaît plus propice aux nouvelles expériences gustatives, alors que, si l’enfant se sent contraint, voire angoissé, les conditions ne sont pas réunies pour qu’il découvre de nouveaux aliments ou accepte de manger des légumes, par exemple.

La politique publique des mille premiers jours de l’enfant recommande des activités conjointes parents/enfant, sources d’émotions positives dans lesquelles l’alimentation a toute sa place. Il apparaît donc que la formation tant des parents que des enseignants, des personnels du périscolaire et des autres professionnels éducateurs est essentielle pour développer la capacité d’autorégulation et d’ouverture des jeunes dans leur alimentation.

The Conversation

Aurélie Maurice a reçu des financements de l'ANR pour le projet ERMES qu'elle coordonne.

PDF

22.01.2026 à 15:56

Les « actions cachées » : quand des régions du cerveau liées à la motricité s’activent… alors qu’on ne bouge pas

Carol Madden-Lombardi, Chargée de recherche, Université Bourgogne Europe

Florent Lebon, Professeur des Universités en Neurosciences cognitives et comportementales, Université Claude Bernard Lyon 1

Dans les « actions cachées », des régions cérébrales liées à la motricité sont engagées alors qu’on reste immobile. Ce qui pourrait ouvrir des perspectives dans le sport ou la rééducation après blessure.
Texte intégral (1514 mots)

Les « actions cachées » engagent des régions cérébrales liées à la motricité alors qu’on reste immobile. Cette plasticité des neurones, qui renforce les liens entre le cerveau et les muscles, n’a pas encore livré tous ses secrets. Mais ces processus cognitifs pourraient, dans le futur, se révéler précieux pour optimiser des gestes sportifs ou encore favoriser la rééducation après une blessure.


En bout de piste, un sauteur en longueur se prépare pour son dernier essai. La médaille est en jeu. Avant de s’élancer, il répète mentalement sa course d’élan, les premières foulées, l’accélération, l’impulsion et la réception dans le sable. Il rouvre les yeux, et c’est parti !

Une jeune joueuse de volley-ball assiste à un match de son équipe préférée. Elle observe la posture des joueuses en attaque et en défense, la manière dont elles se déplacent. Elle comprend la tactique annoncée et s’attend à ce que son équipe marque. Elle apprend en observant !

L’être humain possède l’extraordinaire capacité d’imaginer ses propres mouvements, de comprendre les actions d’autrui par la simple observation, ou encore de communiquer et transmettre ses actions par l’écriture et la lecture.

Activation du cerveau sans bouger

Tous ces processus cognitifs engagent des régions cérébrales liées à la motricité, alors même que l’on ne bouge pas. Ils peuvent être identifiés sous le terme d’« actions cachées ». Même si on est immobile, certaines parties de notre cerveau, normalement actives pendant nos actions, le sont également pendant les actions cachées, telles que l’imagerie motrice, l’observation d’action ou encore le langage d’action.

L’imagerie motrice correspond au fait de se représenter mentalement, de façon consciente, un mouvement, sans l’exécuter physiquement. Les modalités basées sur les sens permettent de se représenter une action. Les deux principales sont le visuel (« se voir » en train de faire l’action) et le kinesthésique (« ressentir » les sensations associées au mouvement). L’observation d’action, elle, consiste à sélectionner les informations pertinentes d’une action en train de se réaliser, et d’en comprendre les intentions.

Enfin, dans ce contexte, le langage d’action fait référence à la lecture, silencieuse ou non, de verbes évoquant une action, tels que « serrer », « prendre », « sauter ». Ces verbes isolés peuvent être enrichis par un contexte (« je vois une orange sur la table, je la prends ») afin d’activer d’autant plus le système moteur lié à cette action.

Les outils technologiques actuels nous permettent de « voir » à l’intérieur de notre cerveau. On parle alors d’imagerie par résonance magnétique (IRM) ou de stimulation magnétique transcrânienne (TMS).

La découverte des neurones miroirs

Rappelons qu’une grande étape dans la compréhension des actions cachées a été la découverte des neurones miroirs. Une équipe italienne, menée par Rizzolatti, a enregistrée dans le cerveau de singes, l’activité de neurones qui déchargeaient non seulement lorsque le singe exécutait une action de préhension d’un objet, mais aussi lorsqu’il observait l’expérimentateur saisir cet objet – une découverte accidentelle mais révolutionnaire.

Les actions cachées activent ainsi un réseau complexe au sein du cerveau, montrant l’interaction entre plusieurs régions, telles que le cortex moteur primaire (de là où partent nos commandes motrices), le cortex occipital (là où sont traitées les informations visuelles) ou encore le cortex pariétal (là où sont traitées les informations sensorielles).

La majorité des personnes peuvent ainsi recréer mentalement leur dernier lieu de vacances au soleil, avec plus ou moins de détails, et s’imaginer courir sur la plage (pour exception, voir l’article sur l’aphantasie).

On dit alors que les processus cognitifs associés à nos actions sont incarnés dans notre cerveau (théories de la cognition incarnée). Il n’est pas nécessaire de bouger pour activer le réseau de la motricité. La simulation mentale nous permettrait de planifier nos propres actions, de comprendre les actions d’autrui, de juger les conséquences des actions ou encore de comprendre plus facilement un récit impliquant des actions.

Même si cette simulation n’est pas explicite (c’est-à-dire qu’on ne crée pas volontairement d’images dans notre tête, et on n’en est peut-être même pas conscient), elle optimiserait notre imagerie et la compréhension des actions (par l’observation et le langage).

Des actions cachées pour renforcer les liens entre cerveau et muscles

Ces différents types d’actions cachées peuvent être utilisées de manière très pratique pour apprendre un nouveau morceau de musique, optimiser son geste sportif ou encore récupérer à la suite d’une blessure ou d’une pathologie, sans risquer d’accident ni de fatigue.

Une des études pionnières est celle de Yue et Cole, en 1992. Par le simple fait d’imaginer des contractions de la main, tel un entraînement à raison de quatre séances par semaine pendant quatre semaines, les participants ont réussi à augmenter leur force de 22 %. La plasticité cérébrale rentre en jeu pour renforcer les réseaux neuronaux normalement impliqués dans l’action. Plus je répète mentalement, plus j’entraîne mon cerveau : je renforce les liens entre le cerveau et les muscles.

Des perspectives pour, demain, favoriser l’apprentissage ou la rééducation

Se représenter mentalement des mouvements peut également améliorer d’autres capacités, comportementale ou cognitive. Une récente étude montre qu’imaginer des actions simples (écrire, lancer, remplir une tasse, etc.) peut améliorer la performance à des tâches de compréhension du langage, en facilitation l’accès lexico-sémantique.

À l’heure actuelle, les chercheurs s’attachent à mieux comprendre les liens entre les différents types d’actions cachées et à optimiser leur utilisation. Dans des études encore en cours, ils testent, par exemple, la combinaison de ces actions cachées dans le but de favoriser d’autant plus l’apprentissage et la rééducation. Il est possible de combiner l’observation d’un adversaire au tennis et d’imaginer le coup approprié pour gagner le point. Ou bien il est envisageable de lire des verbes d’actions avant d’imaginer un mouvement de force pour en booster les effets.

L’enjeu est alors de trouver le bon dosage entre les différentes pratiques, pour éviter la fatigue mentale, tout en observant des effets positifs.

Il est à noter que ces différents types d’actions cachées restent distincts. Ils restent encore des zones d’ombre pour comprendre leur interaction potentielle et favoriser ainsi leur utilisation seule ou combinée.

Le cerveau a encore des choses à nous dévoiler.


Les projets « Interaction entre Langage et Imagerie motrice pour améliorer l’apprentissage moteur et la compréhension du langage » – LAMI – et « Explorer les marqueurs neuronaux et fonctionnels des actions cachées à travers le prisme de la phantasie » – COVACT – sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Florent Lebon a reçu des financements de l'agence nationale de la recherche.

Carol Madden-Lombardi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

22.01.2026 à 15:56

Face aux attaques contre la science, l’importance d’inscrire la liberté académique dans la Constitution belge

Édouard Delruelle, Professeur de Philosophie politique, Université de Liège

L’inscription de la liberté académique dans la Constitution belge permettrait d’ouvrir un débat démocratique sur l’avenir de la recherche et de l’université.
Texte intégral (2491 mots)

Dans le cadre de notre émission consacrée à la défense de la liberté académique, diffusée vendredi 23 janvier, nous publions cet article initialement paru dans le Quinzième jour, le quadrimestriel de l’Université de Liège. Édouard Delruelle y développe un plaidoyer en faveur de l’inscription de la liberté académique dans la Constitution belge comme une étape pour ouvrir un débat démocratique sur le sujet.


En septembre dernier, l’Université de Berkeley, temple historique de la liberté de pensée, a accepté de livrer à l’administration Trump une liste d’étudiants et de professeurs suspectés d’« antisémitisme » en raison de leur engagement en faveur de la cause palestinienne.

Dans cette liste figure la philosophe Judith Butler, docteure honoris causa de l’université de Liège. Qui aurait imaginé, il y a un an à peine, que les universités les plus performantes et les plus prestigieuses au monde seraient l’objet d’attaques aussi violentes de la part du pouvoir politique, et qu’elles céderaient si prestement à ses intimidations et injonctions ? Que des programmes de recherche essentiels pour l’avenir de l’humanité dans les domaines de la santé ou du climat seraient démantelés ? Que les chercheurs en sciences humaines et sociales devraient bannir de leur vocabulaire des termes tels que diversité, égalité, inclusion ?

En Belgique, des coupes et des inquiétudes

Pourtant, nous avions tort de penser que ces atteintes brutales à la liberté académique ne pouvaient avoir cours que dans les régimes autoritaires. Cela fait plusieurs années que l’Academic Freedom Index enregistre une dégradation de la liberté académique en Europe. Intrusion du management dans la gouvernance universitaire, culture de la « post-vérité » sur les réseaux sociaux, ciblage d’intellectuels critiques par l’extrême droite, stigmatisation d’un prétendu « wokisme » que propageraient les études de genre, décoloniales ou LGBTQIA+ : ces offensives ne sont pas neuves, et elles touchent aussi la Belgique.

Mais un coup d’accélérateur a indéniablement été donné en 2025, avec les coupes budgétaires dans la recherche décidées par le gouvernement de la Fédération Wallonie-Bruxelles, une réforme drastique des retraites des Académiques, avant d’autres mesures annoncées sur le précompte chercheur ou le statut de fonctionnaire. Les mouvements Stand Up for Science au niveau mondial, ou « Université en Colère » chez nous, témoignent de l’inquiétude de la communauté universitaire face aux menaces qui pèsent sur la liberté académique.

De nombreuses menaces

Ces menaces sont multiples. On peut schématiquement en identifier quatre :

  1. les menaces politiques provenant de gouvernements et de mouvements politiques déterminés à contrôler idéologiquement la production et la diffusion des connaissances ;

  2. celles que font peser sur la science la logique économique de marché
    – rentabilité, compétitivité, privatisation de la recherche, avec comme conséquences, entre autres, la précarisation grandissante des chercheurs et le découplage de l’excellence scientifique et de la liberté académique ;

  3. l’emprise des technologies du numérique et leur l’impact sur la propriété intellectuelle, l’autonomie pédagogique, l’esprit critique ou la créativité (fake news, IA mobilisée à des fins de propagande, intrusion des réseaux sociaux dans les débats académiques, etc.) ;

  4. la propagation d’un « sciento-populisme » au sein d’une opinion publique de plus en plus polarisée et critique à l’égard des élites (intellectuelles, judiciaires, journalistiques, etc.).

Ces menaces se conjuguent le plus souvent : la censure politique d’un Trump s’exerce par la pression économique, la Tech numérique délégitime la science auprès des internautes, les impératifs financiers justifient la mise au ban des savoirs critiques. Aucun domaine de recherche n’est épargné : les sciences humaines et sociales sont attaquées en raison de leur prétendue dangerosité idéologique ou de leur inutilité économique présumée mais les STEM (sciences, technologie, ingénierie, mathématiques) sont aussi menacées d’être instrumentalisées comme simples vecteurs de puissance géopolitique, comme c’est déjà le cas en Russie ou en Chine.

La recherche en plein « warscape »

La recherche scientifique évolue dorénavant dans un « warscape », c’est-à-dire un espace traversé par la violence politique, sociale et économique, et où les rapports de pouvoir et de savoir sont complètement reconfigurés. Trois modalités de ces rapports se dégagent :

  1. la guerre contre la science menée par ceux qui veulent la destruction de l’autonomie des universités et de la libre recherche (en même temps que celle de la démocratie) ;

  2. la guerre dans la science, du fait des fractures au sein de la communauté universitaire elle-même autour de questions controversées telles que le colonialisme, le conflit israélo-palestinien, le transgenrisme, etc. ;

  3. la science face à la guerre, qui soulève la question des collaborations « à risques », notamment avec l’industrie de l’armement ou avec des partenaires internationaux potentiellement impliqués dans des violations du droit humanitaire – question très polarisante, comme l’a montré à l’ULiège la polémique autour de la chaire Thalès.

Une culture citoyenne

C’est dans cette perspective que la liberté académique, j’en suis convaincu, doit être défendue et protégée, non par corporatisme, mais parce qu’elle est la condition de tout développement scientifique comme de tout État de droit et de toute démocratie.

Telle est aussi la conclusion du remarquable rapport publié récemment par Sophie Balme pour France Universités, qui propose une “stratégie globale” de renforcement de la liberté académique en 65 propositions. Comment créer une véritable culture professionnelle, politique et surtout citoyenne autour de la liberté de recherche et d’enseignement ? Une culture citoyenne surtout, car l’une des raisons pour lesquelles Trump peut attaquer si brutalement les universités est l’hostilité d’une grande partie de l’opinion publique américaine à l’égard d’un monde universitaire jugé arrogant, coupé des réalités et entretenant un système de reproduction sociale financièrement inaccessible au plus grand nombre. Nous devons éviter de nous retrouver dans cette situation.

La première des 65 propositions de Sophie Balme est d’inscrire la liberté académique dans la Constitution française. Pourquoi pas aussi en Belgique, qui suivrait ainsi l’exemple de l’Italie ou de l’Allemagne (dont on sait quelles tragédies historiques ont été à l’origine de leurs constitutions d’après-guerre) ? Ouvrons le débat.

Ouvrir un débat démocratique

Certains constitutionnalistes objecteront que si la liberté académique ne figure pas formellement dans le texte constitutionnel, elle est néanmoins explicitement reconnue par la jurisprudence de la Cour constitutionnelle et de la Cour européenne des droits de l’Homme, et qu’elle est en outre consacrée par la Charte des droits fondamentaux de l’Union européenne, un texte qui est au sommet de la pyramide normative et d’application directe dans notre droit national. D’un point de vue juridique, ma proposition serait comme un coup d’épée dans l’eau. On répondra toutefois que presque toutes les libertés fondamentales sont dupliquées aux deux niveaux normatifs, européen et national, ce qui renforce leur effectivité juridique et leur portée symbolique.

Mais surtout, le processus politique de révision de la Constitution qu’il faudra parcourir serait l’occasion d’une large mobilisation du monde académique et, espérons-le, de la société civile, et d’un débat démocratique autour de la liberté de recherche et d’enseignement. Ce débat obligerait les partis politiques à se positionner et à en tirer les conséquences sur les plans programmatique et législatif. Et il représenterait une belle opportunité de solidarité et d’échange entre acteurs et actrices de la recherche au nord et au sud du pays.

Une liberté spécifique et complexe

Ce débat serait surtout l’occasion de s’interroger sur la spécificité et la complexité de la liberté académique. Spécificité par rapport à la liberté d’expression, dont jouit tout citoyen et qui l’autorise à dire ce qu’il veut (hors des atteintes à la loi), y compris des choses idiotes et insignifiantes – ce dont un grand nombre ne se prive pas. Tandis que la liberté académique est un outil au service d’une finalité qui dépasse son bénéficiaire : la recherche de la vérité sans contraintes (une belle définition du philosophe Paul Ricœur sa « Préface » à Conceptions de l’université de J. Drèze et J. Debelle. Une finalité qui nous impose des devoirs (à commencer par celui de nous soumettre au jugement de nos pairs).

Complexité ensuite de la liberté académique, qui est multidimensionnelle, comme en témoignent les cinq critères utilisés par l’Academic Freedom Index : la liberté de recherche et d’enseignement, la liberté de collaborer, d’échanger et de diffuser les données et les connaissances, l’autonomie institutionnelle des universités, l’intégrité du campus à l’égard des forces de l’ordre mais aussi des groupes militants violents et enfin la liberté d’expression académique et culturelle, y compris sur des questions politiques ou sociétales.

De vrais enjeux se posent quant aux limites de chacune de ces libertés, et aux tensions qui peuvent exister entre elles, en particulier entre la liberté académique individuelle et l’autonomie des universités. Car pour garantir celle-là, celles-ci ne doivent-elles pas s’astreindre à une certaine « réserve institutionnelle » (un terme plus approprié que « neutralité ») sur les questions politiques ? Je le crois ; mais cette « réserve » est-elle encore de mise face à des violations caractérisées du droit international et du droit humanitaire ? C’est toute la complexité du débat autour des collaborations avec les universités israéliennes…

Résistance, nuance, responsabilité

Comment faire de nos universités des espaces à la fois ouverts sur le monde et préservés de la violence qu’il engendre ? Des espaces de résistance à l’obscurantisme abyssal qui gangrène nos sociétés, de nuance contre les simplismes idéologiques, de responsabilité à l’égard des immenses défis environnementaux, sociaux, géopolitiques dont dépend l’avenir de l’humanité ? Ce qui arrive aujourd’hui au monde de la recherche doit faire réfléchir chacun d’entre nous sur son ethos académique, sur le mode de subjectivation qu’implique un exercice sans réserve mais responsable de la liberté académique. Mais cette réflexion doit aussi être collective, autour d’un objectif mobilisateur. C’est ce que je propose.

La liberté académique dans la Constitution, ce n’est donc pas figer dans le marbre une vérité révélée, mais au contraire ouvrir le débat sur une liberté essentielle mais menacée, qui regarde tant les acteurs de la recherche que les citoyens qui en sont les destinataires finaux. Ce n’est pas non plus cantonner le débat au niveau belge, mais créer l’opportunité d’un mouvement à l’échelon européen, afin que la recherche y préserve son autonomie à l’heure où, en Chine et aux États-Unis (et ailleurs), elle est désormais sous contrôle politique. Sophie Balme propose ici aussi des pistes d’action pour l’Union européenne, en termes d’investissements mais aussi d’outils concrets de mesure et de promotion de la liberté académique. Et bien sûr, nous devons continuer à manifester notre solidarité envers les chercheurs inquiétés ou opprimés partout dans le monde.

Pour atteindre ces objectifs, je suggère une double stratégie, par « en haut » et par « en bas ». D’un côté, un engagement des rectrices et des recteurs du nord et du sud (via le CREF – Conseil des rectrices et recteurs francophones – et le VLIR – Vlaamse interuniversitaire raad), en nouant aussi des alliances par-delà les frontières. L’ULiège pourrait être le moteur d’un tel engagement, par la voix de la rectrice Anne-Sophie Nyssen. De l’autre côté, une mobilisation de nous tous, acteurs et actrices de la recherche, envers le monde politique et la société civile – une mobilisation qui prendrait la forme de pétitions, de colloques, de forums, mais aussi de production de savoirs qui manquent cruellement dans le domaine francophone (Notons malgré tout l’Observatoire des atteintes à la liberté académique).

En tous cas, il est grand temps d’agir si nous ne voulons pas plier demain, à notre tour, devant les apprentis Trump qui pullulent autour de nous.

The Conversation

Édouard Delruelle a reçu des financements du FNRS (Belgique) et de l'Université de Liège

PDF

22.01.2026 à 15:55

L’aide au développement sert aussi à sécuriser les chaînes d’approvisionnement des pays riches

Basak Bayramoglu, Directrice de recherche, Inrae

Jean-François Jacques, Professeur des Universités, Université Gustave Eiffel

Julie Lochard, Professeure des Universités en Économie, Université Paris-Est Créteil Val de Marne (UPEC)

Les pays riches attribuent plus d’aide au développement aux pays fournisseurs de biens intermédiaires qu’à d’autres pays, aux besoins similaires.
Texte intégral (1554 mots)

En théorie, le montant de l’aide au développement versé à tel ou tel pays ne devrait pas dépendre de sa contribution aux chaînes de valeur mondiales. Dans les faits, pourtant, on observe que les pays donateurs ont tendance à privilégier, quand ils aident financièrement des pays pauvres, ceux qui sont utiles à leur propre production…


Pourquoi certains pays reçoivent-ils davantage d’aide au développement que d’autres alors que leurs besoins sont comparables ? Les chercheurs s’interrogent sur cette question depuis des décennies. Nous savons déjà que les motivations des donateurs ne sont pas uniquement altruistes : elles incluent des considérations diplomatiques ou commerciales par exemple.

Dans un article récent, nous montrons que les chaînes de valeur mondiales — ces réseaux internationaux où les biens sont produits en plusieurs étapes dans différents pays — créent de nouvelles interdépendances entre pays et influencent l’allocation de l’aide.

Aide au développement bien ordonnée…

Depuis les années 1990, la production mondiale s’est largement fragmentée : composants électroniques, pièces automobiles, produits agricoles transformés… une multitude d’étapes de production sont désormais dispersées entre plusieurs pays. Les échanges liés à cette organisation de la production mondiale en chaînes de valeur représentent environ 50 % du commerce mondial.

Notre analyse empirique montre que les pays donateurs accordent davantage d’aide aux pays qui fournissent des biens intermédiaires utilisés dans leur production destinée à l’exportation. Autrement dit, l’aide n’est pas uniquement destinée aux pays dont les besoins sont les plus importants : elle se dirige aussi vers ceux qui occupent des positions clés dans les chaînes de valeur mondiales.

Les exportations des pays récipiendaires de l’aide jouent un rôle particulièrement important dans les secteurs caractérisés par des biens intermédiaires différenciés, difficiles à substituer : équipements électriques et machines, transport et pièces automobiles, industrie agroalimentaire. Les pays produisant ce type de biens reçoivent davantage d’aide, toutes choses égales par ailleurs. Ce résultat complète d’autres recherches montrant que les réserves en pétrole des pays récipiendaires influencent également l’allocation de l’aide.

Le poids des entreprises des pays donateurs

Nous observons aussi une hétérogénéité importante entre pays donateurs déjà mise en avant dans d’autres travaux : les grands pays exportateurs (France, Allemagne, Japon, Royaume-Uni, États-Unis, notamment) semblent allouer l’aide de manière plus stratégique, tandis que les pays considérés traditionnellement comme plus « altruistes » (Pays-Bas, Danemark, Suède…) semblent moins sensibles au fait que le pays récipiendaire soit exportateur de biens intermédiaires spécifiques.

Calculs des auteurs. Ce graphique représente l’effet de la valeur ajoutée provenant des biens intermédiaires des pays récipiendaires (Foreign Value Added, FVA) sur le montant d’aide bilatérale pour chaque pays donateur (moyennes et intervalles de confiance à 95 %). Cliquer pour zoomer. Fourni par l'auteur

Pour comprendre ces résultats, nous proposons une explication théorique.

Le pays donateur, situé en aval de la chaîne de valeur, dépend d’un intrant produit dans un pays receveur, situé en amont. En transférant — sous forme d’aide — des ressources financières qui font l’objet de négociations, il incite le pays receveur à réduire ses tarifs douaniers d’importations de biens intermédiaires, ce qui diminue le coût final de son intrant produit et exporté vers le pays donateur.

L’aide agirait ainsi comme un levier discret de réduction des coûts de production pour les entreprises du pays donateur. L’influence des entreprises dans l’allocation de l’aide est également révélée ces dernières années par des enquêtes journalistiques.

Un processus qui creuse les inégalités entre pays pauvres

Ce travail montre que l’aide au développement apparaît, au moins en partie, comme un moyen permettant aux pays donateurs de garantir un accès à des biens intermédiaires stratégiques en soutenant les pays situés en amont des chaînes de production. Ce constat interroge la manière dont l’aide est allouée si l’on souhaite éviter que les pays les plus pauvres ne soient doublement exclus : des chaînes de valeur mondiales et des flux d’aide.

Nos résultats ont des implications politiques importantes.

Premièrement, le développement des chaînes de valeur mondiales peut exacerber la fragmentation de l’aide en concentrant les financements vers les pays déjà intégrés dans ces chaînes. Or, malgré plusieurs initiatives internationales comme la Déclaration de Paris sur l’efficacité de l’aide au développement adoptée par l’OCDE en 2005, cette fragmentation persiste. Une étude de la Banque mondiale montre que l’augmentation des engagements d’aide au développement en termes réels entre 2000 et 2019 s’est accompagnée d’une multiplication du nombre de donateurs et d’agences d’aide, rendant la coordination de l’allocation de l’aide plus complexe.

Deuxièmement, orienter prioritairement l’aide vers les pays liés aux chaînes de valeur mondiales peut nuire au développement des pays les moins avancés, dont l’intégration dans les réseaux de production mondiaux reste limitée. Or, l’intégration aux chaînes de valeur stimule la croissance : une étude de la Banque mondiale indique qu’une augmentation de 1 % de participation entraîne en moyenne plus de 1 % de hausse du revenu par habitant. Mais si l’aide se concentre sur les pays déjà bien intégrés, elle risque de creuser davantage l’écart entre les « gagnants » et les laissés-pour-compte de la mondialisation. Or, les déclarations récentes de l’administration américaine qui limiteraient l’aide au développement à 17 pays prioritaires choisis par les États-Unis (« excluant certains pays en proie à de graves crises humanitaires, tels que l’Afghanistan et le Yémen ») ne font que renforcer ces inquiétudes.

The Conversation

Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.

Jean-François Jacques et Julie Lochard ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

22.01.2026 à 12:29

En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes

Sonia Henry, Chercheuse, Université de Lorraine

Dans l’Est de la France, à Uckange, un projet expérimental décontamine des sols pollués aux hydrocarbures et aux éléments traces métalliques grâce à l’association de plantes et de microorganismes.
Texte intégral (2893 mots)
Le tabouret bleu (_Noccaea caerulescens_) est une plante capable d’extraire du zinc, du cadmium et du nickel des sols. Madeleine Dugois, CC BY-NC-SA

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.


À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.

Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.

Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.

De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.

C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).

Les vertus de la phytoremédiation

Commençons par expliquer ce que l’on entend par « phytoremédiation ».

Mécanismes d’absorption des métaux lourds par les plantes grâce à la phytoremédiation. Bieby Voijant Tangahu et al, CC BY

Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).

Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.

Le miscanthus géant aide la dégradation de certains hydrocarbures dans les sols. geograph.org.uk, CC BY-NC-SA

Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.

Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.

L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles


À lire aussi : La phytoremédiation : quand les plantes dépolluent les sols


La friche d’Uckange, laboratoire à ciel ouvert

Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.

Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.

L’usine d’Uckange et son quatrième haut fourneau sont désormais un monument historique qui peut être visité par le grand public. Benjism89, CC BY-NC-SA

Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.

Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.

Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.

Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.


À lire aussi : Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt


Associer plantes d’extraction et de dégradation

Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).

L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.

Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :

  • la diminution des teneurs en contaminants,

  • l’amélioration de la qualité agronomique,

  • et l’augmentation de la biodiversité microbienne.

La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.

Les premiers résultats seront publiés dans les prochains mois.

Bénéfices collatéraux de la phytoremédiation

Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.

Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.

Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.

En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.

The Conversation

Sonia Henry a reçu des financements de la Communauté d'Agglomération du Val de Fensch et de l'Institut Carnot Icéel

PDF

22.01.2026 à 12:16

Comment dépolluer les friches industrielles face à la défiance des habitants ?

Cecile Bazart, Maîtresse de conférences, Université de Montpellier

Marjorie Tendero, Associate Professor in economics, ESSCA School of Management

Entre incertitudes techniques, mémoire collective et manque de confiance, la dépollution des friches industrielles ne suffit pas toujours à lever les peurs des habitants.
Texte intégral (2084 mots)

Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.


Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.

Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).

Rue des vignerons à Vincennes (Val-de-Marne), l’usine Pathé fabrique en 1902 des supports et émulsions chimiques pour le cinéma et la photographie. Elle deviendra plus tard l’usine Kodak.

Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.

Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.

Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.

Dépolluer : une étape indispensable mais complexe

Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.

Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.

À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.

Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.


À lire aussi : En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes


Le stigmate, angle mort de la reconversion

Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.

C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.

Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.

Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.

Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.


À lire aussi : Comment redonner une nouvelle vie aux friches industrielles en ville ?


Un décalage entre gestion technique et perceptions

Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.

Plusieurs mécanismes expliquent ce décalage.

  • Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.

  • La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.

  • Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.

Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.

Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.

Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.


À lire aussi : Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite


The Conversation

L'enquête détaillée dans l'article a été financée par l'Université de Montpellier.

Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l'ADEME et la Région Pays de la Loire (2014-2017).

PDF

22.01.2026 à 11:09

L’eau invisible des chaînes de valeur mondialisées

Simon Porcher, Professeur, Université Paris Dauphine – PSL

L’eau est omniprésente dans les échanges de biens et de services. Elle est pourtant la grande oubliée des régulations environnementales mondiales. Des pistes émergent pour y remédier. Avec quelle efficacité ?
Texte intégral (1725 mots)

C’est le maillon caché de la mondialisation : quand on échange des biens et des services, on transfère aussi de l’eau douce d’un pays à l’autre. Pourtant, la gestion de l’eau reste locale, quand sa consommation est devenue mondiale. Des solutions émergent.


L’eau douce, pourtant indispensable à toute activité humaine, reste souvent absente des débats sur la mondialisation, comme si sa disponibilité allait de soi. Pourtant, sans eau, il n’y a ni alimentation, ni industrie, ni énergie, ni numérique. Nos vies, même dématérialisées, reposent sur l’utilisation de l’eau, qui refroidit, nettoie, chauffe. L’eau est l’intrant invisible de notre économie. Un chiffre résume son importance : 88 % de l’eau prélevée dans le monde sert à produire des biens ou des services.

L’eau circule déjà d’un continent à l’autre, non pas dans des canalisations, mais à travers les chaînes de valeur mondialisées, dans les produits alimentaires ou les habits que nous consommons et dans toutes nos infrastructures. Cette « eau virtuelle » irrigue la mondialisation, mais reste largement ignorée des décisions économiques et politiques. Résultat : l’eau est mobilisée comme si elle était une ressource infinie, au service d’une économie qui privilégie la performance immédiate au détriment des écosystèmes et des populations.

Les flux d’eau cachés dans notre assiette

Le concept d’eau virtuelle, inventé au début des années 1990 par le géographe Tony Allan, permet de mesurer l’eau incorporée dans les produits que nous consommons. Par exemple, il faut 15 000 litres d’eau pour produire un kilogramme de bœuf, 4 000 litres pour un kilogramme de pistaches et 1 000 itres pour un kilogramme de maïs.

Chaque petit déjeuner devient un voyage autour du monde : le café du matin vient de Colombie ou du Brésil, arrosé par les pluies tropicales ; le carré de chocolat noir qui l’accompagne est fabriqué à partir de cacao équatorien ; l’avocat du Pérou vient d’un champ irrigué. Seuls le blé et le sel de la baguette de pain, et la poule qui a pondu l’œuf viennent de France. Nos choix alimentaires connectent les bassins d’eau du monde entier, souvent à notre insu.


À lire aussi : L’eau, la grande oubliée du label bio ?


Afin de mesurer le volume ainsi utilisé indirectement, Arjen Hoekstra a élaboré en 2002 le concept d’« empreinte eau ». Celle-ci correspond au volume total d’eau utilisé pour produire les biens et les services que nous consommons. Elle peut être calculée pour un pays ou pour un consommateur. Par exemple, l’empreinte eau d’un Français est supérieure à 4 000 litres par jour et 90 % de cette quantité proviennent de son alimentation.

L’eau dans les chaînes de valeur mondialisées

Cette approche par l’assiette, et plus généralement par le produit final, révèle les transferts massifs d’eau entre pays, souvent invisibles dans les échanges commerciaux.

L’industrie textile illustre parfaitement cette réalité. De la culture du coton à la teinture et au lavage, chaque vêtement consomme des milliers de litres d’eau. Les fleuves Amou-Daria et Syr-Daria, qui prennent leur source au Tadjikistan et au Kirghizistan, ont été détournés par les pays en aval pour irriguer du coton. Cette irrigation massive a réduit leur flux au point d’assécher la mer d’Aral (Asie centrale). Là-bas, la baisse de la quantité d’eau entraîne des problèmes sanitaires et de dégradation des conditions d’existence. Les procédés industriels génèrent des rejets polluants, mal traités, contaminant rivières, sols et nappes. Les pays producteurs de textile paient le prix écologique de nos vêtements à bas coût.

Cet exemple illustre un problème plus large. La mondialisation des flux d’eau virtuelle révèle un vide institutionnel majeur. L’économie est globale, mais la gestion de l’eau reste locale. Cette disjonction favorise le dumping hydrique et environnemental. Les règles du commerce mondial invisibilisent les impacts réels sur les populations et les écosystèmes. Les chaînes de production éclatées permettent aux entreprises de profiter des ressources des pays fragiles, sans compensations ni reconnaissance des impacts sociaux et écologiques.

Des inégalités accentuées

L’exploitation intensive de l’eau n’est pas seulement un problème environnemental ; c’est un enjeu social et politique. Les populations des pays producteurs subissent la raréfaction de l’eau, la pollution des nappes et les risques sanitaires. Les inégalités s’accentuent : ce sont les plus vulnérables qui supportent les coûts, et les plus riches qui récoltent les bénéfices.

Au-delà de l’opposition entre le Nord et le Sud, c’est la domination des logiques de marché qui pose problème. Les multinationales choisissent leurs sites de production selon le coût de l’eau et la faiblesse des normes, renforçant un modèle où la ressource devient une variable d’ajustement économique plutôt qu’un bien commun. Les États, souvent dépassés, adoptent ces normes pour rester compétitifs, laissant peu de place à des alternatives locales ou écologiques.

Vers une reconnaissance de l’eau comme une ressource commune globale

La gouvernance de l’eau demeure aujourd’hui largement fragmentée à l’échelle mondiale. Contrairement au changement climatique, qui bénéficie d’un cadre multilatéral de référence malgré ses limites, l’eau n’est pas reconnue comme une ressource commune globale dotée de règles et de normes contraignantes pour les acteurs économiques.

Cette situation limite la capacité de régulation des usages et des impacts. En l’absence d’un étiquetage systématique de l’empreinte eau des produits, la consommation d’eau liée aux biens et aux services échangés reste en grande partie invisibles. Alors même que l’empreinte eau d’un produit peut varier fortement selon les systèmes de production et les intrants mobilisés, cette invisibilité contribue à une faible responsabilisation de l’ensemble des acteurs. Dans un contexte de dépassement des limites planétaires relatives à l’eau, la disponibilité et la transparence des informations relatives à l’empreinte eau des produits et des services constituent un enjeu central de gouvernance.

Par ailleurs, les usages de l’eau reflètent de fortes inégalités géographiques : les pays industrialisés concentrent une part importante des consommations d’eau indirectes à travers les importations de produits agricoles et industriels, tandis que les pressions hydriques se manifestent principalement dans les pays producteurs. Dans ce contexte, les politiques commerciales et de coopération internationale sont des leviers potentiels de régulation indirecte des impacts hydriques. La jurisprudence de l’Organisation mondiale du commerce (OMC) a reconnu la possibilité pour un État de restreindre l’accès à son marché sur la base de procédés et de méthodes de production. Demain peut-être prendra-t-on en compte les impacts environnementaux localisés, tels que le stress hydrique, dans la régulation des échanges internationaux.

France 24, 2024.

Internaliser la contrainte ?

Du côté des entreprises, la prise en compte des risques hydriques progresse mais demeure hétérogène. Elle repose largement sur des démarches volontaires, souvent intégrées à des stratégies de responsabilité sociale sans caractère contraignant. Mais certaines multinationales commencent toutefois à internaliser ces enjeux.

Michelin a par exemple mis en place un prix fictif de l’eau en interne pour orienter ses usines à investir dans des systèmes d’économie et de réutilisation de l’eau. À Gravanches et à Troyes, l’amélioration des processus de refroidissement devrait diminuer les prélèvements de plus de 60 %.

Néanmoins, ces initiatives restent principalement concentrées sur les sites de production directe, alors que l’essentiel des consommations d’eau associées aux produits se situe en amont, le long des chaînes de valeur, où se concentre également une part importante des risques hydriques. L’analyse de l’empreinte eau sur l’ensemble des chaînes d’approvisionnement apparaît dès lors comme un outil central pour identifier et gérer les risques hydriques liés à leurs investissements.

L’eau n’est pas seulement un enjeu environnemental, c’est un facteur structurant de la production économique, du commerce international et de la souveraineté. Le décalage entre la nature localisée des ressources hydriques et l’organisation mondialisée des chaînes de valeur constitue l’un des défis majeurs de la gouvernance contemporaine de l’eau.


Cet article fait partie du dossier « La gestion à l’épreuve du réel » réalisé par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.

The Conversation

Simon Porcher co-dirige l’Institut d'économie de l’eau, soutenu par des mécènes. Ceux-ci n’ont joué aucun rôle dans le choix de l’angle, la rédaction ou les conclusions ; cette tribune n’engage que son auteur.

PDF

21.01.2026 à 16:44

Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ?

Fabrice Beline, Directeur de Recherche, Inrae

Présentées comme un levier de la transition, mais très gourmandes en ressources agricoles, les bioénergies doivent voir leur place et les enjeux qu’elles soulèvent entrer dans le débat public.
Texte intégral (2248 mots)

En matière de transition énergétique, les débats sur la production et la consommation électrique tendent à occuper le devant de la scène politico-médiatique et à occulter le rôle des bioénergies. Ces dernières font pourtant partie intégrante de la programmation énergétique du pays. Leur production peut avoir des impacts majeurs tant sur les modes de production agricole que sur nos habitudes alimentaires.


Dans les prospectives énergétiques telles que la stratégie nationale bas carbone (SNBC), les scénarios négaWatt ou encore ceux de l’Agence de la transition écologique Ademe… les bioénergies sont régulièrement présentées comme un levier incontournable de la transition, en complément de l’électrification du système énergétique.

Pour rappel, ces énergies, qui peuvent être de différentes natures (chaleur, électricité, carburant…), se distinguent des autres par leur provenance. Elles sont issues de gisements de biomasses tels que le bois, les végétaux et résidus associés, les déchets et les effluents organiques.

L’électrification met en scène de nombreuses controverses politiques et sociétales dans le débat public et médiatique. Par exemple : compétition entre renouvelable et nucléaire, arrêt des moteurs thermiques… À l’inverse, les discussions sur les bioénergies se cantonnent encore aux milieux scientifiques et académiques.

Pourtant, leur déploiement implique des évolutions importantes. Et ceci à la fois dans les modes de production agricole et les habitudes alimentaires, en tout cas si nous le voulons durable.

Il est donc essentiel que le sujet bénéficie d’une meilleure visibilité et d’une plus grande appropriation par la société pour que puissent naître des politiques publiques cohérentes.

Les bioénergies, levier de la transition énergétique

La transition énergétique, qui consiste à réduire drastiquement le recours aux énergies fossiles, est centrale dans la lutte contre le changement climatique. À l’horizon 2050, elle s’appuie sur deux piliers :

  • d’une part l’augmentation de la production d’électricité « bas carbone », associée à une forte électrification des usages, notamment pour la mobilité.

  • de l’autre, une hausse conséquente de la production de bioénergies pour compléter l’offre électrique, en particulier pour les usages difficilement « électrifiables » (par exemple dans l’industrie).

Actuellement, au niveau national, les bioénergies représentent de 150 à 170 térawattheures (TWh) par an, soit un peu plus de 10 % de l’énergie finale consommée. Ce chiffre concerne principalement la filière bois, à laquelle s’ajoutent les biocarburants et la filière biogaz. À l’horizon 2050, les prospectives énergétiques prévoient une consommation de plus de 300 de bioénergies, avec une forte croissance dans les secteurs du biométhane (injection du biogaz dans le réseau de gaz après épuration du biométhane) et, dans une moindre mesure, des biocarburants.

La programmation pluriannuelle de l’énergie n°3 (PPE3), qui est en cours de consultation, constitue la feuille de route de la France pour sa transition énergétique, avec des objectifs chiffrés. Pour la filière biométhane, la cible est fixée à 44 TWh/an dès l’horizon 2030 puis jusqu’à 80 TWh/an en 2035, contre une production actuelle de l’ordre de 12 TWh/an. Concernant les biocarburants, la PPE3 prévoit une légère augmentation pour atteindre 50 TWh/an en 2030-2035.


À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La nécessité d’une biomasse « durable »

L’optimisme quant à nos capacités à cultiver de manière durable les biomasses nécessaires à la production de ces bioénergies n’est cependant plus de mise.

Alors que la deuxième Stratégie nationale bas carbone (SNBC) tablait sur une production de 370 TWh/an de bioénergies en 2050, la nouvelle version SNBC 3 revoit ce chiffre à la baisse à 305 TWh/an. En mai 2025, le rapport des académies d’agriculture et des technologies réduisait ce chiffre à 250 TWh/an.

L’évolution à la baisse de ces chiffres met en lumière l’inadéquation entre les besoins de biomasse pour la transition énergétique, telle qu’elle est actuellement envisagée, et les capacités de production du système agricole actuel.

En novembre 2023, le Secrétariat général à la planification écologique lançait l’alerte, à travers cette formule relayée par le Monde :

« Il y a un problème de bouclage sur la biomasse. »

Ces questionnements ont donné lieu à des échanges entre le ministère de l’agriculture et de la souveraineté alimentaire et l’Inrae autour des enjeux agronomiques, techniques et économiques d’une mobilisation accrue des différents gisements de biomasse et de leur transformation en bioénergies. Ils ont confirmé les difficultés de faire correspondre les besoins pour la transition énergétique et la capacité de production.

Les flux de biomasse en France

Pour y voir plus clair sur les enjeux et les leviers disponibles, il convient d’analyser plus globalement les flux de biomasses agricoles à l’échelle nationale.

Environ 245 millions de tonnes de matière sèche (MtMS) sont produits chaque année pour des usages primaires (directs) et secondaires (indirects). Ces usages se répartissent comme suit :

  • Environ 100-110 MtMS sont mobilisés pour l’alimentation animale et finalement la production de denrées alimentaires telles que le lait, la viande, les œufs.

  • Quelque 70-80 MtMS/an retournent directement au sol (résidus de cultures, fourrages et prairies), auxquels s’ajoutent environ 30 MtMS/an de flux secondaires principalement issus de l’élevage sous forme d’effluents (lisier, fumier, digestat…).

  • Environ 50-55 MtMS/an sont utilisés directement pour la production de denrées alimentaires humaines (dont plus de la moitié est exportée).

  • Et 9 MtMS/an servent à la production d’énergie (biocarburant et biogaz) auxquels s’agrègent environ 9MtMS/an de flux secondaires provenant de l’élevage et de l’industrie agroalimentaire (lisier, fumier, biodéchets…).

Infographie des flux actuels de biomasse agricole (en MtMS). SGPE 2024

À échéance 2050, les besoins supplémentaires en biomasses pour les bioénergies s’établissent entre 30 et 60 MtMS/an.

Les dilemmes pour répondre à ces besoins accrus

Tous les acteurs s’accordent sur le fait qu’il n’est pas concevable de rediriger des ressources utilisables – et actuellement utilisées pour l’alimentation humaine – vers des usages énergétiques.

Il apparaît dès lors tentant de rediriger la biomasse qui retourne actuellement au sol. Pourtant, ces flux de biomasse sont essentiels à la santé, qualité et à la fertilité des sols. Ils participent à la lutte contre le changement climatique à travers leur contribution au stockage (ou à la limitation du déstockage) de carbone dans les sols.

Une autre piste, pour répondre à ces besoins croissants, serait d’augmenter la production primaire de biomasse à travers le développement et la récolte de cultures intermédiaires appelées « cultures intermédiaires à vocation énergétique » (CIVE). Celles-ci sont cultivées entre deux cultures principales.

Toutefois, une telle production supplémentaire de biomasse implique l’utilisation de ressources supplémentaires (nutriments, eau, produits phytosanitaires). Elle tend aussi à accroître les risques de transferts de pollution vers la biosphère.

Mobiliser trop fortement ces leviers pourrait donc s’avérer contreproductif. Les alertes s’accumulent à ce sujet. Ces leviers sont donc à actionner avec parcimonie.

Une autre piste, conceptualisée dans plusieurs scénarios de transition, serait de rediriger une partie de la biomasse actuellement utilisée pour nourrir les animaux d’élevage vers la production énergétique.

Ceci impliquerait à la fois une diminution des cheptels et une extensification des élevages afin de préserver leurs services écosystémiques rendus, tout en minimisant leur consommation de biomasse. Cela répondrait à l’enjeu de réduction des émissions de gaz à effet de serre de l’agriculture et serait donc le plus cohérent pour affronter les enjeux écologiques.

Ce scénario requiert toutefois des changements d’envergure dans nos habitudes alimentaires, avec une réduction de notre consommation de produits animaux pour éviter une augmentation des importations.

Vers des politiques publiques coordonnées et cohérentes ?

Après deux ans de retard et de blocages dans les ministères, la stratégie nationale pour l’alimentation, la nutrition et le climat ne semble malheureusement pas à la hauteur de cette problématique. En témoigne l’absence d’objectif chiffré sur la réduction de la consommation de produits animaux, voire la disparition du terme de réduction dans les dernières versions.

De même, les lois récentes d’orientation agricole et Duplomb renforcent l’orientation productiviste de l’agriculture, tout en minimisant les enjeux de transition. Ceci va à l’encontre (au moins partiellement) des orientations nécessaires pour la transition énergétique et la SNBC 3, sans parler des antagonismes avec la stratégie nationale biodiversité.

La France ne manque donc pas de stratégies, mais d’une cohérence globale entre elles. C’est bien cela qui conduit à un découragement des responsables de l’élaboration et la mise en œuvre des politiques publiques et à une adhésion insuffisante des citoyens à ces stratégies.

Il y a donc urgence à développer une vision et des politiques publiques intersectorielles cohérentes et complémentaires englobant l’énergie, l’agriculture, l’environnement, l’alimentation et la santé.

The Conversation

Fabrice Beline a reçu des financements de l’Ademe (projet ABMC) et de GRDF (projet MethaEau).

PDF

21.01.2026 à 16:23

Derrière le sans-abrisme, la face cachée du mal-logement

Pascale Dietrich, Chargée de recherche, Ined (Institut national d'études démographiques)

Marie Loison-Leruste, Maîtresse de conférences en sociologie, Université Sorbonne Paris Nord

À l'occasion de la Nuit de la solidarité, le 22 janvier, opération citoyenne de recensement des personnes sans-abri, il est utile de rappeler que d’autres formes moins visibles de précarité résidentielle existent.
Texte intégral (2132 mots)

Ce 22 janvier, une Nuit de la solidarité est organisée à Paris et dans d’autres villes françaises – une forme d’opération citoyenne de décompte des personnes dormant dans la rue. Celle-ci ne doit pas occulter ce que les travaux de recherche montrent depuis une quarantaine d’années : à la figure bien connue du sans-abri s’ajoutent d’autres formes moins visibles de précarité résidentielle et de mal-logement.


Aujourd’hui, de plus en plus de personnes sont exclues du logement ordinaire. Les derniers chiffres dont on dispose datent de 2012 et indiquent que le nombre de personnes sans domicile a augmenté de 50 % entre 2001 et 2012 : à cette date, 81 000 adultes, accompagnés de 31 000 enfants étaient sans domicile dans les agglomérations d’au moins 20 000 habitants de France hexagonale. L’enquête Sans Domicile menée par l’Insee en 2025 est en cours d’exploitation et permettra d’actualiser ces chiffres, mais tout laisse penser que la situation s’est encore dégradée, comme en témoignent nos observations de terrain.

D’après l’Insee, une personne est considérée comme sans domicile si elle a dormi la nuit précédente dans un lieu non prévu pour l’habitation (elle est alors « sans-abri »), ou si elle est prise en charge par un organisme fournissant « un hébergement gratuit ou à faible participation » (hôtel ou logement payé par une association, chambre ou dortoir dans un hébergement collectif, etc.). Ainsi, le sans-abrisme est-il la forme extrême du sans-domicilisme qui s’inscrit lui-même dans la myriade des formes du mal-logement.

Au-delà de ces personnes sans domicile, d’autres vivent dans des caravanes installées dans des campings, dans des squats, chez des tiers, des camions aménagés, des logements insalubres, etc., autant de situations résidentielles précaires qui échappent aux radars de la société et sont peu relayées dans les médias.

Ainsi, la Fondation pour le logement des défavorisés estime dans son rapport de 2025 que près de 4 millions de personnes sont touchées en France par toutes ces formes de mal-logement, la plupart des indicateurs de mal-logement s’étant dégradés.

« Crise du logement : Ces Français contraints de vivre au camping » – Reportage #Cdanslair, 31 janvier 2024.

À la figure bien connue du sans-abri dormant dans la rue s’ajoutent donc d’autres formes moins repérables de précarité résidentielle.

À l’approche de la Nuit de la solidarité organisée chaque année à Paris et dans d’autres villes françaises, il n’est pas inutile de rappeler ce que soulignent les travaux de recherche sur le sujet depuis une quarantaine d’années : le sans-abrisme n’est que la partie émergée de l’iceberg.

Si les opérations de décompte des personnes vivant dans des lieux non prévus pour l’habitation, et notamment la rue, sont importantes pour sensibiliser les citoyennes et citoyens, elles ne permettent d’obtenir que des estimations très approximatives du sans-abrisme et masquent une problématique plus vaste qui ne se réduit pas à ces situations extrêmes, comme on peut le lire dans ce rapport (pp. 42-52).

Les visages cachés de l’exclusion du logement

À la figure ancienne et un peu caricaturale du clochard – un homme seul, blanc, sans emploi et marginalisé – s’ajoutent d’autres visages : travailleurs et travailleuses précaires, femmes, parfois accompagnées d’enfants, personnes âgées percevant de petites retraites, personnes discriminées en raison de leur orientation sexuelle, étudiantes et étudiants, jeunes sortant de l’Aide sociale à l’enfance ou encore populations issues de l’immigration…

Ces différents types de personnes ont toujours été plus ou moins présentes parmi les populations en difficulté, mais l’augmentation générale de la précarité et la pénurie de logements accessibles les ont encore fragilisées. Plus de 2,7 millions de ménages étaient en attente d’un logement social en 2024. Dans le même temps, seulement 259 000 logements ont été mis en chantier en 2024, dont 82 000 logements sociaux financés.

Si certaines figures du sans-abrisme sont extrêmement visibles, comme les migrantes et migrants dont les campements sont régulièrement montrés dans les médias, d’autres formes d’exclusion sont plus discrètes.

C’est le cas par exemple des personnes en emploi, victimes de l’élargissement de la crise du logement, qui se replient vers les structures d’hébergement institutionnel faute de pouvoir se loger malgré leurs revenus réguliers.

En 2012, près d’un quart des sans-domicile occupaient un emploi. Ce phénomène fait peu de bruit alors même que ces personnes occupent souvent des métiers essentiels au fonctionnement de la société.

De même, les femmes sans domicile sont moins repérables dans l’espace public que leurs homologues masculins, car elles ne ressemblent pas à la figure classique du sans-domicile fixe (SDF). Quand elles y sont présentes, elles ne s’y installent pas et sont beaucoup plus mobiles par crainte d’y subir des violences : elles sont donc très largement sous-estimées dans les opérations de décompte.


À lire aussi : Femmes SDF : de plus en plus nombreuses et pourtant invisibles


Les enquêtes « Sans domicile » montrent qu’entre 2001 et 2012, le nombre de femmes francophones sans domicile a augmenté de 45 %, passant de 17 150 en 2001 à 24 930 femmes en 2012.

Solutions court-termistes

Face à cette précarité résidentielle croissante, quelles solutions apportent les pouvoirs publics ?

L’augmentation du financement de l’hébergement d’urgence qui procure un abri temporaire dans des haltes de nuit ou à l’hôtel apporte certes une solution rapide aux sans-abri qui, du point de vue des édiles, nuisent à l’image des villes, mais ne résout en rien les problèmes de ces personnes.


À lire aussi : Où dormir quand on n’a pas de domicile ?


Reléguant les plus précaires aux marges des villes ou dans des hébergements sans intimité où il est impossible de s’installer dans la durée, ces politiques court-termistes, focalisées sur l’urgence sociale, se doublent de formes de répression (expulsion, arrêtés anti-mendicité, mobiliers urbains inhospitaliers) qui contribuent à la précarisation et à l’invisibilisation des populations étiquetées comme « indésirables ».

L’augmentation massive des expulsions avec le concours de la force publique en 2024, l’hébergement des sans-domicile dans des hôtels de plus en plus éloignés des centres des agglomérations et peu accessibles en transports en commun, ou le déplacement des sans-abri de Paris pendant les Jeux olympiques de 2024 en témoignent.

Prises en charge discontinues

Des changements politiques profonds sont pourtant nécessaires pour résoudre la question de l’exclusion du logement en s’attaquant à ses causes structurelles. Une politique ambitieuse de production et de promotion du logement social à bas niveaux de loyers est indispensable pour permettre aux ménages modestes de se loger sans passer par le long parcours de l’hébergement institutionnel.

La prévention des expulsions doit également être favorisée, de même que la régulation des prix du marché immobilier.

Il est aussi nécessaire d’assurer une meilleure continuité de la prise en charge dans les diverses institutions d’aide. Les populations particulièrement fragiles, qui cumulent les difficultés, connaissent des séjours précoces en institutions, répétés et multiples, de l’aide sociale à l’enfance (en 2012, 23 % des utilisateurs des services d’aide aux sans-domicile nés en France avaient été placés dans leur enfance, alors que cette proportion était seulement de l’ordre de 2 % à 3 % dans la population générale) aux dispositifs d’insertion par le travail, en passant dans certains cas par l’hôpital psychiatrique, les cures de désintoxication ou la prison.

Or, ces prises en charge souvent discontinues n’apportent pas de solutions durables en termes de logement, d’emploi ou de santé. Elles alimentent par ailleurs un sentiment de rejet qui favorise le non-recours au droit : les personnes sont éligibles à des prestations sociales et à des aides mais ne les sollicitent pas ou plus.

Pour ces personnes les plus désocialisées, la politique du logement d’abord (« Housing first ») ou « Chez soi d’abord » en France), qui consiste à donner accès au logement sans condition et à proposer un accompagnement social et sanitaire, donne des résultats probants mais, faute de logements disponibles, elle n’est pas suffisamment mise en œuvre.

Appréhender le problème dans sa globalité

Il faut enfin s’attaquer aux politiques migratoires qui produisent le sans-domicilisme. Les politiques publiques en matière d’accueil des étrangers étant de plus en plus restrictives et les dispositifs spécifiques saturés, migrantes et migrants se retrouvent sans solution de logement. La part d’étrangers parmi la population sans-domicile a ainsi fortement augmenté, passant de 38 % en 2001 à 53 % en 2012.

Résoudre la question de l’exclusion liée au logement en France comme dans de nombreux pays passe autant par des réformes de la politique du logement que par des actions dans le secteur social, de l’emploi et de la politique migratoire. Le sans-domicilisme est un révélateur des inégalités sociales croissantes dans la société et des processus d’exclusion qui la traversent. Trouver une solution à ce problème majeur, nécessite plus que jamais de l’appréhender dans sa globalité, sans se limiter à ses symptômes les plus visibles.


Pascale Dietrich-Ragon et Marie Loison-Leruste ont codirigé l’ouvrage la Face cachée du mal-logement. Enquête en marge du logement ordinaire, paru aux éditions de l’Ined en septembre 2025.

The Conversation

Marie Loison-Leruste est membre de l'association Au Tambour!.

Pascale Dietrich ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 16:20

Sergueï Karaganov est-il vraiment l’architecte de la politique étrangère du Kremlin ?

Maxime Daniélou, Doctorant en études slaves et chargé de cours à l’université Paris-Nanterre, Université Paris Nanterre

Présenté comme l’homme qui murmure à l’oreille de Poutine, le très médiatique Sergueï Karaganov est moins un concepteur de la politique russe qu’un énième porte-voix de la propagande du Kremlin.
Texte intégral (2193 mots)
Le 7 juin 2024, avant la séance plénière du Forum économique international de Saint-Pétersbourg, dont il est le modérateur, Sergueï Karaganov discute avec Vladimir Poutine. Kirill Morozov/Roscongress, site officiel de la présidence russe

Spécialiste reconnu des relations internationales depuis plusieurs décennies, fondateur de think tanks influents et d’une grande revue consacrée aux affaires diplomatiques, Sergueï Karaganov s’est dernièrement fait remarquer par des propos plus que musclés, promettant notamment à ceux qui s’opposeraient à la Russie, à commencer par les pays de l’Union européenne, une destruction totale. On aurait toutefois tort de voir en lui l’un des artisans de la politique étrangère de Moscou : il s’agit plutôt d’un habile « entrepreneur idéologique », qui sert le pouvoir en lui proposant un habillage conceptuel et en lançant des messages destinés à raffermir, dans l’opinion occidentale, l’idée selon laquelle le Kremlin est déterminé à aller, le cas échéant, jusqu’à la guerre nucléaire.


Les prises de position de l’universitaire russe Sergueï Karaganov font l’objet d’une attention croissante dans l’espace médiatique français et international depuis le début de l’invasion de l’Ukraine par la Russie en février 2022. Récemment, des articles et des émissions télévisées lui ont attribué une influence déterminante sur la politique étrangère russe, allant jusqu’à le qualifier de « nouvel architecte de la politique étrangère du Kremlin » ou de « cerveau géopolitique de Vladimir Poutine », le plus souvent sans autre justification que sa proximité supposée avec le président russe.

Cette situation rappelle un phénomène déjà observé avec le philosophe ultranationaliste Alexandre Douguine, lui-aussi régulièrement présenté comme le « cerveau de Poutine » depuis le début des années 2000, en dépit des démentis répétés de plusieurs chercheurs spécialistes de la Russie.

Dans le cas de Douguine comme dans celui de Karaganov, attribuer une telle influence sur le chef du Kremlin sans fondement empirique solide contribue à obscurcir la compréhension des dynamiques à l’œuvre dans le processus de prise de décision en matière de politique étrangère dans la Russie contemporaine. Ces exagérations offrent par ailleurs une exposition médiatique bienvenue à ces entrepreneurs idéologiques. Si ni l’un ni l’autre n’ont jamais confirmé le rôle qui leur est parfois prêté au sommet de l’État, ils profitent de la visibilité et de l’autorité symbolique que cette image leur confère dans une logique de promotion personnelle et de diffusion de leurs idées, en Russie comme à l’étranger.

Afin de dépasser les interprétations excessives, il est nécessaire de s’interroger sur la place réelle qu’occupe Sergueï Karaganov dans l’environnement politique et idéologique russe. Revenir sur son parcours, ses réseaux et les idées qu’il défend permet de relativiser l’idée d’une influence directe sur les décisions du Kremlin, et de mieux comprendre les raisons de sa soudaine surexposition médiatique.

Un réseau puissant en formation dès la chute de l’URSS

En janvier 1992, moins d’un mois après la chute de l’URSS, Sergueï Karaganov (né en 1952), expert des États-Unis au sein de l’Académie des sciences soviétique, fonde l’un des premiers think tanks russes indépendants, le Conseil pour la politique étrangère et de défense (SVOP selon le sigle russe). En raison de la faiblesse des institutions qui caractérise la décennie 1990 en Russie, le SVOP, qui réunit hommes d’affaires, diplomates et militaires, parvient à exercer une influence certaine sur la politique nationale et permet à son directeur de se doter d’un réseau puissant.

Les dynamiques de centralisation et de renforcement de l’État, ainsi que le renouvellement des élites qui accompagne l’arrivée de Vladimir Poutine à la présidence en 2000, entraînent le déclin irréversible du SVOP et obligent Karaganov à se renouveler. En 2002, il fonde l’influente revue de politique étrangère Russia in Global Affairs, avant d’être nommé à la tête de la faculté de politique internationale de la Haute École d’économie, l’une des plus prestigieuses universités du pays, quatre ans plus tard.

Son implication dans la création du club de discussion Valdaï en 2004, qui s’impose progressivement comme un des principaux think tanks de l’ère Poutine, lui permet de se garantir un canal de communication avec l’administration présidentielle, institution centrale de la Russie poutinienne, qui est la seule à même de pouvoir faire circuler ses idées jusqu’au sommet de l’État.

Un entrepreneur idéologique

La politologue Marlène Laruelle, qui a récemment publié un ouvrage sur la construction idéologique de l’État russe, souligne que cette dernière est en constante évolution et repose sur un corpus dont la production est le plus souvent externe à l’État. Elle propose la notion d’« entrepreneur idéologique » pour désigner les acteurs situés en dehors des institutions étatiques qui entrent en concurrence pour capter l’attention de l’administration présidentielle et du gouvernement, afin d’accéder aux ressources et à la reconnaissance qui y sont associées.

Sergueï Karaganov s’inscrit pleinement dans cette catégorie, puisqu’il utilise son réseau et les organisations qu’il a fondées pour développer puis promouvoir ses idées et récits auprès des décideurs russes, dans l’espoir d’en tirer des bénéfices symboliques et matériels.

Capture d’écran de la page d’accueil du site Internet de Sergueï Karaganov. karaganov.ru

Depuis le début des années 2010, Karaganov a ainsi réussi à s’imposer comme l’un des principaux fournisseurs conceptuels du « tournant russe vers l’Asie ». Plusieurs notions qu’il a développées, comme la « Grande Eurasie » ou, plus récemment, « la Majorité mondiale », ont été intégrées dans le discours officiel, aidant les dirigeants à justifier et à promouvoir la réorientation stratégique et économique de la Russie vers la Chine et ses autres partenaires non-occidentaux.

Rien ne permet en revanche de lui attribuer une quelconque influence sur la définition de l’agenda ni sur les choix concrets de politique étrangère : en la matière, le processus de prise de décision semble cloisonné au président et à son entourage le plus proche, dont Karaganov ne fait assurément pas partie.

Pourquoi toute cette attention aujourd’hui et quelle utilité pour le Kremlin ?

Tout au long de sa carrière, Sergueï Karaganov a bénéficié d’une exposition médiatique en adéquation avec son statut d’expert reconnu en relations internationales. Depuis le début de la guerre en Ukraine, cette exposition a toutefois changé d’échelle, élargissant nettement son audience. Karaganov a su tirer parti du contexte de radicalisation de l’espace public, dans lequel les experts sont incités à afficher leur soutien à la guerre, voire à surenchérir par rapport à la ligne officielle, afin de se distinguer et d’augmenter leur visibilité.

À partir de l’été 2023, il s’est illustré par ses appels répétés en faveur d’une baisse du seuil d’emploi de l’arme atomique et de « frappes nucléaires limitées » contre plusieurs capitales européennes. Ces prises de position, très controversées, y compris au sein de la communauté académique russe, l’ont propulsé au premier plan du débat public. Elles ont très probablement pesé dans sa désignation comme modérateur de la séance plénière du Forum économique international de Saint-Pétersbourg, le 7 juin 2024.

Cette position hautement symbolique lui a permis de dialoguer avec Vladimir Poutine en direct devant les caméras du monde entier. Lors de cet échange, le président russe a déclaré lire les textes de Karaganov, ce qui a alimenté les spéculations quant à l’influence de ce dernier sur la politique étrangère du pays. Cet épisode a également accru ses sollicitations par les médias, jusqu’à son intervention en direct sur la première chaîne de télévision russe, le 5 décembre dernier, largement reprise et traduite à l’étranger pour ses déclarations particulièrement belliqueuses envers l’Europe.

Du point de vue du Kremlin, Karaganov constitue une voix radicale supplémentaire permettant de durcir le discours sans impliquer directement le sommet de l’État. Il joue ainsi le rôle d’un épouvantail utile, à l’image de l’ancien président Dmitri Medvedev, dont les déclarations provocatrices s’inscrivent dans une stratégie de guerre psychologique contre l’Occident. Cette délégation du discours le plus extrême permet au pouvoir de préserver une posture officielle apparaissant comme ouverte à la négociation, tout en laissant circuler des messages plus agressifs par des canaux indirects.

Ainsi, invité du podcast de Tucker Carlson au mois de janvier 2026 dans un contexte de tensions inédites dans les relations transatlantiques dont le Kremlin entend profiter, Sergueï Karaganov a pu s’adresser à l’Amérique trumpiste par l’un de ses canaux favoris. Espérant sans doute être entendu jusque dans le Bureau ovale, il est allé toujours plus loin dans la surenchère, rappelant que « l’Europe est la source de tous les maux » et qu’elle serait « rayée de la carte de l’humanité » en cas d’assassinat de Vladimir Poutine…

The Conversation

Maxime Daniélou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 16:20

Comment le djihadisme s’est métamorphosé

Myriam Benraad, Chercheure spécialiste de l'Irak, professeure en relations internationales, enseignante sur le Moyen-Orient, Institut catholique de Paris (ICP)

Le djihadisme dans sa forme proto-étatique telle que Daech a tenté de l’imposer a connu de lourds revers. Mais cette notion complexe reste d’une grande actualité.
Texte intégral (1938 mots)

Idéologie doublée d’une militance globale, le djihadisme a connu un recul après la débâcle de l’organisation État islamique sur le théâtre syro-irakien, dont les combattants ne sont pas parvenus à se réimposer, Al-Qaida ayant aussi perdu de son écho. Le monde est témoin d’un épuisement du phénomène et d’une mise en déroute de ses structures, en Europe et en France par exemple, terres vers lesquelles un terrorisme de masse a cessé de s’exporter. Mais n’est-il pas plus judicieux d’évoquer une « métamorphose » du djihad, au sens de la modification progressive et inachevée de ses formes et de sa nature ? Dans son nouvel ouvrage Jihad : la métamorphose d’une menace, la politiste et professeure en relations internationales Myriam Benraad sonde un ensemble d’idées reçues sur cette mouvance hétéroclite.


Les plus méfiants rétorqueront que des développements dramatiques comme l’attentat de la plage de Bondi à caractère antisémite en décembre 2025, la chute de Kaboul aux mains des talibans en 2021, le changement de régime en Syrie en décembre 2024 à la faveur de djihadistes endurcis, ou encore l’expansion de cette mouvance dans les États du Sahel, l’assassinat de Samuel Paty en 2020 et celui de Dominique Bernard trois ans plus tard démontrent que le djihadisme reste un système de pensée actif et meurtrier. L’affirmation n’est pas dénuée de fondement.

Mais évoquer un épuisement ne revient pas à conclure à la déchéance définitive des idées et des hommes. Comme mouvement et dispositif, le djihadisme s’inscrit dans la durée. À plusieurs reprises, il a surmonté ses revers et l’élimination de ses chefs. Une survivance illustrée en 2023 lorsque, dans le contexte de la relance des hostilités au Proche-Orient après les attaques du Hamas en Israël le 7 octobre, a ressurgi une « Lettre à l’Amérique » signée par Oussama Ben Laden en 2001 en justification des attentats du 11 septembre et incitant les musulmans à « venger le peuple palestinien » contre les États-Unis, Israël et leurs alliés.

Il y a, d’une part, une dégradation manifeste des groupes et de leur commandement, de leur cause et de leurs capacités. On peut juger, d’autre part, qu’une actualité géopolitique extrêmement lourde, de la pandémie de Covid-19 à la guerre en Ukraine et à la conflagration dans la bande de Gaza, a contribué à reléguer la menace au second plan.

Le traitement médiatique n’a plus rien à voir avec la frénésie informationnelle qui avait marqué la période antérieure. Quoique le traumatisme suscité par des vagues d’attaques sanglantes n’ait jamais complètement guéri, le temps a commencé à faire son œuvre, lentement. Peu de citoyens craignent une répétition des actions qui ont meurtri la France en 2015 et 2016. Aucun Français ne s’attend plus à la commission d’une attaque comparable à celle du Bataclan.

Mais comme le suggère l’idée de métamorphose, se transformer ne signifie pas avoir disparu. Le djihad, abordé comme un acte guerrier violent, n’est certes plus aussi puissant qu’auparavant et a vu son potentiel d’enrôlement s’amoindrir. Il n’y a pas eu non plus d’internationalisation djihadiste de la question palestinienne et pas de nouveaux flots de militants à destination du Moyen-Orient depuis la dernière guerre israélo-palestinienne.

Au même moment, le djihadisme est opérationnel sur d’autres terrains. Même minoritaire, il agit dans des pays comme la Syrie, la Libye, le Yémen, où les guerres civiles ont laissé de lourdes séquelles et continuent de procurer aux djihadistes des espaces pour sévir. Dans nos sociétés, des profils d’individus vulnérables aux idées de cette mouvance sont identifiés et mis hors d’état de nuire régulièrement. Enfin, du fait de leur promesse d’endurance et de rétribution, les djihadistes clament haut et fort leur détermination à survivre et continuer de frapper.

Rappelons que le djihad n’est pas réductible à la guerre, en dépit de la violence qui demeure la principale expression du djihadisme contemporain. Au-delà des stéréotypes et clichés, il est impératif de se saisir de la pluralité des significations de ce mot et d’opérer une distinction claire entre ses interprétations théologiques et manifestations historiques, d’un côté, et ses acceptions idéologiques récentes, de l’autre. En effet, le djihad n’est pas le djihadisme malgré la confusion fréquemment opérée entre ces deux termes.

Nier la lourdeur de leurs connotations négatives n’est pas non plus la meilleure des manières de dépasser les préjugés courants, ni d’apporter des éléments de réponse sur un sujet qui reste d’actualité même s’il n’occupe plus les grands titres.

Si l’on excepte le poids de certaines dérives médiatiques et politiques, le djihad est un objet pluri­dimensionnel. La mouvance djihadiste initialement constituée par des Sayyid Qutb, Abdallah Azzam et Oussama Ben Laden n’en a pas épuisé toutes les formes et les structures, et encore moins l’influence. Or ce caractère hétéroclite est difficilement démontrable dans un contexte trop souvent marqué par les polémiques et controverses, notamment en France où les tueries de l’année 2015 continuent de résonner au niveau sociétal.

Dix ans plus tard, les commémorations des attentats du 13 novembre ont montré en quoi la mémoire traumatique de l’ultraviolence est omniprésente et combien le besoin d’une justice restaurative importe pour les victimes, directes ou indirectes. On perçoit bien à cet égard la nécessité d’un retour aux sources, arabes et médiévales, en vue de lever le voile sur les zones d’ombre persistantes. Certes, l’approche belliqueuse du djihad élaborée par les djihadistes sied à leurs convictions, mais elle fausse en large part le sens de l’islam.

Cet extrait est issu de Jihad. La métamorphose d’une menace, de Myriam Benraad, qui vient de paraître aux éditions Le Cavalier bleu.

Dans de nombreux commentaires, on observe aussi que l’Histoire est la grande absente. Les djihadistes ont imposé leur lecture idéologique des circonstances d’expansion de cette religion, qu’ils assimilent à une conquête militaire. En réalité, cette expansion a été plus dispersée dans le temps, pluriforme et multifactorielle. Elle est également plus riche que les descriptions qui en sont faites ici et là. Les bouleversements des dernières décennies ne sauraient occulter que l’islam a accouché d’une civilisation qui était autrefois majestueuse et orientée vers le progrès.

Les djihadistes sont d’ailleurs loin d’être unis dans la vision qu’ils entretiennent de ce passé et des moyens de le restituer. Le « califat » un temps revendiqué par l’État islamique procédait d’une réinvention de la tradition islamique et s’est symptomatiquement vu rejeté par une majorité de musulmans. Cette logique de fragmentation du champ djihadiste a cours, dans les faits, depuis les années 1990 et les djihads afghan, algérien, bosniaque et tchétchène. Puis les clivages entre mouvements se sont renforcés avec les guerres d’Irak, de Libye et de Syrie, pour ne citer que ces crises.

Un socle partagé n’en définit pas moins le djihadisme, pétri de mythes et d’un puissant imaginaire. Depuis le 11 septembre 2001, une majorité de militants s’est ainsi ralliée à la notion d’une croisade supposément conduite par l’Occident et ses alliés contre l’islam et ses fidèles, croisade à laquelle devrait répondre un djihad globalisé. Cette représentation binaire et manichéenne explique l’intolérance absolue des djihadistes et leur rejet de toute différence, y compris religieuse parmi leurs coreligionnaires qu’ils prétendent représenter et défendre.

Quelles sont au fond les causes du djihadisme ? Prétendre apporter une réponse linéaire et exclusive relève du leurre car il n’existe aucun système d’interprétation fixe. À l’identique, les parcours des djihadistes pris individuellement rendent compte de l’absence d’un profil-type, tandis que radicalisation et déradicalisation se doivent d’être examinées à la lumière d’expériences tangibles. Pour l’heure, le djihadisme poursuit sa métamorphose, moins délétère que par le passé, mais le chemin sera long, dans le monde musulman comme dans nos sociétés, avant de prétendre l’avoir vaincu.

The Conversation

Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 16:19

Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris

La quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, respectueux de l’environnement, confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.
Texte intégral (2771 mots)

Au cœur de l’hiver, la quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, qui n’endommage pas l’environnement, qui soit confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.


Avoir chaud en hiver tout en limitant son impact environnemental peut sembler un défi. Chercher à avoir des vêtements nous protégeant au mieux du froid est certes un levier efficace pour réduire sa consommation d’énergie, comme le montrent des initiatives telles que le mouvement Slow Heat et d’autres expérimentations récentes.

Toutefois, cette démarche se heurte à une contradiction de taille : le secteur textile reste parmi les plus polluants au monde, avec des émissions de gaz à effet de serre importantes et une contribution notable aux microplastiques marins.

Alors, quelles matières tiennent vraiment chaud tout en respectant davantage l’environnement ? Si les fibres naturelles sont souvent mises en avant pour leur bonne isolation et leur fin de vie plus respectueuse de l’environnement, leur impact réel dépend largement de la manière dont elles sont produites et utilisées. Pour y voir plus clair, commençons par comprendre ce qui fait qu’un textile tient chaud.

La fabrication du textile tout aussi importante que la fibre

La capacité d’un textile à tenir chaud dépend moins de la fibre utilisée que de l’air qu’elle parvient à enfermer. En restant immobile dans de minuscules espaces au cœur du tissu, cet air limite les échanges de chaleur, un peu comme dans une couette ou un double vitrage. Plus un tissu est épais, duveteux ou poreux, plus il limite les échanges de chaleur.

Cette capacité dépend beaucoup de la structure des fibres et de la manière dont le textile est fabriqué. Les fibres frisées ou ondulées comme la laine de mouton créent des poches où l’air reste piégé. D’autres fibres comme l’alpaga (un camélidé des Andes proche du lama) ou le duvet synthétique sont partiellement creuses, augmentant encore la capacité isolante. De même, les tricots et mailles, plus lâches, isolent mieux que les tissages serrés. Ainsi, la chaleur d’un vêtement dépend autant de sa construction que de sa matière.

Des alpagas juvéniles à Nuñoa, au Chili.
Des alpagas juvéniles à Nuñoa, au Chili. Elwinlhq/Wikimedia, CC BY

C’est sur ces mêmes principes physiques que reposent les fibres synthétiques. En effet, le polyester, l’acrylique, le polaire imitent en partie la laine par leur structure volumineuse et leur capacité à emprisonner de l’air, soit grâce à des fibres frisées, soit grâce à des fibres creuses ou texturées.

Ainsi, ces textiles offrent une bonne isolation thermique, sont légers et sèchent rapidement, ce qui les rend très populaires pour le sport et l’outdoor. En revanche, leur faible respirabilité intrinsèque et leur capacité limitée à absorber l’humidité peuvent favoriser la transpiration et la sensation d’humidité lors d’efforts prolongés. D’autre part, contrairement aux fibres naturelles, ces matériaux sont inflammables, un aspect souvent négligé, mais qui constitue un enjeu réel de sécurité.

Elles ont également un coût environnemental élevé. Issues du pétrole, non biodégradables et fortement consommatrices d’énergie, ces fibres libèrent à chaque lavage des microfibres plastiques dans l’eau, contribuant à la pollution marine. On estime qu’entre 16 % et 35 % des microplastiques marins proviennent de ces textiles, soit de 200 000 à 500 000 tonnes par an. Ces impacts surpassent largement ceux des fibres naturelles, ce qui constitue un vrai défi pour une mode plus durable.

Les bénéfices de la laine de mouton mérinos et de l’alpaga

Face à ces limites, les fibres naturelles apparaissent donc souvent comme des alternatives intéressantes, à commencer par la laine de mouton, longtemps considérée comme une référence en matière d’isolation thermique.

La laine possède en effet une structure complexe et écailleuse : chaque fibre est frisée et forme de multiples micro-poches d’air, réduisant ainsi la perte de chaleur corporelle. Même lorsqu’elle absorbe un peu d’humidité, l’air reste piégé dans sa structure, ce qui lui permet de continuer à isoler efficacement. Cette organisation particulière explique aussi pourquoi la laine est respirante et capable de réguler l’humidité sans donner une sensation de froid. Cependant, ces mêmes fibres peuvent parfois provoquer une sensation de « grattage » pour certaines personnes : plus les fibres sont épaisses, plus elles stimulent les récepteurs de la peau et provoquent des picotements. Il s’agit d’un phénomène purement sensoriel, et non d’une allergie.

Fibre de laine mérinos au microscope. CSIRO, CC BY

Parmi les différents types de laines, la laine de mouton mérinos, issue d’une race d’ovin originaire d’Espagne se distingue par la finesse de ses fibres, nettement plus fines que celles de la laine classique (de 11 à 24 microns pour le mérinos et de 25 à 40 microns pour la laine classique) . Cette caractéristique réduit fortement les sensations d’irritation au contact de la peau et améliore le confort.

Elle favorise également la formation de nombreuses micro-poches d’air isolantes, tout en maintenant une excellente respirabilité. Ces qualités expliquent son usage croissant dans les sous-couches et vêtements techniques, aussi bien pour le sport que pour le quotidien.

Pour autant, la laine n’est pas exempte d’impact environnemental. Bien qu’elle soit renouvelable et biodégradable, son élevage contribue aux émissions de gaz à effet de serre, principalement via le méthane produit par les moutons et la gestion des pâturages. On estime qu’entre 15 et 35 kg de CO₂ équivalent sont émis pour produire 1 kg de laine brute, et qu’environ 10 000 litres d’eau sont nécessaires, selon le mode d’élevage. Le bien-être animal et les pratiques agricoles, comme le mulesing ou l’intensification des pâturages, jouent également un rôle déterminant dans l’empreinte globale de cette fibre.

D’autres fibres animales, comme l’alpaga, suscitent un intérêt croissant en raison de propriétés thermiques comparables, voire supérieures, associées à un meilleur confort. Les fibres d’alpaga sont en effet partiellement creuses, ce qui leur permet de piéger efficacement l’air et de limiter les pertes de chaleur, tout en restant légères. Contrairement à certaines laines plus grossières, elles ne grattent pas, ce qui les rend agréables à porter directement sur la peau.

Elles sont également plus longues et plus fines que la laine classique, avec une bonne capacité de régulation de l’humidité et un séchage plus rapide. Ces caractéristiques expliquent l’essor de l’alpaga dans les vêtements techniques comme dans les pièces haut de gamme, des sous-couches aux manteaux. Sur le plan environnemental, l’alpaga présente aussi certains avantages. En effet, l’élevage d’alpagas exerce généralement une pression moindre sur les écosystèmes : animaux plus légers, consommation alimentaire plus faible, émissions de méthane réduites et dégradation limitée des sols comparativement à l’élevage ovin. Là encore, la durabilité dépend largement du respect de systèmes extensifs et adaptés aux milieux locaux.

Le succès des fibres synthétiques

Malgré les nombreux atouts de ces textiles naturels, les fibres synthétiques restent donc très utilisées, notamment pour leurs performances techniques. Mais leur succès est aussi lié à des facteurs économiques et pratiques : elles sont généralement moins coûteuses, très abondantes dans le commerce, et faciles à transformer en vêtements de masse. Ces aspects rendent le synthétique accessible et pratique pour une large partie des consommateurs, ce qui explique en partie sa prédominance dans l’industrie textile, indépendamment des préférences individuelles.

Polaire, duvet synthétique ou fibres techniques offrent une isolation thermique efficace, tout en étant légères et rapides à sécher, des qualités particulièrement recherchées dans les vêtements de sport et d’outdoor. La conductivité thermique est une mesure de la capacité d’un matériau à conduire la chaleur : plus cette valeur est faible, moins la chaleur passe facilement à travers le matériau, ce qui signifie une meilleure capacité à retenir la chaleur dans un textile donné.

Des mesures de conductivité thermique montrent par exemple que certains isolants synthétiques comme la polaire présentent des valeurs très basses (0,035-0,05 watt par mètre-kelvin (W/m·K)), indiquant une excellente capacité à retenir la chaleur. Pour comparaison, la laine, lorsqu’elle est compacte ou densifiée, peut atteindre 0,16 W/m·K, mais dans les textiles isolants volumineux, elle reste faible (0,033–0,045 W/m·K).

Toutefois, l’origine fossile, la non-biodégradabilité, la libération de microplastiques et un recyclage encore très limité font des textiles synthétiques des matériaux à fort impact environnemental.

Le pull en laine qui gratte, un préjugé qui colle à la peau

À l’inverse, si les fibres naturelles sont parfois boudées, ce n’est pas toujours pour des raisons environnementales, mais souvent pour des questions de confort. Une personne ayant déjà porté un vêtement en fibres naturelles qui lui a paru inconfortable ou irritant peut développer un rejet global de ces fibres, au profit du synthétique, même lorsque des alternatives plus douces existent.

Or, des solutions sont disponibles : privilégier des fibres fines comme la laine mérinos, l’alpaga ou le cachemire, recourir à des traitements mécaniques ou enzymatiques pour adoucir les fibres, ou encore combiner différentes fibres naturelles. Le choix doit aussi tenir compte de l’usage du vêtement et de son contact direct avec la peau.

En pratique, choisir un textile chaud et moins polluant relève donc d’un compromis, qui dépend autant de la matière que de l’usage. Une sous-couche portée à même la peau bénéficiera de fibres fines et respirantes, comme la laine mérinos, tandis qu’une couche intermédiaire privilégiera l’isolation et un vêtement extérieur la protection contre l’humidité et le vent.

Enfin, plutôt que de rechercher une matière « parfaite », il est essentiel de raisonner en cycle de vie. Sa durabilité (combien de temps il est porté), sa réparabilité, la fréquence et la manière de le laver, ainsi que sa fin de vie (recyclage, réutilisation, compostage pour les fibres naturelles) influencent largement son impact environnemental total. Un vêtement bien entretenu et durable peut avoir un impact bien moindre qu’un textile « écologique », mais rapidement jeté.

Au final, les matières textiles les plus chaudes et les moins polluantes sont majoritairement naturelles, mais aucune n’est totalement exempte d’impact. La laine mérinos et l’alpaga offrent aujourd’hui un compromis intéressant entre chaleur, confort et fin de vie environnementale. Le rejet des fibres naturelles pour des raisons de grattage mérite d’être nuancé : la qualité et la finesse des fibres font toute la différence. Mieux informer sur ces aspects pourrait encourager des choix plus durables. En textile comme ailleurs, le meilleur choix reste souvent celui que l’on garde longtemps.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 16:16

L’ennui n’est pas seulement acceptable chez les enfants, il est bénéfique

Margaret Murray, Associate Professor of Public Communication and Culture Studies, University of Michigan-Dearborn

L’ennui fait partie intégrante d’une vie équilibrée. En en faisant l’expérience, les enfants peuvent apprendre à se fixer des objectifs et à élaborer des projets.
Texte intégral (1755 mots)
Chez l’enfant, l’ennui encourage l’autonomie. Idzard Schiphof/Unsplash, CC BY-NC

L’ennui est souvent perçu comme un mal à éviter à tout prix chez les enfants. Pourtant, loin d’être inutile, il joue un rôle clé dans leur développement, en favorisant l’autonomie, la créativité et l’apprentissage de la gestion du temps.


L’ennui fait partie intégrante de la vie, à travers les époques et partout dans le monde. Et pour cause : il remplit une fonction utile, en poussant les individus à se fixer de nouveaux objectifs et à relever de nouveaux défis.

Je suis professeure et je travaille sur les questions de communication et de culture. J’écris actuellement un livre sur la parentalité contemporaine, et j’ai constaté que de nombreux parents cherchent à éviter à leurs enfants l’expérience de l’ennui. Ils peuvent le percevoir comme une émotion négative qu’ils ne souhaitent pas voir leurs enfants traverser. Ou bien ils les orientent vers des activités qu’ils jugent plus productives.

Les raisons qui poussent les parents à vouloir éviter l’ennui à leurs enfants sont multiples. Beaucoup de parents sont très pris par leur travail et par les préoccupations financières ; les contraintes liées à la garde des enfants et de la gestion du quotidien pèsent lourdement sur eux. Proposer un jeu, un programme télévisé ou une activité créative à la maison permet souvent de gagner un peu de tranquillité : les parents peuvent ainsi travailler sans être interrompus ou préparer le dîner sans entendre leurs enfants se plaindre de s’ennuyer.

À cela s’ajoute parfois une forte attente de réussite. Certains parents ressentent une pression pour que leurs enfants excellent, qu’il s’agisse d’intégrer un établissement sélectif, de briller dans le sport ou de devenir de très bons musiciens.

Les parents peuvent aussi ressentir une forte pression autour de la réussite de leurs enfants, qu’il s’agisse d’intégrer un établissement sélectif, de réussir dans le sport ou d’exceller dans la pratique musicale.

Quant aux enfants, ils consacrent aujourd’hui moins de temps à jouer librement dehors et davantage à des activités organisées qu’il y a quelques décennies. La généralisation des écrans a par ailleurs rendu l’évitement de l’ennui plus facile que jamais.

Pendant la pandémie, beaucoup de parents ont ainsi eu recours aux écrans pour occuper leurs enfants pendant leurs heures de travail. Plus récemment, certains disent ressentir une pression sociale les poussant à utiliser les écrans pour que leurs enfants restent calmes dans les lieux publics.

En somme, si les parents ont de multiples raisons de vouloir tenir l’ennui à distance, il vaut la peine de s’interroger sur ce que l’ennui peut aussi apporter avant de chercher à l’éliminer complètement.

Les bienfaits de l’ennui

Même s’il est désagréable sur le moment, l’ennui est un atout pour le développement personnel. Il agit comme un signal indiquant qu’un changement est nécessaire, qu’il s’agisse de modifier son environnement, son activité ou les personnes qui nous entourent. Les psychologues ont montré que l’expérience de l’ennui peut favoriser l’émergence de nouveaux objectifs et encourager l’exploration de nouvelles activités.

Professeur à Harvard spécialisé dans le leadership public et associatif, Arthur Brooks, a montré que l’ennui est indispensable au temps de réflexion. Ces moments de creux ouvrent un espace pour se poser les grandes questions de l’existence et donner du sens à ce que l’on vit. Des enfants rarement confrontés à l’ennui peuvent devenir des adultes qui peinent à y faire face. L’ennui agit aussi comme un stimulant pour le cerveau, en nourrissant la curiosité naturelle des enfants et en favorisant leur créativité.

Apprendre à composer avec l’ennui et, plus largement, avec les émotions négatives, constitue une compétence essentielle dans la vie. Lorsque les enfants apprennent à gérer leur temps par eux-mêmes, cela peut les aider à développer leurs fonctions exécutives, c’est-à-dire la capacité à se fixer des objectifs et à élaborer des plans.

Les bénéfices de l’ennui se comprennent aussi du point de vue de l’évolution. L’ennui est extrêmement répandu : il touche tous les âges, tous les genres et toutes les cultures, et les adolescents y sont particulièrement sujets. Or la sélection naturelle tend à favoriser les traits qui confèrent un avantage. Si l’ennui est aussi universel, il est peu probable qu’il persiste sans offrir, d’une manière ou d’une autre, des bénéfices.

Mieux vaut pour les parents éviter de considérer l’ennui comme une difficulté qu’ils doivent résoudre eux-mêmes pour leurs enfants. Les psychologues ont en effet observé que les étudiants dont les parents s’impliquent de manière excessive présentent davantage de symptômes dépressifs.

D’autres recherches indiquent également que les jeunes enfants à qui l’on donnait des écrans pour les apaiser se révèlent, plus tard, moins capables de réguler leurs émotions.

L’ennui est inconfortable

La tolérance à l’ennui est une compétence que beaucoup d’enfants rechignent à acquérir ou n’ont tout simplement pas l’occasion de développer. Et même chez les adultes, nombreux sont ceux qui préféreraient s’infliger une décharge électrique plutôt que de rester livrés à l’ennui.

Apprendre à faire avec l’ennui demande de l’entraînement. Il est préférable de commencer par de courtes périodes, puis d’allonger progressivement ces moments de temps non structuré. Parmi les conseils aux parents figurent celui d’encourager les enfants à sortir, celui de leur proposer un nouveau jeu ou une recette à tester, ou tout simplement celui de se reposer. Laisser une place à l’ennui implique aussi d’accepter qu’il y ait des moments où, concrètement, il ne se passe rien de particulier.

Les plus jeunes peuvent avoir besoin qu’on leur donne des idées sur ce qu’ils peuvent faire lorsqu’ils s’ennuient. Les parents n’ont pas à jouer avec eux à chaque fois que l’ennui surgit, mais proposer quelques pistes peut être utile. Pour les tout-petits, cinq minutes d’ennui constituent déjà un bon début.

Pour les enfants plus âgés, les encourager à trouver eux-mêmes comment faire face à l’ennui est particulièrement valorisant. Il est important de leur rappeler que cela fait partie de la vie, même si c’est parfois désagréable à vivre.

Avec le temps, ça devient plus facile

Les enfants ont une grande capacité d’adaptation. À force d’être confrontés à de petits moments d’ennui, les enfants se lassent moins vite par la suite. Les études montrent d’ailleurs que le fait d’expérimenter régulièrement l’ennui rend la vie globalement moins monotone.

Renoncer à l’idée qu’il faut sans cesse divertir les enfants peut aussi contribuer à alléger la charge mentale des parents. Aux États-Unis, environ 41 % d’entre eux déclaraient en 2024 être « tellement stressés qu’ils n’arrivent plus à fonctionner », et 48 % disaient que « la plupart des jours, leur niveau de stress est totalement écrasant », selon un rapport du médecin-chef des États-Unis.

Donc, la prochaine fois qu’un enfant se plaint en disant « Je m’ennuie », inutile de culpabiliser ou de s’énerver. L’ennui est une composante saine de la vie : il encourage l’autonomie, pousse à découvrir de nouveaux centres d’intérêt et à relever de nouveaux défis.

Faire comprendre aux enfants que ce n’est pas seulement tolérable mais bénéfique les aide à mieux l’accepter.

The Conversation

Margaret Murray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 16:15

Du technocapitalisme aux Venture Capitals : la grande transformation des industries de défense

Nicolas Minvielle, Spécialiste du design et de l'innovation, Audencia

Marie Roussie, Docteur en science de gestion, spécialisée en prospective, Université Paris Dauphine – PSL

En même temps que le contexte géopolitique, le modèle économique des industries de défense est en pleine mutation. Les jeunes pousses et les investisseurs apportent de nouvelles manières de travailler.
Texte intégral (2604 mots)
La valeur de l’industrie de défense est en train de muter vers le monde du logiciel. Le monde d’hier est donc bien caduc. Imperial War Museums

Alors que le contexte géopolitique change en profondeur, de nouvelles entreprises émergent dans le monde de la défense. Après des décennies dominées par la puissance d’entreprises industrielles à l’ancienne, les start-up du logiciel deviennent des actrices clés. Retour sur une mutation en cours et décryptage des nouveaux enjeux qu’elle pose.


Dans le contexte de la guerre en Ukraine où l’« autonomie stratégique » devient un problème concret apparaît, à côté du traditionnel « complexe militaro-industriel »), un nouveau modèle que l’on pourrait décrire comme étant un complexe technocapitaliste. Un écosystème où start-up, fonds de capital-risque, fonds souverains, initiatives européennes et philanthropes techno-nationalistes investissent massivement dans la défense et la sécurité.

Non pas pour remplacer d’un coup la base industrielle et technologique de défense (BITD) – et ce malgré les annonces tonitruantes de certains de ces acteurs –, mais pour en modifier progressivement l’architecture, les acteurs et les temporalités.

Le dernier souper est servi

Le modèle qui domine encore aujourd’hui a pris forme dans les années 1990, avec la grande consolidation de l’industrie américaine de défense sous l’administration Clinton. Durant cette période, la base industrielle de défense américaine a connu une consolidation d’une ampleur inédite. Surnommé le last supper, ce moment d’accélération des fusions a donné naissance aux cinq géants qui dominent encore largement la défense américaine – Lockheed Martin, Boeing, Northrop Grumman, Raytheon et General Dynamics. Quelques grands maîtres d’œuvre – ces fameux Big Five – se partagent ainsi depuis l’essentiel des grands programmes : avions de combat, frégates, satellites, systèmes de commandement intégrés.


À lire aussi : Réarmement : l’indispensable coopétition entre petites, moyennes et grandes entreprises de la défense


Leur logique est celle de la commande publique lourde : des besoins définis par l’État, des appels d’offres longs, des cycles de développement qui se comptent en décennies, une forte intégration verticale, une relation quasi organique avec les ministères de la Défense. Ce modèle assure une certaine visibilité budgétaire et une capacité à gérer des systèmes d’une complexité extrême. Il produit aussi une grande inertie tant sur le plan technologique que procédural.

L’arrivée du monde du logiciel

Depuis une dizaine d’années, ce paysage est bousculé par des acteurs qui viennent, pour l’essentiel, du monde du logiciel : Anduril, Palantir, Helsing, Shield AI, et en France des entreprises comme Command AI. Leur point de départ n’est pas une plateforme matérielle (un avion, un navire, un char), mais le logiciel : fusion de données, IA, capteurs distribués, systèmes autonomes, couches de command & control.

Leurs méthodes de travail et de production, héritées de la tech consistent en itérations rapides, tests fréquents, déploiements progressifs, adaptation au retour du terrain plutôt qu’exécution d’un cahier des charges figé. Aux États-Unis, des dispositifs comme les Other Transaction Authority (OTA) ont été créés pour faciliter cette collaboration avec des acteurs non traditionnels, ce qui permet d’en contourner certaines lourdeurs réglementaires.

Traverser la « vallée de la mort »

Au sein de ces organisations, on sait prototyper plus vite, expérimenter plus tôt, et ce qu’elles que soient leurs origines géographiques. Mais le cœur du problème reste entier : beaucoup de ces start-up valident un démonstrateur… puis butent sur la « vallée de la mort » entre prototypes financés en mode agile et programmes pérennes inscrits en loi de finances. L’appareil budgétaire, taillé pour les grands industriels historiques, peine à absorber des solutions issues de ce nouveau monde.

En Europe, on tente d’importer cet esprit à travers des marchés d’innovation, des programmes d’expérimentation accélérée, des dispositifs dual-use. Mais la culture d’acquisition reste largement calibrée pour les grands programmes industriels, plutôt que pour des produits logiciels qui changent de version plusieurs fois par an.

La défense devient une classe d’actifs

Parallèlement à cette rupture technologique, c’est la structure du financement de la défense qui se transforme. La sécurité n’est plus seulement affaire de budgets ministériels ; elle devient aussi un segment identifié du capital-risque. Aux côtés des commandes publiques et des investissements des grands groupes se constitue un nouvel écosystème d’investisseurs composé :

  • des fonds privés spécialisés dans la défense, la sécurité et les technologies dites « civilisationnelles » (IA, autonomie, cyber, spatial, résilience d’infrastructures) ;

  • des fonds souverains et publics qui cherchent à orienter l’innovation vers des priorités de souveraineté ;

  • des dispositifs européens (fonds de fonds, véhicules dédiés) qui tentent de structurer un marché encore fragmenté ;

  • des philanthropes techno-nationalistes qui investissent par conviction politique ou civilisationnelle autant que pour le rendement (Peter Thiel par exemple).

Tous partagent la conviction que certaines technologiesIA militaire, lutte anti-drones, robotique autonome, surveillance avancée, sécurité spatiale – vont devenir structurantes, et que la valeur se créera très en amont, bien avant les grands contrats publics. Le schéma de l’industriel finançant la R&D sur fonds propres pour vendre ensuite un produit à marge encadrée recule. Le risque est socialisé dans le capital : les VC, les fonds souverains, les programmes européens prennent le risque initial, en misant sur l’hypothèse qu’un jour, une partie de la commande publique basculera vers ces nouvelles solutions.

Ce mouvement ne remplace pas le financement traditionnel par les États ; il l’encercle, le complète et le pousse à se réorganiser. Ministères de la Défense, Union européenne, Otan tentent désormais de co-concevoir des instruments (fonds, equity facilities, fonds d’innovation) pour ne pas laisser au seul capital privé le soin de définir, par ses paris, l’architecture future de la BITD.

Un dialogue nécessaire entre deux modèles

On l’aura compris, dans ce nouvel environnement, deux grandes logiques industrielles cohabitent. Du côté des industriels historiques, la chaîne de valeur part de l’expression de besoin : l’État formalise une exigence (un avion de combat, un système de défense antiaérienne, une frégate de nouvelle génération), lance un appel d’offres, sélectionne un industriel, et s’engage sur des décennies. La robustesse, la certification, l’intégration dans des architectures complexes sont centrales. Les marges sont encadrées, le risque est partagé, mais le tempo reste celui du temps long.

Les start-up de défense, à l’inverse, développent des produits avant que le besoin ne soit formalisé. Elles financent le développement puis se tournent vers les États en disant, en substance : « voilà ce que nous savons déjà faire, regardez si vous pouvez vous en passer ».

Cette asymétrie se voit dans la façon dont on conçoit les systèmes. Là où les grands industriels ont longtemps construit d’abord la plateforme matérielle, puis ajouté des couches logicielles au fil du temps, les nouveaux entrants adoptent une logique software first.

Un nouveau rapport de forces

Le cas d’Anduril est emblématique. Au cœur de sa stratégie se trouve un système d’exploitation tactique, conçu pour connecter capteurs, drones, effecteurs et flux de données. À partir de cette brique logicielle, l’entreprise déploie ensuite ses propres drones, capteurs, systèmes d’armes, en gardant la maîtrise de l’architecture logicielle qui fait la jonction. Le tout étant principalement focalisé sur La clientèle militaire.

Cette inversion du rapport de force – la valeur se loge dans le logiciel, la plateforme matérielle devient, jusqu’à un certain point, substituable – rend très concrète la question de la souveraineté : qui contrôle la brique logicielle qui orchestre l’ensemble ? Qui décide du rythme des mises à jour ? Où se situent les dépendances critiques ?

Elle rebat aussi les cartes du Hi–Low mix : comment articuler des systèmes lourds, rares et coûteux (avion de combat, frégate) avec des objets plus simples, distribués, produits en masse (drones, capteurs, effecteurs low cost). Les nouveaux acteurs occupent volontiers ce bas et ce milieu du spectre, la « masse agile » ; les industriels historiques doivent, eux, apprendre à descendre vers des produits plus modulaires, plus rapides, tout en continuant à garantir l’excellence sur les systèmes de très haute complexité.

Des horizons temporels différents

La rencontre entre capital-risque et défense met aussi au jour une tension structurante : celle des horizons temporels. Le Venture Capital (VC, ou capital-risque) raisonne en cycles de cinq à sept ans, avec l’idée que l’entreprise doit, soit atteindre une taille critique, soit être rachetée, soit entrer en bourse. Les ministères de la défense, eux, raisonnent sur vingt ou trente ans, voire davantage.

Ce décalage pose des questions très concrètes. Que se passe-t-il si un acteur clé de l’IA tactique ou du contre-drone, devenu indispensable sur le terrain, se retrouve fragilisé par la conjoncture financière, ou racheté par un acteur étranger ? Comment garantir la continuité d’une capacité opérationnelle dont la brique critique est portée par une entreprise structurée selon les logiques de la tech ?

Trois idées structurantes

À l’inverse, la défense ne peut plus ignorer le rythme d’innovation propre au logiciel. Attendre dix ans pour figer une architecture revient souvent à se condamner à déployer des systèmes déjà dépassés. D’où la montée en puissance de trois idées structurantes :

  • Le dual-use : privilégier les technologies qui ont, par construction, des débouchés civils et militaires (cyber, spatial, IA, robotique, résilience d’infrastructures). Cela élargit la base industrielle, répartit le risque et évite de concentrer des capacités critiques sur des marchés de niche.

  • Le « software-defined, hardware-enabled » : concevoir des systèmes où le cœur de valeur est dans l’algorithme (détection, fusion de capteurs, décision), et où le matériel – drone, capteur, effecteur – peut évoluer plus librement.

  • La modularisation et les architectures ouvertes : prévoir dès la conception des points d’insertion réguliers pour de nouvelles briques logicielles, de nouveaux capteurs, sans devoir réinventer tout le système.

Ces leviers ne font pas disparaître la tension entre temps court financier et temps long doctrinal, mais ils la rendent plus gérable. L’État peut, en théorie, remplacer une brique sans casser l’ensemble. Et le capital peut se concentrer sur des modules identifiables plutôt que sur des mégaprogrammes monolithiques.

BFM, 2025.

Jungle et zoo ou concilier l’inconciliable

On décrit parfois la situation actuelle comme la rencontre d’un « zoo » – celui des grands programmes, très régulés, très documentés, pensés pour durer – et d’une « jungle » peuplée d’insurgés technologiques, financés par les VC, en constante exploration.

Les nouveaux acteurs occupent des niches, souvent à la périphérie des grands programmes, mais avec un fort potentiel de diffusion. Pour l’instant, une grande partie d’entre eux reste dépendante de tremplins publics (contrats d’étude, expérimentations, appels à projets). Le marché réel, celui des grands volumes, demeure largement capté par les industriels historiques.

Dans le même temps, et le point est clé, les investisseurs privés se concentrent progressivement sur des profils plus mûrs : des entreprises qui ont déjà fait la preuve de leur solidité technique, de leur capacité à dialoguer avec les armées, de leur compréhension des contraintes réglementaires. On s’éloigne du fantasme de la start-up de défense sortie de nulle part pour se rapprocher d’acteurs hybrides, où se mêlent les cultures tech, industrielle et stratégique. Dit autrement, malgré le marketing ambiant, les investisseurs préfèrent accélérer des sociétés ayant une forme de maturité plutôt qu’une forme de risque extrême à tout va.

Quelles réponses européennes ?

Pour l’Europe, l’enjeu n’est pas de choisir entre la jungle et le zoo, ni de rêver à une table rase. Il est d’apprendre à articuler ces deux univers :

  • en assumant plus clairement une politique industrielle de défense, qui fixe des priorités et des lignes rouges ;

  • en construisant des passerelles institutionnelles et financières entre fonds souverains, VC et industriels historiques ;

  • en pensant la souveraineté non seulement en termes de plates-formes matérielles, mais aussi en termes d’architectures logicielles, de données, de standards.

Le « complexe technocapitaliste » ne supprime pas le complexe militaro-industriel. Il le met à l’épreuve, l’oblige à se transformer et offre, si l’on sait le canaliser, de nouveaux leviers pour renforcer une souveraineté européenne qui ne peut plus se contenter de dépendre des choix technologiques et politiques des autres.

The Conversation

Nicolas Minvielle est membre du comité d’orientation de La Fabrique de la Cité, et du collectif Making Tomorrow

Marie Roussie travaille au sein de Alt-a et est membre du Collectif Making Tomorrow.

PDF

21.01.2026 à 16:15

« Une bataille après l’autre » et « The Mastermind » : quand le cinéma révèle les échecs de la gauche aux États-Unis

Gregory Frame, Teaching Associate in Media and Cultural Studies, University of Nottingham

Si deux films portant sur les échecs de la politique de la gauche états-unienne des années 1960 et 1970 ont émergé au même moment du retour en force de Trump, ce n’est pas par hasard.
Texte intégral (1584 mots)

Explorant les failles et la défaite de la gauche américaine, les films Une bataille après l’autre, de Paul Thomas Anderson, et The Mastermind, de Kelly Reichardt, sont sortis en 2025, tandis que Donald Trump faisait un retour en force. Chacun à leur manière, ils invitent les membres et les partisans du parti démocrate comme les activistes de la gauche radicale à faire leur introspection.


La victoire de Donald Trump en novembre 2024 a provoqué une profonde remise en question dans les forces de gauche de la politique états-unienne. Après avoir échoué, les dirigeants du Parti démocrate ont passé l’essentiel de l’année 2025 à panser leurs plaies, tandis que Trump lançait ce que ses opposants considèrent comme une attaque frontale contre la démocratie américaine.

La nouvelle année a commencé par de nouveaux scandales, tant sur le plan intérieur qu’extérieur, l’administration Trump agissant avec une impunité de plus en plus effrayante.


À lire aussi : Le raid de Donald Trump sur le Venezuela laisse présager un nouveau partage du monde entre les grandes puissances


Combinée à la poursuite de la montée du populisme de droite et de l’autoritarisme dans le monde entier, la version « 2.0 » de Trump est vécue comme une crise existentielle pour la gauche.

Le pays a déjà connu une telle situation. Les mouvements de protestation de gauche des années 1960 aux États-Unis ont contribué à d’importants changements législatifs – en particulier dans le domaine des droits civiques –, mais ils ont souvent été caricaturés comme étant « antipatriotiques », notamment s’agissant de la guerre du Vietnam. Le sentiment que le pays se désagrégeait sous l’action de jeunes radicaux violents a conduit la « majorité silencieuse » conservatrice à offrir la victoire électorale à Richard Nixon en 1968.

Depuis lors, la gauche institutionnelle étasunienne s’est détournée de l’idéalisme des années 1960 et a plutôt proposé des changements progressifs et limités. Mais cette stratégie ne s’est sans doute pas révélée très efficace au cours du dernier demi-siècle.

Dans le contexte d’une nouvelle défaite et d’un énième cycle d’introspection, il semble donc approprié que deux films portant sur les échecs de la politique révolutionnaire de gauche des années 1960 et 1970 émergent presque simultanément avec le retour en force de Trump.

Explorer l’activisme de gauche

Bien que très différents par leur style et leur ton, Une bataille après l’autre (2025), de Paul Thomas Anderson, et The Mastermind (2025), de Kelly Reichardt, critiquent ce qu’ils présentent comme l’insuffisance stratégique et l’autosatisfaction de l’activisme de gauche, tout en explorant son coût personnel.

Une bataille après l’autre met en scène l’ancien révolutionnaire Pat Calhoun, alias Bob, (Leonardo DiCaprio) qui tente de sauver sa fille Willa (Chase Infiniti) des griffes d’un colonel suprémaciste blanc, qui a tout d’un psychopathe, Lockjaw (Sean Penn). Bien que Bob ait autrefois résisté aux politiques d’immigration cruelles et racistes du gouvernement fédéral à travers une série de raids audacieux contre des centres de détention, la paternité et une consommation excessive de cannabis ont émoussé son ardeur révolutionnaire.

Au lieu de cela, Bob est désormais un bouffon quelque peu incompétent. Le film exploite à des fins comiques ses tentatives chaotiques pour communiquer avec la « French 75 », l’armée révolutionnaire dont il faisait autrefois partie, inspirée de groupes révolutionnaires réels des années 1960 et 1970, comme les Weathermen.

Déambulant en peignoir, il a oublié tous les codes et les conventions nécessaires pour évoluer dans cet univers. Des mots de passe aux pronoms, Bob est en décalage avec son époque.

Cependant, le film se permet aussi de se moquer du moralisme de la gauche. Alors que Bob devient de plus en plus agressif faute d’obtenir des informations sur un point de rendez-vous crucial, le radical à qui il parle au téléphone l’informe que le langage qu’il emploie nuit à son bien-être. Si Bob manque de compétences pour soutenir la révolution, ceux qui la dirigent sont trop fragiles pour en mener une à bien.

À l’inverse, The Mastermind suit J. B. Mooney (Josh O’Connor) dans ses tentatives d’échapper aux autorités après avoir orchestré le vol de quatre œuvres d’art dans un musée de banlieue. Mari, père et fils d’un juge, Mooney est privilégié, sans direction, désorganisé, égoïste et, semble-t-il, indifférent à l’impact de la guerre du Vietnam alors que le conflit fait rage autour de lui.

Sa désorganisation est évidente dès le moment où il réalise que l’école de ses enfants est fermée pour une journée de formation des enseignants, le jour du casse. Son privilège apparaît clairement lorsqu’il lui suffit de mentionner le nom de son père lors de son premier interrogatoire par la police pour qu’on le laisse tranquille.

Même ses tentatives de convaincre sa femme, Terri (Alana Haim), qu’il a agi pour elle et pour leurs enfants sont maladroites, puisqu’il finit par admettre qu’il l’a aussi fait pour lui-même.

Alors qu’il est en fuite, Mooney semble ignorer ce qui se passe réellement autour de lui, des jeunes hommes noirs qui discutent de leur déploiement imminent au Vietnam, aux bulletins d’information relatant la réalité de la guerre. Sans rien dévoiler, Mooney ne peut finalement échapper aux conséquences de la guerre du Vietnam sur la société américaine.

Des moments révélateurs dans les deux films suggèrent également l’engagement vacillant envers la révolution de la part de ses anciens adeptes. Dans The Mastermind, Mooney se cache chez Fred (John Magaro) et Maude (Gaby Hoffmann), un couple avec lequel il a fréquenté l’école d’art. Malgré son passé militant, Maude refuse de l’héberger plus d’une nuit par crainte d’attirer l’attention des autorités. Dans Une bataille après l’autre, la volonté de Bob de prendre des risques pour sa sécurité et sa liberté diminue lorsqu’il devient parent et il est, de manière assez problématique, prompt à juger la mère de Willa, Perfidia (Teyana Taylor), qui continue à agir à ses risques et périls.

Le cinéma politique des années 1970

Les deux films rappellent inévitablement les œuvres tout aussi politiques produites par le cinéma états-unien à la fin des années 1960 et au début des années 1970, telles que Cinq pièces faciles (1970), Macadam à deux voies (1971) et Chinatown (1974). Au cœur du contrecoup nixonien face au radicalisme des années 1960, ces films adoptent un ton de résignation défaitiste, mettant en scène des protagonistes sans direction et des fins malheureuses.

La conclusion de The Mastermind ressemble à celle de ces films des années 1970. Le film s’achève sur des policiers présents lors d’une manifestation contre la guerre du Vietnam, se félicitant mutuellement après avoir arrêté un nouveau groupe de manifestants et de les avoir envoyés en prison.

Bien qu’Une bataille après l’autre soit beaucoup plus pétillant dans son style, la politique révolutionnaire de gauche y apparaît aussi comme une impasse. Des victoires à plus petite échelle restent possibles : Sergio (Benicio del Toro) continue de se battre pour les immigrés sans papiers, et Willa s’enfuit pour rejoindre une manifestation Black Lives Matter à la fin du film.

Mais en regardant ces deux films depuis la perspective d’une nouvelle année où l’administration Trump menace de provoquer de nouveaux bouleversements violents, tant au plan national qu’international, je repense à la lamentation mélancolique de Captain America (Peter Fonda) vers la fin du classique de la contre-culture Easy Rider (1969) :

« On a tout gâché. »

The Conversation

Gregory Frame ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 14:48

Taxe Gafam : le Conseil constitutionnel consacre un régime fiscal spécifique pour les plateformes numériques

Grégoire Rota-Graziosi, Professeur CERDI-UCA-CNRS-IRD, Université Clermont Auvergne (UCA)

Google, Amazon, Meta, le 12 septembre 2025, le Conseil constitutionnel approuvait la taxe Gafam. Une révolution, car l’impôt dépend désormais de la juridiction des utilisateurs.
Texte intégral (1695 mots)
Le Conseil constitutionnel français admet qu’une activité numérique relève du champ de l’impôt taxé dans la juridiction des utilisateurs. ToninT/Shutterstock

Le 12 septembre 2025, le Conseil constitutionnel français approuve une taxe sur les services numériques (TSN). Il assume l’existence d’un régime fiscal distinct applicable aux grandes plateformes numériques, sans rupture d’égalité devant l’impôt. Une révolution copernicienne ? Oui, car l’impôt n’est plus fondé sur la localisation des entreprises, mais sur celle de ses utilisateurs. En l’occurrence, en France et non aux États-Unis.


Un clic à Paris. Une réservation à Milan. Une vidéo à Londres. Trois gestes anodins, trois fractions de seconde offertes aux plateformes. Pour les marchés financiers, ces actes valent des milliards. Pour les administrations fiscales, ils ne valaient presque rien, les entreprises concernées évitant l’imposition de leurs bénéfices respectifs par des pratiques d’optimisation fiscale.

Pour y remédier, les autorités françaises ont introduit une taxe sur les services numériques (TSN) en 2019 comme une mesure transitoire pour appréhender les bénéfices réalisés en France par les entreprises multinationales dites du « numérique ». Elle rapporterait environ 700 millions d’euros en 2024.

Cette taxe initialement de 3 % s’applique sur le chiffre d’affaires des plateformes de services numériques – intermédiation, publicité ciblée, vente de données, etc.

Comment fonctionne concrètement cette taxe Gafam ? Quelles implications sur notre économie ? Pourquoi

Seule la juridiction des utilisateurs compte

Le 12 septembre 2025, le Conseil constitutionnel admet qu’une activité purement numérique – l’interaction entre une plateforme et ses utilisateurs situés en France – relève du champ de l’impôt. L’absence d’un établissement stable – usine, bureau ou filiale – ne fait plus obstacle à l’imposition des revenus issus d’utilisateurs localisés en France. Cette décision consacre une évolution majeure : une activité immatérielle est localisée par ses utilisateurs justifiant son imposition par la juridiction (pays) de ces derniers.

En reconnaissant ce principe, le Conseil donne un socle constitutionnel à la taxe sur les services numériques (TSN) française et, au-delà, à une fiscalité de l’usage. La présence économique ne se mesure plus en mètres carrés, en nombre de salariés, en valeur des immobilisations corporelles mais en interactions, en données et en attention des utilisateurs.

Cette décision considère l’activité numérique des utilisateurs comme une base fiscale autonome. Elle constitue une rupture discrète, mais historique, dans un débat planétaire portant sur la source de valeur à l’ère numérique.

Les États-Unis vent debout contre cette réforme

Le retrait des États-Unis en janvier 2025 du Global Tax Deal a ravivé la pertinence de solutions unilatérales.

Le 2 décembre 2019, les États-Unis avaient rapidement réagi à l’adoption par la France, en juillet de la même année, de la loi créant la taxe sur les services numériques, en menaçant de rétorsion tarifaire non seulement la France, mais aussi d’autres pays ayant adopté une taxe similaire, comme le Royaume-Uni, l’Espagne, l’Autriche et l’Italie.

L’Organisation de coopération et de développement économiques (OCDE) est alors chargée de trouver une solution multilatérale dans le cadre des règles globales anti-érosion de la base imposable. La solution proposée repose sur deux piliers :

  • La (ré)allocation d’une partie des profits résiduels des grandes multinationales, en particulier numériques, vers les juridictions de marché indépendamment de la présence physique ;

  • L’instauration d’un impôt minimum mondial sur les sociétés, afin de limiter la concurrence fiscale et l’érosion des bases. L’administration de Donald Trump a rejeté en janvier 2025 cette solution et leurs engagements antérieurs dans l’accord de l’OCDE datant de 2021.

Dans ce contexte, la décision du Conseil constitutionnel rapproche la France de la position des Nations unies, sans rompre avec celle de l’OCDE. Dès 2021, l’article 12B du Modèle de Convention fiscale de l’ONU autorise les États à imposer les revenus tirés des « services automatisés fournis à distance », comme le cloud, le streaming, les logiciels, la publicité en ligne, les moteurs de recherche ou les plateformes. Cette approche protège davantage les intérêts des pays du Sud, davantage de consommateurs de services numériques que les « producteurs » de ceux-ci ou les hébergeurs des sièges des entreprises multinationales du numérique.

« Servicisation numérique »

La définition de l’assiette taxable des services numériques est sensiblement plus large dans l’approche des Nations unies que dans les législations fiscales européennes.

L’intérêt de cette définition étendue est d’anticiper les évolutions industrielles actuelles et futures comme la « servicisation numérique ». Cette dernière désigne le passage de la vente de produits physiques à celle de services numériques. Par exemple, la valeur d’un équipement industriel ne repose pas tant sur celle de l’équipement physique que sur les services numériques dédiés à la performance de l’équipement.

La « servicisation numérique » transfère la création de valeur et de profits d’actifs physiques vers des actifs intangibles, comme des droits de propriété intellectuelle ou des services numériques. Le transfert des bénéfices vers des centres étrangers de services numériques localisés dans des pays à faible fiscalité participe à l’érosion des bénéfices imposables.

La taxe sur les services numériques (TSN) devient un moyen de limiter le risque de transfert de profits qui concerne la plupart des secteurs économiques.

Taxation optimale

Par sa forme, la taxe sur les services numériques est simple. Elle repose sur le chiffre d’affaires réalisé dans le pays où habite l’utilisateur. Cette forme évite la renégociation des conventions fiscales bilatérales.

Elle reste critiquée par les partisans de la théorie de la taxation optimale. Pourquoi ? Parce qu’elle réduit l’efficience de la production en taxant chaque transaction, en ignorant les marges bénéficiaires qui varient d’une entreprise à l’autre.

Par exemple, une taxe de 3 % sur le chiffre d’affaires d’une entreprise ayant une marge de 30 % correspond à une taxe de 10 % sur ses bénéfices. La même taxe appliquée à une entreprise moins profitable, ayant une marge de 5 % par exemple, supporterait alors une taxe de 60 % sur ses bénéfices.

Présence économique significative indienne

Son alternative est la présence économique significative (PES) introduite en Inde en 2018, puis au Nigeria notamment.

Ce régime taxe le profit supposé réalisé dans le pays. Si cette forme de taxation respecte davantage l’orthodoxie fiscale en taxant les bénéfices, elle est plus complexe à mettre en œuvre. Elle nécessite d’estimer non seulement le chiffre d’affaires réalisé dans le pays, mais également les coûts associés à l’activité dans le pays concerné.

L’article 12B du Modèle de Convention fiscale de l’ONU laisse le choix aux pays de taxer le chiffre d’affaires ou le profit.

La décision du Conseil constitutionnel a confirmé la compétence fiscale de l’État à taxer la valeur créée par un utilisateur français de services numériques d’entreprises étrangères. Cette décision ne règle pas toutes les difficultés, et de nouveaux défis et oppositions existent concernant la définition ou l’estimation de la valeur taxable.

Elle est pourtant une première étape vers un système fiscal à l’ère du numérique.


Cet article a été co-rédigé avec Abdel-Malek Riad, chercheur associé au CERDI–CNRS et président-directeur général d’AMR IM.

The Conversation

Grégoire Rota-Graziosi est membre de la FERDI. Il est expert en politique fiscales et assure des missions auprès d'institutions nationales, régionales ou internationales.

PDF

21.01.2026 à 11:36

Des éclairs détectés sur Mars pour la toute première fois

Baptiste Chide, Chargé de Recherche CNRS à l'IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées

Franck Montmessin, Directeur de recherche CNRS au Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Pour la première fois, un microphone placé sur le rover Perseverance a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière.
Texte intégral (1725 mots)

Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.


Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.

Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de trente heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ trois minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.

Un jackpot scientifique

Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.

Le son du tout premier éclair enregistré sur Mars. NASA/JPL-Caltech/LANL/CNES/CNRS/IRAP, Fourni par l'auteur214 ko (download)

Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.

Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !

Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.

En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars, en revanche, l’atmosphère ténue de CO₂ rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.

Des implications au niveau du climat martien

Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.

En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.

Expliquer la disparition du méthane

L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.

Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.

Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.

On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.

Peut-être lors de futures missions ? L’Agence spatiale européenne (ESA) avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.

The Conversation

Franck Montmessin a reçu des financements de l'ANR et du CNES.

Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 11:36

Les crocodiles, des reptiles loquaces et à l’écoute du monde

Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne

On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe.
Texte intégral (3253 mots)
S’ils sont discrets, les crocodiles sont aussi bavards entre eux, et ce, avant même l’éclosion de l’œuf. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur

On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe. Tendez l’oreille : le seigneur des fleuves a beaucoup à dire.


Lorsque l’on se représente un crocodile, on pense à un prédateur silencieux, un tronc d’arbre flottant au milieu du fleuve, attendant patiemment qu’une proie s’approche pour faire brusquement claquer ses mâchoires. Cette image, bien que partiellement vraie – il est sagement déconseillé de nager au milieu de crocodiles –, occulte une réalité biologique fascinante : les crocodiliens (crocodiles, alligators, caïmans et gavials) sont les reptiles les plus vocaux et les plus sociaux de la planète.

Ces animaux possèdent un système de communication acoustique sophistiqué et une ouïe d’une finesse redoutable, peut-être hérités de leurs ancêtres communs avec les oiseaux et les dinosaures. Depuis près de trois décennies, notre équipe de recherche en bioacoustique s’attelle à décoder ce qu’ils disent et à comprendre comment ils perçoivent leur environnement sonore. Voici ce que nos études révèlent du monde sonore des crocodiliens.

La première conversation : parler depuis l’œuf

L’histoire acoustique d’un crocodile commence avant sa naissance. Contrairement à la majorité des reptiles qui pondent leurs œufs et les abandonnent, les mères ou les pères crocodiliens montent la garde près du nid. Mais comment savoir quand les petits sont prêts à sortir, enfouis sous des dizaines de centimètres de sable ou de végétation ? Nos recherches ont démontré que les embryons de crocodiles ne sont pas passifs. Lorsqu’ils sont prêts à sortir de l’œuf, après trois mois d’incubation, ils commencent à émettre des vocalisations particulières, appelées cris d’éclosion.

Les cris d’éclosion des petits crocodiles encore dans l’œuf. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur91,5 ko (download)

Ces sons, audibles à travers la coquille et à l’extérieur du nid, remplissent une double fonction. D’une part, ils s’adressent à la fratrie. Lors d’expériences consistant à émettre des sons depuis un haut-parleur près d’œufs de crocodiles du Nil prêts à éclore, nous avons observé que l’audition de ces cris incite les autres embryons à vocaliser à leur tour et à briser leur coquille. Ce mécanisme permet de synchroniser l’éclosion : toute la nichée va sortir ensemble. Pour des proies aussi vulnérables que des nouveau-nés de quelques dizaines de grammes, c’est une belle stratégie de survie face aux prédateurs.

D’autre part, ces cris sont un signal impérieux pour la mère ou le père. Une femelle crocodile qui monte la garde depuis trois mois réagit immédiatement à l’audition de ces cris d’éclosion : elle se met à creuser le nid avec ses pattes. Sans ce comportement parental en réponse à leur signal sonore, les petits resteraient prisonniers sous terre.

Cependant, la mère ne réagit pas au premier petit bruit venu. Nos expériences sur le crocodile du Nil ont montré que la femelle réagit à des cris isolés par des mouvements de tête, enfouissant son museau dans le sol comme pour en sentir les vibrations, mais elle ne commence à creuser activement que si les cris forment une séquence continue et rythmée. Ceci évite à la femelle d’ouvrir le nid trop tôt pour un seul petit précocement bavard, ce qui mettrait en danger le reste de la couvée.

Le langage des jeunes crocos

Une fois sortis de l’œuf et délicatement transportés à l’eau dans la gueule de leurs parents, les jeunes crocodiliens restent groupés en crèches sous la protection de l’adulte pendant des semaines, voire des mois. Durant cette période, la communication acoustique entre parent et jeunes est vitale.

Le répertoire vocal des juvéniles est structuré autour de deux types de signaux principaux : les cris de contact et les cris de détresse. Le cri de contact est utilisé pour maintenir la cohésion du groupe de jeunes. C’est un son d’intensité assez faible et dont la fréquence varie peu. Le cri de détresse, lui, est émis lorsqu’un jeune est saisi par un prédateur. Il est plus fort et sa fréquence est plus modulée. Il présente souvent une structure acoustique plus chaotique, ce qui le rend un peu rugueux à l’oreille.

La tête d’un jeune crocodile qui dépasse de l’eau
Les jeunes crocodiles s’expriment, soit pour signaler un danger, soit pour maintenir la cohésion du groupe. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur

La mère sait faire la différence : un cri de contact suscite une simple attention, tandis qu’un cri de détresse déclenche une réaction agressive de défense immédiate. Mais un parent reconnaît-il la voix de ses petits ? Visiblement pas : nos analyses acoustiques des crocodiles du Nil indiquent qu’il n’y a pas de signature vocale chez les nouveau-nés qui permettrait aux parents de les identifier individuellement. En revanche, nous avons découvert que plus le crocodile est petit, plus le cri est aigu. Lors d’expériences réalisées dans la nature, les mères crocodiles du Nil ont réagi plus intensément aux cris les plus aigus. C’est logique : les plus petits sont les plus vulnérables aux prédateurs et nécessitent une protection accrue.

La tête d’un crocodile adulte dépasse de l’eau. Autour d’elle, de très jeunes crocodiles se confondent avec des plantes aquatiques
Les parents, ici une femelle, surveillent leurs jeunes au sein de crèches et restent attentifs à leurs vocalisations. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur

Une ouïe entre l’eau et l’air

Le crocodile est un animal amphibie, vivant à l’interface entre l’air et l’eau, mondes aux propriétés acoustiques radicalement différentes. Mais son audition est d’abord aérienne. Lorsque le crocodile flotte, immobile, ce qui est sa position favorite pour attendre une proie, ses oreilles se trouvent juste au-dessus de la ligne de flottaison. Si l’animal plonge, une paupière vient protéger l’oreille, et l’on ne sait pas encore si les crocodiles entendent bien sous l’eau.

La tête d’un caïman yacare qui sort de l’eau
Un yacare à l’affut. Ce caïman, comme les autres crocodiliens, garde ses oreilles juste au-dessus de l’eau lorsqu’il s’immerge. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur

Comment un animal dont la tête est à moitié immergée fait-il pour localiser une proie, un petit ou un rival ? Chez l’humain ou d’autres mammifères et oiseaux, la localisation repose sur deux indices principaux : le son arrive plus vite à l’oreille tournée vers la source et est également plus fort, puisque la tête fait écran. Dans des expériences, nous avons entraîné des crocodiles à se diriger vers des haut-parleurs pour obtenir une récompense, et les résultats montrent qu’ils utilisent également ces deux sources d’information. Pour les sons graves, ils se fient surtout au temps ; pour les aigus, ils utilisent plutôt la différence d’intensité.

Distinguer dans le bruit

Les crocodiliens vivent souvent dans des environnements bruyants. Pour survivre, ils doivent être capables d’isoler un signal pertinent du bruit de fond, mais aussi d’identifier ce qu’ils entendent. Un bruit dans les roseaux est-il une proie ou un congénère ? Au laboratoire, nous avons découvert quel paramètre acoustique ils utilisent pour faire cette distinction. Ce n’est pas la hauteur du son ni son rythme mais l’enveloppe spectrale, c’est-à-dire le timbre du son. C’est exactement le même paramètre que nous, humains, utilisons pour distinguer les voyelles (« a » ou « o ») ou pour reconnaître la voix de quelqu’un au téléphone. Et la catégorisation des sons opérée par les crocodiles n’est pas totalement figée, elle peut être affinée par l’apprentissage, preuve d’une vraie plasticité cognitive.

En particulier, les crocodiles savent reconnaître et sont particulièrement appâtés par les signaux de détresse d’autres animaux. Quand on diffuse des enregistrements de pleurs de bébés humains, bonobos ou chimpanzés à des crocodiles du Nil, les résultats sont frappants : les crocodiles sont très fortement attirés par ces pleurs. Mais pas n’importe comment.

Les humains jugent la détresse d’un bébé principalement à la hauteur de son cri (plus c’est aigu, plus on pense que le bébé exprime de la douleur). Les crocodiles, eux, se basent sur un critère acoustique plus fiable : le chaos, qui se traduit par la rugosité de la voix qui survient lorsque les cordes vocales sont poussées à leurs limites physiques sous l’effet du stress ou de la douleur.

Les crocodiles se sont donc révélés meilleurs que les humains pour évaluer le niveau de détresse des bébés, en particulier des bonobos. Là où nous surestimons la détresse des bonobos à cause de leurs cris suraigus, les crocodiles ne réagissent intensément qu’aux pleurs contenant beaucoup de chaos acoustique, signe d’une véritable urgence, et donc d’une proie vulnérable.

Entre congénère et proie, que privilégier ?

Si les jeunes crocodiliens sont particulièrement bavards, les adultes ne sont pas en reste. Les mères, et les pères pour les espèces où ils s’occupent de leur progéniture, émettent des grognements qui attirent les jeunes. Femelles et mâles adultes rugissent lors des parades nuptiales et pour défendre leur territoire. Lorsqu’ils se sentent menacés, les adultes peuvent souffler de manière bruyante, ce qui passe l’envie de les approcher. On observe cependant de grandes différences dans l’usage des signaux sonores entre les groupes de crocodiliens : si les alligators et les caïmans sont particulièrement vocaux, les autres crocodiles deviennent plus silencieux à l’âge adulte.

Le rugissement d’un caïman noir adulte. Nicolas Mathevon/Université Jean Monnet, Fourni par l'auteur30,2 ko (download)

Imaginez un jeune crocodile affamé qui entend un congénère l’appeler, mais qui sent en même temps une odeur de viande. Que fait-il ? Nous avons testé ce conflit sensoriel. Les résultats montrent que l’état de satiété modifie la réponse comportementale. Un crocodile rassasié est très attentif aux sons sociaux : il se dirige vers les cris de contact de ses congénères. Un crocodile affamé privilégie la recherche d’une source de nourriture. Cela suggère une modulation de l’attention : la priorité de l’animal peut basculer selon les besoins physiologiques.

Loin de l’image du monstre primitif, le crocodile est un animal doté d’une vie sensorielle et cognitive riche. Il naît dans un monde sonore, synchronisant son éclosion avec ses frères et sœurs. Il communique avec l’adulte qui s’occupe de lui pour obtenir protection. Il analyse son environnement sonore avec des outils sophistiqués (localisation binaurale, démasquage spatial) dignes des oiseaux ou des mammifères. Il catégorise les sons sur la base de leur timbre pour distinguer les congénères des en-cas. Et il est même capable d’évaluer le niveau de détresse dans la voix d’autres espèces.


Ces études sur les crocodiles ont impliqué de nombreux collaborateurs et collaboratrices, dont Thierry Aubin (CNRS), Nicolas Grimault (CNRS), Nicolas Boyer (Université de Saint-Étienne), Amélie Vergne, Léo Papet, Julie Thévenet et Naïs Caron-Delsbosc. Je remercie les parcs zoologiques La Ferme aux crocodiles (Pierrelatte, France) et Crocoparc (Agadir, Maroc) pour leur soutien.

The Conversation

Nicolas Mathevon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 11:36

Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?

Manuel Bellanger, Chercheur en économie, Ifremer

La géo-ingénierie vise (sans preuve d’efficacité) à éviter les risques climatiques, mais c’est aussi un moyen de gagner de l’argent.
Texte intégral (2658 mots)
L’océan joue un rôle important pour absorber le carbone présent dans l’atmosphère terrestre et le stocker. Des start-ups cherchent à favoriser ce stockage dans le but de limiter les impacts du changement climatique, mais l’efficacité et les risques de ces techniques sont mal connus. ESA, CC BY-SA

Le mot « géo-ingénierie » recouvre un grand nombre de techniques, du « parasol spatial », qui limite l’arrivée de lumière du soleil dans l’atmosphère, à l’ensemencement de l’océan pour lui faire absorber encore plus de carbone qu’il ne le fait naturellement.

Manuel Bellanger étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec son regard d’économiste. Cet interview, réalisée par Elsa Couderc, cheffe de rubrique Sciences et Technologies, constitue le second volet de « regards croisés » sur la géo-ingénierie climatique. Dans le premier, nous explorons avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger.


The Conversation : La géo-ingénierie marine est mal connue en France, pourtant elle se développe à l’étranger. Qui développe ces projets ?

Manuel Bellanger : En ce qui concerne l’océan, le spectre des acteurs et des techniques de géo-ingénierie est très varié.

Les initiatives les plus prudentes sont en général pilotées par des instituts de recherche, par exemple aux États-Unis ou en Allemagne. Leur finalité est plutôt de comprendre si ces interventions sont techniquement possibles : peut-on développer des méthodes pour capturer du CO₂ atmosphérique par l’océan, mesurer la quantité de carbone stockée durablement, vérifier les affirmations des différents acteurs, étudier les impacts écologiques, tenter de définir des bonnes pratiques et des protocoles ? Ces projets de recherche sont typiquement financés par des fonds publics, souvent sans objectif de rentabilité immédiate.

Il existe aussi des collaborations entre institutions académiques et partenaires privés et, enfin, à l’autre bout du spectre, un certain nombre de start-up qui font la promotion du déploiement rapide et massif de ces techniques.

Peut-on espérer gagner de l’argent grâce à la géo-ingénierie marine ?

M. B. : Le modèle économique de ces start-up repose sur la vente de crédits carbone qu’elles espèrent pouvoir mettre sur les marchés volontaires du carbone – c’est-à-dire qu’elles cherchent à vendre des certificats à des acteurs privés qui veulent compenser leurs émissions.

Pour cela, la séquestration doit être certifiée par des standards ou des autorités. Sachant qu’il y a aussi des initiatives privées qui développent des certifications… aujourd’hui, c’est un peu la jungle, les marchés volontaires du carbone. Et l’achat de ces crédits certifiés reste sur la base du volontariat, puisqu’il n’y a généralement pas d’obligation réglementaire pour les entreprises de compenser leurs émissions.

Pouvez-vous nous donner des exemples de telles start-up et l’état de leurs travaux ?

M. B. : Running Tide, aux États-Unis, a tenté de développer des crédits carbone issus de la culture d’algues sur des bouées biodégradables qui devaient couler sous leur propre poids dans les profondeurs abyssales. Mais ils ne sont pas parvenus à produire des quantités significatives d’algues. L’entreprise a finalement eu recours au déversement de milliers de tonnes de copeaux de bois dans les eaux islandaises pour essayer d’honorer les crédits carbone qu’ils avaient vendus. Mais les experts et observateurs ont critiqué le manque de preuves scientifiques montrant que cette approche permettait réellement de séquestrer du CO₂ et l’absence d’évaluation des impacts sur les écosystèmes marins. L’entreprise finalement a cessé ses activités en 2024 pour des raisons économiques.

Une start-up canadienne, Planetary Technology, développe une approche d’augmentation de l’alcalinité océanique visant à accroître l’absorption du CO₂ atmosphérique et son stockage à long terme sous forme dissoute dans l’océan. Pour cela, ils ajoutent à l’eau de mer du minerai alcalin, de l’hydroxyde de magnésium. Ils ont annoncé avoir vendu des crédits carbone, notamment à Shopify et British Airways.

Une autre société, californienne cette fois, Ebb Carbon, cherche également à augmenter l’alcalinité océanique, mais par électrochimie : ils traitent de l’eau de mer pour la séparer en flux alcalins et acides, puis renvoient la solution alcaline dans l’océan. Cette société a annoncé avoir signé un contrat avec Microsoft pour retirer des centaines de milliers de tonnes de CO₂ sur plusieurs années.

L’écosystème commercial fleurit déjà en Amérique du Nord, même si on n’en entend pas forcément parler ici.

Il y a aussi une sorte de fonds, appelé Frontier Climate, qui engage des contrats anticipés pour des tonnes de CO₂ qui seront retirées de l’atmosphère dans le futur : ils achètent par avance des crédits carbone à des sociétés qui sont en phase de développement et qui ne sont pas encore réellement en train de capturer et de séquestrer du carbone. Derrière ce fonds-là, il y a des géants de la tech, comme Google ou Facebook, parmi les membres fondateurs. On peut supposer que c’est une manière pour ces entreprises, qui ont une consommation énergétique assez importante, de s’acheter une vertu climatique. Donc, eux, ils ont déjà annoncé avoir acheté pour 1,75 million de dollars (plus de 1,5 million d’euros) de crédits carbone à des entreprises d’alcalinisation de l’océan.

Et pourtant, vous disiez tout à l’heure qu’on n’est pas encore sûrs de savoir mesurer scientifiquement si l’océan a bien absorbé ces tonnes de carbone.

M. B. : Effectivement, les bases scientifiques de ces techniques-là ne sont vraiment pas solides aujourd’hui. On ne sait pas encore quelles quantités de CO₂ elles vont permettre de capturer et de séquestrer et on ne sait pas non plus quels vont être les impacts sur l’environnement.


À lire aussi : Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?


Et côté scientifique, il n’y a donc pour l’instant pas de consensus sur la capacité des techniques de géo-ingénierie marine à retirer suffisamment de carbone de l’atmosphère pour réellement freiner le changement climatique ?

M. B. : Il y a même pratiquement un consensus scientifique pour dire que, aujourd’hui, on ne peut pas présenter les techniques de géo-ingénierie marine comme des solutions. En fait, tant qu’on n’a pas drastiquement réduit les émissions de gaz à effet de serre, beaucoup considèrent qu’il est complètement futile de vouloir commencer à déployer ces techniques-là.

En effet, aujourd’hui, les ordres de grandeur évoqués (le nombre de tonnes que les entreprises annoncent séquestrer) n’ont rien à voir avec les ordres de grandeur qui permettraient de changer quoi que ce soit au climat. Par exemple, pour la culture de macroalgues, certaines modélisations estiment qu’il faudrait recouvrir 20 % de la surface totale des océans avec des fermes de macroalgues – ce qui est déjà presque absurde en soi – pour capturer (si ça marche) 0,6 gigatonne de CO₂ par an… à comparer aux 40 gigatonnes que l’humanité émet aujourd’hui chaque année. Si ces techniques pouvaient jouer un rôle dans le futur pour compenser les émissions que le Giec désigne comme « résiduelles » et « difficiles à éviter » (de l’ordre de 7 à 9 gigatonnes de CO₂ par an à l’horizon 2050) et atteindre des objectifs de neutralité carbone, les déployer aujourd’hui ne pourrait en aucun cas remplacer des réductions d’émissions rapides et massives.

Alors, qui pousse ces développements technologiques ?

M. B. : Un certain nombre d’initiatives semblent être poussées par ceux qui ont un intérêt au statu quo, peut-être même par certains qui n’auraient pas de réelle volonté de déployer la géo-ingénierie, mais qui ont un intérêt à faire diversion pour retarder l’action qui viserait à diminuer les émissions aujourd’hui.

On pense plutôt aux acteurs des énergies fossiles qu’aux géants de la tech, dans ce cas ?

M. B. : Les acteurs des énergies fossiles ont effectivement cet intérêt à retarder l’action climatique, mais ils sont de fait moins visibles aujourd’hui dans le financement direct des techniques de géo-ingénierie – il semble qu’ils soient plus dans le lobbying et dans les discours qui vont légitimer ce genre de techniques.

De fait, investir dans la géo-ingénierie ne fait-il pas courir le risque de détourner l’attention des citoyens et des gouvernements de l’urgence de réduire nos émissions de gaz à effet de serre ?

M. B. : C’est un risque clairement identifié dans la littérature scientifique, parfois sous le nom d’« aléa moral climatique », parfois d’« effet de dissuasion ». Derrière, il y a l’idée que la promesse de solutions technologiques futures, comme la géo-ingénierie marine, pourrait affaiblir la volonté politique ou sociétale de réduire les émissions dès maintenant. Donc le risque d’être moins exigeants envers nos décideurs politiques pour qu’ils tiennent les engagements climatiques et, in fine, que le décalage entre les objectifs et l’action climatique réelle soit toujours plus grand.

Par ailleurs, on a des ressources financières, ressources en main-d’œuvre, en expertise, qui sont somme toute limitées. Tout ce qui est investi dans la recherche et le développement ou pour l’expérimentation de ces technologies de géo-ingénierie peut se faire au détriment des ressources allouées pour les mesures d’atténuation connues et démontrées : l’efficacité énergétique, les énergies renouvelables, la sobriété. On sait que ces solutions fonctionnent : ce sont elles qu’il faudrait mettre en œuvre le plus rapidement.

La priorité absolue – on n’arrête pas de le répéter –, c’est la diminution rapide des émissions de gaz à effet de serre. Donc la position de la plupart des scientifiques, c’est que ces techniques de géo-ingénierie marine devraient être explorées d’un point de vue de la recherche, par exemple pour évaluer leur efficacité et leurs effets environnementaux, économiques et sociaux, de manière à éclairer les choix politiques et sociétaux à venir. Mais, encore une fois, aujourd’hui la géo-ingénierie marine ne peut pas être présentée comme une solution à court terme.

C’est pour cela que la communauté scientifique appelle à une gouvernance internationale de la géo-ingénierie, avant un déploiement massif de ces techniques. Quelles instances internationales seraient à même de mener une gouvernance sur le sujet ?

M. B. : Il faut en effet que les États s’impliquent fortement dans la gouvernance de la géo-ingénierie, et il faut des traités internationaux. Pour l’instant, c’est assez fragmenté entre différents instruments juridiques, mais il y a ce qu’on appelle le protocole de Londres, adopté en 1996, pour éviter la pollution en mer par dumping (le fait de pouvoir décharger des choses en mer). Ce protocole permet déjà en partie de réguler les usages de géo-ingénierie marine.

Par exemple, la fertilisation des océans par ajout de fer visant à stimuler le phytoplancton qui capture le CO₂ par photosynthèse. Cette technique rentre dans le cadre existant du protocole de Londres, qui interdit la fertilisation de l’océan à des fins commerciales et impose un cadre strict pour la recherche scientifique depuis plus d’une quinzaine d’années. Le protocole pourrait être adapté ou amendé pour réguler d’autres techniques de géo-ingénierie marine, ce qui est plus facile que de créer un nouveau traité international.

Les COP sur le climat sont aussi importantes pour deux raisons : elles rassemblent plus de nations que le protocole de Londres, et elles sont le cadre privilégié pour discuter des marchés carbone et donc pour éviter la prolifération d’initiatives commerciales non contrôlées, pour limiter les risques environnementaux et les dérives du type crédits carbone douteux.

Il y a des précédents avec ce qu’il s’est passé sur les crédits carbone forestiers : une enquête publiée par le Guardian en 2022 a montré que plus de 90 % des projets certifiés par Verra – le principal standard mondial – n’ont pas empêché la déforestation ou ont largement surévalué leurs bénéfices climatiques. Sans encadrement, la géo-ingénierie marine pourrait tout à fait suivre le même chemin.

Enfin, il y a bien sûr des enjeux d’équité, si ceux qui mettent en œuvre une action ne sont pas ceux qui risquent de subir les impacts ! Là aussi, il y a des précédents observés sur des projets forestiers certifiés pour générer des crédits carbone, où les bénéfices économiques sont captés par les investisseurs tandis que les communautés locales subissent des restrictions d’accès aux ressources forestières ou sont exposées à des changements dans leur mode de vie.

Concrètement, quels sont les risques pour les populations qui vivent à proximité de l’océan ou s’en servent de ressource nourricière, par exemple ?

M. B. : Ça dépend vraiment de la technique de géo-ingénierie utilisée et de l’endroit où ça va être déployé. Par exemple, si on imagine un déploiement massif de cultures d’algues, ça pourrait modifier les écosystèmes côtiers, et par ailleurs générer une concurrence pour l’espace avec la pêche ou l’aquaculture traditionnelle.

Sur les littoraux, où les activités maritimes sont souvent très denses, il y a déjà des conflits d’usage, que l’on observe par exemple dans les tensions autour des installations de parcs éoliens en mer.


Propos recueillis par Elsa Couderc.

The Conversation

Manuel Bellanger a reçu des financements dans le cadre du programme ANR n° 21-POCE-0001 PPR Océan & Climat.

PDF

21.01.2026 à 11:36

Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?

Laurent Bopp, Directeur de recherche, Centre national de la recherche scientifique (CNRS); École normale supérieure (ENS) – PSL; Académie des sciences

Loin d’être la solution magique, manipuler artificiellement le climat pourrait générer de nouveaux risques – certains sont déjà bien documentés, d’autres plus incertains à ce stade.
Texte intégral (3489 mots)
L’idée d’injecter des aérosols dans l’atmosphère pour imiter l’effet des éruptions volcaniques et masquer les rayons du Soleil n’est pas nouvelle, mais elle nous expose au risque de « choc terminal » : un réchauffement brutal si l’injection venait à s’arrêter. Ici, une éruption du volcan Tonga, dans le Pacifique. Goes-West Satellite/NOAA/RAMMB/CIRA, CC BY

La « géo-ingénierie climatique » recouvre un ensemble de techniques qui visent à manipuler le climat à grande échelle afin d’éviter les risques du changement climatique. Ces techniques sont très variées, depuis les parasols spatiaux pour limiter l’arrivée des rayons du soleil dans l’atmosphère jusqu’à la fertilisation des océans pour que le phytoplancton consomme davantage de CO₂, en passant par la restauration et la conservation de zones humides où le carbone est stocké de façon préférentielle.

En octobre 2025, l’Académie des sciences a publié un rapport qui détaille ce que l’on sait et ce que l’on ignore encore sur les éventuels bénéfices de ces techniques et sur les nouveaux risques qu’elles font surgir.

Elsa Couderc, cheffe de rubrique Sciences et Technologies, explore ici avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger. Le second volet de ces « regards croisés » est un entretien avec Manuel Bellanger, qui étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec un regard d’économiste.


The Conversation : Pourquoi l’Académie des sciences s’empare-t-elle aujourd’hui du sujet de la géo-ingénierie climatique, alors qu’on en parle relativement peu en France ?

Laurent Bopp : Le sujet est de plus en plus présent dans la littérature scientifique, dans le débat scientifique et dans le débat politique qui entoure les discussions sur le changement climatique. On ne s’en rend pas bien compte en France, mais aux États-Unis, en Angleterre, en Allemagne, au Canada, le débat est beaucoup plus présent.

Certains climatologues, y compris de renom, se prononcent pour faire beaucoup plus de recherches sur ces technologies, mais aussi parfois pour envisager leur déploiement à grande échelle afin d’éviter un réchauffement trop important. L’argument est simple : un niveau de réchauffement trop élevé génère des risques importants et pourrait conduire au dépassement de certains points de bascule potentiels dans le système climatique, par exemple une fonte irréversible des calottes glaciaires du Groenland et de l’Antarctique, ce qui pourrait entraîner une élévation du niveau de la mer de plusieurs mètres additionnels.

En France, nous avons besoin collectivement de plus d’informations et de plus de débats autour de ces techniques. Nous avons eu le sentiment que certains de nos représentants se sont retrouvés en partie dépourvus dans des arènes de négociations internationales, face à des représentants d’autres gouvernements qui ont un agenda très agressif sur ces technologies. C’est sans doute une des raisons pour lesquelles l’Académie des sciences s’est emparée du sujet.

L’idée des interventions de géo-ingénierie climatique, c’est de réduire les risques liés au changement climatique. Mais ces interventions pourraient-elles induire de nouveaux risques et lesquels ?

L. B. : Un des intérêts de ce rapport, c’est de mettre la lumière sur ces nouveaux risques.

Mais, avant de rentrer dans le détail, il faut, quand nous parlons de géo-ingénierie climatique, distinguer deux grandes catégories de techniques – ces deux catégories sont fondées sur des approches très différentes et présentent des risques, là aussi, très différents.

Pour la première de ces catégories, il s’agit de modifier de façon assez directe le rayonnement solaire. On parle en anglais de Solar Radiation Management ou SRM. Dans ce cas-là, l’action s’apparente plutôt à une sorte de pansement sur la plaie d’une blessure, sans s’attaquer du tout à la cause du changement climatique : l’idée est de refroidir la Terre de façon artificielle, en utilisant par exemple des particules atmosphériques ou des miroirs spatiaux qui limiteraient la pénétration du rayonnement solaire jusqu’à la surface de la Terre. Ce refroidissement pourrait compenser, en partie au moins, le réchauffement lié aux gaz à effet de serre qui continueraient à augmenter dans l’atmosphère.

L’injection d’aérosols dans la haute atmosphère vise à imiter des éruptions volcaniques de très grande taille qui, par le passé, ont pu refroidir la Terre. Une des limites premières de cette approche, c’est que cette façon de refroidir la Terre est très différente de la façon dont elle se réchauffe aujourd’hui à cause des gaz à effet de serre : les échelles de temps et les échelles spatiales associées sont très différentes, et cela engendre un certain nombre de conséquences. Les risques sont à lire en fonction de ces deux échelles.

Les aérosols que l’on pourrait injecter dans la haute atmosphère ont une durée de vie courte. Ils vont disparaître de l’atmosphère assez rapidement, tandis que les gaz à effet de serre qui réchauffent le système Terre, le CO₂ en particulier, sont dans l’atmosphère pour très longtemps.

Cette différence majeure entraîne l’un des risques les plus préoccupants : le risque de « choc terminal ». Concrètement, si l’on décidait d’arrêter brutalement l’injection d’aérosols après s’être engagé dans ce type de stratégie
– et les raisons pourraient être multiples, qu’il s’agisse de problèmes de gouvernance, de financement ou de conflits internationaux – le réchauffement climatique jusque-là partiellement masqué réapparaîtrait d’un seul coup. On subirait alors, en très peu de temps, plusieurs années de réchauffement accumulé. On aurait des taux de réchauffement temporels très très rapides, et donc des conséquences sur la biodiversité ou sur les sociétés humaines difficiles à anticiper.

En d’autres termes, si le réchauffement arrive relativement lentement, la mise en place de mesures d’adaptation est possible ; s’il est très rapide, les conséquences sont potentiellement bien plus dévastatrices.

L’autre risque majeur est lié aux échelles spatiales : refroidir avec des aérosols par exemple, ce n’est pas du tout la même chose que ne pas refroidir en émettant moins de CO₂. Les effets régionaux du refroidissement vont être très différents de ce qu’ils auraient été si on avait réchauffé un peu moins. La localisation des précipitations, l’intensité de la mousson notamment ont des conséquences sur l’agriculture, sur la santé. Sur ces effets régionaux, il y a encore beaucoup d’incertitudes aujourd’hui, c’est quelque chose que les modèles décrivent moins bien que les effets temporels dont je parlais tout à l’heure.


À lire aussi : Parasols géants et blanchiment du ciel : de fausses bonnes idées pour le climat


Face à ce risque majeur, l’Académie recommande d’arrêter le déploiement des techniques de modification du rayonnement solaire, et même les recherches sur cette technique de géo-ingénierie…

L. B. : Effectivement, notre rapport recommande de ne pas utiliser ces techniques, et nous allons même jusqu’à suggérer un traité international qui interdirait leur déploiement.

Nous pensons aussi qu’il ne faut pas financer, de façon importante, de la recherche qui soit spécifiquement fléchée sur ces techniques de modification du rayonnement solaire, pour éviter de légitimer ces approches trop dangereuses.

Bien sûr, nous avons besoin de bien plus de recherche sur le climat et sur les processus climatiques importants, donc sur les processus qui lient, par exemple, les aérosols dans la haute atmosphère avec la modification du rayonnement, mais nous pensons vraiment qu’il faut éviter les projets fondamentalement pensés pour pousser l’avènement de ces technologies. Les risques associés sont trop importants.

La géo-ingénierie climatique inclut une deuxième approche, celle qui consiste à augmenter l’efficacité des puits de carbone naturels, par exemple les forêts, les tourbières ou les océans qui absorbent naturellement du carbone. En quoi est-ce fondamentalement différent de la modification du rayonnement solaire ?

L. B. : Il ne s’agit plus de refroidir la Terre pour compenser un réchauffement qui serait lié à l’augmentation des gaz à effet de serre, mais d’éliminer du CO₂ qui est déjà présent dans l’atmosphère. Le terme consacré est celui d’« élimination du dioxyde de carbone », ou Carbon Dioxide Removal (CDR) en anglais.

D’abord, soyons clairs : la priorité des priorités reste de réduire les émissions actuelles de façon drastique. Ces « puits de carbone » additionnels ne doivent intervenir que comme un complément, après la réduction des émissions de façon massive et immédiate.

Pour stabiliser le climat et répondre aux objectifs de l’accord de Paris à 1,5 ou 2 °C de réchauffement par rapport à l’époque préindustrielle, nous avons besoin d’aller collectivement vers des émissions nettes nulles !

Comme il y aura sans doute des secteurs difficiles à décarboner, comme la sidérurgie ou le transport aérien, nous savons qu’il y aura sans doute besoin d’un peu de ces puits de carbone pour compenser ces émissions résiduelles.

On est donc sur une ligne de crête compliquée à tenir : ne pas mettre ces techniques d’élimination du CO₂ en avant, pour ne pas décourager la réduction des émissions – en raison du potentiel de décarbonation limité de ces techniques, nous allons y revenir – et en même temps continuer à soutenir la recherche sur ces technologies parce qu’elles pourraient se révéler utiles, au moins dans une certaine mesure.

En augmentant l’efficacité des puits de carbone naturels, si on reprend l’analogie avec le pansement et la blessure, on ne s’attaque toujours pas à la cause (l’émission de gaz à effet de serre), mais on remonte dans la chaîne de causalité en s’attaquant à quelque chose de plus amont que dans le cas de la modification du rayonnement solaire.

Il existe de nombreux types de méthodes d’élimination du CO₂, à la fois naturelles et technologiques. Présentent-elles toutes le même potentiel et les mêmes risques ?

L. B. : Pour éliminer du CO₂ déjà dans l’atmosphère, il y a une très grande diversité de techniques, en partie parce qu’il existe plusieurs « réservoirs » dans lesquels il serait possible de stocker le CO₂ retiré de l’atmosphère : dans le sous-sol, dans l’océan, dans la biomasse continentale.

Pour simplifier, je dirais qu’il y a une série de techniques qui sont aujourd’hui considérées comme « gagnant-gagnant » : elles permettent de retirer du CO₂ de l’atmosphère et elles ont d’autres bénéfices.

Prenons par exemple la restauration et la conservation des écosystèmes côtiers, comme les mangroves ou les herbiers marins : ces actions permettent un stockage de carbone et, par exemple, de mieux protéger les côtes contre la montée du niveau marin et les épisodes de submersion côtière. D’autres techniques, en foresterie, en agroforesterie ou en stockant le carbone dans les sols, permettent aussi de développer des pratiques agricoles qui sont plus vertueuses.

Malheureusement, comme évoqué dans le rapport, ces approches sont difficiles à mettre à l’échelle, en raison des surfaces souvent limitées et des quantités phénoménales de carbone qu’il faudrait pouvoir stocker dans ces réservoirs naturels pour avoir un effet significatif.

Et puis il y a, à l’autre bout du spectre, des techniques qui sont jugées peu efficaces et dont on sait qu’elles ont sans doute des effets dommageables sur les écosystèmes. Compte tenu des connaissances actuelles, l’Académie des sciences recommande de ne pas poursuivre dans ces directions-là.

L’exemple le mieux documenté est celui de la fertilisation par le fer du plancton marin, car elle a été envisagée il y a déjà longtemps, à la fin des années 1980. L’idée est d’aller en pleine mer, dans des régions où le développement du phytoplancton est limité par la faible abondance d’un nutriment bien particulier : le fer. Dans ces régions, il n’y a pas besoin d’ajouter beaucoup de fer pour fertiliser le plancton, qui va se développer davantage, et pour cela absorber plus de CO₂. Une partie de la matière organique produite coule ensuite vers les profondeurs de l’océan, emportant avec elle le carbone qu’elle contient. Ce carbone est ainsi isolé de l’atmosphère dans l’océan profond, potentiellement pour des centaines d’années.

Plusieurs expériences scientifiques ont été menées en pleine mer dans les années 1990 et 2000. À court terme, elles ont effectivement mis en évidence une augmentation du flux de carbone de l’atmosphère vers l’océan.

Toutefois, des travaux plus récents, notamment fondés sur la modélisation, montrent que cette technique est probablement beaucoup moins efficace qu’on ne l’imaginait initialement. Surtout, en modifiant fortement les écosystèmes marins pour capter du carbone, elle entraîne toute une série d’effets indésirables : l’émission d’autres gaz à effet de serre, une diminution de l’oxygène dans les eaux profondes, ou encore l’épuisement de certains nutriments essentiels, qui ne sont alors plus disponibles pour d’autres écosystèmes.

Ces constats ont conduit la communauté internationale à réagir. En 2008, les États ont amendé le protocole de Londres afin d’y introduire une interdiction de ce type de pratiques en haute mer.

Dans le cas de la fertilisation des océans, les risques sont donc bien documentés – ils ne concernent pas directement le climat mais des dommages collatéraux ?

L. B. : Oui. Malheureusement, on voit en ce moment une résurgence de certains projets poussés par certains chercheurs qui continuent à défendre ce type de techniques, par exemple aux États-Unis. Mais pour nous, il semble clair qu’il ne faut pas recommander ces techniques aux effets collatéraux bien documentés.


À lire aussi : Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?


Entre les techniques trop risquées, comme la fertilisation des océans, et les techniques de conservation et de restauration, que j’appelais « gagnant-gagnant » tout à l’heure, il y a d’autres techniques, pour lesquelles on a besoin de davantage de recherche – c’est le cas, par exemple, des techniques d’alcalinisation de l’océan.

Il s’agit d’une technique chimique cette fois : on augmente le pouvoir tampon de l’océan en ajoutant du matériel alcalin. Un des points positifs, c’est que cette technique consiste en l’accélération d’un phénomène naturel qui est l’altération des roches sur les continents. Quand les roches s’altèrent, elles apportent de l’alcalinité à l’océan, donc elles augmentent le pouvoir tampon de l’océan qui absorbe plus de CO₂ – c’est un processus très lent, qui a un rôle très important sur les échelles de temps très, très longues et qui régule en partie le cycle du carbone sur les échelles de temps géologiques.

Deuxième avantage : le CO2 ainsi stocké dans l’océan l’est de manière très durable, bien plus que dans des approches reposant sur du carbone organique (comme la fertilisation des océans) où le stockage est beaucoup plus incertain. Troisième point positif, cette augmentation de l’alcalinité permet aussi de réduire partiellement l’acidification des océans.

Mais ces bénéfices s’accompagnent de nombreuses incertitudes et de risques. Ajouter des matériaux alcalins modifie parfois fortement la chimie de l’eau de mer. Quels effets cela pourrait-il avoir sur les écosystèmes marins, le plancton ou les espèces côtières dont dépendent de nombreuses populations humaines ? À ce stade, nous manquons encore de données pour répondre clairement à ces questions.

L’efficacité même de la technique reste également incertaine. Pour qu’elle fonctionne, l’alcalinité ajoutée doit rester dans les couches de surface de l’océan, là où les échanges avec l’atmosphère ont lieu. Si elle est rapidement entraînée vers les profondeurs, son impact sur l’absorption du CO₂ devient très limité.

Enfin, il y a beaucoup de questions sur le coût de ces techniques. En particulier, un certain nombre de start-up et d’entreprises s’orientent vers des méthodes électrochimiques, mais c’est très coûteux d’un point de vue énergétique. Il faut faire le bilan sur l’ensemble du cycle de vie de ces techniques.

En somme, on a une gamme de techniques, parfois appelées abusivement « solutions » : certaines que l’on ne recommande pas aujourd’hui parce que les risques sont énormes ; d’autres qu’il faut prioriser et recommander, mais qui ont une efficacité somme toute limitée. Et puis entre les deux, des méthodes sur lesquelles il faut continuer à travailler.

À l’échelle internationale, où et quand se discutent les nouveaux risques des techniques de géo-ingénierie climatique ?

L. B. : La question des puits de carbone est déjà largement débattue dans le cadre des COP Climat, notamment parce que les gouvernements peuvent les intégrer dans leurs objectifs de réduction des émissions. C’est le cas, par exemple, des stratégies d’afforestation (boisement) et de reforestation. En revanche, il reste encore beaucoup de travail à faire sur les modalités concrètes de mise en œuvre de certaines techniques d’élimination du CO₂ que nous avons évoquées. En particulier, les questions de mesure et de vérification du CO₂ réellement retiré de l’atmosphère sont complexes et loin d’être résolues. Le Giec a d’ailleurs été mandaté par les gouvernements pour produire un rapport méthodologique spécifiquement consacré à ces enjeux.

En ce qui concerne la modification du rayonnement solaire, mon inquiétude est nettement plus forte. Certains pays affichent désormais ouvertement leur intérêt pour un déploiement potentiel de ces techniques.

Dans le prochain rapport du Giec, la géo-ingénierie occupera une place plus importante que dans les précédents. J’espère que cela permettra de documenter de façon précise et convaincante les risques potentiels associés à ces approches.


Propos recueillis par Elsa Couderc.

The Conversation

Bopp Laurent a reçu des financements du CNRS, de l'Agence Nationale de la Recherche, de la Fondation pour la Recherche sur la Biodiversité, du Programme Horizon Europe de la Commission Européenne, et de la Fondation Schmidt Sciences.

PDF

20.01.2026 à 19:01

Le monde est désormais en « faillite hydrique », selon un rapport de l’ONU

Kaveh Madani, Director of the Institute for Water, Environment and Health, United Nations University

Comme vivre au-dessus de ses moyens financiers, utiliser plus d’eau douce que la nature n’est capable d’en renouveler peut avoir des conséquences dramatiques pour la planète et nos sociétés.
Texte intégral (4541 mots)
Ce gouffre dans le cœur agricole de la Turquie montre comment le paysage peut s’effondrer lorsque l’on extrait plus d’eau souterraine que la nature ne peut en reconstituer. Ekrem07, 2023/Wikimedia Commons, CC BY-SA

De Téhéran au fleuve Colorado, les signes d’un effondrement durable des ressources en eau se multiplient. La planète consomme aujourd’hui plus d’eau douce qu’elle n’est capable d’en renouveler. Sous l’effet du changement climatique et de décennies de surexploitation, de nombreuses régions du monde ne parviennent plus à se remettre des périodes de manque d’eau. Cette situation, que nous qualifions de « faillite hydrique », est omniprésente : elle touche déjà des milliards de personnes avec des conséquences déjà visibles sur les sociétés, l’agriculture et les écosystèmes.


Le monde utilise aujourd’hui tellement d’eau douce, dans un contexte de changement climatique, qu’il est désormais en situation de « faillite hydrique ». Par là, il faut comprendre que nombreuses régions ne sont plus en mesure de se remettre des pénuries d’eau à mesure que celles-ci deviennent de plus en plus fréquentes.

Environ 4 milliards de personnes, soit près de la moitié de la population mondiale, vivent dans des conditions de grave pénurie d’eau (c’est-à-dire sans accès à une quantité d’eau suffisante pour répondre à tous leurs besoins) pendant au moins un mois par an.

En réalité, beaucoup plus de personnes subissent les conséquences du déficit hydrique : réservoirs asséchés, villes englouties, mauvaises récoltes, rationnement de l’eau, incendies de forêt et tempêtes de poussière dans les régions touchées par la sécheresse.

Les signes de faillite hydrique sont partout, de Téhéran, où les sécheresses et l’utilisation non durable de l’eau ont épuisé les réservoirs dont dépend la capitale iranienne, alimentant les tensions politiques, jusqu’aux États-Unis, où la demande en eau a dépassé les capacités du fleuve Colorado, une source cruciale d’eau potable et d’irrigation pour sept États.

Une femme remplit des récipients avec l’eau d’un puits. Derrière elle, des vaches paissent dans un paysage aride
Les sécheresses ont rendu plus difficile l’approvisionnement en eau pour le bétail et ont entraîné une malnutrition généralisée dans certaines régions d’Éthiopie ces dernières années. En 2022, l’Unicef estimait que jusqu’à 600 000 enfants auraient besoin d’un traitement contre la malnutrition sévère. Demissew Bizuwerk/UNICEF Ethiopia, CC BY

La faillite hydrique n’est pas seulement une métaphore du manque d’eau. Il s’agit d’une situation chronique qui se développe lorsqu’un endroit utilise plus d’eau que la nature ne peut en remplacer de façon fiable, et lorsque les dommages causés aux ressources naturelles qui stockent et filtrent cette eau, comme les aquifères et les zones humides, deviennent difficiles à réparer.

Une nouvelle étude que j’ai dirigée avec l’Institut pour l’eau, l’environnement et la santé de l’Université des Nations unies (UNU) conclut que nous n’en sommes plus à des crises de l’eau ponctuelles et temporaires. De nombreux systèmes hydrologiques naturels ne sont plus en mesure de retrouver leur état historique. Ces systèmes sont désormais en état de défaillance, que nous proposons d’appeler « faillite hydrique ».

Kaveh Madani, directeur de l’Institut de l’Université des Nations unies pour l’eau, l’environnement et la santé, explique le concept de « faillite hydrique » (interview en anglais)/TVRI World.

Reconnaître les signes de « faillite hydrique »

Lors d’une faillite financière personnelle, les signes avant-coureurs semblent au départ gérables : retards de paiement, compensés par des emprunts voire des ventes d’objets. Puis la spirale s’accélère. Les premières étapes d’une faillite hydrique sont assez similaires.

Cela commence doucement, d’abord les années sèches, où l’on augmente les prélèvements d’eau souterraine, on utilise des pompes plus puissantes ou encore des puits plus profonds.

Puis on va peut-être, pour répondre aux besoins, transférer l’eau d’un bassin à un autre. On assèche des zones humides et on rectifie le cours des rivières pour laisser de la place aux fermes et aux villes préexistantes.

C’est alors que les coûts cachés commencent à être visibles. Les lacs rétrécissent d’année en année. Les puits doivent être creusés plus profondément. Les rivières qui coulaient autrefois toute l’année deviennent intermittentes. L’eau salée s’infiltre dans les aquifères près de la côte. Dans certains cas, le sol lui-même commence à s’affaisser.

La mer d’Aral (Asie centrale) a considérablement rétréci entre 2000 et 2011. Ce lac d’eau salée était autrefois de forme ovale et couvrait les zones claires jusqu’aux années 1980, mais la surexploitation agricole de plusieurs pays l’a fait disparaître. NASA

Ce dernier phénomène, appelé subsidence, surprend souvent les gens. Il s’agit pourtant d’un signe caractéristique lié au manque d’eau. Lorsque les nappes phréatiques sont surexploitées, la structure souterraine, qui retient l’eau presque comme une éponge, peut s’effondrer. À Mexico, le sol s’affaisse d’environ 25 centimètres par an. En effet, une fois que les « pores » du sol sont compactés, leur recharge en eau est plus difficile et moins efficace.

Le Global Water Bankruptcy report, publié ce 20 janvier 2026, montre à quel point ce phénomène est en train de se généraliser. L’extraction des eaux souterraines a contribué à un affaissement important du sol sur plus de 6 millions de kilomètres carrés, y compris dans les zones urbaines où vivent près de 2 milliards de personnes. Jakarta (Indonésie), Bangkok (Thaïlande) et Hô Chi Minh-Ville (Vietnam) sont parmi les exemples les plus connus en Asie.

L’agriculture est le plus grand consommateur d’eau au monde, responsable d’environ 70 % des prélèvements mondiaux d’eau douce. Lorsqu’une région est confrontée à un manque d’eau, l’agriculture devient plus difficile et plus coûteuse. Dans certains cas, les agriculteurs peuvent perdre leur emploi, les tensions peuvent augmenter et la sécurité nationale peut être menacée.

Environ 3 milliards de personnes et plus de la moitié de la production alimentaire mondiale sont concentrées dans des régions où les réserves d’eau sont déjà soit en déclin, soit instables. Plus de 1,7 million de kilomètres carrés de terres agricoles irriguées sont déjà soumises à un stress hydrique élevé ou très élevé. Cela menace la stabilité de l’approvisionnement alimentaire dans le monde entier.

Des rangées de dizaines d’amandiers morts gisent dans un champ ouvert, à côté des équipements utilisés pour les retirer
En 2021, en Californie, une grave sécheresse et une pénurie d’eau ont contraint certains agriculteurs à abandonner les cultures nécessitant beaucoup d’irrigation, notamment les amandiers. Robyn Beck/AFP

Les sécheresses sont également de plus en plus longues, fréquentes et intenses à mesure que les températures mondiales augmentent. Plus de 1,8 milliard de personnes – près d’un humain sur quatre – ont été confrontées à des conditions de sécheresse à un moment ou à un autre entre 2022 et 2023.

Ces chiffres ont des conséquences très concrètes : hausse des prix de l’alimentation, pénuries d’hydroélectricité, risques sanitaires, chômage, pressions migratoires, troubles et conflits.

Comment en est-on arrivé là ?

Chaque année, la nature offre à chaque région une « rente » d’eau sous forme de pluie et de neige. On peut la considérer comme un compte courant : c’est la quantité d’eau à dépenser et à partager avec la nature dont nous disposons chaque année.

Lorsque la demande augmente, nous pouvons puiser dans notre compte d’épargne. Nous prélevons alors plus d’eau souterraine que ce que les milieux peuvent reconstituer. Autrement dit, nous volons la part d’eau dont la nature a besoin et asséchons les zones humides au cours du processus. Cela peut fonctionner quelque temps, tout comme l’endettement peut financer un mode de vie dépensier pendant un certain temps.

Les traces laissées par le niveau de l’eau montrent à quel point le niveau du réservoir a baissé
Le 10 novembre 2025, le niveau d’eau du barrage de Latyan, près de Téhéran, était particulièrement bas. Ce réservoir, qui alimente en partie la capitale iranienne en eau potable, a connu une forte baisse en raison d’une sécheresse prolongée et d’une demande d’eau croissante dans la région. Bahram/Middle East Images/AFP

Ces sources d’eau sont aujourd’hui en train de disparaître, en tout cas à long terme. En cinq décennies, le monde a perdu plus de 4,1 millions de kilomètres carrés de zones humides naturelles. Les zones humides ne se contentent pas de retenir l’eau. Elles la purifient, atténuent les inondations et servent d’abri à la faune et la flore.

La qualité de l’eau diminue également. La pollution, les intrusions d’eau salée et la salinisation des sols peuvent rendre l’eau trop souillée et trop salée pour être utilisée, contribuant ainsi à la pénurie d’eau.

Une carte montre que la majeure partie de l’Afrique, de l’Asie du Sud et une grande partie de l’ouest des États-Unis présentent des risques élevés liés à l’eau
Les scores globaux des risques liés à l’eau reflètent la valeur agrégée de la quantité d’eau, de sa qualité et des risques réglementaires et réputationnels liés à son approvisionnement. Des valeurs plus élevées indiquent des risques plus importants. United Nations University Institute for Water, Environment and Health/Aqueduct 4.0, CC BY

Le changement climatique aggrave la situation en réduisant les précipitations dans de nombreuses régions du monde. Il augmente aussi les besoins en eau des cultures et la demande en électricité pour pomper davantage d’eau. Il provoque enfin la fonte des glaciers qui stockent l’eau douce.

Malgré ces problèmes, les États continuent de prélever toujours plus d’eau pour soutenir l’expansion des villes, des terres agricoles, des industries et désormais des data centers.

Tous les bassins hydrographiques du monde ne sont heureusement pas en situation de faillite hydrique. Mais n’oublions pas que ces bassins sont interconnectés du fait de la géographie, du commerce, mais également des migrations et du climat. La faillite hydrique d’une région exercera une pression supplémentaire sur les autres et peut ainsi accroître les tensions locales et internationales.

Ce que nous pouvons faire

Sur le plan financier, une faillite prend fin lorsqu’on modifie la structure des dépenses. C’est la même chose pour la faillite hydrique.

Arrêter l’hémorragie : la première étape consiste à reconnaître que le bilan est déséquilibré. Cela implique de fixer des limites de consommation d’eau qui reflètent la quantité d’eau réellement disponible, plutôt que de simplement forer plus profondément et reporter le problème sur les générations futures.

Protéger le capital naturel, au-delà de l’eau : protéger les zones humides, restaurer les cours d’eau, rétablir la santé des sols et gérer la recharge des nappes phréatiques ne sont pas des actions de confort. Elles sont essentielles au maintien d’un approvisionnement en eau saine, tout comme elles le sont à un climat stable.

Une femme pousse une brouette contenant un récipient rempli d’eau douce. L’océan se trouve derrière elle
Dans les petits États insulaires, comme les Maldives, l’élévation du niveau de la mer menace l’approvisionnement en eau lorsque l’eau salée s’infiltre dans les aquifères souterrains, détruisant les puits. UNDP Maldives 2021, CC BY

Consommer moins d’eau, mais la partager de façon plus équitable : la gestion de la demande en eau est devenue inévitable dans de nombreux endroits, mais les plans qui réduisent l’approvisionnement des populations pauvres tout en protégeant les plus puissants sont voués à l’échec. Les approches sérieuses comprennent des mesures de protection sociale, un soutien aux agriculteurs pour qu’ils se tournent vers des cultures et des systèmes moins gourmands en eau, et des investissements dans l’efficacité hydrique.

Mesurer ce qui compte vraiment : de nombreux pays gèrent encore l’eau avec des informations partielles. Pourtant, des méthodes modernes, comme la télédétection par satellite, facilitent la surveillance des réserves d’eau et des tendances globales. Cela permettrait d’émettre des alertes précoces concernant l’épuisement des nappes phréatiques, l’affaissement des sols, la disparition des zones humides, le recul des glaciers et la détérioration de la qualité de l’eau.

Prévoir moins d’eau : le plus difficile aspect d’une faillite est l’aspect psychologique. C’est cette dimension qui nous oblige à abandonner ce qu’on tenait pour acquis. La faillite hydrique implique de repenser les villes, les systèmes alimentaires et les économies pour respecter de nouvelles limites et éviter que celles-ci ne se resserrent encore davantage.

En matière d’eau, comme de finance, la faillite peut être un tournant. L’humanité peut continuer à dépenser comme si la nature offrait un crédit illimité, ou elle peut apprendre à vivre sans outrepasser les limites de ses ressources hydrologiques.

The Conversation

Kaveh Madani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.01.2026 à 17:01

La fabrique du « bon patient » : comment les affiches de santé publique nous façonnent

Anouchka Divoux, Maîtresse de conférences en Sciences du Langage et Didactique des Langues, Université de Lorraine

Valérie Langbach, Maitre de conférences en Sciences du Langage, Université de Lorraine

Notre environnement est parsemé d’affiches de santé publique. Derrière une apparente neutralité, elles véhiculent une vision très précise de la santé et de la responsabilité individuelle.
Texte intégral (2521 mots)

Nous les croisons partout, sans vraiment y prêter attention : dans les salles d’attente, les couloirs d’hôpitaux, les stations de métro ou les écoles. Les affiches de santé publique semblent n’être que de simples rappels destinés à nous aider à « bien nous comporter ». Mais, sous leurs couleurs pastel et leurs slogans bienveillants, elles transmettent une vision très précise, et rarement neutre, de ce que doivent être la santé, le citoyen et la responsabilité.


« N’attendez pas les premiers effets des fortes chaleurs », « Debout, chez vous – 10 astuces anti-sédentarité », « Avec le cannabis, on peut vite se sentir dépassé », « Pour un mode de vie plus équilibré, chaque petit pas compte »…

Les affiches de santé publique qui fleurissent toute l’année autour de nous constituent autant de rappels destinés à nous inciter à faire les bons gestes, à adopter les bons comportements pour notre santé. Cependant, loin d’être de simples supports d’information, elles sont aussi des outils de normalisation.

Elles individualisent des problèmes collectifs, construisent un référentiel universel trompeur et occultent les inégalités sociales, matérielles ou linguistiques qui rendent certains comportements difficiles, voire impossibles.

Sous couvert d’aide ou de prévention, elles déplacent subtilement les responsabilités collectives vers les individus. Décryptage.

Quand informer devient prescrire

En tant que chercheuses en sciences du langage, nous avons été interpellées par les réactions de jeunes adultes interrogés dans le cadre du projet CARES (« Comprendre, analyser et repenser les énoncés “brefs” dans les campagnes nationales de prévention de la santé »).

Face à une affiche dénonçant les violences verbales et physiques envers les soignants, l’ensemble des participants a condamné ces pratiques. Cependant, davantage que l’adhésion au message véhiculé par l’affiche en question, les réactions recueillies ont mis en lumière un élément de discours sous-jacent : les participants ont largement dénoncé le jugement moral porté par l’affiche, soulignant l’absence d’explications concernant les défaillances structurelles de l’État sur ces problématiques, susceptibles d’être à l’origine de ces agressions.

Les participants ont immédiatement pointé que, sur l’affiche, rien n’était dit du sous-effectif, de la saturation des services ou des interminables heures d’attente. Autrement dit, le poster condamnait un comportement individuel, sans évoquer aucun des facteurs structurels qui alimentent ces tensions.

Cette observation nous a conduits à constater que les messages de ce type ne se limitent pas à présenter une situation, mais qu’ils tendent à orienter le comportement des individus.

Une question est dès lors apparue centrale dans notre étude : les messages des affiches de santé visent-ils à éclairer ou à orienter le comportement des individus ? Autrement dit, le rôle social de ces affiches est-il d’« informer sur » ou plutôt « d’inciter à » ?

La nuance est primordiale : si l’information vise à raconter et à expliquer pour faire circuler un savoir, l’incitation cherche à orienter nos actions en prescrivant quoi faire et comment, tout en nous informant des conséquences d’un éventuel non-respect.

Partant de ce constat, nous nous sommes interrogées sur les mécanismes et les raisons qui amènent la communication publique à déplacer l’objet de ses messages et à transférer une responsabilité collective vers les individus.

Prévention plutôt que promotion de la santé ? Une confusion qui n’est jamais neutre

Dans le langage institutionnel, le terme prévention et l’expression promotion de la santé sont souvent employés comme s’ils allaient de soi, alors même qu’ils recouvrent des réalités très différentes.

La prévention, telle qu’elle est mise en scène dans la plupart des affiches, repose sur la discipline individuelle. Les messages proposés visent à éviter un risque ou l’aggravation d’une pathologie en demandant aux individus d’adopter un « bon » comportement : annuler un rendez-vous, se laver les mains, ne pas se rendre aux urgences pour un problème bénin, etc.

La promotion de la santé, quant à elle, vise à transformer l’environnement social pour rendre les comportements souhaités possibles. Cette approche relève d’une tout autre logique. Il ne s’agit plus seulement de dire aux individus quoi faire, mais de créer les conditions favorables à l’action : horaires adaptés, renforcement de l’accueil, simplification administrative, médiation linguistique, etc.

Sous les affiches rassurantes, un ordre social se dessine

Comme l’a montré le sociologue Érik Neveu, les messages de santé publique fabriquent une citoyenneté sanitaire sans conflits sans antagonismes, sans classes sociales, un espace où l’effacement des tensions donne l’illusion d’un consensus moral.

Si chacun adoptait les « bons réflexes », le système fonctionnerait mieux. Peu à peu, « informer » se mue en « orienter », « accompagner » en « commander », « prévenir » en « moraliser ». La santé, pensée hier comme un droit collectif, glisse vers un devoir individuel où le devoir de se soigner prend la place du droit à la santé.

C’est précisément dans ce basculement vers une responsabilisation individuelle que se joue l’ambiguïté des campagnes. Derrière l’apparente neutralité des messages, une confusion s’installe entre prévention et promotion de la santé.

Ce brouillage n’est jamais neutre car il laisse entendre que si le système dysfonctionne, c’est avant tout parce que les citoyens n’adoptent pas le comportement attendu. Autrement dit, derrière les appels au « bon sens » sanitaire se construit une véritable forme de gouvernement des conduites.

Comment la santé publique fabrique le « bon patient »

Pour saisir les ressorts de cette orientation, les travaux du philosophe français Michel Foucault et du sociologue britannique Nikolas Rose constituent un cadre d’analyse particulièrement opérant, en développant notamment la notion de biopolitique.

Le biopolitique désigne la manière dont le pouvoir s’exerce non plus uniquement sur les territoires et les lois, mais directement sur la vie des individus et des populations. En résumé : les institutions modernes gèrent également les populations par le biais de la santé, de la natalité, de l’hygiène, etc. L’État ne contrôle plus directement l’individu mais l’incite à s’autodiscipliner et à s’autoréguler.

Foucault montre ainsi que les institutions modernes gouvernent les populations en agissant sur leurs comportements : hygiène, sport, alimentation, gestion du « capital santé » comme on gère un capital économique. Rose prolonge cette réflexion en décrivant un citoyen sommé de devenir l’entrepreneur de son propre corps, toujours vigilant, anticipant, optimisant.

Dans les sociétés néolibérales, la santé devient une norme morale et identitaire, il y a donc « responsabilisation biologique ». Pour Rose, l’individu est sommé de devenir un acteur actif de sa propre santé, sous peine d’être considéré comme irresponsable, voire coupable. Dans ce cadre, ne pas être un « bon patient » devient presque une faute morale.

Cette reconfiguration du rôle du citoyen ne dépend pas seulement des dispositifs administratifs et politiques, elle s’exprime aussi dans la manière même dont les institutions prennent la parole. Le langage institutionnel ne se limite pas à relayer des faits. Il construit et impose en réalité une « vérité sociale », portée par l’autorité de celui qui énonce.

Abordées sous l’angle de la performativité du langage (Austin, 1962 ; Butler, 2004, ces affiches énoncent tout autant des comportements attendus qu’elles contribuent à produire la figure du « bon patient », celui qui est prévoyant, calme, discipliné, autonome, respectueux, et relègue à la défaillance, voire à la faute, celles et ceux qui s’en écartent.

Entre humour et culpabilité : comment une affiche produit le « bon usager »

L’affiche des « lapins posés aux rendez-vous médicaux » est un exemple très parlant de ce type de processus. Cette campagne de sensibilisation à la gestion du parcours de soin transforme un problème systémique en faute individuelle, à travers un dispositif graphique, langagier ainsi que moral, politiquement et économiquement pensé.

DR -- l’Assurance maladie

L’affiche montre un lapin qui patiente sur une chaise dans une salle d’attente, accompagné du slogan : « Ne posez pas de lapin à un médecin. Annulez et votre rendez-vous profitera à quelqu’un. »

À partir d’un énoncé construit sur une métaphore légère (le lapin) et par l’usage d’un langage simple, familier, infantilisant ou humoristique (rime : lapin/médecin), on délivre un message culpabilisant.

On observe un contraste entre la légèreté de la formule et la gravité de la conséquence évoquée : la perte de temps médical. Le lecteur est face à un énoncé qui prescrit une conduite ou un comportement socialement/moralement requis : il faut annuler son rendez-vous !

Or, dans cette affiche, le patient est le seul acteur nommé et mis en cause, les raisons systémiques de la situation sont complètement effacées. Le fonctionnement, ou plutôt les dysfonctionnements, du système de santé aboutissant à ces annulations de dernières minutes n’est pas non plus questionné.

Le manque de praticiens peut en effet entraîner des délais de rendez-vous très longs, délais qui augmentent le risque de potentiels oublis de date. Certains patients peuvent rencontrer des difficultés à contacter le médecin ou son secrétariat pour annuler. Sans oublier que tous les patients ne maîtrisent pas nécessairement – ni techniquement ni linguistiquement – les plates-formes de rendez-vous. D’autres raisons peuvent aussi aboutir au fait que certains patients décident de ne pas se présenter au rendez-vous. On peut par exemple citer l’angoisse de l’annonce d’une maladie potentielle, qui peut faire tourner les talons à certaines personnes en dernière minute.

L’objet du message véhiculé par cette affiche est de culpabiliser les patients « défaillants ». À sa lecture, le lecteur est engagé dans une sorte de dette symbolique envers les soignants : « il n’y a déjà pas beaucoup de rendez-vous possibles donc en plus si on n’y va pas… C’est honteux ! »

Le soin se trouve ainsi dépolitisé ; c’est le comportement individuel – ici, le fait de ne pas honorer un rendez-vous – qui serait responsable de la dégradation du système, plutôt que ses limites structurelles. L’idée sous-jacente est claire et renvoie à l’opposition entre « bons usagers » et « usagers déviants », récurrente dans les discours institutionnels contemporains.

Autrement dit, l’individu est sommé d’être un citoyen discipliné et donc un acteur efficient de la santé publique. Ces éléments de discours mettent ainsi en œuvre une forme de paternalisme discursif et effacent une forme de dialogue en considérant le lecteur comme un sujet à éduquer plutôt qu’un citoyen à accompagner. Cet aspect renvoie au « registre autoritaire masqué », selon lequel « la violence symbolique s’exerce avec le consentement de ceux qui la subissent, par le biais du langage ».

Les affiches de santé ne sont pas neutres

Considérer les affiches de santé dans leur dimension sociale et linguistique permet de rappeler que la santé publique ne se réduit pas à convaincre chacun d’être un « bon patient », mais à construire collectivement les conditions qui rendent les « bons comportements » possibles.

En effet, cette polarisation entre « bon usager » et « usager déviant » reflète une logique de gestion néolibérale des comportements, où l’individu devient responsable du bon fonctionnement du système. L’orientation choisie pour élaborer ces campagnes tend à faire disparaître la dimension politique des questions de santé, comme les inégalités sociales, les politiques publiques ou les choix économiques.

Elle masque également les déterminants sociaux de la santé, tels que la précarité, l’environnement, le stress ou l’illettrisme. Tout cela se fait au profit d’un discours centré sur la volonté, l’effort et la discipline relevant d’une responsabilité individuelle et de choix présentés comme purement personnels et « naturels ».

Pour les publics précarisés et faiblement scolarisés, ces affiches deviennent alors une double peine : ils sont responsables selon la norme, bien qu’étant souvent incapables d’en saisir pleinement les codes.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

20.01.2026 à 17:00

Trump et le Mexique : tensions dans les mots, coopération sécuritaire dans les faits

Cléa Fortuné, Maîtresse de conférences en civilisation des États-Unis, membre du laboratoire Langages, Littératures, Sociétés, Études Transfrontalières et Internationales (LLSETI)., Université Savoie Mont Blanc

Le Mexique est un véritable « filtre à migrants » qui empêche chaque année des centaines de milliers de personnes d’entrer aux États-Unis.
Texte intégral (2217 mots)

Depuis son retour à la Maison Blanche, Donald Trump ne cesse de reprocher au pouvoir (de gauche) de Mexico de ne pas en faire assez en matière de lutte contre l’immigration irrégulière et contre le trafic de drogue, et va jusqu’à menacer de frapper militairement les cartels de la drogue implantés sur le sol mexicain. La présidente du Mexique Claudia Sheinbaum lui répond à l’occasion avec véhémence. Mais elle est allée dans son sens sur certains dossiers, à commencer par celui du contrôle de la frontière séparant les deux pays, laquelle est aujourd’hui plus que jamais la zone de tous les dangers pour les migrants.


Dès son retour à la Maison Blanche en janvier 2025, Donald Trump a de nouveau, comme au cours de son premier mandat, placé la frontière avec le Mexique au cœur de son agenda politique. Sécurité nationale, contrôle strict des migrations et guerre contre les cartels de drogues sont redevenus des priorités affichées, tant à la frontière sud qu’à l’intérieur des États-Unis.

Un an plus tard, le bilan de cette première année de mandat révèle une militarisation renforcée, une remise en cause des droits des personnes migrantes et des relations diplomatiques avec le Mexique incertaines.

L’urgence sécuritaire malgré une frontière historiquement calme

Dès janvier 2025, Donald Trump a signé le décret présidentiel Protecting the American People Against Invasion, présenté comme une réponse à ce qu’il décrit comme une « inondation sans précédent de migrations illégales » sous l’administration Biden qui constituerait, selon lui, une « menace » pour la sécurité nationale. Ce décret permet notamment de restreindre les possibilités d’accès à l’asile aux États-Unis et de renvoyer les personnes migrantes sans audience devant un tribunal de l’immigration, rompant avec le droit international et le principe de non-refoulement.

Dans la foulée, l’administration Trump a déclaré l’état d’urgence nationale à la frontière États-Unis/Mexique, une décision qui lui a permis de débloquer des fonds fédéraux pour en renforcer la sécurisation. Cette logique s’est concrétisée en juillet 2025 par l’adoption de la loi dite One Big Beautiful Bill Act qui prévoit 46,5 milliards de dollars pour la construction d’un « mur intelligent » (Smart Wall), combinant barrières physiques, capteurs, drones, et dispositifs de surveillance numérique. Cette stratégie s’inscrit dans la continuité de politiques déjà engagées au niveau des États fédérés, notamment au Texas, où des barrières aquatiques ont été installées dans le Rio Grande dans le cadre de l’Operation Lone Star lancée par le gouverneur républicain Greg Abbott en 2021.

Au-delà de ces dispositifs physiques et technologiques, le mur reste un puissant symbole politique dans le discours de l’administration Trump. À l’instar de son slogan de campagne de 2016, « Build the Wall », l’administration continue de mettre l’accent sur les portions de mur inachevées, qu’elle érige en symbole d’une frontière prétendument « ouverte » permettant l’entrée de migrants qualifiés de « criminels ».

Cette insistance sur les « vides » du mur contraste pourtant avec la réalité de la frontière. Les cartes officielles publiées par la Customs and Border Protection entretiennent d’ailleurs une certaine confusion, en minimisant visuellement l’ampleur des infrastructures déjà existantes. En réalité, sur les 3 150 kilomètres de frontière, environ 1 130 kilomètres de barrières ont été progressivement installés depuis les années 1990, tandis qu’environ 1 100 kilomètres correspondent à une barrière naturelle constituée par le fleuve Rio Grande/Rio Bravo. Depuis mars 2025, les segments en construction – qui visent à remplacer des barrières déjà existantes pour la plupart –, notamment dans la vallée du Rio Grande (sud du Texas), s’inscrivent ainsi davantage dans une logique de continuité administrative (achevant des projets décidés sous l’administration Biden) que dans une réponse à une crise migratoire inédite.

Pourtant, au moment où ces infrastructures se densifient, la frontière États-Unis/Mexique connaît une période d’accalmie. Les mesures sécuritaires et anti-migratoires mises en œuvre dès juin 2024 sous l’administration Biden, et intensifiées en 2025, interviennent dans un contexte qui peut sembler paradoxal. Entre octobre 2024 et octobre 2025, environ 443 671 traversées irrégulières ont été enregistrées, contre 2,5 millions entre octobre 2023 et octobre 2024.

Cette baisse des traversées s’explique en partie par des tendances amorcées sous l’administration Biden, notamment la restriction des possibilités de demande d’asile et la signature d’accords régionaux dans le cadre de la Déclaration de Los Angeles sur la migration et la protection de 2022 qui ont contribué à externaliser la gestion de la frontière sud des États-Unis vers les pays latino-américains. Elle tient également au rôle central joué par le Mexique, qui a intensifié les contrôles migratoires sur son territoire, sous la pression des administrations Trump et Biden. Le Mexique arrête aujourd’hui davantage de migrants en transit vers les États-Unis que les États-Unis eux-mêmes, agissant de facto comme le premier « mur » de la politique migratoire des États-Unis.

De la militarisation de la frontière aux expulsions intérieures

Alors que les traversées diminuent à la frontière, Donald Trump a déplacé son attention vers l’intérieur du territoire états-unien. Dès sa campagne présidentielle, il a annoncé un plan de rapatriements de masse, présenté comme le plus ambitieux de l’histoire des États-Unis, visant jusqu’à un million de personnes par an.

Cette politique s’est traduite par une intensification des raids menés par l’agence en charge des migrations, ICE (Immigration and Customs Enforcement), dans les villes sanctuaires, mais aussi par l’évolution des outils administratifs existants. L’application CBP One, initialement conçue en 2020 et largement utilisée par l’agence CBP (Customs and Border Protection) sous l’administration Biden afin de permettre aux migrants de prendre rendez-vous avec les autorités états-uniennes pour déposer une demande d’asile, a été relancée en mars 2025 avec une nouvelle fonction : celle de faciliter le départ volontaire des non-citoyens.

Le département de la Sécurité intérieure (Department of Homeland Security) affirme que 1,9 million de personnes seraient reparties volontairement en 2025, certaines incitées par la promesse d’un billet gratuit pour un vol de rapatriement et d’une aide financière de 1 000 dollars (860 euros), portée à 3 000 dollars (2500 euros) pendant la période de Noël 2025.

Ces chiffres sont toutefois contestés. Un tel exode ne serait vraisemblablement pas passé inaperçu. Des estimations plus plausibles évoquent plutôt environ 200 000 départs volontaires, tandis que de nombreux migrants en situation irrégulière adoptent des stratégies d’invisibilisation afin d’éviter les arrestations et les contrôles. Par ailleurs, un sondage national indique que 15 % des migrants sondés (en situation régulière ou non) auraient envisagé de quitter le pays, ce qui ne signifie pas nécessairement qu’ils soient effectivement partis.

Des relations diplomatiques incertaines

Le durcissement des mesures anti-migratoires et sécuritaires s’accompagne d’une fragilisation des relations diplomatiques entre les États-Unis et le Mexique.

Dès janvier 2025, l’administration Trump a désigné six organisations criminelles mexicaines comme organisations terroristes étrangères, une décision qui ouvre la possibilité d’interventions militaires. Cette rhétorique coercitive s’est durcie après la capture du président vénézuélien Nicolas Maduro par les États-Unis, le 4 janvier 2026, officiellement justifiée par son implication présumée dans des trafics de drogues. Dans ce contexte, Donald Trump a de nouveau évoqué la possibilité d’une action militaire au Mexique, accusant le pays d’être géré par les cartels de drogues et de ne pas en faire assez pour endiguer les traversées irrégulières et le trafic de fentanyl.


À lire aussi : Fentanyl : vers une opération militaire des États-Unis au Mexique ?


Cette relation asymétrique renvoie à une tradition plus ancienne de la politique étrangère des États-Unis. Donald Trump évoque lui-même une « Doctrine Donroe », contraction de son nom et de la Doctrine Monroe. Si cette dernière, formulée en 1823, visait à écarter les puissances européennes des Amériques, son corollaire de 1904 (le corollaire Roosevelt) légitimait déjà l’intervention des États-Unis dans les affaires intérieures des pays latino-américains.

Face à ces accusations, la présidente mexicaine Claudia Sheinbaum a adopté une ligne diplomatique à la fois prudente et ferme. Tout en réaffirmant la coopération du Mexique avec les États-Unis dans la lutte contre le trafic de drogues, elle a rejeté toute intervention militaire états-unienne sur le sol mexicain. Elle a également condamné l’intervention des États-Unis au Venezuela, invoquant les principes de la souveraineté et d’intégrité territoriale.

Cette montée des tensions pourrait laisser penser à la possibilité d’une rupture des relations bilatérales. Pourtant, les critiques publiques du Mexique face aux menaces d’actions unilatérales des États-Unis s’articulent avec une coopération sécuritaire étroite et durable entre les deux pays.


À lire aussi : Au Mexique, le pouvoir criminalise les défenseurs des migrants


Lorsque, en septembre 2025, le secrétaire d’État Marco Rubio qualifie l’intensification de la coopération bilatérale entre Mexico et Washington d’« historique », il s’agit moins d’un tournant que de la poursuite d’une relation qui s’inscrit dans la durée.

De l’Initiative Mérida lancée en 2008 à la pression exercée par l’administration Biden sur le gouvernement d’Andres Manuel Lopez Obrador pour déployer des dizaines de milliers de membres de la garde nationale mexicaine à sa frontière avec le Guatemala et accepter des rapatriements de migrants non mexicains, les États-Unis ont, depuis longtemps, délégué une part essentielle de la gestion de leur frontière au Mexique.

Malgré la baisse des traversées irrégulières observée en 2025, la frontière États-Unis/Mexique demeure l’une des frontières terrestres les plus dangereuses au monde. La militarisation accrue, la suspension du droit d’asile, la surveillance massive et les pressions diplomatiques exercées sur le Mexique y produisent une violence structurelle, et font de la frontière un espace d’exception au cœur de la stratégie anti-migratoire et sécuritaire du second mandat de Donald Trump.

The Conversation

Cléa Fortuné ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.01.2026 à 16:59

Compter sur ses doigts aide-t-il un enfant à progresser en maths ?

Jennifer Way, Associate Professor in Primary and Early Childhood Mathematics Education, University of Sydney

Katherin Cartwright, Senior Lecturer Primary Education

Faut-il décourager les enfants de compter sur leurs doigts ? Une étude publiée récemment apporte quelques éléments d’explication.
Texte intégral (1285 mots)

Contrairement à certaines idées reçues, il n’est pas nécessaire de décourager les enfants de compter sur leurs doigts. Une étude publiée récemment apporte quelques éléments d’explication.


Si vous demandez à un jeune enfant de résoudre une opération mathématique simple, telle que 4 + 2, il est possible qu’il compte sur ses doigts pour trouver la solution. Devrions-nous encourager ce type de réflexe ? La question peut paraître simple, mais il est étonnamment complexe d’y répondre.

Certains enseignants et parents pourraient dire que, oui, car cela semble aider les jeunes enfants à apprendre les chiffres. D’autres pourraient être plus réticents, arguant que cela pourrait ralentir la mise en place de stratégies mentales.

Une nouvelle étude suisse montre que les enfants qui comptent sur leurs doigts dès leur plus jeune âge obtiennent de meilleurs résultats pour résoudre des additions que ceux qui ne le font pas.

Que dit la recherche ?

Les chercheurs ont de vifs débats entre eux quant à l’intérêt pour les enfants de compter sur leurs doigts.

Les psychologues scolaires affirment que cela aide les enfants à élaborer des stratégies sans surcharger leur mémoire de travail (la capacité de notre cerveau à stocker des informations pendant un court laps de temps pendant que nous réfléchissons à quelque chose), jusqu’à ce qu’ils maîtrisent des stratégies plus abstraites.

Les chercheurs en cognition incarnée (apprentissage par l’action) affirment que l’association des doigts et des chiffres est « une action naturelle » et qu’elle doit donc être encouragée. Les neuroscientifiques pourraient également noter que des parties similaires du cerveau s’activent lorsque vous bougez vos doigts et pensez à des chiffres, ce qui aide la mémoire.

Plusieurs études menées en classe ont montré que les enfants qui utilisent des stratégies avec leurs doigts pour résoudre des problèmes mathématiques obtiennent de meilleurs résultats que ceux qui ne le font pas, jusqu’à l’âge de 7 ans environ, où l’inverse devient vrai.

Ainsi, avant l’âge de 7 ans, il vaut mieux compter sur ses doigts. Après 7 ans, il vaut mieux ne plus le faire.

Pourquoi en est-il ainsi ? Qu’est-ce que cela signifie pour l’enseignement des mathématiques ? Cela fait l’objet d’un débat depuis plusieurs années.

Une nouvelle étude auprès de 200 enfants

Une nouvelle étude de l’Université de Lausanne a permis de franchir un cap dans ce débat.

Les chercheurs affirment que les précédentes études nous ont laissé deux explications possibles à cette apparente bascule dans les avantages du fait de compter sur les doigts vers l’âge de 7 ans.

Une interprétation est que les stratégies fondées sur le décompte des doigts deviennent inefficaces lorsque les questions mathématiques se complexifient (par exemple, 13 + 9 est plus difficile que 1 + 3), de sorte que les enfants qui les utilisent obtiennent de moins bons résultats.

L’autre possibilité est que les enfants qui n’utilisent pas de stratégies digitales à l’âge de 7 ans (et qui obtiennent de meilleurs résultats que ceux qui les utilisent) en étaient auparavant des utilisateurs mais sont passés à des stratégies mentales plus avancées.

Pour démêler ces explications contradictoires, les chercheurs ont suivi près de 200 enfants âgés de 4,5 ans à 7,5 ans et ont évalué leurs compétences en addition et leur utilisation des doigts tous les six mois.

Ils ont notamment suivi si et quand les enfants ont commencé et arrêté d’utiliser leurs doigts. Ainsi, à chaque point d’évaluation, il a été noté si les enfants n’utilisaient pas leurs doigts, s’ils venaient de commencer à les utiliser, s’ils continuaient à les utiliser ou s’ils avaient arrêté de les utiliser.

Quels sont les résultats de l’étude ?

L’étude a révélé qu’à l’âge de 6,5 ans, la plupart des enfants qui n’utilisaient pas leurs doigts étaient en fait d’anciens utilisateurs. Ces anciens utilisateurs étaient également ceux qui obtenaient les meilleurs résultats aux questions d’addition et continuaient à s’améliorer un an plus tard. L’importance de cette découverte réside dans le fait que, dans les études précédentes, ces enfants très performants avaient seulement été identifiés comme des enfants n’utilisant pas leurs doigts, et non comme d’anciens utilisateurs de stratégies basées sur les doigts.

Dans la nouvelle étude suisse, seuls 12 enfants n’ont jamais utilisé leurs doigts au fil des ans, et ils constituaient le groupe le moins performant.

De plus, l’étude a montré que les « débutants tardifs » utilisant des stratégies de comptage sur les doigts, qui continuaient à utiliser ces stratégies à l’âge de 6,5 à 7,5 ans, n’étaient pas aussi performants que les anciens utilisateurs de leurs doigts.

Dans la nouvelle étude suisse, seuls 12 enfants n’ont jamais utilisé leurs doigts au fil des ans, et ils constituaient le groupe le moins performant.

De plus, l’étude a montré que les « débutants tardifs » utilisant des stratégies de comptage sur les doigts, qui continuaient à les mobiliser à l’âge de 6,5 à 7,5 ans, n’étaient pas aussi performants que les anciens utilisateurs.

Quelles conséquences en tirer ?

Les résultats de cette étude longitudinale unique sont éloquents. Il semble raisonnable de conclure que les enseignants et les parents devraient encourager le fait de compter sur ses doigts dès la maternelle, et pendant les deux premières années d’école.

Cependant, l’étude suisse s’est principalement concentrée sur des enfants européens blancs issus de milieux socio-économiques moyens à élevés. Trouverions-nous des résultats aussi clairs dans une école publique multiculturelle de niveau moyen ? Nous pensons que oui.

Notre propre étude 2025 a révélé une grande variété de méthodes pour compter sur les doigts dans ces écoles, mais lorsque les enseignants y prêtaient attention, cela favorisait les compétences des enfants en matière de calcul.

Les parents peuvent montrer aux enfants d’âge préscolaire comment représenter les chiffres, par exemple en levant trois doigts et en disant « trois ».

Aidez-les à s’entraîner à compter de un à dix, en levant un doigt à la fois. Une fois qu’ils auront commencé, le reste viendra naturellement. Il n’est pas nécessaire de les décourager de le faire. Les enfants cessent naturellement d’utiliser leurs doigts lorsqu’ils n’ont plus besoin de ce recours.

The Conversation

Jennifer Way a reçu un financement du ministère de l'Éducation de Nouvelle-Galles du Sud, Fonds de recherche stratégique (2021-2024). ID : G212850.

Katherin Cartwright a reçu un financement du ministère de l'Éducation de Nouvelle-Galles du Sud, Fonds de recherche stratégique (2021-2024). ID : G212850.

PDF

20.01.2026 à 16:59

Pourquoi l’affichage environnemental textile pourrait-il changer nos habitudes d’achat ?

Anthony Chung Chai Man, Assistant Professor, ESCE International Business School

Béatrice Bellini, Enseignant-chercheur en modèles d'affaires responsables, Université Paris Nanterre

Norchene Ben Dahmane Mouelhi, Marketing, ESCE International Business School

Un éco-score pour les vêtements aurait-il un impact sur les habitudes d’achat ? Le sentiment de culpabilité du consommateur et l’image des producteurs sont deux importants leviers.
Texte intégral (1261 mots)

Un affichage de type éco-score sur les vêtements pourrait-il avoir un impact sur les habitudes de consommation, en orientant les consommateurs vers les marques les plus vertueuses ? Ces derniers seraient-ils prêts à payer plus cher des vêtements respectueux de l’environnement ? Deux facteurs vont influencer la réponse des acheteurs : l’impact de l’éco-score sur l’image du vêtement et sur leur sentiment de culpabilité.


L’industrie textile est réputée être l’une des plus polluantes au monde, produisant 10 % des émissions mondiales de gaz à effet de serre et 20 % de la pollution de l’eau potable (Agence européenne pour l’environnement. Pourtant, contrairement au secteur alimentaire où le Nutri-Score est devenu familier en quelques années, le textile ne dispose pas encore de systèmes d’étiquetage environnemental largement reconnu dans le monde entier.


À lire aussi : Nutri-Score : pourquoi exempter les aliments AOP et IGP n’aurait aucun sens


Face à ce vide, l’Agence de la transition écologique (Ademe) a lancé une expérimentation d’éco-score textile, dans le cadre de la loi Climat et résilience, avec l’objectif de donner une information synthétique aux consommateurs pour identifier les vêtements les plus respectueux de l’environnement. Mais ce type d’affichage peut-il vraiment influencer les comportements d’achat ? Et surtout, sommes-nous prêts à payer plus cher pour des vêtements plus respectueux de l’environnement ?

Bien que plus de la moitié des consommateurs expriment le souhait que les marques de mode adoptent des pratiques plus vertueuses en matière d’écologie, moins d’un tiers se disent réellement prêts à débourser davantage pour des vêtements conçus de manière durable.

Un signal qui change la donne

Nous avons étudié dans un article à paraître l’impact que pourrait avoir un indicateur de type éco-score sur la propension à payer un surprix, c’est-à-dire un prix plus élevé, pour des vêtements plus durables. Après avoir interrogé 136 clients dans deux magasins d’une même marque de vêtement, six scénarios ont été testés via une expérimentation en ligne auprès de 277 répondants. Les manipulations (des AB tests) correspondent aux éco-scores allant de A (très bon) à E (très mauvais), ainsi que l’absence de score.

L’éco-score est un signal efficace pour encourager les consommateurs à payer un surprix à travers deux mécanismes : l’image verte perçue de la marque et la culpabilité anticipée.

L’image verte, un levier pour les marques

À l’heure où la fast-fashion explose (Shein a connu une croissance de 57 % en un an), il devient crucial de proposer des alternatives plus durables, qui ne soient pas seulement une forme de greenwashing.

Notre étude montre que les scores A et B, en améliorant significativement « l’image verte » des marques, augmentent la propension des consommateurs à payer un surprix, par rapport au même vêtement proposé sans indication de score. À l’inverse, les scores D et E ont un effet plus négatif que l’absence de score, alors que le score C a des effets similaires à l’absence de score.

L’image verte perçue de la marque joue ainsi un rôle clé. Un affichage environnemental clair et crédible améliore cette image, et peut donc devenir un levier stratégique pour les marques les plus vertueuses.

Le prix de l’innocence

De manière contre-intuitive, notre étude révèle que seul le score E (le plus défavorable) génère plus de culpabilité anticipée comparativement à l’absence de score. La culpabilité est définie comme « l’anticipation d’un sentiment que l’on peut éprouver lorsqu’on envisage de violer ses normes personnelles ». Le score C, souvent perçu comme neutre, ou le D (négatif) ont les mêmes effets sur la culpabilité des consommateurs que l’absence de score. Cela souligne l’importance d’un affichage obligatoire, car sans signal clair, même un produit écologique peut être perçu comme peu vertueux. En effet, sans étiquette, les consommateurs ne détectent pas le caractère durable du produit, et ne sont donc pas enclins à payer plus cher. À l’inverse, une marque peu écologique qui n’affiche rien évite de générer de la culpabilité, ce qui peut favoriser l’achat.

Or, notre recherche montre que plus les consommateurs se sentent coupables, moins ils sont prêts à payer un surprix. Un affichage environnemental positif (scores A ou B) permet donc non seulement de valoriser les efforts des marques, mais aussi de réduire la culpabilité liée à l’achat, favorisant ainsi des comportements plus responsables.

France 24, 2024.

Peur sur l’image des marques

Au-delà de son rôle incitatif, l’éco-score pourrait aussi jouer un rôle dissuasif : en rendant visibles les pratiques peu vertueuses, il pénalise les entreprises non responsables en exposant leur impact environnemental aux yeux des consommateurs. Ce mécanisme de signalement négatif pourrait encourager les marques à revoir leurs chaînes de production, sous peine de voir leur image écologiquement dégradée. L’absence de score, elle aussi, devient suspecte, puisqu’elle peut être interprétée comme une volonté de cacher des pratiques peu durables.

Trop de labels ?

Reste le problème du nombre de labels, aujourd’hui nombreux et parfois confus. Notre recherche montre qu’un affichage standardisé et bien conçu peut aider à clarifier les choix. Les consommateurs veulent un signal simple et auxquels ils sont déjà familiers (« on a l’habitude de ce genre d’étiquette, comme pour le Nutri-Score ou l’électroménager », indique une des personnes interrogées). Mais attention : il ne s’agit pas dans notre étude de consommer moins, mais de consommer mieux.

La généralisation de l’éco-score textile pourrait encourager des pratiques d’achat plus durables, à condition que les marques jouent le jeu de la transparence ou qu’elles y soient contraintes. Pour les consommateurs, c’est une opportunité de faire des choix plus éclairés – et pour les marques, une chance de redéfinir leur positionnement éthique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

20.01.2026 à 16:58

Des planètes errantes, sans étoile, découvertes par le satellite Euclid

Hervé Bouy, Professeur, Astrophysique, Université de Bordeaux

Le satellite Euclid a découvert une quinzaine de planètes errantes, sans étoile. Peu visibles, ces astres recèlent encore bien des mystères.
Texte intégral (1655 mots)
Difficiles à observer, les planètes errantes commencent à se dévoiler notamment grâce au télescope Euclid. De futures missions devraient nous en apprendre beaucoup sur ces astres. Hervé Bouy/Cosmic-Dance Team, Fourni par l'auteur

Sa mission est de cartographier le cosmos pour en dévoiler les mystères. Mais au passage, le satellite Euclid a découvert une quinzaine d’exoplanètes sans étoiles : des planètes errantes. On en connaît peu, mais Euclid et de futurs satellites devraient nous aider à comprendre leur formation.


Lorsque le télescope spatial Euclid de l’Agence spatiale européenne (ESA) a été lancé en 2023, son objectif était d’explorer l’un des plus grands mystères de l’Univers : le côté obscur du cosmos. En cartographiant des milliards de galaxies, Euclid doit aider à révéler la nature de la mystérieuse énergie noire qui serait le moteur de l’évolution du cosmos. Il n’avait pas été conçu pour étudier les régions de formation d’étoiles ni pour traquer des planètes.

Mais quelques mois après son lancement, l’ESA a mis en place le programme d’observations préliminaires d’Euclid (Euclid early release observations, ou ERO). Ce programme vise à démontrer les performances exceptionnelles du télescope à travers une large gamme d’objets astrophysiques, qu’il s’agisse de galaxies et d’amas lointains ou de régions de formation d’étoiles beaucoup plus proches. Cela permet de mettre en lumière la polyvalence et la précision des instruments d’Euclid, et prouver leur valeur bien au-delà de sa mission principale de cosmologie.

Des planètes sans soleil

Par définition, les planètes sont censées orbiter autour d’étoiles. Mais certaines sont solitaires, errant dans l’espace interstellaire sans étoile pour les réchauffer. Ces planètes errantes, comme on les surnomme, sont de véritables orphelines du cosmos. On pense qu’elles peuvent s’être formées comme des mini-étoiles, à partir de l’effondrement de petits nuages de gaz et de poussières.

Une autre hypothèse y voit de vraies planètes, nées autour d’une étoile et ayant été violemment éjectées de leur système d’origine. Les détecter et les étudier permet ainsi aux astronomes de mieux comprendre à la fois la formation des étoiles et la formation et l’évolution précoce (et parfois chaotique) des systèmes planétaires.

Jusqu’à présent, repérer ces corps discrets relevait presque de l’impossible tant la lumière qu’ils émettent est faible. Ils sont aussi très difficiles à distinguer d’autres objets astrophysiques, en particulier de galaxies lointaines. Mais Euclid, grâce à la combinaison unique d’un grand champ de vision, d’une résolution fine et d’une sensibilité allant de la lumière visible à l’infrarouge, a changé la donne.

Euclid prend le Taureau par les cornes

Lorsque l’ESA a proposé à la communauté scientifique de participer au programme ERO, notre équipe a suggéré de pointer Euclid vers une région de formation d’étoiles bien connue : le nuage LDN 1495, au sein de la constellation du Taureau, situé à environ 450 années-lumière. Cette région sombre, où le gaz et la poussière se condensent pour former de jeunes étoiles, est étudiée depuis des décennies, mais ne l’avait jamais été avec la précision et la sensibilité fournie par Euclid.

Les observations d’Euclid ont été combinées à plus de vingt ans d’imagerie au sol accumulée par notre équipe et obtenue avec des télescopes, comme le Canada-France-Hawaii Telescope (CFHT), Subaru ou UKIRT, tous les trois situés sur le sommet du volcan Mauna Kea dans l’archipel hawaiien (États-Unis). Cette longue période d’observation nous a permis de mesurer les mouvements, les luminosités et les couleurs de centaines de milliers de sources faibles dans ces images.

Parmi elles, 15 objets se distinguent. Leur luminosité, leur couleur et leur mouvement correspondent à ceux attendus pour des objets qui se sont formés dans les nuages moléculaires du Taureau. Ces objets partagent certaines propriétés : étant nés à peu près ensemble, ils sont tous jeunes (quelques millions d’années), situés à une distance similaire (celle des nuages, d’environ 425 à 490 années-lumière) et se déplacent ensemble à la même vitesse et dans la même direction dans le ciel, ayant hérité du mouvement du nuage moléculaire où ils sont nés. Neuf de ces quinze objets sont totalement nouveaux, et parmi les plus faibles et les moins massifs jamais détectés dans cette région.

Certains de ces candidats sont incroyablement petits : d’après leur luminosité extrêmement faible, ils pourraient avoir des masses proches ou légèrement supérieures à celle de Jupiter. C’est bien en dessous du seuil de masse d’une étoile ou même d’une naine brune, un astre plus gros qu’une planète, mais trop petit pour être une étoile. Cela les place donc clairement dans la catégorie des objets de masse planétaire. S’ils sont confirmés, ils compteraient parmi les objets les plus légers jamais détectés de manière directe en dehors d’un système solaire.

Une fenêtre sur les origines cosmiques

Cette découverte est bien plus qu’une curiosité : elle ouvre une fenêtre directe sur la façon dont l’Univers fabrique ses étoiles et ses planètes. Ces mondes solitaires se forment-ils de la même manière que les étoiles, à partir de petits fragments de nuages qui s’effondrent sous l’effet de la gravité ? Ou bien sont-ils les orphelins de systèmes planétaires, expulsés par le chaos gravitationnel de leur famille ?

Chacun de ces deux scénarios a des implications différentes pour notre compréhension des premiers stades de la formation stellaire, mais aussi de la formation des planètes. Dans des régions comme la constellation du Taureau, où la densité d’étoiles est faible et les étoiles massives sont rares, ces objets de masse planétaire pourraient se former directement par effondrement gravitationnel, brouillant encore davantage la frontière entre planète et étoile.

Les résultats de notre équipe suggèrent également que ces planètes errantes pourraient ne pas être si rares. En extrapolant nos résultats à l’ensemble du complexe du Taureau, on peut estimer que des dizaines d’entre elles, encore à découvrir, pourraient exister dans cette région.

Un Univers plein de surprises

Ce travail ne constitue qu’une première étape. Euclid a déjà observé d’autres régions de formation d’étoiles dans le cadre du programme ERO, actuellement en cours d’analyse, et pourrait en observer à nouveau à l’avenir, offrant ainsi des mesures de mouvements encore plus précises et des recensements plus complets.

À moyen terme, le futur télescope spatial Nancy-Grace-Roman, dont le lancement est prévu à l’automne 2026, disposera de capacités similaires et complémentaires en grand champ et en infrarouge. Ensemble, ces télescopes ouvriront une ère nouvelle pour l’étude systématique des objets de très faible masse dans les jeunes régions du cosmos.

Enfin, le James-Webb Space Telescope jouera un rôle clé dans le suivi de ces découvertes, en fournissant les observations spectroscopiques indispensables pour confirmer la nature, la masse et la composition des atmosphères de ces mondes errants. Ces missions dessinent un avenir particulièrement prometteur pour l’exploration des origines des étoiles et des planètes errantes.


À lire aussi : Euclid vs James-Webb : le match des télescopes spatiaux ?


Chaque nouveau grand télescope finit par accomplir des découvertes qu’il n’était pas censé faire. Le télescope spatial Hubble a révolutionné la cosmologie, mais il nous a aussi offert des vues spectaculaires des pouponnières d’étoiles. Aujourd’hui, Euclid, construit pour cartographier le squelette invisible du cosmos, révèle de nouveaux mondes en formation flottant dans l’Univers sans attache et sans étoile. Petits, froids et solitaires, ces mondes vagabonds nous rappellent que la frontière entre planète et étoile est mince et que, même dans l’obscurité entre les étoiles, il reste des histoires à découvrir.

The Conversation

Hervé Bouy est membre senior de l'Institut Universitaire de France. Il a reçu des financements du Conseil européen pour la recherche (ERC) et a été employé à l'Agence spatiale européenne (ESA).

PDF

20.01.2026 à 16:57

Où va la démocratie française ?

Nonna Mayer, Directrice de recherche au CNRS/Centre d'études européennes, Sciences Po

Frédéric Gonthier, Professeur de science politique, Sciences Po Grenoble - Université Grenoble Alpes

La recherche montre que les citoyens ne rejettent pas la démocratie en tant que telle, mais un système politique qui ne fonctionne plus comme une démocratie.
Texte intégral (2088 mots)

Depuis la dissolution de juin 2024, le système politique français semble grippé et la confiance des Français dans les institutions politiques s’érode. Pourtant, la recherche montre que les citoyens ne rejettent pas la démocratie en tant que telle, ils rejettent un système politique qui ne fonctionne plus comme une démocratie.

La France s’est installée dans une zone de turbulences démocratiques durables. Effondrement des partis de gouvernement, poussée de la droite radicale populiste et fragmentation de l’Assemblée nationale nourrissent depuis quelques décennies l’idée d’une démocratie structurellement déstabilisée. La séquence électorale de 2024, marquée par des élections européennes triomphales pour le Rassemblement national (RN), la dissolution surprise de l’Assemblée nationale et l’aggravation de la crise du fait majoritaire, a amplifié ce diagnostic d’une démocratie fragilisée.

Ces turbulences masquent pourtant un paradoxe : si la confiance des Françaises et des Français dans les institutions politiques s’érode, leur attachement aux valeurs démocratiques demeure très solide. Contrastant avec un discours répandu, les recherches que nous avons menées avec 23 autres chercheurs mettent en évidence que les Français ne sont pas fatigués de la démocratie mais d’un système politique qui, à leurs yeux, ne fonctionne plus comme une démocratie.

Une démocratie toujours plébiscitée mais jugée dysfonctionnelle

Les enquêtes internationales sont sans ambiguïté. Selon la dernière vague de l’« Enquête sur les valeurs des Européens » (2018), plus de 90 % des Français considèrent la démocratie comme un bon régime politique. Un soutien comparable à celui observé dans la plupart des démocraties européennes, et largement devant le soutien à une alternative technocratique ou à un gouvernement autoritaire. De la même manière, une large majorité estime qu’il est essentiel de vivre dans un pays gouverné démocratiquement, avec une note moyenne de 8,6 sur une échelle allant de 1 pour « pas important du tout » à 10 pour « absolument important ».

Les Françaises et les Français sont nettement plus sévères quand il s’agit d’évaluer le fonctionnement de leur démocratie. Quand on leur demande à quel point la France est gouvernée démocratiquement, ils la situent à 6,4 sur une échelle où 1 indique « pas du tout démocratique » et 10 « complètement démocratique ». Cela conduit à un niveau de satisfaction dans la démocratie très modeste, de l’ordre de 5,2 selon l’« Enquête sociale européenne » de 2020. Le même décalage entre adhésion et insatisfaction démocratique apparaît dans la plupart des autres pays européens.

Une fatigue démocratique « par le haut »

La crise actuelle ne traduit donc pas un rejet des valeurs démocratiques, mais une remise en cause d’un système institutionnel perçu comme n’étant plus en phase avec ces valeurs. Loin d’une fatigue démocratique « par le bas », c’est-à-dire parmi les citoyens, il s’agit plutôt d’une fatigue démocratique « par le haut », c’est-à-dire d’un processus dans lequel les pratiques de gouvernement contribuent à effriter la confiance des citoyens.

Le constat est désormais bien documenté dans la littérature comparative : les démocraties libérales s’affaissent moins sous l’effet d’une désaffection populaire ou d’un déficit de performances économiques et sociales que par des choix politiques, des logiques partisanes et des contournements institutionnels opérés par les élites au pouvoir. En France, plusieurs évolutions ont alimenté cette dynamique.

La centralisation extrême de la Ve République a progressivement transformé un exécutif fort en un exécutif hypertrophié, marginalisant le Parlement et affaiblissant les espaces de médiation censés coproduire la confiance démocratique : partis politiques, syndicats, corps intermédiaires… Les usages répétés de l’article 49.3, les négociations difficiles avec les partenaires sociaux ou encore les conventions citoyennes dont les recommandations ont été partiellement ou totalement écartées, ont renforcé l’idée que les dispositifs participatifs et délibératifs, supposés remédier aux dysfonctionnements de la démocratie électorale, restent largement symboliques.

Cette rigidification des pratiques de gouvernement s’est accompagnée d’une répression plus visible des mobilisations sociales. Des travaux récents, ainsi que la défenseure des droits, ont attiré l’attention sur la normalisation de dispositifs d’exception, l’extension du maintien de l’ordre judiciaire et administratif, et l’usage accru de qualifications pénales restrictives. De la gestion du mouvement des gilets jaunes à celle des mobilisations contre la réforme des retraites, la protestation, pourtant pilier historique de la vie politique française, s’est vue de plus en plus disqualifiée voire criminalisée. Ces évolutions ont aujourd’hui réduit la capacité de la société civile à influencer durablement l’agenda politique.

Des aspirations démocratiques qui se déplacent

Face à la fermeture des canaux conventionnels, les aspirations démocratiques se déplacent vers des formes d’expression plus faiblement institutionnalisées : blocages, actions locales, pétitions, mobilisations numériques. Celles-ci traduisent un désir persistant de participation à la fabrique des choix publics.

Par ailleurs, les Françaises et Français sont maximalistes en matière de démocratie : ils adhèrent massivement aux piliers électoraux et constitutionnels du régime libéral, mais aussi à la dimension sociale de la démocratie, qui suppose l’égalité réelle et la protection contre l’arbitraire économique. On constate également un fort soutien à une souveraineté populaire plus directe, qui va de pair avec l’attrait pour des formes de démocratie sans intermédiaires. Les citoyens ordinaires tirés au sort ou les experts sont perçus comme capables de prendre des décisions rationnelles et rapides, transcendant les divisions politiques.

Les données du baromètre de la Commission nationale consultative des droits de l’homme (CNCDH) 2023 confirment ce soutien élevé aux réformes démocratiques. Le référendum recueille notamment une adhésion majoritaire, en particulier parmi les citoyens qui se sentent exclus de la représentation politique. Les électeurs du Rassemblement national, souvent décrits comme antidémocratiques, ne font pas exception à cette logique. Une part importante d’entre eux soutient des dispositifs de démocratie directe ou délibérative. Paradoxalement, ce parti qui valorise l’ordre et l’autorité ne trouve pas ses meilleurs soutiens chez les personnes en faveur d’un « dirigeant fort qui n’a à se préoccuper ni du Parlement ni des élections », mais chez celles qui souhaiteraient plutôt que « des citoyens tirés au sort décident ce qui leur paraît le meilleur pour le pays ». L’idée selon laquelle l’électorat de droite radicale populiste serait par principe hostile à la démocratie ne résiste pas à l’examen empirique.

Une démocratie sociale en berne

Le décalage entre valeurs démocratiques et fonctionnement institutionnel s’enracine dans les inégalités sociales. La précarité économique, les faibles niveaux de revenus et de diplômes comme les discriminations raciales s’accompagnent d’un sentiment aigu de ne pas compter politiquement. Le score EPICES, qui mesure la précarité sociale individuelle, est fortement associé à l’abstention répétée. Les minorités racisées comme les classes populaires vivent la représentation comme distante, parfois hostile, et développent un rapport à la fois utilitaire et méfiant à la politique.

Les institutions de l’État social – école, logement, justice, services publics – constituent des lieux centraux où les citoyens font l’expérience concrète et émotionnelle de la démocratie. Or, sous l’effet de contraintes budgétaires et de réformes structurelles de long terme, ces institutions ont vu leur capacité protectrice se recomposer ; ce qui alimente un sentiment d’abandon et d’injustice. Sans un socle minimal de justice sociale, l’égalité politique formelle et l’État de droit peinent à produire de la légitimité durable.

La France est-elle alors en voie de basculer dans l’autocratisation ? En comparaison européenne, l’attachement à la démocratie est élevé. La participation record aux législatives anticipées de 2024 – plus de 66 %, soit près de vingt points de plus qu’en 2022 – rappelle aussi que les citoyens peuvent se mobiliser lorsque l’enjeu est perçu comme décisif. Enfin, il faut voir dans l’attrait des Français pour différentes formes de démocratie le signe d’une culture démocratique mature et exigeante, qui entend combiner pluralisme, efficacité, inclusion et capacité décisionnelle. Cela représente une opportunité pour l’action publique pour réinventer les règles du jeu démocratique en mêlant plusieurs façons de décider.

Que faire ?

Dans ces conditions, la réponse aux turbulences actuelles ne peut se limiter à des ajustements techniques. Elle suppose une refondation du lien politique.

Les assemblées citoyennes dotées de pouvoirs réels, les référendums d’initiative citoyenne encadrés, les budgets participatifs décisionnels ou les dispositifs délibératifs sur les politiques complexes sont des instruments éprouvés et bénéficiant, on l’a vu, d’un soutien populaire significatif.

En définitive, la France se trouve à un carrefour. Une voie mène à la poursuite de la centralisation technocratique, à la déresponsabilisation des élites et à la tentation illibérale. L’autre ouvre sur un nouvel horizon démocratique, où la participation citoyenne produit de véritables décisions.

Le choix appartient moins aux citoyens, dont l’attachement aux valeurs démocratiques ne faiblit pas, qu’aux responsables politiques, aujourd’hui appelés à réformer un système perçu comme verrouillé. Les Français ne sont pas fatigués de la démocratie. Ils sont fatigués d’une démocratie inachevée, car vécue comme défaillante et confisquée.

The Conversation

Frédéric Gonthier a reçu des financements du programme Horizon Europe n°1010952237: TRUEDEM—Trust in European Democracies.

Nonna Mayer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.01.2026 à 15:04

Agatha Christie : la reine du crime était aussi la reine du châtiment

Nicolas Bareït, Maître de conférences HDR en droit privé et sciences criminelles, Université de Pau et des pays de l’Adour (UPPA)

Tous les romans et nouvelles d’Agatha Christie sont porteurs d’une philosophie répressive singulière.
Texte intégral (1765 mots)
*Le Crime de l’Orient-Express* (1934) est, avec *Ils étaient dix* (1939), l’un des romans d’Agatha Christie ayant connu le plus de succès. Photo tirée d'une Exposition à l’Institut du monde arabe, Paris, 2014., CC BY

Agatha Christie, souvent surnommée la reine du crime, demeure l’autrice de fiction la plus vendue au monde : plus de 2 milliards d’exemplaires de ses livres ont été écoulés depuis leur première publication. Ses intrigues captivantes – de Ils étaient dix au Crime de l’Orient-Express – ont été traduites dans plus de 100 langues, plaçant Christie non seulement au sommet du genre policier mais aussi parmi les auteurs les plus lus de tous les temps. Mais l’habileté littéraire dissimule un autre aspect de son œuvre et de sa personnalité : Agatha Christie était aussi, dans ses fictions, la reine de la répression.


Pourquoi (re)lire Agatha Christie ? Pour prendre conscience du fonds idéologique de son œuvre. Pour saisir ce qui peut échapper à la (première) lecture, le lecteur étant implacablement pris et entraîné par la mécanique de l’intrigue policière, tournant les pages vers la résolution finale tant attendue. Les énigmes policières, qui pourraient sembler n’être que des constructions abstraites suspendues dans le vide, des casse-têtes brillants mais sans enjeux concrets, des jeux pour divertir l’esprit, portent, en leur sein ou dans le décor fictionnel dans lequel elles s’inscrivent, un discours sur la société. Lire le Meurtre de Roger Ackroyd pour la prouesse littéraire, oui, bien sûr, il le faut. Mais le relire aussi pour y percevoir « l’arrière-fable », selon une expression du philosophe Michel Foucault, et décrypter les messages ainsi adressés au lecteur, à son insu souvent.

Les romans policiers à énigme ne sont donc pas des produits littéraires jetables, dont la relecture serait du temps perdu. Bien au contraire : délivré de l’emprise de l’intrigue, le lecteur y gagne une nouvelle intelligence du texte. Il peut prendre le temps de discerner certains fils dans la trame policière qui disent quelque chose de la philosophie ou de la politique de l’auteur.

Alors, relisez Agatha Christie. Les rééditions infinies de ses textes vous y encouragent. Relisez-la en usant d’une clé de lecture tout à fait efficace pour avoir accès à sa vision du monde : les représentations de la justice pénale. Tous ces romans et nouvelles sont, en effet, porteurs d’une philosophie répressive singulière. Une philosophie répressive, c’est-à-dire une manière de concevoir les fonctions sociales de la peine.

Trois modèles de justice pénale

Il est plusieurs conceptions possibles de la sanction pénale, qui peuvent d’ailleurs coexister. La peine peut tout d’abord être la réponse violente à l’infraction, le prix à payer par le criminel pour le crime qu’il a commis – le prix du sang. Il s’agit alors de justice rétributive : l’harmonie du monde est rétablie dès lors que le mal infligé à la victime est compensé par le mal subi par l’auteur du crime. La peine peut ensuite être un moyen d’empêcher un nouveau passage à l’acte, de dissuader les potentiels récidivistes. La justice pénale est, dans ce cas, utilitariste et elle se fonde sur l’idée que les individus peuvent être corrigés, améliorés. Enfin, la peine peut perdre son nom et devenir une « mesure » de justice restaurative : l’État est laissé de côté, l’objectif est dès lors de permettre à l’auteur et à la victime de l’infraction de trouver ensemble, par le dialogue, une issue satisfaisante à leur conflit.

Qu’en est-il chez Agatha Christie ? Dans son œuvre, la justice pénale est résolument rétributive. Elle est même, par certains de ses aspects, réactionnaire. Ne vous fiez pas trop aux aimables photographies présentant la romancière dans son bureau en inoffensive grand-mère. Tous ses récits à énigme enseignent que la justice humaine est inefficace, que les procédures légales tournent à vide, que les procès ne permettent pas d’aboutir à la vérité. Ce sont des agents d’une justice supérieure, surnaturelle, qui triomphent chez elle : le silencieux et mélancolique Harley Quinn, l’avocat des morts, messager de l’au-delà. Mais aussi Hercule Poirot – personnage à la vanité assumée et délicieusement comique, méthodique jusqu’à l’obsession, qui se prend pour Dieu le Père et qui finira sa carrière en assassin. Enfin Miss Marple, à l’apparence bienveillante, mais redoutablement lucide et plus perfide qu’il n’y paraît, incarnation de la déesse grecque de la vengeance Némésis. Némésis et non Thémis, la déesse de la justice.

Némésis l’implacable

Pour Agatha Christie, la vengeance est une forme de justice, et c’en est la forme la plus efficace. En effet, selon elle, le meurtre appelle la mort du meurtrier. Pas de place pour le pardon, ni pour la correction des comportements. Non, elle est très claire, elle l’écrit noir sur blanc dans son Autobiographie : les criminels doivent soit être exécutés, soit accepter d’être des cobayes pour la science, « la marque de Caïn enfin effacée de leur front ». Elle écrit ceci non pas en 1930 mais en 1977.

Toutes les morts se valent d’ailleurs. Que le criminel se suicide, qu’il succombe lors d’un accident ou qu’il soit exécuté sur le gibet, toutes ces issues sont satisfaisantes pour l’écrivain, dès lors que le prix du sang est payé.

Notre sensibilité européenne actuelle sera peut-être heurtée, mais l’évidence s’impose : Agatha Christie défend la peine de mort, c’est la seule peine qui lui semble juste. Il est d’ailleurs intéressant de relever qu’à chaque réforme adoptée en Angleterre en faveur de l’abolition de la peine capitale, Agatha Christie a fait connaître sa désapprobation dans ses récits de fiction. Relisez le Train de 16 h 50, relisez le Crime d’Halloween. Dès 1930, elle faisait dire à Miss Marple :

« Les scrupules humanitaristes modernes à propos de la peine capitale m’exaspèrent. »

Rétablir l’ordre du monde

Le monde littéraire d’Agatha Christie est un monde ordonné, un monde harmonieux, une bibliothèque où chaque ouvrage est à sa place. Le cadavre qui y surgit doit être évacué, les taches de sang effacées, la vérité dévoilée et le meurtrier châtié. Et peu importe le temps qui passe : la prescription de l’action publique n’existe pas dans l’œuvre d’Agatha Christie (elle n’existait pas non plus en droit anglais à l’époque où elle écrivait). Némésis possède une mémoire d’éléphant. C’est pourquoi Hercule Poirot peut enquêter seize ans après les faits dans Cinq petits cochons. Idem pour Miss Marple qui intervient dix-huit ans après l’affaire, dans la Dernière Énigme.

Réordonner le monde dérangé par le meurtre passe aussi par un moyen plus doux : le mariage. Innombrables sont les romans d’Agatha Christie dans lesquels l’intrigue policière se double d’une intrigue amoureuse trouvant son dénouement dans un mariage ou dans un projet de mariage. Hercule Poirot n’est pas qu’un détective, c’est aussi un entremetteur, un facilitateur de fiançailles. Or, réunir des amants, c’est, de fait, rétablir l’ordre du monde : l’infraction a sectionné le lien social, le mariage le retisse. Si, comme dans les contes de fées, le héros se marie à la fin d’un roman d’Agatha Christie, ce n’est pas par goût frivole du happy end, mais c’est encore pour traduire une philosophie pénale qui a été distillée dans l’esprit de millions de lecteurs, en sourdine.

Relire Agatha Christie, c’est finalement se donner les moyens de prendre conscience qu’un texte littéraire – même un texte relevant de la littérature populaire – est porteur d’un discours philosophique, social ou politique. Relire Agatha Christie, c’est également comprendre qu’il est possible d’aimer un auteur, sans nécessairement adhérer aux valeurs qu’il diffuse.

The Conversation

Nicolas Bareït ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.01.2026 à 14:29

Greenland: Staying with the Polar Inuit. How a secret military base helped trigger the silent collapse of an Arctic world

Ludovic Slimak, Archéologue, penseur et chercheur au CNRS, Université de Toulouse

In 1951, the French Explorer Jean Malaurie witnessed the building of a US military base in Greenland in near total secrecy, which marked an irreversible turning point for Inuit societies.
Texte intégral (2985 mots)

Today, as Greenland once again becomes a strategic prize, history seems poised to repeat itself. Staying with the Polar Inuit means refusing to speak of territory while erasing those who inhabit it.

On 16 June 1951 Jean Malaurie was travelling by dog sled along the north-west coast of Greenland. He had set out alone, almost on a whim, with a modest grant from the French National Centre for Scientific research (CNRS), officially to study periglacial landscapes. In reality, this encounter with peoples whose relationship with the world followed an entirely different logic would shape a singular destiny.

That day, after many months among the Inuit, at the critical moment of the spring thaw, Malaurie was travelling with a few hunters. He was exhausted, filthy and emaciated. One of the Inuit touched his shoulder: “Takou, look.” A thick yellow cloud was rising in the sky. Through his binoculars, Malaurie first thought it was a mirage:

“A city of hangars and tents, of metal sheets and aluminium, dazzling in the sunlight, amid smoke and dust… Three months earlier, the valley had been calm and empty of people. I had pitched my tent there, on a clear summer day, in a flowering, untouched tundra.”

The breath of this new city, he would later write, “would never let us go.” Giant excavators hacked at the ground, trucks poured debris into the sea, aircraft circled overhead. Malaurie was hurled from the Stone Age into the Atomic Age. He had just discovered the secret American base of Thule, codenamed Operation Blue Jay.

The American base at Thule in the early 1950s. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Behind this innocuous name lay a colossal logistical operation. The United States feared a Soviet nuclear attack via the polar route. In a single summer, some 120 ships and 12,000 men were deployed to a bay that had previously known only the silent glide of kayaks. Greenland’s population at the time numbered barely 23,000 people. In just 104 days, on permanently frozen ground, a technological city capable of hosting giant B-36 bombers carrying nuclear warheads emerged. More than 1,200 kilometres north of the Arctic Circle, and in almost total secrecy, the United States built one of the largest military bases ever constructed outside its continental territory. A defence agreement was signed with Denmark in the spring of 1951, but Operation Blue Jay was already underway: the American decision had been taken in 1950.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The annexation of the Inuit world

Malaurie immediately grasped that the sheer scale of the operation amounted, in effect, to an annexation of the Inuit world. A system founded on speed, machinery and accumulation had violently and blindly entered a space governed by tradition, cyclical time, hunting and waiting.

The blue jay is a loud, aggressive, fiercely territorial bird. Thule lies halfway between Washington and Moscow along the polar route. In the era of intercontinental hypersonic missiles, once Soviet and now Russian, it is this same geography that still underpins the argument of “vital necessity” invoked by Donald Trump in his calls to annex Greenland.

The Thule base has a strategic position between the USA and Russia. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

The most tragic immediate outcome of Operation Blue Jay was not military, but human. In 1953, to secure the perimeter of the base and its radar installations, authorities decided to relocate the entire local Inughuit population to Qaanaaq, roughly 100 kilometres further north. The displacement was swift, forced and carried out without consultation, severing the organic bond between this people and their ancestral hunting territories. A “root people” was uprooted to make way for an airstrip.

It is this brutal tipping point that Malaurie identifies as the moment when traditional Inuit societies began to collapse. In these societies, hunting is not merely a survival technique but an organising principle of the social world. The Inuit universe is an economy of meaning, made of relationships, gestures and transmission through the generations that confer recognition, role and place in relation to each individual. This intimate coherence, which constitutes the strength of these societies, also renders them acutely vulnerable when an external system suddenly destroys their territorial and symbolic foundations.

After the collapse of traditional structures

Today, Greenlandic society is largely sedentary and urbanised. More than a third of its 56,500 inhabitants live in Nuuk, the capital, and nearly the entire population now resides in permanent coastal towns and settlements. Housing reflects this abrupt transition. In the larger towns, many people live in concrete apartment blocks built in the 1960s and 1970s, often deteriorating and overcrowded. The economy is heavily dependent on industrial fishing geared toward export. Subsistence hunting and fishing are still commonplace. Modern rifles, GPS devices, snowmobiles and satellite connections now work hand in hand with old habits. Hunting remains a marker of identity, but it no longer shapes either the economy or intergenerational transmission.

The fallout on a human level from this shift is massive. Greenland today has one of the highest suicide rates in the world, particularly among young Inuit men. Contemporary social indicators, suicide rates, alcoholism, domestic violence, are widely documented. Many studies link them to the speed of social transformation, forced sedentarization and the breakdown of traditional systems of transmission.

American military maneuvers at Thule. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Spaces and radioactive contamination

The logic underpinning Thule reached a point of no return on 21 January 1968. During a continuous nuclear alert mission, a US Air Force B-52G bomber under the Chrome Dome programme, crashed into the sea ice some ten kilometres from Thule. It was carrying four thermonuclear bombs. The conventional explosives designed to initiate the nuclear reaction detonated on impact. There was no nuclear explosion, but the blast scattered plutonium, uranium, americium and tritium over a vast area.

In the days that followed, Washington and Copenhagen launched Project Crested Ice, a large-scale recovery and decontamination operation ahead of the spring thaw. Around 1,500 Danish workers were mobilised to scrape the ice and collect contaminated snow. Decades later, many of them initiated legal proceedings, claiming they had worked without adequate information or protection. These cases continued until 2018–2019 and resulted only in limited political compensation, without any legal recognition of responsibility. No comprehensive epidemiological study has ever been conducted among the local Inuit populations.

Now renamed “Pituffik Space Base”, the former Thule base is one of the major strategic nodes of the US military apparatus. Integrated into the US Space Force, it plays a central role in missile warning and space surveillance in the Arctic, under maximum security conditions. It is not a relic of the Cold War, but an active pivot of contemporary geopolitics.

In The Last Kings of Thule (1953), Malaurie shows that indigenous peoples have never had a place at the heart of Western strategic thinking. Amid the great manoeuvres of the world, Inuit existence becomes as peripheral as that of seals or butterflies.

Donald Trump’s statements do not herald a new world. They seek to generalise a system that has been in place in Greenland for seventy-five years. Yet the position of one man cannot absolve us of our collective responsibilities. To hear today that Greenland “belongs” to Denmark and therefore falls under NATO, without even mentioning the Inuit, is to repeat an old colonial gesture: conceiving territories by erasing those who inhabit them.

Portrait of a Greenlandic Inuit.
Portrait of a Greenlandic Inuit. Popular Science Monthly Volume 37

The Inuit remain invisible and unheard. Our societies continue to imagine themselves as adults facing infantilised, indigenous populations. Their knowledge, values and ways of being are relegated to secondary variables. Difference does not fit within the categories that our societies know how to handle.

Following Jean Malaurie, my own research approaches humanity through its margins. Whether studying hunter-gatherer societies or what remains of Neanderthals once stripped of our projections, the “Other” remains the blind spot for our perceptions. We fail to see how entire worlds collapse when difference ceases to be thinkable.

Malaurie ended his first chapter on Thule with these words:

“Nothing was planned to imagine the future with any sense of elevation.”

What must be feared above all is not the sudden disappearance of a people, but their silent and radical relegation within a world that speaks about them without ever seeing or hearing them.

The Conversation

Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

20.01.2026 à 11:34

Manger sans viande est-il bon pour la santé ? Un débat récurrent dans l’histoire de la diététique

Bruno Laurioux, Professeur émerite, Université de Tours

De l’intérêt de limiter sa consommation de viande, voire de s’en priver, pour sa santé. Cette question d’actualité divise les spécialistes de diététique et de nutrition depuis… le Moyen Âge.
Texte intégral (2242 mots)
Image extraite de _Mœurs, usages et costumes au Moyen Âge et à l’époque de la Renaissance_ (1871), de Paul Lacroix, illustré par F. Kellerhoven., CC BY

De l’intérêt de limiter sa consommation de viande, voire de s’en priver, au bénéfice de sa santé. C’est un des arguments avancés par celles et ceux qui promeuvent le végétarisme. Mais savez-vous que cette question, ô combien d’actualité, divise les spécialistes depuis… le Moyen Âge ? C’est ce que nous raconte Bruno Laurioux, professeur émérite à l’université de Tours et président de l’Institut européen d’histoire et des cultures de l’alimentation dans Une histoire de la diététique. D’Hippocrate au Nutri-Score (éditions du CNRS, 2025).


Dans la longue histoire du végétarisme, trois arguments principaux ont été avancés pour justifier le refus – ou le rejet – de la viande. Le plus ancien est d’ordre éthique ; on le retrouve chez certains néo-pythagoriciens de l’Antiquité tardive, qui stigmatisent la violence faite à l’animal lorsqu’on le met à mort pour le consommer. L’argument le plus récent – il date du XXe siècle – est de nature environnementale et pointe les impacts très négatifs de l’élevage intensif, en termes de rejet de gaz à effet de serre ou de prélèvement des eaux.

Mais, on l’oublie souvent, l’une des motivations de ceux qui se privent totalement de viande peut être le souci de leur santé. Entretenue par les crises sanitaires à répétition qui touchent le secteur de la production animale depuis le déclenchement de l’encéphalopathie spongiforme bovine (ESB, surnommée communément « maladie de la vache folle ») à la fin des années 1990, puis ravivée par la mise en évidence des effets cancérogènes d’une consommation soutenue de viande rouge, une méfiance certaine envers la viande s’est installée dans notre paysage.


À lire aussi : Pour promouvoir l’alimentation végétale, l’argument santé serait plus efficace que l’argument écologique


Or, cette ligne de contestation de la consommation carnée a été également utilisée dans un passé parfois lointain, qui va du Moyen Âge au XXe siècle. C’est ce que nous décrivons dans Une histoire de la diététique. D’Hippocrate au Nutri-Score.

La défense du régime chartreux « sans viande » : Arnaud de Villeneuve

Le traité De esu carnium (en français, Sur la consommation des viandes) a été composé entre 1302 et 1305 par l’un des plus grands médecins du temps, le Catalan Arnaud de Villeneuve ; la version originale intégrale de cet ouvrage intégrale étant De esu carnium d’Arnaldus de Villanova, éd. Dianne M. Bazell, Barcelone (Arnaldi de Villanova Opera medica Omnia, XI), 1999).

Professeur renommé à l’université de Montpellier, très bon connaisseur des textes médicaux traduits récemment de l’arabe, Arnaud de Villeneuve met ses talents de praticien au service du roi d’Aragon comme du pape. Il prend ici la défense des Chartreux ; cet ordre monastique rigoriste, fondé par saint Bruno, est accusé de laisser mourir ses membres malades, en leur refusant absolument l’usage de la viande. Or, la possibilité d’en manger avait été ouverte, précisément pour les malades, par la règle bénédictine, la plus répandue en Occident.

De manière générale, l’interdiction de la viande des animaux terrestres et aériens, qui constituait le cœur du carême pour les fidèles et s’imposait aux moines à perpétuité, s’était notablement assouplie. Et ceci sous l’effet du système de représentation dominant dans la société laïque qui valorisait la consommation carnée ; un système face auquel les petites communautés de Chartreux apparaissaient comme des pôles de résistance.

Contre les détracteurs des Chartreux qui les présentent comme cruels ou dénués de toute humanité en ne permettant pas la viande aux malades en grand danger de mort, Arnaud de Villeneuve veut prouver qu’on agit plus efficacement en leur administrant des médicaments et que les mets végétaux ne présentent aucun danger supplémentaire par rapport aux mets carnés – bien au contraire. Il pose ainsi une série d’arguments médicaux tirés des auteurs de référence qu’il maîtrise à merveille.

D’abord, démontre-t-il, prescrire de la viande ne sert à rien quand le malade a juste besoin de médicaments. Ensuite, la chaleur supplémentaire que procure la graisse contenue dans la viande, invoquée par certains détracteurs des Chartreux, n’apporte rien aux malades et peut même être très nuisible à leur guérison.

Troisième argument : la viande restaure certes les muscles mais non la force vitale tout entière ; si le sang « épais et glutineux » qu’elle engendre peut certes aider le corps au quotidien, le vin et les jaunes d’œuf (qui font partie du régime monastique ordinaire), parce qu’ils sont « légers et subtils », se révèlent, juge-t-il, bien plus utiles pour restaurer l’ensemble de ses fonctions physiques et cognitives. (La « prescription » de vin à des malades peut surprendre aujourd’hui, à raison. Mais à l’époque, leur donner du vin, donc de l’alcool, ne fait pas débat, ndlr).

Le médecin catalan, qui se pique aussi de théologie, rappelle au passage que la Bible ne présente jamais la viande comme une nourriture saine ni nécessaire. Et il constate que les Chartreux, même s’ils se privent totalement de viande, vivent fort vieux, atteignant couramment 80 ans, à l’instar des patriarches des premiers âges du monde, où la viande n’était pas encore d’usage.

La conclusion s’impose : la consommation de viande n’est nullement une nécessité en cas de maladie et, par conséquent, s’en priver ne constitue pas un danger ; ceux qui prétendent nécessaire l’usage de la viande ont en réalité mal compris ses effets sur l’alimentation. Conclusion forte, qui intéressa les lecteurs mais n’eut guère d’impact sur les pratiques. Le De esu carnium fut souvent copié et parfois cité mais n’empêcha pas le vaste courant favorable à la viande de se développer et d’emporter tout sur son passage.

Les bienfaits du carême : Andry contre Hecquet

Pourtant le plaidoyer anti-viande ressurgit au début du XVIIIe siècle, sous la plume du bouillant Philippe Hecquet. Ce « self-made-man », devenu médecin du prince de Condé et doyen de la faculté parisienne, manifeste ses talents de polémiste en s’attaquant aux libertés que des fidèles toujours plus nombreux ont pris avec les obligations du carême. Et, scandale majeur pour le rigoureux janséniste qu’il est, sur les conseils mêmes de leur médecin traitant !

Car le contexte a bien changé depuis Arnaud de Villeneuve. Le carême s’est retrouvé au cœur de la contestation que la Réforme protestante a menée contre bien des dogmes et des pratiques catholiques non attestés dans l’Écriture. Avec le siècle des Lumières s’amorce un mouvement encore plus profond dans la société d’Ancien Régime, celui d’une déchristianisation progressive. S’ensuit une forte augmentation de la vente de viande, qui, durant le carême, est traditionnellement détenue par l’Hôtel-Dieu, en vertu des dispenses accordées aux malades.

C’est contre cette évolution que s’élève Hecquet, lorsqu’il publie en 1709 son Traité des dispenses du carême.

Il entend notamment y établir « par l’histoire, par l’analyse et par l’observation », la « convenance » que les aliments maigres entretiennent « avec la santé ». Au bout de quelque 73 chapitres, Hecquet a réussi l’exploit de démontrer à la fois

« que le Carême n’a rien de si extraordinaire » ni de « trop austère » et « que les fruits, les grains et les légumes sont », contrairement à la viande, « les aliments les plus à naturels à l’homme ».

Pour cela, il dresse le profil diététique d’un grand nombre de produits végétaux.

La conclusion qu’il en tire est sans appel :

« Il est vrai de dire que le maigre est plus naturel à l’homme que le gras, qu’il fait moins de maux, et guérit plus de maladies. »

C’est un renversement complet du système de valeur diététique qui est ici proposé, avec l’affirmation d’une absolue supériorité médicale des céréales, fruits et légumes.

Le traité de Philippe Hecquet connait un retentissement immédiat. Mais il indispose fort la plupart des collègues. Dans l’ombre, l’un d’entre eux fourbit ses armes en vue d’un ouvrage qui va en prendre le contrepied. Pour ce Nicolas Andry, l’abstinence de viande n’est ni plus ni moins que « l’écueil de la santé ». Or, Hecquet affirme exactement le contraire, en voyant dans l’antériorité du régime végétal mentionnée dans la Bible la preuve de sa supériorité sur le régime carné : Dieu n’a-t-il pas ainsi manifesté sa préférence ?

D’autre part, tout à sa volonté de combattre les dispenses abusives de carême, Hecquet a déniché, dans les statistiques sur les consommations carnées de Paris, les preuves d’un fâcheux relâchement des pratiques d’abstinence. Ce faisant, il touche les puissants intérêts professionnels des bouchers comme ceux des médecins. Il semble aussi franchir une ligne rouge aux yeux de l’Église, en faisant de la privation de viande non plus une pénitence mais un choix, semblant revenir à d’anciennes hérésies.

Défaite du végétarisme médical en France, au XVIIIᵉ siècle

C’en est trop. Andry réfute point par point les arguments de Hecquet dans les deux volumes de son Traité des dispenses de Carême parus en 1713. L’une de ses affirmations les plus fortes se fonde sur un retournement de son raisonnement : c’est précisément parce que les aliments de carême nourrissent mal que l’Église en a prescrit l’usage, afin de ne pas satisfaire complètement les besoins du corps. En 1714, l’intervention du plus grand médecin du temps, Jean Astruc, qui affirme clairement la supériorité nutritive du gras sur le maigre, marque la défaite du végétarisme médical. Tout au moins en France.

Car, outre-Manche, le courant végétarien qui se développe à partir du XIXe siècle s’appuie sur des arguments médicaux, auxquels une figure comme Anna Klingsford donnera la forme d’un axiome :

« Non seulement les substances végétales renferment tous les éléments nécessaires à la nutrition et à la production de force et de chaleur, mais […] même elles en contiennent plus que les substances animales. »

Paradoxalement, c’est dans la citadelle du carnisme qu’était devenue la faculté de Paris qu’elle soutiendra sa thèse en 1880.

The Conversation

Bruno Laurioux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.01.2026 à 16:30

Iran’s crackdown: why security forces are shooting demonstrators straight in the eye

Firouzeh Nahavandi, Professeure émérite, Université Libre de Bruxelles (ULB)

Iranian police deliberately fire at the protestors’ eyes. A deeply rooted act of repression that is older than the Islamic Republic itself.
Texte intégral (1843 mots)

In Iran, protestors and especially militants are being subjected to an extremely violent crackdown with shooting aimed at their eyes. Blinding the enemy who dares to dispute the powers that be, is the latest act of repression to go down in the country’s long history.


Over the course of the Iranian dissident action in recent years, and during the nationwide Women, Life, Freedom movement in 2022 the frequency of eye injuries inflicted upon protestors has come under public scrutiny. Women, young people and students, often passers-by even, have literally lost an eye, or their – eyesight – from buckshot or close-range projectiles. A tactic by security forces that we are now witnessing again: lawyer and 2003 Peace Nobel laureate Shirin Ebadi estimated on 9 January that “at least 400 people have been admitted to hospital in Tehran with firearm-related eye injuries since protests kicked off at the start of the year.

Such brutal use of force reveals far more than just police slip-ups. These acts are part of a political rhetoric that is echoed throughout Iran’s long history, in which aiming for the eyes symbolically signifies stripping someone of their personal, political capital.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Power lies in the eye of the beholder

In ancient Iranian political culture, power and the eyes are inextricably linked. I see, therefore I know; I see, therefore, I judge; I see, therefore I govern. This concept runs throughout Iran’s literary and political realms. For instance, in the Shahnameh (Book of Kings) by Ferdowsi (10th Century), blindness constitutes a narrative marker of political and cosmic decline: heralding the loss of farr (divine glory), the principle of the legitimisation of power as a durable, symbolic disqualification of the exercise of sovereignty. Being blinded is synonymous with being fallen.

In the Shahnameh, the passage where Rustam blinds Esfandiar with an arrow is an edifying scene for Iran’s political realm: by targeting the eyes, the tale overtly associates the loss of vision with the disqualification of power and an end to all grounds for claiming sovereignty.

Rustam blinds Esfandiar with an arrow (opaque watercolour on paper), undated. Click to zoom. San Diego Museum of Art/Bridgeman Images

Historically, blindness was used as a political neutralising weapon. It was a way of eliminating a rival – prince or dignitary – without spilling blood, which was considered sacrilegious where the elite was concerned. Blind people weren’t executed, they were eradicated from the political arena.

The Shah of Persia Abbas the Great (who ruled from 1588 until his death in 1629) blinded several of his sons and grandsons whom he suspected of plotting against him or opposing succession to the throne.

In 1742, Nader Shah ordered for his son, then heir to the throne Reza Qoli Mirza to be blinded, an emblematic act of political silencing practices in Persia.

From blinding rituals to blinding to maintain security: why are protestors’ eyes so frequently in the firing line of Iranian security forces?

The Islamic Republic does not lay claim to blinding as punishment, but the massive repetition of eye injuries during contemporary repression reveals a symbolic continuity.

Once rare, targeted and admitted to, the use of blinding is now widespread, denied by the authorities, carried out using weapons termed "non-lethal” and rarely sanctioned.

Yet its political role of neutralising without killing, strike the body to deter and prevent further dissent still remains comparable.

In contemporary Iran, the eyes have become a political weapon. Demonstrators film, document and diffuse what they see. Images circulate, reach the borders and weaken the government’s narrative. When the eyes are hit, you can’t see or show others, putting a stop to filming, identifying and witnessing.

The target isn’t just the individual’s point of view; it’s the broader vision that connects the streets of Iran with international public opinion.

Unlike the act of blinding in ancient times that was reserved for the male elite, nowadays eye-related violence mainly is targeted at women and young people. The female gaze, independent, freed from all ideological control, for the world to see becomes politically intolerable for a regime founded on dictating the body and what should be seen.

A continuum of visible brutality

The ongoing repression following on from mass protest action that kicked off in late December 2025, intensified after a nationwide Internet blackout, blatantly sought to reduce exposure of the acts of violence inflicted on protestors.

Independent medical reports and witness accounts described hospitals as being overwhelmed with casualties – specifically eye-related – along with a rise in crowd-control involving firearms with real bullets, documented in several Iranian provinces. These injuries confirm that the body and particularly, the ability to see and report, are still the main target of repressive rule.

Beyond the figures, women’s first-hand accounts tell a different tale of these contemporary practices. While Iranian society has witnessed women spearheading activist movements since Mahsa Jina Amini’s killing in 2022 – some of whom were deliberately blinded during protests –, such injuries symbolise both crackdown efforts to cancel out the independent female gaze posing a political threat to the establishment; and the resistance of these injured, yet defiant women bearing mutilated faces, who are living proof of Iranian repression.

History isn’t confined to a distant past of political neutralisation: it is impregnated by women of today’s personal bodily experiences, where eye trauma can be interpreted as exploitative violence and a sign of a political struggle that revolves around the field of vision.

The body becomes ‘capital’: the ultimate sovereignty

The Islamic Republic may have broken away from the monarchy’s sacredness, but the ancient principle by which the body is perceived as capital that holds personal power, is still intact. While monarchs resorted to blinding their subjects in order to protect their dynasties, security forces use mutilation to ensure its survival.

This strategy produces a paradoxical effect. In Persia, blinding was used as a weapon of political destruction in ancient times. Today, it makes the regime’s brutality visible for all to see. As mutilated faces are in circulation, victims become symbols and the eyes they have lost become a testimony to Iran’s profound crisis of democratic legitimacy.

History doesn’t repeat itself but it lives on through gestures. By shooting at the eyes, the Iranian government revives the old rule book for domination: take away an individual’s ability to see and you politically eliminate them.

The Conversation

Firouzeh Nahavandi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.01.2026 à 16:27

« J’accepte les chiens, mais… » : l’offre touristique pas tout à fait « pet-friendly »

Magali Trelohan, Enseignante-chercheuse, comportements de consommations, sociaux et environnementaux, EM Normandie

Près de la moitié des Européens sont propriétaires d’un animal de compagnie. Surfant sur cette tendance, des offres touristiques « pet-friendly » émergent sur le Vieux continent.
Texte intégral (1461 mots)
Comme ce chien attendant patiemment de fermer sa valise, de nombreux animaux de compagnie prennent part aux vacances de leurs propriétaires. NewAfrica/Shutterstock

Près de la moitié des Européens et des Européennes sont propriétaires d’un animal de compagnie. Logiquement, des offres touristiques pet-friendly émergent partout sur le Vieux Continent. Mais en quoi consistent ces nouvelles offres ? Que disent-elles de nos sociétés ? Réponse avec les témoignages de propriétaires voyageant avec leurs chiens.


En Europe en 2022, 46 % des habitants, soit 91 millions des foyers, possèdent au moins un animal. Et voyager avec son chien n’est plus une exception. Pour de nombreux propriétaires, l’animal fait partie intégrante de la famille, y compris pendant les vacances. Cette évolution a favorisé l’essor d’une offre touristique dite pet-friendly, particulièrement visible dans l’hôtellerie et les locations de courte durée.

Derrière ces offres séduisantes se cache une réalité bien plus contrastée : il existe des décalages forts entre discours marketing et expériences vécues par les clients. Accepter les animaux ne signifie pas nécessairement répondre aux attentes de leurs maîtres, ni aux besoins de l’animal lui-même. C’est ce que nous soulignons dans l’étude menée auprès de propriétaires de chiens, conduite par Axelle Boulet, étudiante à l’EM Normandie.

Le chien, un membre de la famille

Nos entretiens révèlent une relation très investie émotionnellement entre les maîtres et leur chien. Cette centralité de l’animal dans la sphère familiale est bien documentée. Ces études scientifiques soulignent que les chiens sont de plus en plus perçus comme des membres à part entière du foyer, influençant directement les décisions de loisirs et de vacances, mais aussi les attentes vis-à-vis des services touristiques.

« On le considère comme un membre de la famille. Concrètement, nous allons chez des amis, on prend le chien et on prépare son sac ! », explique Emma, l’une des personnes interviewée.

Cette relation structure le choix des vacances. Une recherche en marketing souligne que voyager avec son animal répond à la fois à un attachement affectif et à la volonté d’éviter la culpabilité ou l’inconfort liés à la séparation.

« On l’emmène, car, pour l’instant, on n’est pas prêts à partir sans elle », confie Chantal, propriétaire d’un chien.

Attentes des propriétaires de chien

Les discours des propriétaires d’animaux font ressortir plusieurs niveaux d’exigences comme la sécurité, le confort et le prix.

La sécurité avant tout

Les propriétaires recherchent avant tout un espace qui permette au chien d’évoluer sans danger. L’absence de clôture peut transformer un séjour en source de stress, voire de déception. Nelly, propriétaire de deux chiens, raconte :

« Il y avait 15 000 m2 de terrain, mais la clôture n’était pas bien fermée. On a dû garder les chiens en laisse. Ça a été une grosse déception. »

La sécurité est pensée à la fois pour l’animal et pour les autres : éviter les fugues, les accidents, les conflits de voisinage. Sans cet élément, l’hébergement est tout simplement disqualifié.

Confort du chien

Les propriétaires apprécient les attentions matérielles – paniers, gamelles, plaids – mais celles-ci restent secondaires. Beaucoup préfèrent apporter leurs propres équipements afin que le chien conserve ses repères. Chantal explique :

« La gamelle, non. J’emmène ses affaires à elle. Quand on arrive quelque part et qu’on met son panier par terre, tout de suite elle se couche là. »

Pouvoir laisser son chien seul dans le logement, circuler librement, ne pas avoir à constamment négocier sa présence sont autant d’éléments qui conditionnent l’expérience globale du séjour.

Suppléments financiers

Les suppléments financiers cristallisent les tensions, surtout lorsqu’ils ne correspondent à aucun service concret. Chantal résume :

« On annonce un prix, plus la caution pour animal, plus le ménage pour animal… Donnez-moi un prix total et puis on n’en parle plus. »

De nombreux participants dénoncent l’écart entre l’étiquette pet-friendly et les conditions réelles d’accueil. Louise, propriétaire d’un chien, témoigne :

« Il y a beaucoup d’endroits où on me dit OK, mais sous la table, on ne veut pas le voir. Tu vois dans leur regard qu’il ne faut pas qu’il dérange. »

Le terme pet-friendly recouvre des réalités très hétérogènes, allant de la simple tolérance de l’animal à une véritable intégration de sa présence dans l’expérience touristique. Alors, à quoi ressemblerait un pet-friendly idéal ?

Un chien réellement bienvenu

Au-delà des compromis imposés par l’offre existante, les entretiens proposent une représentation très claire de ce que serait un accueil pleinement assumé.

Dans l’idéal, le chien n’est ni toléré ni suspect, il est accueilli comme un hôte légitime. Samira indique : « Un hôtel pet-friendly, c’est un hôtel où le chien a accès au lit et au canapé. » Les expériences vécues à l’étranger servent souvent de point de comparaison. Mireille, propriétaire de trois chiens, raconte :

« En Italie, les chiens sont admis dans les restaurants, dans les salons de thé, dans les transports. C’est fantastique. »

Certaines personnes interviewées évoquent des infrastructures spécifiques, comme les piscines pour chiens, les espaces de toilettage ou les zones de baignade. Ces dispositifs restent rares, mais incarnent un pet-friendly pensé pour le bien-être animal.

Dans cette représentation idéale, le séjour n’est plus une succession de contraintes à gérer, il devient une expérience partagée. Les propriétaires sont conscients que cet idéal est encore marginal. Mais il constitue une référence implicite pour évaluer l’offre existante. Une propriétaire interviewée, Mireille, imagine son idéal :

« Je ferais une garderie pour chiens, comme une garderie d’enfants, pour que les maîtres puissent aller visiter tranquillement. »

Cohabitation avec les non-propriétaires d’animaux

À travers la question du pet-friendly, c’est une transformation plus large du tourisme qui s’opère. Le voyage est de plus en plus pensé pour un binôme humain-animal, aux besoins étroitement liés. Dans ce contexte, accepter les chiens ne peut plus se limiter à une simple mention dans une annonce. C’est la cohérence entre discours, pratiques et conditions d’accueil qui fait la différence.

Cette évolution pose la question de la cohabitation avec les voyageurs qui ne souhaitent pas partager les espaces touristiques avec des animaux. Pour les professionnels, l’enjeu est particulièrement délicat : composer avec des attentes parfois divergentes, sans dégrader ni l’expérience des propriétaires d’animaux ni celle des autres clients.


Cet article a été co-rédigé avec Axelle Boulet dans le cadre de son mémoire de fin d’études à l’EM Normandie.

The Conversation

Magali Trelohan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.01.2026 à 16:25

La microscopie de fluorescence à super-résolution : véritable tournant technologique dans l’analyse de la dynamique des mitochondries

Pauline Teixeira, Docteur en biologie cellulaire, Université d’Angers

Arnaud Chevrollier, Professeur des Universités Biologie Médicale, Biotechnologie, Université d’Angers

Solenn Plouzennec, Doctorante, Université d’Angers

Grâce à de nouvelles techniques, les mitochondries, composants clés des cellules impliqués dans de nombreuses pathologies, révèlent une partie de leurs mystères.
Texte intégral (1890 mots)
Jusqu’à présent, il était difficile de distinguer des mitochondries individuelles, et encore plus délicat de voir à l’intérieur : ici, ce sont des agrégats de mitochondries que l’on distingue en doré. Torsten Wittmann, University of California, San Francisco, CC BY

Explorer l’intérieur de nos cellules et leurs compartiments, tout en identifiant chaque protéine pour les cartographier, préciser leurs interactions et déchiffrer de nouveaux mécanismes biologiques… c’est désormais à notre portée grâce au développement de microscopes de super-résolution. Grâce à ces nouvelles techniques, les mitochondries, composants clés des cellules impliqués dans de nombreuses pathologies, révèlent une partie de leurs mystères.


Les mitochondries sont principalement connues pour être les centrales énergétiques de nos cellules, car elles y sont responsables de la production d’énergie et de chaleur. Elles participent également à la synthèse de nombreuses molécules et assurent un contrôle crucial sur la vie et la mort des cellules. Récemment, des microscopes ultrasophistiqués ont permis de mettre à jour l’incroyable vie active des mitochondries, qui se déplacent, fusionnent entre elles et se séparent.

Ces progrès sont cruciaux car les mitochondries sont impliquées dans de nombreuses atteintes neurodégénératives, maladies cardio-vasculaires et cancers. Comprendre comment les mitochondries endommagées contribuent au processus d’une maladie est essentiel pour le développement de traitements.

Les mitochondries, un réseau en reconfiguration perpétuelle

Dans la plupart des cellules et des tissus, les mitochondries ont la forme de tubes, plus ou moins longs. Les mitochondries s’adaptent à la taille et aux besoins énergétiques des cellules, ainsi dans les larges cellules énergivores, il peut y avoir plus de 200 000 mitochondries par cellules tandis que dans d’autres cellules, il y aurait moins de 100 mitochondries. En fonction de l’organe d’origine de la cellule, les mitochondries se répartissent dans la cellule et forment de grands réseaux. Elles changent également sans cesse de formes et leurs attachements avec les autres structures de la cellule.

Dès les années 1950, les données de microscopies électroniques ont révélé la structure de ces petits tubes et précisé leur organisation membranaire. Leur membrane externe est doublée d’une membrane interne, qui s’invagine et forme des poches à l’intérieur des mitochondries. Ces poches sont appelées crêtes et sont le lieu de la synthèse d’énergie.

Pour bien comprendre la fonction des mitochondries, il faut donc s’intéresser à leur structure, leur dynamique et leur distribution. Un axe important de travaux scientifiques porte sur cette relation structure-fonction afin de découvrir de nouveaux moyens de protéger la morphologie mitochondriale et de développer des stratégies thérapeutiques pour lutter contre les maladies mitochondriales ou les atteintes neurodégénératives.

La microscopie de fluorescence, la clé pour le suivi des mitochondries en temps réel

Si la microscopie électronique permet d’obtenir des vues extrêmement détaillées des mitochondries, son utilisation ne permet pas de rendre compte de la complexité de leur organisation au sein des cellules, ni de leur nature dynamique. En effet, ce type de microscopie se limite à des images cellulaires figées dans le temps. C’est ici qu’intervient la microscopie de fluorescence, un domaine en pleine effervescence qui permet de capturer des images ou des vidéos.

La microscopie de fluorescence repose sur le principe d’excitation et d’émission contrôlées de photons, particules composant la lumière, par des molécules présentes dans les cellules. Contrairement aux microscopes à fond clair, qui sont les microscopes les plus simples, comme ceux utilisés en cours de sciences, et où l’image est générée à partir des signaux collectés après le passage de la lumière à travers l’échantillon, les microscopes à fluorescence collectent les signaux lumineux qui proviennent de l’objet biologique lui-même, comme des petites ampoules que l’on allumerait au cœur de la cellule.

Le développement de l’informatique et des capteurs de caméra sensibles et rapides ont également rendu possible le suivi des signaux dans le temps, et la quantification des mouvements de chaque compartiment des mitochondries.

Visualisation des membranes internes des mitochondries de cellules fibroblastiques en culture par super-résolution STED. La barre d’échelle représente 500 nanomètres. CECAD imaging facility, Université de Cologne, Allemagne ; et S. Plouzennec, Mitolab, Université Angers, Fourni par l'auteur

La super-résolution, quand la science éclaire l’invisible

Pour aller plus loin que ces observations déjà fascinantes de réseaux de mitochondries, la microscopie de fluorescence ne suffit pas. En effet, en microscopie optique, les objets plus petits qu’une certaine taille, environ 200-300 nanomètres radialement et 500-700 nanomètres axialement, ne peuvent pas être distingués. En effet, selon un principe physique, la diffraction de la lumière, soit la déviation des rayons lumineux, fait qu’un émetteur unique apparaît comme une tache sur la caméra – on parle de figure de diffraction, et plus précisément ici de « fonction d’étalement du point ».

Cette limitation entrave l’observation précise de structures complexes telles que les mitochondries du fait de leur taille qui est similaire à la limite de diffraction.

La microscopie de fluorescence à super-résolution (microSR) a changé la donne dans le domaine de la recherche biologique depuis les années 2000. Grâce à cette technologie, les scientifiques peuvent pénétrer dans le monde nanoscopique et observer en temps réel les structures complexes et les interactions des composants cellulaires. La microscopie de fluorescence à super-résolution englobe quatre techniques principales, dont l’une a été récompensée par le prix Nobel de chimie en 2014.

Chacune de ces techniques s’attaque à la limite de diffraction d’une manière unique, permettant de séparer des points situés à moins de 200 nanomètres. Cette avancée permet aux chercheurs d’atteindre des résolutions spatiales de quelques nanomètres, dévoilant ainsi les détails les plus fins des structures cellulaires comme jamais auparavant. Restreints il y a encore peu de temps à quelques laboratoires prestigieux dans le monde, ces équipements se démocratisent et se déploient dans les plates-formes de microscopie.

La mitochondrie sous un nouveau jour, dévoilée à l’échelle nanométrique

Nous avons utilisé un type de microscopie de fluorescence à super-résolution, la microscopie de localisation de molécules uniques, qui nous a permis d’identifier les protéines sur les membranes des mitochondries et de les cartographier.

Avec un autre type de microscopie de fluorescence à super-résolution, nous avons visualisé le contour des crêtes, retrouvant ainsi le visuel connu d’une image de microscopie électronique… à ceci près qu’aucun traitement chimique liée à la fixation de l’échantillon n’est venu perturber l’organisation de ces fines membranes et fragiles petites poches. Ceci permet de découvrir la complexité interne des mitochondries et l’hétérogénéité de ses structures, afin de corréler la morphologie des mitochondries à leur activité ou à la présence de défaut génétique.

Ces images donnent accès à deux échelles de temps, c’est-à-dire deux niveaux de cinétique. D’une part, sur quelques minutes durant lesquelles nous pouvons observer, nous voyons que les mitochondries se déplacent, changent de forme, fusionnent entre elles ou se séparent.

D’autre part, toujours avec la microscopie de super résolution, nous pouvons observer sur quelques secondes, toute l’ondulation et le remodelage des structures internes des mitochondries nécessaires à la production d’énergie.

Visualisation de la dynamique des membranes internes des mitochondries de cellules en culture par super-résolution STED sur quelques minutes (Leica Microsystems, Wetzlar, Germany) en collaboration avec PRIMACEN ; MONT-SAINT-AIGNAN ; C. Laigle (A. Chevrollier Mitolab, Université Angers). Source : Université Angers.

Ainsi, on découvre que les mitochondries ne sont pas de simples centrales énergétiques cellulaires mais des organites dynamiques possédant de nombreuses particularités nanoscopiques. La microscopie de super résolution permet d’envisager une meilleure compréhension de comment les mitochondries endommagées contribuent au processus de nombreuses maladies, ce qui est essentiel pour le développement de traitements.

The Conversation

Arnaud Chevrollier a reçu des financements de l'Université d'Angers, AFM-téléthon

Pauline Teixeira et Solenn Plouzennec ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

19.01.2026 à 16:24

Comment « Bluey » s’appuie sur des paraboles religieuses pour donner des leçons de vie aux enfants

Sarah Lawson, PhD Candidate in Ancient Linguistics, School of Theology, Faculty of Arts and Education, Charles Sturt University

Ces trois épisodes de la série australienne d’animation « Bluey » puisent dans des sources chrétiennes, bouddhistes et taoïstes de quoi apaiser les plus jeunes.
Texte intégral (2341 mots)
La série *Bluey* connaît un succès mondial, devenant même en 2024 le programme le plus streamé aux États-Unis. Ludo Studios

Derrière ses histoires pleines d’humour et de tendresse, la série australienne Bluey cache des références culturelles et philosophiques bien plus profondes qu’il n’y paraît. En s’inspirant de récits bouddhistes, chrétiens ou taoïstes, certains épisodes proposent aux enfants – et à leurs parents – une manière accessible de réfléchir à la souffrance, à l’attente, à la perte ou à l’acceptation.


Bluey est une série intelligente qui puise dans toutes sortes d’inspirations pour ses histoires pleines de charme, y compris religieuses. Ma recherche récemment publiée examine ce que la série dit de la religion, et de la religion du jeu, qui sert de principe directeur à leur vie (NDLT : Bluey raconte la vie d’une famille de chiens anthropomorphes qui explorent le monde par le jeu.)

Trois épisodes en particulier montrent la diversité des religions dans l’Australie contemporaine et nous aident à réfléchir à la diversité et à la profondeur de la culture de ce pays.

Ces épisodes transmettent, de manière accessible et réfléchie, aux enfants et aux parents des leçons concises issues de religions bien réelles. Ils récompensent la curiosité et un regard réflexif sur les histoires, en encourageant les parents à s’investir plus profondément dans les programmes préférés de leurs enfants.

Voici donc ce que trois épisodes de Bluey disent de la religion, et les leçons qu’ils offrent aux enfants de toutes les religions, comme à ceux qui n’en ont aucune.

La parabole bouddhiste

L’épisode « Bumpy et le vieux lévrier sage » est une reprise à peine voilée de la parabole bouddhiste de Kisa Gotami et des graines de moutarde (mais avec les fameuses graines de moutarde remplacées par des sous-vêtements violets !).

Dans l’épisode, Bluey et Bandit réalisent une vidéo racontant une histoire pour remonter le moral de Bingo, hospitalisée. Dans cette histoire, une femme (Barnicus) a un chiot appelé Bumpy, qui tombe gravement malade. Elle l’emmène voir le vieux lévrier sage pour demander de l’aide. Celui-ci est représenté assis en position du lotus, vêtu d’une robe faite de serviettes et coiffé d’une couronne de fleurs.

Une référence claire à la parabole bouddhiste de Kisa Gotami
Kisa Gotami avec son enfant mort ; Bluey dans « Bumpy et le vieux lévrier sage ». Dharma/Wikimedia, Ludo Studios, CC BY

Le vieux lévrier sage lui demande une paire de sous-vêtements violets provenant de quelqu’un qui n’a jamais été malade. Comme Barnicus ne trouve personne qui n’ait jamais été malade, elle comprend que le sage cherchait à lui apprendre que tout le monde tombe malade un jour ou l’autre. La maladie fait simplement partie de la vie, et Bingo se sent réconfortée de ne pas être seule.

Dans la parabole originale des graines de moutarde, qui remonte au Ve siècle avant notre ère, Kisa Gotami est une mère dont le fils unique meurt. Lorsqu’elle se tourne vers le Bouddha pour obtenir de l’aide, celui-ci lui demande de récupérer des graines de moutarde auprès de familles où il n’y a jamais eu de décès. En cherchant à accomplir cette tâche impossible, Kisa Gotami comprend que la mort et la souffrance sont inévitables.

En réinterprétant ce récit religieux avec une touche d’humour et des enjeux atténués, l’épisode permet aux enfants d’apprendre un enseignement fondamental du bouddhisme. La maladie et la souffrance sont terribles, mais le fait de savoir que tout le monde y est confronté un jour peut nous réconforter et nous aider à relâcher notre attachement, ou notre besoin d’un bonheur et d’un bien-être permanents.

Pâques chrétiennes

L’épisode « Pâques » fait écho à certains thèmes du récit chrétien associé à cette fête. Bluey et Bingo craignent que le lapin de Pâques les ait oubliées. Chilli et Bandit leur rappellent la promesse de ce dernier : il reviendra à coup sûr le dimanche de Pâques.

Mais ne trouvant pas les œufs en chocolat, elles s’inquiètent, en particulier quand le jeu exige du courage ou une forme de souffrance (mettre les pieds dans les toilettes de Papa). Elles se demandent alors si elles ne risquent pas d’être oubliées.

Les Trois Marie au tombeau, de William-Adolphe Bouguereau, 1890 ; et l’épisode Pâques de Bluey
Les Trois Marie au tombeau, de William Bouguereau, 1890 ; et l’épisode « Pâques » de Bluey. Ludo Studios/Wikimedia

On peut y voir un parallèle avec la manière dont la Bible donne à voir la crainte des disciples de Jésus au lendemain de sa mort, pensant que Dieu les avait oubliés malgré la promesse qu’il leur avait déjà faite de revenir après trois jours. Cet enseignement reflète l’inquiétude que beaucoup de personnes ressentent : celle d’être peut-être trop insignifiantes ou trop pécheresses pour que Dieu se soucie d’elles.

L’épisode se termine lorsque Bluey et Bingo font rouler un ballon de gymnastique (la pierre) pour dégager une cavité sous le bureau (le tombeau) et découvrent que le lapin de Pâques ne les a pas oubliées : il a pensé à elles, s’est soucié de leur sort et est bien revenu pour leur offrir de beaux œufs en chocolat (la vie éternelle).

À travers cette relecture décalée d’un récit religieux, les enfants sont encouragés à penser qu’ils sont aimés et à faire confiance aux promesses qui leur sont faites, même lorsqu’ils ont l’impression d’être petits, oubliables ou désobéissants.

La fable taoïste

Dans « Le panneau », la maîtresse de Bluey, Calypso, lit une fable issue à l’origine du texte taoïste Huainanzi, datant du IIe siècle avant notre ère. En français, cette fable est souvent appelée « Le paysan et le cheval blanc ».

Le récit enchaîne une série d’événements qui arrivent à un vieil homme, et, après chacun d’eux, ses voisins commentent les faits, estimant qu’il s’agit de chance ou de malchance. Le vieil homme répond toujours « On verra », dans l’attitude du wú wéi.). Dans la conception taoïste du wú wéi appliquée à la fortune, toutes choses se valent, et ce n’est que le jugement humain (ou, en l’occurrence, canin) qui qualifie un événement de bon ou de mauvais. Ainsi, la seule réponse appropriée face à un événement marquant est le « non-agir » ou la sérénité, jusqu’à ce que le passage du temps en révèle le véritable sens.

Old Chinese painting and a still from Bluey. Each show a man and a horse
Cheval et Palefrenier, de Zhao Yong 趙雍 (1291–1361) ; et l’épisode « Le panneau » de Bluey. National Museum of Asian Art, Ludo Studios

Au départ, Bluey comprend mal le message et pense que Calypso veut dire que tout finira forcément par s’arranger. Mais à la fin de l’épisode, elle apprend à adopter l’attitude du wú wéi de manière positive. Elle reste calme, voire sereine, face à la perspective de quitter son quartier bien-aimé.

À travers ce récit religieux, les enfants apprennent qu’une approche douce et fluide de la vie, qui n’impose pas ses propres désirs au monde, permet d’éviter des souffrances inutiles et de trouver la paix et l’acceptation.

The Conversation

Sarah Lawson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.01.2026 à 16:12

L’« enshittification » en cinq étapes des publications scientifiques

Martina Linnenluecke, Professor at UTS Business School; Centre for Climate Risk and Resilience, University of Technology Sydney

Carl Rhodes, Professor of Business and Society, University of Technology Sydney

Longtemps cantonnée aux plateformes numériques, l’« enshittification » touche désormais l’édition académique. Une logique de profit croissante transforme la manière dont la recherche est produite, évaluée et diffusée…
Texte intégral (1702 mots)
Dans un contexte de très forte croissance du nombre d’articles scientifiques produits, le secteur de l’édition académique a prospéré et affichent aujourd’hui des marches bénéficiaires comparables à celles de géants de la tech. Rhot Tandon/Unsplash, CC BY

Devenue une industrie de plusieurs milliards de dollars, l’édition académique adopte des mécanismes proches de ceux des géants du numérique. Revues commerciales, frais de publication et indicateurs de performance redessinent en profondeur le paysage de la recherche.


Lorsque l’écrivain Cory Doctorow a introduit le terme « enshittification » ou « merdification » en bon français en 2023, il a mis des mots sur un phénomène que de nombreux utilisateurs avaient déjà constaté dans leur vie quotidienne. Les plateformes de réseaux sociaux, les sites de commerce en ligne et les moteurs de recherche qu’ils utilisaient s’étaient visiblement dégradés en qualité. Beaucoup de ces sites se mettaient à privilégier les contenus provenant des annonceurs et d’autres tiers. Le profit était devenu l’objectif principal.

Doctorow décrit ce déclin comme une spirale mortelle : les plateformes en ligne offrent d’abord de la valeur à leurs utilisateurs, avant de déplacer progressivement leur attention vers l’extraction de valeur, sans grand souci des conséquences.

Mais nos recherches récentes, publiées dans Organization, montrent que l’enshittification ne se limite pas au monde en ligne. Elle est désormais visible dans l’édition académique et se déploie en cinq étapes. Les mêmes forces qui vident les plateformes numériques de leur substance façonnent la manière dont une grande partie de la recherche est produite, évaluée et publiée.

Le grand business de l’édition académique commerciale

L’édition académique a connu une croissance importante ces dernières années. Entre 2016 et 2022, le nombre d’articles indexés dans les principales bases de données est passé de 1,92 million à 2,82 millions. Le secteur aurait généré plus de 16 milliards d’euros par an.

À ce titre, l’édition académique rivalise avec les industries de la musique et du cinéma. Certains éditeurs affichent des marges bénéficiaires comparables à celles de géants de la tech, comme Microsoft et Google.

Cette expansion s’est accompagnée de signes d’enshittification. L’essor des grandes revues en libre accès et des revues prédatrices privilégie le profit au détriment de l’intégrité scientifique. Cela a entraîné une explosion des publications de faible qualité. Nombre d’entre elles se présentent comme des contributions à des « numéros spéciaux ».

Ces tendances font écho à la dégradation observée sur les plateformes en ligne, où la valeur pour les utilisateurs est sacrifiée au profit du gain financier. Ces parallèles nous ont conduits à enquêter sur les forces qui transforment la communication scientifique.

La recherche comme marchandise commerciale

Depuis les années 1980, l’édition académique a connu une marchandisation progressive. Elle est désormais façonnée par la rentabilité, la concurrence et les indicateurs de performance. Les universités ont adopté des pratiques de gestion inspirées du marché et s’appuient de plus en plus sur des indicateurs de performance pour évaluer leur personnel.

La science s’achète et se vend. Elle se trouve de plus en plus modelée par les financements venus du privé et par une logique managériale. Les chercheurs ont qualifié ce tournant – illustré par l’édition académique commerciale – de « capitalisme académique ». Il influence les recherches menées, leur évaluation et l’évolution des carrières.

Le mouvement « open access » visait à l’origine à rendre le savoir plus largement accessible. Cependant, de grands éditeurs, dont Wiley, Elsevier et Springer Nature, y ont vu un moyen de faire peser leurs coûts de production sur les auteurs – tout en générant des revenus supplémentaires.

Les éditeurs ont instauré des frais de traitement des articles, élargi leurs services et lancé de nouveaux titres afin de capter des parts de marché. Lorsque la revue très prestigieuse Nature a annoncé son option « open access » en 2021, celle-ci s’accompagnait de frais pouvant atteindre 9 500 euros par article pour les auteurs.

Le passage aux « frais de traitement des articles » a suscité des inquiétudes quant au déclin de la qualité et de l’intégrité de la recherche. À l’autre extrémité du spectre, on trouve des revues prédatrices qui imitent les véritables revues en libre accès, mais facturent des frais sans proposer ni évaluation par les pairs ni encadrement éditorial.

Ces plateformes prédatrices publient des travaux de faible qualité et utilisent souvent des appellations trompeuses pour paraître crédibles. Avec environ 15 000 revues de ce type en activité, l’édition prédatrice est devenue une industrie majeure et contribue à l’enshittification de l’édition académique.

Ces dynamiques renforcent – et sont renforcées par – la culture bien ancrée du « publish or perish » dans le monde académique.

La « merdification » académique

À partir de ces tendances, nous avons identifié une spirale descendante en cinq étapes dans l’enshittification de l’édition académique.

  1. La marchandisation de la recherche déplace la valeur du mérite intellectuel vers la commercialisation.

  2. La prolifération des revues en modèle « Pay-to-Publish » (« payer pour publier ») s’étend et touche aussi bien les revues d’élite que les revues prédatrices.

  3. Un déclin de la qualité et de l’intégrité s’ensuit, lorsque les revues, guidées par le profit, compromettent l’évaluation par les pairs et la supervision éditoriale.

  4. Le volume même des publications rend difficile l’identification des travaux faisant autorité. Des revues frauduleuses diffusent des articles canulars et des contenus piratés.

  5. L’enshittification s’installe. Le système académique est submergé par la quantité, déformé par des logiques de profit et dépouillé de sa finalité première : faire progresser le savoir.

Faire de l’édition académique un bien public

Nos recherches constituent un avertissement face à l’enshittification. Il s’agit d’un problème systémique qui menace la valeur et le développement de l’édition académique. Le monde universitaire est de plus en plus guidé par des indicateurs. En conséquence, la qualité de la recherche est jugée davantage à l’aune du lieu de publication qu’à celle de sa valeur intrinsèque.

Mais pourquoi les utilisateurs (et les universitaires) ne se détournent-ils pas tout simplement de cette expérience « enshittifiée » ? La réponse est la même que pour de nombreuses plateformes en ligne : l’absence d’alternatives crédibles rend le départ difficile, même lorsque la qualité se dégrade.

Enrayer cette tendance demande d’agir et de créer des alternatives. Celles-ci passent notamment par une réévaluation des critères d’évaluation, une moindre dépendance aux éditeurs commerciaux et une plus grande équité mondiale dans la recherche.

Certaines alternatives prometteuses existent déjà. Les modèles d’édition coopératifs, les archives institutionnelles et des initiatives politiques telles que la Coalition for Advancing Research Assessment plaident tous en faveur d’évaluations plus larges et plus pertinentes de l’impact scientifique.

Refaire de l’édition académique un bien public nécessitera un retour à des modèles à but non lucratif et à des systèmes de libre accès durables. La qualité, l’accessibilité et l’intégrité doivent primer sur le profit. Un changement est indispensable pour protéger la finalité essentielle de la recherche académique : faire progresser les connaissances dans l’intérêt public.

The Conversation

Martina Linnenluecke reçoit des financements de l’Australian Research Council (ARC) ainsi que de l’Australian Investment and Securities Commission (ASIC) pour le projet « Climate Related Financial Disclosure - External Capacity Building ».

Carl Rhodes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.01.2026 à 16:07

Apprendre de ses erreurs : comment former les étudiants à rebondir après un échec

Odile Paulus, Maître de conférences en gestion publiant (EM Strasbourg), Université de Strasbourg

Caroline Merdinger-Rumpler, Maîtresse de conférences en Leadership, Management d'équipe et Management des Organisations de Santé, Université de Strasbourg

Julien de Freyman, Professeur associé, South Champagne Business School (Y Schools) – UGEI

Sonia Boussaguet, Neoma Business School

Comment aider les étudiants à ne plus craindre l’erreur mais à la voir comme une opportunité de progresser ? Exemple avec un dispositif d’apprentissage par l’action.
Texte intégral (1240 mots)

On ne peut progresser sans se tromper. Comment dès lors inviter les étudiants à ne plus craindre l’erreur mais à la voir comme une opportunité d’acquérir de nouvelles compétences ? Exemple à travers un dispositif d’apprentissage par l’action.


Dans un système classique de cours magistraux, l’enseignant est considéré comme dépositaire d’un savoir à transmettre, et le résultat de cette transmission est évalué par des contrôles de connaissances réguliers. L’erreur y est encore souvent appréhendée par les élèves comme un échec plutôt que comme un tremplin vers l’apprentissage.

Or on ne peut progresser sans se tromper. Se pose alors la question de proposer aux étudiants des cadres les incitant à prendre des risques, à oser agir, se tromper et en tirer des apprentissages.

Nous avons pu observer la mise en œuvre de ce type de démarche dans un dispositif pédagogique expérientiel à l’EM Strasbourg, au sein de l’Université de Strasbourg, au fil de 4 promotions successives. Au total, 40 étudiants s’y sont engagés durant leurs trois années de bachelor en conduisant des projets entrepreneuriaux ou des missions pour des organisations.

C’est en se retrouvant ainsi mis en situation, sur le terrain, qu’ils se rendent compte de leur manque de compétences et vont lire, rencontrer des experts et partager leurs apprentissages avec d’autres étudiants pour être capables de surmonter les défis qui se présentent à eux.

Les compétences ainsi développées leur permettent d’alimenter le portfolio nécessaire à leur diplomation sans suivre de cours et en apprenant de leurs actions. Cette pédagogie « Team Academy » a été créée il y a plus de vingt-cinq ans à l’Université des sciences appliquées de Jyväskylä en Finlande.

Apprendre à prendre ses responsabilités

Tout au long de leur formation, les apprenants sont encadrés par une équipe d’enseignants coachs formés à cette pédagogie et chargés de garantir un cadre bienveillant et sécurisant. Les étudiants sont invités à vivre ainsi dans une boucle d’apprentissage où alternent l’action et la réflexivité permettant de lier les actions, les lectures et les rencontres d’experts.

Dans cette dynamique, nier sa responsabilité au moment d’expliquer une erreur, en invoquant des causes externes ou non contrôlables (comme « C’est la faute des autres » ou « L’environnement n’est pas favorable »), peut engendrer des comportements indésirables, alors que reconnaître sa responsabilité favorise des postures permettant d’atteindre un résultat concret et d’apprendre. C’est ce que nous avons constaté : lorsque les étudiants parlent de leurs erreurs, ils le font en disant « je » ou « nous » : s’attribuer une part de la responsabilité apparaît comme un préalable pour apprendre.

Cependant, les étudiants relèvent le caractère douloureux de l’erreur qui « fait mal au cœur » et « peut rapidement faire peur ». Une fois comprise et acceptée, celle-ci semble prendre une coloration plus « positive » et constructive. Ils la perçoivent comme un « challenge » à relever. Le concept d’erreur devient à leurs yeux inhérent à l’action, à mesure que les trois ans de formation se déroulent.

Ainsi, plongés dans une culture de valorisation de l’erreur, les étudiants relatent :

« Il n’y a pas eu d’erreurs, il n’y a eu que des apprentissages [et des] occasions de progresser. »

En partant de leurs erreurs, les étudiants considèrent avoir acquis des compétences tant au niveau des « soft skills » (persévérance pour mener à bien un projet entrepreneurial ; régulation des émotions (pour « passer outre et avancer ») que des « hard skills » (meilleure maîtrise de « la gestion de projet »).

La culture de l’erreur apprenante vécue dans leur formation les conduit aussi à revisiter leur conception de la réussite entrepreneuriale de façon plus réaliste :

« Un entrepreneur qui réussit aujourd’hui dans son business, c’est un entrepreneur qui a osé se planter, qui a osé arrêter […] pour moi, c’est vraiment inspirant […] [de] savoir quelles sont les erreurs qu’ils ont faites, pour ne pas les refaire. »

Déconstruire la culture de la performance

Pour leur emploi après leur formation, certains étudiants rêvent d’un environnement de travail valorisant une culture similaire, mais ils s’interrogent sur le décalage possible entre leur univers d’études et le monde professionnel : « Ce n’est pas la réalité. On est tellement dans une bulle. On est dans notre monde… l’erreur est acceptée. Dans d’autres boîtes, l’erreur… Il faut quand même faire attention. »

Les étudiants se sont appuyés sur les deux rôles qu’un apprenant engagé dans un dispositif d’apprentissage par l’expérience peut investir :

  • dans leur rôle d’apprenants, ils choisissent d’interpréter l’erreur comme une opportunité d’apprendre. Les étudiants cherchent à développer des compétences personnelles en dédramatisant l’objectif de réussite du projet ;

  • dans leur rôle d’acteurs, ils parviennent à interpréter l’erreur comme un défi à relever.

Ces deux stratégies permettent de diminuer l’intensité émotionnelle associée aux erreurs pour, dans le premier rôle, se focaliser sur l’acquisition de compétences nouvelles et, dans le second, rechercher des solutions au problème.

Cette forme d’apprentissage par l’erreur exige un travail de déconstruction de la culture de la réussite et de la performance, dont le résultat est en grande partie dépendant de l’intensité des efforts consentis par les étudiants.

Pour les pédagogues souhaitant introduire un apprentissage par l’erreur, notre recherche met en lumière la nécessité d’organiser un espace résolument bienveillant pour partager les questionnements, les difficultés et les erreurs, et de l’inscrire dans un temps suffisamment long pour modifier les représentations et les comportements.


Olga Bourachnikova, chercheuse et entrepreneuse, a participé à la rédaction de cet article avec Odile Paulus, maîtresse de conférences en gestion à l’EM Strasbourg, Sonia Boussaguet, professeure associée à la Neoma Business School, Julien de Freyman, professeur associé à la South Champagne Business School et Caroline Merdinger-Rumpler, maîtresse de conférences en management des organisations de santé à l’EM Strasbourg.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

19.01.2026 à 16:06

« Variole du singe » : Où se cache le virus mpox ? Quand virologues et systématiciens mènent l’enquête

Alexandre Hassanin, Maître de Conférences (HDR) à Sorbonne Université, ISYEB - Institut de Systématique, Evolution, Biodiversité (CNRS, MNHN, SU, EPHE, UA), Muséum national d’histoire naturelle (MNHN)

Antoine Gessain, Médecin, virologue, responsable de l'unité Épidémiologie et Physiopathologie des Virus Oncogènes (EPVO), Institut Pasteur

Les scientifiques traquent depuis plusieurs années l’animal réservoir du virus mpox. Leur enquête a récemment fait un bon significatif, à la suite de l’identification d’un suspect passé jusqu’ici inaperçu.
Texte intégral (3588 mots)
Certaines espèces d’écureuils arboricoles appartenant au genre <em>Funisciurus</em> hébergent le virus mpox, responsable de la maladie parfois appelée «&nbsp;variole du singe&nbsp;». Wikimedia Commons/Oddfeel, CC BY-SA

Le mpox (parfois encore appelé « variole du singe ») est une zoonose, autrement dit une maladie se transmettant de l’animal à l’humain, et inversement. Après un minutieux travail d’enquête, les scientifiques ont identifié les principaux suspects soupçonnés d’abriter le virus. Une découverte qui permet non seulement de mieux comprendre l’émergence de la maladie, mais aussi l’évolution du virus.


Ces dernières années, la maladie due au virus mpox (anciennement appelée « monkeypox », ou « variole du singe » en français) a beaucoup fait parler d’elle. Elle a en effet été à l’origine d’une émergence mondiale en 2022 qui avait alors touché 75 pays. En 2024, plusieurs pays d’Afrique centrale ont connu une recrudescence du nombre de cas ainsi que l’émergence d’une nouvelle souche virale. À ces deux occasions, l’Organisation mondiale de la santé (OMS) avait déclaré que la maladie était une « urgence de santé publique de portée internationale ». Si la maladie ne constitue plus, à l’heure actuelle, une telle urgence (l’OMS a levé sa dernière alerte en septembre 2025), elle continue à circuler, en particulier dans les zones où elle est endémique.

Depuis plusieurs années, les scientifiques mènent des investigations pour y trouver son réservoir naturel, autrement dit l’animal qui abrite le virus sans tomber gravement malade, et à partir duquel d’autres espèces peuvent se contaminer. La maladie à mpox est en effet une zoonose, autrement dit une maladie infectieuse qui passe de l’animal à l’être humain.

Certains suspects ont particulièrement retenu leur attention : les écureuils arboricoles appartenant au genre Funisciurus. Mais lesquels, exactement ? Pour le savoir, les spécialistes de la classification animale (aussi appelée « systématique ») ont croisé études du phénotype (l’apparence des animaux) et analyses de leur ADN. Ce qu’ils ont découvert éclaire non seulement l’histoire de ces écureuils, mais aussi celle du virus.

Une maladie qui inquiète l’Organisation mondiale de la santé

Le virus à l’origine de la maladie monkeypox (mpox) (littéralement « variole du singe », autre appellation de cette pathologie) tient son nom de sa découverte en 1958 chez des macaques de laboratoire originaires d’Asie. Toutefois, dans les années 1970, les scientifiques ont compris que ce virus n’avait en réalité aucun lien avec l’Asie. C’est en effet à cette époque que sont décrits les premiers cas humains dans des villages des forêts d’Afrique centrale (bassin du Congo) et d’Afrique de l’Ouest (forêts de Haute et de Basse Guinée).

micrographie électronique à transmission du virus mpox (visible en rose, en fausses couleurs)
Les scientifiques cherchent le réservoir animal du virus mpox (visible en rose – fausses couleurs – sur cette micrographie électronique à transmission). NIAID/NIH

Les symptômes associés à la maladie incluent fièvre, céphalées (maux de tête), lymphadénopathies (augmentation de taille des ganglions lymphatiques) et douleurs musculaires. Ils s’accompagnent d’une éruption cutanée plus ou moins étendue sous forme de macules (taches sur la peau), de papules (lésions dermatologiques), qui évoluent en vésicules et pustules.

Depuis quelques années, le virus monkeypox inquiète l’OMS, car le nombre de cas est en constante augmentation avec des taux de létalité pouvant atteindre 12 % dans le cas des formes virales originaires d’Afrique centrale.

Une première épidémie majeure a eu lieu en 2022 et 2023 avec plus de 100 000 cas répertoriés dans le monde. Elle a essentiellement affecté la communauté homosexuelle masculine. On sait désormais qu’elle a débuté au Nigeria, en Afrique de l’Ouest, vers 2017. Le taux de létalité durant cette pandémie a été estimé à 0,1 %.

Une deuxième épidémie majeure sévit actuellement en Afrique. Elle s’est déclarée en 2023 au Sud-Kivu à l’est de la République démocratique du Congo (RDC) et s’est ensuite répandue dans d’autres pays voisins, cette fois-ci principalement par transmission hétérosexuelle. On comptait jusqu’à des centaines de cas par semaine, le taux de létalité (globalement estimé à 4 %) pouvant atteindre jusqu’à 11 % chez les enfants de moins de 5 ans.

Diverses espèces de mammifères susceptibles à l’infection

La transmission interhumaine du virus monkeypox se fait essentiellement par contact cutané avec des lésions contenant du liquide infecté par des particules virales. Des contacts avec des muqueuses peuvent aussi être infectants. Toutefois, l’être humain n’est pas le seul à être infecté par le virus monkeypox : celui-ci a été trouvé également chez plusieurs autres espèces de mammifères, principalement des primates et des rongeurs.

L’origine animale des cas index (le cas index est le premier cas humain d’une chaîne de transmission ou d’une épidémie) reste néanmoins peu documentée. Il est toutefois acquis que des mammifères sauvages des forêts tropicales humides sont en cause dans le passage du virus à l’être humain.

Que sait-on au juste des hôtes qui servent de réservoir au mpox, autrement dit des mammifères chez lesquels le virus évolue, se diversifie et à partir desquels une transmission peut se faire à d’autres mammifères dont l’être humain ?

Un virus qui se cacherait dans un écureuil

Il est très probable que, dans la nature, la transmission entre espèces animales se fasse aussi par contact cutané avec des lésions infectées de l’hôte réservoir (autrement dit l’animal qui héberge le virus, mais ne tombe que peu ou pas malade) vers les hôtes receveurs. Chez l’être humain, ce cas de figure pourrait survenir par exemple lors de la chasse, au cours du portage ou du dépeçage des animaux, etc.

Depuis les années 1980, les écureuils arboricoles du genre Funisciurus sont régulièrement cités dans la littérature scientifique en tant que réservoir du virus monkeypox. Ce genre d’écureuils inclut une dizaine d’espèces, dont la plupart vivent exclusivement dans les forêts tropicales humides d’Afrique.

Mesurant de 15 à 20 centimètres, (hors queue, dont la longueur est équivalente à celle de leur corps), ces petits écureuils arboricoles tirent leur nom usuel
– « écureuil à cordes », ou « rope squirrels » en anglais – de leur agilité à grimper le long de branches et de lianes aussi fines que des cordes. Leur autre appellation, « écureuils rayés africains » (« African stripe squirrels ») fait référence aux rayures présentes sur leurs flancs.

Omnivores, ils se nourrissent principalement de fruits et de graines, mais leur régime alimentaire comprend aussi des tiges et des pousses ainsi que des insectes. Diurnes, ils dorment dans des nids sphériques similaires à ceux de l’écureuil européen, le plus souvent construits avec des feuilles, des fibres et des brindilles dans les fourches des branches, ou parfois dans les trous des arbres, au sol ou dans des terriers.

Comme beaucoup d’autres mammifères des forêts, ils sont chassés par les êtres humains, essentiellement par les enfants. Cela pourrait expliquer le fait que de nombreux cas index soient de jeunes garçons qui grimpent dans les arbres pour les piéger.

Le mpox a en effet été isolé chez un écureuil de l’espèce Funisciurus anerythrus en RDC en 1986. Plusieurs autres équipes l’ont depuis retrouvé chez d’autres écureuils de la même espèce collectés en Afrique centrale, et des anticorps dirigés contre lui ont aussi été détectés dans le sang de ces animaux (preuve d’un contact avec le virus), et cela avec des prévalences supérieures à 50 % (c’est-à-dire chez plus de la moitié des animaux collectés).

Par ailleurs, la niche écologique (autrement dit l’habitat préférentiel) de l’écureuil F. anerythrus est celle qui correspond le mieux avec la distribution géographique du virus monkeypox.

Tous ces éléments suggèrent que l’espèce F. anerythrus est le principal hôte réservoir du virus monkeypox en Afrique centrale.

Ne pas se tromper d’écureuil

Très récemment, une étude a révélé qu’une autre espèce appartenant au genre Funisciurus était à l’origine d’une épidémie de monkeypox qui s’est propagée au sein d’une colonie de singes verts mangabeys (Cercocebus atys), en Côte d’Ivoire.

Selon les auteurs qui ont décrit ce cas dans la littérature scientifique, les primates auraient été contaminés à la suite d’un contact avec des écureuils de l’espèce Funisciurus pyrropus, la seule du genre Funisciurus actuellement décrite dans les forêts ivoiriennes et dans celles des pays avoisinants. Selon certaines observations, ces écureuils feraient partie, au moins occasionnellement, du régime alimentaire des mangabeys.

Cependant, les travaux de systématique (la science de la classification des espèces) que nous avons menés ont révélé que le coupable n’avait pas été correctement identifié.

Lors d’une précédente étude, nous avions en effet comparé la niche écologique (l’habitat préférentiel) du virus mpox à celle de chacun des mammifères qui potentiellement pouvaient constituer son réservoir (pour lesquels le virus ou des anticorps dirigés contre ce virus avaient été mentionnés dans la littérature). Ces comparaisons nous ont permis de fournir un classement des réservoirs les plus probables.

Les quatre premiers de ce classement étaient tous des rongeurs arboricoles et deux d’entre appartenaient au genre Funisciurus : le premier étant Funisciurus anerythrus et le troisième étant Funisciurus pyrropus. Nos analyses des niches écologiques ont aussi révélé que les distributions géographiques de ces deux espèces fournies par l’Union internationale pour la conservation de la nature (IUCN) étaient erronées. Cela nous a amenés à entreprendre une étude plus approfondie sur la systématique de ces écureuils.

Une réponse dans les collections muséales

En étudiant les spécimens naturalisés de Funisciurus conservés dans différents muséums d’histoire naturelle, dont le Musée royal d’Afrique centrale de Tervuren (Belgique), le Muséum national d’histoire naturelle de Paris (France) et le Field Museum de Chicago (États-Unis d’Amérique), nous avons fait une découverte intéressante.

L’examen des pelages des spécimens de collection a révélé que les deux groupes de F. pyrropus (présents en Afrique centrale et en Afrique de l’Ouest) ont une coloration de pelage distincte. Ceux d’Afrique centrale ont les flancs contrastés avec un dos gris foncé/brun et un ventre blanc pur. Les spécimens d’Afrique de l’Ouest ont quant à eux un dos gris foncé/brun séparé du ventre blanc par une large bande rougeâtre/orange, qui se prolonge sur les membres antérieurs et postérieurs.

Ce constat nous a conduits à émettre l’hypothèse que les écureuils Funisciurus vivant en Côte d’Ivoire n’appartenaient pas à l’espèce F. pyrropus, mais à une autre espèce.

Pour confirmer ces observations, nous avons analysé les séquences ADN correspondant aux différents spécimens présents dans les collections des muséums. Les résultats ont révélé que, en Afrique de l’Ouest (notamment au Bénin, en Côte d’Ivoire, au Ghana, au Liberia et en Guinée), les écureuils appartenaient bien à une autre espèce que F. pyrropus, précédemment nommée Funisciurus leucostigma par le zoologiste néerlandais Coenraad Jacob Temminck en 1853. Cette dernière espèce est endémique à l’Afrique de l’Ouest, ce qui signifie qu’elle ne vit que dans cette région. En revanche, les deux espèces F. anerythrus et F. pyrropus sont uniquement présentes en Afrique centrale (notamment en RDC, au Gabon et au Burundi).

Comme nous allons le voir, cette distinction a des implications en matière de compréhension de la façon dont le virus mpox a coévolué avec ses réservoirs écureuils.

Écureuils différents, virus différents

Ces résultats de systématique animale peuvent sembler, de prime abord, anodins. Ils permettent pourtant de mieux comprendre l’évolution du virus monkeypox.

On sait en effet qu’il existe deux groupes distincts de virus mpox (on parle de « clade viral ») : les virus appartenant au clade I (lui-même subdivisé en sous-clades Ia et Ib) et les virus du clade II (subdivisé en sous-clades IIa et IIb, ce dernier ayant été à l’origine de la flambée mondiale de 2022).

Selon l’OMS, le clade I semble avoir un taux de létalité plus important que le clade II). Toutefois, la mortalité dépend également de divers autres facteurs tels que la qualité de la prise en charge, l’état de santé du patient et son âge (elle est particulièrement élevée chez les enfants âgés de moins de 5 ans dans les régions d’endémie).

Ces deux groupes sont présents dans deux régions distinctes, de part et d’autre du fleuve Sanaga au Cameroun : les virus du clade I circulent en Afrique centrale (des cas index de la maladie ont été détectés en RDC, en République du Congo, en République centrafricaine, au Gabon et au sud du Cameroun), tandis que les virus du clade II sont présents en Afrique de l’Ouest (on a répertorié des cas index en Côte d’Ivoire, au Liberia, en Sierra Leone, au Nigeria et à l’ouest du Cameroun).

Il semblerait que le fleuve Sanaga, en tant que barrière géographique empêchant la dispersion des écureuils, ait joué un rôle clé dans l’émergence de deux clades viraux. Pour le comprendre, il faut s’intéresser aux écureuils : nos analyses ont non seulement démontré que F. anerythrus et F. leucostigma sont des espèces sœurs, mais aussi que la distribution des virus du clade I en Afrique centrale correspond à celle de la niche écologique de l’espèce F. anerythrus et que la distribution des virus du clade II en Afrique de l’Ouest correspond quant à elle à la niche écologique de l’espèce F. leucostigma.

Nos résultats suggèrent que les populations ancestrales des deux espèces d’écureuil se sont retrouvées isolées de chaque côté du fleuve Sanaga voici plusieurs centaines de milliers d’années, ce qui a conduit à leur divergence génétique et phénotypique, menant ainsi à la naissance de deux espèces distinctes, F. anerythrus et F. leucostigma.

On peut raisonnablement envisager que le franchissement du fleuve a pu être favorisé par son niveau plus bas lors d’une période glaciaire du pléistocène, ou bien que la Sanaga a été contournée à une époque où des forêts denses recouvraient les savanes au nord-est du fleuve.

Cette séparation des écureuils a mené à l’isolement de deux souches virales, l’une incluant l’ancêtre du clade I et ses descendants en Afrique centrale et l’autre regroupant l’ancêtre du clade II et ses descendants en Afrique de l’Ouest.

Autrement dit, la séparation des clades viraux I et II est concomitante de l’événement de spéciation ayant conduit à l’isolement des espèces F. anerythrus et F. leucostigma de part et d’autre du fleuve Sanaga.

Il s’agit là d’un bel exemple suggérant une coévolution entre le virus et son hôte réservoir. L’évolution naturelle des virus étant dépendante de leur hôte réservoir, elle est limitée géographiquement par la capacité de dispersion des animaux qui les hébergent.

Évidemment, cette règle n’est pas immuable. Lorsque la barrière d’espèce est franchie, notamment lorsqu’un virus passe à l’être humain, ce dernier peut, à plus ou moins long terme, devenir lui-même hôte réservoir. Cela peut entraîner des changements importants dans la dynamique évolutive du virus.

Les fleuves ne constituent plus, depuis longtemps, des barrières aux déplacements de notre espèce, lesquels peuvent donner aux virus de nombreuses opportunités de se diffuser bien au-delà de leurs territoires initiaux…

The Conversation

Alexandre Hassanin a reçu des financements de l'Agence Nationale de la Recherche (Afripox project. ANR 2019 CE-35), de la Fondation d'entreprise SCOR pour la Science et de l'Union Européenne dans le cadre du projet ZOOSURSY (CAN° 700002203).

Antoine Gessain a reçu des financements de l'Agence Nationale de la Recherche (Afripox project. ANR 2019 CE-35), de la Fondation d'entreprise SCOR pour la Science et de l'Union Européenne dans le cadre du projet ZOOSURSY (CAN° 700002203).

PDF

19.01.2026 à 16:06

L’origine du « moustique du métro de Londres » enfin résolue

Haoues Alout, chargé de recherche, Inrae

Le «&nbsp;moustique du métro de Londres&nbsp;» n’est en fait pas né dans le métro. Une étude révèle que les gènes permettant son adaptation remontent à plus de mille&nbsp;ans.
Texte intégral (1808 mots)

Longtemps présenté comme un exemple spectaculaire d’adaptation rapide à l’urbanisation, le « moustique du métro de Londres » n’est en réalité pas né dans les tunnels londoniens, comme on le pensait jusqu’ici. Une nouvelle étude retrace ses origines et montre qu’elles sont bien plus anciennes que ce que l’on imaginait. Elles remonteraient à plus de mille ans, en lien avec le développement des sociétés agricoles.


Et si le « moustique du métro de Londres », surtout connu pour ses piqûres sur les populations réfugiées à Londres dans les sous-sols de la ville pendant la Seconde Guerre mondiale, n’était en réalité pas né dans les tunnels londoniens ? C’est ce que révèle une étude que nous avons récemment publiée avec des collègues.

Des réfugiés s’abritant dans le métro de Londres pendant le Blitz de Londres, en novembre 1940.

Nos résultats montrent que les caractéristiques « urbaines » de ce moustique, que l’on pensait s’être adapté à la vie souterraine il y a un peu plus d’un siècle, remontent en fait à plus de mille ans.

Le moustique Culex pipiens molestus, qui diffère de son cousin Culex pipiens pipiens dans la mesure où le premier pique surtout des humains, et le second surtout des oiseaux, est probablement né dans la vallée du Nil ou au Moyen-Orient, en lien avec le développement des premières sociétés agricoles humaines.


À lire aussi : Combien de temps un moustique peut-il survivre sans piquer un humain ?


Le « moustique du métro de Londres » n’est pas né dans le métro

Cette découverte jette une lumière nouvelle sur l’évolution des moustiques. Depuis plusieurs décennies, une hypothèse présentait en effet le moustique commun (Culex pipiens) comme un exemple spectaculaire d’adaptation rapide à l’urbanisation.

Selon cette théorie, une forme particulière de ce moustique, appelée Culex pipiens molestus, se serait adaptée à la vie urbaine en un peu plus de cent ans seulement, à partir de sa forme jumelle Culex pipiens pipiens. Là où celle-ci préfère piquer les oiseaux, s’accoupler dans des espaces ouverts et « hiberner » pendant l’hiver, la forme molestus aurait évolué en une forme quasi distincte, capable de vivre dans les souterrains et de piquer l’humain et d’autres mammifères, de s’accoupler dans des souterrains et de rester actif toute l’année.

Cette adaptation spectaculaire du « moustique du métro de Londres » était devenue un cas d’école, figurant dans de nombreux manuels d’écologie et d’évolution. L’idée sous-jacente était que l’urbanisation des villes pouvait sélectionner à grande vitesse de nouvelles espèces et en quelque sorte « accélérer » l’évolution.

Mais notre étude vient montrer que cette belle histoire, aussi séduisante soit-elle, est fausse.

Un moustique urbain… né bien avant les villes modernes

Notre consortium international de chercheurs PipPop a ainsi publié dans la revue Science une étude qui démystifie cette hypothèse. En séquençant le génome de plus de 350 moustiques, contemporains et historiques, issus de 77 populations d’Europe, d’Afrique du Nord et d’Asie occidentale, nous avons reconstitué leur histoire évolutive.

En définitive, les caractéristiques qui font de Culex pipiens molestus un moustique si adapté à la vie urbaine ne sont pas apparues dans le métro londonien, mais bien plus tôt, il y a plus de mille ans, vraisemblablement dans la vallée du Nil ou au Moyen-Orient. Ce résultat remet en question ce qui était considéré comme un exemple clé de l’évolution urbaine rapide. Au final, il s’agirait d’une adaptation plus lente, associée au développement de sociétés humaines anciennes.

Autrement dit, ce moustique était déjà « urbain » (au sens : étroitement associé aux humains) bien avant l’ère industrielle. Les premières sociétés agricoles, avec leurs villages denses, leurs systèmes d’irrigation et leurs réserves d’eau, lui ont offert un terrain de jeu idéal pour son adaptation.


À lire aussi : Comment les moustiques nous piquent (et les conséquences)


Un acteur clé des épidémies modernes

Le moustique Culex pipiens n’est pas juste une curiosité scientifique : il joue un rôle majeur dans la transmission de virus comme ceux du Nil occidental ou d’Usutu. Ces derniers circulent surtout chez les oiseaux mais peuvent aussi être transmis aux humains et aux mammifères.

La forme Culex pipiens pipiens, qui pique les oiseaux, est principalement responsable de la transmission du virus dans l’avifaune, tandis que Culex pipiens molestus est vu comme responsable de la transmission aux humains et aux mammifères.

Lorsque les deux se croisent et s’hybrident, ils pourraient donner naissance à des moustiques au régime mixte, capables de « faire le pont » entre oiseaux et humains et de nous transmettre des virus dits zoonotiques.

De fait, nos analyses confirment que les deux formes s’hybrident davantage dans les villes densément peuplées, augmentant le risque de transmission de ces virus. Autrement dit la densité humaine augmente les occasions de rencontre entre les deux formes de moustiques – et potentiellement la probabilité de produire des moustiques capables de piquer à la fois les oiseaux et les humains.

Comprendre quand et où ces deux formes se croisent et comment leurs gènes se mélangent est donc crucial pour anticiper les risques d’épidémie.

Repenser l’adaptation urbaine

L’histoire du « moustique du métro de Londres » a eu un immense succès parce qu’elle incarne en une image frappante tout ce que l’on redoute et admire dans l’adaptation rapide des espèces à nos environnements. Par exemple, une adaptation très rapide face à l’augmentation de la pollution et de l’artificialisation des habitats, souvent mobilisée dans les imaginaires, de science-fiction en particulier.

Mais la réalité est tout autre : les moustiques de nos villes modernes ne sont pas une nouveauté née dans le métro londonien. En revanche, le développement urbain a offert une nouvelle scène à un acteur déjà préparé par des millénaires de cohabitation avec les humains dans les premières sociétés agricoles du Moyen-Orient et de la Méditerranée. Le fruit de cette évolution a ensuite pu être « recyclé » dans les villes contemporaines.

On parle alors d’ « exaptation », c’est-à-dire qu’un trait préexistant dans un contexte donné (ici les premières villes du Moyen-Orient) devient avantageux dans un autre contexte (les villes du nord de l’Europe). Les circuits sensoriels et métaboliques qui pilotent la recherche d’hôtes à piquer, la prise de repas sanguin et la reproduction avaient déjà été remodelés par l’histoire ancienne des sociétés agricoles de la Méditerranée et du Moyen-Orient, avant d’être « réutilisés » dans le contexte urbain moderne au nord de l’Europe.

Nos systèmes d’irrigation antiques, nos premières villes et nos habitudes de stockage de l’eau ont donc posé les bases génétiques qui permettent aujourd’hui à certains moustiques de prospérer dans les galeries de métro ou les sous-sols d’immeubles de nos grandes villes.

Cette découverte change la donne. En retraçant l’histoire de la forme urbaine du moustique commun Culex pipiens, l’étude invite à changer de regard sur l’évolution urbaine : ce n’est pas seulement une adaptation rapide déclenchée par l’urbanisation intensive des villes, mais un long processus qui relie notre développement technique et social et celle des autres espèces.

Comprendre ces dynamiques est crucial : non seulement pour la science, mais aussi pour anticiper les risques sanitaires et mieux cohabiter avec les autres espèces. Et vous, saviez-vous que le moustique qui vous pique la nuit avait une histoire évolutive aussi ancienne ?

The Conversation

Haoues Alout a reçu des financements de l'ANR et de l'ANSES ainsi que de l'Union Européenne.

PDF

19.01.2026 à 16:06

Fin de vie : ce que le débat parlementaire doit à la Convention citoyenne

Sandrine Rui, Sociologue, Université de Bordeaux

À l’heure où le Sénat examine les deux lois sur la fin de vie, retour sur les travaux de la Convention citoyenne qui a précédé les débats parlementaires.
Texte intégral (2166 mots)

Le Sénat débat à compter du 20 janvier des deux lois sur la fin de vie adoptées en mai dernier par l’Assemblée nationale. En première lecture, les députés avaient pu s’appuyer sur les conclusions de la Convention citoyenne instituée sur ce même sujet, de décembre 2022 à avril 2023, dont l’objectif était d’éclairer le législateur. Retour sur la plus-value de ce dispositif de démocratie participative.


Le Sénat s’apprête à examiner les textes sur la fin de vie adoptés en mai dernier par l’Assemblée nationale. En première lecture, les députés s’étaient alors prononcés pour renforcer les soins palliatifs et, de façon inédite, pour un droit à l’aide à mourir. Ils avaient globalement suivi les conclusions de la Convention citoyenne sur la fin de vie (CCFV) qui s’était déroulée de décembre 2022 à avril 2023 à la suite de la saisine de la première ministre Élisabeth Borne.

En tant que membre du comité de gouvernance de cette Convention citoyenne sur la fin de vie, sollicitée au titre de mes travaux sur la démocratie participative, je voudrais rappeler les caractéristiques de cette convention et insister sur ce qui a fait sa plus-value.

Des conventions citoyennes pour rendre un avis sur une question d’intérêt général

Les conventions citoyennes comptent parmi les dispositifs participatifs qui se sont installés en quelques décennies dans le paysage de la démocratie représentative. Elles sont constituées par un panel de citoyens tirés au sort pour représenter la diversité de la population. Ces derniers sont invités à délibérer et à rendre un avis sur une question d’intérêt général. Ces expériences se multiplient à différentes échelles dans de nombreux pays (Irlande, Belgique, Espagne, Chili, Islande…).

En France, la Convention citoyenne pour le climat (2019-2020) a été la première du genre à l’échelle nationale, suivi par la Convention citoyenne sur la fin de vie (2022-2023) et, plus récemment, la Convention citoyenne sur les temps de l’enfant (2025).


À lire aussi : Comment rendre les Conventions citoyennes pour le climat encore plus démocratiques ?


Comme d’autres innovations démocratiques, les conventions citoyennes font l’objet de débats. Au regard favorable des uns – ces assemblées sont perçues comme une « bonne chose » par 67 % des Français – répond le scepticisme des autres : sont notamment incriminées la légitimité douteuse des citoyens tirés au sort, la possible instrumentalisation politique d’un dispositif sans garantie juridique ou encore la vanité d’un exercice coûteux sans portée décisionnelle.

Si la Convention citoyenne sur la fin de vie n’échappe pas pleinement à la règle, il reste qu’elle a été jugée « réussie », notamment par les évaluateurs du Centre de recherche pour l’étude et l’observation des conditions de vie (Crédoc), missionnés par le Conseil économique social et environnemental (Cese), comme par les quatre garants internationaux chargés de veiller à la qualité du processus délibératif. Et ce, alors même que le devenir de ses propositions était incertain.

Le mandat des 184

La CCFV s’est déroulée au fil de neuf week-ends, de décembre 2022 à avril 2023, à Paris, au siège du Conseil économique social et environnemental (Cese), qui en était l’organisateur.

Les 184 membres de la Convention tirés au sort et panélisés selon six critères (genre, âge, région, catégorie socio-professionnelle, niveau de diplômes, types d’unités urbaines) avaient pour mandat de contribuer au débat national en répondant à la question suivante :

« Le cadre d’accompagnement de la fin de vie est-il adapté à toutes les situations rencontrées ou des changements devraient-ils être introduits ? »

Le rôle des conventionnels n’était pas d’écrire la loi mais bien, le cas échéant, d’éclairer le législateur.


À lire aussi : « Aide à mourir », euthanasie, suicide assisté… Dix points de vigilance éthique à considérer


L’un des défis pour les organisateurs est de « cadrer » la délibération « sans l’orienter ». Comme le souligne le chercheur Hervé Pourtois, il s’agit de trouver le bon équilibre entre l’exigence de régulation formelle et la préservation de l’autonomie citoyenne.

Dans ce cadre, les conventionnels se sont informés – par des lectures, des auditions, des visites d’unités de soins palliatifs… Ils ont travaillé en petits groupes ; ils ont délibéré en hémicycle ; ils ont voté. Tout du long, ils se sont appuyés sur les expertises et sur les témoignages de près de 70 intervenants. Parfois versés sous forme contradictoire, à l’instar du débat entre Claire Fourcade, présidente de la Société française d’accompagnement et de soins palliatifs (SFASP), et Jonathan Denis, président de l’Association pour le droit de mourir dans la dignité (ADMD), incarnant deux positions opposées et structurantes du débat public relatif à l’aide à mourir.

In fine, la Convention s’est prononcée à une quasi-unanimité en faveur du renforcement des « soins palliatifs pour toutes et tous et partout », et, pour une large majorité, en faveur de l’ouverture d’un droit à « l’aide active à mourir » (75,6 % des votants contre 23,2 %), proposant divers modèles – selon que l’euthanasie et le suicide assisté étaient défendus ensemble, au choix, ou de façon exclusive – assortis de critères et conditions.

Se construire une opinion éclairée

Sans faire du consensus un horizon obligé, la convention a été capable de travailler les dissensus. Certains ont pu entrer en délibération convaincus ; d’autres étaient tiraillés par des dilemmes moraux et éthiques. Interrogés par les chercheurs-observateurs sur leurs opinions préalables à l’égard d’une ouverture d’un droit à une aide à mourir, 69 % disaient y être favorables, 7,8 % y étaient défavorables, quand 23,3 % sont entrés dans la convention sans avis tranché ou sans y avoir jamais réfléchi.


À lire aussi : Avec John Dewey, penser la démocratie comme « enquête » collective


Mais tous ont travaillé à se construire une opinion éclairée. Au fil des sessions, celles et ceux qui n’avaient pas d’avis ont pu prendre position : à l’issue du processus, les répondants au questionnaire des chercheurs n’étaient plus que 4,5 % à ne pas savoir comment se prononcer, quand 63,5 % d’entre eux disaient avoir stabilisé leur avis après la phase de délibération. L’enquête des chercheurs comme l’évaluation du Crédoc révèlent que certains des participants disent avoir changé d’avis une fois (33 % et 24 %), parfois deux fois (13 et 11,5 %) et jusqu’à plus de deux fois pour 7 % ou 8 % d’entre eux.

Des débats exemplaires

En dépit de leurs différences et désaccords, les conventionnels se sont livrés à des débats exemplaires. L’universalité du sujet a favorisé l’engagement et l’inclusion des membres, comme leur sentiment de légitimité à se prononcer : parce que « nous mourrons tous », les citoyens ont pu, selon leurs mots, s’envisager comme également « concernés », « experts » et « légitimes ».

La fin de vie est aussi de ces rares enjeux de délibération publique qui permettent d’assumer tant l’expression de la raison que celle de l’émotion. Cette diversité des registres a facilité l’empathie et le respect mutuel, comme l’écoute et la « réceptivité » des conventionnels. Ces aptitudes, généralement moins valorisées que la capacité à prendre la parole, sont pourtant nécessaires à l’échange démocratique, comme le soulignent les politistes Pascale Devette et Jonathan Durand Falco.

Enfin, mêlant « l’intime et le collectif », le sujet a été exploré depuis des considérations personnelles, et selon ses dimensions sociales et politiques : l’enjeu de la délibération est bien de bâtir une position argumentée sur ce qui serait juste et utile pour la société.

Invités par les chercheurs à indiquer sur une échelle de 0 à 10 le point de vue qu’ils avaient privilégié pour prendre position, près d’un répondant sur deux (48,7 %) a affecté le plus haut score à « ce que la société doit aux personnes en fin de vie de façon générale » (25,5 % privilégiant ce qu’ils souhaiteraient que l’on fasse pour leurs proches, 19,3 % pour eux-mêmes).

De la portée de la Convention citoyenne sur la fin de vie

Les participants de toute convention citoyenne appréhendent, comme le dit l’un d’eux, que le « travail collectif ne débouche sur rien et n’ait qu’une fonction d’affichage de participation citoyenne ».

La portée de la Convention citoyenne sur la fin de vie semble d’emblée assez visible, même s’il convient de s’armer de patience. En mars 2024, un projet de loi a été présenté par l’exécutif aux 184 lors d’une séance dite de redevabilité, avant qu’il ne soit soumis au débat parlementaire.

Sans être le strict calque de la position majoritaire de la Convention citoyenne sur la fin de vie, les lois adoptées par les députés en mai peuvent être envisagées, en suivant la juriste Marie Sissoko Noblot comme « une greffe réussie ». Tant la position très consensuelle en faveur du renforcement des soins palliatifs que l’aspiration à l’ouverture d’un droit à l’aide à mourir, dans des conditions strictement définies, ont été retenues par l’Assemblée nationale.

Cet exemple illustre le fait qu’une convention citoyenne peut s’articuler aux mécanismes parlementaires et jouer un rôle pré-législatif, ce que défendent Jean-Michel Fourniau et Hélène Landemore, spécialistes de la démocratie participative.

Pour mesurer la portée définitive de cette Convention citoyenne, il faudra cependant attendre l’issue du processus parlementaire. Si le renforcement des soins palliatifs fait consensus, on sait déjà que l’aide à mourir suscite d’importantes réticences au Sénat. Les parlementaires se montreront-ils à la hauteur des débats de la Convention citoyenne ?

The Conversation

Sandrine Rui a été membre du comité de gouvernance de la Convention citoyenne sur la fin de vie, et plus récemment garante de la Convention citoyenne sur les temps de l’enfant.

PDF

19.01.2026 à 13:46

Trump 2.1 : quel bilan économique réel ?

Thérèse Rebière, Professeur des Universités en économie, Conservatoire national des arts et métiers (CNAM)

Isabelle Lebon, Professeur de Sciences Economiques, directrice adjointe de la Maison de la Recherche en Sciences Humaines, Université de Caen Normandie

À en croire Donald&nbsp;Trump, jamais l’économie des États-Unis n’a été aussi florissante. À y regarder de plus près, le bilan de la première année de son second mandat est pourtant plus que contrasté…
Texte intégral (2455 mots)

Derrière les annonces tonitruantes sur les « prix qui baissent énormément » et « les emplois et les usines » qui « vont revenir en force », la réalité de l’économie états-unienne un an après l’investiture de Donald Trump n’est pas si flamboyante.


Alors que le président Trump se félicite de son bilan annuel, et assure sortir l’économie des États-Unis du désastre hérité de son prédécesseur tout en promettant que le meilleur est à venir, la réalité est bien plus contrastée. Qu’il s’agisse du marché du travail ou des prix à la consommation, quel bilan économique peut-on véritablement faire de cette première année de mandat ?

Les investissements concentrés dans le domaine de l’intelligence artificielle (IA) et les bons résultats de Wall Street ne semblent pas bénéficier à l’emploi. L’augmentation chaotique des droits de douane s’est traduite par une forte incertitude qui provoque l’attentisme des entreprises et inquiète les consommateurs, alors même que la vie n’est pas moins chère qu’avant. Et plusieurs des secteurs d’activités mis en avant par Donald Trump au cours de sa campagne (manufacturier, pétro-gazier et agricole) sont à la peine.

La hausse des prix se poursuit sur un rythme semblable à 2024

Après un pic à 9 % sur un an en juin 2022, l’inflation a été – avec l’immigration – au cœur de la campagne présidentielle de 2024. Les électeurs américains ont été sensibles à la promesse du candidat Trump de faire baisser les prix. Beaucoup s’interrogent désormais.

Après un an de mandat, le président s’est attribué le mérite de quelques baisses ponctuelles, comme sur le prix des œufs ou de l’essence, sans que ces baisses ne puissent lui être clairement attribuées.

Plus généralement, non seulement les prix n’ont pas baissé fin 2025, mais l’inflation (2,7 %), toujours supérieure à l’objectif de 2 % de la Réserve fédérale (Fed), est comparable à celle de fin 2024 (2,9 %). Elle est même nettement plus élevée pour certains postes de dépenses énergétiques qui impactent fortement les plus modestes, comme l’électricité qui augmente de 6,7 % entre décembre 2024 et décembre 2025.

Une guerre commerciale aux effets ambigus

Le 2 avril 2025, jour proclamé « Liberation Day », Donald Trump annonce les droits de douane les plus élevés imposés par les États-Unis à leurs partenaires commerciaux depuis les années 1930.


À lire aussi : Après l’échec des droits de douane de Trump 1, pourquoi cela serait-il un succès sous Trump 2 ?


Il en retarde l’application quelques jours plus tard face à la chute de la Bourse et à la hausse des taux sur la dette fédérale. Initialement, ce report exclut la Chine qui s’est lancée dans un bras de fer avec les États-Unis, chaque pays répliquant aux hausses de droits de douane de l’autre par de nouvelles hausses. Cette surenchère avec Pékin et les déclarations chaotiques sur les négociations avec d’autres partenaires créent un climat très incertain et entraînent, plusieurs mois durant, un fort attentisme des entreprises américaines en matière d’investissements et de création de nouveaux emplois.

Alors que le président affirmait que le choc tarifaire serait absorbé par les pays étrangers, la plupart des économistes prévoyaient que son poids pèserait sur les entreprises et les consommateurs américains. Même si les faits semblent plutôt leur donner raison, le bilan des droits de douane sur 2025 n’est pas simple à dresser.

Tout d’abord, les importateurs américains se sont empressés de constituer des stocks avant l’application des droits de douane, ce qui a accru les importations en début d’année, puis les a réduits les mois suivants. Mais, d’autres facteurs ont pu contribuer à la baisse spectaculaire du déficit commercial observée fin 2025 : la baisse du dollar relativement à d’autres monnaies, dont l’euro, a amélioré la compétitivité des produits américains ; et la baisse des prix du transport maritime a diminué le coût des produits entrant aux États-Unis.

Ensuite, il est difficile de mesurer les droits de douane effectivement appliqués en 2025 en raison des reports, des négociations bilatérales, des exemptions notamment sur des produits relevant de l’accord de libre-échange entre États-Unis, Mexique et Canada (ACEUM), ou d’autres exemptions ponctuelles sur divers produits essentiels aux consommateurs ou aux entreprises. Un document de travail du National Bureau of Economic Research (NBER) publié par deux économistes américains montre que les droits de douane moyens effectivement appliqués étaient de 14,1 % fin septembre 2025, soit environ la moitié de ceux annoncés par l’administration (27,4 %).

Des secteurs traditionnels en difficulté

L’un des principaux arguments de Trump pour augmenter les droits de douane était de sauver le secteur manufacturier américain et les emplois qui y sont liés. Pourtant, ces mesures n’ont pas suffi à enrayer les baisses d’emplois qui s’opèrent dans ce secteur depuis 2023. En 2025, le secteur a perdu autour de 58 000 emplois.

Dans le secteur pétro-gazier cher au président, le taux de chômage a bondi de 1,9 % en novembre 2024 à 9 % un an plus tard. En réalité, l’emploi dans ce secteur est très dépendant de sa rentabilité, qui elle-même dépend des cours mondiaux du pétrole. Autour de 60 à 70 dollars (51 à 60 euros) le baril, la rentabilité de l’extraction des pétroles de schiste est à peine garantie. Or, en novembre 2025, le baril de West Texas Intermediate (WTI, le pétrole de référence sur le marché américain) s’établissait à 60 dollars, du fait de l’augmentation de la production aux États-Unis et plus encore au sein de l’Opep, ce qui a modéré les cours du pétrole. En la matière, les objectifs de Trump sont contradictoires : d’un côté, les prix bas du pétrole réduisent les prix à la pompe pour les consommateurs, mais, de l’autre, ils limitent la réalisation de nouveaux forages parmi les plus coûteux.

Le secteur agricole, important dans beaucoup d’États républicains, pâtit de la guerre commerciale – c’est en particulier le cas des producteurs de soja boycottés par la Chine. Dans le même temps, le secteur voit sa rentabilité affectée par l’augmentation du coût du travail et les difficultés de recrutement liées au durcissement de la politique migratoire alors que l’agriculture est particulièrement dépendante de travailleurs d’origine étrangère (70 %) dont beaucoup sont en situation irrégulière (environ 40 %). En réponse aux difficultés du secteur, Trump a annoncé 12 milliards de dollars (soit 10,3 milliards d’euros) d’aides directes aux agriculteurs, dont 11 milliards de dollars (soit 9,4 milliards d’euros) consacrés aux grandes cultures (soja, maïs, blé, coton, riz, etc.).

Des investissements massifs dans le secteur de l’IA, peu générateur d’emplois

Les droits de douane avaient non seulement pour but de sauver l’industrie américaine, mais ils devaient également conduire à l’implantation d’usines supplémentaires et à la création des emplois associés, en supposant que nombre d’entreprises feraient le choix de venir ou de revenir produire aux États-Unis pour y échapper. Il est trop tôt pour juger des résultats de cette politique.

Certes, le site web de la Maison Blanche communique sur un boom massif d’investissements qui s’établiraient à 9 600 milliards de dollars (8 200 milliards d’euros). Cependant, selon une étude Bloomberg, les véritables promesses d’investissements seraient moindres (7 000 milliards de dollars, soit 6 020 milliards d’euros), dont une partie correspond à des projets déjà existants, et d’autres à des engagements flous ou non contraignants. En fait, 2 900 milliards de dollars (2 494 milliards d’euros) de ces investissements se concentreraient sur le secteur de l’IA et la construction de data centers peu générateurs d’emplois.

Un marché du travail qui patine

Malgré les trois baisses du taux de la Fed opérées en 2025 pour soutenir l’activité économique, le marché du travail montre des signes préoccupants.

Tout d’abord, le taux de chômage a augmenté de 0,4 points de pourcentage, atteignant 4,4 % en fin d’année. La baisse de l’emploi fédéral (277 000 postes détruits, soit environ 10 % des effectifs fédéraux, agences indépendantes incluses) à la suite des coupes décidées par le « département » de l’efficacité gouvernementale (DOGE), piloté par Elon Musk, n’explique qu’une partie de la hausse du chômage.

Ensuite, les jeunes entrants sont particulièrement affectés, notamment par le développement de l’IA. Le taux de chômage des 16-19 ans s’est accru de plus de 3 points de pourcentage, atteignant les 15,7 %. Enfin, les temps partiels subis ont explosé (+ 980 000).

Une confiance en chute libre

La consommation des ménages s’est maintenue en 2025 à un niveau comparable à celui de 2024, ce qui a largement contribué à porter l’activité économique, et notamment la reprise des deuxième et troisième trimestres après la contraction du produit intérieur brut (PIB) au premier trimestre. Pourtant, l’indice de confiance des consommateurs établi par l’Université du Michigan a chuté de près de 28,5 % sur l’année, traduisant l’inquiétude croissante d’une partie des Américains face à la situation économique, une défiance qui s’est traduite par plusieurs revers électoraux emblématiques pour le camp républicain.

De nombreux citoyens, des plus modestes aux classes moyennes, dont beaucoup ont voté Trump en 2024, s’inquiètent désormais. Alors que l’inflation continue de grever leur pouvoir d’achat, les réductions d’impôt pérennisées par la loi de finance pour 2026, « The Big Beautiful Bill Act », bénéficient avant tout aux plus riches tout en durcissant les conditions d’accès au programme d’aide alimentaire (SNAP) et au programme de santé public Medicaid, qui couvre les frais médicaux des personnes à faibles revenus, soit un Américain sur cinq.

De même, la non-prolongation par le Congrès des subventions à l’assurance santé dite Obamacare fait exploser le prix de l’adhésion à un système de santé pour plus de 20 millions d’Américains début 2026.

Pour éviter que la grogne ne s’installe dans son électorat, Donald Trump met en avant la baisse des prix à venir des médicaments au terme des accords qu’il a passés avec les grands groupes pharmaceutiques, et la perspective de distribuer des chèques de 2 000 dollars (1 720 euros) à une grande partie des ménages américains à partir des 190 milliards de dollars (163 milliards d’euros) de recettes supplémentaires générées par la hausse des droits de douane, oubliant un peu vite que c’est le Congrès et non l’exécutif qui a la main sur les dépenses.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

19.01.2026 à 11:09

« Deep tech » : comment faire pour que les innovations de rupture atteignent leurs clients

Rani J. Dang, Maîtresse de conférences HDR; Vice-Présidente Entrepreneuriat Université Côte d'Azur; Direction UniCA Entreprendre, Université Côte d’Azur

Ulrike Mayrhofer, Professeur des Universités à l'IAE Nice et Directrice du Laboratoire GRM, Université Côte d’Azur

Le succès d’une start-up «&nbsp;deep tech&nbsp;» ne dépend pas seulement de la qualité de la technologie. L’entreprise doit aussi trouver la voie qui la mène à ses clients. Un parcours plus complexe que pour les autres entreprises.
Texte intégral (1546 mots)

Pour rester dans la compétition mondiale et viser les transitions en cours, les start-up « deep tech » ont un rôle clé. Porteuses de technologie d’avant-garde, ces entreprises doivent relever de nouveaux défis. Les méthodes classiques d’accompagnement d’entreprises émergentes ne suffisent pas toujours. Car celles-ci doivent aussi « inventer » leur écosystème, avant d’atteindre le client final.


Le plan Deeptech de 2019 visait à stimuler la création de start-up « deep tech », ces entreprises construites sur les résultats de la recherche scientifique. Ces objectifs sont largement repris dans le plan France 2030.

Cependant, la réussite commerciale de ce type d’entreprise, bâtie sur des bases scientifiques solides, reste un défi d’ampleur. Car le succès commercial ne dépend pas que de la technologie… mais aussi de l’adoption de cette dernière par un écosystème, souvent invisible jusque-là. L’étude de cas Caeli Energie, qui conçoit une climatisation bas carbone, montre que le succès d’une rupture technologique dépend avant tout de son adoption par des partenaires intermédiaires bien plus que par le client final.


À lire aussi : Les start-ups « deep tech » : une réponse aux enjeux du XXIᵉ siècle ?


Le mythe persistant de la réussite grâce à la seule technologie

Les projets « deep tech » apportent une forte valeur ajoutée et présentent un caractère très différenciant, de par l’utilisation de technologies de rupture généralement protégées par la propriété intellectuelle et par un développement opéré en lien étroit avec la recherche. En relevant les défis contemporains, les « deep tech » investissent des domaines peu explorés et repoussent les frontières de l’innovation.

Malgré les efforts déployés, de nombreuses « deep tech » n’atteignent jamais leur marché. Non pas en raison d’une innovation déficiente, mais parce qu’elles sont confrontées à un triple défi. En effet, elles doivent développer simultanément leur organisation, une nouvelle technologie, mais aussi un marché qui, par définition, n’existe pas encore. Cette situation rend les approches classiques de l’entrepreneuriat inadaptées. Il est difficile, voire impossible, de tester la proposition de valeur quand les clients ne disposent pas des connaissances pour appréhender et adopter l’innovation.

Convaincre un écosystème

Les approches dominantes en innovation partent d’une vision ciblée sur le client, où la réussite dépend de la valeur perçue par le client. L’approche écosystémique définie et développée par Ron Adner constitue un cadre analytique pertinent pour comprendre comment les entrepreneurs peuvent appréhender les risques de l’écosystème en considérant la chaîne de relations et les interdépendances dont dépend la mise sur le marché d’une innovation.

Comme explicité dans l’article « Revisiter l’innovation par l’approche écosystémique », ce principe montre ses limites notamment dans le cas des innovations de rupture. C’est pourquoi les « deep tech » sont plus sujettes aux risques écosystémiques que les autres start-up. Entre l’innovateur et son client, une multitude d’acteurs se dresse et conditionne l’adoption : distributeurs, installateurs, prescripteurs, régulateurs, mais aussi les producteurs de technologies complémentaires… Si l’un d’eux fait défaut ou n’est pas disposé à adapter ses pratiques, l’innovation n’atteint pas le client quand bien même ce dernier serait enthousiaste.

Une « deep tech » face à un écosystème complexe

Pour comprendre comment les « deep tech » naviguent dans ces environnements incertains, nous avons étudié Caeli Energie, une start-up qui conçoit une climatisation bas carbone fonctionnant sans gaz frigorigène, avec une consommation énergétique de trois à cinq fois inférieure à un climatiseur classique. Sa technologie repose sur un évapo-échangeur breveté, issu d’années de recherche. Pourtant, pour arriver jusqu’au consommateur, Caeli Energie doit convaincre les acteurs de son écosystème complexe :

  • les distributeurs, qui référencent le produit ;

  • les installateurs, prescripteurs clés qui doivent comprendre le fonctionnement du produit et accepter de sortir de leurs routines ;

  • les promoteurs, qui intègrent la nouvelle solution dans leurs projets immobiliers ;

  • les régulateurs, du fait des normes et contraintes techniques.

Il existe donc un risque d’intégration, soit la capacité de l’innovation à s’insérer dans les routines, compétences et infrastructures existantes.

Deux risques sous-estimés

Notre étude montre que les « deep tech » consacrent l’essentiel des efforts à la maîtrise du risque d’exécution : finance, technologie, industrialisation. Mais sous-estiment deux risques majeurs :

  • un risque d’interdépendance : l’innovation dépend-elle d’autres technologies ? d’un contexte réglementaire spécifique ? d’un équipement complémentaire ? Pour Caeli Energie, ce risque est modéré, car le système fonctionne de manière autonome. Mais pour de nombreuses « deep tech » (santé, quantique, hydrogène…), ce risque peut prendre des proportions significatives.

  • un risque d’intégration : l’innovation impose-t-elle de nouvelles routines aux partenaires ? de nouvelles compétences ? de nouveaux modèles économiques ?

Si un installateur ne comprend pas le produit, si un distributeur ne sait pas le promouvoir, si un acteur refuse d’adapter son processus, alors l’innovation n’atteint jamais son client.

Fourni par l'auteur

Anticiper l’interdépendance

Trois recommandations émergent de notre étude :

(1) Cartographier l’écosystème : identifier tous les acteurs avant le client final y compris ceux qui ne sont pas acheteurs, mais dont le rôle est déterminant ;

(2) Analyser les risques écosystémiques : les risques d’exécution, mais surtout d’interdépendance et d’intégration, et construire des stratégies pour les maîtriser ;

(3) Construire une proposition de valeur pour chaque acteur et pas seulement pour le client final.

L’histoire de Caeli Energie illustre une vérité que l’on observe dans toute innovation de rupture. La réussite ne dépend pas de la seule technologie, mais de la capacité à orchestrer son adoption par un écosystème.

À l’heure où l’action publique mise sur la « deep tech », comprendre cette dynamique est incontournable. Si la France veut réussir son pari d’une industrie innovante et souveraine, elle doit outiller ses entrepreneurs pour mieux naviguer dans ces environnements incertains.


Cet article a été co-écrit avec Florent Genoux, délégué Innovation Grenoble Alpes, Bpifrance.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

19.01.2026 à 11:09

Les étudiants entrepreneurs ne s’intéressent pas qu’au profit

Pauline Brunner, Maître de conférences en sciences de gestion et du management, Université de Strasbourg

Véronique Schaeffer, Professeure - Université de Strasbourg

Les étudiants entrepreneurs présentent une diversité de visages, motivés par la recherche du profit et par l’impact social et environnemental de leurs projets.
Texte intégral (1269 mots)
Le réseau Pépite France fédère les 33 pôles étudiants pour l’innovation, le transfert et l’entrepreneuriat, dont sont membres les 6000 étudiants-entrepreneurs français et françaises. PeopleImages/Shutterstock

Une recherche dresse la typologie des étudiants-entrepreneurs français, bénéficiant du programme Pépite France. Tantôt pro-business, tantôt pro-environnement ou pro-social, homme ou femme, très diplômé ou peu diplômé, six profils se distinguent : les business entrepreneurs, les entrepreneurs sociaux, les entrepreneurs environnementaux, les entrepreneurs durables, les aspirants entrepreneurs et les entrepreneurs académiques.


Depuis 2021, le statut national d’étudiant-entrepreneur (SNEE), mis en place par le ministère de l’enseignement supérieur et de la recherche, permet aux étudiants et jeunes diplômés d’aménager leur emploi du temps, de substituer leur stage ou mémoire par un projet entrepreneurial et d’être accompagné.

L’étudiant fondateur de start-up purement « business » fait figure de proue, mais, de plus en plus, des entrepreneurs motivés par l’envie d’agir pour la société et la planète émergent. Selon le réseau Pépite France qui coordonne ces entrepreneurs, 69 % de l’ensemble des entreprises créées par les étudiants ont une finalité sociale et environnementale.

Notre recherche menée auprès de 210 étudiants-entrepreneurs inscrits dans le programme national Pépite France, entre 2014 et 2021, dresse une typologie de ces étudiants en fonction de l’orientation économique, sociale et environnementale de leurs projets. Six profils se distinguent : les business entrepreneurs, les entrepreneurs sociaux, les entrepreneurs environnementaux, les entrepreneurs durables, les aspirants entrepreneurs et les entrepreneurs académiques.

Qui sont ces entrepreneurs ? Quelles sont leurs aspirations ? Et pour quels résultats ?

Entrepreneurs sociaux, business ou académiques

Les business entrepreneurs (20 % de l’échantillon)

Essentiellement des hommes, étudiant dans un master scientifique, ils participent à plusieurs programmes d’accompagnement entrepreneurial et engagent des projets fondés sur des technologies numériques. Leur objectif : développer un projet rentable.

Les entrepreneurs sociaux (19 % de l’échantillon)

Animés par des valeurs fortes et sensibles aux questions de société, les entrepreneurs dits sociaux se caractérisent par leur motivation à répondre à des besoins sociaux non résolus dans la société. Majoritairement des femmes de niveau master, issues des sciences humaines, ces entrepreneuses sont actives dans le domaine de la santé et du bien-être.

Les entrepreneurs environnementaux (14 % de l’échantillon)

Les entrepreneurs dits environnementaux cherchent à promouvoir le bien-être écologique. Plutôt des hommes de 23 à 26 ans, en master scientifique, leur objectif est de contribuer à trouver des solutions innovantes dans les secteurs de l’agriculture, l’alimentation ou l’énergie.

Les entrepreneurs durables (11 % de l’échantillon)

La notion d’entrepreneur durable met en avant un entrepreneuriat fondé sur la « triple performance » sociale, environnementale et économique. Leurs projets sont plutôt liés à l’agriculture et prennent la forme d’activités d’achat-revente.

Les aspirants entrepreneurs (29 % de l’échantillon)

Ces étudiants en licence plutôt jeunes, masculins, s’inscrivent généralement pour la première fois dans un programme d’accompagnement. Leurs projets, encore embryonnaires, concernent plutôt la culture ou les arts. Leur objectif : développer et tester leurs compétences.

Les entrepreneurs académiques (4 % de l’échantillon)

Plus âgés, doctorants ou docteurs, ils développent des projets innovants pour trouver des applications concrètes à leurs recherches.

L’influence du genre, du domaine d’études et de la nature du projet

Pourquoi une telle diversité ? Les résultats de l’étude suggèrent que plusieurs facteurs entrent en jeu.

Le genre

Les femmes sont fortement représentées dans les projets sociaux (85 % contre 35 % de l’échantillon total), mais moins dans les projets purement économiques (7 % contre 35 % de l’échantillon total) ou environnementaux (17 % contre 35 % de l’échantillon total), soulignant l’influence des valeurs et des expériences vécues dans l’orientation des projets.

Le domaine d’études

Les sciences humaines nourrissent plutôt les projets sociaux (33 % contre 13 % de l’échantillon total) tandis que les sciences dites « dures » nourrissent les projets purement business (65 % contre 46 % de l’échantillon total) et les projets environnementaux (73 % contre 46 % de l’échantillon total).

La nature du projet

Les projets liés à l’agriculture sont plus souvent durables (46 % contre 18 % de l’échantillon total) ou environnementaux (57 % contre 18 % de l’échantillon total) tandis que les applications numériques se retrouvent surtout dans les projets sociaux ou purement économiques.

Les trajectoires personnelles sont importantes. L’entrepreneuriat étudiant ne se réduit pas à une logique unique : il reflète une pluralité de motivations, de parcours et d’ambitions.

Entrepreneurs sensibles aux enjeux de société

La génération actuelle d’étudiants est souvent décrite comme particulièrement sensible aux grands enjeux de société. Notre étude va dans ce sens. Une part importante des jeunes interrogés souhaite contribuer au changement, au-delà de la seule réussite économique. Mais l’enthousiasme ne suffit pas. Sans accompagnement adapté, beaucoup de ces projets risquent de rester à l’état d’idées prometteuses.

Le défi est double : donner aux étudiants les compétences pour développer leurs projets et créer un écosystème qui valorise les initiatives à impact.

Un des enjeux pour les universités et pour les pouvoirs publics est de soutenir cette diversité, sans la réduire à un modèle unique. Les étudiants sont nombreux à entreprendre autrement, et l’entrepreneuriat étudiant est devenu un laboratoire prometteur de la transition vers une société plus responsable.

The Conversation

Pauline Brunner est membre de l'Université de Strasbourg, du réseau de recherche en entrepreneuriat Grand-Est R2E, et du laboratoire LabEx Entreprendre de l'Université de Montpellier. Elle a reçu des financements de l'Idex Université de Strasbourg.

Véronique Schaeffer est membre de l'Université de Strasbourg et du réseau recherche en entrepreneuriat du Grand Est R2E. Elle a reçu des financements de l'Idex Université de Strasbourg et de la Région Grand-Est.

PDF

19.01.2026 à 11:09

Entretien annuel : le danger du marketing de soi

George Kassar, Full-time Faculty, Research Associate, Ascencia Business School

Janvier est le mois du blanc, mais surtout celui du grand théâtre des entretiens d’évaluation individuelle de performance dans bien des entreprises.
Texte intégral (1622 mots)
L’effet Dunning-Kruger caractérise cette tendance&nbsp;: les moins compétents surestiment leurs capacités tandis que les plus compétents se montrent plus prudents dans leur jugement. StockHolm/Shutterstock

Nous sommes bel et bien en janvier. Le mois du blanc est surtout celui du grand théâtre des entretiens d’évaluation individuelle de performance dans bien des entreprises. Alors, comment les cadrer au mieux pour distinguer les salariés qui se mettent en scène de ceux qui créent réellement de la valeur, mais sous-estiment leur capacités ?


L’entretien annuel de performance est devenu un passage obligé dans la plupart des organisations. Il ne s’agit pas d’une simple discussion informelle, mais d’un moment qui pèse sur les primes, les promotions ou les opportunités de carrière. Très différent des entretiens de parcours professionnels qui sont une obligation légale, les salariés y voient un verdict sur leur année ; les managers doivent trancher, classer, justifier. La pression est forte des deux côtés de la table.

Dans ce contexte tendu, le collaborateur entre, armé de son powerpoint mental avec ses objectifs atteints, ses initiatives personnelles ou son leadership exemplaire. Le manager, lui, soucieux de préserver l’éthique dans ce processus, coche des cases, écoute poliment et note des mots-clés : confiance, dynamisme, vision, etc. Tout semble sérieux, objectif, quantifié. En réalité, la scène tient parfois plus du théâtre qu’une vraie application scientifique de la gestion de la performance.

De ce fait, ces entretiens, pourtant censés évaluer les résultats concrets, finissent souvent par mesurer autre chose, celle de la capacité à se vendre. Ce glissement ne serait qu’un détail s’il n’avait pas de conséquences bien réelles sur la motivation et la rétention des « talents ».

Quand la confiance se déguise en compétence

Durant le mois de janvier, un paradoxe managérial devient presque une tradition. Ceux qui maîtrisent tout juste leur sujet arrivent sûrs d’eux, brandissant leurs « grandes réussites » et occupent l’espace. Les vrais compétents, eux, minimisent leurs exploits, soulignent ce qui reste à améliorer… et passent sous le radar. Résultat : on récompense ceux qui parlent le plus fort, pas forcément ceux qui contribuent le plus. On s’étonne ensuite de voir les meilleurs partir.

Le phénomène a un nom : l’effet Dunning-Kruger. Décrit dès 1999 par les psychologues David Dunning et Justin Kruger, il désigne la tendance des moins compétents à surestimer leurs capacités tandis que les plus compétents se montrent plus prudents dans leur jugement.

Les études contemporaines confirment que ce biais ne s’arrête pas à la salle de classe, au laboratoire ou même sur le champ. Transposé au bureau, ce syndrome donne une situation paradoxale : plus on est limité, plus on risque de se croire excellent, plus on est bon, plus on doute et plus on voit ce qui pourrait être mieux.

Marketing de soi-même

Si le manager ne s’appuie que sur le discours tenu pendant l’entretien, sans preuves solides, il a toutes les chances de se laisser influencer par cette confiance parfois mal placée. L’aisance orale, la capacité à « vendre » un projet ou à reformuler ses tâches en succès stratégiques deviennent des critères implicites d’évaluation.

Cette surestimation omniprésente pourrait entraîner de graves atteintes au bon jugement professionnel. Elle déforme la perception des compétences réelles et favorisent une culture d’apparence plutôt qu’une culture de résultats.

Les vrais performants, souvent modestes, finissent par comprendre que la reconnaissance interne ne récompense pas les résultats et l’impact de leur travail, mais le récit qu’on en fait et la capacité à se mettre en scène.

Ces derniers peuvent ressentir un décalage entre ce qu’ils apportent réellement et ce que l’organisation valorise. Leur engagement s’érode, leur créativité aussi. Ce qui est un facteur bien documenté de démotivation et de départ.

Le plus ironique ? Ceux qui doutent d’eux-mêmes sont souvent ceux qu’on aimerait garder. Les études sur la métacognition montrent que la capacité à se remettre en question est un signe de compétence. À l’inverse, les plus sûrs n’évoluent pas. Persuadés d’avoir déjà tout compris, ils s’enferment dans leur propre suffisance durable.

L’entreprise perd, dans le silence, celles et ceux qui faisaient avancer les projets les plus exigeants et les plus sensibles. Elle garde ceux qui savent surtout parler de leurs succès.

Cadrer l’évaluation sur des faits

La bonne nouvelle est qu’il est possible de corriger cette dérive. Les pistes sont connues mais rarement appliquées.

Tout commence par un bon cadre pour la mise en place de l’évaluation de la performance. Une formation adaptée aux managers, évaluateurs et collaborateurs est encouragée, avec un système de revue fréquente de la performance, un dispositif de mesure clairement défini et un groupe d’évaluateurs multiples.


À lire aussi : Parler salaires, un tabou en France ? Vraiment ?


Il est important de fonder les évaluations sur des faits en revenant à des concepts fondamentaux tels que le management by objectives (MBO). L’enjeu : définir des objectifs clairs, mesurables, ambitieux mais réalistes, suivi à l’aide d’indicateurs alignés sur l’impact réel, avec une stratégie de mesure fondée sur les données pour évaluer des résultats concrets, et pas seulement le récit de la personne évaluée.

L’avis d’un seul manager ne devrait pas suffire à juger la performance d’une personne qui travaille en équipe. Il faut regarder sa contribution au collectif.

Les dispositifs de « feed-back à 360° » permettent de diversifier les retours
– collègues, clients, revues de projets, etc. Quand plusieurs personnes confirment la contribution d’un collaborateur discret, il devient plus difficile de l’ignorer. À l’inverse, un profil très visible mais peu fiable sera plus vite repéré.

Distinguer assurance et compétence

Il est important de garder à l’esprit que la gestion de la performance est un processus social. Les recherches montrent que le feed-back formel, donné lors de l’entretien annuel, est bien plus efficace lorsqu’il est soutenu par un feed-back informel et des échanges réguliers. Ces discussions spontanées renforcent la confiance et créent le contexte nécessaire pour que l’évaluation finale soit juste, non biaisée, acceptée et réellement utile.

Il est essentiel de former les managers à mieux reconnaître et anticiper les biais cognitifs, en particulier ceux du jugement, dont le fameux décalage entre confiance affichée et compétence réelle. Comprendre que l’assurance n’est pas une preuve en soi, et que la prudence peut être le signe d’une réelle expertise, change la manière de conduire un entretien.

Tant que les entreprises confondront assurance et compétence, elles continueront à promouvoir les plus confiants et à perdre, peu à peu, leurs meilleurs éléments.

Dans un marché où les talents ont le choix, ce biais n’est pas qu’un détail psychologique : mais un véritable risque stratégique. Après tout, ceux qui parlent le plus fort ne sont pas toujours ceux qu’il faudrait écouter !

The Conversation

George Kassar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

19.01.2026 à 11:09

Ouvrir, fermer, recomposer : cadres intermédiaires et « frontières » professionnelles

Ricardo Azambuja, Professeur associé en management, EDHEC Business School

Gazi Islam, Associate Professor, People Organizations and Society, Grenoble École de Management (GEM)

Le métier du manager consiste à créer des frontières et à décider de ce qui peut les franchir ou de ce qui doit être contenu. La prise en compte de cette dimension de leur travail est stratégique.
Texte intégral (1588 mots)

C’est une dimension souterraine du travail des managers : établir des frontières dans l’organisation et décider de ce qui peut ou non circuler. Pourtant, la prise en compte de cette dimension amène à revoir complètement leur rôle réel et leurs missions.


Le travail des cadres consiste en grande partie à travailler au-delà des « frontières » organisationnelles, hiérarchiques, et même symboliques. Pour mettre en œuvre une stratégie et communiquer les besoins et le savoir-faire des employés, les cadres doivent composer avec ces frontières, représentant et traduisant les expériences de différents acteurs, y compris eux-mêmes.

Les chercheurs s’intéressent de plus en plus à ces frontières – contestées ou admises – que les cadres respectent, contournent et, en fin de compte, remodèlent activement pour remplir leur rôle.

Dans un récent article, nous tentons de nuancer et d’enrichir ces analyses en posant la question suivante : comment les cadres intermédiaires utilisent-ils le travail sur les frontières pour façonner leurs actions quotidiennes ? Notre observation principale est que ce travail ne se contente pas de renforcer ou d’affaiblir les frontières, que ce soit en termes d’ancienneté, d’expertise ou de hiérarchie, mais les configure de manière sélective afin de les rendre plus ou moins visibles et/ou poreuses.

Une position hybride

Les études sur les cadres intermédiaires ont mis en évidence leur position hybride et leur capacité à naviguer habilement entre les ambiguïtés et les malentendus, ainsi que les différences entre divers groupes.


À lire aussi : Télétravail : Managers intermédiaires, jeunes… ces salariés ravis de l'assouplissement des règles


L’idée de travailler les frontières attire de plus en plus l’attention des chercheurs, en particulier lorsque ces frontières sont en mutation ou contestées. Dans de telles situations, elles ne peuvent être considérées comme acquises et deviennent un élément du rôle professionnel. Cependant, ces frontières professionnelles ont généralement été étudiées sous l’angle de leur renforcement ou de leur renversement dans le but de protéger les groupes ou de permettre leur collaboration.

Une activité hautement politique

Afin de mieux comprendre le travail de gestion des frontières, nous avons examiné de manière ethnographique un cabinet d’audit brésilien via des observations et des entretiens afin de comprendre l’expérience quotidienne et les motivations des managers.

Nous avons observé que la création de frontières est une activité hautement politique, constituant une source importante d’action managériale, car les cadres intermédiaires sont en mesure de filtrer et de traduire les idées de la hiérarchie et d’établir des espaces à partir desquels l’action est possible.

Ils peuvent « fermer ou ouvrir » ces espaces de manière à consolider leur position et à influencer l’organisation « depuis le milieu ». Ils peuvent promouvoir de manière sélective les interactions sociales et les identifications entre différentes unités ou différents rangs, ou inversement, éloigner les acteurs les uns des autres.

Barricade ou façade ?

Nous avons identifié quatre stratégies relatives aux frontières :

  • La technique des « frontières barricades » – Les barricades sont des frontières faciles à voir et difficiles à franchir. Les cadres intermédiaires les ont érigées pour mettre en évidence et légitimer leurs propres positions, se posant ainsi en gardiens indispensables des pratiques organisationnelles. Se positionnant comme les porte-paroles de la direction auprès de leurs employés et inversement, ils mettent l’accent sur l’autonomie et l’autorité. En allant jusqu’à adopter des pratiques propres à leurs services, ils les rendent indéchiffrables pour les autres, créant ainsi des sphères d’action parallèles où ils peuvent exercer un contrôle unique.

  • La mise en place des « frontières façades » – Les façades donnent l’impression de frontières solides, mais qui sont en réalité poreuses et inconsistantes. Les cadres intermédiaires s’engagent dans un travail de façade lorsqu’ils souhaitent marquer symboliquement les différences entre des groupes qui, dans la pratique, collaborent et ont des échanges continus. Cela leur permet de réguler les échanges à des moments clés et de maintenir un équilibre entre autonomie et travail en réseau. Ici, les cadres peuvent exercer de facto leur pouvoir sans remettre en cause les hiérarchies organisationnelles établies, une stratégie qui leur offre une certaine flexibilité opérationnelle.

  • Le travail sur des « frontières taboues » – Les frontières taboues sont celles qui ne doivent pas être mentionnées, bien qu’elles soient opérantes. Le travail managerial sur cette frontière existe principalement entre pairs, où cultiver un esprit de collégialité et de coopération exige de fermer les yeux sur les différences de pouvoir établies ou sur les intérêts divergents. Alors que les façades impliquent de rendre publiques les différences tout en établissant des liens, les frontières taboues maintiennent des différences cachées tout en conservant une apparence d’unité. Une grande partie de ce qui est « tabou » concerne la concurrence pour des ressources rares ou le statut entre managers. Dans ce cas, rendre cette concurrence visible peut compromettre la capacité à s’appuyer les uns sur les autres pour obtenir des ressources et des compétences essentielles.

  • La gestion des « frontières fantômes » – Les frontières fantômes, les plus insaisissables, ont une existence éthérée et peuvent être franchies, mais elles hantent le travail quotidien de manière « spectrale ». À la différence d’une situation d’absence de frontières, les managers ignorent ou contournent de manière sélective les frontières formelles afin d’établir des liens où « le faire malgré tout » est considéré comme faisant partie de l’établissement de relations. De cette manière, les frontières fantômes impliquent une présence dans l’absence : la connaissance de leur franchissement fait partie du fonctionnement interactionnel du franchissement.

Les managers, des douaniers ?

Dans l’ensemble, les managers ne se contentent pas de créer ou de détruire des frontières, mais ils travaillent sur la composition des frontières elles-mêmes, les rendant visibles ou invisibles et modifient la mesure dans laquelle elles peuvent être franchies… et par qui.

Xerfi Canal, 2022.

Cela donne une image du travail des cadres intermédiaires comme fondement de la constitution de l’organisation elle-même, car les pratiques d’« enfermement et d’exclusion » des cadres constituent un travail d’organisation continu, distinct et moins visible que l’élaboration de stratégies par la direction. Travailler sur les frontières implique également que la vie quotidienne des cadres est essentielle pour comprendre le fonctionnement des organisations et la manière dont les stratégies sont mises en œuvre.

Notre article suggère que les futurs programmes de recherche devraient se concentrer sur la manière dont les pratiques quotidiennes de travail sur les frontières façonnent les espaces d’action au sein de l’organisation, ce qui a donc de fortes implications « politiques ». Nous notons toutefois que ces pratiques sont perçues comme une forme de travail des cadres non reconnue, et qu’elles sont souvent subjectivement épuisantes.

Changer en changeant les autres

En effet, en modifiant les frontières qui définissent les rayons d’action des autres – et d’eux-mêmes – les cadres intermédiaires changent effectivement leur propre identité dans leur vie quotidienne, et ces pratiques peuvent entraîner une confusion et un fardeau personnel. Le travail de délimitation fait des managers ce que les managers font des frontières, et l’organisation qui en résulte n’est pas toujours prévisible à l’avance.

Notre étude suggère donc que nous devrions accorder davantage d’attention non seulement à la manière dont les managers existent au sein des organisations, dont ils créent eux-mêmes des formes d’organisation, mais aussi dont ils se construisent à travers leur action sur ces organisations.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

18.01.2026 à 20:51

Les plantes aussi ont un microbiote – pourrait-on s’en servir pour se passer de phytosanitaires ?

Cécile Monard, Chargée de recherche, Centre national de la recherche scientifique (CNRS)

Abdelhak El Amrani, MCF-Génomique Fonctionnelle

Grâce aux récentes avancées en séquençage du génome, nous décodons le langage entre les plantes et leurs microbiotes.
Texte intégral (1359 mots)
Les plantes sont en contact tellement étroit avec des microorganismes que l’on parle de symbiose, et qu’on ne peut envisager l’évolution des unes sans les autres. Gaudenis/Unsplash, CC BY

Les plantes et leur microbiote – tout comme les humains et leur microbiote –échangent du matériel génétique. En étudiant cette forme de communication entre les partenaires d’une symbiose, des scientifiques montrent comment les racines peuvent favoriser l’accès aux nitrates présents dans le sol – une ressource indispensable à la croissance des plantes. Ils et elles explorent aussi l’hypothèse que ce langage permette de lutter contre les pathogènes.


Depuis une dizaine d’années, une nouvelle vision des organismes s’impose. Les êtres humains, les animaux et les plantes ne peuvent exister sans leur association avec une myriade d’espèces de microorganismes qui constituent leur microbiote et qui leur apportent des fonctions biologiques complémentaires à leur hôte.

Par exemple, les champignons « mycorhiziens » prolongent les fonctions racinaires des plantes. Ils leur permettent notamment d’explorer le sol et ses ressources ; et apportent une fonction protectrice contre les pathogènes grâce à leur capacité à synthétiser des fongicides et des antibiotiques.

Cet ensemble « hôte et microbiote » forme ce que l’on appelle l’« holobionte », et il est maintenant admis qu’il s’agit d’une unité évolutive et fonctionnelle à prendre en compte dans son ensemble.

Cette nouvelle vision des organismes, non plus comme des individus uniques mais comme des métaorganismes, implique l’existence d’un dialogue entre les différents partenaires de cet ensemble complexe – que nous nous efforçons aujourd’hui de décoder.

Un nouveau langage, fondé sur le transfert de « code génétique » au sein des êtres vivants

Au sein des êtres vivants, différents mécanismes de communication sont connus, permettant le transfert d’informations à différentes échelles de l’organisme. Il peut s’agir d’échanges d’ions, comme le calcium ou le potassium entre les cellules, de signaux électriques à travers nos neurones ou encore le transport d’hormones dans le sang, comme l’insuline qui régule la glycémie en fonction de notre régime alimentaire.

Il existe même des petites protéines ou des peptides capables de voyager entre les organes, qui peuvent par exemple être impliqués dans l’immunité. Un cas très étudié est celui de la systémine, produite par les feuilles de plantes blessées. Ce peptide est transféré à d’autres organes pour induire des mécanismes de défense dans la plante entière.

En plus de cet arsenal de dialogues moléculaires, une autre voie de communication a été découverte en 1993 et a révolutionné le domaine de la communication chez les organismes vivants. Elle est basée sur l’échange de matériel génétique, composé de mini-séquences appelées « microARN », entre différentes cellules et/ou organes d’un même individu.

Initialement observée chez un nématode (un ver microscopique), cette découverte a ensuite été généralisée à d’autres animaux, aux êtres humains et aux plantes. Elle a donné lieu à l’attribution du prix Nobel de médecine 2024 à Victor Ambros et Gary Ruvkun.

Les premières recherches ont montré que ces microARN sont des intermédiaires de communication impliqués dans la majorité des processus biologiques, depuis l’embryogenèse jusqu’au vieillissement, et affecte notamment l’immunité et la résistance des organismes aux contraintes environnementales.

Un langage aussi utilisé entre différents êtres vivants

Depuis une dizaine d’années, nous savons également que ces microARN sont impliqués dans le transfert d’information entre différents individus – ce que l’on peut qualifier de communication.

En particulier, les microorganismes du microbiote et leur hôte échangent du matériel génétique. Ceci est particulièrement surprenant car, en général, le matériel génétique (ADN) ou l’intermédiaire de ce matériel (ARN) ne sont pas très mobiles entre cellules et a fortiori entre cellules d’individus et d’espèces différents !

Néanmoins, l’étude du microbiote intestinal des mammifères a bien mis en évidence en 2016 l’implication de microARN produits par les cellules épithéliales du tube digestif de l’hôte, dont le but est d’exercer une pression de sélection du microbiote intestinal bénéfique et de reprogrammer le fonctionnement de ce dernier.

De la même façon, nous avons montré que les racines des plantes influencent le fonctionnement de leur microbiote. Celui-ci, par son rôle dans l’assimilation des nutriments, présente des similitudes avec le système digestif des animaux.

Pourquoi ce « langage » est important pour une agriculture en transition

En 2024, nous avons également montré (Brevet FR3147485 du 11/10/2024) que des microARN de plantes pouvaient réduire la compétition de ses dernières avec certains microorganismes présents dans le sol à proximité de leurs racines pour l’accès aux nitrates, une ressource vitale pour les végétaux souvent apportée par les engrais minéraux ou les épandages de lisier et fumier.

De plus, dans le cas de certains stress environnementaux ou bien d’infections par les pathogènes, l’expression des microARN est perturbée et on assiste à un développement anarchique, ou déséquilibre, du microbiote – on parle de « dysbiose ».

Il est concevable d’agir sur le « langage » entre microbiote et racines pour moduler la réponse des plantes aux changements environnementaux, notamment en contexte agricole. Par exemple, l’utilisation de microARN naturellement produits par les plantes pourrait aider ces dernières à recruter un microbiote bénéfique, et leur permettre de se défendre des pathogènes, de résister aux stress environnementaux liés au changement climatique ou encore de faciliter leur nutrition ; ce qui pourrait permettre de limiter notre dépendance aux engrais minéraux et aux produits phytosanitaires délétères pour l’environnement.

Nous espérons que ces pratiques fondées sur l’application de microARN mimant ceux naturellement produits par les plantes puissent constituer une nouvelle porte d’entrée vers une agriculture durable et respectueuse de l’environnement sans avoir recours à l’introduction de gènes exogènes dans le génome des plantes, ce qui crée des organismes génétiquement modifiés, qui sont l’objet de controverses dans notre société.

The Conversation

Cécile Monard a reçu des financements de CNRS, CMI Roullier, OSERen

Abdelhak El amrani a reçu des financements de la région de bretagne, CNRS, Europe, ANR.

PDF

18.01.2026 à 20:49

Quand le Venezuela battait les États-Unis à l’OMC

Shérazade Zaiter, Auteure | Juriste | Conférencière, Université de Limoges

Il y a trente ans, l’OMC tranchait un différend commercial en faveur de Caracas au détriment de Washington. Depuis, le multilatéralisme s’est plus qu’effrité…
Texte intégral (2132 mots)

Un retour sur un épisode aujourd’hui oublié, celui de la victoire du Venezuela contre les États-Unis, au milieu des années 1990, devant l’organe de règlement des différends de l’OMC, permet d’appréhender l’évolution qu’a connue l’ordre international au cours de ces trente dernières années.


Dans la nuit du 2 au 3 janvier 2026, les forces armées états-uniennes ont capturé le président vénézuélien Nicolas Maduro au palais de Miraflores, à Caracas. Dans la foulée, Donald Trump annonçait que les États-Unis dirigeraient temporairement le Venezuela, le temps de permettre l’installation d’un gouvernement favorable à Washington. Il s’en est ensuite félicité sans détour : l’objectif de l’opération était l’accès au pétrole vénézuélien, appelé selon lui à être exploité par les grandes compagnies américaines.

Cette séquence, largement commentée, soulève de graves questions vis-à-vis du droit international. Mais elle invite aussi à une interrogation plus fondamentale : qu’est-ce qu’une victoire dans les relations internationales ? Et si nous nous trompions sur ce que signifie « gagner » ?

Revenons trente ans en arrière, à une époque où le Venezuela affrontait déjà les États-Unis sur un terrain stratégique : celui de l’énergie. La bataille ne se déroulait pas à Caracas, mais à Genève.

David contre Goliath, ou l’art de combattre les géants

Dans La loi David et Goliath, paru en 2013, l’essayiste canadien Malcolm Gladwell invite à repenser les conflits asymétriques. Selon lui, les situations de désavantage apparent peuvent se transformer en sources de force, précisément parce qu’elles obligent à inventer d’autres stratégies.

Les géants, écrit-il, ne sont pas toujours aussi puissants qu’ils le paraissent ; leurs atouts peuvent devenir des faiblesses. À l’inverse, la position du plus faible peut ouvrir des opportunités inattendues.

Cette grille de lecture éclaire singulièrement un épisode aujourd’hui largement oublié de l’histoire du droit international commercial : l’un des tout premiers différends traités par l’Organe de règlement des différends (ORD) de l’Organisation mondiale du commerce (OMC).

Une affaire fondatrice : le Venezuela contre les États-Unis

L’OMC entre officiellement en fonctions le 1ᵉʳ janvier 1995, avec une innovation majeure : un mécanisme de règlement des différends juridiquement contraignant, destiné à remplacer les rapports de force commerciaux par des règles communes et opposables.

Quelques semaines plus tard, le 23 janvier 1995, le Venezuela saisit l’Organe de règlement des différends. Le pays est dirigé depuis 1994 par Rafael Caldera Rodriguez, figure de la démocratie vénézuélienne d’avant Chavez (qui lui succédera à la présidence en 1999), dans un contexte où Caracas et Washington entretiennent encore des relations diplomatiques et économiques relativement normales, fondées sur l’interdépendance énergétique et le respect des cadres multilatéraux.

Washington applique alors des normes environnementales plus strictes à l’essence importée qu’à l’essence raffinée sur son territoire, ce que Caracas considère comme une discrimination déguisée contraire au principe de « traitement national » selon lequel un produit importé ne doit pas être traité moins favorablement qu’un produit national similaire.

Washington invoque la protection de l’environnement et de la santé publique, estimant que ses mesures sont justifiées par les exceptions prévues par les accords de l’OMC. En janvier 1996, le groupe spécial donne raison au Venezuela, rejoint entre-temps par le Brésil. Les États-Unis font appel, mais l’organe d’appel confirme l’essentiel des conclusions. Contraints par la décision, ils modifient leur réglementation en 1997.

L’OMC et l’ORD : un pari sur la paix par le droit

La création de l’OMC reposait sur une conviction forte : le commerce international, encadré par des règles communes et arbitrées par des institutions indépendantes, pouvait contribuer à la stabilité et à la paix. Le cœur juridique de ce projet est l’Organe de règlement des différends (ORD).

Pour la première fois, les États acceptent un mécanisme quasi juridictionnel, obligatoire, doté de délais contraignants et d’une possibilité de sanction en cas de non-exécution. L’ORD n’est pas parfait, mais il introduit une rupture majeure : la substitution du droit au rapport de force dans la gestion des conflits commerciaux.

Le différend entre le Venezuela et les États-Unis incarne cet esprit fondé sur l’égalité juridique formelle des États, indépendamment de leur puissance économique ou militaire.

Le lent effritement du multilatéralisme

Depuis une quinzaine d’années, les règles du commerce international sont de plus en plus ouvertement contournées. La Chine subventionne massivement ses filières stratégiques ; l’Union européenne recourt à un protectionnisme non tarifaire fondé sur les normes ; les États-Unis bloquent le fonctionnement de l’Organe d’appel de l’OMC. En façade, tous continuent de défendre le multilatéralisme. Dans les faits, presque plus personne ne le respecte pleinement.

Le retour de Donald Trump au pouvoir a accéléré cette dynamique. Dès l’été 2025, l’administration américaine impose des surtaxes douanières massives à l’Inde, pourtant présentée comme un partenaire stratégique clé dans la rivalité avec la Chine, mais aussi, à d’autres alliés ou partenaires majeurs, du Mexique à l’Union européenne, en passant par la Corée du Sud, et assume une politique commerciale « à la carte », fondée sur le rapport de force.

Le tournant protectionniste américain

Ce modèle a toutefois toujours été accepté par Washington de manière instrumentale. Tant que l’OMC servait ses intérêts stratégiques, en ouvrant des marchés, en diffusant les normes du capitalisme libéral, en stabilisant les relations économiques internationales, elle était tolérée, voire soutenue. Mais dès lors que le droit commercial a commencé à contraindre la marge de manœuvre américaine, le discours a changé.

L’OMC est accusée d’atteinte à la souveraineté américaine, d’inefficacité et de complaisance envers la Chine. Le blocage délibéré de la nomination des juges de l’Organe d’appel, paralysant le système de règlement des différends, marque un tournant décisif : Washington ne cherche plus à réformer le droit commercial multilatéral, mais à l’empêcher de fonctionner lorsqu’il devient contraignant.

Ce rejet s’inscrit dans une revendication assumée du protectionnisme, présenté comme un instrument de puissance et de sécurité nationale. Cette logique n’a rien de nouveau et ses contradictions ont été mises en lumière dès le XIXe siècle. En 1845, dans sa célèbre Pétition des fabricants de chandelles, Frédéric Bastiat tournait en dérision les raisonnements protectionnistes en imaginant des producteurs de chandelles demandant au législateur d’interdire la lumière du soleil, trop concurrentielle…

Le Venezuela, laboratoire d’un monde sans règles

L’opération menée contre le Venezuela en ce début d’année 2026 s’inscrit dans une stratégie beaucoup plus large. De nombreux analystes estiment que derrière le discours sur la démocratie et les souffrances du peuple vénézuélien se dessine un objectif géostratégique clair : couper un maillon essentiel de l’approvisionnement énergétique chinois. Pékin absorbait jusqu’à 80 % du pétrole du Venezuela et avait massivement investi dans ses infrastructures. En neutralisant Caracas, Washington frappe indirectement son principal rival stratégique.

Dans cette perspective, le droit international devient superflu, voire encombrant. La violation de la souveraineté vénézuélienne est cohérente avec une stratégie d’endiguement de la Chine qui passe par l’affaiblissement de ses partenaires, qu’il s’agisse du Venezuela, de l’Iran ou, demain, d’autres États jugés stratégiques.

Les réactions internationales confirment ce basculement. L’Union européenne, pourtant prompte à se présenter comme la gardienne de l’ordre juridique international, n’a pas formulé de condamnation explicite de l’opération américaine. Les déclarations, prudentes et ambiguës, traduisent une résignation : l’ordre international fondé sur des règles communes n’est plus la priorité. L’essentiel est désormais de rester dans le camp du plus fort.

Que signifie « gagner » dans les relations internationales ?

Il serait pourtant trompeur de lire l’épisode du milieu des années 1990 comme une parenthèse enchantée où le droit international aurait, par nature, triomphé de la puissance. L’ordre juridique issu de 1945 n’a jamais été extérieur aux rapports de force. Il en est au contraire le produit. Ces règles ont été acceptées, et parfois promues, par les grandes puissances parce qu’elles correspondaient à leurs intérêts stratégiques du moment : stabiliser l’économie mondiale, sécuriser les échanges, contenir les conflits dans des cadres prévisibles.

La victoire du Venezuela devant l’OMC n’était donc pas une victoire contre la puissance américaine, mais une victoire rendue possible par un système que Washington jugeait alors utile.

Trente ans plus tard, ce n’est pas tant le droit international qui a disparu que le compromis politique qui le rendait opérant. Lorsque le droit cesse de servir la stratégie dominante, il devient un obstacle à contourner. En 1995-1997, le Venezuela a gagné un différend commercial face aux États-Unis. En 2026, les États-Unis ont gagné un accès direct aux ressources pétrolières vénézuéliennes. Mais à quel prix ?

Le prix est celui de l’érosion accélérée des règles communes, de la banalisation de la force brute et de l’installation durable d’un monde plus instable, où chaque victoire tactique fragilise un peu plus l’ordre global. Si nous nous trompons aujourd’hui sur ce que signifie « gagner », c’est peut-être parce que nous confondons la domination immédiate avec la victoire durable.

Le droit international n’a jamais aboli les rapports de force ; il en a été une mise en forme, imparfaite mais stabilisatrice. Ce que nous avons perdu, en renonçant à cette contrainte volontaire, ce n’est pas seulement un idéal juridique abstrait, mais un outil concret de régulation qui permettait encore aux David d’affronter les Goliath autrement que sur le champ de bataille.

Le droit ne triomphe jamais seul. Mais sans lui, la victoire cesse d’être autre chose qu’un rapport de prédation temporaire, et le monde, un espace où, à terme, plus personne ne gagne vraiment.

The Conversation

Shérazade Zaiter ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

18.01.2026 à 07:50

Parcoursup : comment faire le « bon » choix d’orientation, ou le défi d’accompagner les lycéens

Chloé Pannier, Doctorante en Sciences de l'éducation et de la formation, Nantes Université

Alban Mizzi, Ingénieur de recherche en sociologie, Université de Bordeaux

À partir de janvier, les lycéens peuvent s’inscrire sur Parcoursup et y formuler leurs choix d’orientation post-bac. Une démarche qui les confronte à de fortes attentes, sources d’anxiété.
Texte intégral (1469 mots)

À partir du 19 janvier 2026, les lycéens peuvent s’inscrire sur la plateforme nationale Parcoursup pour déposer leurs candidatures auprès d’établissements d’enseignement supérieur. Ce cheminement personnel les confronte à des normes et à des attentes sociales souvent sources d’anxiété. En quoi l’accompagnement des candidats est-il un défi pour les familles comme pour le monde enseignant ?


Chaque année, Parcoursup revient au cœur du débat. Autour de cette plateforme sur laquelle les lycéens déposent leurs candidatures auprès des établissements d’enseignement supérieur se cristallisent nombre des tensions qui traversent l’école française. La procédure d’orientation post-bac constitue surtout une épreuve sociale qui mobilise simultanément élèves, familles et équipes éducatives.

À partir de travaux croisant plusieurs enquêtes qualitatives (entretiens auprès d’élèves, de parents, de professeurs principaux, de psychologues de l’éducation nationale, et observations dans des commissions d’examen des vœux), nous proposons d’éclairer ce que produit concrètement Parcoursup dans la vie lycéenne : stress, malentendus, redéfinition des rôles éducatifs et montée des logiques stratégiques.

Une procédure technique devenue une expérience morale

Pour les lycéens, Parcoursup ne représente pas qu’un ensemble de démarches administratives ; il s’agit d’un moment décisif de leur parcours personnel, rythmé par différentes étapes, de la formulation des vœux à la publication des réponses. Cette temporalité crée un climat particulier où s’entremêlent injonction à l’autonomie, pression à la performance et nécessité de faire des choix engageants à 17 ans ou à 18 ans.

Les élèves décrivent une procédure marquée par l’attente, l’incompréhension du fonctionnement de l’algorithme et la crainte de faire « le mauvais choix ». Pour certains, Parcoursup confirme ou infirme l’image qu’ils se font d’eux-mêmes d’un point de vue scolaire, provoquant un sentiment de déclassement lorsque les réponses sont jugées décevantes.

Ces expériences individuelles renvoient à des enjeux collectifs : la massification scolaire, la hiérarchisation des filières ou encore la valeur persistante du diplôme dans les trajectoires sociales.

L’orientation devient ainsi une « épreuve morale », pour reprendre les mots du sociologue Danilo Martuccelli : il s’agit d’un dispositif où les individus se confrontent à des normes, des attentes et des défis qui les dépassent.

Dans les familles, de l’accompagnement stratégique à l’anxiété généralisée

Si Parcoursup concerne au premier plan les élèves, les parents occupent une place centrale dans la procédure. Les résultats de nos recherches montrent que les familles les plus dotées en capital culturel s’engagent très tôt dans des démarches de comparaison, de recherche d’informations et de sélection des « bonnes formations ». Elles mobilisent salons, portes ouvertes, réseaux personnels et compétences rédactionnelles.

Si elles s’investissent aussi dans la procédure, les familles populaires le font selon des modalités plus limitées : soutien moral, aide technique, relecture orthographique. Ces écarts témoignent d’une inégale familiarité avec les attendus scolaires et les codes implicites de la procédure.

Toutefois, un élément apparaît transversal : l’anxiété parentale. Les résultats de Parcoursup sont fréquemment interprétés comme une forme d’évaluation indirecte du travail éducatif réalisé au sein de la famille. Plusieurs parents rencontrés disent avoir eu le sentiment d’être « jugés » lorsque les réponses obtenues ne correspondaient pas à leurs attentes, même lorsque leurs enfants avaient de bons résultats.


À lire aussi : Contester les verdicts de Parcoursup : les parents en première ligne ?


Cette dimension affective est renforcée par la perception d’un système perçu comme opaque ou arbitraire. L’incompréhension de l’algorithme, l’absence de communication standardisée entre établissements et les variations locales des critères nourrissent un sentiment d’incertitude. Parcoursup devient ainsi, pour les familles, une épreuve domestique, un moment de mobilisation mais aussi de mise en tension.

Les enseignants de lycée face à un rôle flou et ambigu

Les professeurs principaux et les équipes pédagogiques se retrouvent également en première ligne. Si la majeure partie des enseignants interrogés estiment que l’accompagnement à l’orientation relève des psychologues de l’Éducation nationale (PsyEN), dans les faits, ce sont plutôt les professeurs principaux qui assurent la majorité du suivi en raison non seulement du renforcement de leur mission d’orientation depuis la loi « Orientation et réussite des étudiants » de 2018, mais aussi faute de ressources suffisantes et de PsyEN dans les établissements.

Inscriptions universitaires : l’éternel parcours du combattant (Franceinfo INA, avril 2021).

Les enseignants interrogés décrivent une mission complexe, marquée par un mandat flou et des injonctions contradictoires. D’un côté, ils doivent répondre à des prescriptions institutionnelles : harmonisation des pratiques, appropriation de la plateforme, organisation des semaines de l’orientation. De l’autre, la relation avec les élèves sollicite une dimension plus expressive : écoute, soutien émotionnel, aide à la construction d’un projet, gestion des inquiétudes.

Cette tension se manifeste particulièrement lorsque les enseignants se sentent démunis face au manque de formation ou aux évolutions rapides de la procédure. Certains développent des stratégies d’accompagnement très poussées, parfois au-delà de leur rôle formel, tandis que d’autres adoptent une posture plus distante pour éviter la surcharge ou les malentendus avec les familles.

Plus largement, Parcoursup met en lumière des malentendus école-familles en raison des attentes implicites de réflexivité et d’autonomie du côté de l’école, et des attentes plus concrètes ou protectrices du côté des parents. Ces décalages peuvent générer incompréhension, frustrations et parfois même des conflits.

Un terrain où se rejouent les inégalités scolaires

Les inégalités scolaires n’attendent évidemment pas Parcoursup pour faire des différences, mais la procédure les rend visibles et parfois les amplifie. Le recours inégal aux ressources d’information, l’aisance variable dans la formulation d’un projet, la maîtrise des codes rédactionnels des « projets de formation motivés » ou la connaissance de la hiérarchie des formations structurent fortement les trajectoires.

Ces écarts renvoient à ce que les sociologues appellent des malentendus socioculturels. L’école attend des élèves (et de leurs familles) des compétences implicites : aptitude à se projeter dans l’avenir, capacité à se raconter, mobilisation stratégique, autant de compétences qui ne sont pas également partagées. Ce décalage explique en partie les incompréhensions ou les réactions divergentes face au verdict de la plateforme.

Plutôt que de considérer Parcoursup uniquement comme un outil technique, il importe de comprendre comment cette procédure reconfigure les relations entre école, familles et élèves. À travers elle se jouent des enjeux de justice scolaire, d’accompagnement, de communication et de reconnaissance des différents acteurs.

Parcoursup ne fait que traduire un système scolaire compétitif et sélectif où chacun tente de trouver sa place dans un système perçu à la fois comme indispensable et comme source de tensions. En ce sens, la plateforme ne fait que mettre en lumière les défis plus larges de l’orientation dans une école massifiée, sélective et traversée par de fortes attentes sociales.

The Conversation

Chloé Pannier a reçu des financements durant son contrat doctoral financé dans le cadre d'un projet lauréat d'un PIA3.

Alban Mizzi a reçu des financements du PIA3 ACCES - ACCompagner vers l'Enseignement Supérieur.

PDF
50 / 50
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓