25.01.2026 à 18:17
Chiara Armeni, Professeure de droit de l'environnement, Université Libre de Bruxelles (ULB)
Maria Lee, Professor of Law and co-director of the Centre for Law and Environment, UCL
Les manifestations et actions de désobéissance civile pour le climat sont de plus en plus réprimées, et souvent perçues comme incompatibles avec les consultations publiques, le mode classique de participation aux décisions environnementales. Pourtant, les deux relèvent du même édifice juridique environnemental.
Au cours des dernières années, les manifestations exigeant – souvent de façon créative – que les États et les entreprises agissent contre le changement climatique se sont multipliées dans de nombreux pays européens, suscitant souvent une forte répression.
À première vue, il n’y a pas nécessairement de lien direct entre, d’une part, ces actions de protestation et, d’autre part, la pratique moins médiatisée, plus routinière – et certainement moins risquée – de la consultation publique sur des sujets tels que la mise en place d’un parc d’énergie renouvelable ou la destruction d’un espace vert local. Et pourtant, ces consultations publiques, les manifestations et la désobéissance civile sont plus liées qu’on pourrait le croire. De fait, les unes comme les autres font partie du même édifice juridique environnemental.
Dans notre dernier article, nous explorons les liens entre consultation, protestation et désobéissance civile en matière environnementale. Nous suggérons que la participation politique se constitue comme un continuum de trois pratiques interdépendantes : la participation à des processus juridiques formels, tels que les consultations publiques sur les décisions d’aménagement du territoire (concernant des projets très divers, ayant trait aussi bien à l’énergie renouvelable qu’au logement ou au traitement des déchets) ; les manifestations de rue, telles que les marches « Friday for Future » ; et les pratiques de désobéissance civile conçues pour maximiser les perturbations ou attirer l’attention en enfreignant les règles, telles que les barrages routiers des militants pour le climat ou la dégradation du verre protégeant le tableau le plus célèbre du monde.
Ces trois types d’activités coexistent dans l’espace civique, c’est-à-dire « la couche entre l’État, les entreprises et la famille dans laquelle les citoyens s’organisent, débattent et agissent ». Et lorsque les organisations, les débats et les actions concernent l’environnement, notre espace civique devient un espace civique environnemental.
Nous pouvons appréhender la participation comme un salon parisien du XVIIIe siècle, caractérisé par une enfilade, « une succession de pièces dont les portes sont alignées le long d’un axe où [« l »]es invités découvraient une série d’espaces soigneusement aménagés par les propriétaires et conçus comme une composition en plusieurs mouvements ».
À l’instar d’un salon parisien, les différentes formes de participation au sein de l’espace civique environnemental sont reliées au sein d’un même espace, mais les différentes pièces ont des caractéristiques juridiques et des implications différentes pour les visiteurs.
S’appuyant sur les travaux de Brian Wynne relatifs à la participation « invitée » et « non invitée » et les développant, nos trois salles de participation comprennent la participation invitée, la participation non invitée et – ajoutons-nous – la participation interdite.
Les citoyens peuvent être invités dans une salle ; ils peuvent explorer légalement une autre salle sans invitation formelle ; et ils peuvent décider d’entrer illégalement dans la salle suivante, même si l’entrée leur est interdite.
Dans la première salle, les citoyens sont invités à participer, exerçant pleinement leur droit de débattre et d’exprimer leurs opinions sur une décision. Ce droit est juridiquement protégé, conformément notamment à la Convention d’Aarhus (1998), un traité international clé qui protège l’accès des citoyens et des ONG à l’information, la participation du public et l’accès à la justice en matière d’environnement. L’Union européenne et ses États membres, ainsi que le Royaume-Uni, sont parties à la Convention d’Aarhus et sont donc légalement tenus à s’y conformer. La participation au sein de cette chambre peut consister à être consultés (« invités ») sur une décision relative à une activité spécifique (par exemple, l’octroi d’un permis d’environnement pour l’extension d’un aéroport, ou sur un plan, un programme ou une politique en matière environnementale, notamment en ce qui concerne les activités pouvant être autorisées dans une certaine zone).
Les citoyens ne sont pas expressément invités à entrer dans la deuxième pièce de l’enfilade, mais le droit protège la participation non invitée – à savoir, en l’occurrence, la protestation – en tant qu’exercice légitime des droits humains, en particulier les droits à la liberté d’expression et de réunion pacifique protégés par les articles 10 et 11 de la Convention européenne des droits de l’homme ; ainsi que par d’autres accords internationaux.
La troisième salle est fermée par le droit, qui interdit certaines formes de participation, rendant les manifestations illégales et les actions civiles désobéissantes. On y retrouve un éventail de pratiques allant de l’organisation de manifestations spontanées, non déclarées à l’avance, devant des lieux de prise de décision politique pour protester contre le report et le détricotage d’une loi environnementale (comme la loi européenne contre la déforestation), jusqu’à des actions spectaculaires de désobéissance civile telles que l’interruption d’une étape du Tour de France ou le jet de soupe sur la Joconde.
En tant que spécialistes du droit de l’environnement, nous avons travaillé ensemble et séparément pendant plusieurs années, principalement sur la participation sur invitation, sur ce qui se passe dans la première salle. Même si cela ne se traduisait pas toujours par une véritable inclusion, la valeur de la participation du public dans la prise de décision environnementale était plus ou moins admise, et il n’était certainement pas nécessaire de défendre la prise de décision démocratique à partir des principes fondamentaux.
Ce n’est plus le cas aujourd’hui. Les droits et les protections procédurales nécessaires à la participation sur invitation sont remis en cause par des mouvements populistes situés aux deux extrémités du spectre politique qui pensent déjà connaître la bonne réponse : d’un côté, ceux qui contestent l’existence ou la gravité du changement climatique, de l’autre, le populisme climatique qui estime que l’urgence climatique justifie de s’affranchir des temporalités et des procédures démocratiques.
En même temps, l’urgence de nos diverses crises environnementales peut détourner les anciens partisans de la participation citoyenne vers des processus dirigés par des experts qui voient les réponses dans des solutions techniques plutôt que dans le débat démocratique. Prise entre les populistes et les technocrates, la valeur de l’engagement citoyen – des décisions mieux informés et plus solides sur le plan politique – est oubliée.
L’espace réservé à la participation invitée, ouvert à tous et à toutes les opinions, est de moins en moins bien entretenu et protégé. Mais le salon de l’espace civique va au-delà de ces occasions ordinaires, bien qu’importantes, pour les citoyens de s’engager auprès du pouvoir.
Nos recherches ouvrent les portes de l’enfilade et explorent le continuum entre la participation invitée, non invitée et interdite à travers l’Europe. Nous examinons le rôle joué par le droit (par exemple le droit environnemental, public, routier, pénal) dans la détermination de la possibilité pour les citoyens d’entrer dans l’une des salles de participation et de quelle manière. Nous avons constaté, conformément aux signaux d’alarme internationaux et européens, que l’évolution des règles juridiques qui façonne l’espace civique environnemental en Europe démontre une « tendance répressive » croissante.
Cette répression se manifeste par une combinaison de réformes législatives qui criminalisent les pratiques des manifestants, telles que les barrages routiers ou le verrouillage (« lock-in »), ainsi que par un durcissement des pratiques policières, judiciaires et pénales, telles que le recours accru à la force, augmentation des arrestations et alourdissement des peines.
Ces réformes sont accompagnées par une multitude d’autres pratiques intimidantes allant des poursuites stratégiques des grandes compagnies pétrolières contre les ONG environnementales, comme dans le cas de Energy Transfer contre Greenpeace (souvent appelées « poursuites-bâillons ») à la surveillance des manifestants.
La répression pousse les citoyens vers la troisième salle. Ici, le droit punit très sévèrement ceux qui ont réussi à y entrer et à exprimer leur désaccord, comme les condamnations à des peines d’emprisonnement inédites pour les activistes de Just Stop Oil au Royaume-Uni. Le droit restreint simultanément la portée de la participation invitée, interdit ce qui était auparavant non invité mais légal, et augmente le coût personnel de la désobéissance civile interdite (mais pacifique).
Nous ne sommes pas les premières à affirmer que la consultation des citoyens et les manifestations de rue peuvent constituer une forme de participation politique, ou que l’espace public se réduit dans toute l’Europe.
Nous sommes convaincues que l’espace civique se trouve dans la routine quotidienne et banale qui consiste à s’adresser au pouvoir, ainsi que dans des moments clés telles que les élections. Et qu’il se trouve aussi dans la théâtralité des pratiques de protestation, même si elles sont criminalisées, ainsi que dans les institutions sobres de la délibération démocratique, comme la Convention citoyenne pour le climat en France. Mais la tendance transnationale à limiter simultanément ces approches très différentes de la participation politique souligne la profondeur du rétrécissement de l’espace public environnemental.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
25.01.2026 à 18:15
Mélia Arras-Djabi, Maîtresse de conférences en management et GRH, IAE Paris – Sorbonne Business School
Kerstin Kuyken, Professeure, Université du Québec à Montréal (UQAM)
Sakura Shimada, Enseignante-chercheuse, MCF en sciences de gestion, Conservatoire national des arts et métiers (CNAM)

La réussite de l’intégration au Japon n’apparaît dans aucun manuel de gestion en ressources humaines. Tout se joue dans le ba, un espace-temps relationnel où la nouvelle recrue apprend l’implicite, où l’apprentissage se fait au contact direct des équipes dans et en dehors du lieu de travail. Plongée dans les coulisses de cette immersion pas comme les autres.
Dans de nombreuses organisations, le processus d’intégration est structuré par des dispositifs d’onboarding mettant principalement l’accent sur la formation formelle, la transmission explicite des règles du métier et la diffusion d’informations relatives au fonctionnement des différents services.
Cette manière de concevoir l’intégration n’a rien d’évident ni de généralisable. Elle reflète des choix organisationnels et culturels particuliers. Les entreprises japonaises offrent, à cet égard, un contrepoint éclairant, en s’appuyant sur des formes de socialisation plus informelles, relationnelles et situées.
Notre étude récente met en lumière trois caractéristiques clés pour comprendre les pratiques d’intégration japonaises : leur nature tacite, leur déploiement hors situation de travail et leur organisation au plus près des équipes, sans pilotage centralisé. Bien que distinctes, ces pratiques s’articulent autour du ba, cet espace-temps relationnel au sein duquel les nouveaux arrivants apprennent progressivement leur métier à travers les interactions, l’observation et le partage du quotidien.
Pour une nouvelle recrue dans une entreprise japonaise, s’intégrer ne signifie pas seulement apprendre un poste ou acquérir des compétences. Il s’agit avant tout de trouver sa place au sein d’une équipe, avec ses habitudes, ses relations et ses contraintes propres. Cette manière de concevoir l’intégration repose sur un concept culturel japonais central, le ba (場), défini comme un « espace-temps de relations émergentes ».
Dans l’entreprise, le ba le plus important est le genba (現場), le lieu réel où le travail se fait. C’est là que se construit la compréhension du travail réel et que se transmettent les manières de faire. Le genba est l’unité de base où se déroule la socialisation. Cela explique pourquoi l’intégration au Japon est si décentralisée. Plutôt que de suivre un programme en ressources humaines unique et standardisé, l’intégration se fait au sein de la microculture de l’équipe. Pour une nouvelle recrue, l’objectif est de « se fondre dans le lieu » (genba ni tokekomu).
« Se fondre dans le lieu (littéralement “se dissoudre dans le ba”). […] Se fondre dans l’équipe de travail, oui, et être proactif, je pense que c’est la meilleure façon de progresser », rappelle une manager interviewée.
Cet accent mis sur l’harmonie entre l’individu et le contexte collectif est peut-être la différence la plus fondamentale avec les approches occidentales. Ces dernières tendent davantage à se concentrer sur le rôle, les objectifs et les compétences de l’individu, souvent détachés de son environnement immédiat. Cette forte décentralisation permet un ajustement fin aux réalités locales du travail, mais peut aussi conduire à des expériences d’intégration très contrastées selon les équipes.
Dans les grandes entreprises en Occident, l’apprentissage d’un nouveau poste passe souvent par des formations structurées et une documentation détaillée. A contrario, au cœur de l’approche japonaise se trouve la relation senpai–kohai (senior-junior), où le senpai (先輩), qu’il soit officiellement désigné comme tuteur ou non, sert de repère au quotidien pour le nouveau venu.
L’apprentissage auprès du senpai est avant tout tacite. Les nouvelles recrues sont encouragées à apprendre en observant attentivement et en imitant leurs aînés. Cette philosophie est résumée par l’expression « apprendre en regardant le dos des senpai », ou senpai no senaka wo mite oboeru.
Cette méthode repose sur l’idée d’une appropriation des savoir-faire par immersion et par observation, désignée par l’expression japonaise shigoto wo nusumu – littéralement, « voler le travail ». Ici, le terme « voler » décrit une démarche proactive où le nouvel employé s’approprie les connaissances par l’observation active.
« J’ai appris le travail en le suivant, en regardant comment il (le « senpai ») faisait », témoigne un salarié qualité junior.
Cette approche repose sur l’idée que les savoirs du métier sont indissociables des situations de travail ; ils se construisent par l’immersion, l’observation et l’ajustement progressif au contexte, plutôt que par une transmission formalisée et détachée de l’activité. Si ce mode d’apprentissage favorise une compréhension fine du travail réel, il rend l’intégration dépendante de la qualité des relations et de la stabilité dans l’équipe, ainsi que de la disponibilité des senpai.
Les relations professionnelles prennent une dimension quasi institutionnelle au Japon avec la pratique de « nomunication ». Ce mot-valise, combinant le verbe japonais nomu (boire) et le mot anglais communication, désigne les réunions informelles autour d’un verre, appelées nomi-kai.
Ces réunions ne sont pas de simples sorties entre collègues, elles jouent un rôle important dans l’intégration, en permettant de construire une confiance mutuelle et une compréhension partagée des non-dits, indispensables dans une culture où la communication s’appuie sur l’implicite plutôt que sur des échanges explicites.
Dans ces contextes détendus, les barrières hiérarchiques et formelles s’abaissent. C’est l’occasion de construire des relations plus profondes, de comprendre l’histoire non officielle du service et, pour les kohai (le junior), de faire part des éventuelles difficultés qu’ils rencontrent.
« On parle de “nomunication”. On sympathise en parlant de tout et de rien en mangeant ; on développe de bonnes relations, et puis ça facilite le travail », rappelle une chargée de publicité senior interviewée.
Ces formes de sociabilité professionnelle témoignent d’une porosité historiquement marquée entre sphère professionnelle et sphère personnelle dans de nombreuses organisations japonaises.
Les pratiques d’intégration observées dans les entreprises japonaises s’inscrivent dans un cadre institutionnel spécifique et… en évolution. La formation initiale des Japonais et Japonaises y est largement généraliste, et le lien entre diplôme et poste occupé reste relativement faible.
À lire aussi : Cesser sa profession : le rôle de la mémoire dans la fin de la vie professionnelle
Le modèle d’emploi de longue durée, longtemps dominant, a favorisé des carrières internes marquées par la mobilité et la polyvalence, plutôt que par une spécialisation immédiate. L’intégration n’est alors pas pensée comme une étape brève, mais comme un processus progressif, étalé dans le temps, au plus près du terrain.
Des enquêtes indiquent une évolution des attentes des travailleurs en matière d’équilibre entre vie professionnelle et vie privée, pouvant venir entraver les pratiques de socialisation hors travail.
Selon le modèle japonais, intégrer durablement un nouveau collaborateur, c’est avant tout lui faire une place au sein d’un « nous ». Même évolutive, cette vision japonaise invite à interroger nos propres standards d’intégration.
Aller au-delà du « kit d’accueil »
L’intégration ne se joue pas seulement au niveau du siège, des modules en e-learning ou des journées d’onboarding. Elle dépend fortement de ce qui se passe dans l’équipe, dans le quotidien du travail, dans la manière dont on montre et laisse découvrir les coulisses du métier.
Reconnaître le rôle clé des situations informelles
Les moments informels jouent un rôle décisif sur le fonctionnement des collectifs, la prise de décision et la transmission des savoirs et savoir-faire clés. La question n’est pas de les multiplier à tout prix, mais de les penser comme des espaces de socialisation à part entière.
Travailler l’implicite
L’étude rappelle que beaucoup de règles du jeu sont implicites. Une bonne socialisation suppose, sinon de rendre explicite ces attendus, d’inviter des tuteurs/mentors à acculturer les nouvelles recrues à cette part invisible des kits d’intégration et des modules de formation formels.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
25.01.2026 à 18:15
Joan Le Goff, Professeur des universités en sciences de gestion, Université Paris-Est Créteil Val de Marne (UPEC)
Marc Bidan, Professeur des Universités en Management des systèmes d’information - Nantes Université, Auteurs historiques The Conversation France
Sylvie Michel, Maîtresse de Conférences, HDR en Sciences de gestion, Université de Bordeaux

Sur les scènes françaises, les tournées « best of » ou les « tribute bands » occupent le terrain, remplissent les salles et structurent un véritable marché de la « nostalgie live ». Portés par une demande de réconfort émotionnel et de communion mémorielle, ces spectacles du passé remixés au présent interrogent. Comment comprendre un tel engouement pour ces pastiches et jusqu’où cette économie de la copie peut-elle prospérer sans trop étouffer la création ?
Une semaine ordinaire en France permet d’aller voir « One Night of Queen » (le plus célèbre tribute band de Queen) le 20 janvier à Paris, « Covertramp » (hommage à Supertramp), le 24 janvier à Reims et « Cloudbusting » (tribute à Kate Bush) le même jour à Paris. D’autres préféreront « Génération Céline » (Céline Dion) à Aix-en-Provence, le 21 janvier, « Balavoine, ma bataille » à Nantes (23 janvier) ou « Soul Cages Trio » (un hommage jazzy à Sting), le 28 janvier à Paris. Il y en a pour tous les goûts ! Le défilé de ces groupes qui rendent hommage à un artiste est ininterrompu sur les scènes françaises et les salles ne désemplissent pas.
Notre recherche sur cette tendance nostalgique du spectacle vivant a conduit à distinguer trois registres différents, tout aussi couronnés de succès.
D’abord, les tournées « best of » où les artistes rejouent leur propre catalogue : les Rolling Stones (tournée Sixty, 2022) enchaînent 14 concerts en Europe devant plus de 750 000 spectateurs pour environ 120 millions de dollars (102,2 millions d’euros) de revenus, complétés par un merchandising intensif qui donne lieu, en moyenne, à deux achats à 40 euros par spectateur. La célébration d’albums iconiques renforce le mécanisme à l’image de U2 et de son LP emblématique The Joshua Tree avec ses 2,7 millions de spectateurs sur une cinquantaine de dates. En France, les chiffres illustrent la robustesse et le caractère massif de cette demande, qu’incarne par exemple Étienne Daho porté par ses 50 concerts pour environ 300 000 billets vendus. Dans cet ensemble, on peut inclure des groupes qui persévèrent à jouer leur catalogue et à se produire sur scène, alors même qu’aucun des membres fondateurs n’est encore présent, à l’instar de Dr Feelgood !
Ensuite, les concerts de reprises réalisés par des artistes déjà identifiés, qui utilisent des standards pour élargir l’audience et sécuriser la billetterie. L’exemple central est la tournée associée à l’album Imposteur de Julien Doré daté de 2024, fondée sur des reprises et présentée comme un succès majeur correspondant à plus de 500 000 billets sur environ 60 dates, dont la majorité vendue avant le lancement.
Poussée à son paroxysme, cette logique mène des artistes à s’approprier non pas quelques chansons, mais tout le répertoire d’un autre, plus connu et suffisamment fédérateur pour remplir des salles. C’est le cas de la chanteuse américaine minimaliste Cat Power qui, en 2022, a sorti un album reprenant un concert entier de Bob Dylan, celui de 1966 à Manchester. Elle ne se contente pas de chanter ses chansons : elle recrée l’ambiance, l’ordre des morceaux, l’intensité de l’époque. C’est une façon de rendre hommage, mais aussi d’augmenter sensiblement son audience personnelle, alors que la carrière de Cat Power connaissait un creux. Le succès est tel que la chanteuse a élargi le répertoire, en se focalisant toujours sur le Dylan première période et les titres qu’il refuse obstinément de jouer sur scène.
Enfin, il apparaît que le phénomène le plus structurant est celui des « groupes hommage » (tribute bands), qui reproduisent le répertoire
– et souvent l’esthétique – d’un groupe mythique. Il met en lumière la professionnalisation des artistes via des tourneurs spécialisés. En France, une entreprise, comme Richard Walter Productions, revendique à elle seule environ 700 000 entrées payantes en 2025 aux hommages à plusieurs artistes ou groupes qualifiés souvent de « mythiques », tels que Queen, ABBA, Pink Floyd, Genesis, etc. Sur ce segment spécifique des tribute bands, le marché mondial était évalué en 2018 entre 500 millions et 750 millions de dollars (soit entre 425 millions et 638,9 millions d’euros) et reste en forte croissance.
Alors que les tournées best of sont appelées à disparaître avec la mise à la retraite inévitable des groupes phares de la fin du XXᵉ siècle et qu’un artiste qui ne fait que des reprises risque d’y perdre son identité, les tribute bands constituent la tendance majeure de l’expression de la nostalgie sur scène.
Le public qui se rend aux concerts de simili-Queen ou de faux Beatles correspond à deux catégories de consommateurs, aux logiques d’achat assez différentes. La première est constituée de fans « historiques », plus âgés et plus aisés, recherchant l’authenticité (musicale, visuelle, narrative) et dépensant davantage en produits dérivés. Les tribute bands qui s’adressent à cette frange fanatique du public font dans le haut de gamme, avec des shows à la qualité musicale très travaillée, aux costumes, décors et effets visuels reproduisant scrupuleusement les spectacles connus des adeptes présents dans la salle.
La seconde est plus orientée « grand public ». Elle est attirée par la dimension festive et intergénérationnelle, et par des prix plus accessibles : des tribute bands proposent des billets autour de 30–40 €, quand certains concerts de stars atteignent des niveaux nettement supérieurs. C’est le cas pour U2 (autour de 300 euros, contre 30 euros pour son cover band 4U2) comme ce le fut pour Beyoncé au Stade de France… avec des places à plus de 600 euros !
L’inflation du prix des places de concert alimente mécaniquement la demande de substituts crédibles. Cela s’est avéré flagrant lors de la reformation du groupe Oasis : le manque de billets et la spéculation à la hausse des enchères (officielles ou non) ont entraîné un report du public vers des groupes comme Definitely Oasis, à moins de 20 livres sterling (23 euros environ) l’entrée.
Si les tarifs des tribute bands augmentent d’environ 15 % lorsque l’artiste original est décédé, il y a aussi des effets d’entraînement avec les artistes toujours en activité : quand l’original repart en tournée, la promotion bénéficie indirectement aux copies tandis que la rareté et la concentration des dates dans les grandes villes laissent des territoires entiers accessibles aux tribute bands, sans cannibaliser frontalement les tournées des stars dont ils s’inspirent.
Pourquoi cette tristesse douce-amère qui se mêle à la quête d’expériences révolues est-elle tant recherchée par les fans qui communient lors de shows passéistes ? L’explication n’est pas seulement économique.
La nostalgie est un mécanisme de réconfort émotionnel, de réduction du stress et de renforcement du sentiment d’appartenance, particulièrement recherché en périodes d’incertitude (crises sanitaires, géopolitiques, climatiques). Ces résultats scientifiques qui attestent des effets positifs du sentiment de nostalgie montrent aussi que la musique s’avère justement le meilleur moyen de générer ces réactions analgésiques et apaisantes.
En outre, le concert nostalgique fonctionne comme une « communion mémorielle » : on y revit une époque, on y transmet (parents/enfants), et l’on y partage une identité culturelle. Cet aspect positif de la nostalgie n’a pas échappé au marketing, qui s’en est largement emparé : packaging rétro, rééditions, retours de marques et d’objets…
Cette exploitation intensive de la nostalgie live n’est pas sans risque. D’une part, si les tribute bands se calquent sur les logiques inflationnistes des concerts originaux, le public acceptera-t-il de payer très cher pour une copie, même (presque) parfaite ? C’est loin d’être acquis et pourtant c’est le mouvement constaté par les professionnels. D’autre part, la saturation est de plus en plus probable. Les gains potentiels attirent de nouveaux entrants, au risque d’une baisse de qualité et d’une fatigue du public. Sans compter qu’une industrie trop centrée sur l’hommage peut freiner la création et la rupture, alors même que la musique est aussi un laboratoire d’innovation.
À l’heure où le numéro 1 des ventes d’album en Angleterre est Wish You Were Here des Pink Floyd, sorti en septembre 1975, la nostalgie musicale live en tant que spectacle vivant innovant apparaît comme un marché robuste, structuré et technologiquement dopé (notamment par les hologrammes et par l’intelligence artificielle). Il est tiré par une demande de réconfort et par des modèles économiques efficaces fondés sur une billetterie et un merchandising habile. Toutefois, sa durabilité dépendra de sa capacité à éviter l’inflation mimétique, la saturation qualitative et le basculement vers une « nostalgie de substitution » qui étoufferait l’émergence des nouveautés.
À moins que le « mashup 100 % live » vienne au contraire réinventer la nostalgie et la marier avec le présent comme le proposent des groupes, comme Analog Society dont le succès récent est tout à fait rafraîchissant.
Pour cette recherche, Joan Le Goff a bénéficié d'un financement du Centre national de la musique.
Marc Bidan a reçu, pour cette recherche, un financement en provenance du centre national de la musique (CNM Lab)
Pour cette recherche, Sylvie Michel a bénéficié d'un financement en provenance du Centre national de la musique.
24.01.2026 à 18:13
Laure Westphal, Psychologue clinicienne, Docteure en psychopathologie, Enseignante, Chercheuse associée, Sciences Po
Les personnes qui pratiquent le « chemsex », en consommant de la 3-MMC et d’autres drogues de synthèse (GHB, GLB, poppers…) pendant les relations sexuelles, prennent des risques pour leur santé physique et leur intégrité psychique. Mais grâce à un accompagnement dans des services de soins, au sein de groupes d’entraide et/ou avec des proches, ils peuvent revenir à une vie pacifiée.
La pratique du « chemsex » connaît un essor exponentiel ces dernières années. Les usagers s’exposent à des dommages psychiques et corporels. Les demandeurs de soins font apparaître une souffrance d’origines variées, parfois traumatiques.
À la psychothérapie doit se conjuguer la prévention.
Des événements médiatisés ont révélé une pratique déjà bien connue des soignants. Le « chemsex » est la contraction de chemical (« produit chimique », en anglais) et de sex, et correspond à l’usage de cathinones dans des relations sexuelles, souvent pratiquées à plusieurs, avec des inconnus. Les cathinones sont des produits de synthèse, aux propriétés stimulantes, entactogènes – elles amplifient les sensations physiques –, et empathogènes – l’intimité est facilitée.
Souvent, le néophyte le découvre au décours d’une soirée festive, et fait l’expérience d’un plaisir intense, sans limites physiologiques (la fatigue ou la faim). La 3-MMC (3-MéthylMéthCathinone) est la cathinone la plus fréquemment citée dans nos consultations. Elle peut être consommée avec d’autres drogues de synthèse, du GHB, du GBL, ou du poppers. Dans ce nouveau « paradis artificiel », les participants exacerbent leur sensorialité, au sein d’un groupe d’anonymes, conçu comme « safe ».
À l’usage, ces derniers recourent à des applications géolocalisées de type Grindr qui potentialisent leur rencontre un peu partout et instantanément. Les « chemsexeurs » diversifient les modes de prises : en sniff, en plug (par voie rectale), ou en slam (par voie intraveineuse). Slam, signifiant « claquer », a l’effet le plus puissant. Les produits sont faciles d’accès : le darknet (réseau Internet clandestin, ndlr) livre à domicile. La durée des « plans » augmente au gré de l’appétence au produit, de plusieurs heures à plusieurs jours.
Les usagers prennent des risques, par exemple des G-hole, c’est-à-dire des comas liés à du surdosage, des arrêts respiratoires ou encore des oublis de leur PrEP (prophylaxie préexposition), quand ils suivent ce traitement antirétroviral utilisé par des personnes séronégatives exposées au risque de VIH.
Souvent, les chemsexeurs rapportent d’abord le plaisir d’expérimenter une émancipation extatique. Ils la requalifient d’autothérapeutique, lorsque des revers leur apparaissent comme le résultat de ce qu’ils voulaient oublier : des blessures psychiques plus ou moins profondes.
Avec la pratique, ils perdent l’intérêt pour la sexualité sans cathinones, et même avec : seule l’appétence au produit demeure. Certains finissent par consommer seuls chez eux. Ils régressent dans un repli mortifère.
Listen to 28260325 – Laure Whestphal – Les Conduites addictives byMosaique FM on hearthis.at
Certains chemsexeurs lui attribuent une fonction ordalique. Lorsqu’ils nous sollicitent, ils se remémorent des carences affectives, des violences psychologiques, comme le rejet familial et/ou intériorisé de leur orientation sexuelle ou de leur identité. D’autres, ou parfois les mêmes, y réactualisent des traumas liés à des violences physiques, ou sexuelles. À des degrés divers, ils s’absentent d’eux-mêmes, accentuent leur état dissociatif, dans des relations anonymes avec des psychotropes. La toxicomanie crée parfois une emprise qui libère d’une autre.
Lorsqu’ils ont été abusés jeunes, c’est souvent par quelqu’un ayant eu un ascendant sur eux, quelqu’un qu’ils admiraient et qui les a trahis. Relégués au rang d’objet, ils se sont fait extorquer leur intimité.
À lire aussi : Violences sexuelles : de nouveaux enjeux de santé mentale pour les psy
Ils se sont construits en déshumanisant le plaisir sexuel. Ils se sont asservis à un excès après l’autre pour forcer l’oubli. Certains déplorent s’assujettir à une société de consommation, ou se « chosifier » les uns les autres, comme s’ils donnaient consistance à une injonction néolibérale de performance.
Clivés, ils entretiennent à leur insu des carences affectives. Cela en a amené certains à aimer des personnes les faisant souffrir. Leur enjeu devient de différencier le fait d’aimer, du fait d’aimer souffrir. Enlisés dans la confusion, ils retournent contre eux la violence qu’ils ont subie par une compulsion aux passages à l’acte. Les plus « avancés » s’isolent, se délaissent. Ils s’octroient des états modifiés de conscience pour édulcorer des reviviscences traumatiques, qui leur reviennent lors de leurs descentes.
Traduire en mots les abus qu’ils ont subis les aide à distinguer ce qui relève de leur choix ou de leur instrumentalisation par une contrainte de répétition. S’ils identifient leurs traumas, ils peuvent retrouver l’origine de leur destructivité qu’ils cherchaient sans succès à fuir, et l’intégrer dans leur vie selon d’autres modalités.
Quel que soit le degré d’engagement dans le chemsex, il est essentiel avec les demandeurs de soins de réintégrer ce qu’ils vivent dans la réalité commune, de lever leurs clivages, et d’éviter à leurs excès de constituer des traumas secondaires. Entrer dans l’espace thérapeutique, leur permet de reconnaître à un autre la capacité d’entendre les éléments épars de leur histoire. Ils la pensent et pansent les blessures. Les plus démunis d’ancrage ont pour enjeu préalable de se réinscrire dans une relation humanisante, d’y éprouver la détresse auprès d’un autre secourable avec qui interroger l’avenir : pour qui ne s’abandonneraient-ils pas ?
C’est d’un appui bienveillant dont ils ont besoin d’abord pour résorber leur effraction psychique, se réconcilier avec eux-mêmes et élaborer les enjeux tragiques de leur relation à l’amour. Certains ne savent plus comment aimer, ou s’ils en sont capables. Pour d’autres, cela n’a jamais été une expérience hédoniste.
Après s’être expulsés de la vie de la cité, ils reviennent à la vie ordinaire dans un état de grande fragilité. Leur vie affective progresse dans des services de soins, des groupes d’entraide, de proches, qu’ils considèrent comme leur nouvelle famille.
Ce passage est structurant pour leur prise de parole, complémentairement à celle qu’ils déploient auprès du clinicien. Ce dernier les soutient dans leur démarche créatrice ou sublimatoire qu’ils ouvrent souvent spontanément : la reconversion professionnelle, la reprise d’études, l’expression artistique de leur sensibilité. Ils changent de vie pour participer autrement à celle de la cité.
Certes les cathinones se sophistiquent régulièrement et changent de nom pour défier la législation. Mais cela n’est pas aux usagers d’endosser cette responsabilité. La leur est de demander de l’aide. Il y a quelques années, c’est seulement à un stade avancé, qu’ils nous sollicitaient. Aujourd’hui, les campagnes de prévention et le fait de côtoyer les plus expérimentés les rendent alertes plus tôt. La prise en charge s’est diversifiée et démocratisée.
À l’heure où l’usage de drogue refait l’objet de représentations régressives dans un climat politique répressif, les usagers continuent de nécessiter des lieux de soin « safe ». Si l’on n’en tient pas compte, on participe à entraver ou à retarder leurs accès aux soins. En craignant d’être discrédités, ils peuvent préférer nier les violences et les revivre alors à l’identique comme une torture sans fin. Pour la proportion d’usagers ayant subi des violences sexuelles, ils peuvent continuer de se meurtrir en prenant sur eux la responsabilité de leur victimisation préalable. Déposer une plainte, thérapeutique, est structurant : le patient relance dans la thérapie le désir de se respecter.
À l’heure où le mal-être psychique des jeunes gens est criant, où l’appétence aux sites « porno », parfois « trash », est perçu comme un refuge, il paraît essentiel d’éclairer et de prévenir le malaise dont les usagers de chemsex témoignent eux aussi. Le cumul de carences, de traumatismes d’enfance et/ou de traitements discriminatoires nécessite des soins humanisants, étayants, par des professionnels soutenus.
Préférer à l’agir le récit de soi, s’ouvrir à l’altérité et aux relations affectives et se réinscrire dans le collectif leur est généralement possible lorsqu’ils ont appris ou réappris à s’aimer eux-mêmes.
Laure Westphal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
24.01.2026 à 18:12
Antony Dalmiere, Ph.D Student - Processus cognitifs dans les attaques d'ingénieries sociales, INSA Toulouse; Centre national de la recherche scientifique (CNRS)
Comment les spams passent-ils au travers des multiples couches de protection annoncées comme presque infranchissables par les entreprises et par les chercheurs en cybersécurité ?
Les escroqueries existent depuis fort longtemps, du remède miracle vendu par un charlatan aux courriers dans la boîte aux lettres nous promettant monts et merveilles plus ou moins fantasques. Mais le Web a rendu ces canaux moins intéressants pour les arnaqueurs.
Les e-mails de spam et le « phishing » (hameçonnage) se comptent aujourd’hui en millions d’e-mails par an et ont été la porte d’entrée pour des incidents majeurs, comme les fuites d’e-mails internes d’Emmanuel Macron lors de sa campagne présidentielle en 2017, mais aussi le vol de 81 millions de dollars (plus de 69 millions d’euros) à la banque du Bangladesh en 2016.
Il est difficile de quantifier les effets de ces arnaques à l’échelle globale, mais le FBI a recensé des plaintes s’élevant à 2,9 milliards de dollars (soit 2,47 milliards d’euros) en 2023 pour une seule catégorie de ce type d’attaques – les pertes dues aux attaques par e-mail en général sont sûrement beaucoup plus élevées.
Bien sûr, la situation n’est pas récente, et les entreprises proposant des boîtes de messagerie investissent depuis longtemps dans des filtres antispam à la pointe de la technologie et parfois très coûteux. De même pour la recherche académique, dont les détecteurs atteignent des précisions supérieures à 99 % depuis plusieurs années ! Dans les faits pourtant, les signalements de phishing ont bondi de 23 % en 2024.
Pourquoi, malgré ces filtres, recevons-nous chaque jour des e-mails nous demandant si notre compte CPF contient 200 euros, ou bien nous informant que nous aurions gagné 100 000 euros ?
Il faut d’abord comprendre que les e-mails ne sont pas si différents des courriers classiques dans leur fonctionnement. Quand vous envoyez un e-mail, il arrive à un premier serveur, puis il est relayé de serveur en serveur jusqu’à arriver au destinataire. À chaque étape, le message est susceptible d’être bloqué, car, dans cette chaîne de transmission, la plupart des serveurs sont équipés de bloqueurs.
Dans le cadre de ma thèse, j’ai réalisé une étude empirique qui nous a permis d’analyser plus de 380 e-mails de spams et de phishing ayant franchi les filtres mis en place. Nous avons ainsi analysé une dizaine de techniques exploitées dans des proportions très différentes.
La plus répandue de ces techniques est incroyablement ingénieuse et consiste à dessiner le texte sur une image incluse dans l’e-mail plutôt que de l’écrire directement dans le corps du message. L’intérêt est de créer une différence de contenu entre ce que voit l’utilisateur et ce que voient les bloqueurs de spams et de phishing. En effet, l’utilisateur ne fait pas la différence entre « cliquez ici » écrit dans l’e-mail ou « cliquez ici » dessiné avec la même police d’écriture que l’ordinateur. Pourtant, du point de vue des bloqueurs automatisés, cela fait une grosse différence, car, quand le message est dessiné, identifier le texte présent dans l’image demande une analyse très coûteuse… que les bloqueurs ne peuvent souvent pas se permettre de réaliser.
Une autre technique, plus ancienne, observée dans d’autres contextes et recyclée pour franchir les bloqueurs, est l’utilisation de lettres qui sont jumelles dans leur apparence pour l’œil humain mais radicalement différentes. Prenons par exemple un mail essayant de vous faire cliquer sur un lien téléchargeant un virus sur votre téléphone. Un hackeur débutant pourrait envoyer un mail malicieux demandant de cliquer ici. Ce qui serait vu du point de vue de votre ordinateur par 99 108 105 113 117 101 114. Cette suite de nombres est bien évidemment surveillée de près et suspectée par tous les bloqueurs de la chaîne de transmission. Maintenant, un hackeur chevronné, pour contourner le problème, remplacera le l minuscule par un i majuscule (I). De votre point de vue, cela ressemblera à cIiquer ici – avec plus ou moins de réussite en fonction de la police d’écriture. Mais du point de vue de l’ordinateur, cela change tout, car ça devient : 99 76 105 113 117 101 114. Les bloqueurs n’ont jamais vu cette version-là et donc laissent passer le message.
Parmi toutes les techniques que nous avons observées, certaines sont plus avancées que d’autres. Contre les bloqueurs de nouvelle génération, les hackers ont mis au point des techniques spécialisées dans la neutralisation des intelligences artificielles (IA) défensives.
Un exemple observé dans notre étude est l’ajout dans l’e-mail de pages Wikipédia écrites en blanc sur blanc. Ces pages sont complètement hors contexte et portent sur des sujets, tels que l’hémoglobine ou les agrumes, alors que l’e-mail demande d’envoyer des bitcoins. Ce texte, invisible pour l’utilisateur, sert à perturber les détecteurs basés sur des systèmes d’intelligence artificielle en faisant une « attaque adversariale » (montrer une grande quantité de texte anodin, en plus du message frauduleux, de telle sorte que le modèle de détection n’est plus capable de déterminer s’il s’agit d’un e-mail dangereux ou pas).
Et le pire est que la plupart des e-mails contiennent plusieurs de ces techniques pour augmenter leurs chances d’être acceptés par les bloqueurs ! Nous avons dénombré en moyenne 1,7 technique d’obfuscation par e-mails, avec la plupart des e-mails comportant au moins une technique d’obfuscation.
Cet article est le fruit d’un travail collectif entre le Laboratoire de recherche spécialisé dans l’analyse et l’architecture des systèmes (LAAS-CNRS) et le Laboratoire d’études et de recherches appliquées en sciences sociales (LERASS). Je tiens à remercier Guillaume Auriol, Pascal Marchand et Vincent Nicomette pour leur soutien et leurs corrections.
Antony Dalmiere a reçu des financements de l'Université de Toulouse et de l'Institut en Cybersécurité d'Occitanie.
23.01.2026 à 12:24
Elizabeth Sheppard Sellam, Responsable du programme « Politiques et relations internationales » à la faculté de langues étrangères, Université de Tours
Le Conseil de la paix que Donald Trump vient d’instituer correspond pleinement à sa vision de la diplomatie : celle-ci est transactionnelle et fluide, non contrainte par les règles complexes de l’Organisation des Nations unies et du droit international, et repose avant tout sur des relations personnelles et des intérêts immédiats, bien plus que sur des valeurs.
Présenté dans le contexte de la guerre à Gaza comme une initiative « historique » destinée à accompagner la négociation d’un cessez-le-feu durable et à structurer l’après-guerre à Gaza, le Board of Peace voulu par Donald Trump a été officiellement lancé ce 22 janvier, à Davos, en marge du Forum économique mondial, lors d’une cérémonie de signature largement médiatisée.
Derrière cette mise en scène, une question s’impose : le Board est-il un véritable instrument de négociation politique, ou avant tout un objet trumpien de communication et de personnalisation du pouvoir, conçu en concurrence avec les cadres multilatéraux existants ? À ce stade, il apparaît surtout comme l’expression d’une diplomatie transactionnelle, profondément individualisée et potentiellement déstabilisatrice pour l’ordre international.
Derrière l’affichage diplomatique, c’est une logique de communication politique qui domine. Le lancement à Davos a surtout mis en scène un dispositif centré sur Trump, sans cadre juridique clair ni mandat précis, laissant planer la plus grande ambiguïté sur sa nature : institution internationale, forum informel ou structure privée adossée à la Maison Blanche ?
La vision de la paix sur laquelle s’appuie ce projet est avant tout marchande. À Davos, Trump parle, à propos de Gaza, de reconstruction et de valorisation territoriale dans un langage de promoteur immobilier, son propos étant illustré par la diffusion dans la salle d’images fabriquées par l’IA, présentant une Gaza rutilante.
La paix devient un projet économique, et l’accès au Board une transaction. Certes, l’adhésion au Board of Peace est, en soi, gratuite : aucun État n’est tenu de payer pour en être membre, y compris des pays relativement pauvres comme le Bélarus ou l’Ouzbékistan. En revanche, les États qui souhaiteraient obtenir un siège permanent devront verser une contribution financière. Le dispositif ne dispose d’aucun calendrier ni de mécanismes de décision ou de mise en œuvre des accords. En réalité, il relève davantage d’un instrument symbolique que d’un véritable processus de résolution des conflits. Si bien qu’il a pu être qualifié de « club privé pour diriger le monde », fondé sur l’affichage politique et la personnalisation du pouvoir.
Ce dispositif ne cherche pas à réformer les institutions existantes, mais à leur substituer une diplomatie parallèle, détachée du droit international et dominée par l’autorité personnelle du président américain. Il installe une logique ouvertement transactionnelle, où la participation repose sur l’échange d’intérêts : reconnaissance contre loyauté, accès contre financement, visibilité contre alignement stratégique.
Le Board prétend promouvoir la paix tout en réunissant des acteurs qui ne partagent ni normes démocratiques ni principes juridiques communs. À ce stade, sur près de soixante États invités par l’administration Trump, environ 35 pays ont accepté de participer au Board of Peace.
Parmi eux figurent plusieurs régimes autoritaires ou illibéraux, tels que l’Azerbaïdjan, le Bélarus, l’Arabie saoudite, l’Ouzbékistan ou encore le Vietnam, ce qui interroge directement la cohérence politique et normative de cette initiative. La Russie de Vladimir Poutine, bien qu’officiellement invitée, n’a pas encore confirmé son adhésion, le Kremlin affirmant devoir en « clarifier les modalités ».
Cette configuration renforce l’ambiguïté du dispositif : l’adhésion, nous l’avons dit, est gratuite, mais l’accès à un siège permanent repose sur une contribution financière dite volontaire d’un milliard de dollars, ce qui donne au Conseil l’allure d’un assemblage diplomatique hétéroclite fondé sur des logiques transactionnelles plus que sur des principes communs. Il donne l’image d’un cercle où la légitimité se mesure moins aux valeurs qu’à l’utilité politique. Trump s’y impose comme arbitre central, concentrant la reconnaissance diplomatique et faisant de la paix un capital politique.
Ce fonctionnement prolonge une évolution déjà engagée par les États-Unis, marquée par une réticence croissante à s’inscrire dans des cadres juridiques contraignants.
Le Board n’ouvre donc pas une rupture ; il accélère une dynamique d’érosion. Il fait primer la décision politique immédiate sur la régulation collective et fragmente la gouvernance mondiale, désormais fondée sur des dispositifs informels et personnels.
Des alliés majeurs des États-Unis comme l’Australie, le Japon ou la Corée du Sud n’ont pas confirmé leur participation, tandis que le Canada a été placé dans une situation encore plus singulière, son invitation ayant été unilatéralement retirée par Donald Trump, révélant le caractère à la fois politique et arbitraire de la composition du Board of Peace.
En Europe, l’initiative suscite d’emblée une méfiance marquée, et dans plusieurs cas un refus assumé d’y participer. La France, l’Allemagne, les Pays-Bas, la Belgique, l’Espagne, la Suède et la Norvège ont exprimé leurs réserves face à un dispositif dont la légitimité politique et juridique apparaît incertaine. Ce n’est pas un désaccord tactique, mais un désaccord de principe : participer reviendrait à cautionner une structure qui contourne les institutions internationales existantes, sans cadre juridique clair ni articulation avec le droit international.
Pour les Européens, le Board apparaît comme un facteur de déstabilisation plus que comme un outil de pacification. Il légitime l’idée que les grandes crises peuvent être traitées en dehors de toute architecture collective, alors que la diplomatie européenne repose précisément sur l’inverse : la centralité du droit, la primauté du multilatéralisme et la recherche de compromis institutionnalisés.
L’incompatibilité est aussi idéologique. Le Board incarne une diplomatie transactionnelle, peu sensible aux normes juridiques et aux valeurs démocratiques, là où l’UE continue de revendiquer une action extérieure fondée sur des principes. L’enjeu dépasse ainsi Gaza pour toucher à la définition même de ce qui constitue une action internationale légitime.
Enfin, le Board s’impose comme un marqueur supplémentaire de la fracture transatlantique. Il révèle une divergence croissante entre Washington, qui privilégie des formats ad hoc et personnalisés, et les Européens, attachés à une architecture collective, imparfaite mais structurante.
Pour Israël, l’initiative touche au cœur de ses intérêts sécuritaires. Dans le contexte de la guerre à Gaza, l’attente demeure celle d’un leadership américain capable de structurer l’après-conflit. Jérusalem ne peut donc ignorer un dispositif porté par Washington, même imparfait.
La méfiance est cependant apparue immédiatement. L’annonce de la composition du Board, qui inclut notamment la Turquie et le Qatar, a suscité de fortes réserves, du fait de l’hostilité politique croissante d’Ankara envers Israël, et des liens que Doha entretient avec le Hamas. Le bureau de Benyamin Nétanyahou a rappelé que la démarche n’avait pas été coordonnée avec Jérusalem… avant qu’Israël accepte finalement d’y participer, faute de pouvoir rester en dehors d’un processus directement piloté par l’administration américaine. Cette séquence illustre une constante de la diplomatie israélienne : Israël est directement concerné, il ne peut pas dire non, mais avance avec prudence structurelle.
La centralité accordée à Steve Witkoff comme émissaire principal est d’autant plus controversée que, selon plusieurs responsables israéliens, il aurait pesé pour empêcher une frappe américaine contre l’Iran mi-janvier, ce qui alimente une forte défiance à son égard, d’autant plus qu’il siège au cœur de l’Executive Board du Board of Peace, instance restreinte appelée à concentrer l’essentiel du pouvoir décisionnel.
Steve Witkoff agit comme l’émissaire personnel de Donald Trump bien au-delà du Board of Peace : c’est lui qui a conduit les échanges directs avec le ministre iranien des affaires étrangères et qui a été au cœur des négociations menées à Doha, notamment sur Gaza. Sa présence dans l’Executive Board du Board of Peace renvoie donc moins à un rôle symbolique qu’à une position de pouvoir réel, cet organe restreint concentrant l’essentiel de l’impulsion politique et du contrôle opérationnel de l’initiative. Cela fait de Witkoff à la fois un négociateur de terrain et l’un des pivots décisionnels du dispositif, ce qui explique l’ampleur des critiques qu’il suscite, notamment en Israël.
La question polarise en tout cas le débat israélien, entre acceptation pragmatique et rejet d’un mécanisme perçu comme dangereux par les ministres israéliens d’extrême droite, parce qu’il implique des acteurs qu’ils estiment hostiles ou complaisants envers le Hamas et qu’il s’oppose à leur objectif de contrôle direct et durable de Gaza au nom de la sécurité d’Israël.
Le Board devient ainsi le symbole de la tension permanente entre la dépendance stratégique d’Israël envers Washington et sa défiance face à une diplomatie trop fondée sur les liens personnels pour constituer un cadre fiable de long terme.
Du côté palestinien, la réaction est plus nuancée qu’on ne le dit souvent : l’Autorité palestinienne a accueilli l’initiative avec prudence mais sans hostilité frontale, y voyant une possible ouverture diplomatique, tandis que d’autres acteurs palestiniens dénoncent un dispositif conçu dans un cadre avant tout américano-israélien et ne leur offrant pas de garanties politiques réelles. En parallèle, des pays qui se présentent traditionnellement comme des défenseurs de la cause palestinienne – comme l’Égypte, l’Indonésie ou l’Arabie saoudite – mais qui sont aussi, pour certains, en paix avec Israël ou engagés dans des processus de normalisation, justifient leur participation au Board of Peace par un discours de pragmatisme diplomatique : mieux vaut siéger à la table des discussions pour peser sur la reconstruction de Gaza et l’après-guerre que rester en dehors d’un processus piloté par Washington.
« Une fois que ce conseil sera complètement formé, nous pourrons faire à peu près tout ce que nous voulons ». Cette phrase prononcée par Trump à Davos résume le Board of Peace. Elle ne parle pas de paix, mais de pouvoir : une diplomatie fondée sur la maîtrise, la transaction et la personnalisation de l’action internationale.
Ce qui devait constituer le socle d’un processus durable au Moyen-Orient s’est transformé en un exercice de mise en scène, où l’ego présidentiel, l’argent et les projets portés par Witkoff ou Jared Kushner, gendre du président et businessman très actif dans la région, prennent le pas sur toute logique de négociation réelle. La paix n’y apparaît plus comme un objectif politique, mais comme un actif et un instrument de valorisation.
Plus qu’un projet de paix, le Board révèle une rupture profonde : celle d’un ordre international où la règle cède devant la transaction, où l’institution recule face à la personnalisation, et où la diplomatie devient un espace de démonstration de puissance plus qu’un lieu de construction du compromis.
Elizabeth Sheppard Sellam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.01.2026 à 12:08
Gilles Paché, Professeur des Universités en Sciences de Gestion, Aix-Marseille Université (AMU)
Loin d’être seulement un territoire gorgé de ressources naturelles attisant toutes les convoitises, le Groenland se place comme un nœud stratégique majeur pour les chaînes d’approvisionnement mondiales. Une telle réalité reste encore trop souvent méconnue.
Depuis la réélection de Donald Trump, le Groenland occupe une place grandissante dans les débats politiques, souvent réduit dans les médias à une question de captation de ressources naturelles. Terres rares, uranium, hydrocarbures ou eau douce sont fréquemment présentés comme les motivations principales de l’intérêt renouvelé du président des États-Unis et, plus largement, des grandes puissances pour ce territoire arctique. Bien que fondée sur des enjeux réels, une telle lecture que l’on qualifiera d’extractive tend à simplifier la nature des tensions actuelles dans la mesure où elle masque une transformation plus profonde des équilibres mondiaux.
Le Groenland apparaît en effet moins comme un simple réservoir de ressources naturelles que comme un espace clé de circulation et de projection des flux dans un contexte de profonde reconfiguration des échanges. Les chaînes d’approvisionnement mondiales, longtemps structurées autour de routes méridionales, sont aujourd’hui fragilisées par les crises géopolitiques et la saturation des infrastructures existantes. D’où une interrogation récurrente : l’Arctique n’émerge-t-il pas comme un nouvel horizon logistique rendu progressivement accessible par le recul de la banquise ? Le Groenland, par sa position centrale entre l’Amérique du Nord, l’Europe et l’Asie, deviendrait alors un élément clé de la recomposition en cours, bien au-delà de la seule question des ressources.
Le commerce maritime mondial repose historiquement sur quelques grandes routes structurantes : le canal de Suez (Égypte), le canal de Panama, le détroit de Malacca (Thaïlande, Indonésie, Malaisie) ou encore le cap de Bonne-Espérance (Afrique du Sud). Ces passages sont à la fois vitaux et très vulnérables, comme l’a montré l’ensablement du porte-conteneurs Ever Given en mars 2021 dans le canal de Suez. De ce point de vue, l’Arctique apparaît de plus en plus comme une alternative crédible. En effet, la réduction de la banquise estivale, fruit du réchauffement climatique, ouvre progressivement trois axes majeurs :
la route du Nord-Est le long des côtes russes,
la route du Nord-Ouest à travers l’archipel canadien,
et, à plus long terme, une route transarctique passant au cœur de l’océan Arctique.
À lire aussi : Les ressources du Groenland, entre protection de l’environnement et tentation du profit
Même si les routes indiquées sur la carte 1 ne sont pas encore accessibles toute l’année, leur fenêtre de navigabilité s’allonge et leur fiabilité augmente. L’intérêt logistique est considérable puisqu’un trajet maritime entre l’Asie de l’Est et l’Europe du Nord peut être raccourci de 30 à 40 % par rapport à un trajet par le canal de Suez, réduisant à la fois le temps de transport, la consommation de carburant et les émissions polluantes.
Carte 1. Nouvelles routes maritimes ouvertes grâce à la fonte des glaces
Pour les chaînes d’approvisionnement mondiales, dont les délais et les coûts sont des variables critiques, ces gains sont loin d’être négligeables. Le Groenland ne constitue pas ici seulement un lieu de transit passif. Sa position géographique en fait au contraire une zone idéale pour des fonctions de soutien en matière d’escales techniques, de ravitaillement et d’assistance aux navires, mais aussi d’opérations de recherche et de sauvetage.
Il convient toutefois de nuancer l’enthousiasme qui gagne certains observateurs quant à l’émergence d’une nouvelle géographie des flux. Les routes arctiques, actuelles et à venir, restent soumises à des conditions extrêmes (météo imprévisible, dérive des glaces, ou encore manque de cartographie précise). La logistique arctique est donc plus complexe, plus risquée et plus coûteuse en infrastructures que la logistique des chaînes mondiales d’approvisionnement mise en œuvre depuis le début des années 1980. C’est précisément pour répondre à ces contraintes que le Groenland gagne en importance : en servant de base avancée pour la coordination et l’intervention, il devrait contribuer à la viabilité économique de nouvelles routes.
Dans le monde contemporain, nul doute que la logistique n’est plus un simple outil technique au service des échanges de biens et services. Elle est devenue clairement un instrument de puissance, au même titre que la maîtrise de ressources énergétiques et des technologies, notamment d’intelligence artificielle. Contrôler des routes et des nœuds critiques, c’est influencer les flux économiques et, par extension, les rapports de force internationaux. Or, le Groenland, territoire autonome rattaché au Danemark, se trouve de facto intégré aux structures occidentales, notamment via l’Otan. Il est ainsi un élément clé de l’architecture sécuritaire de l’Atlantique Nord et de l’Arctique.
Depuis la fin de la Seconde Guerre mondiale, les États-Unis considèrent le Groenland comme un maillon essentiel de leur sécurité. La base spatiale de Pituffik (base aérienne de Thulé, jusqu’en 2023), construite en 1951, et aujourd’hui intégrée au dispositif de défense antimissile et de surveillance états-unien, illustre cette vision géostratégique que la carte 2 permet de mieux visualiser.
Au-delà de sa fonction militaire, la base de Pituffik joue également un rôle logistique majeur dans le suivi des flux maritimes de l’Arctique. Compte tenu du contexte de rivalités accrues avec la Russie et de méfiance vis-à-vis des ambitions chinoises, l’administration Trump cherche à renforcer sa présence et ses partenariats dans la région. La logistique, entendue comme capacité à soutenir et protéger des flux, en constitue un élément clé.
Carte 2. Les États-Unis sous la menace des missiles balistiques russes
La Russie dispose du plus long littoral arctique et a investi massivement dans des infrastructures portuaires, des brise-glaces et des bases militaires le long de la route du Nord-Est. Pour Moscou, cette route est à la fois un atout économique et un levier géopolitique. Concernant la Chine, bien que non riveraine, elle se définit depuis 2018 comme un « État proche de l’Arctique » et intègre la région dans son initiative des nouvelles Routes de la Soie. À ce titre, ses investissements potentiels dans les ports et les câbles sous-marins suscitent une vigilance accrue des pays occidentaux. Dans un contexte de montée en puissance des stratégies arctiques russe et chinoise, le Groenland apparaît ainsi comme un point de cristallisation des enjeux logistiques et sécuritaires occidentaux.
Loin d’être un simple territoire périphérique, le Groenland concentre en effet des fonctions essentielles de surveillance et de protection des infrastructures critiques structurant les chaînes d’approvisionnement mondiales. Routes maritimes émergentes, ports en développement, câbles de communication sous-marins et capacités satellitaires y convergent. Leur sécurisation conditionne non seulement la fluidité des échanges, mais aussi la résilience des systèmes militaires, numériques et énergétiques occidentaux. Dès lors, le Groenland s’impose comme un véritable « multiplicateur » de puissance : y contrôler l’accès et le soutien logistique confère un avantage stratégique décisif dans tout l’Arctique. Une telle centralité illustre l’imbrication croissante entre logistique et stratégie dans les rivalités entre puissances.
Le développement de la logistique arctique repose avant toute chose sur les infrastructures. Le Groenland possède un potentiel important pour l’accueil de ports en eau profonde capables de recevoir des navires de grande taille. Un accord signé en septembre 2025 entre le Danemark et le gouvernement groenlandais prévoit ainsi la construction d’un deep‑water port à Qaqortoq, dans le sud du territoire. Ce type de port joue un rôle de plate-forme multimodale, reliant transport maritime et aérien et, à terme, des réseaux numériques avancés. Il permettra de consolider, redistribuer ou rediriger les flux entre l’Amérique du Nord, l’Europe et l’Asie, en particulier pour les marchandises à forte valeur ajoutée ou sensibles aux délais.
Au-delà des ports, la logistique moderne repose sur une gamme étendue de services : stockage stratégique, maintenance des flottes, gestion des carburants, traitement des données de navigation. Le Groenland pourrait accueillir des bases spécialisées dans le soutien, réduisant la dépendance à des infrastructures éloignées, situées plus au sud. Ajoutons que le climat froid, souvent perçu comme un handicap, constitue également un avantage concurrentiel pour l’implantation de data centers. Le refroidissement naturel réduit les coûts énergétiques (de 40 à 80 % de la consommation totale), tout en renforçant la résilience des infrastructures numériques.
Il serait toutefois illusoire de comparer en l’état le Groenland à des hubs logistiques matures tels que Singapour ou Rotterdam, traitant respectivement des centaines de millions de tonnes de marchandises par an. Avec une population d’environ 56 000 habitants, le territoire est confronté à des contraintes structurelles majeures : aucune route interurbaine ni voie ferrée, des infrastructures conçues pour de faibles volumes et une dépendance presque exclusive au transport aérien et maritime.
De telles limites réduisent l’attractivité des routes arctiques pour le trafic commercial de grande échelle et exigent des investissements considérables afin d’accroître la capacité logistique locale. À moyen et long terme, le Groenland pourrait cependant se positionner comme un nœud logistique complémentaire
– plutôt que concurrent – des grands hubs mondiaux.
Les axes logistiques ont toujours façonné le pouvoir des États. Des Routes de la Soie aux canaux de Suez et de Panama, la maîtrise des flux a déterminé les fortunes économiques et la capacité de projection militaire. Dans cette lignée, le Groenland pourrait incarner un jalon stratégique analogue pour le XXIe siècle. Son positionnement géographique central, combiné à des infrastructures adaptées, en fait un pivot capable d’influencer non seulement le commerce arctique mais aussi les chaînes d’approvisionnement mondiales. La logistique y devient ainsi un vecteur de puissance, révélant comment la maîtrise des circulations matérielles et numériques redessine la hiérarchie des États dans un monde multipolaire.
Au-delà de la géographie et de l’économie, le Groenland illustre l’imbrication croissante entre technologie, environnement et stratégie. Les défis du climat arctique obligent à innover en matière d’infrastructures et de sécurité, tandis que l’histoire contemporaine rappelle que le contrôle de points névralgiques produit des effets durables sur l’équilibre global des échanges.
En ce sens, le Groenland ne peut être réduit à un territoire dont les riches ressources sont à portée de main, mais un laboratoire de la puissance logistique où sécurité, commerce et innovation convergent. À n’en point douter, son rôle futur devrait résonner comme une preuve supplémentaire que les flux – et ceux qui les organisent – façonnent en profondeur le nouvel ordre mondial.
Gilles Paché ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
23.01.2026 à 12:07
Thomas Ehrhard, Maitre de conférences, Université Paris-Panthéon-Assas
Deux motions de censure ont été déposées, le vendredi 23 janvier, en réponse à l’utilisation de l’article 49-3 par Sébastien Lecornu sur la partie recettes du budget. La promesse du premier ministre de ne pas faire usage de cet outil constitutionnel en négociant des compromis avec les groupes parlementaires a été rompue. Pourtant, il ne s’agit pas tant d’un échec de méthode que d’une conséquence d’un vice originel concernant la formation du gouvernement.
Malgré les promesses et les sentiments d’un premier ministre « un peu amer » d’avoir perdu le « pari », d’après ses propres mots, la tentation d’y voir un « échec de la « méthode Lecornu » est grande avec le retour du « 49-3 » sur la scène politique.
Cependant, les trois mois d’examen parlementaire ne soldent pas un échec de méthode, mais bien la conséquence logique d’un vice originel concernant la formation du gouvernement.
D’abord, le gouvernement est mal né avec un processus de nomination et de renomination improbable, ne s’appuyant sur aucune majorité gouvernementale, aucune majorité parlementaire, et aucune majorité partisane. Or, ce triptyque détermine la logique institutionnelle majoritaire du régime parlementaire de la Ve République.
Ensuite, conséquemment, le gouvernement aurait dû, comme dans les autres régimes parlementaires lorsqu’aucun parti ne dispose à lui seul d’un nombre de sièges majoritaire à la chambre basse, essayer de s’appuyer sur une coalition. Il n’en a rien été.
À lire aussi : Vu de l’étranger : comment choisir un premier ministre face à une Assemblée divisée ?
Or, en France comme à l’étranger, les compromis ne résultent pas de débats parlementaires dans lesquels des orateurs se convaincraient au terme d’argumentations faisant changer d’avis ceux qui les écoutent. Les compromis se font a priori, avant la nomination du gouvernement, et précisément en contractualisant les réformes, leurs contenus, et leur calendrier. Tous les autres pays (Allemagne, Belgique, Espagne, Pays-Bas, etc.) fonctionnent ainsi. Dans le contexte actuel, l’erreur initiale vient donc de la manière dont le premier ministre a été nommé, plaçant le gouvernement dans une position de faiblesse définitive.
Cet épisode budgétaire n’est donc qu’une énième péripétie dérisoire et prévisible, mais qui permet de comprendre certains des dérèglements et des lacunes de la vie politique et institutionnelle française.
Premièrement, il n’existe pas de « méthode Lecornu » : le gouvernement n’a ni dirigé les débats, ni gouverné le contenu du texte dont tous les acteurs disent avoir obtenu gains de cause (sauf LFI et RN), ni eu les moyens de l’ingéniosité du gouvernement Barnier qui s’est appuyé sur le Sénat pour être majoritaire en commission mixte paritaire. Au contraire, il a subi le calendrier, malgré ses tentatives répétées de dramatisation, subi les rivalités inter et intra-partisanes, malgré ses tentatives de dépolitiser le budget « pour la France ». Il a subi, enfin, les jeux parlementaires, malgré son étrange renoncement à l’article 49 alinéa 3 de la Constitution. Difficile d’y voir une nouvelle méthode de gouvernement, tant il s’agit là d’un acte d’impuissance.
Deuxièmement, un gouvernement ne peut pas dépendre d’un consentement renouvelé quotidiennement (« Gouverner, c’est prévoir ») et rempli de lignes rouges des députés et partis. Cela, dans un contexte majoritaire ou non, à un ou plusieurs partis. Les contrats de coalition servent justement à anticiper le contenu de la partition gouvernementale, et laissent au quotidien l’exécution de ce contrat. Ils sont négociés durement, pendant plusieurs mois, allongeant d’autant la période entre les résultats législatifs et la nomination du gouvernement : 18 mois en Belgique (2010), de 7 à 9 mois aux Pays-Bas (2017, 2021), 6 mois en Allemagne (2017), 4 mois en Espagne (2023). Cela n’est pas un problème démocratique mais la prise en compte de la fragmentation parlementaire à minorités multiples. Cela rappelle l’idée élémentaire selon laquelle, dans un régime parlementaire, le gouvernement doit être doté d’une légitimité avant de gouverner et d’exercer sa responsabilité.
Plus largement, cet épisode donne à voir les autres acteurs. Reconnaissons ainsi à Sébastien Lecornu que cette erreur n’est pas la sienne et qu’il importe finalement peu. Qui porte la responsabilité ?
Le président de la République et ses conseillers (ceux-là mêmes qui lui ont soufflé l’idée de dissoudre l’Assemblée nationale) portent la responsabilité de cette erreur. Elle remonte au lendemain des législatives de juillet 2024. Depuis lors, trois premiers ministres se sont succédé, tous nommés selon des calculs politiciens reposant sur des capacités supposées à obtenir l’abstention de LFI ou du RN, puis du PS ou de LR, en cas de motions de censure. Comme dans tous les autres régimes parlementaires, le chef du parti ayant remporté le plus de sièges aurait dû être appelé à tenter de former un gouvernement, puis en cas d’échec, le deuxième, etc. Un premier ministre n’aurait donc dû être nommé qu’après avoir construit une coalition au programme de gouvernement contractualisé, démontrant, de fait, une assise suffisante à l’Assemblée nationale.
Le Parlement, pris au piège par le gouvernement qui a tenté de le responsabiliser pour cacher son impuissance, dans une inversion malvenue des rôles, n’est pas devenu le gouvernement.
L’Assemblée nationale a confirmé que sa capacité à légiférer était compromise (contrairement à ce qu’ont pu affirmer certains commentateurs à propos d’un nouvel « âge d’or » du parlementarisme). On peut expliquer cette incapacité par la subordination de l’Assemblée en tant qu’institution mais aussi par son déclassement politique, lié au manque de poids politique des nouveaux députés depuis 2017.
Le Sénat a montré ses limites constitutionnelles. Autrement dit, la Seconde Chambre, doublement exclue des influences politiques et institutionnelles, n’a pas pu peser sur l’examen du projet de loi de finances et a donc travaillé vainement.
Cet épisode apporte des enseignements, de plus en plus flagrants depuis juillet 2024.
1) L’arithmétique de l’Assemblée nationale expose une double impasse. D’une part, le président de la République ne dispose plus d’une majorité parlementaire pour gouverner comme il l’a fait entre 2017 et 2022 : c’est la fin du « présidentialisme majoritaire » qui caractérisait jusqu’alors la Ve République. Mais, d’autre part, aucune majorité alternative ne s’est constituée autour du premier ministre, contrairement aux périodes de cohabitation (1986-1988, 1993-1995, 1997-2002), pour opérer un « retour au texte » de la Constitution – c’est-à-dire une lecture où le premier ministre gouverne effectivement.
Dès lors, toute discussion sur l’inadaptation supposée des règles de l’examen parlementaire des projets de loi de finances est malvenue. Elles attribuent les échecs du gouvernement et de l’Assemblée aux règles de procédure – comme l’a suggéré la présidente de l’Assemblée nationale Braun-Pivet – alors que les causes sont ailleurs. Le changement de procédure n’aurait pas conduit à un résultat différent. Les propositions de réformes (comme celles du Haut-Commissariat au plan) écartent le poids du contexte politique et, pis, relèvent d’une vision techniciste et d’un solutionnisme normatif dépassé.
2) Ni présidentialisme ni « retour au texte » de la Constitution : nous assistons à la fin des modèles connus de la Ve République. Dans ce contexte, les institutions ne sont « bien faites » pour personne (François Mitterrand déclarait en juillet 1981 : « Les institutions n’étaient pas faites à mon intention. Mais, elles sont bien faites pour moi. ») Un changement de texte (qui serait le 26ᵉ…) ou un nouveau mode de scrutin ne changerait ni les votes des Français, ni le populisme, ni le déclin des partis de gouvernement, ni les acteurs politiques. Le contexte de fragmentation appelle un nouveau modèle reposant sur la formation d’un gouvernement de coalition comme à l’étranger – ce que permet le texte de la Constitution aux lectures multiples.
3) Reste aux acteurs politiques à le penser et le mettre en œuvre. Mais, au regard des atermoiements du président de la République depuis 2022, des députés qui ont intériorisé leur incompétence à légiférer (comme l’illustrent les motions de rejet préalable de mai et juin 2025 utilisées pour contourner le débat à l’Assemblée nationale par des majorités de circonstance pourtant favorables aux textes), et des partis et candidats tournés vers la prochaine élection présidentielle comme sous la IVe République vers la prochaine crise institutionnelle, il n’est pas certain qu’ils y arrivent.
La séquence ouverte en 2017 a disrupté le système politique, sans construire. S’appuyant sur les institutions et le fait majoritaire jusqu’en 2022, Emmanuel Macron n’a pas su, depuis, instaurer un mode de fonctionnement adapté à l’absence de majorité. Faute d’avoir pensé un gouvernement par coalition négociée, le pouvoir exécutif s’épuise à chercher des majorités de circonstance et à attendre du Parlement ce qu’il ne peut pas faire. Tant que cette leçon ne sera pas tirée, il n’y aura pas de méthode – Lecornu ou autre. Les institutions en sortent abîmées ; LFI et RN : 25 sièges en 2017, 198 depuis 2024. In fine, la question n’est peut-être plus de savoir qui gouvernera, mais s’il sera encore possible de gouverner.
Thomas Ehrhard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.01.2026 à 17:24
Pascaline Thiollière, architecte (M'Arch), enseignante et chercheuse sur les ambiances et approches sensibles des espaces habités, Ecole d'architecture de Grenoble (ENSAG)

À bas bruit et hors de portée du marché du funéraire se développent des pratiques qui déplacent les morts et leur mémoire à l’extérieur des cimetières dans des espaces bien réels, au plus près des valeurs et des façons de vivre dont témoignaient les défunts de leur vivant.
Lorsque les espaces et les pratiques funéraires sont évoquées dans les médias ou dans le débat public français, c’est souvent aux approches des fêtes de la Toussaint, pour relater des évolutions en cours dans la gestion des funérailles et des cimetières, et pour mettre en lumière des services, objets, techniques ou technologies dites innovantes. Il était ces dernières années beaucoup question de l’écologisation des lieux et techniques funéraires (cimetière écologique, humusation/terramation, décarbonation des produits funéraires) et de la digitalisation du recueillement et de la mémoire (deadbots, gestion post-mortem des volontés et des données numériques, cimetières et mémoriaux virtuels, télétransmission des cérémonies). Mais discrètement, d’autres pratiques voient le jour.
Avec la crémation devenue majoritaire dans de nombreux territoires français, la dispersion des cendres dite « en pleine nature » se révèle très importante dans les souhaits et de plus en plus dans les faits. Pourtant, beaucoup méconnaissent le cadre légal et pratique de son application. Cet article dévoile les premiers éléments d’une enquête en cours sur ces pratiques discrètes qui témoignent d’une émancipation créative face à la tradition contraignante de la tombe et du cimetière.
Le cimetière paroissial du Moyen Âge qui plaçait la communauté des morts au plus près de l’église et de ses reliques, dans la promesse de son salut et de sa résurrection, était un espace multifonctionnel et central de la vie et de la ville.
Le cimetière de la modernité matérialiste et hygiéniste est déplacé dans les faubourgs, puis dans les périphéries de la ville et se marginalise petit à petit des fonctions urbaines. Il devient, comme le dit Foucault, « l’autre ville, où chaque famille possède sa noire demeure », puis s’efface dans l’étalement urbain du XXᵉ siècle.
À l’intérieur des murs d’enceinte qui deviennent souvent de simples clôtures, les aménagements pour gagner de la place se rationalisent, le mobilier d’un marché funéraire en voie d’industrialisation et de mondialisation se standardisent. Les morts y sont rangés pour des durées de concessions écourtées au fil des décennies, sous la pression d’une mortalité en hausse (génération des baby-boomers) et de la saturation de nombreux cimetières urbains.
Dans les enquêtes régulières sur « Les Français et les obsèques » du Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc), les Français montrent peu d’affection envers leurs cimetières qu’ils jugent trop souvent démesurés, froids et impersonnels. Alors qu’ils étaient encore 50 % en 2005, seulement un tiers des Français de plus de 40 ans continuent vingt ans plus tard à les fréquenter systématiquement à la Toussaint. Pour les Français de moins de 40 ans, ils sont encore moins souvent des lieux de sens et d’attachement.
Cette désaffection des cimetières, pour beaucoup synonymes d’enfermement tant matériel que mental, explique en partie l’essor de la crémation et de la dispersion des cendres. Les dimensions économiques et écologiques de ces options funéraires viennent renforcer cette tendance et s’exprime par la volonté de ne pas être un poids pour ses descendants (coût et soin des tombes) et/ou pour la planète (bilan carbone important de l’inhumation avec caveau et/ou monuments), et illustre la proposition de garder l’espace pour les vivants et le vivant.
La crémation était répandue en Europe avant sa christianisation et a même été conservée marginalement en périodes médiévales dans certaines cultures d’Europe du Nord. Elle se pratiquait sur des bûchers à foyer ouvert. Sa pratique, telle que nous la connaissons aujourd’hui en foyer fermé, a été rendue possible par la technique et l’essor du four industriel au XIXᵉ siècle, et par la plaidoirie des crématistes depuis la Révolution française jusqu’à la fin du XXᵉ siècle où la pratique va définitivement s’instituer.
Si les fragments calcinés étaient conservés communément dans des urnes, c’est avec l’apparition d’une autre technique industrielle dans le crématorium que la dispersion a pu être imaginée : la crémulation, c’est-à-dire la pulvérisation des fragments sortant du four, permettant d’obtenir une matière plus fine et moins volumineuse. Cette matière aseptisée par le feu et homogénéisée par le crémulateur peut alors rejoindre d’autres destinations que les urnes et le cimetière.
En 1976, un nouveau texte de loi insiste sur le fait que les cendres doivent être pulvérisées afin que des ossements ne puissent y subsister, effaçant ainsi ce qu’il restait de la forme d’un corps. Cette nouvelle matérialité peut alors se fondre discrètement dans nos lieux familiers, les morts se retrouvent inscrits dans nos paysages privilégiés, et leur souvenir cohabiter avec les activités récréatives et contemplatives qui prennent place dans les espaces naturels non aménagés.
Alors que de nombreux Français pensent cette pratique interdite, son cadre légal et la notion de « pleine nature » ont été précisés en 2008 et en 2009. Ce cadre relativement souple permet de disperser les cendres en de nombreux espaces publics (sauf sur la voie publique) à distance des habitations et zones aménagées (parcs naturels, forêts, rivières, mers éloignées des côtes), plus difficilement dans des espaces privés avec la contrainte d’obtenir l’accord du propriétaire d’un droit d’accès perpétuel, ce qui peut poser des difficultés au moment des ventes de biens.
La « pleine nature » correspond aujourd’hui à une proportion d’un quart à un tiers des destinations des cendres des défunts crématisés. À travers un appel à témoignages anonymes en ligne ouvert dans le cadre d’une recherche en cours depuis 2023, une cinquantaine de micro-récits de dispersion ont été rassemblés et constituent un premier corpus pour appréhender ces pratiques discrètes et peu documentées. Ces récits inédits révèlent l’émergence de nouvelles manières de rendre hommage aux défunts et de donner du sens à la mort et à la vie dans des mondes contemporains en crise.
Le milieu du funéraire et de l’accompagnement du deuil se montre réservé face à cette pratique donnant lieu à des sépultures labiles en proie aux éléments, sans traces tangibles identifiant les défunts et sans garantie de se transmettre au fil des générations, parfois difficilement accessibles, isolant ces morts des autres morts.
Faisant écho de craintes parfois avérées de rendre les deuils plus difficiles, les professionnels doivent pourtant reconnaître que malgré ces nouvelles contraintes et en en connaissant les impacts, une grande majorité de ceux qui ont opté pour la dispersion des cendres de leurs proches reconduiraient le choix de la dispersion. Celui-ci procure en effet pour beaucoup le sentiment de satisfaction d’une promesse tenue, car ces destinations en pleine nature sont le souhait des vivants et se déroulent par là même souvent sans conflit au sein de l’entourage des défunts, dans une ambiance de sérénité, d’un chagrin joyeux, dans les plis de paysages et de territoires intimes aux défunts et à leurs proches.
De manière assez naturelle découlent de ces gestes et territoires de dispersion des prises pour imaginer des suites, des revisites, des retrouvailles sous forme de balades discrètement ritualisées, de pique-niques et baignades mémorielles, des façons de reconfigurer et d’entretenir les liens avec les défunts dans ces territoires familiers.
La diversité des lieux, des configurations sensibles et des éléments en jeu dans les dispersions renouvelle les possibles en termes de gestes et d’actes d’hommage envers les défunts, lors de la dispersion comme après, imbriquant la mémoire du mort dans des souvenirs de moments de vie partagés.
Les mises en gestes de la dispersion partiellement décrites dans les témoignages et rejouées dans le collectif de chercheurs pour en révéler des parts implicites montrent aussi des moments de flottement, des maladresses, des surprises et des improvisations qui se dénouent souvent avec des rires. Ce sont autant de marges dans lesquelles peuvent s’engouffrer des marques de la singularité des personnes en jeu, manœuvrer avec audace les acteurs pour s’approprier ces moments importants et en faire des lieux d’individuation, un premier pas actif sur le chemin du deuil.
Avec la dispersion des cendres, le lieu de nos morts n'est plus l'espace autre, l’autre ville des noires demeures, mais l‘espace même qui accueille nos moments de vie, là où nos beaux souvenirs avec eux font gage d’éternité. La suite de l’enquête permettra d’affiner les contours et les potentialités de ces pratiques.
Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.
Pascaline Thiollière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.01.2026 à 16:08
Isabelle Guinaudeau, Chargée de recherches CNRS, Sciences Po
Emiliano Grossman, Professeur en Science politique, directeur du CDSP, Sciences Po
À chaque élection présidentielle, des promesses sont faites, suscitant l’espoir des citoyens, avant qu’ils ne soient déçus. Or l’analyse des mandats présidentiels entre 1995 et 2022 montre que le respect (ou le non-respect) des promesses de campagne n’a aucun impact mesurable sur la popularité des présidents. La dynamique espoir-déception est systématique. Comment expliquer ce phénomène ?
Dans une démocratie représentative, on s’attend à ce que les citoyens évaluent leurs dirigeants au moins en partie au regard du degré de réalisation de leurs promesses électorales. Cette idée, au cœur de la théorie du mandat démocratique, suppose que les citoyens approuvent davantage les gouvernants qui tiennent parole. Ce mécanisme doit à la fois inciter les élus à respecter leurs engagements et assurer que les élections orientent réellement l’action publique.
Mais en France, il semble grippé : la cote des présidents suit une courbe descendante quasi mécanique, insensible à la mise en œuvre de leurs promesses de campagne. Notre analyse des mandats présidentiels entre 1995 et 2022, croisant données de popularité mensuelle et suivi de 921 promesses électorales, révèle que la réalisation des engagements ne produit aucun effet mesurable sur l’approbation publique.
Les exécutifs se tiennent mieux à leur programme que beaucoup ne le pensent : le taux de réalisation (partielle ou complète) atteint près de 60 % en moyenne sur les cinq derniers mandats présidentiels. Emmanuel Macron, lors de son premier quinquennat, affiche un taux de réalisation supérieur à 70 %. François Hollande, Jacques Chirac (deuxième mandat) et Lionel Jospin (premier ministre en cohabitation) suivent de près. Nicolas Sarkozy affiche un taux de réalisation de 54 %, plus faible mais significatif, malgré une crise économique majeure. Jacques Chirac se démarque lors de son premier mandat par une proportion de promesses tenues comparativement faible (30 %). Ce faible taux reflète, d’une part, un désengagement rapide vis-à-vis de sa campagne sur la fracture sociale pour déployer une politique de rigueur budgétaire et, d’autre part, la période de cohabitation qui a fortement limité la capacité d’action du président.
Ces bilans non négligeables ne se traduisent pas dans les sondages : nos analyses ne mettent en évidence aucun effet statistiquement significatif des promesses réalisées sur la popularité présidentielle. Les courbes de popularité font plutôt ressortir une dynamique bien connue : une phase de « lune de miel » postélectorale, suivie d’un déclin régulier, parfois ponctué d’un léger rebond en fin de mandat.
Ce phénomène, appelé « cost of ruling » (ou « coût de gouverner »), reflète une usure du pouvoir que ni les promesses tenues ni les réformes menées à bien ne parviennent à enrayer.
Plusieurs facteurs expliquent ce décalage. D’abord, une certaine méconnaissance des programmes électoraux. Peu d’électeurs les lisent dans le détail ; moins encore suivent précisément leur mise en œuvre.
Les engagements les plus visibles – ceux qui marquent la campagne par leur degré d’ambition – ne sont pas les plus faciles à réaliser. Les promesses tenues, souvent d’ampleur moindre, passent souvent inaperçues, noyées dans le flot de l’actualité ou éclipsées par les polémiques.
La couverture médiatique accentue cette asymétrie. Les promesses rompues font la une, les promesses tenues n’attirent guère l’attention. Les conflits, les revers et les scandales sont plus vendeurs que le travail gouvernemental au long cours sur les promesses de campagne. Cette focalisation sur les échecs alimente une perception négative du pouvoir, même lorsque celui-ci agit conformément à ses engagements.
À cela s’ajoute la manière dont les citoyens interprètent l’action gouvernementale. Tous ne réagissent pas de la même façon à la réalisation d’une promesse. D’une part, les biais cognitifs jouent un rôle majeur : chacun lit l’actualité politique au prisme de ses préférences partisanes, de sa confiance dans les institutions ou de son humeur générale. Les soutiens de l’exécutif en place seront plus disposés à porter ses réalisations à son crédit.
D’autre part, les citoyens n’adhèrent pas tous à la même vision du mandat démocratique. Pour certains, l’élection donne mandat à l’exécutif pour tenir ses promesses ; pour d’autres, ces mesures peuvent rester intrinsèquement contestables, d’autant plus dans un système majoritaire où une partie des voix relève du vote « utile » ou de barrage plutôt que de l’adhésion.
Une promesse tenue suscitera donc souvent l’approbation des partisans, mais crispera les opposants. Ces réactions opposées annulent tout effet net sur la popularité.
Le cas français est particulièrement révélateur. La Ve République confère au président des pouvoirs beaucoup plus forts que dans d’autres régimes. Élu au suffrage universel direct, il concentre les attentes, incarne l’État, définit l’agenda et la ligne gouvernementale. Cette concentration du pouvoir est censée clarifier les responsabilités et lui donner la capacité de mettre en œuvre son programme. Mais elle se retourne contre lui en le rendant responsable de tout ce qui cristallise les insatisfactions et en démultipliant le cost of ruling.
Cette dynamique s’atténue en période de cohabitation, comme entre 1997 et 2002. Le président partage alors le pouvoir avec un premier ministre issu d’une autre majorité, ce qui brouille les responsabilités. Hors cohabitation, le président est seul en première ligne, cible de toutes les critiques et les insatisfactions et son capital politique s’épuise rapidement. En concentrant les attentes autant que les critiques, l’hyperprésidentialisation finit par miner la capacité d’action du président là où elle devait la renforcer.
Cette déconnexion entre promesses et popularité met à mal le modèle du « mandat » démocratique. La présidentielle concentre des attentes immenses : les candidats sont incités à incarner des visions d’alternance très ambitieuses et à promettre des transformations profondes. Sur le papier, cette élection devrait leur donner la légitimité nécessaire pour mettre en œuvre ce programme une fois au pouvoir.
Mais en pratique, ce mandat est fragile. Le capital politique tiré de l’élection s’érode très vite une fois passée la « lune de miel », réduisant les marges de manœuvre de l’exécutif et limitant sa fenêtre pour imprimer sa marque. Cela incite à se précipiter pour faire passer le plus rapidement possible un maximum de réformes, au risque de sembler passer en force. Mais l’exécutif peine à convertir l’élection en capacité durable d’action : ses réalisations n’alimentent ni sa popularité ni le sentiment qu’ont les électeurs d’être représentés. Que les promesses soient tenues ou non, beaucoup ont le sentiment de ne pas avoir été entendus.
Dans un paysage politique de plus en plus fragmenté et instable, il devient de plus en plus difficile de mettre en œuvre son programme (les promesses sont rarement réalisées au-delà de la deuxième année de mandat) et la frustration suscitée au regard des espoirs nourris par chaque élection présidentielle risque de se renforcer encore. Restaurer le lien entre élections, promesses et action publique suppose de sortir d’un modèle où le président est censé tout promettre, tout décider et tout assumer seul.
Il est temps de réfléchir à une forme de gouvernement plus collégial, où les responsabilités sont partagées et où un spectre plus inclusif de sensibilités peut s’exprimer. Une telle évolution permettrait non seulement de mieux répartir le crédit des accomplissements – les promesses tenues –, mais aussi le prix des défaites, dont l’inévitable coût de gouverner.
Cet article est tiré de l'ouvrage «French Democracy in Distress. Challenges and Opportunities in French Politics» (Palgrave Macmillan, 2025), sous la direction de Nonna Mayer et Frédéric Gonthier. Une conférence autour de cette publication est organisée à Sciences Po le jeudi 29 janvier 2026 à partir de 17h.
Isabelle Guinaudeau a reçu des financements de l'Agence nationale de la recherche (Projet ANR- 13-JSH1-0002-01, PARTIPOL, 2014-2018).
Emiliano Grossman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.01.2026 à 16:00
Djamchid Assadi, Professeur associé au département « Digital Management », Burgundy School of Business
Longtemps, les milieux d’affaires et religieux ont été, les uns comme les autres, des piliers du système iranien. Mais dès les années 1940, le clergé se politise et prend de plus en plus d’importance. L’avènement de la République islamique en 1979 entérine et accélère nettement ce processus : la Mosquée prend alors le pas sur le Bazar, réduit à un rôle subalterne. La défection observée dernièrement du Bazar vis-à-vis du pouvoir s’explique par des éléments conjoncturels ; mais, structurellement, elle était en germe depuis des décennies.
Pourquoi un allié historique, longtemps pilier d’un régime autoritaire, s’en désiste-t-il et contribue-t-il à sa fragilisation, voire à sa chute ?
Depuis Tocqueville jusqu’aux travaux contemporains sur les « piliers du pouvoir », une constante traverse l’histoire politique moderne : la stabilité d’un régime dépend moins de l’adhésion diffuse des foules que de l’obéissance de ses corps intermédiaires organisés. Lorsque ces soutiens cessent d’obéir, le pouvoir entre dans une zone de vulnérabilité structurelle.
Ce mécanisme s’observe dans des contextes variés, comme la rupture des forces armées portugaises avec le régime de Caetano en 1974, le désengagement des élites franquistes après 1975 : le basculement ne procède pas d’une mobilisation populaire isolée, mais de la désolidarisation d’acteurs institutionnels jusque-là intégrés à l’ordre autoritaire.
Le Grand Bazar de Téhéran illustre précisément ce mécanisme. Sa fermeture lors du soulèvement de janvier 2026 ne constitue ni l’origine ni le moteur principal de la contestation, mais son symptôme institutionnel le plus lisible. Elle signale le retrait d’un acteur longtemps arrimé à la jurisprudence religieuse – moins par conviction que parce qu’elle offrait un cadre normatif stable à ses échanges économiques. Si le mouvement iranien est national, porté par des groupes sociaux, professionnels et générationnels multiples, chacun mû par des motifs distincts, le désistement du bazar conserve une singularité claire : celle d’un acteur qui cesse d’assurer sa fonction d’amortisseur institutionnel entre société et pouvoir.
Pour en saisir la portée, il faut revenir à la mutualité séculaire entre le Bazar et la Mosquée. Cette relation ne reposait ni sur une fusion idéologique ni sur une subordination politique, mais sur une complémentarité fonctionnelle : le religieux garantissait les normes et arbitrages assurant la prévisibilité des échanges ; le marchand finançait le clergé et garantissait son indépendance vis-à-vis du pouvoir central. Cette autonomie réciproque constituait l’un des fondements de la stabilité sociale iranienne.
La révolution islamique de 1979 rompt cet équilibre. En assujettissant la Mosquée pour monopoliser le sacré, le nouveau pouvoir transforme une institution autonome en instrument de règne. La relation cesse d’être horizontale et devient médiatisée par un État idéologique. La grève de janvier 2026 ne peut donc être réduite à une réaction conjoncturelle à la cherté de la vie – même si celle-ci joue un rôle déclencheur. Elle révèle une rupture plus profonde, inscrite dans la longue durée, née de la transformation du rapport entre religion, économie et pouvoir depuis 1979.
La relation séculaire entre le Bazar et la Mosquée repose sur une division fonctionnelle du travail social. Avant toute politisation du clergé, cette relation est avant tout professionnelle. La jurisprudence islamique chiite (fiqh) agit depuis toujours, surtout depuis la dynastie des Safavides (1501-1722), comme un véritable « code de commerce » : elle encadre les contrats, arbitre les litiges et garantit la sécurité des échanges (Lambton, 1969). La Mosquée fonctionne ainsi comme un tiers de confiance indépendant, extérieur à l’État, assurant la prévisibilité de l’ordre marchand.
Les travaux empiriques de Keshavarzian (2009) confirment que cette relation repose sur des réseaux horizontaux de confiance et de coordination sociale, produits en dehors des structures étatiques, et non sur une loyauté idéologique. L’islam chiite non politisé valorise historiquement l’activité marchande, faisant du commerce une pratique socialement légitime et moralement encadrée. Cette alliance économico-religieuse constitue un fait sociologique structurant de longue durée (Abrahamian, 1982), dans lequel la religion ne gouverne pas l’économie mais en stabilise les règles.
Cette mutualité s’exprime politiquement dès le XIXe siècle. Lors de la crise du tabac (1891–1892), Bazar et Mosquée s’unissent contre une concession accordée par le pouvoir. La révolte du tabac, déclenchée en 1891 sous le règne de Nasser al-Din Chah, était une protestation massive contre la concession accordée par le gouvernement iranien à un ressortissant britannique pour le monopole du tabac. Cette mesure, perçue comme une violation de l’intérêt national et une intrusion étrangère, a été fortement dénoncée par le clergé chiite et les intellectuels, marquant un tournant dans la mobilisation politique moderne de l’Iran. Cette opposition ciblée à l’arbitraire étatique – plutôt qu’un projet théocratique (Keddie, 1966) – a jeté les bases d’un mouvement nationaliste sans ambitions politiques religieuses qui changera de cap plus tard pour soutenir la Révolution iranienne de 1979.
Le même schéma se retrouve durant la Révolution constitutionnelle (1905–1911), lorsque les grands commerçants financent les bast (sit-in de protestation) et les hijrat (exils protestataires, consistant généralement à quitter une ville pour exercer une pression politique) afin de soutenir l’instauration d’une mashrouteh – un État constitutionnel limitant le pouvoir monarchique, non un État islamique (Afary, 1996).
La modernisation des années 1920–1930 ne rompt pas immédiatement cet équilibre. Reza Shah (fondateur de la monarchie Pahlavi, à la tête du pays de 1925 à 1941) transforme progressivement le droit commercial religieux en droit civil, en extrayant les principes juridiques modernes du fiqh sans rupture frontale avec les institutions religieuses (Banani, 1961). Les sphères demeurent distinctes : le Bazar conserve sa fonction économique, la Mosquée son rôle normatif et social.
C’est précisément cette architecture fonctionnelle, fondée sur la séparation des rôles et l’autonomie réciproque, qui commence à se fissurer à partir des années 1940, et plus encore dans les années 1960, lorsqu’une partie du clergé se politise et remet en cause sa fonction traditionnelle de médiation.
La politisation de la Mosquée marque une rupture décisive dans l’histoire des relations entre religion, commerce et pouvoir en Iran. Elle met fin à la fonction du clergé comme tiers normatif indépendant et ouvre la voie à une instrumentalisation politique du religieux. Deux figures structurent ce basculement.
La première est Navab Safavi (1924–1956), fondateur des Fadaian·e Islam (« les Sacrifiés de l’islam » ou « les Fidèles prêts au sacrifice pour l’islam »). En prônant l’application coercitive de la charia et en légitimant l’assassinat politique, Navab Safai rompt avec le rôle historique du clergé chiite comme arbitre moral et juridique. Bien que marginal et rapidement réprimé, ce courant inaugure une conception militante et autoritaire du religieux, qui influencera durablement l’islamisme politique iranien (Rahnema, 1998).
La deuxième figure, l’ayatollah Ruhollah Khomeini, procède à une rupture structurelle. À partir de 1963, son opposition aux réformes de la « Révolution blanche » (un vaste programme de modernisation lancé par Mohammad Reza Chah, comprenant la réforme agraire, l’alphabétisation de masse, l’émancipation juridique des femmes, etc.) transforme la Mosquée en acteur politique central. Le clergé cesse alors d’être un garant des normes sociales et économiques ; il devient un instrument de mobilisation politique, puis, après 1979, un pilier constitutif de l’État idéologique.
Cette politisation rencontre un écho auprès d’une fraction du bazar dans un contexte de transformation rapide de l’économie iranienne. Durant les années 1960, la croissance atteint en moyenne 9 à 10 % par an, portée par la substitution des importations et l’industrialisation (Amuzegar, 1977). Ce processus marginalise les bazaris spécialisés dans le commerce extérieur, alimentant un mécontentement économique qui se mue en radicalisation politique partielle.
C’est dans ce contexte qu’émerge le Motalefeh (Parti de la coalition islamique), réseau de bazaris islamisés, qui joue un rôle clé dans la mobilisation révolutionnaire de 1978–1979 (Bakhash, 1984). Toutefois, cette alliance ne traduit pas un ralliement durable du bazar comme corps social. Le Motalefeh se transforme rapidement en élite intégrée à l’appareil d’État, utilisant son identité bazari pour administrer et contrôler le bazar plutôt que pour le représenter.
La politisation du religieux désorganise ainsi les réseaux traditionnels. La confiance horizontale fondée sur le fiqh est remplacée par une loyauté idéologique surveillée, médiatisée par l’État. En sortant la religion du domaine de la croyance volontaire et de la médiation sociale, le régime affaiblit sa capacité à structurer durablement les relations économiques, préparant les conditions du désistement ultérieur du bazar.
Le régime islamique issu de la révolution de 1979 opère une double transformation structurante. D’une part, il place le clergé et la mosquée sous l’autorité du velayat·e faqih – le principe de « tutelle du juriste‑théologien », qui confère au guide suprême un pouvoir politique et religieux supérieur à toutes les autres institutions ; d’autre part, il étatiste une large part du secteur privé, redistribuant entreprises, licences et monopoles d’import-export à ses fidèles. Les frères Asgaroladi incarnent ce capitalisme de connivence adossé à l’État révolutionnaire. Issus du bazar traditionnel, ils deviennent des hommes d’affaires ultra‑puissants grâce à leur proximité avec le régime, obtenant monopoles, licences et positions clés dans les fondations para‑étatiques – une illustration emblématique du capitalisme de connivence né après 1979.
Cette mutation rompt l’équilibre historique : la Mosquée perd son autonomie institutionnelle, tandis que le Bazar devient un bénéficiaire rentier dépendant de l’État. Tant que la rente pétrolière permet de financer ce clientélisme, le système fonctionne de manière précaire mais durable.
Toutefois, ce modèle ne repose jamais sur une représentation collective du Bazar. Le régime privilégie des relations personnelles et sélectives, substituant au profit marchand l’accès à des licences d’importation. Ce mécanisme devient fatal lorsque les sanctions internationales privent l’État de devises. Exclu des circuits financiers internationaux, le régime perd son principal levier de contrôle économique.
L’économie entre alors dans une spirale inflationniste : inflation supérieure à 42 %, effondrement du rial, chute rapide du pouvoir d’achat. Pour les bazaris, dont l’activité repose sur l’anticipation, cette instabilité rend le calcul économique impossible. Comme l’avait montré Hayek (1945), la désorganisation du système des prix détruit la rationalité des décisions économiques.
Cette crise s’accompagne d’une fragmentation institutionnelle entretenue : division des chambres de commerce, bureaucratisation du clergé, marginalisation des mosquées comme instances d’arbitrage. La rupture de janvier 2026 résulte ainsi d’une double faillite : celle d’un État rentier incapable de tenir ses promesses, et celle d’une Mosquée assujettie ayant cessé de jouer son rôle historique.
Le cas iranien montre que le désistement d’un allié stratégique ne relève ni d’un sursaut moral ni d’une rupture idéologique soudaine, mais de l’effondrement progressif des mécanismes institutionnels qui rendaient l’obéissance rationnelle.
En janvier 2026, le Grand Bazar ne se retire pas seulement d’un État en crise économique. Il se désengage d’un ordre politique qui a détruit les conditions mêmes de la loyauté. En assujettissant la Mosquée, la République islamique a rompu la mutualité fonctionnelle entre religion et économie, privant le bazar des cadres normatifs stables indispensables à son activité.
Ce désistement ne traduit pas un rejet de la foi, mais le refus d’une religion devenue autoritaire, bureaucratisée et imprévisible. En neutralisant les corps intermédiaires qui assuraient la coordination sociale, l’État a remplacé la confiance horizontale par une loyauté contrainte, tolérée tant qu’elle restait matériellement soutenable.
Comme l’avait montré Raymond Aron, un régime autoritaire devient vulnérable lorsqu’il perd l’obéissance de ses soutiens structurants. Le désistement du Bazar révèle ainsi une fragilisation systémique. Lorsque l’État détruit simultanément la prévisibilité économique et les institutions sociales qui rendaient l’obéissance rationnelle, il ouvre une zone d’incertitude historique dont l’issue dépend moins de la rue que de la capacité – ou non – à reconstruire une alternative institutionnelle crédible.
Djamchid Assadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.01.2026 à 15:59
Aurélie Maurice, Maîtresse de conférences en Sciences de l'Éducation et de la Formation, Université Sorbonne Paris Nord
Se nourrir est un acte complexe, croisant psychologie, culture et physiologie. Dès lors, comment s’y prendre, en tant que parent ou éducateur, pour aider les enfants à former leur goût et élargir leur répertoire alimentaire ? La recherche donne quelques pistes pour mieux tenir compte de la place des émotions dans le rapport à la nourriture.
L’éducation à l’alimentation des jeunes est au cœur des politiques publiques : elle est l’un des objectifs du Programme national nutrition santé (PNNS) et l’un des axes du Programme national pour l’alimentation (PNA). De plus, un Vademecum sur l’éducation à l’alimentation et au goût a récemment émané de l’éducation nationale. Plusieurs membres de l’Assemblée nationale organisent aussi depuis quelques années des « états généraux » sur le sujet.
Les derniers états généraux d’octobre 2025 ont conduit à une proposition de loi d’expérimentation pour l’instauration d’un enseignement d’éducation à l’alimentation obligatoire à l’école.
À lire aussi : Comment peut-on repenser l’éducation à l’alimentation ?
Alors que l’éducation à l’alimentation s’est longtemps heurtée à des limites, notamment face aux inégalités sociales de santé, de nouvelles approches apparaissent : citons l’approche tridimensionnelle qui intègre les dimensions « nutritionnelle », « psycho-sensorielle et comportementale » et « socio-environnementale ». L’approche hédonique, elle, privilégie le plaisir alimentaire avec trois leviers d’actions : l’exposition sensorielle répétée aux aliments, les interactions sociales lors des prises alimentaires et les croyances sur les aliments.
Si ces démarches mettent en avant l’importance des émotions, comment, concrètement, les prendre en compte au quotidien, lors de repas ou de séances de découverte, que l’on soit parent, acteur ou actrice de l’éducation ?
S’alimenter est un acte complexe, car multidimensionnel : physiologie, sociabilité, identité culturelle et psychologie s’entremêlent. S’alimenter, c’est aussi ressentir toute une palette d’émotions : la joie, le dégoût, la peur… Celles-ci sont pour l’instant peu prises en compte globalement dans les séances d’éducation à l’alimentation. C’est le cas néanmoins dans l’éducation au goût, qui cherche à reconnecter les jeunes avec leurs sens.
Marie Jaunet, Sylvie Delaroche-Houot et moi-même avons mené une revue de la littérature scientifique afin d’explorer comment les émotions peuvent être mobilisées dans le champ de l’éducation à l’alimentation et quels en sont les bénéfices. Cette revue a été effectuée sur 30 articles publiés entre 2005 et 2022, dont 90 % en anglais, provenant principalement d’Amérique du Nord et d’Europe occidentale.
Cette revue montre que les émotions des jeunes sont bel et bien à prendre en compte, et ce, pour plusieurs raisons. Tout d’abord, il apparaît que la composition nutritionnelle des aliments a un impact sur ces émotions. Un repas suffisamment varié et correspondant bien aux besoins nutritionnels des enfants diminuerait les émotions négatives, comme la tristesse ou l’anxiété.
Ensuite, l’importance d’être attentif à ses cinq sens quand on se nourrit est soulignée, notamment, par des études sur l’alimentation consciente chez les enfants. Créer un environnement positif pendant les repas, c’est-à-dire faire du moment du repas un moment joyeux, ludique et apaisant, favorise une prise alimentaire diversifiée et en quantité suffisante de la part des enfants. Cette attention portée à la qualité de l’ambiance des repas est d’autant plus bénéfique qu’elle est travaillée tant à la maison qu’à l’école.
En obligeant les enfants à finir leurs assiettes, ou en se servant de l’alimentation comme d’une récompense ou d’un élément de chantage, certains parents peuvent favoriser le développement d’une « alimentation émotionnelle » chez leurs enfants. Cela peut conduire à un surpoids à moyen et long terme.
Un groupe d’experts est arrivé à une classification des styles éducatifs parentaux sur l’alimentation qui en distingue trois types : coercitif (fondé sur la pression, les menaces et les récompenses), structuré (donnant des règles qui encadrent les prises alimentaires) et favorisant l’autonomie (donnant les clés à l’enfant pour qu’il fasse ses propres choix, dans un climat d’amour inconditionnel).
Ces trois grandes catégories conduisent à des états émotionnels très différents, allant de la peur à la joie, et à des pratiques alimentaires enfantines très contrastées (se cacher pour manger des aliments interdits, se restreindre de manière autonome).
Le repas familial peut être un moment propice au partage et à l’écoute des émotions de l’enfant. Aux États-Unis apparaît depuis plusieurs décennies un terme, « parent responsiveness », qui pourrait être traduit par « réactivité parentale », à savoir une attitude empathique des parents, apportant une réponse adaptée aux émotions exprimées par leurs enfants et aux besoins sous-jacents.
Plusieurs chercheurs ont proposé d’adapter ce concept à l’alimentation, et parlent de « responsive feeding » ou « réactivité alimentaire ». Il s’agit de soigner le temps du repas, d’en faire un moment pendant lequel l’enfant se sent à l’aise et en confiance. Le parent cherche à être attentif aux sensations de faim et de satiété de son enfant, à lui répondre rapidement, de façon appropriée, en fonction de l’émotion qu’il exprime et de son stade de développement.
Enfin, les articles étudiés dans la revue de littérature font état de plusieurs outils conçus pour aider les enfants à s’exprimer autour de l’alimentation et à nommer leurs émotions.
Cette revue montre qu’il faut prendre en compte les différentes dimensions de l’acte alimentaire, tel que l’environnement dans lequel l’aliment est consommé. Un climat bienveillant et joyeux apparaît plus propice aux nouvelles expériences gustatives, alors que, si l’enfant se sent contraint, voire angoissé, les conditions ne sont pas réunies pour qu’il découvre de nouveaux aliments ou accepte de manger des légumes, par exemple.
La politique publique des mille premiers jours de l’enfant recommande des activités conjointes parents/enfant, sources d’émotions positives dans lesquelles l’alimentation a toute sa place. Il apparaît donc que la formation tant des parents que des enseignants, des personnels du périscolaire et des autres professionnels éducateurs est essentielle pour développer la capacité d’autorégulation et d’ouverture des jeunes dans leur alimentation.
Le projet Enfants Récepteurs et Messagers pour l'Éducation à la Santé – ERMES est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Aurélie Maurice a reçu des financements de l'ANR et de l'ARS Ile-de-France pour le projet ERMES qu'elle coordonne.
22.01.2026 à 15:56
Carol Madden-Lombardi, Chargée de recherche, Université Bourgogne Europe
Florent Lebon, Professeur des Universités en Neurosciences cognitives et comportementales, Université Claude Bernard Lyon 1
Les « actions cachées » engagent des régions cérébrales liées à la motricité alors qu’on reste immobile. Cette plasticité des neurones, qui renforce les liens entre le cerveau et les muscles, n’a pas encore livré tous ses secrets. Mais ces processus cognitifs pourraient, dans le futur, se révéler précieux pour optimiser des gestes sportifs ou encore favoriser la rééducation après une blessure.
En bout de piste, un sauteur en longueur se prépare pour son dernier essai. La médaille est en jeu. Avant de s’élancer, il répète mentalement sa course d’élan, les premières foulées, l’accélération, l’impulsion et la réception dans le sable. Il rouvre les yeux, et c’est parti !
Une jeune joueuse de volley-ball assiste à un match de son équipe préférée. Elle observe la posture des joueuses en attaque et en défense, la manière dont elles se déplacent. Elle comprend la tactique annoncée et s’attend à ce que son équipe marque. Elle apprend en observant !
L’être humain possède l’extraordinaire capacité d’imaginer ses propres mouvements, de comprendre les actions d’autrui par la simple observation, ou encore de communiquer et transmettre ses actions par l’écriture et la lecture.
Tous ces processus cognitifs engagent des régions cérébrales liées à la motricité, alors même que l’on ne bouge pas. Ils peuvent être identifiés sous le terme d’« actions cachées ». Même si on est immobile, certaines parties de notre cerveau, normalement actives pendant nos actions, le sont également pendant les actions cachées, telles que l’imagerie motrice, l’observation d’action ou encore le langage d’action.
L’imagerie motrice correspond au fait de se représenter mentalement, de façon consciente, un mouvement, sans l’exécuter physiquement. Les modalités basées sur les sens permettent de se représenter une action. Les deux principales sont le visuel (« se voir » en train de faire l’action) et le kinesthésique (« ressentir » les sensations associées au mouvement). L’observation d’action, elle, consiste à sélectionner les informations pertinentes d’une action en train de se réaliser, et d’en comprendre les intentions.
Enfin, dans ce contexte, le langage d’action fait référence à la lecture, silencieuse ou non, de verbes évoquant une action, tels que « serrer », « prendre », « sauter ». Ces verbes isolés peuvent être enrichis par un contexte (« je vois une orange sur la table, je la prends ») afin d’activer d’autant plus le système moteur lié à cette action.
Les outils technologiques actuels nous permettent de « voir » à l’intérieur de notre cerveau. On parle alors d’imagerie par résonance magnétique (IRM) ou de stimulation magnétique transcrânienne (TMS).
Rappelons qu’une grande étape dans la compréhension des actions cachées a été la découverte des neurones miroirs. Une équipe italienne, menée par Rizzolatti, a enregistrée dans le cerveau de singes, l’activité de neurones qui déchargeaient non seulement lorsque le singe exécutait une action de préhension d’un objet, mais aussi lorsqu’il observait l’expérimentateur saisir cet objet – une découverte accidentelle mais révolutionnaire.
Les actions cachées activent ainsi un réseau complexe au sein du cerveau, montrant l’interaction entre plusieurs régions, telles que le cortex moteur primaire (de là où partent nos commandes motrices), le cortex occipital (là où sont traitées les informations visuelles) ou encore le cortex pariétal (là où sont traitées les informations sensorielles).
La majorité des personnes peuvent ainsi recréer mentalement leur dernier lieu de vacances au soleil, avec plus ou moins de détails, et s’imaginer courir sur la plage (pour exception, voir l’article sur l’aphantasie).
On dit alors que les processus cognitifs associés à nos actions sont incarnés dans notre cerveau (théories de la cognition incarnée). Il n’est pas nécessaire de bouger pour activer le réseau de la motricité. La simulation mentale nous permettrait de planifier nos propres actions, de comprendre les actions d’autrui, de juger les conséquences des actions ou encore de comprendre plus facilement un récit impliquant des actions.
Même si cette simulation n’est pas explicite (c’est-à-dire qu’on ne crée pas volontairement d’images dans notre tête, et on n’en est peut-être même pas conscient), elle optimiserait notre imagerie et la compréhension des actions (par l’observation et le langage).
Ces différents types d’actions cachées peuvent être utilisées de manière très pratique pour apprendre un nouveau morceau de musique, optimiser son geste sportif ou encore récupérer à la suite d’une blessure ou d’une pathologie, sans risquer d’accident ni de fatigue.
Une des études pionnières est celle de Yue et Cole, en 1992. Par le simple fait d’imaginer des contractions de la main, tel un entraînement à raison de quatre séances par semaine pendant quatre semaines, les participants ont réussi à augmenter leur force de 22 %. La plasticité cérébrale rentre en jeu pour renforcer les réseaux neuronaux normalement impliqués dans l’action. Plus je répète mentalement, plus j’entraîne mon cerveau : je renforce les liens entre le cerveau et les muscles.
Se représenter mentalement des mouvements peut également améliorer d’autres capacités, comportementale ou cognitive. Une récente étude montre qu’imaginer des actions simples (écrire, lancer, remplir une tasse, etc.) peut améliorer la performance à des tâches de compréhension du langage, en facilitation l’accès lexico-sémantique.
À l’heure actuelle, les chercheurs s’attachent à mieux comprendre les liens entre les différents types d’actions cachées et à optimiser leur utilisation. Dans des études encore en cours, ils testent, par exemple, la combinaison de ces actions cachées dans le but de favoriser d’autant plus l’apprentissage et la rééducation. Il est possible de combiner l’observation d’un adversaire au tennis et d’imaginer le coup approprié pour gagner le point. Ou bien il est envisageable de lire des verbes d’actions avant d’imaginer un mouvement de force pour en booster les effets.
L’enjeu est alors de trouver le bon dosage entre les différentes pratiques, pour éviter la fatigue mentale, tout en observant des effets positifs.
Il est à noter que ces différents types d’actions cachées restent distincts. Ils restent encore des zones d’ombre pour comprendre leur interaction potentielle et favoriser ainsi leur utilisation seule ou combinée.
Le cerveau a encore des choses à nous dévoiler.
Les projets « Interaction entre Langage et Imagerie motrice pour améliorer l’apprentissage moteur et la compréhension du langage » – LAMI – (ANR-22-CE28-0026) et « Explorer les marqueurs neuronaux et fonctionnels des actions cachées à travers le prisme de la phantasie » – COVACT – (ANR-25-CE28-5517) sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.
Carol Madden-Lombardi a reçu des financements pour des projets sur ce thème de recherche par l’Agence nationale de la recherche.
Florent Lebon a reçu des financements de l'agence nationale de la recherche.
22.01.2026 à 15:56
Édouard Delruelle, Professeur de Philosophie politique, Université de Liège
Dans le cadre de notre émission consacrée à la défense de la liberté académique, diffusée vendredi 23 janvier, nous publions cet article initialement paru dans le Quinzième jour, le quadrimestriel de l’Université de Liège. Édouard Delruelle y développe un plaidoyer en faveur de l’inscription de la liberté académique dans la Constitution belge comme une étape pour ouvrir un débat démocratique sur le sujet.
En septembre dernier, l’Université de Berkeley, temple historique de la liberté de pensée, a accepté de livrer à l’administration Trump une liste d’étudiants et de professeurs suspectés d’« antisémitisme » en raison de leur engagement en faveur de la cause palestinienne.
Dans cette liste figure la philosophe Judith Butler, docteure honoris causa de l’université de Liège. Qui aurait imaginé, il y a un an à peine, que les universités les plus performantes et les plus prestigieuses au monde seraient l’objet d’attaques aussi violentes de la part du pouvoir politique, et qu’elles céderaient si prestement à ses intimidations et injonctions ? Que des programmes de recherche essentiels pour l’avenir de l’humanité dans les domaines de la santé ou du climat seraient démantelés ? Que les chercheurs en sciences humaines et sociales devraient bannir de leur vocabulaire des termes tels que diversité, égalité, inclusion ?
Pourtant, nous avions tort de penser que ces atteintes brutales à la liberté académique ne pouvaient avoir cours que dans les régimes autoritaires. Cela fait plusieurs années que l’Academic Freedom Index enregistre une dégradation de la liberté académique en Europe. Intrusion du management dans la gouvernance universitaire, culture de la « post-vérité » sur les réseaux sociaux, ciblage d’intellectuels critiques par l’extrême droite, stigmatisation d’un prétendu « wokisme » que propageraient les études de genre, décoloniales ou LGBTQIA+ : ces offensives ne sont pas neuves, et elles touchent aussi la Belgique.
Mais un coup d’accélérateur a indéniablement été donné en 2025, avec les coupes budgétaires dans la recherche décidées par le gouvernement de la Fédération Wallonie-Bruxelles, une réforme drastique des retraites des Académiques, avant d’autres mesures annoncées sur le précompte chercheur ou le statut de fonctionnaire. Les mouvements Stand Up for Science au niveau mondial, ou « Université en Colère » chez nous, témoignent de l’inquiétude de la communauté universitaire face aux menaces qui pèsent sur la liberté académique.
Ces menaces sont multiples. On peut schématiquement en identifier quatre :
les menaces politiques provenant de gouvernements et de mouvements politiques déterminés à contrôler idéologiquement la production et la diffusion des connaissances ;
celles que font peser sur la science la logique économique de marché
– rentabilité, compétitivité, privatisation de la recherche, avec comme conséquences, entre autres, la précarisation grandissante des chercheurs et le découplage de l’excellence scientifique et de la liberté académique ;
l’emprise des technologies du numérique et leur l’impact sur la propriété intellectuelle, l’autonomie pédagogique, l’esprit critique ou la créativité (fake news, IA mobilisée à des fins de propagande, intrusion des réseaux sociaux dans les débats académiques, etc.) ;
la propagation d’un « sciento-populisme » au sein d’une opinion publique de plus en plus polarisée et critique à l’égard des élites (intellectuelles, judiciaires, journalistiques, etc.).
Ces menaces se conjuguent le plus souvent : la censure politique d’un Trump s’exerce par la pression économique, la Tech numérique délégitime la science auprès des internautes, les impératifs financiers justifient la mise au ban des savoirs critiques. Aucun domaine de recherche n’est épargné : les sciences humaines et sociales sont attaquées en raison de leur prétendue dangerosité idéologique ou de leur inutilité économique présumée mais les STEM (sciences, technologie, ingénierie, mathématiques) sont aussi menacées d’être instrumentalisées comme simples vecteurs de puissance géopolitique, comme c’est déjà le cas en Russie ou en Chine.
La recherche scientifique évolue dorénavant dans un « warscape », c’est-à-dire un espace traversé par la violence politique, sociale et économique, et où les rapports de pouvoir et de savoir sont complètement reconfigurés. Trois modalités de ces rapports se dégagent :
la guerre contre la science menée par ceux qui veulent la destruction de l’autonomie des universités et de la libre recherche (en même temps que celle de la démocratie) ;
la guerre dans la science, du fait des fractures au sein de la communauté universitaire elle-même autour de questions controversées telles que le colonialisme, le conflit israélo-palestinien, le transgenrisme, etc. ;
la science face à la guerre, qui soulève la question des collaborations « à risques », notamment avec l’industrie de l’armement ou avec des partenaires internationaux potentiellement impliqués dans des violations du droit humanitaire – question très polarisante, comme l’a montré à l’ULiège la polémique autour de la chaire Thalès.
C’est dans cette perspective que la liberté académique, j’en suis convaincu, doit être défendue et protégée, non par corporatisme, mais parce qu’elle est la condition de tout développement scientifique comme de tout État de droit et de toute démocratie.
Telle est aussi la conclusion du remarquable rapport publié récemment par Sophie Balme pour France Universités, qui propose une “stratégie globale” de renforcement de la liberté académique en 65 propositions. Comment créer une véritable culture professionnelle, politique et surtout citoyenne autour de la liberté de recherche et d’enseignement ? Une culture citoyenne surtout, car l’une des raisons pour lesquelles Trump peut attaquer si brutalement les universités est l’hostilité d’une grande partie de l’opinion publique américaine à l’égard d’un monde universitaire jugé arrogant, coupé des réalités et entretenant un système de reproduction sociale financièrement inaccessible au plus grand nombre. Nous devons éviter de nous retrouver dans cette situation.
La première des 65 propositions de Sophie Balme est d’inscrire la liberté académique dans la Constitution française. Pourquoi pas aussi en Belgique, qui suivrait ainsi l’exemple de l’Italie ou de l’Allemagne (dont on sait quelles tragédies historiques ont été à l’origine de leurs constitutions d’après-guerre) ? Ouvrons le débat.
Certains constitutionnalistes objecteront que si la liberté académique ne figure pas formellement dans le texte constitutionnel, elle est néanmoins explicitement reconnue par la jurisprudence de la Cour constitutionnelle et de la Cour européenne des droits de l’Homme, et qu’elle est en outre consacrée par la Charte des droits fondamentaux de l’Union européenne, un texte qui est au sommet de la pyramide normative et d’application directe dans notre droit national. D’un point de vue juridique, ma proposition serait comme un coup d’épée dans l’eau. On répondra toutefois que presque toutes les libertés fondamentales sont dupliquées aux deux niveaux normatifs, européen et national, ce qui renforce leur effectivité juridique et leur portée symbolique.
Mais surtout, le processus politique de révision de la Constitution qu’il faudra parcourir serait l’occasion d’une large mobilisation du monde académique et, espérons-le, de la société civile, et d’un débat démocratique autour de la liberté de recherche et d’enseignement. Ce débat obligerait les partis politiques à se positionner et à en tirer les conséquences sur les plans programmatique et législatif. Et il représenterait une belle opportunité de solidarité et d’échange entre acteurs et actrices de la recherche au nord et au sud du pays.
Ce débat serait surtout l’occasion de s’interroger sur la spécificité et la complexité de la liberté académique. Spécificité par rapport à la liberté d’expression, dont jouit tout citoyen et qui l’autorise à dire ce qu’il veut (hors des atteintes à la loi), y compris des choses idiotes et insignifiantes – ce dont un grand nombre ne se prive pas. Tandis que la liberté académique est un outil au service d’une finalité qui dépasse son bénéficiaire : la recherche de la vérité sans contraintes (une belle définition du philosophe Paul Ricœur sa « Préface » à Conceptions de l’université de J. Drèze et J. Debelle. Une finalité qui nous impose des devoirs (à commencer par celui de nous soumettre au jugement de nos pairs).
Complexité ensuite de la liberté académique, qui est multidimensionnelle, comme en témoignent les cinq critères utilisés par l’Academic Freedom Index : la liberté de recherche et d’enseignement, la liberté de collaborer, d’échanger et de diffuser les données et les connaissances, l’autonomie institutionnelle des universités, l’intégrité du campus à l’égard des forces de l’ordre mais aussi des groupes militants violents et enfin la liberté d’expression académique et culturelle, y compris sur des questions politiques ou sociétales.
De vrais enjeux se posent quant aux limites de chacune de ces libertés, et aux tensions qui peuvent exister entre elles, en particulier entre la liberté académique individuelle et l’autonomie des universités. Car pour garantir celle-là, celles-ci ne doivent-elles pas s’astreindre à une certaine « réserve institutionnelle » (un terme plus approprié que « neutralité ») sur les questions politiques ? Je le crois ; mais cette « réserve » est-elle encore de mise face à des violations caractérisées du droit international et du droit humanitaire ? C’est toute la complexité du débat autour des collaborations avec les universités israéliennes…
Comment faire de nos universités des espaces à la fois ouverts sur le monde et préservés de la violence qu’il engendre ? Des espaces de résistance à l’obscurantisme abyssal qui gangrène nos sociétés, de nuance contre les simplismes idéologiques, de responsabilité à l’égard des immenses défis environnementaux, sociaux, géopolitiques dont dépend l’avenir de l’humanité ? Ce qui arrive aujourd’hui au monde de la recherche doit faire réfléchir chacun d’entre nous sur son ethos académique, sur le mode de subjectivation qu’implique un exercice sans réserve mais responsable de la liberté académique. Mais cette réflexion doit aussi être collective, autour d’un objectif mobilisateur. C’est ce que je propose.
La liberté académique dans la Constitution, ce n’est donc pas figer dans le marbre une vérité révélée, mais au contraire ouvrir le débat sur une liberté essentielle mais menacée, qui regarde tant les acteurs de la recherche que les citoyens qui en sont les destinataires finaux. Ce n’est pas non plus cantonner le débat au niveau belge, mais créer l’opportunité d’un mouvement à l’échelon européen, afin que la recherche y préserve son autonomie à l’heure où, en Chine et aux États-Unis (et ailleurs), elle est désormais sous contrôle politique. Sophie Balme propose ici aussi des pistes d’action pour l’Union européenne, en termes d’investissements mais aussi d’outils concrets de mesure et de promotion de la liberté académique. Et bien sûr, nous devons continuer à manifester notre solidarité envers les chercheurs inquiétés ou opprimés partout dans le monde.
Pour atteindre ces objectifs, je suggère une double stratégie, par « en haut » et par « en bas ». D’un côté, un engagement des rectrices et des recteurs du nord et du sud (via le CREF – Conseil des rectrices et recteurs francophones – et le VLIR – Vlaamse interuniversitaire raad), en nouant aussi des alliances par-delà les frontières. L’ULiège pourrait être le moteur d’un tel engagement, par la voix de la rectrice Anne-Sophie Nyssen. De l’autre côté, une mobilisation de nous tous, acteurs et actrices de la recherche, envers le monde politique et la société civile – une mobilisation qui prendrait la forme de pétitions, de colloques, de forums, mais aussi de production de savoirs qui manquent cruellement dans le domaine francophone (Notons malgré tout l’Observatoire des atteintes à la liberté académique).
En tous cas, il est grand temps d’agir si nous ne voulons pas plier demain, à notre tour, devant les apprentis Trump qui pullulent autour de nous.
Édouard Delruelle a reçu des financements du FNRS (Belgique) et de l'Université de Liège
22.01.2026 à 15:55
Basak Bayramoglu, Directrice de recherche, Inrae
Jean-François Jacques, Professeur des Universités, Université Gustave Eiffel
Julie Lochard, Professeure des Universités en Économie, Université Paris-Est Créteil Val de Marne (UPEC)
En théorie, le montant de l’aide au développement versé à tel ou tel pays ne devrait pas dépendre de sa contribution aux chaînes de valeur mondiales. Dans les faits, pourtant, on observe que les pays donateurs ont tendance à privilégier, quand ils aident financièrement des pays pauvres, ceux qui sont utiles à leur propre production…
Pourquoi certains pays reçoivent-ils davantage d’aide au développement que d’autres alors que leurs besoins sont comparables ? Les chercheurs s’interrogent sur cette question depuis des décennies. Nous savons déjà que les motivations des donateurs ne sont pas uniquement altruistes : elles incluent des considérations diplomatiques ou commerciales par exemple.
Dans un article récent, nous montrons que les chaînes de valeur mondiales — ces réseaux internationaux où les biens sont produits en plusieurs étapes dans différents pays — créent de nouvelles interdépendances entre pays et influencent l’allocation de l’aide.
Depuis les années 1990, la production mondiale s’est largement fragmentée : composants électroniques, pièces automobiles, produits agricoles transformés… une multitude d’étapes de production sont désormais dispersées entre plusieurs pays. Les échanges liés à cette organisation de la production mondiale en chaînes de valeur représentent environ 50 % du commerce mondial.
Notre analyse empirique montre que les pays donateurs accordent davantage d’aide aux pays qui fournissent des biens intermédiaires utilisés dans leur production destinée à l’exportation. Autrement dit, l’aide n’est pas uniquement destinée aux pays dont les besoins sont les plus importants : elle se dirige aussi vers ceux qui occupent des positions clés dans les chaînes de valeur mondiales.
Les exportations des pays récipiendaires de l’aide jouent un rôle particulièrement important dans les secteurs caractérisés par des biens intermédiaires différenciés, difficiles à substituer : équipements électriques et machines, transport et pièces automobiles, industrie agroalimentaire. Les pays produisant ce type de biens reçoivent davantage d’aide, toutes choses égales par ailleurs. Ce résultat complète d’autres recherches montrant que les réserves en pétrole des pays récipiendaires influencent également l’allocation de l’aide.
Nous observons aussi une hétérogénéité importante entre pays donateurs déjà mise en avant dans d’autres travaux : les grands pays exportateurs (France, Allemagne, Japon, Royaume-Uni, États-Unis, notamment) semblent allouer l’aide de manière plus stratégique, tandis que les pays considérés traditionnellement comme plus « altruistes » (Pays-Bas, Danemark, Suède…) semblent moins sensibles au fait que le pays récipiendaire soit exportateur de biens intermédiaires spécifiques.
Pour comprendre ces résultats, nous proposons une explication théorique.
Le pays donateur, situé en aval de la chaîne de valeur, dépend d’un intrant produit dans un pays receveur, situé en amont. En transférant — sous forme d’aide — des ressources financières qui font l’objet de négociations, il incite le pays receveur à réduire ses tarifs douaniers d’importations de biens intermédiaires, ce qui diminue le coût final de son intrant produit et exporté vers le pays donateur.
L’aide agirait ainsi comme un levier discret de réduction des coûts de production pour les entreprises du pays donateur. L’influence des entreprises dans l’allocation de l’aide est également révélée ces dernières années par des enquêtes journalistiques.
Ce travail montre que l’aide au développement apparaît, au moins en partie, comme un moyen permettant aux pays donateurs de garantir un accès à des biens intermédiaires stratégiques en soutenant les pays situés en amont des chaînes de production. Ce constat interroge la manière dont l’aide est allouée si l’on souhaite éviter que les pays les plus pauvres ne soient doublement exclus : des chaînes de valeur mondiales et des flux d’aide.
Nos résultats ont des implications politiques importantes.
Premièrement, le développement des chaînes de valeur mondiales peut exacerber la fragmentation de l’aide en concentrant les financements vers les pays déjà intégrés dans ces chaînes. Or, malgré plusieurs initiatives internationales comme la Déclaration de Paris sur l’efficacité de l’aide au développement adoptée par l’OCDE en 2005, cette fragmentation persiste. Une étude de la Banque mondiale montre que l’augmentation des engagements d’aide au développement en termes réels entre 2000 et 2019 s’est accompagnée d’une multiplication du nombre de donateurs et d’agences d’aide, rendant la coordination de l’allocation de l’aide plus complexe.
Deuxièmement, orienter prioritairement l’aide vers les pays liés aux chaînes de valeur mondiales peut nuire au développement des pays les moins avancés, dont l’intégration dans les réseaux de production mondiaux reste limitée. Or, l’intégration aux chaînes de valeur stimule la croissance : une étude de la Banque mondiale indique qu’une augmentation de 1 % de participation entraîne en moyenne plus de 1 % de hausse du revenu par habitant. Mais si l’aide se concentre sur les pays déjà bien intégrés, elle risque de creuser davantage l’écart entre les « gagnants » et les laissés-pour-compte de la mondialisation. Or, les déclarations récentes de l’administration américaine qui limiteraient l’aide au développement à 17 pays prioritaires choisis par les États-Unis (« excluant certains pays en proie à de graves crises humanitaires, tels que l’Afghanistan et le Yémen ») ne font que renforcer ces inquiétudes.
Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.
Jean-François Jacques et Julie Lochard ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
22.01.2026 à 12:29
Sonia Henry, Chercheuse, Université de Lorraine

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.
À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.
Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.
Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.
De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.
C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).
Commençons par expliquer ce que l’on entend par « phytoremédiation ».
Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).
Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.
Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.
Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.
L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles
À lire aussi : La phytoremédiation : quand les plantes dépolluent les sols
Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.
Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.
Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.
Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.
Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.
Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.
À lire aussi : Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt
Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).
L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.
Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :
la diminution des teneurs en contaminants,
l’amélioration de la qualité agronomique,
et l’augmentation de la biodiversité microbienne.
La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.
Les premiers résultats seront publiés dans les prochains mois.
Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.
Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.
Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.
En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.
Sonia Henry a reçu des financements de la Communauté d'Agglomération du Val de Fensch et de l'Institut Carnot Icéel
22.01.2026 à 12:16
Cecile Bazart, Maîtresse de conférences, Université de Montpellier
Marjorie Tendero, Associate Professor in economics, ESSCA School of Management
Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.
Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.
Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).
Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.
Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.
Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.
Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.
Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.
À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.
Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.
À lire aussi : En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes
Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.
C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.
Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.
Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.
Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.
À lire aussi : Comment redonner une nouvelle vie aux friches industrielles en ville ?
Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.
Plusieurs mécanismes expliquent ce décalage.
Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.
La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.
Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.
Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.
Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.
Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.
À lire aussi : Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite
L'enquête détaillée dans l'article a été financée par l'Université de Montpellier.
Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l'ADEME et la Région Pays de la Loire (2014-2017).
22.01.2026 à 11:09
Simon Porcher, Professeur, Université Paris Dauphine – PSL
C’est le maillon caché de la mondialisation : quand on échange des biens et des services, on transfère aussi de l’eau douce d’un pays à l’autre. Pourtant, la gestion de l’eau reste locale, quand sa consommation est devenue mondiale. Des solutions émergent.
L’eau douce, pourtant indispensable à toute activité humaine, reste souvent absente des débats sur la mondialisation, comme si sa disponibilité allait de soi. Pourtant, sans eau, il n’y a ni alimentation, ni industrie, ni énergie, ni numérique. Nos vies, même dématérialisées, reposent sur l’utilisation de l’eau, qui refroidit, nettoie, chauffe. L’eau est l’intrant invisible de notre économie. Un chiffre résume son importance : 88 % de l’eau prélevée dans le monde sert à produire des biens ou des services.
L’eau circule déjà d’un continent à l’autre, non pas dans des canalisations, mais à travers les chaînes de valeur mondialisées, dans les produits alimentaires ou les habits que nous consommons et dans toutes nos infrastructures. Cette « eau virtuelle » irrigue la mondialisation, mais reste largement ignorée des décisions économiques et politiques. Résultat : l’eau est mobilisée comme si elle était une ressource infinie, au service d’une économie qui privilégie la performance immédiate au détriment des écosystèmes et des populations.
Le concept d’eau virtuelle, inventé au début des années 1990 par le géographe Tony Allan, permet de mesurer l’eau incorporée dans les produits que nous consommons. Par exemple, il faut 15 000 litres d’eau pour produire un kilogramme de bœuf, 4 000 litres pour un kilogramme de pistaches et 1 000 itres pour un kilogramme de maïs.
Chaque petit déjeuner devient un voyage autour du monde : le café du matin vient de Colombie ou du Brésil, arrosé par les pluies tropicales ; le carré de chocolat noir qui l’accompagne est fabriqué à partir de cacao équatorien ; l’avocat du Pérou vient d’un champ irrigué. Seuls le blé et le sel de la baguette de pain, et la poule qui a pondu l’œuf viennent de France. Nos choix alimentaires connectent les bassins d’eau du monde entier, souvent à notre insu.
À lire aussi : L’eau, la grande oubliée du label bio ?
Afin de mesurer le volume ainsi utilisé indirectement, Arjen Hoekstra a élaboré en 2002 le concept d’« empreinte eau ». Celle-ci correspond au volume total d’eau utilisé pour produire les biens et les services que nous consommons. Elle peut être calculée pour un pays ou pour un consommateur. Par exemple, l’empreinte eau d’un Français est supérieure à 4 000 litres par jour et 90 % de cette quantité proviennent de son alimentation.
Cette approche par l’assiette, et plus généralement par le produit final, révèle les transferts massifs d’eau entre pays, souvent invisibles dans les échanges commerciaux.
L’industrie textile illustre parfaitement cette réalité. De la culture du coton à la teinture et au lavage, chaque vêtement consomme des milliers de litres d’eau. Les fleuves Amou-Daria et Syr-Daria, qui prennent leur source au Tadjikistan et au Kirghizistan, ont été détournés par les pays en aval pour irriguer du coton. Cette irrigation massive a réduit leur flux au point d’assécher la mer d’Aral (Asie centrale). Là-bas, la baisse de la quantité d’eau entraîne des problèmes sanitaires et de dégradation des conditions d’existence. Les procédés industriels génèrent des rejets polluants, mal traités, contaminant rivières, sols et nappes. Les pays producteurs de textile paient le prix écologique de nos vêtements à bas coût.
Cet exemple illustre un problème plus large. La mondialisation des flux d’eau virtuelle révèle un vide institutionnel majeur. L’économie est globale, mais la gestion de l’eau reste locale. Cette disjonction favorise le dumping hydrique et environnemental. Les règles du commerce mondial invisibilisent les impacts réels sur les populations et les écosystèmes. Les chaînes de production éclatées permettent aux entreprises de profiter des ressources des pays fragiles, sans compensations ni reconnaissance des impacts sociaux et écologiques.
L’exploitation intensive de l’eau n’est pas seulement un problème environnemental ; c’est un enjeu social et politique. Les populations des pays producteurs subissent la raréfaction de l’eau, la pollution des nappes et les risques sanitaires. Les inégalités s’accentuent : ce sont les plus vulnérables qui supportent les coûts, et les plus riches qui récoltent les bénéfices.
Au-delà de l’opposition entre le Nord et le Sud, c’est la domination des logiques de marché qui pose problème. Les multinationales choisissent leurs sites de production selon le coût de l’eau et la faiblesse des normes, renforçant un modèle où la ressource devient une variable d’ajustement économique plutôt qu’un bien commun. Les États, souvent dépassés, adoptent ces normes pour rester compétitifs, laissant peu de place à des alternatives locales ou écologiques.
La gouvernance de l’eau demeure aujourd’hui largement fragmentée à l’échelle mondiale. Contrairement au changement climatique, qui bénéficie d’un cadre multilatéral de référence malgré ses limites, l’eau n’est pas reconnue comme une ressource commune globale dotée de règles et de normes contraignantes pour les acteurs économiques.
Cette situation limite la capacité de régulation des usages et des impacts. En l’absence d’un étiquetage systématique de l’empreinte eau des produits, la consommation d’eau liée aux biens et aux services échangés reste en grande partie invisibles. Alors même que l’empreinte eau d’un produit peut varier fortement selon les systèmes de production et les intrants mobilisés, cette invisibilité contribue à une faible responsabilisation de l’ensemble des acteurs. Dans un contexte de dépassement des limites planétaires relatives à l’eau, la disponibilité et la transparence des informations relatives à l’empreinte eau des produits et des services constituent un enjeu central de gouvernance.
Par ailleurs, les usages de l’eau reflètent de fortes inégalités géographiques : les pays industrialisés concentrent une part importante des consommations d’eau indirectes à travers les importations de produits agricoles et industriels, tandis que les pressions hydriques se manifestent principalement dans les pays producteurs. Dans ce contexte, les politiques commerciales et de coopération internationale sont des leviers potentiels de régulation indirecte des impacts hydriques. La jurisprudence de l’Organisation mondiale du commerce (OMC) a reconnu la possibilité pour un État de restreindre l’accès à son marché sur la base de procédés et de méthodes de production. Demain peut-être prendra-t-on en compte les impacts environnementaux localisés, tels que le stress hydrique, dans la régulation des échanges internationaux.
Du côté des entreprises, la prise en compte des risques hydriques progresse mais demeure hétérogène. Elle repose largement sur des démarches volontaires, souvent intégrées à des stratégies de responsabilité sociale sans caractère contraignant. Mais certaines multinationales commencent toutefois à internaliser ces enjeux.
Michelin a par exemple mis en place un prix fictif de l’eau en interne pour orienter ses usines à investir dans des systèmes d’économie et de réutilisation de l’eau. À Gravanches et à Troyes, l’amélioration des processus de refroidissement devrait diminuer les prélèvements de plus de 60 %.
Néanmoins, ces initiatives restent principalement concentrées sur les sites de production directe, alors que l’essentiel des consommations d’eau associées aux produits se situe en amont, le long des chaînes de valeur, où se concentre également une part importante des risques hydriques. L’analyse de l’empreinte eau sur l’ensemble des chaînes d’approvisionnement apparaît dès lors comme un outil central pour identifier et gérer les risques hydriques liés à leurs investissements.
L’eau n’est pas seulement un enjeu environnemental, c’est un facteur structurant de la production économique, du commerce international et de la souveraineté. Le décalage entre la nature localisée des ressources hydriques et l’organisation mondialisée des chaînes de valeur constitue l’un des défis majeurs de la gouvernance contemporaine de l’eau.
Cet article fait partie du dossier « La gestion à l’épreuve du réel » réalisé par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.
Simon Porcher co-dirige l’Institut d'économie de l’eau, soutenu par des mécènes. Ceux-ci n’ont joué aucun rôle dans le choix de l’angle, la rédaction ou les conclusions ; cette tribune n’engage que son auteur.
21.01.2026 à 16:44
Fabrice Beline, Directeur de Recherche, Inrae
En matière de transition énergétique, les débats sur la production et la consommation électrique tendent à occuper le devant de la scène politico-médiatique et à occulter le rôle des bioénergies. Ces dernières font pourtant partie intégrante de la programmation énergétique du pays. Leur production peut avoir des impacts majeurs tant sur les modes de production agricole que sur nos habitudes alimentaires.
Dans les prospectives énergétiques telles que la stratégie nationale bas carbone (SNBC), les scénarios négaWatt ou encore ceux de l’Agence de la transition écologique Ademe… les bioénergies sont régulièrement présentées comme un levier incontournable de la transition, en complément de l’électrification du système énergétique.
Pour rappel, ces énergies, qui peuvent être de différentes natures (chaleur, électricité, carburant…), se distinguent des autres par leur provenance. Elles sont issues de gisements de biomasses tels que le bois, les végétaux et résidus associés, les déchets et les effluents organiques.
L’électrification met en scène de nombreuses controverses politiques et sociétales dans le débat public et médiatique. Par exemple : compétition entre renouvelable et nucléaire, arrêt des moteurs thermiques… À l’inverse, les discussions sur les bioénergies se cantonnent encore aux milieux scientifiques et académiques.
Pourtant, leur déploiement implique des évolutions importantes. Et ceci à la fois dans les modes de production agricole et les habitudes alimentaires, en tout cas si nous le voulons durable.
Il est donc essentiel que le sujet bénéficie d’une meilleure visibilité et d’une plus grande appropriation par la société pour que puissent naître des politiques publiques cohérentes.
La transition énergétique, qui consiste à réduire drastiquement le recours aux énergies fossiles, est centrale dans la lutte contre le changement climatique. À l’horizon 2050, elle s’appuie sur deux piliers :
d’une part l’augmentation de la production d’électricité « bas carbone », associée à une forte électrification des usages, notamment pour la mobilité.
de l’autre, une hausse conséquente de la production de bioénergies pour compléter l’offre électrique, en particulier pour les usages difficilement « électrifiables » (par exemple dans l’industrie).
Actuellement, au niveau national, les bioénergies représentent de 150 à 170 térawattheures (TWh) par an, soit un peu plus de 10 % de l’énergie finale consommée. Ce chiffre concerne principalement la filière bois, à laquelle s’ajoutent les biocarburants et la filière biogaz. À l’horizon 2050, les prospectives énergétiques prévoient une consommation de plus de 300 de bioénergies, avec une forte croissance dans les secteurs du biométhane (injection du biogaz dans le réseau de gaz après épuration du biométhane) et, dans une moindre mesure, des biocarburants.
La programmation pluriannuelle de l’énergie n°3 (PPE3), qui est en cours de consultation, constitue la feuille de route de la France pour sa transition énergétique, avec des objectifs chiffrés. Pour la filière biométhane, la cible est fixée à 44 TWh/an dès l’horizon 2030 puis jusqu’à 80 TWh/an en 2035, contre une production actuelle de l’ordre de 12 TWh/an. Concernant les biocarburants, la PPE3 prévoit une légère augmentation pour atteindre 50 TWh/an en 2030-2035.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
L’optimisme quant à nos capacités à cultiver de manière durable les biomasses nécessaires à la production de ces bioénergies n’est cependant plus de mise.
Alors que la deuxième Stratégie nationale bas carbone (SNBC) tablait sur une production de 370 TWh/an de bioénergies en 2050, la nouvelle version SNBC 3 revoit ce chiffre à la baisse à 305 TWh/an. En mai 2025, le rapport des académies d’agriculture et des technologies réduisait ce chiffre à 250 TWh/an.
L’évolution à la baisse de ces chiffres met en lumière l’inadéquation entre les besoins de biomasse pour la transition énergétique, telle qu’elle est actuellement envisagée, et les capacités de production du système agricole actuel.
En novembre 2023, le Secrétariat général à la planification écologique lançait l’alerte, à travers cette formule relayée par le Monde :
« Il y a un problème de bouclage sur la biomasse. »
Ces questionnements ont donné lieu à des échanges entre le ministère de l’agriculture et de la souveraineté alimentaire et l’Inrae autour des enjeux agronomiques, techniques et économiques d’une mobilisation accrue des différents gisements de biomasse et de leur transformation en bioénergies. Ils ont confirmé les difficultés de faire correspondre les besoins pour la transition énergétique et la capacité de production.
Pour y voir plus clair sur les enjeux et les leviers disponibles, il convient d’analyser plus globalement les flux de biomasses agricoles à l’échelle nationale.
Environ 245 millions de tonnes de matière sèche (MtMS) sont produits chaque année pour des usages primaires (directs) et secondaires (indirects). Ces usages se répartissent comme suit :
Environ 100-110 MtMS sont mobilisés pour l’alimentation animale et finalement la production de denrées alimentaires telles que le lait, la viande, les œufs.
Quelque 70-80 MtMS/an retournent directement au sol (résidus de cultures, fourrages et prairies), auxquels s’ajoutent environ 30 MtMS/an de flux secondaires principalement issus de l’élevage sous forme d’effluents (lisier, fumier, digestat…).
Environ 50-55 MtMS/an sont utilisés directement pour la production de denrées alimentaires humaines (dont plus de la moitié est exportée).
Et 9 MtMS/an servent à la production d’énergie (biocarburant et biogaz) auxquels s’agrègent environ 9MtMS/an de flux secondaires provenant de l’élevage et de l’industrie agroalimentaire (lisier, fumier, biodéchets…).
À échéance 2050, les besoins supplémentaires en biomasses pour les bioénergies s’établissent entre 30 et 60 MtMS/an.
Tous les acteurs s’accordent sur le fait qu’il n’est pas concevable de rediriger des ressources utilisables – et actuellement utilisées pour l’alimentation humaine – vers des usages énergétiques.
Il apparaît dès lors tentant de rediriger la biomasse qui retourne actuellement au sol. Pourtant, ces flux de biomasse sont essentiels à la santé, qualité et à la fertilité des sols. Ils participent à la lutte contre le changement climatique à travers leur contribution au stockage (ou à la limitation du déstockage) de carbone dans les sols.
Une autre piste, pour répondre à ces besoins croissants, serait d’augmenter la production primaire de biomasse à travers le développement et la récolte de cultures intermédiaires appelées « cultures intermédiaires à vocation énergétique » (CIVE). Celles-ci sont cultivées entre deux cultures principales.
Toutefois, une telle production supplémentaire de biomasse implique l’utilisation de ressources supplémentaires (nutriments, eau, produits phytosanitaires). Elle tend aussi à accroître les risques de transferts de pollution vers la biosphère.
Mobiliser trop fortement ces leviers pourrait donc s’avérer contreproductif. Les alertes s’accumulent à ce sujet. Ces leviers sont donc à actionner avec parcimonie.
Une autre piste, conceptualisée dans plusieurs scénarios de transition, serait de rediriger une partie de la biomasse actuellement utilisée pour nourrir les animaux d’élevage vers la production énergétique.
Ceci impliquerait à la fois une diminution des cheptels et une extensification des élevages afin de préserver leurs services écosystémiques rendus, tout en minimisant leur consommation de biomasse. Cela répondrait à l’enjeu de réduction des émissions de gaz à effet de serre de l’agriculture et serait donc le plus cohérent pour affronter les enjeux écologiques.
Ce scénario requiert toutefois des changements d’envergure dans nos habitudes alimentaires, avec une réduction de notre consommation de produits animaux pour éviter une augmentation des importations.
Après deux ans de retard et de blocages dans les ministères, la stratégie nationale pour l’alimentation, la nutrition et le climat ne semble malheureusement pas à la hauteur de cette problématique. En témoigne l’absence d’objectif chiffré sur la réduction de la consommation de produits animaux, voire la disparition du terme de réduction dans les dernières versions.
De même, les lois récentes d’orientation agricole et Duplomb renforcent l’orientation productiviste de l’agriculture, tout en minimisant les enjeux de transition. Ceci va à l’encontre (au moins partiellement) des orientations nécessaires pour la transition énergétique et la SNBC 3, sans parler des antagonismes avec la stratégie nationale biodiversité.
La France ne manque donc pas de stratégies, mais d’une cohérence globale entre elles. C’est bien cela qui conduit à un découragement des responsables de l’élaboration et la mise en œuvre des politiques publiques et à une adhésion insuffisante des citoyens à ces stratégies.
Il y a donc urgence à développer une vision et des politiques publiques intersectorielles cohérentes et complémentaires englobant l’énergie, l’agriculture, l’environnement, l’alimentation et la santé.
Fabrice Beline a reçu des financements de l’Ademe (projet ABMC) et de GRDF (projet MethaEau).
21.01.2026 à 16:23
Pascale Dietrich, Chargée de recherche, Ined (Institut national d'études démographiques)
Marie Loison-Leruste, Maîtresse de conférences en sociologie, Université Sorbonne Paris Nord
Ce 22 janvier, une Nuit de la solidarité est organisée à Paris et dans d’autres villes françaises – une forme d’opération citoyenne de décompte des personnes dormant dans la rue. Celle-ci ne doit pas occulter ce que les travaux de recherche montrent depuis une quarantaine d’années : à la figure bien connue du sans-abri s’ajoutent d’autres formes moins visibles de précarité résidentielle et de mal-logement.
Aujourd’hui, de plus en plus de personnes sont exclues du logement ordinaire. Les derniers chiffres dont on dispose datent de 2012 et indiquent que le nombre de personnes sans domicile a augmenté de 50 % entre 2001 et 2012 : à cette date, 81 000 adultes, accompagnés de 31 000 enfants étaient sans domicile dans les agglomérations d’au moins 20 000 habitants de France hexagonale. L’enquête Sans Domicile menée par l’Insee en 2025 est en cours d’exploitation et permettra d’actualiser ces chiffres, mais tout laisse penser que la situation s’est encore dégradée, comme en témoignent nos observations de terrain.
D’après l’Insee, une personne est considérée comme sans domicile si elle a dormi la nuit précédente dans un lieu non prévu pour l’habitation (elle est alors « sans-abri »), ou si elle est prise en charge par un organisme fournissant « un hébergement gratuit ou à faible participation » (hôtel ou logement payé par une association, chambre ou dortoir dans un hébergement collectif, etc.). Ainsi, le sans-abrisme est-il la forme extrême du sans-domicilisme qui s’inscrit lui-même dans la myriade des formes du mal-logement.
Au-delà de ces personnes sans domicile, d’autres vivent dans des caravanes installées dans des campings, dans des squats, chez des tiers, des camions aménagés, des logements insalubres, etc., autant de situations résidentielles précaires qui échappent aux radars de la société et sont peu relayées dans les médias.
Ainsi, la Fondation pour le logement des défavorisés estime dans son rapport de 2025 que près de 4 millions de personnes sont touchées en France par toutes ces formes de mal-logement, la plupart des indicateurs de mal-logement s’étant dégradés.
À la figure bien connue du sans-abri dormant dans la rue s’ajoutent donc d’autres formes moins repérables de précarité résidentielle.
À l’approche de la Nuit de la solidarité organisée chaque année à Paris et dans d’autres villes françaises, il n’est pas inutile de rappeler ce que soulignent les travaux de recherche sur le sujet depuis une quarantaine d’années : le sans-abrisme n’est que la partie émergée de l’iceberg.
Si les opérations de décompte des personnes vivant dans des lieux non prévus pour l’habitation, et notamment la rue, sont importantes pour sensibiliser les citoyennes et citoyens, elles ne permettent d’obtenir que des estimations très approximatives du sans-abrisme et masquent une problématique plus vaste qui ne se réduit pas à ces situations extrêmes, comme on peut le lire dans ce rapport (pp. 42-52).
À la figure ancienne et un peu caricaturale du clochard – un homme seul, blanc, sans emploi et marginalisé – s’ajoutent d’autres visages : travailleurs et travailleuses précaires, femmes, parfois accompagnées d’enfants, personnes âgées percevant de petites retraites, personnes discriminées en raison de leur orientation sexuelle, étudiantes et étudiants, jeunes sortant de l’Aide sociale à l’enfance ou encore populations issues de l’immigration…
Ces différents types de personnes ont toujours été plus ou moins présentes parmi les populations en difficulté, mais l’augmentation générale de la précarité et la pénurie de logements accessibles les ont encore fragilisées. Plus de 2,7 millions de ménages étaient en attente d’un logement social en 2024. Dans le même temps, seulement 259 000 logements ont été mis en chantier en 2024, dont 82 000 logements sociaux financés.
Si certaines figures du sans-abrisme sont extrêmement visibles, comme les migrantes et migrants dont les campements sont régulièrement montrés dans les médias, d’autres formes d’exclusion sont plus discrètes.
C’est le cas par exemple des personnes en emploi, victimes de l’élargissement de la crise du logement, qui se replient vers les structures d’hébergement institutionnel faute de pouvoir se loger malgré leurs revenus réguliers.
En 2012, près d’un quart des sans-domicile occupaient un emploi. Ce phénomène fait peu de bruit alors même que ces personnes occupent souvent des métiers essentiels au fonctionnement de la société.
De même, les femmes sans domicile sont moins repérables dans l’espace public que leurs homologues masculins, car elles ne ressemblent pas à la figure classique du sans-domicile fixe (SDF). Quand elles y sont présentes, elles ne s’y installent pas et sont beaucoup plus mobiles par crainte d’y subir des violences : elles sont donc très largement sous-estimées dans les opérations de décompte.
À lire aussi : Femmes SDF : de plus en plus nombreuses et pourtant invisibles
Les enquêtes « Sans domicile » montrent qu’entre 2001 et 2012, le nombre de femmes francophones sans domicile a augmenté de 45 %, passant de 17 150 en 2001 à 24 930 femmes en 2012.
Face à cette précarité résidentielle croissante, quelles solutions apportent les pouvoirs publics ?
L’augmentation du financement de l’hébergement d’urgence qui procure un abri temporaire dans des haltes de nuit ou à l’hôtel apporte certes une solution rapide aux sans-abri qui, du point de vue des édiles, nuisent à l’image des villes, mais ne résout en rien les problèmes de ces personnes.
À lire aussi : Où dormir quand on n’a pas de domicile ?
Reléguant les plus précaires aux marges des villes ou dans des hébergements sans intimité où il est impossible de s’installer dans la durée, ces politiques court-termistes, focalisées sur l’urgence sociale, se doublent de formes de répression (expulsion, arrêtés anti-mendicité, mobiliers urbains inhospitaliers) qui contribuent à la précarisation et à l’invisibilisation des populations étiquetées comme « indésirables ».
L’augmentation massive des expulsions avec le concours de la force publique en 2024, l’hébergement des sans-domicile dans des hôtels de plus en plus éloignés des centres des agglomérations et peu accessibles en transports en commun, ou le déplacement des sans-abri de Paris pendant les Jeux olympiques de 2024 en témoignent.
Des changements politiques profonds sont pourtant nécessaires pour résoudre la question de l’exclusion du logement en s’attaquant à ses causes structurelles. Une politique ambitieuse de production et de promotion du logement social à bas niveaux de loyers est indispensable pour permettre aux ménages modestes de se loger sans passer par le long parcours de l’hébergement institutionnel.
La prévention des expulsions doit également être favorisée, de même que la régulation des prix du marché immobilier.
Il est aussi nécessaire d’assurer une meilleure continuité de la prise en charge dans les diverses institutions d’aide. Les populations particulièrement fragiles, qui cumulent les difficultés, connaissent des séjours précoces en institutions, répétés et multiples, de l’aide sociale à l’enfance (en 2012, 23 % des utilisateurs des services d’aide aux sans-domicile nés en France avaient été placés dans leur enfance, alors que cette proportion était seulement de l’ordre de 2 % à 3 % dans la population générale) aux dispositifs d’insertion par le travail, en passant dans certains cas par l’hôpital psychiatrique, les cures de désintoxication ou la prison.
Or, ces prises en charge souvent discontinues n’apportent pas de solutions durables en termes de logement, d’emploi ou de santé. Elles alimentent par ailleurs un sentiment de rejet qui favorise le non-recours au droit : les personnes sont éligibles à des prestations sociales et à des aides mais ne les sollicitent pas ou plus.
Pour ces personnes les plus désocialisées, la politique du logement d’abord (« Housing first ») ou « Chez soi d’abord » en France), qui consiste à donner accès au logement sans condition et à proposer un accompagnement social et sanitaire, donne des résultats probants mais, faute de logements disponibles, elle n’est pas suffisamment mise en œuvre.
Il faut enfin s’attaquer aux politiques migratoires qui produisent le sans-domicilisme. Les politiques publiques en matière d’accueil des étrangers étant de plus en plus restrictives et les dispositifs spécifiques saturés, migrantes et migrants se retrouvent sans solution de logement. La part d’étrangers parmi la population sans-domicile a ainsi fortement augmenté, passant de 38 % en 2001 à 53 % en 2012.
Résoudre la question de l’exclusion liée au logement en France comme dans de nombreux pays passe autant par des réformes de la politique du logement que par des actions dans le secteur social, de l’emploi et de la politique migratoire. Le sans-domicilisme est un révélateur des inégalités sociales croissantes dans la société et des processus d’exclusion qui la traversent. Trouver une solution à ce problème majeur, nécessite plus que jamais de l’appréhender dans sa globalité, sans se limiter à ses symptômes les plus visibles.
Pascale Dietrich-Ragon et Marie Loison-Leruste ont codirigé l’ouvrage la Face cachée du mal-logement. Enquête en marge du logement ordinaire, paru aux éditions de l’Ined en septembre 2025.
Marie Loison-Leruste est membre de l'association Au Tambour!.
Pascale Dietrich ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 16:20
Maxime Daniélou, Doctorant en études slaves et chargé de cours à l’université Paris-Nanterre, Université Paris Nanterre

Spécialiste reconnu des relations internationales depuis plusieurs décennies, fondateur de think tanks influents et d’une grande revue consacrée aux affaires diplomatiques, Sergueï Karaganov s’est dernièrement fait remarquer par des propos plus que musclés, promettant notamment à ceux qui s’opposeraient à la Russie, à commencer par les pays de l’Union européenne, une destruction totale. On aurait toutefois tort de voir en lui l’un des artisans de la politique étrangère de Moscou : il s’agit plutôt d’un habile « entrepreneur idéologique », qui sert le pouvoir en lui proposant un habillage conceptuel et en lançant des messages destinés à raffermir, dans l’opinion occidentale, l’idée selon laquelle le Kremlin est déterminé à aller, le cas échéant, jusqu’à la guerre nucléaire.
Les prises de position de l’universitaire russe Sergueï Karaganov font l’objet d’une attention croissante dans l’espace médiatique français et international depuis le début de l’invasion de l’Ukraine par la Russie en février 2022. Récemment, des articles et des émissions télévisées lui ont attribué une influence déterminante sur la politique étrangère russe, allant jusqu’à le qualifier de « nouvel architecte de la politique étrangère du Kremlin » ou de « cerveau géopolitique de Vladimir Poutine », le plus souvent sans autre justification que sa proximité supposée avec le président russe.
Cette situation rappelle un phénomène déjà observé avec le philosophe ultranationaliste Alexandre Douguine, lui-aussi régulièrement présenté comme le « cerveau de Poutine » depuis le début des années 2000, en dépit des démentis répétés de plusieurs chercheurs spécialistes de la Russie.
Dans le cas de Douguine comme dans celui de Karaganov, attribuer une telle influence sur le chef du Kremlin sans fondement empirique solide contribue à obscurcir la compréhension des dynamiques à l’œuvre dans le processus de prise de décision en matière de politique étrangère dans la Russie contemporaine. Ces exagérations offrent par ailleurs une exposition médiatique bienvenue à ces entrepreneurs idéologiques. Si ni l’un ni l’autre n’ont jamais confirmé le rôle qui leur est parfois prêté au sommet de l’État, ils profitent de la visibilité et de l’autorité symbolique que cette image leur confère dans une logique de promotion personnelle et de diffusion de leurs idées, en Russie comme à l’étranger.
Afin de dépasser les interprétations excessives, il est nécessaire de s’interroger sur la place réelle qu’occupe Sergueï Karaganov dans l’environnement politique et idéologique russe. Revenir sur son parcours, ses réseaux et les idées qu’il défend permet de relativiser l’idée d’une influence directe sur les décisions du Kremlin, et de mieux comprendre les raisons de sa soudaine surexposition médiatique.
En janvier 1992, moins d’un mois après la chute de l’URSS, Sergueï Karaganov (né en 1952), expert des États-Unis au sein de l’Académie des sciences soviétique, fonde l’un des premiers think tanks russes indépendants, le Conseil pour la politique étrangère et de défense (SVOP selon le sigle russe). En raison de la faiblesse des institutions qui caractérise la décennie 1990 en Russie, le SVOP, qui réunit hommes d’affaires, diplomates et militaires, parvient à exercer une influence certaine sur la politique nationale et permet à son directeur de se doter d’un réseau puissant.
Les dynamiques de centralisation et de renforcement de l’État, ainsi que le renouvellement des élites qui accompagne l’arrivée de Vladimir Poutine à la présidence en 2000, entraînent le déclin irréversible du SVOP et obligent Karaganov à se renouveler. En 2002, il fonde l’influente revue de politique étrangère Russia in Global Affairs, avant d’être nommé à la tête de la faculté de politique internationale de la Haute École d’économie, l’une des plus prestigieuses universités du pays, quatre ans plus tard.
Son implication dans la création du club de discussion Valdaï en 2004, qui s’impose progressivement comme un des principaux think tanks de l’ère Poutine, lui permet de se garantir un canal de communication avec l’administration présidentielle, institution centrale de la Russie poutinienne, qui est la seule à même de pouvoir faire circuler ses idées jusqu’au sommet de l’État.
La politologue Marlène Laruelle, qui a récemment publié un ouvrage sur la construction idéologique de l’État russe, souligne que cette dernière est en constante évolution et repose sur un corpus dont la production est le plus souvent externe à l’État. Elle propose la notion d’« entrepreneur idéologique » pour désigner les acteurs situés en dehors des institutions étatiques qui entrent en concurrence pour capter l’attention de l’administration présidentielle et du gouvernement, afin d’accéder aux ressources et à la reconnaissance qui y sont associées.
Sergueï Karaganov s’inscrit pleinement dans cette catégorie, puisqu’il utilise son réseau et les organisations qu’il a fondées pour développer puis promouvoir ses idées et récits auprès des décideurs russes, dans l’espoir d’en tirer des bénéfices symboliques et matériels.
Depuis le début des années 2010, Karaganov a ainsi réussi à s’imposer comme l’un des principaux fournisseurs conceptuels du « tournant russe vers l’Asie ». Plusieurs notions qu’il a développées, comme la « Grande Eurasie » ou, plus récemment, « la Majorité mondiale », ont été intégrées dans le discours officiel, aidant les dirigeants à justifier et à promouvoir la réorientation stratégique et économique de la Russie vers la Chine et ses autres partenaires non-occidentaux.
Rien ne permet en revanche de lui attribuer une quelconque influence sur la définition de l’agenda ni sur les choix concrets de politique étrangère : en la matière, le processus de prise de décision semble cloisonné au président et à son entourage le plus proche, dont Karaganov ne fait assurément pas partie.
Tout au long de sa carrière, Sergueï Karaganov a bénéficié d’une exposition médiatique en adéquation avec son statut d’expert reconnu en relations internationales. Depuis le début de la guerre en Ukraine, cette exposition a toutefois changé d’échelle, élargissant nettement son audience. Karaganov a su tirer parti du contexte de radicalisation de l’espace public, dans lequel les experts sont incités à afficher leur soutien à la guerre, voire à surenchérir par rapport à la ligne officielle, afin de se distinguer et d’augmenter leur visibilité.
À partir de l’été 2023, il s’est illustré par ses appels répétés en faveur d’une baisse du seuil d’emploi de l’arme atomique et de « frappes nucléaires limitées » contre plusieurs capitales européennes. Ces prises de position, très controversées, y compris au sein de la communauté académique russe, l’ont propulsé au premier plan du débat public. Elles ont très probablement pesé dans sa désignation comme modérateur de la séance plénière du Forum économique international de Saint-Pétersbourg, le 7 juin 2024.
Cette position hautement symbolique lui a permis de dialoguer avec Vladimir Poutine en direct devant les caméras du monde entier. Lors de cet échange, le président russe a déclaré lire les textes de Karaganov, ce qui a alimenté les spéculations quant à l’influence de ce dernier sur la politique étrangère du pays. Cet épisode a également accru ses sollicitations par les médias, jusqu’à son intervention en direct sur la première chaîne de télévision russe, le 5 décembre dernier, largement reprise et traduite à l’étranger pour ses déclarations particulièrement belliqueuses envers l’Europe.
Du point de vue du Kremlin, Karaganov constitue une voix radicale supplémentaire permettant de durcir le discours sans impliquer directement le sommet de l’État. Il joue ainsi le rôle d’un épouvantail utile, à l’image de l’ancien président Dmitri Medvedev, dont les déclarations provocatrices s’inscrivent dans une stratégie de guerre psychologique contre l’Occident. Cette délégation du discours le plus extrême permet au pouvoir de préserver une posture officielle apparaissant comme ouverte à la négociation, tout en laissant circuler des messages plus agressifs par des canaux indirects.
Ainsi, invité du podcast de Tucker Carlson au mois de janvier 2026 dans un contexte de tensions inédites dans les relations transatlantiques dont le Kremlin entend profiter, Sergueï Karaganov a pu s’adresser à l’Amérique trumpiste par l’un de ses canaux favoris. Espérant sans doute être entendu jusque dans le Bureau ovale, il est allé toujours plus loin dans la surenchère, rappelant que « l’Europe est la source de tous les maux » et qu’elle serait « rayée de la carte de l’humanité » en cas d’assassinat de Vladimir Poutine…
Maxime Daniélou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 16:20
Myriam Benraad, Chercheure spécialiste de l'Irak, professeure en relations internationales, enseignante sur le Moyen-Orient, Institut catholique de Paris (ICP)
Idéologie doublée d’une militance globale, le djihadisme a connu un recul après la débâcle de l’organisation État islamique sur le théâtre syro-irakien, dont les combattants ne sont pas parvenus à se réimposer, Al-Qaida ayant aussi perdu de son écho. Le monde est témoin d’un épuisement du phénomène et d’une mise en déroute de ses structures, en Europe et en France par exemple, terres vers lesquelles un terrorisme de masse a cessé de s’exporter. Mais n’est-il pas plus judicieux d’évoquer une « métamorphose » du djihad, au sens de la modification progressive et inachevée de ses formes et de sa nature ? Dans son nouvel ouvrage Jihad : la métamorphose d’une menace, la politiste et professeure en relations internationales Myriam Benraad sonde un ensemble d’idées reçues sur cette mouvance hétéroclite.
Les plus méfiants rétorqueront que des développements dramatiques comme l’attentat de la plage de Bondi à caractère antisémite en décembre 2025, la chute de Kaboul aux mains des talibans en 2021, le changement de régime en Syrie en décembre 2024 à la faveur de djihadistes endurcis, ou encore l’expansion de cette mouvance dans les États du Sahel, l’assassinat de Samuel Paty en 2020 et celui de Dominique Bernard trois ans plus tard démontrent que le djihadisme reste un système de pensée actif et meurtrier. L’affirmation n’est pas dénuée de fondement.
Mais évoquer un épuisement ne revient pas à conclure à la déchéance définitive des idées et des hommes. Comme mouvement et dispositif, le djihadisme s’inscrit dans la durée. À plusieurs reprises, il a surmonté ses revers et l’élimination de ses chefs. Une survivance illustrée en 2023 lorsque, dans le contexte de la relance des hostilités au Proche-Orient après les attaques du Hamas en Israël le 7 octobre, a ressurgi une « Lettre à l’Amérique » signée par Oussama Ben Laden en 2001 en justification des attentats du 11 septembre et incitant les musulmans à « venger le peuple palestinien » contre les États-Unis, Israël et leurs alliés.
Il y a, d’une part, une dégradation manifeste des groupes et de leur commandement, de leur cause et de leurs capacités. On peut juger, d’autre part, qu’une actualité géopolitique extrêmement lourde, de la pandémie de Covid-19 à la guerre en Ukraine et à la conflagration dans la bande de Gaza, a contribué à reléguer la menace au second plan.
Le traitement médiatique n’a plus rien à voir avec la frénésie informationnelle qui avait marqué la période antérieure. Quoique le traumatisme suscité par des vagues d’attaques sanglantes n’ait jamais complètement guéri, le temps a commencé à faire son œuvre, lentement. Peu de citoyens craignent une répétition des actions qui ont meurtri la France en 2015 et 2016. Aucun Français ne s’attend plus à la commission d’une attaque comparable à celle du Bataclan.
Mais comme le suggère l’idée de métamorphose, se transformer ne signifie pas avoir disparu. Le djihad, abordé comme un acte guerrier violent, n’est certes plus aussi puissant qu’auparavant et a vu son potentiel d’enrôlement s’amoindrir. Il n’y a pas eu non plus d’internationalisation djihadiste de la question palestinienne et pas de nouveaux flots de militants à destination du Moyen-Orient depuis la dernière guerre israélo-palestinienne.
Au même moment, le djihadisme est opérationnel sur d’autres terrains. Même minoritaire, il agit dans des pays comme la Syrie, la Libye, le Yémen, où les guerres civiles ont laissé de lourdes séquelles et continuent de procurer aux djihadistes des espaces pour sévir. Dans nos sociétés, des profils d’individus vulnérables aux idées de cette mouvance sont identifiés et mis hors d’état de nuire régulièrement. Enfin, du fait de leur promesse d’endurance et de rétribution, les djihadistes clament haut et fort leur détermination à survivre et continuer de frapper.
Rappelons que le djihad n’est pas réductible à la guerre, en dépit de la violence qui demeure la principale expression du djihadisme contemporain. Au-delà des stéréotypes et clichés, il est impératif de se saisir de la pluralité des significations de ce mot et d’opérer une distinction claire entre ses interprétations théologiques et manifestations historiques, d’un côté, et ses acceptions idéologiques récentes, de l’autre. En effet, le djihad n’est pas le djihadisme malgré la confusion fréquemment opérée entre ces deux termes.
Nier la lourdeur de leurs connotations négatives n’est pas non plus la meilleure des manières de dépasser les préjugés courants, ni d’apporter des éléments de réponse sur un sujet qui reste d’actualité même s’il n’occupe plus les grands titres.
Si l’on excepte le poids de certaines dérives médiatiques et politiques, le djihad est un objet pluridimensionnel. La mouvance djihadiste initialement constituée par des Sayyid Qutb, Abdallah Azzam et Oussama Ben Laden n’en a pas épuisé toutes les formes et les structures, et encore moins l’influence. Or ce caractère hétéroclite est difficilement démontrable dans un contexte trop souvent marqué par les polémiques et controverses, notamment en France où les tueries de l’année 2015 continuent de résonner au niveau sociétal.
Dix ans plus tard, les commémorations des attentats du 13 novembre ont montré en quoi la mémoire traumatique de l’ultraviolence est omniprésente et combien le besoin d’une justice restaurative importe pour les victimes, directes ou indirectes. On perçoit bien à cet égard la nécessité d’un retour aux sources, arabes et médiévales, en vue de lever le voile sur les zones d’ombre persistantes. Certes, l’approche belliqueuse du djihad élaborée par les djihadistes sied à leurs convictions, mais elle fausse en large part le sens de l’islam.
Dans de nombreux commentaires, on observe aussi que l’Histoire est la grande absente. Les djihadistes ont imposé leur lecture idéologique des circonstances d’expansion de cette religion, qu’ils assimilent à une conquête militaire. En réalité, cette expansion a été plus dispersée dans le temps, pluriforme et multifactorielle. Elle est également plus riche que les descriptions qui en sont faites ici et là. Les bouleversements des dernières décennies ne sauraient occulter que l’islam a accouché d’une civilisation qui était autrefois majestueuse et orientée vers le progrès.
Les djihadistes sont d’ailleurs loin d’être unis dans la vision qu’ils entretiennent de ce passé et des moyens de le restituer. Le « califat » un temps revendiqué par l’État islamique procédait d’une réinvention de la tradition islamique et s’est symptomatiquement vu rejeté par une majorité de musulmans. Cette logique de fragmentation du champ djihadiste a cours, dans les faits, depuis les années 1990 et les djihads afghan, algérien, bosniaque et tchétchène. Puis les clivages entre mouvements se sont renforcés avec les guerres d’Irak, de Libye et de Syrie, pour ne citer que ces crises.
Un socle partagé n’en définit pas moins le djihadisme, pétri de mythes et d’un puissant imaginaire. Depuis le 11 septembre 2001, une majorité de militants s’est ainsi ralliée à la notion d’une croisade supposément conduite par l’Occident et ses alliés contre l’islam et ses fidèles, croisade à laquelle devrait répondre un djihad globalisé. Cette représentation binaire et manichéenne explique l’intolérance absolue des djihadistes et leur rejet de toute différence, y compris religieuse parmi leurs coreligionnaires qu’ils prétendent représenter et défendre.
Quelles sont au fond les causes du djihadisme ? Prétendre apporter une réponse linéaire et exclusive relève du leurre car il n’existe aucun système d’interprétation fixe. À l’identique, les parcours des djihadistes pris individuellement rendent compte de l’absence d’un profil-type, tandis que radicalisation et déradicalisation se doivent d’être examinées à la lumière d’expériences tangibles. Pour l’heure, le djihadisme poursuit sa métamorphose, moins délétère que par le passé, mais le chemin sera long, dans le monde musulman comme dans nos sociétés, avant de prétendre l’avoir vaincu.
Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 16:19
Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
Au cœur de l’hiver, la quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, qui n’endommage pas l’environnement, qui soit confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.
Avoir chaud en hiver tout en limitant son impact environnemental peut sembler un défi. Chercher à avoir des vêtements nous protégeant au mieux du froid est certes un levier efficace pour réduire sa consommation d’énergie, comme le montrent des initiatives telles que le mouvement Slow Heat et d’autres expérimentations récentes.
Toutefois, cette démarche se heurte à une contradiction de taille : le secteur textile reste parmi les plus polluants au monde, avec des émissions de gaz à effet de serre importantes et une contribution notable aux microplastiques marins.
Alors, quelles matières tiennent vraiment chaud tout en respectant davantage l’environnement ? Si les fibres naturelles sont souvent mises en avant pour leur bonne isolation et leur fin de vie plus respectueuse de l’environnement, leur impact réel dépend largement de la manière dont elles sont produites et utilisées. Pour y voir plus clair, commençons par comprendre ce qui fait qu’un textile tient chaud.
La capacité d’un textile à tenir chaud dépend moins de la fibre utilisée que de l’air qu’elle parvient à enfermer. En restant immobile dans de minuscules espaces au cœur du tissu, cet air limite les échanges de chaleur, un peu comme dans une couette ou un double vitrage. Plus un tissu est épais, duveteux ou poreux, plus il limite les échanges de chaleur.
Cette capacité dépend beaucoup de la structure des fibres et de la manière dont le textile est fabriqué. Les fibres frisées ou ondulées comme la laine de mouton créent des poches où l’air reste piégé. D’autres fibres comme l’alpaga (un camélidé des Andes proche du lama) ou le duvet synthétique sont partiellement creuses, augmentant encore la capacité isolante. De même, les tricots et mailles, plus lâches, isolent mieux que les tissages serrés. Ainsi, la chaleur d’un vêtement dépend autant de sa construction que de sa matière.
C’est sur ces mêmes principes physiques que reposent les fibres synthétiques. En effet, le polyester, l’acrylique, le polaire imitent en partie la laine par leur structure volumineuse et leur capacité à emprisonner de l’air, soit grâce à des fibres frisées, soit grâce à des fibres creuses ou texturées.
Ainsi, ces textiles offrent une bonne isolation thermique, sont légers et sèchent rapidement, ce qui les rend très populaires pour le sport et l’outdoor. En revanche, leur faible respirabilité intrinsèque et leur capacité limitée à absorber l’humidité peuvent favoriser la transpiration et la sensation d’humidité lors d’efforts prolongés. D’autre part, contrairement aux fibres naturelles, ces matériaux sont inflammables, un aspect souvent négligé, mais qui constitue un enjeu réel de sécurité.
Elles ont également un coût environnemental élevé. Issues du pétrole, non biodégradables et fortement consommatrices d’énergie, ces fibres libèrent à chaque lavage des microfibres plastiques dans l’eau, contribuant à la pollution marine. On estime qu’entre 16 % et 35 % des microplastiques marins proviennent de ces textiles, soit de 200 000 à 500 000 tonnes par an. Ces impacts surpassent largement ceux des fibres naturelles, ce qui constitue un vrai défi pour une mode plus durable.
Face à ces limites, les fibres naturelles apparaissent donc souvent comme des alternatives intéressantes, à commencer par la laine de mouton, longtemps considérée comme une référence en matière d’isolation thermique.
La laine possède en effet une structure complexe et écailleuse : chaque fibre est frisée et forme de multiples micro-poches d’air, réduisant ainsi la perte de chaleur corporelle. Même lorsqu’elle absorbe un peu d’humidité, l’air reste piégé dans sa structure, ce qui lui permet de continuer à isoler efficacement. Cette organisation particulière explique aussi pourquoi la laine est respirante et capable de réguler l’humidité sans donner une sensation de froid. Cependant, ces mêmes fibres peuvent parfois provoquer une sensation de « grattage » pour certaines personnes : plus les fibres sont épaisses, plus elles stimulent les récepteurs de la peau et provoquent des picotements. Il s’agit d’un phénomène purement sensoriel, et non d’une allergie.
Parmi les différents types de laines, la laine de mouton mérinos, issue d’une race d’ovin originaire d’Espagne se distingue par la finesse de ses fibres, nettement plus fines que celles de la laine classique (de 11 à 24 microns pour le mérinos et de 25 à 40 microns pour la laine classique) . Cette caractéristique réduit fortement les sensations d’irritation au contact de la peau et améliore le confort.
Elle favorise également la formation de nombreuses micro-poches d’air isolantes, tout en maintenant une excellente respirabilité. Ces qualités expliquent son usage croissant dans les sous-couches et vêtements techniques, aussi bien pour le sport que pour le quotidien.
Pour autant, la laine n’est pas exempte d’impact environnemental. Bien qu’elle soit renouvelable et biodégradable, son élevage contribue aux émissions de gaz à effet de serre, principalement via le méthane produit par les moutons et la gestion des pâturages. On estime qu’entre 15 et 35 kg de CO₂ équivalent sont émis pour produire 1 kg de laine brute, et qu’environ 10 000 litres d’eau sont nécessaires, selon le mode d’élevage. Le bien-être animal et les pratiques agricoles, comme le mulesing ou l’intensification des pâturages, jouent également un rôle déterminant dans l’empreinte globale de cette fibre.
D’autres fibres animales, comme l’alpaga, suscitent un intérêt croissant en raison de propriétés thermiques comparables, voire supérieures, associées à un meilleur confort. Les fibres d’alpaga sont en effet partiellement creuses, ce qui leur permet de piéger efficacement l’air et de limiter les pertes de chaleur, tout en restant légères. Contrairement à certaines laines plus grossières, elles ne grattent pas, ce qui les rend agréables à porter directement sur la peau.
Elles sont également plus longues et plus fines que la laine classique, avec une bonne capacité de régulation de l’humidité et un séchage plus rapide. Ces caractéristiques expliquent l’essor de l’alpaga dans les vêtements techniques comme dans les pièces haut de gamme, des sous-couches aux manteaux. Sur le plan environnemental, l’alpaga présente aussi certains avantages. En effet, l’élevage d’alpagas exerce généralement une pression moindre sur les écosystèmes : animaux plus légers, consommation alimentaire plus faible, émissions de méthane réduites et dégradation limitée des sols comparativement à l’élevage ovin. Là encore, la durabilité dépend largement du respect de systèmes extensifs et adaptés aux milieux locaux.
Malgré les nombreux atouts de ces textiles naturels, les fibres synthétiques restent donc très utilisées, notamment pour leurs performances techniques. Mais leur succès est aussi lié à des facteurs économiques et pratiques : elles sont généralement moins coûteuses, très abondantes dans le commerce, et faciles à transformer en vêtements de masse. Ces aspects rendent le synthétique accessible et pratique pour une large partie des consommateurs, ce qui explique en partie sa prédominance dans l’industrie textile, indépendamment des préférences individuelles.
Polaire, duvet synthétique ou fibres techniques offrent une isolation thermique efficace, tout en étant légères et rapides à sécher, des qualités particulièrement recherchées dans les vêtements de sport et d’outdoor. La conductivité thermique est une mesure de la capacité d’un matériau à conduire la chaleur : plus cette valeur est faible, moins la chaleur passe facilement à travers le matériau, ce qui signifie une meilleure capacité à retenir la chaleur dans un textile donné.
Des mesures de conductivité thermique montrent par exemple que certains isolants synthétiques comme la polaire présentent des valeurs très basses (0,035-0,05 watt par mètre-kelvin (W/m·K)), indiquant une excellente capacité à retenir la chaleur. Pour comparaison, la laine, lorsqu’elle est compacte ou densifiée, peut atteindre 0,16 W/m·K, mais dans les textiles isolants volumineux, elle reste faible (0,033–0,045 W/m·K).
Toutefois, l’origine fossile, la non-biodégradabilité, la libération de microplastiques et un recyclage encore très limité font des textiles synthétiques des matériaux à fort impact environnemental.
À l’inverse, si les fibres naturelles sont parfois boudées, ce n’est pas toujours pour des raisons environnementales, mais souvent pour des questions de confort. Une personne ayant déjà porté un vêtement en fibres naturelles qui lui a paru inconfortable ou irritant peut développer un rejet global de ces fibres, au profit du synthétique, même lorsque des alternatives plus douces existent.
Or, des solutions sont disponibles : privilégier des fibres fines comme la laine mérinos, l’alpaga ou le cachemire, recourir à des traitements mécaniques ou enzymatiques pour adoucir les fibres, ou encore combiner différentes fibres naturelles. Le choix doit aussi tenir compte de l’usage du vêtement et de son contact direct avec la peau.
En pratique, choisir un textile chaud et moins polluant relève donc d’un compromis, qui dépend autant de la matière que de l’usage. Une sous-couche portée à même la peau bénéficiera de fibres fines et respirantes, comme la laine mérinos, tandis qu’une couche intermédiaire privilégiera l’isolation et un vêtement extérieur la protection contre l’humidité et le vent.
Enfin, plutôt que de rechercher une matière « parfaite », il est essentiel de raisonner en cycle de vie. Sa durabilité (combien de temps il est porté), sa réparabilité, la fréquence et la manière de le laver, ainsi que sa fin de vie (recyclage, réutilisation, compostage pour les fibres naturelles) influencent largement son impact environnemental total. Un vêtement bien entretenu et durable peut avoir un impact bien moindre qu’un textile « écologique », mais rapidement jeté.
Au final, les matières textiles les plus chaudes et les moins polluantes sont majoritairement naturelles, mais aucune n’est totalement exempte d’impact. La laine mérinos et l’alpaga offrent aujourd’hui un compromis intéressant entre chaleur, confort et fin de vie environnementale. Le rejet des fibres naturelles pour des raisons de grattage mérite d’être nuancé : la qualité et la finesse des fibres font toute la différence. Mieux informer sur ces aspects pourrait encourager des choix plus durables. En textile comme ailleurs, le meilleur choix reste souvent celui que l’on garde longtemps.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 16:16
Margaret Murray, Associate Professor of Public Communication and Culture Studies, University of Michigan-Dearborn

L’ennui est souvent perçu comme un mal à éviter à tout prix chez les enfants. Pourtant, loin d’être inutile, il joue un rôle clé dans leur développement, en favorisant l’autonomie, la créativité et l’apprentissage de la gestion du temps.
L’ennui fait partie intégrante de la vie, à travers les époques et partout dans le monde. Et pour cause : il remplit une fonction utile, en poussant les individus à se fixer de nouveaux objectifs et à relever de nouveaux défis.
Je suis professeure et je travaille sur les questions de communication et de culture. J’écris actuellement un livre sur la parentalité contemporaine, et j’ai constaté que de nombreux parents cherchent à éviter à leurs enfants l’expérience de l’ennui. Ils peuvent le percevoir comme une émotion négative qu’ils ne souhaitent pas voir leurs enfants traverser. Ou bien ils les orientent vers des activités qu’ils jugent plus productives.
Les raisons qui poussent les parents à vouloir éviter l’ennui à leurs enfants sont multiples. Beaucoup de parents sont très pris par leur travail et par les préoccupations financières ; les contraintes liées à la garde des enfants et de la gestion du quotidien pèsent lourdement sur eux. Proposer un jeu, un programme télévisé ou une activité créative à la maison permet souvent de gagner un peu de tranquillité : les parents peuvent ainsi travailler sans être interrompus ou préparer le dîner sans entendre leurs enfants se plaindre de s’ennuyer.
À cela s’ajoute parfois une forte attente de réussite. Certains parents ressentent une pression pour que leurs enfants excellent, qu’il s’agisse d’intégrer un établissement sélectif, de briller dans le sport ou de devenir de très bons musiciens.
Les parents peuvent aussi ressentir une forte pression autour de la réussite de leurs enfants, qu’il s’agisse d’intégrer un établissement sélectif, de réussir dans le sport ou d’exceller dans la pratique musicale.
Quant aux enfants, ils consacrent aujourd’hui moins de temps à jouer librement dehors et davantage à des activités organisées qu’il y a quelques décennies. La généralisation des écrans a par ailleurs rendu l’évitement de l’ennui plus facile que jamais.
Pendant la pandémie, beaucoup de parents ont ainsi eu recours aux écrans pour occuper leurs enfants pendant leurs heures de travail. Plus récemment, certains disent ressentir une pression sociale les poussant à utiliser les écrans pour que leurs enfants restent calmes dans les lieux publics.
En somme, si les parents ont de multiples raisons de vouloir tenir l’ennui à distance, il vaut la peine de s’interroger sur ce que l’ennui peut aussi apporter avant de chercher à l’éliminer complètement.
Même s’il est désagréable sur le moment, l’ennui est un atout pour le développement personnel. Il agit comme un signal indiquant qu’un changement est nécessaire, qu’il s’agisse de modifier son environnement, son activité ou les personnes qui nous entourent. Les psychologues ont montré que l’expérience de l’ennui peut favoriser l’émergence de nouveaux objectifs et encourager l’exploration de nouvelles activités.
Professeur à Harvard spécialisé dans le leadership public et associatif, Arthur Brooks, a montré que l’ennui est indispensable au temps de réflexion. Ces moments de creux ouvrent un espace pour se poser les grandes questions de l’existence et donner du sens à ce que l’on vit. Des enfants rarement confrontés à l’ennui peuvent devenir des adultes qui peinent à y faire face. L’ennui agit aussi comme un stimulant pour le cerveau, en nourrissant la curiosité naturelle des enfants et en favorisant leur créativité.
Apprendre à composer avec l’ennui et, plus largement, avec les émotions négatives, constitue une compétence essentielle dans la vie. Lorsque les enfants apprennent à gérer leur temps par eux-mêmes, cela peut les aider à développer leurs fonctions exécutives, c’est-à-dire la capacité à se fixer des objectifs et à élaborer des plans.
Les bénéfices de l’ennui se comprennent aussi du point de vue de l’évolution. L’ennui est extrêmement répandu : il touche tous les âges, tous les genres et toutes les cultures, et les adolescents y sont particulièrement sujets. Or la sélection naturelle tend à favoriser les traits qui confèrent un avantage. Si l’ennui est aussi universel, il est peu probable qu’il persiste sans offrir, d’une manière ou d’une autre, des bénéfices.
Mieux vaut pour les parents éviter de considérer l’ennui comme une difficulté qu’ils doivent résoudre eux-mêmes pour leurs enfants. Les psychologues ont en effet observé que les étudiants dont les parents s’impliquent de manière excessive présentent davantage de symptômes dépressifs.
D’autres recherches indiquent également que les jeunes enfants à qui l’on donnait des écrans pour les apaiser se révèlent, plus tard, moins capables de réguler leurs émotions.
La tolérance à l’ennui est une compétence que beaucoup d’enfants rechignent à acquérir ou n’ont tout simplement pas l’occasion de développer. Et même chez les adultes, nombreux sont ceux qui préféreraient s’infliger une décharge électrique plutôt que de rester livrés à l’ennui.
Apprendre à faire avec l’ennui demande de l’entraînement. Il est préférable de commencer par de courtes périodes, puis d’allonger progressivement ces moments de temps non structuré. Parmi les conseils aux parents figurent celui d’encourager les enfants à sortir, celui de leur proposer un nouveau jeu ou une recette à tester, ou tout simplement celui de se reposer. Laisser une place à l’ennui implique aussi d’accepter qu’il y ait des moments où, concrètement, il ne se passe rien de particulier.
Les plus jeunes peuvent avoir besoin qu’on leur donne des idées sur ce qu’ils peuvent faire lorsqu’ils s’ennuient. Les parents n’ont pas à jouer avec eux à chaque fois que l’ennui surgit, mais proposer quelques pistes peut être utile. Pour les tout-petits, cinq minutes d’ennui constituent déjà un bon début.
Pour les enfants plus âgés, les encourager à trouver eux-mêmes comment faire face à l’ennui est particulièrement valorisant. Il est important de leur rappeler que cela fait partie de la vie, même si c’est parfois désagréable à vivre.
Les enfants ont une grande capacité d’adaptation. À force d’être confrontés à de petits moments d’ennui, les enfants se lassent moins vite par la suite. Les études montrent d’ailleurs que le fait d’expérimenter régulièrement l’ennui rend la vie globalement moins monotone.
Renoncer à l’idée qu’il faut sans cesse divertir les enfants peut aussi contribuer à alléger la charge mentale des parents. Aux États-Unis, environ 41 % d’entre eux déclaraient en 2024 être « tellement stressés qu’ils n’arrivent plus à fonctionner », et 48 % disaient que « la plupart des jours, leur niveau de stress est totalement écrasant », selon un rapport du médecin-chef des États-Unis.
Donc, la prochaine fois qu’un enfant se plaint en disant « Je m’ennuie », inutile de culpabiliser ou de s’énerver. L’ennui est une composante saine de la vie : il encourage l’autonomie, pousse à découvrir de nouveaux centres d’intérêt et à relever de nouveaux défis.
Faire comprendre aux enfants que ce n’est pas seulement tolérable mais bénéfique les aide à mieux l’accepter.
Margaret Murray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 16:15
Nicolas Minvielle, Spécialiste du design et de l'innovation, Audencia
Marie Roussie, Docteur en science de gestion, spécialisée en prospective, Université Paris Dauphine – PSL
Alors que le contexte géopolitique change en profondeur, de nouvelles entreprises émergent dans le monde de la défense. Après des décennies dominées par la puissance d’entreprises industrielles à l’ancienne, les start-up du logiciel deviennent des actrices clés. Retour sur une mutation en cours et décryptage des nouveaux enjeux qu’elle pose.
Dans le contexte de la guerre en Ukraine où l’« autonomie stratégique » devient un problème concret apparaît, à côté du traditionnel « complexe militaro-industriel »), un nouveau modèle que l’on pourrait décrire comme étant un complexe technocapitaliste. Un écosystème où start-up, fonds de capital-risque, fonds souverains, initiatives européennes et philanthropes techno-nationalistes investissent massivement dans la défense et la sécurité.
Non pas pour remplacer d’un coup la base industrielle et technologique de défense (BITD) – et ce malgré les annonces tonitruantes de certains de ces acteurs –, mais pour en modifier progressivement l’architecture, les acteurs et les temporalités.
Le modèle qui domine encore aujourd’hui a pris forme dans les années 1990, avec la grande consolidation de l’industrie américaine de défense sous l’administration Clinton. Durant cette période, la base industrielle de défense américaine a connu une consolidation d’une ampleur inédite. Surnommé le last supper, ce moment d’accélération des fusions a donné naissance aux cinq géants qui dominent encore largement la défense américaine – Lockheed Martin, Boeing, Northrop Grumman, Raytheon et General Dynamics. Quelques grands maîtres d’œuvre – ces fameux Big Five – se partagent ainsi depuis l’essentiel des grands programmes : avions de combat, frégates, satellites, systèmes de commandement intégrés.
À lire aussi : Réarmement : l’indispensable coopétition entre petites, moyennes et grandes entreprises de la défense
Leur logique est celle de la commande publique lourde : des besoins définis par l’État, des appels d’offres longs, des cycles de développement qui se comptent en décennies, une forte intégration verticale, une relation quasi organique avec les ministères de la Défense. Ce modèle assure une certaine visibilité budgétaire et une capacité à gérer des systèmes d’une complexité extrême. Il produit aussi une grande inertie tant sur le plan technologique que procédural.
Depuis une dizaine d’années, ce paysage est bousculé par des acteurs qui viennent, pour l’essentiel, du monde du logiciel : Anduril, Palantir, Helsing, Shield AI, et en France des entreprises comme Command AI. Leur point de départ n’est pas une plateforme matérielle (un avion, un navire, un char), mais le logiciel : fusion de données, IA, capteurs distribués, systèmes autonomes, couches de command & control.
Leurs méthodes de travail et de production, héritées de la tech consistent en itérations rapides, tests fréquents, déploiements progressifs, adaptation au retour du terrain plutôt qu’exécution d’un cahier des charges figé. Aux États-Unis, des dispositifs comme les Other Transaction Authority (OTA) ont été créés pour faciliter cette collaboration avec des acteurs non traditionnels, ce qui permet d’en contourner certaines lourdeurs réglementaires.
Au sein de ces organisations, on sait prototyper plus vite, expérimenter plus tôt, et ce qu’elles que soient leurs origines géographiques. Mais le cœur du problème reste entier : beaucoup de ces start-up valident un démonstrateur… puis butent sur la « vallée de la mort » entre prototypes financés en mode agile et programmes pérennes inscrits en loi de finances. L’appareil budgétaire, taillé pour les grands industriels historiques, peine à absorber des solutions issues de ce nouveau monde.
En Europe, on tente d’importer cet esprit à travers des marchés d’innovation, des programmes d’expérimentation accélérée, des dispositifs dual-use. Mais la culture d’acquisition reste largement calibrée pour les grands programmes industriels, plutôt que pour des produits logiciels qui changent de version plusieurs fois par an.
Parallèlement à cette rupture technologique, c’est la structure du financement de la défense qui se transforme. La sécurité n’est plus seulement affaire de budgets ministériels ; elle devient aussi un segment identifié du capital-risque. Aux côtés des commandes publiques et des investissements des grands groupes se constitue un nouvel écosystème d’investisseurs composé :
des fonds privés spécialisés dans la défense, la sécurité et les technologies dites « civilisationnelles » (IA, autonomie, cyber, spatial, résilience d’infrastructures) ;
des fonds souverains et publics qui cherchent à orienter l’innovation vers des priorités de souveraineté ;
des dispositifs européens (fonds de fonds, véhicules dédiés) qui tentent de structurer un marché encore fragmenté ;
des philanthropes techno-nationalistes qui investissent par conviction politique ou civilisationnelle autant que pour le rendement (Peter Thiel par exemple).
Tous partagent la conviction que certaines technologies – IA militaire, lutte anti-drones, robotique autonome, surveillance avancée, sécurité spatiale – vont devenir structurantes, et que la valeur se créera très en amont, bien avant les grands contrats publics. Le schéma de l’industriel finançant la R&D sur fonds propres pour vendre ensuite un produit à marge encadrée recule. Le risque est socialisé dans le capital : les VC, les fonds souverains, les programmes européens prennent le risque initial, en misant sur l’hypothèse qu’un jour, une partie de la commande publique basculera vers ces nouvelles solutions.
Ce mouvement ne remplace pas le financement traditionnel par les États ; il l’encercle, le complète et le pousse à se réorganiser. Ministères de la Défense, Union européenne, Otan tentent désormais de co-concevoir des instruments (fonds, equity facilities, fonds d’innovation) pour ne pas laisser au seul capital privé le soin de définir, par ses paris, l’architecture future de la BITD.
On l’aura compris, dans ce nouvel environnement, deux grandes logiques industrielles cohabitent. Du côté des industriels historiques, la chaîne de valeur part de l’expression de besoin : l’État formalise une exigence (un avion de combat, un système de défense antiaérienne, une frégate de nouvelle génération), lance un appel d’offres, sélectionne un industriel, et s’engage sur des décennies. La robustesse, la certification, l’intégration dans des architectures complexes sont centrales. Les marges sont encadrées, le risque est partagé, mais le tempo reste celui du temps long.
Les start-up de défense, à l’inverse, développent des produits avant que le besoin ne soit formalisé. Elles financent le développement puis se tournent vers les États en disant, en substance : « voilà ce que nous savons déjà faire, regardez si vous pouvez vous en passer ».
Cette asymétrie se voit dans la façon dont on conçoit les systèmes. Là où les grands industriels ont longtemps construit d’abord la plateforme matérielle, puis ajouté des couches logicielles au fil du temps, les nouveaux entrants adoptent une logique software first.
Le cas d’Anduril est emblématique. Au cœur de sa stratégie se trouve un système d’exploitation tactique, conçu pour connecter capteurs, drones, effecteurs et flux de données. À partir de cette brique logicielle, l’entreprise déploie ensuite ses propres drones, capteurs, systèmes d’armes, en gardant la maîtrise de l’architecture logicielle qui fait la jonction. Le tout étant principalement focalisé sur La clientèle militaire.
Cette inversion du rapport de force – la valeur se loge dans le logiciel, la plateforme matérielle devient, jusqu’à un certain point, substituable – rend très concrète la question de la souveraineté : qui contrôle la brique logicielle qui orchestre l’ensemble ? Qui décide du rythme des mises à jour ? Où se situent les dépendances critiques ?
Elle rebat aussi les cartes du Hi–Low mix : comment articuler des systèmes lourds, rares et coûteux (avion de combat, frégate) avec des objets plus simples, distribués, produits en masse (drones, capteurs, effecteurs low cost). Les nouveaux acteurs occupent volontiers ce bas et ce milieu du spectre, la « masse agile » ; les industriels historiques doivent, eux, apprendre à descendre vers des produits plus modulaires, plus rapides, tout en continuant à garantir l’excellence sur les systèmes de très haute complexité.
La rencontre entre capital-risque et défense met aussi au jour une tension structurante : celle des horizons temporels. Le Venture Capital (VC, ou capital-risque) raisonne en cycles de cinq à sept ans, avec l’idée que l’entreprise doit, soit atteindre une taille critique, soit être rachetée, soit entrer en bourse. Les ministères de la défense, eux, raisonnent sur vingt ou trente ans, voire davantage.
Ce décalage pose des questions très concrètes. Que se passe-t-il si un acteur clé de l’IA tactique ou du contre-drone, devenu indispensable sur le terrain, se retrouve fragilisé par la conjoncture financière, ou racheté par un acteur étranger ? Comment garantir la continuité d’une capacité opérationnelle dont la brique critique est portée par une entreprise structurée selon les logiques de la tech ?
À l’inverse, la défense ne peut plus ignorer le rythme d’innovation propre au logiciel. Attendre dix ans pour figer une architecture revient souvent à se condamner à déployer des systèmes déjà dépassés. D’où la montée en puissance de trois idées structurantes :
Le dual-use : privilégier les technologies qui ont, par construction, des débouchés civils et militaires (cyber, spatial, IA, robotique, résilience d’infrastructures). Cela élargit la base industrielle, répartit le risque et évite de concentrer des capacités critiques sur des marchés de niche.
Le « software-defined, hardware-enabled » : concevoir des systèmes où le cœur de valeur est dans l’algorithme (détection, fusion de capteurs, décision), et où le matériel – drone, capteur, effecteur – peut évoluer plus librement.
La modularisation et les architectures ouvertes : prévoir dès la conception des points d’insertion réguliers pour de nouvelles briques logicielles, de nouveaux capteurs, sans devoir réinventer tout le système.
Ces leviers ne font pas disparaître la tension entre temps court financier et temps long doctrinal, mais ils la rendent plus gérable. L’État peut, en théorie, remplacer une brique sans casser l’ensemble. Et le capital peut se concentrer sur des modules identifiables plutôt que sur des mégaprogrammes monolithiques.
On décrit parfois la situation actuelle comme la rencontre d’un « zoo » – celui des grands programmes, très régulés, très documentés, pensés pour durer – et d’une « jungle » peuplée d’insurgés technologiques, financés par les VC, en constante exploration.
Les nouveaux acteurs occupent des niches, souvent à la périphérie des grands programmes, mais avec un fort potentiel de diffusion. Pour l’instant, une grande partie d’entre eux reste dépendante de tremplins publics (contrats d’étude, expérimentations, appels à projets). Le marché réel, celui des grands volumes, demeure largement capté par les industriels historiques.
Dans le même temps, et le point est clé, les investisseurs privés se concentrent progressivement sur des profils plus mûrs : des entreprises qui ont déjà fait la preuve de leur solidité technique, de leur capacité à dialoguer avec les armées, de leur compréhension des contraintes réglementaires. On s’éloigne du fantasme de la start-up de défense sortie de nulle part pour se rapprocher d’acteurs hybrides, où se mêlent les cultures tech, industrielle et stratégique. Dit autrement, malgré le marketing ambiant, les investisseurs préfèrent accélérer des sociétés ayant une forme de maturité plutôt qu’une forme de risque extrême à tout va.
Pour l’Europe, l’enjeu n’est pas de choisir entre la jungle et le zoo, ni de rêver à une table rase. Il est d’apprendre à articuler ces deux univers :
en assumant plus clairement une politique industrielle de défense, qui fixe des priorités et des lignes rouges ;
en construisant des passerelles institutionnelles et financières entre fonds souverains, VC et industriels historiques ;
en pensant la souveraineté non seulement en termes de plates-formes matérielles, mais aussi en termes d’architectures logicielles, de données, de standards.
Le « complexe technocapitaliste » ne supprime pas le complexe militaro-industriel. Il le met à l’épreuve, l’oblige à se transformer et offre, si l’on sait le canaliser, de nouveaux leviers pour renforcer une souveraineté européenne qui ne peut plus se contenter de dépendre des choix technologiques et politiques des autres.
Nicolas Minvielle est membre du comité d’orientation de La Fabrique de la Cité, et du collectif Making Tomorrow
Marie Roussie travaille au sein de Alt-a et est membre du Collectif Making Tomorrow.
21.01.2026 à 16:15
Gregory Frame, Teaching Associate in Media and Cultural Studies, University of Nottingham
Explorant les failles et la défaite de la gauche américaine, les films Une bataille après l’autre, de Paul Thomas Anderson, et The Mastermind, de Kelly Reichardt, sont sortis en 2025, tandis que Donald Trump faisait un retour en force. Chacun à leur manière, ils invitent les membres et les partisans du parti démocrate comme les activistes de la gauche radicale à faire leur introspection.
La victoire de Donald Trump en novembre 2024 a provoqué une profonde remise en question dans les forces de gauche de la politique états-unienne. Après avoir échoué, les dirigeants du Parti démocrate ont passé l’essentiel de l’année 2025 à panser leurs plaies, tandis que Trump lançait ce que ses opposants considèrent comme une attaque frontale contre la démocratie américaine.
La nouvelle année a commencé par de nouveaux scandales, tant sur le plan intérieur qu’extérieur, l’administration Trump agissant avec une impunité de plus en plus effrayante.
À lire aussi : Le raid de Donald Trump sur le Venezuela laisse présager un nouveau partage du monde entre les grandes puissances
Combinée à la poursuite de la montée du populisme de droite et de l’autoritarisme dans le monde entier, la version « 2.0 » de Trump est vécue comme une crise existentielle pour la gauche.
Le pays a déjà connu une telle situation. Les mouvements de protestation de gauche des années 1960 aux États-Unis ont contribué à d’importants changements législatifs – en particulier dans le domaine des droits civiques –, mais ils ont souvent été caricaturés comme étant « antipatriotiques », notamment s’agissant de la guerre du Vietnam. Le sentiment que le pays se désagrégeait sous l’action de jeunes radicaux violents a conduit la « majorité silencieuse » conservatrice à offrir la victoire électorale à Richard Nixon en 1968.
Depuis lors, la gauche institutionnelle étasunienne s’est détournée de l’idéalisme des années 1960 et a plutôt proposé des changements progressifs et limités. Mais cette stratégie ne s’est sans doute pas révélée très efficace au cours du dernier demi-siècle.
Dans le contexte d’une nouvelle défaite et d’un énième cycle d’introspection, il semble donc approprié que deux films portant sur les échecs de la politique révolutionnaire de gauche des années 1960 et 1970 émergent presque simultanément avec le retour en force de Trump.
Bien que très différents par leur style et leur ton, Une bataille après l’autre (2025), de Paul Thomas Anderson, et The Mastermind (2025), de Kelly Reichardt, critiquent ce qu’ils présentent comme l’insuffisance stratégique et l’autosatisfaction de l’activisme de gauche, tout en explorant son coût personnel.
Une bataille après l’autre met en scène l’ancien révolutionnaire Pat Calhoun, alias Bob, (Leonardo DiCaprio) qui tente de sauver sa fille Willa (Chase Infiniti) des griffes d’un colonel suprémaciste blanc, qui a tout d’un psychopathe, Lockjaw (Sean Penn). Bien que Bob ait autrefois résisté aux politiques d’immigration cruelles et racistes du gouvernement fédéral à travers une série de raids audacieux contre des centres de détention, la paternité et une consommation excessive de cannabis ont émoussé son ardeur révolutionnaire.
Au lieu de cela, Bob est désormais un bouffon quelque peu incompétent. Le film exploite à des fins comiques ses tentatives chaotiques pour communiquer avec la « French 75 », l’armée révolutionnaire dont il faisait autrefois partie, inspirée de groupes révolutionnaires réels des années 1960 et 1970, comme les Weathermen.
Déambulant en peignoir, il a oublié tous les codes et les conventions nécessaires pour évoluer dans cet univers. Des mots de passe aux pronoms, Bob est en décalage avec son époque.
Cependant, le film se permet aussi de se moquer du moralisme de la gauche. Alors que Bob devient de plus en plus agressif faute d’obtenir des informations sur un point de rendez-vous crucial, le radical à qui il parle au téléphone l’informe que le langage qu’il emploie nuit à son bien-être. Si Bob manque de compétences pour soutenir la révolution, ceux qui la dirigent sont trop fragiles pour en mener une à bien.
À l’inverse, The Mastermind suit J. B. Mooney (Josh O’Connor) dans ses tentatives d’échapper aux autorités après avoir orchestré le vol de quatre œuvres d’art dans un musée de banlieue. Mari, père et fils d’un juge, Mooney est privilégié, sans direction, désorganisé, égoïste et, semble-t-il, indifférent à l’impact de la guerre du Vietnam alors que le conflit fait rage autour de lui.
Sa désorganisation est évidente dès le moment où il réalise que l’école de ses enfants est fermée pour une journée de formation des enseignants, le jour du casse. Son privilège apparaît clairement lorsqu’il lui suffit de mentionner le nom de son père lors de son premier interrogatoire par la police pour qu’on le laisse tranquille.
Même ses tentatives de convaincre sa femme, Terri (Alana Haim), qu’il a agi pour elle et pour leurs enfants sont maladroites, puisqu’il finit par admettre qu’il l’a aussi fait pour lui-même.
Alors qu’il est en fuite, Mooney semble ignorer ce qui se passe réellement autour de lui, des jeunes hommes noirs qui discutent de leur déploiement imminent au Vietnam, aux bulletins d’information relatant la réalité de la guerre. Sans rien dévoiler, Mooney ne peut finalement échapper aux conséquences de la guerre du Vietnam sur la société américaine.
Des moments révélateurs dans les deux films suggèrent également l’engagement vacillant envers la révolution de la part de ses anciens adeptes. Dans The Mastermind, Mooney se cache chez Fred (John Magaro) et Maude (Gaby Hoffmann), un couple avec lequel il a fréquenté l’école d’art. Malgré son passé militant, Maude refuse de l’héberger plus d’une nuit par crainte d’attirer l’attention des autorités. Dans Une bataille après l’autre, la volonté de Bob de prendre des risques pour sa sécurité et sa liberté diminue lorsqu’il devient parent et il est, de manière assez problématique, prompt à juger la mère de Willa, Perfidia (Teyana Taylor), qui continue à agir à ses risques et périls.
Les deux films rappellent inévitablement les œuvres tout aussi politiques produites par le cinéma états-unien à la fin des années 1960 et au début des années 1970, telles que Cinq pièces faciles (1970), Macadam à deux voies (1971) et Chinatown (1974). Au cœur du contrecoup nixonien face au radicalisme des années 1960, ces films adoptent un ton de résignation défaitiste, mettant en scène des protagonistes sans direction et des fins malheureuses.
La conclusion de The Mastermind ressemble à celle de ces films des années 1970. Le film s’achève sur des policiers présents lors d’une manifestation contre la guerre du Vietnam, se félicitant mutuellement après avoir arrêté un nouveau groupe de manifestants et de les avoir envoyés en prison.
Bien qu’Une bataille après l’autre soit beaucoup plus pétillant dans son style, la politique révolutionnaire de gauche y apparaît aussi comme une impasse. Des victoires à plus petite échelle restent possibles : Sergio (Benicio del Toro) continue de se battre pour les immigrés sans papiers, et Willa s’enfuit pour rejoindre une manifestation Black Lives Matter à la fin du film.
Mais en regardant ces deux films depuis la perspective d’une nouvelle année où l’administration Trump menace de provoquer de nouveaux bouleversements violents, tant au plan national qu’international, je repense à la lamentation mélancolique de Captain America (Peter Fonda) vers la fin du classique de la contre-culture Easy Rider (1969) :
« On a tout gâché. »
Gregory Frame ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 14:48
Grégoire Rota-Graziosi, Professeur CERDI-UCA-CNRS-IRD, Université Clermont Auvergne (UCA)

Le 12 septembre 2025, le Conseil constitutionnel français approuve une taxe sur les services numériques (TSN). Il assume l’existence d’un régime fiscal distinct applicable aux grandes plateformes numériques, sans rupture d’égalité devant l’impôt. Une révolution copernicienne ? Oui, car l’impôt n’est plus fondé sur la localisation des entreprises, mais sur celle de ses utilisateurs. En l’occurrence, en France et non aux États-Unis.
Un clic à Paris. Une réservation à Milan. Une vidéo à Londres. Trois gestes anodins, trois fractions de seconde offertes aux plateformes. Pour les marchés financiers, ces actes valent des milliards. Pour les administrations fiscales, ils ne valaient presque rien, les entreprises concernées évitant l’imposition de leurs bénéfices respectifs par des pratiques d’optimisation fiscale.
Pour y remédier, les autorités françaises ont introduit une taxe sur les services numériques (TSN) en 2019 comme une mesure transitoire pour appréhender les bénéfices réalisés en France par les entreprises multinationales dites du « numérique ». Elle rapporterait environ 700 millions d’euros en 2024.
Cette taxe initialement de 3 % s’applique sur le chiffre d’affaires des plateformes de services numériques – intermédiation, publicité ciblée, vente de données, etc.
Comment fonctionne concrètement cette taxe Gafam ? Quelles implications sur notre économie ? Pourquoi
Le 12 septembre 2025, le Conseil constitutionnel admet qu’une activité purement numérique – l’interaction entre une plateforme et ses utilisateurs situés en France – relève du champ de l’impôt. L’absence d’un établissement stable – usine, bureau ou filiale – ne fait plus obstacle à l’imposition des revenus issus d’utilisateurs localisés en France. Cette décision consacre une évolution majeure : une activité immatérielle est localisée par ses utilisateurs justifiant son imposition par la juridiction (pays) de ces derniers.
En reconnaissant ce principe, le Conseil donne un socle constitutionnel à la taxe sur les services numériques (TSN) française et, au-delà, à une fiscalité de l’usage. La présence économique ne se mesure plus en mètres carrés, en nombre de salariés, en valeur des immobilisations corporelles mais en interactions, en données et en attention des utilisateurs.
Cette décision considère l’activité numérique des utilisateurs comme une base fiscale autonome. Elle constitue une rupture discrète, mais historique, dans un débat planétaire portant sur la source de valeur à l’ère numérique.
Le retrait des États-Unis en janvier 2025 du Global Tax Deal a ravivé la pertinence de solutions unilatérales.
Le 2 décembre 2019, les États-Unis avaient rapidement réagi à l’adoption par la France, en juillet de la même année, de la loi créant la taxe sur les services numériques, en menaçant de rétorsion tarifaire non seulement la France, mais aussi d’autres pays ayant adopté une taxe similaire, comme le Royaume-Uni, l’Espagne, l’Autriche et l’Italie.
L’Organisation de coopération et de développement économiques (OCDE) est alors chargée de trouver une solution multilatérale dans le cadre des règles globales anti-érosion de la base imposable. La solution proposée repose sur deux piliers :
La (ré)allocation d’une partie des profits résiduels des grandes multinationales, en particulier numériques, vers les juridictions de marché indépendamment de la présence physique ;
L’instauration d’un impôt minimum mondial sur les sociétés, afin de limiter la concurrence fiscale et l’érosion des bases. L’administration de Donald Trump a rejeté en janvier 2025 cette solution et leurs engagements antérieurs dans l’accord de l’OCDE datant de 2021.
Dans ce contexte, la décision du Conseil constitutionnel rapproche la France de la position des Nations unies, sans rompre avec celle de l’OCDE. Dès 2021, l’article 12B du Modèle de Convention fiscale de l’ONU autorise les États à imposer les revenus tirés des « services automatisés fournis à distance », comme le cloud, le streaming, les logiciels, la publicité en ligne, les moteurs de recherche ou les plateformes. Cette approche protège davantage les intérêts des pays du Sud, davantage de consommateurs de services numériques que les « producteurs » de ceux-ci ou les hébergeurs des sièges des entreprises multinationales du numérique.
La définition de l’assiette taxable des services numériques est sensiblement plus large dans l’approche des Nations unies que dans les législations fiscales européennes.
L’intérêt de cette définition étendue est d’anticiper les évolutions industrielles actuelles et futures comme la « servicisation numérique ». Cette dernière désigne le passage de la vente de produits physiques à celle de services numériques. Par exemple, la valeur d’un équipement industriel ne repose pas tant sur celle de l’équipement physique que sur les services numériques dédiés à la performance de l’équipement.
La « servicisation numérique » transfère la création de valeur et de profits d’actifs physiques vers des actifs intangibles, comme des droits de propriété intellectuelle ou des services numériques. Le transfert des bénéfices vers des centres étrangers de services numériques localisés dans des pays à faible fiscalité participe à l’érosion des bénéfices imposables.
La taxe sur les services numériques (TSN) devient un moyen de limiter le risque de transfert de profits qui concerne la plupart des secteurs économiques.
Par sa forme, la taxe sur les services numériques est simple. Elle repose sur le chiffre d’affaires réalisé dans le pays où habite l’utilisateur. Cette forme évite la renégociation des conventions fiscales bilatérales.
Elle reste critiquée par les partisans de la théorie de la taxation optimale. Pourquoi ? Parce qu’elle réduit l’efficience de la production en taxant chaque transaction, en ignorant les marges bénéficiaires qui varient d’une entreprise à l’autre.
Par exemple, une taxe de 3 % sur le chiffre d’affaires d’une entreprise ayant une marge de 30 % correspond à une taxe de 10 % sur ses bénéfices. La même taxe appliquée à une entreprise moins profitable, ayant une marge de 5 % par exemple, supporterait alors une taxe de 60 % sur ses bénéfices.
Son alternative est la présence économique significative (PES) introduite en Inde en 2018, puis au Nigeria notamment.
Ce régime taxe le profit supposé réalisé dans le pays. Si cette forme de taxation respecte davantage l’orthodoxie fiscale en taxant les bénéfices, elle est plus complexe à mettre en œuvre. Elle nécessite d’estimer non seulement le chiffre d’affaires réalisé dans le pays, mais également les coûts associés à l’activité dans le pays concerné.
L’article 12B du Modèle de Convention fiscale de l’ONU laisse le choix aux pays de taxer le chiffre d’affaires ou le profit.
La décision du Conseil constitutionnel a confirmé la compétence fiscale de l’État à taxer la valeur créée par un utilisateur français de services numériques d’entreprises étrangères. Cette décision ne règle pas toutes les difficultés, et de nouveaux défis et oppositions existent concernant la définition ou l’estimation de la valeur taxable.
Elle est pourtant une première étape vers un système fiscal à l’ère du numérique.
Cet article a été co-rédigé avec Abdel-Malek Riad, chercheur associé au CERDI–CNRS et président-directeur général d’AMR IM.
Grégoire Rota-Graziosi est membre de la FERDI. Il est expert en politique fiscales et assure des missions auprès d'institutions nationales, régionales ou internationales.
21.01.2026 à 11:36
Baptiste Chide, Chargé de Recherche CNRS à l'IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées
Franck Montmessin, Directeur de recherche CNRS au Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.
Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.
Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de trente heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ trois minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.
Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.
Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.
Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !
Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.
En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars, en revanche, l’atmosphère ténue de CO₂ rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.
Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.
En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.
L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.
Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.
Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.
On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.
Peut-être lors de futures missions ? L’Agence spatiale européenne (ESA) avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.
Franck Montmessin a reçu des financements de l'ANR et du CNES.
Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 11:36
Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne

On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe. Tendez l’oreille : le seigneur des fleuves a beaucoup à dire.
Lorsque l’on se représente un crocodile, on pense à un prédateur silencieux, un tronc d’arbre flottant au milieu du fleuve, attendant patiemment qu’une proie s’approche pour faire brusquement claquer ses mâchoires. Cette image, bien que partiellement vraie – il est sagement déconseillé de nager au milieu de crocodiles –, occulte une réalité biologique fascinante : les crocodiliens (crocodiles, alligators, caïmans et gavials) sont les reptiles les plus vocaux et les plus sociaux de la planète.
Ces animaux possèdent un système de communication acoustique sophistiqué et une ouïe d’une finesse redoutable, peut-être hérités de leurs ancêtres communs avec les oiseaux et les dinosaures. Depuis près de trois décennies, notre équipe de recherche en bioacoustique s’attelle à décoder ce qu’ils disent et à comprendre comment ils perçoivent leur environnement sonore. Voici ce que nos études révèlent du monde sonore des crocodiliens.
L’histoire acoustique d’un crocodile commence avant sa naissance. Contrairement à la majorité des reptiles qui pondent leurs œufs et les abandonnent, les mères ou les pères crocodiliens montent la garde près du nid. Mais comment savoir quand les petits sont prêts à sortir, enfouis sous des dizaines de centimètres de sable ou de végétation ? Nos recherches ont démontré que les embryons de crocodiles ne sont pas passifs. Lorsqu’ils sont prêts à sortir de l’œuf, après trois mois d’incubation, ils commencent à émettre des vocalisations particulières, appelées cris d’éclosion.
Ces sons, audibles à travers la coquille et à l’extérieur du nid, remplissent une double fonction. D’une part, ils s’adressent à la fratrie. Lors d’expériences consistant à émettre des sons depuis un haut-parleur près d’œufs de crocodiles du Nil prêts à éclore, nous avons observé que l’audition de ces cris incite les autres embryons à vocaliser à leur tour et à briser leur coquille. Ce mécanisme permet de synchroniser l’éclosion : toute la nichée va sortir ensemble. Pour des proies aussi vulnérables que des nouveau-nés de quelques dizaines de grammes, c’est une belle stratégie de survie face aux prédateurs.
D’autre part, ces cris sont un signal impérieux pour la mère ou le père. Une femelle crocodile qui monte la garde depuis trois mois réagit immédiatement à l’audition de ces cris d’éclosion : elle se met à creuser le nid avec ses pattes. Sans ce comportement parental en réponse à leur signal sonore, les petits resteraient prisonniers sous terre.
Cependant, la mère ne réagit pas au premier petit bruit venu. Nos expériences sur le crocodile du Nil ont montré que la femelle réagit à des cris isolés par des mouvements de tête, enfouissant son museau dans le sol comme pour en sentir les vibrations, mais elle ne commence à creuser activement que si les cris forment une séquence continue et rythmée. Ceci évite à la femelle d’ouvrir le nid trop tôt pour un seul petit précocement bavard, ce qui mettrait en danger le reste de la couvée.
Une fois sortis de l’œuf et délicatement transportés à l’eau dans la gueule de leurs parents, les jeunes crocodiliens restent groupés en crèches sous la protection de l’adulte pendant des semaines, voire des mois. Durant cette période, la communication acoustique entre parent et jeunes est vitale.
Le répertoire vocal des juvéniles est structuré autour de deux types de signaux principaux : les cris de contact et les cris de détresse. Le cri de contact est utilisé pour maintenir la cohésion du groupe de jeunes. C’est un son d’intensité assez faible et dont la fréquence varie peu. Le cri de détresse, lui, est émis lorsqu’un jeune est saisi par un prédateur. Il est plus fort et sa fréquence est plus modulée. Il présente souvent une structure acoustique plus chaotique, ce qui le rend un peu rugueux à l’oreille.
La mère sait faire la différence : un cri de contact suscite une simple attention, tandis qu’un cri de détresse déclenche une réaction agressive de défense immédiate. Mais un parent reconnaît-il la voix de ses petits ? Visiblement pas : nos analyses acoustiques des crocodiles du Nil indiquent qu’il n’y a pas de signature vocale chez les nouveau-nés qui permettrait aux parents de les identifier individuellement. En revanche, nous avons découvert que plus le crocodile est petit, plus le cri est aigu. Lors d’expériences réalisées dans la nature, les mères crocodiles du Nil ont réagi plus intensément aux cris les plus aigus. C’est logique : les plus petits sont les plus vulnérables aux prédateurs et nécessitent une protection accrue.
Le crocodile est un animal amphibie, vivant à l’interface entre l’air et l’eau, mondes aux propriétés acoustiques radicalement différentes. Mais son audition est d’abord aérienne. Lorsque le crocodile flotte, immobile, ce qui est sa position favorite pour attendre une proie, ses oreilles se trouvent juste au-dessus de la ligne de flottaison. Si l’animal plonge, une paupière vient protéger l’oreille, et l’on ne sait pas encore si les crocodiles entendent bien sous l’eau.
Comment un animal dont la tête est à moitié immergée fait-il pour localiser une proie, un petit ou un rival ? Chez l’humain ou d’autres mammifères et oiseaux, la localisation repose sur deux indices principaux : le son arrive plus vite à l’oreille tournée vers la source et est également plus fort, puisque la tête fait écran. Dans des expériences, nous avons entraîné des crocodiles à se diriger vers des haut-parleurs pour obtenir une récompense, et les résultats montrent qu’ils utilisent également ces deux sources d’information. Pour les sons graves, ils se fient surtout au temps ; pour les aigus, ils utilisent plutôt la différence d’intensité.
Les crocodiliens vivent souvent dans des environnements bruyants. Pour survivre, ils doivent être capables d’isoler un signal pertinent du bruit de fond, mais aussi d’identifier ce qu’ils entendent. Un bruit dans les roseaux est-il une proie ou un congénère ? Au laboratoire, nous avons découvert quel paramètre acoustique ils utilisent pour faire cette distinction. Ce n’est pas la hauteur du son ni son rythme mais l’enveloppe spectrale, c’est-à-dire le timbre du son. C’est exactement le même paramètre que nous, humains, utilisons pour distinguer les voyelles (« a » ou « o ») ou pour reconnaître la voix de quelqu’un au téléphone. Et la catégorisation des sons opérée par les crocodiles n’est pas totalement figée, elle peut être affinée par l’apprentissage, preuve d’une vraie plasticité cognitive.
En particulier, les crocodiles savent reconnaître et sont particulièrement appâtés par les signaux de détresse d’autres animaux. Quand on diffuse des enregistrements de pleurs de bébés humains, bonobos ou chimpanzés à des crocodiles du Nil, les résultats sont frappants : les crocodiles sont très fortement attirés par ces pleurs. Mais pas n’importe comment.
Les humains jugent la détresse d’un bébé principalement à la hauteur de son cri (plus c’est aigu, plus on pense que le bébé exprime de la douleur). Les crocodiles, eux, se basent sur un critère acoustique plus fiable : le chaos, qui se traduit par la rugosité de la voix qui survient lorsque les cordes vocales sont poussées à leurs limites physiques sous l’effet du stress ou de la douleur.
Les crocodiles se sont donc révélés meilleurs que les humains pour évaluer le niveau de détresse des bébés, en particulier des bonobos. Là où nous surestimons la détresse des bonobos à cause de leurs cris suraigus, les crocodiles ne réagissent intensément qu’aux pleurs contenant beaucoup de chaos acoustique, signe d’une véritable urgence, et donc d’une proie vulnérable.
Si les jeunes crocodiliens sont particulièrement bavards, les adultes ne sont pas en reste. Les mères, et les pères pour les espèces où ils s’occupent de leur progéniture, émettent des grognements qui attirent les jeunes. Femelles et mâles adultes rugissent lors des parades nuptiales et pour défendre leur territoire. Lorsqu’ils se sentent menacés, les adultes peuvent souffler de manière bruyante, ce qui passe l’envie de les approcher. On observe cependant de grandes différences dans l’usage des signaux sonores entre les groupes de crocodiliens : si les alligators et les caïmans sont particulièrement vocaux, les autres crocodiles deviennent plus silencieux à l’âge adulte.
Imaginez un jeune crocodile affamé qui entend un congénère l’appeler, mais qui sent en même temps une odeur de viande. Que fait-il ? Nous avons testé ce conflit sensoriel. Les résultats montrent que l’état de satiété modifie la réponse comportementale. Un crocodile rassasié est très attentif aux sons sociaux : il se dirige vers les cris de contact de ses congénères. Un crocodile affamé privilégie la recherche d’une source de nourriture. Cela suggère une modulation de l’attention : la priorité de l’animal peut basculer selon les besoins physiologiques.
Loin de l’image du monstre primitif, le crocodile est un animal doté d’une vie sensorielle et cognitive riche. Il naît dans un monde sonore, synchronisant son éclosion avec ses frères et sœurs. Il communique avec l’adulte qui s’occupe de lui pour obtenir protection. Il analyse son environnement sonore avec des outils sophistiqués (localisation binaurale, démasquage spatial) dignes des oiseaux ou des mammifères. Il catégorise les sons sur la base de leur timbre pour distinguer les congénères des en-cas. Et il est même capable d’évaluer le niveau de détresse dans la voix d’autres espèces.
Ces études sur les crocodiles ont impliqué de nombreux collaborateurs et collaboratrices, dont Thierry Aubin (CNRS), Nicolas Grimault (CNRS), Nicolas Boyer (Université de Saint-Étienne), Amélie Vergne, Léo Papet, Julie Thévenet et Naïs Caron-Delsbosc. Je remercie les parcs zoologiques La Ferme aux crocodiles (Pierrelatte, France) et Crocoparc (Agadir, Maroc) pour leur soutien.
Nicolas Mathevon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
21.01.2026 à 11:36
Manuel Bellanger, Chercheur en économie, Ifremer

Le mot « géo-ingénierie » recouvre un grand nombre de techniques, du « parasol spatial », qui limite l’arrivée de lumière du soleil dans l’atmosphère, à l’ensemencement de l’océan pour lui faire absorber encore plus de carbone qu’il ne le fait naturellement.
Manuel Bellanger étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec son regard d’économiste. Cet interview, réalisée par Elsa Couderc, cheffe de rubrique Sciences et Technologies, constitue le second volet de « regards croisés » sur la géo-ingénierie climatique. Dans le premier, nous explorons avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger.
The Conversation : La géo-ingénierie marine est mal connue en France, pourtant elle se développe à l’étranger. Qui développe ces projets ?
Manuel Bellanger : En ce qui concerne l’océan, le spectre des acteurs et des techniques de géo-ingénierie est très varié.
Les initiatives les plus prudentes sont en général pilotées par des instituts de recherche, par exemple aux États-Unis ou en Allemagne. Leur finalité est plutôt de comprendre si ces interventions sont techniquement possibles : peut-on développer des méthodes pour capturer du CO₂ atmosphérique par l’océan, mesurer la quantité de carbone stockée durablement, vérifier les affirmations des différents acteurs, étudier les impacts écologiques, tenter de définir des bonnes pratiques et des protocoles ? Ces projets de recherche sont typiquement financés par des fonds publics, souvent sans objectif de rentabilité immédiate.
Il existe aussi des collaborations entre institutions académiques et partenaires privés et, enfin, à l’autre bout du spectre, un certain nombre de start-up qui font la promotion du déploiement rapide et massif de ces techniques.
Peut-on espérer gagner de l’argent grâce à la géo-ingénierie marine ?
M. B. : Le modèle économique de ces start-up repose sur la vente de crédits carbone qu’elles espèrent pouvoir mettre sur les marchés volontaires du carbone – c’est-à-dire qu’elles cherchent à vendre des certificats à des acteurs privés qui veulent compenser leurs émissions.
Pour cela, la séquestration doit être certifiée par des standards ou des autorités. Sachant qu’il y a aussi des initiatives privées qui développent des certifications… aujourd’hui, c’est un peu la jungle, les marchés volontaires du carbone. Et l’achat de ces crédits certifiés reste sur la base du volontariat, puisqu’il n’y a généralement pas d’obligation réglementaire pour les entreprises de compenser leurs émissions.
Pouvez-vous nous donner des exemples de telles start-up et l’état de leurs travaux ?
M. B. : Running Tide, aux États-Unis, a tenté de développer des crédits carbone issus de la culture d’algues sur des bouées biodégradables qui devaient couler sous leur propre poids dans les profondeurs abyssales. Mais ils ne sont pas parvenus à produire des quantités significatives d’algues. L’entreprise a finalement eu recours au déversement de milliers de tonnes de copeaux de bois dans les eaux islandaises pour essayer d’honorer les crédits carbone qu’ils avaient vendus. Mais les experts et observateurs ont critiqué le manque de preuves scientifiques montrant que cette approche permettait réellement de séquestrer du CO₂ et l’absence d’évaluation des impacts sur les écosystèmes marins. L’entreprise finalement a cessé ses activités en 2024 pour des raisons économiques.
Une start-up canadienne, Planetary Technology, développe une approche d’augmentation de l’alcalinité océanique visant à accroître l’absorption du CO₂ atmosphérique et son stockage à long terme sous forme dissoute dans l’océan. Pour cela, ils ajoutent à l’eau de mer du minerai alcalin, de l’hydroxyde de magnésium. Ils ont annoncé avoir vendu des crédits carbone, notamment à Shopify et British Airways.
Une autre société, californienne cette fois, Ebb Carbon, cherche également à augmenter l’alcalinité océanique, mais par électrochimie : ils traitent de l’eau de mer pour la séparer en flux alcalins et acides, puis renvoient la solution alcaline dans l’océan. Cette société a annoncé avoir signé un contrat avec Microsoft pour retirer des centaines de milliers de tonnes de CO₂ sur plusieurs années.
L’écosystème commercial fleurit déjà en Amérique du Nord, même si on n’en entend pas forcément parler ici.
Il y a aussi une sorte de fonds, appelé Frontier Climate, qui engage des contrats anticipés pour des tonnes de CO₂ qui seront retirées de l’atmosphère dans le futur : ils achètent par avance des crédits carbone à des sociétés qui sont en phase de développement et qui ne sont pas encore réellement en train de capturer et de séquestrer du carbone. Derrière ce fonds-là, il y a des géants de la tech, comme Google ou Facebook, parmi les membres fondateurs. On peut supposer que c’est une manière pour ces entreprises, qui ont une consommation énergétique assez importante, de s’acheter une vertu climatique. Donc, eux, ils ont déjà annoncé avoir acheté pour 1,75 million de dollars (plus de 1,5 million d’euros) de crédits carbone à des entreprises d’alcalinisation de l’océan.
Et pourtant, vous disiez tout à l’heure qu’on n’est pas encore sûrs de savoir mesurer scientifiquement si l’océan a bien absorbé ces tonnes de carbone.
M. B. : Effectivement, les bases scientifiques de ces techniques-là ne sont vraiment pas solides aujourd’hui. On ne sait pas encore quelles quantités de CO₂ elles vont permettre de capturer et de séquestrer et on ne sait pas non plus quels vont être les impacts sur l’environnement.
À lire aussi : Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?
Et côté scientifique, il n’y a donc pour l’instant pas de consensus sur la capacité des techniques de géo-ingénierie marine à retirer suffisamment de carbone de l’atmosphère pour réellement freiner le changement climatique ?
M. B. : Il y a même pratiquement un consensus scientifique pour dire que, aujourd’hui, on ne peut pas présenter les techniques de géo-ingénierie marine comme des solutions. En fait, tant qu’on n’a pas drastiquement réduit les émissions de gaz à effet de serre, beaucoup considèrent qu’il est complètement futile de vouloir commencer à déployer ces techniques-là.
En effet, aujourd’hui, les ordres de grandeur évoqués (le nombre de tonnes que les entreprises annoncent séquestrer) n’ont rien à voir avec les ordres de grandeur qui permettraient de changer quoi que ce soit au climat. Par exemple, pour la culture de macroalgues, certaines modélisations estiment qu’il faudrait recouvrir 20 % de la surface totale des océans avec des fermes de macroalgues – ce qui est déjà presque absurde en soi – pour capturer (si ça marche) 0,6 gigatonne de CO₂ par an… à comparer aux 40 gigatonnes que l’humanité émet aujourd’hui chaque année. Si ces techniques pouvaient jouer un rôle dans le futur pour compenser les émissions que le Giec désigne comme « résiduelles » et « difficiles à éviter » (de l’ordre de 7 à 9 gigatonnes de CO₂ par an à l’horizon 2050) et atteindre des objectifs de neutralité carbone, les déployer aujourd’hui ne pourrait en aucun cas remplacer des réductions d’émissions rapides et massives.
Alors, qui pousse ces développements technologiques ?
M. B. : Un certain nombre d’initiatives semblent être poussées par ceux qui ont un intérêt au statu quo, peut-être même par certains qui n’auraient pas de réelle volonté de déployer la géo-ingénierie, mais qui ont un intérêt à faire diversion pour retarder l’action qui viserait à diminuer les émissions aujourd’hui.
On pense plutôt aux acteurs des énergies fossiles qu’aux géants de la tech, dans ce cas ?
M. B. : Les acteurs des énergies fossiles ont effectivement cet intérêt à retarder l’action climatique, mais ils sont de fait moins visibles aujourd’hui dans le financement direct des techniques de géo-ingénierie – il semble qu’ils soient plus dans le lobbying et dans les discours qui vont légitimer ce genre de techniques.
De fait, investir dans la géo-ingénierie ne fait-il pas courir le risque de détourner l’attention des citoyens et des gouvernements de l’urgence de réduire nos émissions de gaz à effet de serre ?
M. B. : C’est un risque clairement identifié dans la littérature scientifique, parfois sous le nom d’« aléa moral climatique », parfois d’« effet de dissuasion ». Derrière, il y a l’idée que la promesse de solutions technologiques futures, comme la géo-ingénierie marine, pourrait affaiblir la volonté politique ou sociétale de réduire les émissions dès maintenant. Donc le risque d’être moins exigeants envers nos décideurs politiques pour qu’ils tiennent les engagements climatiques et, in fine, que le décalage entre les objectifs et l’action climatique réelle soit toujours plus grand.
Par ailleurs, on a des ressources financières, ressources en main-d’œuvre, en expertise, qui sont somme toute limitées. Tout ce qui est investi dans la recherche et le développement ou pour l’expérimentation de ces technologies de géo-ingénierie peut se faire au détriment des ressources allouées pour les mesures d’atténuation connues et démontrées : l’efficacité énergétique, les énergies renouvelables, la sobriété. On sait que ces solutions fonctionnent : ce sont elles qu’il faudrait mettre en œuvre le plus rapidement.
La priorité absolue – on n’arrête pas de le répéter –, c’est la diminution rapide des émissions de gaz à effet de serre. Donc la position de la plupart des scientifiques, c’est que ces techniques de géo-ingénierie marine devraient être explorées d’un point de vue de la recherche, par exemple pour évaluer leur efficacité et leurs effets environnementaux, économiques et sociaux, de manière à éclairer les choix politiques et sociétaux à venir. Mais, encore une fois, aujourd’hui la géo-ingénierie marine ne peut pas être présentée comme une solution à court terme.
C’est pour cela que la communauté scientifique appelle à une gouvernance internationale de la géo-ingénierie, avant un déploiement massif de ces techniques. Quelles instances internationales seraient à même de mener une gouvernance sur le sujet ?
M. B. : Il faut en effet que les États s’impliquent fortement dans la gouvernance de la géo-ingénierie, et il faut des traités internationaux. Pour l’instant, c’est assez fragmenté entre différents instruments juridiques, mais il y a ce qu’on appelle le protocole de Londres, adopté en 1996, pour éviter la pollution en mer par dumping (le fait de pouvoir décharger des choses en mer). Ce protocole permet déjà en partie de réguler les usages de géo-ingénierie marine.
Par exemple, la fertilisation des océans par ajout de fer visant à stimuler le phytoplancton qui capture le CO₂ par photosynthèse. Cette technique rentre dans le cadre existant du protocole de Londres, qui interdit la fertilisation de l’océan à des fins commerciales et impose un cadre strict pour la recherche scientifique depuis plus d’une quinzaine d’années. Le protocole pourrait être adapté ou amendé pour réguler d’autres techniques de géo-ingénierie marine, ce qui est plus facile que de créer un nouveau traité international.
Les COP sur le climat sont aussi importantes pour deux raisons : elles rassemblent plus de nations que le protocole de Londres, et elles sont le cadre privilégié pour discuter des marchés carbone et donc pour éviter la prolifération d’initiatives commerciales non contrôlées, pour limiter les risques environnementaux et les dérives du type crédits carbone douteux.
Il y a des précédents avec ce qu’il s’est passé sur les crédits carbone forestiers : une enquête publiée par le Guardian en 2022 a montré que plus de 90 % des projets certifiés par Verra – le principal standard mondial – n’ont pas empêché la déforestation ou ont largement surévalué leurs bénéfices climatiques. Sans encadrement, la géo-ingénierie marine pourrait tout à fait suivre le même chemin.
Enfin, il y a bien sûr des enjeux d’équité, si ceux qui mettent en œuvre une action ne sont pas ceux qui risquent de subir les impacts ! Là aussi, il y a des précédents observés sur des projets forestiers certifiés pour générer des crédits carbone, où les bénéfices économiques sont captés par les investisseurs tandis que les communautés locales subissent des restrictions d’accès aux ressources forestières ou sont exposées à des changements dans leur mode de vie.
Concrètement, quels sont les risques pour les populations qui vivent à proximité de l’océan ou s’en servent de ressource nourricière, par exemple ?
M. B. : Ça dépend vraiment de la technique de géo-ingénierie utilisée et de l’endroit où ça va être déployé. Par exemple, si on imagine un déploiement massif de cultures d’algues, ça pourrait modifier les écosystèmes côtiers, et par ailleurs générer une concurrence pour l’espace avec la pêche ou l’aquaculture traditionnelle.
Sur les littoraux, où les activités maritimes sont souvent très denses, il y a déjà des conflits d’usage, que l’on observe par exemple dans les tensions autour des installations de parcs éoliens en mer.
Propos recueillis par Elsa Couderc.
Manuel Bellanger a reçu des financements dans le cadre du programme ANR n° 21-POCE-0001 PPR Océan & Climat.
21.01.2026 à 11:36
Laurent Bopp, Directeur de recherche, Centre national de la recherche scientifique (CNRS); École normale supérieure (ENS) – PSL; Académie des sciences

La « géo-ingénierie climatique » recouvre un ensemble de techniques qui visent à manipuler le climat à grande échelle afin d’éviter les risques du changement climatique. Ces techniques sont très variées, depuis les parasols spatiaux pour limiter l’arrivée des rayons du soleil dans l’atmosphère jusqu’à la fertilisation des océans pour que le phytoplancton consomme davantage de CO₂, en passant par la restauration et la conservation de zones humides où le carbone est stocké de façon préférentielle.
En octobre 2025, l’Académie des sciences a publié un rapport qui détaille ce que l’on sait et ce que l’on ignore encore sur les éventuels bénéfices de ces techniques et sur les nouveaux risques qu’elles font surgir.
Elsa Couderc, cheffe de rubrique Sciences et Technologies, explore ici avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger. Le second volet de ces « regards croisés » est un entretien avec Manuel Bellanger, qui étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec un regard d’économiste.
The Conversation : Pourquoi l’Académie des sciences s’empare-t-elle aujourd’hui du sujet de la géo-ingénierie climatique, alors qu’on en parle relativement peu en France ?
Laurent Bopp : Le sujet est de plus en plus présent dans la littérature scientifique, dans le débat scientifique et dans le débat politique qui entoure les discussions sur le changement climatique. On ne s’en rend pas bien compte en France, mais aux États-Unis, en Angleterre, en Allemagne, au Canada, le débat est beaucoup plus présent.
Certains climatologues, y compris de renom, se prononcent pour faire beaucoup plus de recherches sur ces technologies, mais aussi parfois pour envisager leur déploiement à grande échelle afin d’éviter un réchauffement trop important. L’argument est simple : un niveau de réchauffement trop élevé génère des risques importants et pourrait conduire au dépassement de certains points de bascule potentiels dans le système climatique, par exemple une fonte irréversible des calottes glaciaires du Groenland et de l’Antarctique, ce qui pourrait entraîner une élévation du niveau de la mer de plusieurs mètres additionnels.
En France, nous avons besoin collectivement de plus d’informations et de plus de débats autour de ces techniques. Nous avons eu le sentiment que certains de nos représentants se sont retrouvés en partie dépourvus dans des arènes de négociations internationales, face à des représentants d’autres gouvernements qui ont un agenda très agressif sur ces technologies. C’est sans doute une des raisons pour lesquelles l’Académie des sciences s’est emparée du sujet.
L’idée des interventions de géo-ingénierie climatique, c’est de réduire les risques liés au changement climatique. Mais ces interventions pourraient-elles induire de nouveaux risques et lesquels ?
L. B. : Un des intérêts de ce rapport, c’est de mettre la lumière sur ces nouveaux risques.
Mais, avant de rentrer dans le détail, il faut, quand nous parlons de géo-ingénierie climatique, distinguer deux grandes catégories de techniques – ces deux catégories sont fondées sur des approches très différentes et présentent des risques, là aussi, très différents.
Pour la première de ces catégories, il s’agit de modifier de façon assez directe le rayonnement solaire. On parle en anglais de Solar Radiation Management ou SRM. Dans ce cas-là, l’action s’apparente plutôt à une sorte de pansement sur la plaie d’une blessure, sans s’attaquer du tout à la cause du changement climatique : l’idée est de refroidir la Terre de façon artificielle, en utilisant par exemple des particules atmosphériques ou des miroirs spatiaux qui limiteraient la pénétration du rayonnement solaire jusqu’à la surface de la Terre. Ce refroidissement pourrait compenser, en partie au moins, le réchauffement lié aux gaz à effet de serre qui continueraient à augmenter dans l’atmosphère.
L’injection d’aérosols dans la haute atmosphère vise à imiter des éruptions volcaniques de très grande taille qui, par le passé, ont pu refroidir la Terre. Une des limites premières de cette approche, c’est que cette façon de refroidir la Terre est très différente de la façon dont elle se réchauffe aujourd’hui à cause des gaz à effet de serre : les échelles de temps et les échelles spatiales associées sont très différentes, et cela engendre un certain nombre de conséquences. Les risques sont à lire en fonction de ces deux échelles.
Les aérosols que l’on pourrait injecter dans la haute atmosphère ont une durée de vie courte. Ils vont disparaître de l’atmosphère assez rapidement, tandis que les gaz à effet de serre qui réchauffent le système Terre, le CO₂ en particulier, sont dans l’atmosphère pour très longtemps.
Cette différence majeure entraîne l’un des risques les plus préoccupants : le risque de « choc terminal ». Concrètement, si l’on décidait d’arrêter brutalement l’injection d’aérosols après s’être engagé dans ce type de stratégie
– et les raisons pourraient être multiples, qu’il s’agisse de problèmes de gouvernance, de financement ou de conflits internationaux – le réchauffement climatique jusque-là partiellement masqué réapparaîtrait d’un seul coup. On subirait alors, en très peu de temps, plusieurs années de réchauffement accumulé. On aurait des taux de réchauffement temporels très très rapides, et donc des conséquences sur la biodiversité ou sur les sociétés humaines difficiles à anticiper.
En d’autres termes, si le réchauffement arrive relativement lentement, la mise en place de mesures d’adaptation est possible ; s’il est très rapide, les conséquences sont potentiellement bien plus dévastatrices.
L’autre risque majeur est lié aux échelles spatiales : refroidir avec des aérosols par exemple, ce n’est pas du tout la même chose que ne pas refroidir en émettant moins de CO₂. Les effets régionaux du refroidissement vont être très différents de ce qu’ils auraient été si on avait réchauffé un peu moins. La localisation des précipitations, l’intensité de la mousson notamment ont des conséquences sur l’agriculture, sur la santé. Sur ces effets régionaux, il y a encore beaucoup d’incertitudes aujourd’hui, c’est quelque chose que les modèles décrivent moins bien que les effets temporels dont je parlais tout à l’heure.
À lire aussi : Parasols géants et blanchiment du ciel : de fausses bonnes idées pour le climat
Face à ce risque majeur, l’Académie recommande d’arrêter le déploiement des techniques de modification du rayonnement solaire, et même les recherches sur cette technique de géo-ingénierie…
L. B. : Effectivement, notre rapport recommande de ne pas utiliser ces techniques, et nous allons même jusqu’à suggérer un traité international qui interdirait leur déploiement.
Nous pensons aussi qu’il ne faut pas financer, de façon importante, de la recherche qui soit spécifiquement fléchée sur ces techniques de modification du rayonnement solaire, pour éviter de légitimer ces approches trop dangereuses.
Bien sûr, nous avons besoin de bien plus de recherche sur le climat et sur les processus climatiques importants, donc sur les processus qui lient, par exemple, les aérosols dans la haute atmosphère avec la modification du rayonnement, mais nous pensons vraiment qu’il faut éviter les projets fondamentalement pensés pour pousser l’avènement de ces technologies. Les risques associés sont trop importants.
La géo-ingénierie climatique inclut une deuxième approche, celle qui consiste à augmenter l’efficacité des puits de carbone naturels, par exemple les forêts, les tourbières ou les océans qui absorbent naturellement du carbone. En quoi est-ce fondamentalement différent de la modification du rayonnement solaire ?
L. B. : Il ne s’agit plus de refroidir la Terre pour compenser un réchauffement qui serait lié à l’augmentation des gaz à effet de serre, mais d’éliminer du CO₂ qui est déjà présent dans l’atmosphère. Le terme consacré est celui d’« élimination du dioxyde de carbone », ou Carbon Dioxide Removal (CDR) en anglais.
D’abord, soyons clairs : la priorité des priorités reste de réduire les émissions actuelles de façon drastique. Ces « puits de carbone » additionnels ne doivent intervenir que comme un complément, après la réduction des émissions de façon massive et immédiate.
Pour stabiliser le climat et répondre aux objectifs de l’accord de Paris à 1,5 ou 2 °C de réchauffement par rapport à l’époque préindustrielle, nous avons besoin d’aller collectivement vers des émissions nettes nulles !
Comme il y aura sans doute des secteurs difficiles à décarboner, comme la sidérurgie ou le transport aérien, nous savons qu’il y aura sans doute besoin d’un peu de ces puits de carbone pour compenser ces émissions résiduelles.
On est donc sur une ligne de crête compliquée à tenir : ne pas mettre ces techniques d’élimination du CO₂ en avant, pour ne pas décourager la réduction des émissions – en raison du potentiel de décarbonation limité de ces techniques, nous allons y revenir – et en même temps continuer à soutenir la recherche sur ces technologies parce qu’elles pourraient se révéler utiles, au moins dans une certaine mesure.
En augmentant l’efficacité des puits de carbone naturels, si on reprend l’analogie avec le pansement et la blessure, on ne s’attaque toujours pas à la cause (l’émission de gaz à effet de serre), mais on remonte dans la chaîne de causalité en s’attaquant à quelque chose de plus amont que dans le cas de la modification du rayonnement solaire.
Il existe de nombreux types de méthodes d’élimination du CO₂, à la fois naturelles et technologiques. Présentent-elles toutes le même potentiel et les mêmes risques ?
L. B. : Pour éliminer du CO₂ déjà dans l’atmosphère, il y a une très grande diversité de techniques, en partie parce qu’il existe plusieurs « réservoirs » dans lesquels il serait possible de stocker le CO₂ retiré de l’atmosphère : dans le sous-sol, dans l’océan, dans la biomasse continentale.
Pour simplifier, je dirais qu’il y a une série de techniques qui sont aujourd’hui considérées comme « gagnant-gagnant » : elles permettent de retirer du CO₂ de l’atmosphère et elles ont d’autres bénéfices.
Prenons par exemple la restauration et la conservation des écosystèmes côtiers, comme les mangroves ou les herbiers marins : ces actions permettent un stockage de carbone et, par exemple, de mieux protéger les côtes contre la montée du niveau marin et les épisodes de submersion côtière. D’autres techniques, en foresterie, en agroforesterie ou en stockant le carbone dans les sols, permettent aussi de développer des pratiques agricoles qui sont plus vertueuses.
Malheureusement, comme évoqué dans le rapport, ces approches sont difficiles à mettre à l’échelle, en raison des surfaces souvent limitées et des quantités phénoménales de carbone qu’il faudrait pouvoir stocker dans ces réservoirs naturels pour avoir un effet significatif.
Et puis il y a, à l’autre bout du spectre, des techniques qui sont jugées peu efficaces et dont on sait qu’elles ont sans doute des effets dommageables sur les écosystèmes. Compte tenu des connaissances actuelles, l’Académie des sciences recommande de ne pas poursuivre dans ces directions-là.
L’exemple le mieux documenté est celui de la fertilisation par le fer du plancton marin, car elle a été envisagée il y a déjà longtemps, à la fin des années 1980. L’idée est d’aller en pleine mer, dans des régions où le développement du phytoplancton est limité par la faible abondance d’un nutriment bien particulier : le fer. Dans ces régions, il n’y a pas besoin d’ajouter beaucoup de fer pour fertiliser le plancton, qui va se développer davantage, et pour cela absorber plus de CO₂. Une partie de la matière organique produite coule ensuite vers les profondeurs de l’océan, emportant avec elle le carbone qu’elle contient. Ce carbone est ainsi isolé de l’atmosphère dans l’océan profond, potentiellement pour des centaines d’années.
Plusieurs expériences scientifiques ont été menées en pleine mer dans les années 1990 et 2000. À court terme, elles ont effectivement mis en évidence une augmentation du flux de carbone de l’atmosphère vers l’océan.
Toutefois, des travaux plus récents, notamment fondés sur la modélisation, montrent que cette technique est probablement beaucoup moins efficace qu’on ne l’imaginait initialement. Surtout, en modifiant fortement les écosystèmes marins pour capter du carbone, elle entraîne toute une série d’effets indésirables : l’émission d’autres gaz à effet de serre, une diminution de l’oxygène dans les eaux profondes, ou encore l’épuisement de certains nutriments essentiels, qui ne sont alors plus disponibles pour d’autres écosystèmes.
Ces constats ont conduit la communauté internationale à réagir. En 2008, les États ont amendé le protocole de Londres afin d’y introduire une interdiction de ce type de pratiques en haute mer.
Dans le cas de la fertilisation des océans, les risques sont donc bien documentés – ils ne concernent pas directement le climat mais des dommages collatéraux ?
L. B. : Oui. Malheureusement, on voit en ce moment une résurgence de certains projets poussés par certains chercheurs qui continuent à défendre ce type de techniques, par exemple aux États-Unis. Mais pour nous, il semble clair qu’il ne faut pas recommander ces techniques aux effets collatéraux bien documentés.
À lire aussi : Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?
Entre les techniques trop risquées, comme la fertilisation des océans, et les techniques de conservation et de restauration, que j’appelais « gagnant-gagnant » tout à l’heure, il y a d’autres techniques, pour lesquelles on a besoin de davantage de recherche – c’est le cas, par exemple, des techniques d’alcalinisation de l’océan.
Il s’agit d’une technique chimique cette fois : on augmente le pouvoir tampon de l’océan en ajoutant du matériel alcalin. Un des points positifs, c’est que cette technique consiste en l’accélération d’un phénomène naturel qui est l’altération des roches sur les continents. Quand les roches s’altèrent, elles apportent de l’alcalinité à l’océan, donc elles augmentent le pouvoir tampon de l’océan qui absorbe plus de CO₂ – c’est un processus très lent, qui a un rôle très important sur les échelles de temps très, très longues et qui régule en partie le cycle du carbone sur les échelles de temps géologiques.
Deuxième avantage : le CO2 ainsi stocké dans l’océan l’est de manière très durable, bien plus que dans des approches reposant sur du carbone organique (comme la fertilisation des océans) où le stockage est beaucoup plus incertain. Troisième point positif, cette augmentation de l’alcalinité permet aussi de réduire partiellement l’acidification des océans.
Mais ces bénéfices s’accompagnent de nombreuses incertitudes et de risques. Ajouter des matériaux alcalins modifie parfois fortement la chimie de l’eau de mer. Quels effets cela pourrait-il avoir sur les écosystèmes marins, le plancton ou les espèces côtières dont dépendent de nombreuses populations humaines ? À ce stade, nous manquons encore de données pour répondre clairement à ces questions.
L’efficacité même de la technique reste également incertaine. Pour qu’elle fonctionne, l’alcalinité ajoutée doit rester dans les couches de surface de l’océan, là où les échanges avec l’atmosphère ont lieu. Si elle est rapidement entraînée vers les profondeurs, son impact sur l’absorption du CO₂ devient très limité.
Enfin, il y a beaucoup de questions sur le coût de ces techniques. En particulier, un certain nombre de start-up et d’entreprises s’orientent vers des méthodes électrochimiques, mais c’est très coûteux d’un point de vue énergétique. Il faut faire le bilan sur l’ensemble du cycle de vie de ces techniques.
En somme, on a une gamme de techniques, parfois appelées abusivement « solutions » : certaines que l’on ne recommande pas aujourd’hui parce que les risques sont énormes ; d’autres qu’il faut prioriser et recommander, mais qui ont une efficacité somme toute limitée. Et puis entre les deux, des méthodes sur lesquelles il faut continuer à travailler.
À l’échelle internationale, où et quand se discutent les nouveaux risques des techniques de géo-ingénierie climatique ?
L. B. : La question des puits de carbone est déjà largement débattue dans le cadre des COP Climat, notamment parce que les gouvernements peuvent les intégrer dans leurs objectifs de réduction des émissions. C’est le cas, par exemple, des stratégies d’afforestation (boisement) et de reforestation. En revanche, il reste encore beaucoup de travail à faire sur les modalités concrètes de mise en œuvre de certaines techniques d’élimination du CO₂ que nous avons évoquées. En particulier, les questions de mesure et de vérification du CO₂ réellement retiré de l’atmosphère sont complexes et loin d’être résolues. Le Giec a d’ailleurs été mandaté par les gouvernements pour produire un rapport méthodologique spécifiquement consacré à ces enjeux.
En ce qui concerne la modification du rayonnement solaire, mon inquiétude est nettement plus forte. Certains pays affichent désormais ouvertement leur intérêt pour un déploiement potentiel de ces techniques.
Dans le prochain rapport du Giec, la géo-ingénierie occupera une place plus importante que dans les précédents. J’espère que cela permettra de documenter de façon précise et convaincante les risques potentiels associés à ces approches.
Propos recueillis par Elsa Couderc.
Bopp Laurent a reçu des financements du CNRS, de l'Agence Nationale de la Recherche, de la Fondation pour la Recherche sur la Biodiversité, du Programme Horizon Europe de la Commission Européenne, et de la Fondation Schmidt Sciences.
20.01.2026 à 19:01
Kaveh Madani, Director of the Institute for Water, Environment and Health, United Nations University

De Téhéran au fleuve Colorado, les signes d’un effondrement durable des ressources en eau se multiplient. La planète consomme aujourd’hui plus d’eau douce qu’elle n’est capable d’en renouveler. Sous l’effet du changement climatique et de décennies de surexploitation, de nombreuses régions du monde ne parviennent plus à se remettre des périodes de manque d’eau. Cette situation, que nous qualifions de « faillite hydrique », est omniprésente : elle touche déjà des milliards de personnes avec des conséquences déjà visibles sur les sociétés, l’agriculture et les écosystèmes.
Le monde utilise aujourd’hui tellement d’eau douce, dans un contexte de changement climatique, qu’il est désormais en situation de « faillite hydrique ». Par là, il faut comprendre que nombreuses régions ne sont plus en mesure de se remettre des pénuries d’eau à mesure que celles-ci deviennent de plus en plus fréquentes.
Environ 4 milliards de personnes, soit près de la moitié de la population mondiale, vivent dans des conditions de grave pénurie d’eau (c’est-à-dire sans accès à une quantité d’eau suffisante pour répondre à tous leurs besoins) pendant au moins un mois par an.
En réalité, beaucoup plus de personnes subissent les conséquences du déficit hydrique : réservoirs asséchés, villes englouties, mauvaises récoltes, rationnement de l’eau, incendies de forêt et tempêtes de poussière dans les régions touchées par la sécheresse.
Les signes de faillite hydrique sont partout, de Téhéran, où les sécheresses et l’utilisation non durable de l’eau ont épuisé les réservoirs dont dépend la capitale iranienne, alimentant les tensions politiques, jusqu’aux États-Unis, où la demande en eau a dépassé les capacités du fleuve Colorado, une source cruciale d’eau potable et d’irrigation pour sept États.
La faillite hydrique n’est pas seulement une métaphore du manque d’eau. Il s’agit d’une situation chronique qui se développe lorsqu’un endroit utilise plus d’eau que la nature ne peut en remplacer de façon fiable, et lorsque les dommages causés aux ressources naturelles qui stockent et filtrent cette eau, comme les aquifères et les zones humides, deviennent difficiles à réparer.
Une nouvelle étude que j’ai dirigée avec l’Institut pour l’eau, l’environnement et la santé de l’Université des Nations unies (UNU) conclut que nous n’en sommes plus à des crises de l’eau ponctuelles et temporaires. De nombreux systèmes hydrologiques naturels ne sont plus en mesure de retrouver leur état historique. Ces systèmes sont désormais en état de défaillance, que nous proposons d’appeler « faillite hydrique ».
Lors d’une faillite financière personnelle, les signes avant-coureurs semblent au départ gérables : retards de paiement, compensés par des emprunts voire des ventes d’objets. Puis la spirale s’accélère. Les premières étapes d’une faillite hydrique sont assez similaires.
Cela commence doucement, d’abord les années sèches, où l’on augmente les prélèvements d’eau souterraine, on utilise des pompes plus puissantes ou encore des puits plus profonds.
Puis on va peut-être, pour répondre aux besoins, transférer l’eau d’un bassin à un autre. On assèche des zones humides et on rectifie le cours des rivières pour laisser de la place aux fermes et aux villes préexistantes.
C’est alors que les coûts cachés commencent à être visibles. Les lacs rétrécissent d’année en année. Les puits doivent être creusés plus profondément. Les rivières qui coulaient autrefois toute l’année deviennent intermittentes. L’eau salée s’infiltre dans les aquifères près de la côte. Dans certains cas, le sol lui-même commence à s’affaisser.
Ce dernier phénomène, appelé subsidence, surprend souvent les gens. Il s’agit pourtant d’un signe caractéristique lié au manque d’eau. Lorsque les nappes phréatiques sont surexploitées, la structure souterraine, qui retient l’eau presque comme une éponge, peut s’effondrer. À Mexico, le sol s’affaisse d’environ 25 centimètres par an. En effet, une fois que les « pores » du sol sont compactés, leur recharge en eau est plus difficile et moins efficace.
Le Global Water Bankruptcy report, publié ce 20 janvier 2026, montre à quel point ce phénomène est en train de se généraliser. L’extraction des eaux souterraines a contribué à un affaissement important du sol sur plus de 6 millions de kilomètres carrés, y compris dans les zones urbaines où vivent près de 2 milliards de personnes. Jakarta (Indonésie), Bangkok (Thaïlande) et Hô Chi Minh-Ville (Vietnam) sont parmi les exemples les plus connus en Asie.
L’agriculture est le plus grand consommateur d’eau au monde, responsable d’environ 70 % des prélèvements mondiaux d’eau douce. Lorsqu’une région est confrontée à un manque d’eau, l’agriculture devient plus difficile et plus coûteuse. Dans certains cas, les agriculteurs peuvent perdre leur emploi, les tensions peuvent augmenter et la sécurité nationale peut être menacée.
Environ 3 milliards de personnes et plus de la moitié de la production alimentaire mondiale sont concentrées dans des régions où les réserves d’eau sont déjà soit en déclin, soit instables. Plus de 1,7 million de kilomètres carrés de terres agricoles irriguées sont déjà soumises à un stress hydrique élevé ou très élevé. Cela menace la stabilité de l’approvisionnement alimentaire dans le monde entier.
Les sécheresses sont également de plus en plus longues, fréquentes et intenses à mesure que les températures mondiales augmentent. Plus de 1,8 milliard de personnes – près d’un humain sur quatre – ont été confrontées à des conditions de sécheresse à un moment ou à un autre entre 2022 et 2023.
Ces chiffres ont des conséquences très concrètes : hausse des prix de l’alimentation, pénuries d’hydroélectricité, risques sanitaires, chômage, pressions migratoires, troubles et conflits.
Chaque année, la nature offre à chaque région une « rente » d’eau sous forme de pluie et de neige. On peut la considérer comme un compte courant : c’est la quantité d’eau à dépenser et à partager avec la nature dont nous disposons chaque année.
Lorsque la demande augmente, nous pouvons puiser dans notre compte d’épargne. Nous prélevons alors plus d’eau souterraine que ce que les milieux peuvent reconstituer. Autrement dit, nous volons la part d’eau dont la nature a besoin et asséchons les zones humides au cours du processus. Cela peut fonctionner quelque temps, tout comme l’endettement peut financer un mode de vie dépensier pendant un certain temps.
Ces sources d’eau sont aujourd’hui en train de disparaître, en tout cas à long terme. En cinq décennies, le monde a perdu plus de 4,1 millions de kilomètres carrés de zones humides naturelles. Les zones humides ne se contentent pas de retenir l’eau. Elles la purifient, atténuent les inondations et servent d’abri à la faune et la flore.
La qualité de l’eau diminue également. La pollution, les intrusions d’eau salée et la salinisation des sols peuvent rendre l’eau trop souillée et trop salée pour être utilisée, contribuant ainsi à la pénurie d’eau.
Le changement climatique aggrave la situation en réduisant les précipitations dans de nombreuses régions du monde. Il augmente aussi les besoins en eau des cultures et la demande en électricité pour pomper davantage d’eau. Il provoque enfin la fonte des glaciers qui stockent l’eau douce.
Malgré ces problèmes, les États continuent de prélever toujours plus d’eau pour soutenir l’expansion des villes, des terres agricoles, des industries et désormais des data centers.
Tous les bassins hydrographiques du monde ne sont heureusement pas en situation de faillite hydrique. Mais n’oublions pas que ces bassins sont interconnectés du fait de la géographie, du commerce, mais également des migrations et du climat. La faillite hydrique d’une région exercera une pression supplémentaire sur les autres et peut ainsi accroître les tensions locales et internationales.
Sur le plan financier, une faillite prend fin lorsqu’on modifie la structure des dépenses. C’est la même chose pour la faillite hydrique.
Arrêter l’hémorragie : la première étape consiste à reconnaître que le bilan est déséquilibré. Cela implique de fixer des limites de consommation d’eau qui reflètent la quantité d’eau réellement disponible, plutôt que de simplement forer plus profondément et reporter le problème sur les générations futures.
Protéger le capital naturel, au-delà de l’eau : protéger les zones humides, restaurer les cours d’eau, rétablir la santé des sols et gérer la recharge des nappes phréatiques ne sont pas des actions de confort. Elles sont essentielles au maintien d’un approvisionnement en eau saine, tout comme elles le sont à un climat stable.
Consommer moins d’eau, mais la partager de façon plus équitable : la gestion de la demande en eau est devenue inévitable dans de nombreux endroits, mais les plans qui réduisent l’approvisionnement des populations pauvres tout en protégeant les plus puissants sont voués à l’échec. Les approches sérieuses comprennent des mesures de protection sociale, un soutien aux agriculteurs pour qu’ils se tournent vers des cultures et des systèmes moins gourmands en eau, et des investissements dans l’efficacité hydrique.
Mesurer ce qui compte vraiment : de nombreux pays gèrent encore l’eau avec des informations partielles. Pourtant, des méthodes modernes, comme la télédétection par satellite, facilitent la surveillance des réserves d’eau et des tendances globales. Cela permettrait d’émettre des alertes précoces concernant l’épuisement des nappes phréatiques, l’affaissement des sols, la disparition des zones humides, le recul des glaciers et la détérioration de la qualité de l’eau.
Prévoir moins d’eau : le plus difficile aspect d’une faillite est l’aspect psychologique. C’est cette dimension qui nous oblige à abandonner ce qu’on tenait pour acquis. La faillite hydrique implique de repenser les villes, les systèmes alimentaires et les économies pour respecter de nouvelles limites et éviter que celles-ci ne se resserrent encore davantage.
En matière d’eau, comme de finance, la faillite peut être un tournant. L’humanité peut continuer à dépenser comme si la nature offrait un crédit illimité, ou elle peut apprendre à vivre sans outrepasser les limites de ses ressources hydrologiques.
Kaveh Madani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.01.2026 à 17:01
Anouchka Divoux, Maîtresse de conférences en Sciences du Langage et Didactique des Langues, Université de Lorraine
Valérie Langbach, Maitre de conférences en Sciences du Langage, Université de Lorraine
Nous les croisons partout, sans vraiment y prêter attention : dans les salles d’attente, les couloirs d’hôpitaux, les stations de métro ou les écoles. Les affiches de santé publique semblent n’être que de simples rappels destinés à nous aider à « bien nous comporter ». Mais, sous leurs couleurs pastel et leurs slogans bienveillants, elles transmettent une vision très précise, et rarement neutre, de ce que doivent être la santé, le citoyen et la responsabilité.
« N’attendez pas les premiers effets des fortes chaleurs », « Debout, chez vous – 10 astuces anti-sédentarité », « Avec le cannabis, on peut vite se sentir dépassé », « Pour un mode de vie plus équilibré, chaque petit pas compte »…
Les affiches de santé publique qui fleurissent toute l’année autour de nous constituent autant de rappels destinés à nous inciter à faire les bons gestes, à adopter les bons comportements pour notre santé. Cependant, loin d’être de simples supports d’information, elles sont aussi des outils de normalisation.
Elles individualisent des problèmes collectifs, construisent un référentiel universel trompeur et occultent les inégalités sociales, matérielles ou linguistiques qui rendent certains comportements difficiles, voire impossibles.
Sous couvert d’aide ou de prévention, elles déplacent subtilement les responsabilités collectives vers les individus. Décryptage.
En tant que chercheuses en sciences du langage, nous avons été interpellées par les réactions de jeunes adultes interrogés dans le cadre du projet CARES (« Comprendre, analyser et repenser les énoncés “brefs” dans les campagnes nationales de prévention de la santé »).
Face à une affiche dénonçant les violences verbales et physiques envers les soignants, l’ensemble des participants a condamné ces pratiques. Cependant, davantage que l’adhésion au message véhiculé par l’affiche en question, les réactions recueillies ont mis en lumière un élément de discours sous-jacent : les participants ont largement dénoncé le jugement moral porté par l’affiche, soulignant l’absence d’explications concernant les défaillances structurelles de l’État sur ces problématiques, susceptibles d’être à l’origine de ces agressions.
Les participants ont immédiatement pointé que, sur l’affiche, rien n’était dit du sous-effectif, de la saturation des services ou des interminables heures d’attente. Autrement dit, le poster condamnait un comportement individuel, sans évoquer aucun des facteurs structurels qui alimentent ces tensions.
Cette observation nous a conduits à constater que les messages de ce type ne se limitent pas à présenter une situation, mais qu’ils tendent à orienter le comportement des individus.
Une question est dès lors apparue centrale dans notre étude : les messages des affiches de santé visent-ils à éclairer ou à orienter le comportement des individus ? Autrement dit, le rôle social de ces affiches est-il d’« informer sur » ou plutôt « d’inciter à » ?
La nuance est primordiale : si l’information vise à raconter et à expliquer pour faire circuler un savoir, l’incitation cherche à orienter nos actions en prescrivant quoi faire et comment, tout en nous informant des conséquences d’un éventuel non-respect.
Partant de ce constat, nous nous sommes interrogées sur les mécanismes et les raisons qui amènent la communication publique à déplacer l’objet de ses messages et à transférer une responsabilité collective vers les individus.
Dans le langage institutionnel, le terme prévention et l’expression promotion de la santé sont souvent employés comme s’ils allaient de soi, alors même qu’ils recouvrent des réalités très différentes.
La prévention, telle qu’elle est mise en scène dans la plupart des affiches, repose sur la discipline individuelle. Les messages proposés visent à éviter un risque ou l’aggravation d’une pathologie en demandant aux individus d’adopter un « bon » comportement : annuler un rendez-vous, se laver les mains, ne pas se rendre aux urgences pour un problème bénin, etc.
La promotion de la santé, quant à elle, vise à transformer l’environnement social pour rendre les comportements souhaités possibles. Cette approche relève d’une tout autre logique. Il ne s’agit plus seulement de dire aux individus quoi faire, mais de créer les conditions favorables à l’action : horaires adaptés, renforcement de l’accueil, simplification administrative, médiation linguistique, etc.
Comme l’a montré le sociologue Érik Neveu, les messages de santé publique fabriquent une citoyenneté sanitaire sans conflits sans antagonismes, sans classes sociales, un espace où l’effacement des tensions donne l’illusion d’un consensus moral.
Si chacun adoptait les « bons réflexes », le système fonctionnerait mieux. Peu à peu, « informer » se mue en « orienter », « accompagner » en « commander », « prévenir » en « moraliser ». La santé, pensée hier comme un droit collectif, glisse vers un devoir individuel où le devoir de se soigner prend la place du droit à la santé.
C’est précisément dans ce basculement vers une responsabilisation individuelle que se joue l’ambiguïté des campagnes. Derrière l’apparente neutralité des messages, une confusion s’installe entre prévention et promotion de la santé.
Ce brouillage n’est jamais neutre car il laisse entendre que si le système dysfonctionne, c’est avant tout parce que les citoyens n’adoptent pas le comportement attendu. Autrement dit, derrière les appels au « bon sens » sanitaire se construit une véritable forme de gouvernement des conduites.
Pour saisir les ressorts de cette orientation, les travaux du philosophe français Michel Foucault et du sociologue britannique Nikolas Rose constituent un cadre d’analyse particulièrement opérant, en développant notamment la notion de biopolitique.
Le biopolitique désigne la manière dont le pouvoir s’exerce non plus uniquement sur les territoires et les lois, mais directement sur la vie des individus et des populations. En résumé : les institutions modernes gèrent également les populations par le biais de la santé, de la natalité, de l’hygiène, etc. L’État ne contrôle plus directement l’individu mais l’incite à s’autodiscipliner et à s’autoréguler.
Foucault montre ainsi que les institutions modernes gouvernent les populations en agissant sur leurs comportements : hygiène, sport, alimentation, gestion du « capital santé » comme on gère un capital économique. Rose prolonge cette réflexion en décrivant un citoyen sommé de devenir l’entrepreneur de son propre corps, toujours vigilant, anticipant, optimisant.
Dans les sociétés néolibérales, la santé devient une norme morale et identitaire, il y a donc « responsabilisation biologique ». Pour Rose, l’individu est sommé de devenir un acteur actif de sa propre santé, sous peine d’être considéré comme irresponsable, voire coupable. Dans ce cadre, ne pas être un « bon patient » devient presque une faute morale.
Cette reconfiguration du rôle du citoyen ne dépend pas seulement des dispositifs administratifs et politiques, elle s’exprime aussi dans la manière même dont les institutions prennent la parole. Le langage institutionnel ne se limite pas à relayer des faits. Il construit et impose en réalité une « vérité sociale », portée par l’autorité de celui qui énonce.
Abordées sous l’angle de la performativité du langage (Austin, 1962 ; Butler, 2004, ces affiches énoncent tout autant des comportements attendus qu’elles contribuent à produire la figure du « bon patient », celui qui est prévoyant, calme, discipliné, autonome, respectueux, et relègue à la défaillance, voire à la faute, celles et ceux qui s’en écartent.
L’affiche des « lapins posés aux rendez-vous médicaux » est un exemple très parlant de ce type de processus. Cette campagne de sensibilisation à la gestion du parcours de soin transforme un problème systémique en faute individuelle, à travers un dispositif graphique, langagier ainsi que moral, politiquement et économiquement pensé.
L’affiche montre un lapin qui patiente sur une chaise dans une salle d’attente, accompagné du slogan : « Ne posez pas de lapin à un médecin. Annulez et votre rendez-vous profitera à quelqu’un. »
À partir d’un énoncé construit sur une métaphore légère (le lapin) et par l’usage d’un langage simple, familier, infantilisant ou humoristique (rime : lapin/médecin), on délivre un message culpabilisant.
On observe un contraste entre la légèreté de la formule et la gravité de la conséquence évoquée : la perte de temps médical. Le lecteur est face à un énoncé qui prescrit une conduite ou un comportement socialement/moralement requis : il faut annuler son rendez-vous !
Or, dans cette affiche, le patient est le seul acteur nommé et mis en cause, les raisons systémiques de la situation sont complètement effacées. Le fonctionnement, ou plutôt les dysfonctionnements, du système de santé aboutissant à ces annulations de dernières minutes n’est pas non plus questionné.
Le manque de praticiens peut en effet entraîner des délais de rendez-vous très longs, délais qui augmentent le risque de potentiels oublis de date. Certains patients peuvent rencontrer des difficultés à contacter le médecin ou son secrétariat pour annuler. Sans oublier que tous les patients ne maîtrisent pas nécessairement – ni techniquement ni linguistiquement – les plates-formes de rendez-vous. D’autres raisons peuvent aussi aboutir au fait que certains patients décident de ne pas se présenter au rendez-vous. On peut par exemple citer l’angoisse de l’annonce d’une maladie potentielle, qui peut faire tourner les talons à certaines personnes en dernière minute.
L’objet du message véhiculé par cette affiche est de culpabiliser les patients « défaillants ». À sa lecture, le lecteur est engagé dans une sorte de dette symbolique envers les soignants : « il n’y a déjà pas beaucoup de rendez-vous possibles donc en plus si on n’y va pas… C’est honteux ! »
Le soin se trouve ainsi dépolitisé ; c’est le comportement individuel – ici, le fait de ne pas honorer un rendez-vous – qui serait responsable de la dégradation du système, plutôt que ses limites structurelles. L’idée sous-jacente est claire et renvoie à l’opposition entre « bons usagers » et « usagers déviants », récurrente dans les discours institutionnels contemporains.
Autrement dit, l’individu est sommé d’être un citoyen discipliné et donc un acteur efficient de la santé publique. Ces éléments de discours mettent ainsi en œuvre une forme de paternalisme discursif et effacent une forme de dialogue en considérant le lecteur comme un sujet à éduquer plutôt qu’un citoyen à accompagner. Cet aspect renvoie au « registre autoritaire masqué », selon lequel « la violence symbolique s’exerce avec le consentement de ceux qui la subissent, par le biais du langage ».
Considérer les affiches de santé dans leur dimension sociale et linguistique permet de rappeler que la santé publique ne se réduit pas à convaincre chacun d’être un « bon patient », mais à construire collectivement les conditions qui rendent les « bons comportements » possibles.
En effet, cette polarisation entre « bon usager » et « usager déviant » reflète une logique de gestion néolibérale des comportements, où l’individu devient responsable du bon fonctionnement du système. L’orientation choisie pour élaborer ces campagnes tend à faire disparaître la dimension politique des questions de santé, comme les inégalités sociales, les politiques publiques ou les choix économiques.
Elle masque également les déterminants sociaux de la santé, tels que la précarité, l’environnement, le stress ou l’illettrisme. Tout cela se fait au profit d’un discours centré sur la volonté, l’effort et la discipline relevant d’une responsabilité individuelle et de choix présentés comme purement personnels et « naturels ».
Pour les publics précarisés et faiblement scolarisés, ces affiches deviennent alors une double peine : ils sont responsables selon la norme, bien qu’étant souvent incapables d’en saisir pleinement les codes.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
20.01.2026 à 17:00
Cléa Fortuné, Maîtresse de conférences en civilisation des États-Unis, membre du laboratoire Langages, Littératures, Sociétés, Études Transfrontalières et Internationales (LLSETI)., Université Savoie Mont Blanc
Depuis son retour à la Maison Blanche, Donald Trump ne cesse de reprocher au pouvoir (de gauche) de Mexico de ne pas en faire assez en matière de lutte contre l’immigration irrégulière et contre le trafic de drogue, et va jusqu’à menacer de frapper militairement les cartels de la drogue implantés sur le sol mexicain. La présidente du Mexique Claudia Sheinbaum lui répond à l’occasion avec véhémence. Mais elle est allée dans son sens sur certains dossiers, à commencer par celui du contrôle de la frontière séparant les deux pays, laquelle est aujourd’hui plus que jamais la zone de tous les dangers pour les migrants.
Dès son retour à la Maison Blanche en janvier 2025, Donald Trump a de nouveau, comme au cours de son premier mandat, placé la frontière avec le Mexique au cœur de son agenda politique. Sécurité nationale, contrôle strict des migrations et guerre contre les cartels de drogues sont redevenus des priorités affichées, tant à la frontière sud qu’à l’intérieur des États-Unis.
Un an plus tard, le bilan de cette première année de mandat révèle une militarisation renforcée, une remise en cause des droits des personnes migrantes et des relations diplomatiques avec le Mexique incertaines.
Dès janvier 2025, Donald Trump a signé le décret présidentiel Protecting the American People Against Invasion, présenté comme une réponse à ce qu’il décrit comme une « inondation sans précédent de migrations illégales » sous l’administration Biden qui constituerait, selon lui, une « menace » pour la sécurité nationale. Ce décret permet notamment de restreindre les possibilités d’accès à l’asile aux États-Unis et de renvoyer les personnes migrantes sans audience devant un tribunal de l’immigration, rompant avec le droit international et le principe de non-refoulement.
Dans la foulée, l’administration Trump a déclaré l’état d’urgence nationale à la frontière États-Unis/Mexique, une décision qui lui a permis de débloquer des fonds fédéraux pour en renforcer la sécurisation. Cette logique s’est concrétisée en juillet 2025 par l’adoption de la loi dite One Big Beautiful Bill Act qui prévoit 46,5 milliards de dollars pour la construction d’un « mur intelligent » (Smart Wall), combinant barrières physiques, capteurs, drones, et dispositifs de surveillance numérique. Cette stratégie s’inscrit dans la continuité de politiques déjà engagées au niveau des États fédérés, notamment au Texas, où des barrières aquatiques ont été installées dans le Rio Grande dans le cadre de l’Operation Lone Star lancée par le gouverneur républicain Greg Abbott en 2021.
Au-delà de ces dispositifs physiques et technologiques, le mur reste un puissant symbole politique dans le discours de l’administration Trump. À l’instar de son slogan de campagne de 2016, « Build the Wall », l’administration continue de mettre l’accent sur les portions de mur inachevées, qu’elle érige en symbole d’une frontière prétendument « ouverte » permettant l’entrée de migrants qualifiés de « criminels ».
Cette insistance sur les « vides » du mur contraste pourtant avec la réalité de la frontière. Les cartes officielles publiées par la Customs and Border Protection entretiennent d’ailleurs une certaine confusion, en minimisant visuellement l’ampleur des infrastructures déjà existantes. En réalité, sur les 3 150 kilomètres de frontière, environ 1 130 kilomètres de barrières ont été progressivement installés depuis les années 1990, tandis qu’environ 1 100 kilomètres correspondent à une barrière naturelle constituée par le fleuve Rio Grande/Rio Bravo. Depuis mars 2025, les segments en construction – qui visent à remplacer des barrières déjà existantes pour la plupart –, notamment dans la vallée du Rio Grande (sud du Texas), s’inscrivent ainsi davantage dans une logique de continuité administrative (achevant des projets décidés sous l’administration Biden) que dans une réponse à une crise migratoire inédite.
Pourtant, au moment où ces infrastructures se densifient, la frontière États-Unis/Mexique connaît une période d’accalmie. Les mesures sécuritaires et anti-migratoires mises en œuvre dès juin 2024 sous l’administration Biden, et intensifiées en 2025, interviennent dans un contexte qui peut sembler paradoxal. Entre octobre 2024 et octobre 2025, environ 443 671 traversées irrégulières ont été enregistrées, contre 2,5 millions entre octobre 2023 et octobre 2024.
Cette baisse des traversées s’explique en partie par des tendances amorcées sous l’administration Biden, notamment la restriction des possibilités de demande d’asile et la signature d’accords régionaux dans le cadre de la Déclaration de Los Angeles sur la migration et la protection de 2022 qui ont contribué à externaliser la gestion de la frontière sud des États-Unis vers les pays latino-américains. Elle tient également au rôle central joué par le Mexique, qui a intensifié les contrôles migratoires sur son territoire, sous la pression des administrations Trump et Biden. Le Mexique arrête aujourd’hui davantage de migrants en transit vers les États-Unis que les États-Unis eux-mêmes, agissant de facto comme le premier « mur » de la politique migratoire des États-Unis.
Alors que les traversées diminuent à la frontière, Donald Trump a déplacé son attention vers l’intérieur du territoire états-unien. Dès sa campagne présidentielle, il a annoncé un plan de rapatriements de masse, présenté comme le plus ambitieux de l’histoire des États-Unis, visant jusqu’à un million de personnes par an.
Cette politique s’est traduite par une intensification des raids menés par l’agence en charge des migrations, ICE (Immigration and Customs Enforcement), dans les villes sanctuaires, mais aussi par l’évolution des outils administratifs existants. L’application CBP One, initialement conçue en 2020 et largement utilisée par l’agence CBP (Customs and Border Protection) sous l’administration Biden afin de permettre aux migrants de prendre rendez-vous avec les autorités états-uniennes pour déposer une demande d’asile, a été relancée en mars 2025 avec une nouvelle fonction : celle de faciliter le départ volontaire des non-citoyens.
Le département de la Sécurité intérieure (Department of Homeland Security) affirme que 1,9 million de personnes seraient reparties volontairement en 2025, certaines incitées par la promesse d’un billet gratuit pour un vol de rapatriement et d’une aide financière de 1 000 dollars (860 euros), portée à 3 000 dollars (2500 euros) pendant la période de Noël 2025.
Ces chiffres sont toutefois contestés. Un tel exode ne serait vraisemblablement pas passé inaperçu. Des estimations plus plausibles évoquent plutôt environ 200 000 départs volontaires, tandis que de nombreux migrants en situation irrégulière adoptent des stratégies d’invisibilisation afin d’éviter les arrestations et les contrôles. Par ailleurs, un sondage national indique que 15 % des migrants sondés (en situation régulière ou non) auraient envisagé de quitter le pays, ce qui ne signifie pas nécessairement qu’ils soient effectivement partis.
Le durcissement des mesures anti-migratoires et sécuritaires s’accompagne d’une fragilisation des relations diplomatiques entre les États-Unis et le Mexique.
Dès janvier 2025, l’administration Trump a désigné six organisations criminelles mexicaines comme organisations terroristes étrangères, une décision qui ouvre la possibilité d’interventions militaires. Cette rhétorique coercitive s’est durcie après la capture du président vénézuélien Nicolas Maduro par les États-Unis, le 4 janvier 2026, officiellement justifiée par son implication présumée dans des trafics de drogues. Dans ce contexte, Donald Trump a de nouveau évoqué la possibilité d’une action militaire au Mexique, accusant le pays d’être géré par les cartels de drogues et de ne pas en faire assez pour endiguer les traversées irrégulières et le trafic de fentanyl.
À lire aussi : Fentanyl : vers une opération militaire des États-Unis au Mexique ?
Cette relation asymétrique renvoie à une tradition plus ancienne de la politique étrangère des États-Unis. Donald Trump évoque lui-même une « Doctrine Donroe », contraction de son nom et de la Doctrine Monroe. Si cette dernière, formulée en 1823, visait à écarter les puissances européennes des Amériques, son corollaire de 1904 (le corollaire Roosevelt) légitimait déjà l’intervention des États-Unis dans les affaires intérieures des pays latino-américains.
Face à ces accusations, la présidente mexicaine Claudia Sheinbaum a adopté une ligne diplomatique à la fois prudente et ferme. Tout en réaffirmant la coopération du Mexique avec les États-Unis dans la lutte contre le trafic de drogues, elle a rejeté toute intervention militaire états-unienne sur le sol mexicain. Elle a également condamné l’intervention des États-Unis au Venezuela, invoquant les principes de la souveraineté et d’intégrité territoriale.
Cette montée des tensions pourrait laisser penser à la possibilité d’une rupture des relations bilatérales. Pourtant, les critiques publiques du Mexique face aux menaces d’actions unilatérales des États-Unis s’articulent avec une coopération sécuritaire étroite et durable entre les deux pays.
À lire aussi : Au Mexique, le pouvoir criminalise les défenseurs des migrants
Lorsque, en septembre 2025, le secrétaire d’État Marco Rubio qualifie l’intensification de la coopération bilatérale entre Mexico et Washington d’« historique », il s’agit moins d’un tournant que de la poursuite d’une relation qui s’inscrit dans la durée.
De l’Initiative Mérida lancée en 2008 à la pression exercée par l’administration Biden sur le gouvernement d’Andres Manuel Lopez Obrador pour déployer des dizaines de milliers de membres de la garde nationale mexicaine à sa frontière avec le Guatemala et accepter des rapatriements de migrants non mexicains, les États-Unis ont, depuis longtemps, délégué une part essentielle de la gestion de leur frontière au Mexique.
Malgré la baisse des traversées irrégulières observée en 2025, la frontière États-Unis/Mexique demeure l’une des frontières terrestres les plus dangereuses au monde. La militarisation accrue, la suspension du droit d’asile, la surveillance massive et les pressions diplomatiques exercées sur le Mexique y produisent une violence structurelle, et font de la frontière un espace d’exception au cœur de la stratégie anti-migratoire et sécuritaire du second mandat de Donald Trump.
Cléa Fortuné ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.01.2026 à 16:59
Jennifer Way, Associate Professor in Primary and Early Childhood Mathematics Education, University of Sydney
Katherin Cartwright, Senior Lecturer Primary Education
Contrairement à certaines idées reçues, il n’est pas nécessaire de décourager les enfants de compter sur leurs doigts. Une étude publiée récemment apporte quelques éléments d’explication.
Si vous demandez à un jeune enfant de résoudre une opération mathématique simple, telle que 4 + 2, il est possible qu’il compte sur ses doigts pour trouver la solution. Devrions-nous encourager ce type de réflexe ? La question peut paraître simple, mais il est étonnamment complexe d’y répondre.
Certains enseignants et parents pourraient dire que, oui, car cela semble aider les jeunes enfants à apprendre les chiffres. D’autres pourraient être plus réticents, arguant que cela pourrait ralentir la mise en place de stratégies mentales.
Une nouvelle étude suisse montre que les enfants qui comptent sur leurs doigts dès leur plus jeune âge obtiennent de meilleurs résultats pour résoudre des additions que ceux qui ne le font pas.
Les chercheurs ont de vifs débats entre eux quant à l’intérêt pour les enfants de compter sur leurs doigts.
Les psychologues scolaires affirment que cela aide les enfants à élaborer des stratégies sans surcharger leur mémoire de travail (la capacité de notre cerveau à stocker des informations pendant un court laps de temps pendant que nous réfléchissons à quelque chose), jusqu’à ce qu’ils maîtrisent des stratégies plus abstraites.
Les chercheurs en cognition incarnée (apprentissage par l’action) affirment que l’association des doigts et des chiffres est « une action naturelle » et qu’elle doit donc être encouragée. Les neuroscientifiques pourraient également noter que des parties similaires du cerveau s’activent lorsque vous bougez vos doigts et pensez à des chiffres, ce qui aide la mémoire.
Plusieurs études menées en classe ont montré que les enfants qui utilisent des stratégies avec leurs doigts pour résoudre des problèmes mathématiques obtiennent de meilleurs résultats que ceux qui ne le font pas, jusqu’à l’âge de 7 ans environ, où l’inverse devient vrai.
Ainsi, avant l’âge de 7 ans, il vaut mieux compter sur ses doigts. Après 7 ans, il vaut mieux ne plus le faire.
Pourquoi en est-il ainsi ? Qu’est-ce que cela signifie pour l’enseignement des mathématiques ? Cela fait l’objet d’un débat depuis plusieurs années.
Une nouvelle étude de l’Université de Lausanne a permis de franchir un cap dans ce débat.
Les chercheurs affirment que les précédentes études nous ont laissé deux explications possibles à cette apparente bascule dans les avantages du fait de compter sur les doigts vers l’âge de 7 ans.
Une interprétation est que les stratégies fondées sur le décompte des doigts deviennent inefficaces lorsque les questions mathématiques se complexifient (par exemple, 13 + 9 est plus difficile que 1 + 3), de sorte que les enfants qui les utilisent obtiennent de moins bons résultats.
L’autre possibilité est que les enfants qui n’utilisent pas de stratégies digitales à l’âge de 7 ans (et qui obtiennent de meilleurs résultats que ceux qui les utilisent) en étaient auparavant des utilisateurs mais sont passés à des stratégies mentales plus avancées.
Pour démêler ces explications contradictoires, les chercheurs ont suivi près de 200 enfants âgés de 4,5 ans à 7,5 ans et ont évalué leurs compétences en addition et leur utilisation des doigts tous les six mois.
Ils ont notamment suivi si et quand les enfants ont commencé et arrêté d’utiliser leurs doigts. Ainsi, à chaque point d’évaluation, il a été noté si les enfants n’utilisaient pas leurs doigts, s’ils venaient de commencer à les utiliser, s’ils continuaient à les utiliser ou s’ils avaient arrêté de les utiliser.
L’étude a révélé qu’à l’âge de 6,5 ans, la plupart des enfants qui n’utilisaient pas leurs doigts étaient en fait d’anciens utilisateurs. Ces anciens utilisateurs étaient également ceux qui obtenaient les meilleurs résultats aux questions d’addition et continuaient à s’améliorer un an plus tard. L’importance de cette découverte réside dans le fait que, dans les études précédentes, ces enfants très performants avaient seulement été identifiés comme des enfants n’utilisant pas leurs doigts, et non comme d’anciens utilisateurs de stratégies basées sur les doigts.
Dans la nouvelle étude suisse, seuls 12 enfants n’ont jamais utilisé leurs doigts au fil des ans, et ils constituaient le groupe le moins performant.
De plus, l’étude a montré que les « débutants tardifs » utilisant des stratégies de comptage sur les doigts, qui continuaient à utiliser ces stratégies à l’âge de 6,5 à 7,5 ans, n’étaient pas aussi performants que les anciens utilisateurs de leurs doigts.
Dans la nouvelle étude suisse, seuls 12 enfants n’ont jamais utilisé leurs doigts au fil des ans, et ils constituaient le groupe le moins performant.
De plus, l’étude a montré que les « débutants tardifs » utilisant des stratégies de comptage sur les doigts, qui continuaient à les mobiliser à l’âge de 6,5 à 7,5 ans, n’étaient pas aussi performants que les anciens utilisateurs.
Les résultats de cette étude longitudinale unique sont éloquents. Il semble raisonnable de conclure que les enseignants et les parents devraient encourager le fait de compter sur ses doigts dès la maternelle, et pendant les deux premières années d’école.
Cependant, l’étude suisse s’est principalement concentrée sur des enfants européens blancs issus de milieux socio-économiques moyens à élevés. Trouverions-nous des résultats aussi clairs dans une école publique multiculturelle de niveau moyen ? Nous pensons que oui.
Notre propre étude 2025 a révélé une grande variété de méthodes pour compter sur les doigts dans ces écoles, mais lorsque les enseignants y prêtaient attention, cela favorisait les compétences des enfants en matière de calcul.
Les parents peuvent montrer aux enfants d’âge préscolaire comment représenter les chiffres, par exemple en levant trois doigts et en disant « trois ».
Aidez-les à s’entraîner à compter de un à dix, en levant un doigt à la fois. Une fois qu’ils auront commencé, le reste viendra naturellement. Il n’est pas nécessaire de les décourager de le faire. Les enfants cessent naturellement d’utiliser leurs doigts lorsqu’ils n’ont plus besoin de ce recours.
Jennifer Way a reçu un financement du ministère de l'Éducation de Nouvelle-Galles du Sud, Fonds de recherche stratégique (2021-2024). ID : G212850.
Katherin Cartwright a reçu un financement du ministère de l'Éducation de Nouvelle-Galles du Sud, Fonds de recherche stratégique (2021-2024). ID : G212850.
20.01.2026 à 16:59
Anthony Chung Chai Man, Assistant Professor, ESCE International Business School
Béatrice Bellini, Enseignant-chercheur en modèles d'affaires responsables, Université Paris Nanterre
Norchene Ben Dahmane Mouelhi, Marketing, ESCE International Business School
Un affichage de type éco-score sur les vêtements pourrait-il avoir un impact sur les habitudes de consommation, en orientant les consommateurs vers les marques les plus vertueuses ? Ces derniers seraient-ils prêts à payer plus cher des vêtements respectueux de l’environnement ? Deux facteurs vont influencer la réponse des acheteurs : l’impact de l’éco-score sur l’image du vêtement et sur leur sentiment de culpabilité.
L’industrie textile est réputée être l’une des plus polluantes au monde, produisant 10 % des émissions mondiales de gaz à effet de serre et 20 % de la pollution de l’eau potable (Agence européenne pour l’environnement. Pourtant, contrairement au secteur alimentaire où le Nutri-Score est devenu familier en quelques années, le textile ne dispose pas encore de systèmes d’étiquetage environnemental largement reconnu dans le monde entier.
À lire aussi : Nutri-Score : pourquoi exempter les aliments AOP et IGP n’aurait aucun sens
Face à ce vide, l’Agence de la transition écologique (Ademe) a lancé une expérimentation d’éco-score textile, dans le cadre de la loi Climat et résilience, avec l’objectif de donner une information synthétique aux consommateurs pour identifier les vêtements les plus respectueux de l’environnement. Mais ce type d’affichage peut-il vraiment influencer les comportements d’achat ? Et surtout, sommes-nous prêts à payer plus cher pour des vêtements plus respectueux de l’environnement ?
Bien que plus de la moitié des consommateurs expriment le souhait que les marques de mode adoptent des pratiques plus vertueuses en matière d’écologie, moins d’un tiers se disent réellement prêts à débourser davantage pour des vêtements conçus de manière durable.
Nous avons étudié dans un article à paraître l’impact que pourrait avoir un indicateur de type éco-score sur la propension à payer un surprix, c’est-à-dire un prix plus élevé, pour des vêtements plus durables. Après avoir interrogé 136 clients dans deux magasins d’une même marque de vêtement, six scénarios ont été testés via une expérimentation en ligne auprès de 277 répondants. Les manipulations (des AB tests) correspondent aux éco-scores allant de A (très bon) à E (très mauvais), ainsi que l’absence de score.
L’éco-score est un signal efficace pour encourager les consommateurs à payer un surprix à travers deux mécanismes : l’image verte perçue de la marque et la culpabilité anticipée.
À l’heure où la fast-fashion explose (Shein a connu une croissance de 57 % en un an), il devient crucial de proposer des alternatives plus durables, qui ne soient pas seulement une forme de greenwashing.
Notre étude montre que les scores A et B, en améliorant significativement « l’image verte » des marques, augmentent la propension des consommateurs à payer un surprix, par rapport au même vêtement proposé sans indication de score. À l’inverse, les scores D et E ont un effet plus négatif que l’absence de score, alors que le score C a des effets similaires à l’absence de score.
L’image verte perçue de la marque joue ainsi un rôle clé. Un affichage environnemental clair et crédible améliore cette image, et peut donc devenir un levier stratégique pour les marques les plus vertueuses.
De manière contre-intuitive, notre étude révèle que seul le score E (le plus défavorable) génère plus de culpabilité anticipée comparativement à l’absence de score. La culpabilité est définie comme « l’anticipation d’un sentiment que l’on peut éprouver lorsqu’on envisage de violer ses normes personnelles ». Le score C, souvent perçu comme neutre, ou le D (négatif) ont les mêmes effets sur la culpabilité des consommateurs que l’absence de score. Cela souligne l’importance d’un affichage obligatoire, car sans signal clair, même un produit écologique peut être perçu comme peu vertueux. En effet, sans étiquette, les consommateurs ne détectent pas le caractère durable du produit, et ne sont donc pas enclins à payer plus cher. À l’inverse, une marque peu écologique qui n’affiche rien évite de générer de la culpabilité, ce qui peut favoriser l’achat.
Or, notre recherche montre que plus les consommateurs se sentent coupables, moins ils sont prêts à payer un surprix. Un affichage environnemental positif (scores A ou B) permet donc non seulement de valoriser les efforts des marques, mais aussi de réduire la culpabilité liée à l’achat, favorisant ainsi des comportements plus responsables.
Au-delà de son rôle incitatif, l’éco-score pourrait aussi jouer un rôle dissuasif : en rendant visibles les pratiques peu vertueuses, il pénalise les entreprises non responsables en exposant leur impact environnemental aux yeux des consommateurs. Ce mécanisme de signalement négatif pourrait encourager les marques à revoir leurs chaînes de production, sous peine de voir leur image écologiquement dégradée. L’absence de score, elle aussi, devient suspecte, puisqu’elle peut être interprétée comme une volonté de cacher des pratiques peu durables.
Reste le problème du nombre de labels, aujourd’hui nombreux et parfois confus. Notre recherche montre qu’un affichage standardisé et bien conçu peut aider à clarifier les choix. Les consommateurs veulent un signal simple et auxquels ils sont déjà familiers (« on a l’habitude de ce genre d’étiquette, comme pour le Nutri-Score ou l’électroménager », indique une des personnes interrogées). Mais attention : il ne s’agit pas dans notre étude de consommer moins, mais de consommer mieux.
La généralisation de l’éco-score textile pourrait encourager des pratiques d’achat plus durables, à condition que les marques jouent le jeu de la transparence ou qu’elles y soient contraintes. Pour les consommateurs, c’est une opportunité de faire des choix plus éclairés – et pour les marques, une chance de redéfinir leur positionnement éthique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.