Version smartphones allégée
🟥 Accueil 🟨 Médias 🟦 International
Lien du flux RSS
L’expertise universitaire, l’exigence journalistique

▸ les 25 dernières parutions

15.01.2026 à 10:30

La faute de nos biais cognitifs, vraiment ? Comment cette notion fabrique l’inaction écologique

Pierre-Yves Carpentier, Doctorant en Psychologie Sociale, Politique et Environnementale, Université Côte d’Azur
Benoît Dérijard, Chercheur en écologie marine, Université Côte d’Azur
Clara Vincendon, Doctorante en psychologie sociale et de l'environnement, Université Côte d’Azur
img
Les biais cognitifs servent souvent d’alibi à l’inaction écologique, ce qui occulte des causes systémiques essentielles, comme le montre l’exemple des océans.
Texte intégral (2295 mots)

Face à l’urgence écologique, l’inaction est souvent justifiée par nos biais cognitifs individuels. Mais cette lecture psychologisante occulte l’essentiel. Des causes politiques, économiques et sociales sont à l’œuvre dans l’effondrement du vivant actuel. On le verra à travers l’exemple des océans et des milieux marins.


Face à l’urgence climatique, pourquoi sait-on mais n’agit-on pas ? Telle est la question posée par l’activiste Camille Étienne dans son documentaire Pourquoi on se bat ? (2022). Parmi ses invités figure Sébastien Bohler, journaliste et chroniqueur, notamment connu pour son essai le Bug humain (2019). Dans l’ouvrage, il explique que notre cerveau privilégierait le court terme au détriment de la planète. Il en conclut qu’il faut rééduquer notre cerveau pour déclencher l’action collective.

Ce discours, qui attribue l’inaction écologique à des biais cognitifs, c’est-à-dire à des mécanismes automatiques du cerveau, est repris par de nombreuses communications grand public. Sa simplicité est séduisante, mais il pose plusieurs problèmes. En effet, il ne dit rien des écarts considérables de comportements que l’on peut observer entre individus ou sociétés, il occulte les facteurs politiques, économiques et culturels et surtout il offre un alibi aux industries qui ont tout intérêt à maintenir l’exploitation intensive de la nature.

Cette explication est attrayante, mais ne permet pas de comprendre ce qui organise l’inaction ni d’y apporter des solutions concrètes et efficaces. Le cas du milieu marin illustre particulièrement cette logique : la gouvernance de l’océan est particulièrement délicate dans un contexte où prédomine l’exploitation économique, alors que les problèmes qui en découlent (catastrophes environnementales, destruction des moyens de subsistance de celles et ceux qui en dépendent ailleurs dans le monde…) sont souvent invisibilisés.

L’exemple des océans

L’océan constitue un bon exemple des limites de ce discours. Il s’agit du principal espace naturel à être exploité en continu à l’échelle planétaire : pêche, transport maritime, tourisme, sans parler de l’exploitation minière. Les prélèvements massifs y ont conduit à un effondrement global des espèces marines.

Cette découverte est relativement récente. En effet, la recherche océanographique s’est développée plus tardivement que ses équivalents terrestres, du fait, entre autres raisons, des difficultés d’accès du milieu marin. Ce retard explique en partie pourquoi la prise de conscience environnementale liée à la mer a été plus tardive que celle concernant les forêts ou les terres agricoles, par exemple.

De plus, l’océan a un statut particulier : c’est un bien commun global. Or, dans notre économie actuelle, les ressources libres et non régulées tendent à être surexploitées, les acteurs économiques cherchant à maximiser leurs bénéfices individuels avant que la ressource ne s’épuise. Cette dimension collective rend la gouvernance océanique complexe et retarde sa mise en place, puisqu’elle est dépendante de la coopération internationale.

Surtout, l’océan est un milieu qui nous est étranger : la dégradation des fonds, la raréfaction des espèces ou l’acidification des eaux se produisent hors de nos champs sensoriels. Ce contexte est particulièrement propice à l’émergence de biais cognitifs pour expliquer leur effondrement écologique.

Des biais réels mais surestimés

Depuis les années 1980, la recherche sur le sujet a montré qu'il existait à la fois des biais psychologiques et des remèdes à ces derniers. Pour n’en citer que quelques-uns : biais d’optimisme, de présentisme (c'est-à-dire, notre tendance à préférer les résultats immédiats au détriment des résultats futurs) ou encore distance psychologique.

Appliqués à l’écologie, ils se traduisent par une minimisation des risques environnementaux, qui sont alors perçus comme lointains, temporaires ou réversibles. De ces constats naît l’idée que l’inaction environnementale serait préprogrammée dans notre cerveau de façon universelle et que les solutions devraient viser cette partie rétive de nos psychologies.

Autre exemple : le phénomène de « shifting baseline » (aussi appelé amnésie environnementale), qui décrit la tendance pour chaque nouvelle génération à réévaluer comme « normal » un état de plus en plus dégradé de la nature. Pour le milieu marin, les professionnels prennent alors pour référence des niveaux de biodiversité déjà appauvris. Chaque nouvelle étape de dégradation des écosystèmes est ainsi intégrée comme un nouvel état stable, ce qui rend la perte globale plus difficile à voir.

Les biais cognitifs possibles sont nombreux : les facteurs individuels participant à l’inaction écologique sont depuis longtemps étudiés, connus et intégrés. Mais leur influence sur l’inaction climatique est surestimée.


À lire aussi : Inaction climatique : et si on était victime du biais de « statu quo » ?


Quand les biais cognitifs tombent à l’eau

Souvent mobilisés pour expliquer les comportements humains, ces biais peinent pourtant à décrire toute la réalité. Raisonnons par l’absurde : s’il existe des biais universels qui nous poussent à minimiser les enjeux environnementaux, voire à détruire l’environnement, comment expliquer les écarts parfois importants en termes de croyances et de comportements que l’on peut observer d’une personne à l’autre, d’une société à l’autre ?

Comment expliquer que, pour nombre de sociétés, le terme de nature n’existe tout simplement pas, parce qu’il n’y a pas de différence faite entre ce qui est considéré comme soi (humain) et comme autre, animal ou végétal ?

L’effondrement écologique ne peut se comprendre sans faire l’analyse des sociétés qui y contribuent et qui exacerbent nos biais individuels. Dans nos sociétés industrialisées, l’accroissement du capital structure à la fois nos environnements sociaux et nos motivations. Or, l’avènement des sociétés capitalistes n’a pas été le résultat de seuls biais cognitifs ou de processus biologiques universels : il a été mené par une petite fraction de l’humanité qui, avec les moyens matériels et politiques adéquats, a pu l’imposer à la majorité, entraînant la rupture des rapports sociaux et environnementaux préexistants.

Dans les milieux marins, l’effondrement écologique s’explique surtout par les conditions économiques et politiques qui le rendent possible à l’échelle globale : pêche industrielle peu régulée, marchandisation de la biodiversité marine (tourisme, aquaculture…), intérêts économiques et politiques liés au contrôle de l’extraction minière et énergétique (hydrocarbures offshore, minerais marins)… Le tout inscrit dans un système économique global fondé sur l’accumulation.

Tout cela montre que l’effondrement écologique actuel est davantage la conséquence d’arrangements sociopolitiques que de biais cognitifs individuels qui nous pousseraient naturellement à détruire les écosystèmes. Il nous faut sortir de cette vision et agir sur les causes systémiques qui produisent l’inaction.

En effet, nous pouvons agir sur les organes politiques et économiques qui encadrent la gestion des milieux naturels, dont les milieux marins. Or, c’est précisément ce que les discours majoritaires sur les biais psychologiques empêchent de faire. En légitimant l’idée selon laquelle ces biais universels – car inscrits dans notre biologie – seraient à l’origine des problèmes d’exploitation, ils invisibilisent les rapports de pouvoir, déresponsabilisent les politiques et fournissent des outils permettant ensuite de justifier l’inaction.


À lire aussi : Climat : comment l’industrie pétrolière veut nous faire porter le chapeau


Déplacer la focale de l’individuel au collectif

Que faire ? Individuellement, il est bien sûr possible d’agir sur sa consommation de produits issus de la surpêche et de l’exploitation animale, de limiter les déplacements polluants ou encore de rejoindre des collectifs afin de gagner en capacité d’action et d’information.

Quels arguments pour convaincre et engager à l’action ? La recherche en psychologie et en communication environnementale a identifié six « vérités clés » :

  • le changement climatique existe,

  • il est créé par nos sociétés industrielles,

  • il existe un consensus scientifique,

  • il a des conséquences graves sur l’humanité et la biodiversité,

  • la majorité des personnes en sont inquiètes et veulent agir,

  • enfin, des actions efficaces existent.

L’action collective doit ensuite œuvrer à tous les niveaux, du local à l’international, en gardant pour boussole :

  • le respect des droits et de la dignité des populations,

  • une gouvernance la plus égalitaire et démocratique possible,

  • et la mise en place de mesures efficaces, contrôlées et collaboratives de gestion des biens communs, tels que des aires marines protégées exigeantes.

Les aires marines protégées, en fonction de leur degré de protection, peuvent être plus ou moins efficaces. Issu de Kirsten Grorud-Colvert et al. (2021)

L’effondrement du climat et de la biodiversité ne sont donc pas des fatalités, mais les conséquences des systèmes sur lesquels nous pouvons avoir un impact – à condition de les réorienter vers des modèles plus justes et soutenables.

The Conversation

Pierre-Yves Carpentier est membre de l'association Alternatiba06 qui œuvre pour l'écologie.

Benoit Dérijard a reçu des financements du CNRS (Centre National de la Recherche Scientifique), de l'Université Côte d'Azur, du FEAMPA (Fonds Européen pour les Affaires Maritimes, la Pêche et l'Aquaculture), de la Région Sud et de l'OFB (Office Français de la Biodiversité).

Clara Vincendon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

15.01.2026 à 10:30

Faut-il en finir avec les incitations à mieux gérer nos déchets ? Le problème posé par les sciences comportementales

Camille Dormoy, Docteure en sociologie, spécialiste des politiques publiques de gestion des déchets/économie circulaire, Université de Picardie Jules Verne (UPJV)
img
Réduire les déchets à coups d’incitations individuelles séduit les institutions. Mais cette approche masque les causes sociales, matérielles et politiques du problème.
Texte intégral (1896 mots)

Pour réduire les déchets, les politiques publiques misent de plus en plus sur les sciences comportementales, comme les « nudges » (dispositifs de suggestion). Cette idée est séduisante, mais elle déplace la responsabilité d’un problème systémique vers les individus. Les défauts de tris et autres dépôts sauvages sont alors souvent requalifiés comme de « mauvais comportements ». Le problème de cette approche ? Elle invisibilise les déterminants matériels, sociaux et politiques de la production des déchets.


Depuis une dizaine d’années, les collectivités territoriales, les agences nationales et une partie du secteur privé se sont engouffrées dans une voie présentée comme prometteuse : l’application des sciences comportementales à la réduction des déchets.

L’idée est que si les individus trient mal, jettent au mauvais endroit ou produisent trop de déchets, c’est qu’ils manquent d’information, de motivation ou parce que les dispositifs censés orienter leurs gestes (emplacement des bacs, lisibilité des consignes…) n’envoient pas les « bons signaux ». Des campagnes fondées sur les « nudges », des dispositifs incitatifs ou des signalétiques présentées comme « engageantes », sont alors présentées comme suffisantes pour transformer les comportements ordinaires et les pratiques quotidiennes.

Ce récit séduit. En effet, il permet d’agir vite, à moindre coût, et sans remettre en cause les logiques structurelles qui génèrent les déchets. Mais cette vision est réductrice. Elle repose sur une vision des conduites humaines qui méconnaît profondément les rapports sociaux, les conditions d’habiter, les trajectoires résidentielles, les inégalités matérielles et symboliques.

Surtout, elle déplace la question politique des déchets à l’échelle des individus. Ce faisant, elle en assigne la responsabilité aux habitants, présentés comme des acteurs indisciplinés mais rationalisables à coups de micro-incitations.


À lire aussi : Les mots de la gestion des déchets : quand le langage façonne nos imaginaires


Dispositifs défaillants et production institutionnelle de la stigmatisation

Sur le terrain, les observations ethnographiques montrent un paysage différent. Il est davantage structuré par des dispositifs sociotechniques, économiques, organisationnels que par les intentions individuelles.

Dans de nombreux quartiers, le tri est entravé par des infrastructures inadaptées. Citons par exemple les vide-ordures encore en usage qui empêchent toute séparation des flux à la source, l’absence d’espaces de stockage dans les logements, les bacs trop éloignés ou difficilement accessibles… certains dispositifs semblent conçus sans avoir tenu compte des pratiques quotidiennes de circulation des habitants. On peut ainsi penser aux points d’apport volontaire dispersés sur plusieurs centaines de mètres, qui imposent de longs trajets pour trier le verre, le papier et les plastiques.

Ces contraintes matérielles façonnent les gestes quotidiens, bien davantage qu’un prétendu manque de volonté ou de sensibilisation. S’y ajoute un autre phénomène, particulièrement saillant dans les quartiers populaires : des pratiques de circulation d’objets – don, récupération, redistribution informelle – se trouvent placées sous un régime de suspicions et de sanctions.

Autrement dit, ce qui relevait auparavant d’une économie populaire du réemploi est désormais requalifié en dépôts sauvages et incivilités. Et cela non pas parce que les pratiques auraient nécessairement changé, mais parce que leur visibilité est perçue comme un problème par les institutions.

Cette requalification transforme des logiques de subsistance ou de solidarité en manquements à la norme. Dans ce cadre, les acteurs institutionnels chargés de la gestion des déchets valorisent avant tout une logique de salubrité publique. Leur action se concentre alors sur l’évacuation, la disparition rapide des traces, l’entretien visuel de la voie publique. Le déchet y est traité comme un rebut dont il faut se débarrasser, et non comme une ressource susceptible d’être valorisée. Ainsi, des objets laissés temporairement dans l’espace public dans l’attente d’un repreneur ou d’un réemploi sont ramassés par les camions de collecte. Et ce faisant, définitivement soustraits à toute possibilité de réutilisation, parfois réduits à l’état de déchets ultimes par le broyage.

Ce glissement est lourd d’effets. Dans ces quartiers, les déchets deviennent des marqueurs sociaux. Ils servent à requalifier des groupes, à leur attribuer des comportements naturalisés, à désigner des « responsabilités » qui coïncident souvent avec des stigmatisations ethno-sociales préexistantes.

La propreté devient alors un instrument de classement. La figure de l’« habitant défaillant » se substitue aux défaillances structurelles des dispositifs sociotechniques, économiques et organisationnels. Rebut d’un côté, ressources de l’autre : la distinction n’est pas seulement technique, elle est sociale et politique. Elle organise la manière dont les territoires sont perçus, traités et hiérarchisés.


À lire aussi : Pollution, un mot qui permet aussi d’opérer un classement social


Les sciences comportementales masquent les vrais enjeux

Dans ce contexte, le recours aux sciences comportementales agit comme un masque. Il détourne l’attention des problèmes très concrets qui structurent la gestion des déchets au quotidien :

  • infrastructures défaillantes ou mal pensées (vide-ordures qui encouragent à jeter sans trier, locaux poubelles saturés, équipements peu lisibles),

  • conditions de travail éprouvantes (gardiens inexistants ou cantonnés à « tenir » les parties communes sans moyens ni formation sur le tri, prestataires de nettoiement soumis à des règles strictes et à des cadences élevées),

  • et des conflits permanents entre acteurs (bailleur, métropole, prestataires, habitants).

Au lieu de rendre ces dysfonctionnements visibles, l’analyse se concentre sur le dernier maillon de la chaîne : l’habitant, présenté comme celui qui se trompe, résiste ou ne fait pas assez d’efforts. C’est pourtant l’organisation du système qui crée les conditions mêmes de ces « mauvais gestes ».

Les éboueurs, les agents de tri, les services techniques et les décisions politiques disparaissent derrière une théorie simplifiée des comportements, où l’individu devient un point d’application dépolitisé. Pour les instituions, cette approche est séduisante à plusieurs titres :

  • d’abord parce qu’elle promet des résultats visibles à court terme ;

  • ensuite, parce qu’elle évite d’avoir à ouvrir le dossier – plus coûteux et plus conflictuel – de la réduction à la source, de la régulation de la production, ou de la reconfiguration des infrastructures (transformation matérielle et organisationnelle des dispositifs existants). Cela impliquerait ainsi de remettre en cause des équipements qui orientent structurellement les pratiques vers l’évacuation plutôt que vers la valorisation. Ou encore de redéfinir le rôle des acteurs de terrain – gardiens, agents de propreté, prestataires –, aujourd’hui cantonnés à une gestion de la salubrité visible ;

  • enfin, elle s’accorde avec une conception néolibérale de l’action publique où chacun est sommé d’être responsable de son empreinte.

Pourtant, cette logique se heurte à deux limites majeures.

La première tient aux résultats eux-mêmes de ces interventions comportementales. D’abord, leurs effets sont difficiles à mesurer. Elles peuvent également se révéler peu durables, puisque fortement dépendante des configurations sociales et matérielles dans lesquelles elles sont déployées. Enfin, elles peuvent modifier les comportements à court terme, mais ces ajustements se défont rapidement lorsque les incitations cessent, tant que l’organisation concrète reste inchangée. En pratique, les effets observés dans des cadres expérimentaux se révèlent difficiles à transposer durablement dans les contextes ordinaires.

La seconde limite est politique. En recentrant l’attention sur les comportements individuels, ces interventions contribuent à déplacer la responsabilité vers ceux qui disposent de la marge de manœuvre la plus étroite. Les habitants les plus précaires deviennent les premiers visés par ces dispositifs correctifs, alors même qu’ils subissent des infrastructures défaillantes et des conditions d’habiter plus contraignantes que d’autres.

Pendant ce temps, les ressorts structurels de la production de déchets demeurent intouchés. L’action publique se focalise ainsi sur ceux qui ont le moins de pouvoir d’action et épargne ceux qui déterminent réellement les volumes et les flux.

Sortir de la vision psychologisante de la gestion des déchets

En finir avec les sciences comportementales appliquées à la gestion des déchets ne signifie pas rejeter toute forme d’attention aux pratiques quotidiennes et individuelles. Cela implique plutôt de déplacer son centre de gravité. Pour cela, il convient de sortir d’une vision psychologisante, de réintroduire les dimensions matérielles, institutionnelles, historiques, politiques et sociales, et enfin de reconnaître que les déchets ne sont pas seulement une affaire d’individus mais aussi de systèmes.

Les infrastructures, les logiques économiques de production, la division sociale du travail, les politiques urbaines et les rapports de pouvoir façonnent bien davantage les volumes, les flux et les gestes que ne le feront jamais les autocollants sur un bac jaune.

Si les sciences comportementales ont pu offrir quelques outils ponctuels, elles ne constituent ni une théorie sociale ni une politique publique durable. La gestion des déchets exige une compréhension plus exigeante, celle d’un monde où la matérialité, les normes, la stigmatisation, les inégalités et les infrastructures s’entremêlent. S’y dérober en réduisant sa complexité à des micro-incitations n’est pas seulement inefficace, c’est aussi renoncer à penser ce que les déchets révèlent réellement de nos sociétés.

The Conversation

Camille Dormoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

14.01.2026 à 16:22

The first ice core library in Antarctica to save humanity’s climate memory

Thomas Stocker, Emeritus Professor of Climate and Environmental Physics, University of Bern
img
With an average temperature of -50°C, Antarctica’s first-ever 100% natural sanctuary protects endangered ice cores from global warming.
Texte intégral (1719 mots)
Ice Core Storage at the Ice Memory Sanctuary in Concordia, Antarctica. Gaetano Massimo Macri/Ice Memory Foundation, Fourni par l'auteur

On Wednesday, January 14, 2026, the coolest library on Earth was inaugurated at the Concordia station, Antarctica. Samples from glaciers rescued worldwide are now beginning to be stored there for safekeeping. This will allow, among other things, future generations to continue studying traces of past climates trapped under ice, as glaciers on every continent continue to thaw out at a fast pace.

With its temperature of -50°C, the archive sanctuary built below the surface at Concordia will allow endangered ice cores extracted from the Andes, Svalbard, the Alps, the Caucasus, and the Pamir Mountains in Tajikistan to escape global warming without the need for technical intervention or refrigeration.

Former co-chair of the IPCC’s “Science” working group, Swiss climatologist and physicist Thomas Stocker is now president of the Ice Memory Foundation, which initiated this project, together with the University of Grenoble Alpes (France) and Ca’ Foscari University of Venice (Italy). He explains the urgency for this long-term initiative.


The Conversation: Could you give us a concrete example of how these ice cores stored in Antarctica could be used by scientists in the future?

Thomas Stocker: We can take the example of a new substance found in the atmosphere, like a pesticide. If in fifty years from now, a scientist wants to know what the concentration of that compound was in the year 2026, say in the European Alps or in Asia, they can now turn to an ice core.

If the ice core had not been collected and stored in Antarctica, the scientist would simply be at a loss to answer the question. But thanks to these ice cores that are now being safeguarded in Antarctica, researchers can analyse a sample of that core in Antarctica, measure the compound from the ice that was collected fifty or one hundred years ago, and reconstruct the data to answer that question.

But in order to allow future scientists to answer the many questions that will arise, we need to act quickly. A very recent article in Nature takes a global view of glacier loss and predicts that the number of glaciers to vanish will increase until around 2040, at which point annual glacier loss worldwide is set to peak.

Thereafter numbers will decline not because global warming has halted, but because one by one, glaciers disappear off the face of the earth, leaving fewer glaciers in a state of meltdown, a prospect which, in turn, ultimately destroys the prestigious and precious environmental archives available.

Temperatures in the Alps are rising about twice as fast as the global average, so it’s essentially a race against time. We need to secure these ice cores when water from the melting surface in summer has not yet penetrated the ice.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


Since you started working, you have undoubtedly seen many methodological and technological advances that have enabled us to make the ice “talk”. What are your hopes for future generations? What factors would allow for further “dialogue” with the ice core that will be stored at Concordia?

T.S.: I can only extrapolate from what we have learned and experienced in science over the last fifty years. We witnessed the arrival of new technology that, all of a sudden, offers the analysis of parameters of elemental composition, of the concentration of gases trapped within the ice that suddenly, like a key, opens a door to a whole new series of information about our environmental system.

So what I can see happening is new optical methods to determine the isotopic composition of different elements in various chemical substances, the likelihood of high-precision analytical tools being invented in the next decades or so that go down to the picogram level or or femtomole level, to tell us something about atmospheric composition, and particles such as dust and minerals from various regions which have been deposited in these ice cores that give us information about the conditions or state of the atmosphere in the past.

How were the snow caves built for ice core storage?

You are an Emeritus Professor of Climate and Environmental Physics. Which other fields will the Ice Memory project be useful for?

T.S.: Biology comes to mind. If you find organic remains or DNA in these ice cores, that’s biology. You can question the chemical composition of the atmosphere. That’s chemistry. If you question what’s the mineral composition of small dust particles that are deposited in these ice cores. That’s geology. And so, you have a whole range of different branches of science that can draw new information from these ice cores.

The Ice Memory Project brings together different scientific disciplines, as well as scientists of many nationalities. How challenging can this be in a time of increasing geopolitical tensions?

T.S.: Ice Memory is a case in point for how multilateralism plays out in the scientific community. It’s an opportunity for scientists in every nation to make use of this unique sanctuary in Concordia. And for us, it’s really an iconic endeavour that goes beyond frontiers, beyond political divisions, to really safeguard data from planet Earth, not only for the next generation of scientists, but for humanity in general.

We also urge all nations who have glaciers on their territory to participate and support scientific community-led ice coring expeditions in these areas, and to follow Tajikistan’s example. Tajikistan was the first nation to donate an ice core, 105 metres of precious ice from a unique location (the Kon Chukurbashi ice cap, for preservation in the Ice Memory foundation’s storage sanctuary in Antarctica.

Pamir Mountains ice core handed over by Tajikistan for Antarctic preservation.

During the Cold War, Antarctica was one of the few places on Earth where Russians and Americans could exchange ideas and conduct scientific research together. Could Antarctica still be a place where dialogue replaces rivalry?

T.S.: I am absolutely convinced that the unique environment Antarctica offers that’s so rich with nature and life, and so special on our planet, means that considerations surrounding each country’s position and values are secondary. The top priority, as we have demonstrated over the past fifty years of scientific exploration in the field, is really to understand our climate system, observe nature from the perspective of Antarctica, and to protect it. This gives us the opportunity to truly immerse ourselves, work together, and exchange ideas on specific scientific issues that concern us all, and in particular, concern the future of the planet we share.

Interview by Gabrielle Maréchaux, Environment Journalist at The Conversation France.

The Conversation

Thomas Stocker is the president of the Ice Memory Foundation.

14.01.2026 à 15:18

En Inde, les 60 millions de chiens des rues fouillent de moins en moins les poubelles, et c’est dangereux

Nishant Kumar, India Alliance Fellow, National Centre for Biological Science, Bangalore & Department of Biology, University of Oxford
img
Nourris par les citadins plutôt que contraints à aller chercher leur pitance dans les poubelles, les chiens des rues indiennes développent de nouveaux comportements, dangereux pour les habitants.
Texte intégral (2364 mots)
Des chiffres vieux de dix ans évoquent une population de 60 millions de chiens des rues en Inde, bien trop pour les rassembler dans des foyers. Dasarath Deka/Shutterstock

On compte plus de 60 millions de chiens errants en Inde. Depuis le déclin des vautours à la fin des années 1990, l’apparition de nouvelles sources de nourriture issues des déchets leur permet d’accéder aux déjections des abattoirs, au nourrissage spontané et aux carcasses abandonnées (la disparition des vautours a entraîné l’absence de régulation des populations de charognards, comme les chiens et les rats). Le comportement de ces animaux opportunistes a évolué, révélant l’interdépendance complexe entre chaîne alimentaire, pratiques humaines et santé publique.


Quand j’étais enfant, dans l’Inde rurale, ma grand-mère donnait chaque après-midi au chien du village un demi-chapati et un bol de lait, manifestement insuffisants pour couvrir ses besoins. Le chien survivait en fouillant les environs et en récupérant de la nourriture auprès des maisons voisines. Des années plus tard, à Delhi, j’ai croisé des chiens errants refusant des biscuits tant ils recevaient de nourriture de la part des habitants du quartier, qui tous rivalisaient d’attention à leur égard.

En Inde, l’entrelacement de valeurs religieuses et culturelles a instauré une forte tolérance à l’égard des non-humains et de la faune sauvage, toutes classes sociales confondues. Une attitude ancrée dans des millénaires de coexistence. Les populations acceptent délibérément de s’exposer à des risques importants pour vivre avec les animaux. Mais cet équilibre se fragilise à mesure que les villes s’étendent et que les chiens deviennent plus territoriaux dans des espaces partagés toujours plus encombrés et jonchés de déchets.

L’Inde compte au moins 60 millions de chiens en liberté, selon un décompte vieux de plus de dix ans. Des enquêtes plus récentes en recensent environ 1 million rien qu’à Delhi. Dans le même temps, le pays concentre plus d’un tiers des décès dus à la rage dans le monde.

À la différence de la plupart des pays occidentaux, la culture et le droit indiens proscrivent l’abattage. Les chiens doivent être capturés, stérilisés, vaccinés puis – impérativement – réinstallés sur leur territoire initial. En pratique, ces règles sont fréquemment bafouées.

Tout change en août 2025. Après plusieurs attaques de chiens errants contre des enfants, la Cour suprême indienne ordonne brièvement la capture de tous les chiens des rues de Delhi et de sa région, avec leur placement en refuges ou en fourrières, promettant pour la première fois depuis des décennies des rues sans chiens.

La décision est inapplicable – il n’existe tout simplement pas de structures pour accueillir des millions d’animaux – et déclenche une vive réaction des associations de protection animale. Deux jours plus tard, la Cour fait machine arrière et rétablit la politique de stérilisation en vigueur.

Les décisions ultérieures ont resserré le périmètre d’application. En novembre 2025, la Cour a ordonné le retrait des chiens des écoles, des hôpitaux et des zones de transport public dans tout le pays, tout en imposant des restrictions à l’alimentation des chiens dans l’espace public et en encourageant la mise en place de clôtures pour les tenir à distance.

Plus récemment encore, le 7 janvier 2026, elle a demandé aux autorités de clôturer et de sécuriser l’ensemble des 1,5 million d’écoles et d’établissements d’enseignement supérieur de l’Inde contre les chiens, et ce, en seulement huit semaines. Mais, comme les précédentes injonctions, ce calendrier ambitieux fait abstraction des contraintes d’infrastructure et a peu de chances de réduire significativement la fréquence des morsures et des infections qui en découlent. La Cour entend actuellement les parties prenantes, cherchant une voie médiane entre le retrait à grande échelle des chiens et le respect du bien-être animal.

La nation est divisée. L’État semble incapable de tuer ces chiens, de les héberger dans des foyers ou de les contrôler. La question de leur devenir relève à la fois de la sécurité publique et de la protection animale, mais touche aussi à quelque chose de plus profond : le dernier chapitre de l’un des partenariats les plus remarquables de l’évolution.


À lire aussi : « Permis de tuer » ou sécurité publique ? En Turquie, une loi controversée sur les chiens errants


Une expérience de coexistence

Les chiens sont la seule espèce de vertébrés à avoir suivi les migrations humaines hors d’Afrique, à travers tous les climats et tous les types de peuplement. Si le moment exact de leur domestication reste incertain, on sait que les chiens ont évolué pour vivre aux côtés des humains. Mais ce lien entre espèces se heurte aujourd’hui à un défi inédit : celui de l’urbanisation tropicale.

Trois chiens en Inde
Les chiens des rues en milieu urbain peuvent se montrer très territoriaux. thinkpaws.org

Au cours des derniers siècles, alors que les chiens gagnaient leur place dans nos foyers, les humains ont créé plus de 400 races, belles, laborieuses ou affectueuses. Cette coévolution est importante : elle a rendu les chiens sensibles aux signaux humains et capables de développer de forts liens avec des personnes ou des lieux précis. Dans l’Inde urbaine, où les chiens n’appartiennent à personne mais ne sont pas vraiment sauvages, ces liens se traduisent par un comportement territorial autour d’un foyer ou d’une personne qui les nourrit.

Le laboratoire socio-écologique unique de l’Inde

L’Inde offre une perspective inégalée sur cette relation. Historiquement, les chiens des rues jouaient le rôle d’éboueurs. Dans les quartiers plus modestes, ils le font encore. Mais dans les zones plus aisées, ils sont désormais nourris délibérément.

Scène de rue en Inde
Chiens, cochons, vaches et humains coexistant. thinkpaws.org

Des recherches préliminaires à Delhi menées avec ma collègue Bharti Sharma montrent que les chiens s’organisent en meutes autour de foyers précis, où quelques personnes qui les nourrissent régulièrement peuvent couvrir presque 100 % de leurs besoins alimentaires. Cela permet des densités de chiens bien plus élevées que ce que le rôle d’éboueur pourrait supporter.

La collision urbaine

C’est ici que la coexistence ancienne se heurte à l’urbanisme moderne. Les rues indiennes sont des espaces multifonctions. Dans les climats tropicaux, les récupérateurs de déchets et les travailleurs manuels opèrent souvent la nuit
– exactement aux heures où les chiens se montrent les plus territoriaux et où les habitants plus aisés qui les nourrissent dorment.

Dans les climats tropicaux, les chiffonniers et les ouvriers travaillent souvent la nuit – précisément aux heures où les chiens se montrent les plus territoriaux et où les habitants plus aisés qui les nourrissent dorment.

Les chiens ont adapté leur comportement – aboiements, poursuites, morsures occasionnelles – de manière à être involontairement récompensés par ceux qui les nourrissent, tout en créant des dangers pour les autres. Les chiffres sont inquiétants : des millions de morsures et des milliers de décès dus à la rage chaque année.

Pour autant, une réaction contre les décisions de la Cour suprême était inévitable. Avec la gentrification, qui redéfinit qui peut décider de l’organisation de la vie urbaine, un conflit de valeurs est apparu : certains défendent la présence partagée des animaux, d’autres privilégient l’élimination des risques.

La voie à suivre

Les villes indiennes ont peut-être atteint leur « apogée de coexistence ». Malgré les nuisances quotidiennes – aboiements, poursuites – des millions de personnes continuent de nourrir ces chiens. Pourtant, le même chien qui remue la queue devant ses nourrisseurs familiers peut mordre un inconnu. Il ne s’agit pas d’agression irrationnelle, mais d’une protection territoriale née d’un lien profond avec une communauté humaine spécifique.

Les villes occidentales ont abattu leurs chiens errants il y a longtemps, car les priorités sociales y étaient plus homogènes. La diversité de l’Inde empêche un tel consensus. Il faudra sans doute encore de vingt à trente ans avant que l’ensemble de sa population urbaine considère la présence de chiens territoriaux comme intolérable.

À mesure que l’Inde s’urbanise, elle doit choisir entre préserver des espaces pour des relations anciennes, antérieures aux villes elles-mêmes ou suivre la voie occidentale d’un contrôle total. Le rituel de ma grand-mère, donnant son demi-chapati, incarnait un ancien accord : un investissement minimal, une coexistence pacifique et un bénéfice mutuel. Les chiens de Delhi, suralimentés et défendant leur territoire, incarnent aujourd’hui une nouvelle intimité plus intense – et il n’est pas certain que cette situation soit bénéfique pour les deux espèces.

The Conversation

Nishant Kumar bénéficie d’un financement de la DBT/Wellcome Trust India Alliance Fellowship. Il est chercheur associé à cette bourse au National Centre for Biological Science, TIFR, à Bangalore, en Inde, son accueil à l’étranger étant assuré par le Département de biologie de l’Université d’Oxford. Il est également cofondateur et scientifique en chef d’un think-tank de recherche basé à Delhi, Thinkpaws : www.Thinkpaws.org.

14.01.2026 à 14:24

La première bibliothèque de carottes glaciaires en Antarctique pour protéger la mémoire climatique de l’humanité

Thomas Stocker, Emeritus Professor of Climate and Environmental Physics, University of Bern
img
Grâce à sa température moyenne de -50 °C, le sanctuaire construit en Antarctique permettra de stocker sans assistance technique des carottes de glace déjà prélevées partout dans le monde.
Texte intégral (1687 mots)

Le mercredi 14 janvier 2026, la première bibliothèque de carottes de glace au monde a été inaugurée à Concordia, en Antarctique. Des échantillons provenant de glaciers du monde entier commencent à y être stockés. Ils permettront notamment aux générations futures de continuer à étudier les traces des climats passés piégés dans la glace, alors que les glaciers de tous les continents fondent à un rythme effréné.

Grâce à sa température moyenne de -50 °C, cette carothèque souterraine pourra préserver du réchauffement climatique des carottes de glace déjà prélevées dans les Andes, au Svalbard (archipel norvégien en mer du Groenland), dans les Alpes, dans le Caucase ou dans les montagnes du Pamir au Tadjikistan, et ce, sans assistance technique ni réfrigération.

Ancien coprésident du groupe de travail Science du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), le climatologue et physicien suisse Thomas Stocker est aujourd’hui président de la Fondation Ice Memory, à l’initiative de ce projet en collaboration avec l’Université Grenoble Alpes et l’Université Ca’ Foscari de Venise. Il explique l’urgence de cette initiative qui se projette sur le temps long.


The Conversation : Pouvez-vous nous donner un exemple concret de la façon dont ces carottes de glace stockées en Antarctique pourraient être utilisées par les scientifiques du futur ?

Thomas Stocker : Prenons l’exemple d’un nouveau composé chimique présent dans l’atmosphère, comme un pesticide. Si, dans cinquante ans, un ou une scientifique souhaite connaître la concentration de ce composé en 2026, par exemple dans les Alpes européennes ou en Asie, il se tournera vers une carotte de glace.

Mais si la carotte de glace n’a pas été prélevée et stockée en Antarctique, ce ou cette scientifique sera incapable de répondre à cette question. Grâce aux carottes de glace stockées à Concordia, cependant, il ou elle pourra prélever un échantillon, mesurer la concentration de ce composé dans la glace prélevée il y a cinquante ou cent ans, reconstituer les données et répondre à cette question.

Mais pour permettre aux futurs scientifiques de répondre à toutes les questions qu’ils se poseront, nous devons agir rapidement. Un article scientifique très récent, publié dans Nature, s’est penché sur l’évolution globale de la fonte des glaces et prévoit que le nombre de glaciers qui disparaissent augmentera jusqu’en 2040 environ, ce qui représenterait le pic annuel de la fonte des glaciers dans le monde.

À partir de là, la fonte des glaciers se réduira. Les chiffres vont baisser, non pas parce qu’on aura arrêté le réchauffement climatique, mais parce que, un par un, ces glaciers auront disparu, et il restera de moins en moins de glaciers qui fondent. Donc, vers 2040, on va atteindre un pic de fonte des glaciers, ce qui détruira au passage les archives environnementales prestigieuses et précieuses qu’ils représentent.

Dans les Alpes, nous avons connu un réchauffement environ deux fois plus rapide que le réchauffement moyen mondial, et nous sommes donc entrés dans une véritable course contre la montre. Nous devons prélever ces carottes de glace avant que l’eau provenant de la fonte estivale pénètre dans la glace.

Le glaciologue Claude Lorius explique pourquoi les glaciers forment des archives sans pareil des climats passés.

Depuis vos premiers travaux, vous avez pu bénéficier de nombreuses avancées méthodologiques et technologiques qui nous permettent de « faire parler » la glace. Quels sont vos espoirs en la matière ? Quels facteurs pourraient contribuer à exploiter encore davantage les échantillons de glaciers qui seront conservés à Concordia ?

T. S. : Je ne peux qu’extrapoler à partir de ce que nous avons appris et expérimenté en science au cours des cinquante dernières années. Nous avons effectivement assisté à l’arrivée de nouvelles technologies qui permettent d’analyser les paramètres de la composition élémentaire, la concentration des gaz stockés dans la glace et qui, comme des clés, vous ouvrent soudainement la porte à toute une série d’informations inédites sur notre système environnemental.

Ce que je peux donc imaginer à partir de là, ce sont de nouvelles méthodes optiques permettant de déterminer la composition isotopique de différents éléments dans diverses substances chimiques, des outils d’analyse de haute précision qui pourraient être inventés dans les prochaines décennies et qui permettraient d’atteindre le niveau du picogramme, du picomole ou du femtomole, afin de nous renseigner sur la composition de l’atmosphère, sur ses composants, tels que la poussière, les minéraux provenant de diverses régions qui se sont déposés dans ces carottes de glace, afin de nous informer sur la situation, l’état de l’atmosphère dans le passé.

Comment a été construit le site de stockage des carottes de glace, en Antarctique.

Vous êtes professeur émérite de physique climatique et environnementale. Pour quelles autres disciplines le projet Ice Memory est-il utile ?

T. S. : On peut penser à la biologie. Si vous trouvez des restes organiques ou de l’ADN dans ces carottes de glace, c’est de la biologie. On peut aussi étudier la composition chimique de l’atmosphère. C’est alors de la chimie. On peut même se demander quelle est la composition minérale des petites particules de poussière qui se déposent dans ces carottes de glace. C’est un travail de géologue. Vous disposez donc de toute une gamme de domaines scientifiques différents qui peuvent tirer de nouvelles informations à partir de ces carottes de glace.

Le projet Ice Memory ne fait pas que rassembler différentes disciplines scientifiques, il aspire aussi à fédérer des scientifiques du monde entier. Quel défi cela représente-t-il à une époque où les tensions géopolitiques ne cessent de croître ?

T. S. : Ice Memory est l’un de ces exemples où le multilatéralisme est activement mis en pratique par la communauté scientifique. Il s’agit d’une offre faite aux scientifiques du monde entier, dans tous les pays, afin qu’ils puissent utiliser ce sanctuaire unique situé à Concordia. Pour nous, il s’agit vraiment d’une activité emblématique qui dépasse les frontières et les divisions politiques afin de préserver les informations provenant de la planète Terre, non seulement pour la prochaine génération de scientifiques, mais aussi pour l’humanité en général.

Nous invitons également tous les pays qui possèdent des glaciers sur leur territoire à participer et à soutenir leur communauté scientifique afin de forer des carottes de glace dans ces régions et de suivre l’exemple du Tadjikistan. ce dernier est le premier pays à avoir fait don d’une carotte de glace, 105 mètres de glace précieuse provenant d’un site unique, le glacier Chukurbashi, à la fondation Ice Memory afin qu’elle soit stockée en Antarctique.

Donation du Tadjikistan d’une carotte de glace du glacier Chukurbashi.

Pendant la guerre froide, l’Antarctique était l’un des rares endroits sur Terre où Russes et Américains pouvaient échanger leurs idées et mener ensemble des recherches scientifiques. L’Antarctique peut-elle encore être un lieu où le dialogue remplace la rivalité ?

T. S. : Je suis absolument convaincu que l’environnement unique de l’Antarctique, si riche en nature et en vie, et si particulier sur notre planète, fait que les considérations relatives à la position et aux valeurs de chaque pays sont secondaires. La priorité absolue, comme nous l’avons pratiquée au cours des cinquante dernières années d’activité scientifique sur le terrain, est vraiment de comprendre notre système climatique, d’observer la nature du point de vue de l’Antarctique et de la protéger.

Cela nous donne l’occasion de nous immerger véritablement, de collaborer et d’échanger des idées sur des questions scientifiques spécifiques qui nous concernent tous, car elles concernent l’avenir de cette planète que nous partageons.

Propos recueillis par Gabrielle Maréchaux.

The Conversation

Thomas Stocker est président de la Fondation Ice Memory.

13.01.2026 à 15:47

Parler d’écologie en France : que révèle l’analyse linguistique des récits de la transition ?

Albin Wagener, Professeur en analyse de discours et communication à l'ESSLIL, chercheur au laboratoire ETHICS, Institut catholique de Lille (ICL)
img
Quels sont les récits qui font avancer la transition écologique ? Une analyse linguistique de 559 initiatives françaises met au jour les leviers narratifs propices à l’action.
Texte intégral (3439 mots)

La façon dont on parle des initiatives écologiques menées sur le territoire français depuis 1980 raconte beaucoup de choses sur les imaginaires de la transition. Dans une étude publiée par l’Agence de la transition écologique, l’Ademe, en 2025, nous montrons, avec l’appui de la linguistique, comment certains narratifs peuvent devenir de véritables leviers d’action concrète.


La question des récits et des narratifs qu’ils mobilisent est de plus en plus présente dans les discussions sur la transition socio-environnementale. Et cela, parfois jusqu’au « narrative washing », qui revient à masquer l’inaction à l’aide d’une belle histoire. Une étude que j’ai coordonnée pour l’Ademe, publiée en octobre 2025, montre pourtant que les récits jouent un rôle pivot dans les initiatives de transition écologique en France.

L’intérêt pour les récits n’est pas nouveau du côté de l’Ademe, qui a déjà soutenu plusieurs travaux sur le sujet et notamment sur la question des imaginaires de la transition écologique.

Ce qui est nouveau, en revanche, c’est d’avoir étudié ces récits sous un angle linguistique. Ainsi, nous avons constitué un corpus de textes, puis en avons étudié la lexicométrie (c’est-à-dire, l’étude quantitative du lexique). Enfin, nous avons procédé à une analyse de discours.

Concrètement, cela signifie que nous avons rassemblé des textes portant sur des initiatives de transition écologique et les avons étudiés de manière statistique (nombre d’occurrences, sens des mots…), afin de cerner les grands thèmes qui les traversent. Cette approche a été déclinée sur un corpus textuel (comment les acteurs parlent d’eux-mêmes, comment leurs partenaires en parlent, comment les médias et les citoyens les diffusent…) portant sur 559 initiatives menées entre 1980 et 2020 sur tout le territoire, y compris ultramarin. Bien sûr, la France a totalisé beaucoup plus d’initiatives sur la période, mais une sélection a dû être opérée pour nourrir l’analyse.

À la clé, un inventaire des récits écologiques ainsi mis en circulation, qui permet de comprendre comment les discours des uns et des autres se sont approprié les enjeux de transition écologique et quelles sont les dimensions clés mobilisées par les initiatives les plus emblématiques.


À lire aussi : Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique


Où s’ancrent les récits les plus emblématiques ?

Les résultats de l’étude montrent la grande diversité des initiatives, avec de réelles différences en fonction des formes juridiques porteuses (entreprises, associations, collectivités, etc.), des secteurs d’activité, mais aussi des territoires.

Dans ce cadre, nous nous sommes intéressés aux récits dits « emblématiques ». Par là, on entend : uniquement les récits traitant d’actions concrètes, incarnés par des acteurs clés et créateurs d’imaginaires capables de transformer les représentations qui circulent dans la société. Les récits étudiés ne sont donc donc pas des narratifs imaginaires et vaporeux déconnectés de toute réalité socio-économique.

Carte de France hexagonale en fonction du nombre de récits emblématiques identifiés. Ademe, 2025, Fourni par l'auteur

En France hexagonale, les territoires regroupant le plus d’initiatives emblématiques sont ainsi :

  • soit des territoires avec de grandes villes fortement engagées (Rennes, Nantes ou Toulouse, par exemple),

  • des territoires ayant connu des crises socio-économiques fortes (comme le Nord et le Pas-de-Calais),

  • ou encore des territoires ayant un fort attachement linguistique et culturel (Pays basque, Corse, ou Bretagne). On retrouve également cette spécificité sur plusieurs territoires ultramarins, comme Mayotte, La Réunion ou la Guyane.


À lire aussi : Qui parle du climat en France ? Ce que nous apprennent les réseaux sociaux


Les grands thèmes transversaux

Au sein des 559 initiatives étudiées, 11 thèmes transcendent les territoires et les domaines d’activité socioprofessionnels. Ils sont mobilisés dans les récits pour raconter les différentes manières de s’engager pour la transition écologique en France. Nous les avons identifiés grâce au logiciel Iramuteq.

Réseaux de récits du corpus de texte. Plus des termes sont proches sur le graphe, plus les récits où on les retrouve vont être connectés et faire référence l’un à l’autre. Ademe, 2025, Fourni par l'auteur

Le réemploi (couleur orange, en bas à gauche), une thématique importante, apparaît comme légèrement déconnectée des autres. En cause, l’orientation historique de ce modèle, lié au secteur de l’économie sociale et solidaire ainsi que le modèle d’insertion qu’il promeut. Le plus souvent, la gestion de la seconde main est effectuée par des associations qui accompagnent des personnes éloignées de l’emploi (par exemple Emmaüs).

Ceci montre que le modèle de réemploi obéit à une logique propre, plus ancienne et non directement liée à la prise de conscience plus récente de la nécessité d’une transition écologique. En d’autres termes, le secteur du réemploi a d’abord eu une vocation sociale, avant de mettre en avant plus distinctement son orientation écologique, d’où son isolement sur le graphe. Ainsi, associer des publics en situation d’exclusion au traitement d’objets eux-mêmes exclus du marché interroge sur les imaginaires qui traversent le modèle de réemploi et la précarité en général. En réalité, cette double exclusion peut expliquer la déconnexion relative par rapport aux autres thèmes de récit, plus explicitement centrés sur la transition environnementale que sur la dimension sociale.

En haut à gauche, les dimensions de convivialité, d’interaction humaine (couleur bleu foncé) et d’alimentation (en gris) sont liées. Ce marqueur illustre le besoin de retrouver une logique de « bons moments ». Celle-ci lie la consommation de produits alimentaires vertueux au besoin de se retrouver ensemble dans une logique hédonique. Les initiatives présentées par ces récits fonctionnent sur un rythme événementiel et s’appuient sur le besoin de créer des temps d’échange, de partage et de vie sociale.

Sur la partie droite, on distingue le besoin d’inscription territoriale (couleur rose), la question de l’agriculture vertueuse (en rose-violet), les enjeux de financement et d’énergie (en rouge), et enfin la dimension éducative (bleu-vert clair). Ces thèmes constituent autant de manières de mobiliser concrètement la transition avec une dimension territoriale : modèle économique, inscription locale en lien avec les projets des collectivités, sensibilisation des populations, modèles de production énergétique et agricole à réinventer…

Au centre du schéma, enfin, on retrouve les éléments pivots desquels s’articulent toutes les thématiques des récits : l’insertion et l’emploi. Ceci montre que les récits de la transition écologiques ne sont pas nécessairement utopiques : le réalisme économique et social des modèles socio-environnementaux est crucial pour créer du dynamisme économique et de l’emploi.


À lire aussi : Ressourceries, Emmaüs, Le Relais : les acteurs emblématiques de la seconde main menacés par la grande distribution


La place ambivalente de l’environnement

Pour ce qui est des domaines d’activité des initiatives étudiées, on remarque une légère prédominance de l’innovation sociale, qui regroupe notamment les tiers-lieux et écolieux, et plus généralement les espaces qui tentent de réinventer des modalités économiques et sociale. En deuxième position, on retrouve l’économie circulaire et le réemploi, puis les activités agricoles et alimentaires, et enfin l’engagement d’acteurs publics locaux et des collectivités.

Distribution des récits par domaine d’activité. Ademe, 2025, Fourni par l'auteur

Étonnamment, on remarque que les métiers spécifiquement liés à l’environnement et à la biodiversité (en tant que secteurs d’activité économique) sont minoritaires parmi les 559 initiatives. Pourtant, le graphe ci-dessous montre qu’il s’agit du premier sujet mobilisé par les récits d’initiatives emblématiques.

Distribution des sujets de récits. Ademe, 2025, Fourni par l'auteur

Ainsi, si l’environnement n’est pas toujours porteur lorsqu’il est en première ligne des initiatives, il est systématiquement associé aux initiatives comme élément d’accompagnement ou d’amplification.

Des récits qui dépendent des secteurs mais aussi des territoires

Afin de permettre une analyse du corpus la plus fine possible, plusieurs paramètres ont été définis dans le logiciel d’analyse pour représenter des informations récurrentes qui constituent de véritables « variables » des récits. Il s’agit de la date de création de l’initiative, de sa région, son département, le type de territoire, la forme juridique, le métier principal, le ou les objets de l’activité, le nom de l’activité…

En n’affichant que ces grandes catégories de variables, le graphe livre de nouveaux résultats. Par exemple, on remarque que le récit de convivialité semble prédominer en région Bretagne et concerne tout particulièrement les tiers-lieux.

Citons quelques-uns de ces tiers-lieux, visibles sur le graphe : la Manufacture des Capucins dans l’Eure, la Maison Glaz dans le Morbihan, ou encore la Maison du Colonel à Amiens. Cela ne signifie pas que la convivialité soit le seul récit porté par les initiatives étudiées, mais que ces tiers-lieux constituent, en termes de narratif, des moteurs nationaux pour associer la dimension de la convivialité à celle de la transition écologique.

Cette présentation des résultats met en avant d’autres initiatives locales, comme la commune alsacienne de Muttersholtz pour ce qui est de la transition énergétique, l’association réunionnaise Reutiliz pour l’économie circulaire, ou encore le CERDD, Centre ressource du développement durable dans les Hauts-de-France pour l’attachement au territoire.

Les trois piliers de la transition écologique

Ainsi, parmi les grands enseignements de cette étude, on remarque que les récits de transition écologique en France reposent sur trois piliers :

Les trois dimensions des récits de transition écologique en France. Ademe, 2025, Fourni par l'auteur
  • l’attachement au territoire et à ses réalités locales,

  • le besoin de liens sociaux pour créer de l’engagement convivial et désirable autour de la transition,

  • et la stimulation d’une véritable transformation culturelle des modes de vie et des comportements.

Ces récits sont précieux pour inciter à l’optimisme en ces temps de backlash écologique. Mais cette étude laisse une question en suspens : les récits qui sous-tendent la transition écologique sont-ils comparables ailleurs dans le monde ? Adopter une approche comparative entre différents pays permettrait d’identifier les leviers communs sur lesquels s’appuyer en priorité.

The Conversation

L'étude décrite dans cet article a été co-financée par l'Agence de la transition écologique (Ademe).

12.01.2026 à 15:53

La Terre du Milieu de Tolkien, un lieu imaginaire pour repenser notre rapport à la nature

Véronique André-Lamat, Professeure de Géographie, Centre national de la recherche scientifique (CNRS)
Léa Menard, Médiatrice scientifique, Centre national de la recherche scientifique (CNRS)
img
« Le Seigneur des anneaux », à travers sa géographie imaginaire, nous invite à nous engager dans une éthique environnementale qui semble plus d’actualité que jamais.
Texte intégral (2841 mots)
La Terre du Milieu. Léa Dutemps, Fourni par l'auteur

L’écrivain anglais J. R. R. Tolkien (1892-1973) était un cartographe de l’imaginaire. Dans le Seigneur des anneaux (1954-1955), il invente un monde dans lequel la frontière entre humanité et animalité est floue. Ses cartes de la Terre du Milieu construisent la cohérence spatiale et la densité narrative de la quête de la Communauté de l’anneau. Montagnes, forêts, rivières y constituent tantôt des épreuves spatiales, tantôt des espaces protecteurs ou de refuge. La géographie y structure le récit et façonne la fiction.


Les mondes imaginaires sont performatifs. Ils se nourrissent du réel dans une projection fictionnelle tout en l’interrogeant. Le Seigneur des anneaux n’y fait pas exception, nous invitant à réfléchir à nos liens avec la nature, à reconnaître sa valeur intrinsèque et à dépasser une conception dualiste opposant nature et culture, ne lui accordant qu’une valeur d’usage ou de ressource, à nous engager dans une éthique environnementale.

En suivant la Communauté, métissée, sur les chemins, parfois de traverse, les menant vers le mont Destin, nous sommes confrontés à différentes manières d’habiter et de transformer la nature : utopies rurales, zones industrieuses, refuges écologiques et lieux symboliques où des choix engagent l’avenir du monde. La fiction devient un outil pour questionner le réel, interroger nos pratiques et réfléchir aux enjeux environnementaux contemporains dans une ère désormais anthropocénique.

Le mont Destin. Léa Dutemps, Fourni par l'auteur

Habiter (avec) le monde : utopies rurales et résistance

La Comté repose sur un système agraire vivrier de polycultures fondé sur de petites exploitations familiales où le tabac réputé n’est que peu exporté. Les Hobbits vivent en autarcie et habitent littéralement une nature jardinée, dans des terriers. Le bocage, les prairies forment un maillage qui limite l’érosion et protège la biodiversité et organisent un territoire où nature et société coexistent harmonieusement. Cet idéal préindustriel s’éteint peu à peu dans le monde occidental moderne où une agriculture intensive et centralisée s’est imposée pour devenir norme sur un territoire remembré.

La Comté. Léa Dutemps, Fourni par l'auteur

La forêt de Fangorn, elle, représente une nature qui résiste à la manière d’une zone à défendre (ZAD). Les Ents, gestionnaires du peuplement forestier, incarnent des arbres doués de parole, capables de révolte. Ils refusent la domination humaine fermant les sentiers d’accès avant de s’engager dans une guerre contre l’industrialisation menée par Saroumane en Isengard. Le chantier stoppé de l’autoroute A69 témoigne de la façon dont la nature peut parfois aujourd’hui par elle-même poser des limites aux projets d’aménagement voulus par l’humain.

La Lothlórien, enfin, symbolise une écotopie, un espace préservé du temps et des pressions humaines, où nature, société et spiritualité vivent en harmonie. La réserve intégrale de la forêt de la Massane, les forêts « sacrées » d’Afrique de l’Ouest ou celles du nord de la Grèce (massif du Pindes) font écho à cet idéal. Pensées comme des écosystèmes dont les dynamiques naturelles sont respectées et où l’intervention humaine contrôlée se fait discrète, elles permettent d’observer et de suivre les espèces, la régénération spontanée des habitats et leur résilience. Mais à l’image de la Lothlórien, un tel système de gestion reste spatialement rare, fragile. Il nécessite de construire la nature comme bien commun dont l’accès et l’usage sont acceptés par les communautés qui cohabitent avec ces espaces forestiers.

La Lothlórien. Léa Dutemps, Fourni par l'auteur

Ces trois types de territoires montrent qu’habiter le monde n’est pas simplement occuper, encore moins s’approprier, un espace de nature mais engager un dialogue avec lui, considérer qu’il a une valeur par lui-même, juste parce qu’il existe, et pas uniquement en tant que ressource. Il s’agit alors de cohabiter dans des interactions où chaque existant prend soin de l’autre.

Exploiter une nature ressource : de l’artificialisation à la destruction

La transformation des espaces de nature, comme le montre Tolkien, peut aussi répondre à une logique d’exploitation intensive, la nature offrant des ressources permettant d’asseoir la domination des humains sur la nature comme sur d’autres humains. Il ne s’agit plus d’envisager une cohabitation être humain/nature mais d’asservir la nature par la technique.

Isengard, le territoire de Saroumane au sud des monts Brumeux, contrôlé par la tour d’Orthanc, incarne la transformation radicale du milieu par et pour l’industrie ; une industrie dont la production d’Orques hybrides, sorte de transhumanisme appliqué à la sauvagerie, vise à renforcer le pouvoir de Saroumane et construire son armée pour prendre le contrôle d’autres territoires. La forêt est rasée, les fleuves détournés, le paysage mécanisé, dans l’unique but d’alimenter l’industrie. Les champs d’exploitation des schistes bitumineux en Amérique du Nord montrent à quel point l’exploitation de la nature peut détruire des paysages, polluer une nature qui devient impropre et dont les fonctions et services écosystémiques sont détruits).

La tour d’Orthanc. Léa Dutemps, Fourni par l'auteur

La Moria, ancien royaume florissant du peuple Nain, est l’exemple de l’issue létale de la surexploitation d’une ressource naturelle. Si le mithril, minerai rare de très grande valeur a construit la puissance du royaume Nain, son exploitation sans cesse plus intense, vidant les profondeurs de la terre, va conduire à l’effondrement de la civilisation et à l’abandon de la Moria. Ce territoire minier en déshérence fait écho aux paysages des régions du Donbass par exemple, qui conservent aujourd’hui encore les traces visibles de décennies d’extraction charbonnière : galeries effondrées, sols instables et villes partiellement abandonnées.

Lieux de rupture et enjeux planétaires

On trouve enfin chez Tolkien une mise en scène d’espaces qui représentent des lieux de bascule pour l’intrigue et l’avenir du monde, en l’occurrence la Terre du Milieu.

Le « bourg-pont » de Bree, zone frontière matérialisée par une large rivière, marque la limite entre l’univers encore protégé, presque fermé, de la Comté et les territoires marchands de l’est, ouverts et instables. Mais Bree est aussi un carrefour dynamique, lieu d’échanges où circulent et se rencontrent des personnes, des biens et des récits. Un carrefour et une frontière où toutefois la tension et la surveillance de toutes les mobilités sont fortes.

La Moria. Léa Dutemps, Fourni par l'auteur

Lieu de transition, symbolisant à la fois ouverture et fermeture territoriales, Bree est un point de bascule dans le récit où convergent et se confrontent des personnages clés de l’intrigue (les Hobbits, Aragorn, les cavaliers noirs de Sauron), les figures du Bien et du Mal autour desquelles vont se jouer l’avenir de la Terre du Milieu. Comme Bree, Calais est un point de friction entre un espace fermé (les frontières britanniques) et un espace ouvert où s’entremêlent société locale, logiques nationales et transnationales, mais où les circulations sont de plus en plus contrôlées.

Enfin, la montagne du Destin, volcan actif, incarne le lieu de rupture ultime, celui où le choix d’un individu, garder l’anneau pour lui seul dans un désir de pouvoir total ou accepter de le détruire, a des conséquences majeures pour toute la Terre du Milieu. Certains espaces jouent un rôle similaire sur notre terre. La fonte du permafrost sibérien ou de l’inlandsis antarctique pourrait libérer d’immenses quantités de carbone pour l’un, d’eau douce pour l’autre, accélérant le dérèglement climatique et la submersion de terres habitées.

Ces lieux où des actions localisées peuvent déclencher des effets systémiques globaux, au-delà de tout contrôle, concentrent ainsi des enjeux critiques, écologiques, géopolitiques ou symboliques.

La fiction constitue un puissant vecteur de réflexion quant à notre responsabilité collective dans la gestion de la nature, quant à nos choix éthiques et politiques dans la manière d’habiter la Terre en tant que bien commun et ainsi éviter d’atteindre un point de bascule qui sera celui d’un non-retour.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

11.01.2026 à 15:41

Après l’abattage de milliers de chevaux sauvages, le parc australien du Kosciuszko retrouve peu à peu ses paysages

David M Watson, Professor in Ecology, Charles Sturt University
Patrick Finnerty, Postdoctoral Research Fellow in Conservation and Wildlife Management, University of Sydney
img
Avec la campagne d’abattage des chevaux sauvages, les zones alpines fragiles ne sont plus piétinées par des sabots durs. Mais les paysages de Kosciuszko mettront des décennies à se rétablir.
Texte intégral (3521 mots)
Des brumbies, chevaux sauvages d’Australie, dans le parc national du Kosciuszko. Fourni par l'auteur, CC BY-ND

Dans le parc national du Kosciuszko, la diminution de la population de brumbies, les chevaux sauvages, ouvre une chance de restauration pour les écosystèmes fragiles du massif. Celles et ceux qui parcourent le parc au quotidien en voient déjà les premiers effets.


Dans le parc national du Kosciuszko, en pleines Alpes australiennes, le paysage évolue lentement. Des zones de végétation, autrefois rasées par les chevaux, repoussent. Les berges de ruisseaux, longtemps érodées, paraissent moins tassées sur les bords. Les visiteurs croisent aussi moins de chevaux immobiles sur les routes, ce qui représentait un réel danger pour la circulation.

En 2023, en effet, la Nouvelle-Galles du Sud a autorisé l’abattage aérien de chevaux sauvages dans le parc national du Kosciuszko. Et fin novembre, le gouvernement a adopté un projet de loi abrogeant le texte qui reconnaissait aux brumbies ou chevaux sauvages un « statut patrimonial » dans le parc (NDT : ces chevaux, arrivés d’Angleterre avec les premiers colons ont été au centre d’une bataille culturelle culturelle ces dernières années).

Ce changement a supprimé les protections juridiques dont bénéficiaient les chevaux dans le parc, qui les distinguaient des autres espèces introduites comme les cerfs, les porcs, les renards et les lapins. Désormais, ils sont traités en Australie de la même manière que les autres espèces invasives, rétablissant une cohérence dans la gestion de leur impact sur les paysages.

La dernière enquête estime qu’environ 3 000 chevaux subsistent dans le parc national du Kosciuszko, contre quelque 17 000 il y a un an. Plus de 9 000 chevaux ont été abattus depuis 2021.

Le plan de gestion actuellement en vigueur prévoit de conserver 3 000 de ces chevaux, un compromis entre protection des écosystèmes et sauvegarde de la valeur patrimoniale de ces animaux. Il doit s’appliquer jusqu’à la mi-2027.

Quels sont les effets environnementaux de la réduction du nombre de chevaux à Kosciuszko ? Et à quoi le parc pourrait-il ressembler à l’avenir ?

Un étalon se tenant dans une tourbière alpine à sphaignes
Un étalon se tenant dans une tourbière alpine à sphaignes. Fourni par l’auteur, CC BY-ND

Les dégâts

Depuis des décennies, les chevaux sauvages constituent une source majeure de dégradations écologiques dans les paysages alpins du Kosciuszko. Leur impact dans ces milieux d’altitude fragiles s’est particulièrement accru au cours de la dernière décennie, période pendant laquelle leur population a augmenté de manière incontrôlée.

Des études empiriques et des analyses d’images satellites montrent que les brumbies réduisent la couverture végétale, dégradent la structure des sols et endommagent les berges des cours d’eau, les tourbières et les marais alpins – des sols riches en carbone formés sur des dizaines de milliers d’années.

Une partie de ces dégâts résulte de leur alimentation, fondée sur des graminées et des plantes herbacées alpines à croissance lente. Un cheval consomme généralement l’équivalent de 2 % de sa masse corporelle par jour, soit environ 8 kilogrammes quotidiens. À titre de comparaison, le plus grand herbivore indigène des hauts plateaux, le kangourou gris de l’Est, consomme environ 600 grammes par jour, c’est 13 fois moins.

Mais l’essentiel des dégâts est causé par leurs sabots. Les chevaux sauvages parcourent jusqu’à 50 kilomètres par jour, et leurs sabots durs écrasent les couches de mousses à sphaignes, compactant en profondeur les sols tourbeux. Ces plantes et ces sols fonctionnent normalement comme des éponges à restitution lente, stockant l’eau de fonte des neiges et alimentant les cours d’eau tout au long de l’été. Et contrairement aux wombats, aux kangourous et à d’autres espèces indigènes, les chevaux sauvages se déplacent en file indienne, traçant de profonds sentiers qui quadrillent les prairies alpines et les assèchent.

Ces transformations affectent l’ensemble de l’écosystème. Les scinques alpins, les rats à dents larges, les grenouilles corroboree, les phalangers pygmées des montagnes et les poissons indigènes dépendent tous d’une végétation dense, de tapis de mousse intacts ou de cours d’eau exempts de sédiments – soit précisément les éléments que les chevaux dégradent.

Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko
Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND

Les cours d’eau ont été particulièrement touchés. Les Alpes australiennes fournissent près d’un tiers des eaux de surface qui alimentent le bassin Murray-Darling (NDT : le plus vaste bassin hydrographique d’Australie), mais le piétinement des chevaux le long des cours d’eau trouble des rivières jusque-là limpides et déstabilise les apports lents et réguliers dont dépendent ces bassins versants.

Ces impacts ne se limitent pas au parc. Ces dernières années, de nombreux chevaux ont gagné des zones voisines, notamment des forêts domaniales, où leurs perturbations s’ajoutent aux effets de l’exploitation forestière commerciale et mettent en danger les visiteurs et les campeurs.

Si l’attention s’est surtout concentrée sur les effets des brumbies au Kosciuszko et, plus largement, dans les écosystèmes alpins, près d’un demi-million de chevaux sauvages affectent les paysages à l’échelle de toute l’Australie, les forêts tropicales claires et les zones semi-arides étant les plus durement touchées.

Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux
Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux. Fourni par l’auteur, CC BY-ND

Ce que nous avons observé jusqu’à présent

Nous avons passé beaucoup de temps dans le parc au cours de l’année écoulée et avons commencé à remarquer de petits changements dans les hauts plateaux, cohérents avec ce que l’on pourrait attendre du programme de contrôle des animaux sauvages.

Nous voyons moins de chevaux lors de nos journées sur le terrain. Dans les zones régulièrement piétinées, de petites poches de végétation réapparaissent sur les surfaces dénudées. Même certaines berges, érodées de longue date, paraissent plus souples sur les bords.

Ces observations restent strictement anecdotiques et ne constituent pas des preuves formelles. Mais elles suggèrent un paysage qui commence à se « réoxygéner » à mesure que la pression diminue. Il y a aussi un aspect sécuritaire. Quiconque circule sur les routes alpines connaît la surprise, au sortir d’un virage dans les eucalyptus, de se retrouver nez à nez avec un cheval, voire un troupeau, sur le bitume. Moins de chevaux signifie moins de ces rencontres dangereuses pour les chercheurs, le personnel des parcs nationaux et les visiteurs.

Le retour progressif

Avec beaucoup moins de chevaux dans les hauts plateaux, la pression commence à diminuer. À mesure que le piétinement diminue, les tourbières et les marais devraient commencer à se régénérer et à retenir l’eau plus longtemps. Les tapis de mousse repousseront et d’autres plantes productrices de tourbe pourront s’implanter à nouveau dans des sols qui ne sont plus constamment compactés et surpâturés.

Moins de pâturage signifie également que les herbes alpines, les carex et les graminées des neiges retrouveront de l’espace pour se développer. Les sols nus vont se stabiliser, les berges des cours d’eau se rétablir et les lits des ruisseaux commencer à se dégager.

Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko
Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND

Ces améliorations se répercutent sur l’ensemble de l’écosystème : des sols plus stables et une végétation plus dense créent un habitat plus favorable aux grenouilles, aux scinques, aux petits mammifères et aux invertébrés qui dépendent d’environnements alpins frais, humides et structurés.

La récupération prendra du temps – des décennies, et non des mois. Des études empiriques à long terme seront indispensables pour suivre les changements et identifier les zones du parc où des efforts de restauration ciblés seront nécessaires pour accélérer le rétablissement.

Enfin, une vraie chance

Rien de tout cela ne se produira en un claquement de doigts. Les écosystèmes alpins se régénèrent lentement, et des décennies de dégâts ne peuvent pas être effacées du jour au lendemain. Les courtes saisons de croissance font que les plantes repoussent progressivement, et non par à-coups. De nombreuses pentes et berges de ruisseaux portent encore les cicatrices du pâturage bovin plus de 60 ans après le départ du bétail. Les perturbations perdurent ici pendant des générations.

La diminution du nombre de chevaux n’est qu’un début, mais c’est une étape essentielle. Et désormais – avec moins de chevaux sur le terrain et la suppression des barrières légales – le parc du Kosciuszko dispose enfin d’une voie réaliste vers la restauration. La prochaine décennie déterminera combien de son fragile patrimoine alpin pourra finalement être retrouvé.

Le fragile écosystème alpin du parc national de Kosciuszko
Le fragile écosystème alpin du parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND
The Conversation

David M. Watson reçoit des financements de recherche du gouvernement fédéral (via l’ARC, le DAFF, le DCCEEW) et siège aux conseils d’administration du Holbrook Landcare Network et des Great Eastern Ranges. Il a exercé deux mandats au sein du Comité scientifique des espèces menacées de la Nouvelle-Galles du Sud, avant de démissionner lorsque la Wild Horse Heritage Act est entrée en vigueur en juin 2018.

Patrick Finnerty est actuellement directeur pour les carrières émergentes en écologie à l’Ecological Society of Australia, coordinateur des jeunes chercheurs à l’Australasian Wildlife Management Society, et membre du conseil de la Royal Zoological Society of NSW. Il reçoit des financements de l’Australian Research Council.

09.01.2026 à 16:45

Manger sain et durable avec la règle des 4V

Anthony Fardet, Chargé de recherches HC, UMR 1019 - Unité de Nutrition humaine, Université Clermont Auvergne, Inrae
Michel Duru, Directeur de recherche honoraire, UMR AGIR (Agroécologie, innovations et territoires), Inrae
img
Manger végétal, vrai et varié et consommer plus de produits issus d'une agriculture régénérant le vivant. Tout cela est bénéfique pour notre santé comme celle des écosystèmes.
Texte intégral (3094 mots)

Manger végétal, vrai et varié et consommer plus de produits issus d’une agriculture régénérant le vivant. Ces quatre objectifs permettent de concilier une alimentation bénéfique pour notre santé comme pour celle des écosystèmes.


Faire ses courses ressemble souvent à un casse-tête. On souhaiterait trouver des produits bon pour la santé, si possible ne venant pas du bout du monde, pas ultratransformés ni cultivés avec force pesticides et engrais chimiques, tout en étant à un prix abordable.

Mais ces enjeux peuvent parfois entrer en contradiction : des produits considérés comme sains ne sont pas toujours issus d’une agriculture de qualité, et inversement. En outre, de bons produits pour la santé et l’environnement ne permettent pas nécessairement d’avoir un régime alimentaire équilibré.

Alors comment sortir de ces dilemmes et aiguiller le consommateur ?

La règle des 4V. Fourni par l'auteur

Nous proposons la règle simple des 4V, qui tient compte des modes de production agricoles et de la composition de l’assiette en invitant à une alimentation vraie, végétale, variée et régénérant le vivant.

La règle des 4V

Manger vrai permet de fait de réduire le risque de nombreuses maladies chroniques (obésité, cancers, diabète de type 2, dépression, maladies cardiovasculaires…). Par précaution, cela consiste à limiter les aliments ultratransformés à 10-15 % des apports caloriques quotidiens, au lieu de 34 % actuellement en moyenne ; soit déjà les diviser par deux au minimum.

Manger plus végétal est également meilleur pour la santé. Cela permet aussi une réduction importante de plusieurs impacts environnementaux : réduction de l’empreinte carbone de notre alimentation, car moins d’émissions de gaz à effet de serre (GES) en agriculture ; moindre consommation de ressources (terres, énergie, eau).

Réduire la production et la consommation de produits animaux permet aussi d’abaisser les émissions d’azote réactif qui polluent l’air, les sols et les nappes phréatiques et produisent du protoxyde d’azote (N₂O), un puissant gaz à effet de serre. Ce deuxième V permet ainsi de diviser par deux les émissions de GES et d’azote dans l’environnement.

Outre la réduction de notre consommation de protéines qui excède en moyenne de 40 % les recommandations, il est proposé de ramener la part des protéines animales à moins de 50 % de l’apport protéique, au lieu de 65 % actuellement. Au final, cela revient à diviser par deux la consommation de viande et un peu celle des produits laitiers, notamment le fromage. L’augmentation de la consommation de protéines végétales provient alors surtout des légumineuses. La végétalisation de l’assiette passe aussi par une consommation accrue de fruits et de légumes peu transformés, de céréales complètes et de fruits à coque.


À lire aussi : Les légumineuses : bonnes pour notre santé et celle de la planète


Manger varié est un atout pour la santé, notamment pour l’équilibre nutritionnel afin d’éviter les déficiences. Cela suppose de diversifier fruits, légumes, céréales complètes, légumineuses et fruits à coque qui sont une source importante de fibres, minéraux, vitamines, oligo-éléments, anti-oxydants et autres phytonutriments bioactifs protecteurs.

Pour cela, il faudrait idéalement consommer de tous les groupes d’aliments tout en variant dans chaque groupe : par exemple, blé, maïs et riz complets pour les céréales. Manger les différents morceaux de viande – en particulier des bovins (par exemple des entrecôtes et pas seulement du steak haché) – est aussi important pour ne pas déstabiliser les filières.

Manger des produits issus d’une agriculture régénérant le vivant permet d’améliorer la densité nutritionnelle des aliments, de réduire l’empreinte environnementale de l’assiette, notamment pour les émissions de GES et d’azote, et aussi d’augmenter les services fournis à la société (séquestration de carbone, épuration de l’eau…).

La regénération du vivant désigne l’ensemble des actions visant à restaurer ou renouveler la fertilité des sols, les cycles de l’eau et de l’azote, la diversité des espèces et la résilience face aux changements climatiques, tout en consommant avec parcimonie les ressources non renouvelables (le gaz qui sert à fabriquer les engrais, le phosphore…). Ainsi, au-delà de la production de nourriture, l’agriculture régénératrice vise à fournir des services à la société, tels que la séquestration du carbone dans les sols, l’augmentation de la densité nutritionnelle des produits.

Manger des produits issus d’une agriculture régénérant le vivant consisterait par exemple à choisir 50 % de produits ayant un bon score environnemental alors que les modes de production contribuant à la régénération du vivant ne dépassent pas 25 % de l’offre.

Types d’agriculture contribuant à la régénération du vivant

L’agriculture conventionnelle, qui vise l’intensification durable en utilisant les technologies pour réduire ses impacts, ne peut cependant pas régénérer le vivant, car elle porte toujours sur des systèmes simplifiés avec un nombre limité de cultures, des sols souvent pauvres en matières organiques, peu d’infrastructures écologiques et de très grandes parcelles.

Cependant, caractériser les modes de culture et d’élevage pour leurs impacts négatifs, mais aussi pour les services qu’ils rendent (séquestration du carbone, densité nutritionnelle des produits) permet d’aller au-delà de la dichotomie usuelle bio/conventionnel.

Les pratiques associées à la régénération du vivant reposent sur la diversification des cultures et des modes d’alimentation des animaux. Elles permettraient de réduire les émissions de GES de 15 % environ, et aussi de séquestrer entre 15 et 20 % des émissions de GES de l’agriculture. Elles permettraient aussi de réduire de moitié insecticides et fongicides. En revanche, une réduction forte de l’utilisation des herbicides est plus difficile et nécessite de combiner plusieurs mesures sans forcément exclure un travail du sol occasionnel.

L’élevage est critiqué, car il introduit une compétition entre feed (nourrir les animaux) et food (nourrir les humains). Cette compétition est bien plus faible pour les vaches, qui mangent de l’herbe, que pour les porcs et les volailles, qui sont nourris avec des graines. Elle est aussi d’autant plus faible que les élevages sont autonomes pour l’énergie et les protéines. Des exemples d’élevage contribuant à la régénération du vivant sont les élevages herbagers et biologiques, dont l’alimentation provient surtout des prairies, ainsi que les élevages Bleu Blanc Cœur pour lesquels l’ajout de lin, graine riche en oméga-3, dans la ration des animaux, a des effets positifs sur leur santé, la nôtre et la planète puisqu’il y a une réduction des émissions de GES en comparaison à des élevages courants.

Il s’agit d’agricultures agroécologiques, telles que l’agriculture biologique, l’agriculture de conservation des sols, s’il y a une réduction effective des pesticides, voire l’agroforesterie.


À lire aussi : Les sept familles de l’agriculture durable


Des initiatives sont en cours pour évaluer l’impact environnemental des produits agricoles et alimentaires. Elles permettent de qualifier les modes de culture et d’élevage en termes d’impacts sur le climat, la biodiversité, en mobilisant la base de données Agribalyse. Elles tiennent compte aussi des services fournis comme la séquestration du carbone, la contribution à la pollinisation des cultures, comme le montre la recherche scientifique.

À ce jour, deux initiatives diffèrent par la manière de prendre en compte les services et de quantifier les impacts. La méthode à retenir dépendra de leur validation scientifique et opérationnelle.

Des bienfaits conjugués

Suivre ces 4V permet de pallier les failles de notre système alimentaire tant pour la santé que pour l’environnement. L’alimentation de type occidental est de fait un facteur de risque important pour le développement de la plupart des maladies chroniques non transmissibles. Les facteurs qui en sont à l’origine sont nombreux : excès de consommation d’aliments ultratransformés, de viandes transformées, de gras/sel/sucres ajoutés, de glucides rapides, manque de fibres, d’oméga-3, d’anti-oxydants, et une exposition trop importante aux résidus de pesticides. Ces maladies sont en augmentation dans de nombreux pays, y compris en France.

Par ailleurs, les modes de production en agriculture sont très dépendants des intrants de synthèse (énergie, engrais, pesticides) dont les excès dégradent la qualité des sols, de l’eau, de l’air, la biodiversité ainsi que la densité nutritionnelle en certains micronutriments.

Nous sommes parvenus à un point où nos modes d’alimentation ainsi que les modes de production agricole qui leur sont associés génèrent des coûts cachés estimés à 170 milliards d’euros pour la France. La nécessité de refonder notre système alimentaire est maintenant reconnue par les politiques publiques.

Un cercle vertueux bon pour la santé et l’environnement

Manger varié encourage la diversification des cultures et le soutien aux filières correspondantes. Il en est de même pour manger vrai, car les industriels qui fabriquent des aliments ultratransformés n’ont pas besoin d’une diversité de cultures dans un territoire. Dit autrement, moins on mange vrai, moins on stimule l’agriculture contribuant à régénérer le vivant. Manger varié est également meilleur pour la santé mais aussi pour le vivant.

Par ailleurs, les pratiques agricoles régénératives permettent généralement d’avoir des produits de plus grande densité nutritionnelle. Même si le mode de production de l’agriculture biologique émet souvent plus de GES par kilo de produit que le mode conventionnel, il suffit de consommer un peu moins de viande pour compenser cet effet.

La règle des 4V (Figure 2) permet donc d’embarquer tous les acteurs du système alimentaire, du champ à l’assiette, ainsi que les acteurs de la santé. Ainsi, adhérer simultanément à vrai, végétal, varié a récemment été associé à une réduction de 27 % du risque de cancer colorectal.

Quant au concept de régénération du vivant, il demeure parlant pour tous les maillons de la chaîne. Vivant, varié et végétal s’adressent aux agriculteurs ; vrai concerne les transformateurs et, in fine, le distributeur qui peut offrir ou non du 4V aux consommateurs. Cette règle des 4V permet ainsi de sensibiliser les acteurs du système alimentaire et les consommateurs aux facteurs à l’origine des coûts cachés de l’alimentation, tant pour la santé que l’environnement.

Enfin, un tel indicateur qualitatif et holistique est facile d’appropriation par le plus grand nombre, notamment les consommateurs, tout en constituant un outil d’éducation et de sensibilisation au concept « Une seule santé » pour l’alimentation, comblant le fossé entre sachants et non-sachants.

The Conversation

Anthony Fardet est membre des comités scientifiques/experts de MiamNutrition, The Regenerative Society Foundation, Centre européen d'excellence ERASME Jean Monnet pour la durabilité, Projet Alimentaire Territorial Grand Clermont-PNR Livradois Forez et l'Association Alimentation Durable. Il a été membre du comité scientifique de Siga entre 2017 et 2022.

Michel Duru est membre du conseil scientifique de PADV (Pour une Agriculture Du Vivant)

08.01.2026 à 17:19

Dermatose nodulaire contagieuse : les vétérinaires victimes d’une épidémie de désinformation

Jeanne Brugère-Picoux, Professeur honoraire agrégée de pathologie du bétail à l’École nationale vétérinaire d’Alfort, Président honoraire de l’Académie vétérinaire de France (2012), Académie nationale de médecine, Académie vétérinaire de France
Jean-Yves Gauchot, Docteur vétérinaire, Président de la Féderation des syndicats vétérinaires de France, Vice-président de l’Académie vétérinaire de France., Académie vétérinaire de France
img
La crise agricole de la dermatose nodulaire contagieuse (DNC) a vu un déferlement inédit de fake news, ciblant en particulier les vétérinaires.
Texte intégral (2448 mots)

Arrivée en France en juin 2025, la dermatose nodulaire contagieuse (DNC) a rapidement fait l’objet de mesures sanitaires qui ont permis d’éradiquer le virus dans certaines régions. Mais la crise agricole qui a suivi a vu émerger une contestation inédite, nourrie par des fausses informations et des remises en cause du rôle des vétérinaires. Dans ce texte, la profession appelle à un « droit de véto » contre la désinformation.


La dermatose nodulaire contagieuse (DNC) a atteint la France en Savoie le 29 juin 2025 à la suite de l’introduction d’un bovin infecté venant d’Italie. La France métropolitaine étant alors indemne de la DNC, la réglementation européenne prévue (dépeuplement total, vaccination d’urgence au sein des zones réglementées (ZR) – instaurées par arrêté préfectoral, limitation des mouvements des bovins…] a été mise en place, ce qui a permis d’éliminer le virus dans la région dès le 21 août.

Les contaminations ultérieures qui ont suivi en France, notamment en Occitanie, sont en réalité le résultat de déplacements illicites de bovins contagieux à partir de la zone réglementée couvrant une partie de l’Ain, de la Savoie et de la Haute-Savoie (zone vaccinale II sur la carte ci-dessous).

Zones réglementées et vaccinales suite aux foyers de DNC en France au 31 décembre 2025. Ministère de l’agriculture, de l’agro-alimentaire et de la souveraineté alimentaire

La forte médiatisation de la DNC associée aux dénonciations de « hold-up politique » par certains éleveurs rappelle de précédentes crises sanitaires (vache folle, grippe aviaire, Covid-19…). Mais à l’époque, la parole des « sachants » n’avait pas été remise en cause dans les mêmes proportions qu’aujourd’hui. Des membres de la profession vétérinaire font l’objet d’insultes, voire de menaces gravissimes, dans certains cas même de menaces de mort.

Cette situation est non seulement surprenante, mais également choquante. Les vétérinaires ont toujours été associés et solidaires avec les éleveurs. Dans le même temps, de fausses informations au sujet de la DNC se propagent dans l’espace médiatique.


À lire aussi : Dermatose nodulaire : comprendre les raisons de la mobilisation agricole


Un déferlement inédit de « fake news »

Parmi les fausses informations que des experts autoproclamés (parmi lesquels on a pu retrouver tant des personnes ayant endossé une posture « antivax » lors de la pandémie de Covid-19 que des scientifiques ou cliniciens méconnaissant la DNC) ont diffusées, non seulement sur les réseaux sociaux mais également dans les médias :

  • « La maladie peut être traitée par des antibiotiques/par l’ivermectine. »

C’est faux. Les antibiotiques ou les antiparasitaires tels que l’ivermectine ne sont pas actifs sur une maladie virale comme la DNC, causée par un Capripoxvirus (Lumpy skin disease virus).

  • « L’Espagne et l’Italie n’ont pas appliqué le dépeuplement total. »

C’est faux. Les autres pays européens confrontés à la DNC, comme l’Espagne et l’Italie, appliquent eux aussi la stratégie d’abattage de tous les bovins présents dans un foyer confirmé de DNC, comme le confirme le ministère de l’agriculture.

  • « La Suisse pratique l’abattage partiel. »

Il n’y a pour l’instant pas eu de cas de DNC confirmé en Suisse, donc pas d’abattage.

  • « Il est inadmissible d’abattre tout un troupeau lorsqu’il y a seulement un animal malade. »

Si un seul animal présente des lésions cutanées, il y a de fortes chances qu’au moins 50 % des animaux soient infectés dans le troupeau. En effet, il est difficile de connaître précisément la date d’infection du bovin. Si celle-ci est antérieure à l’acquisition de la protection vaccinale, alors plusieurs animaux sont potentiellement infectés au sein du troupeau, ce que les tests sanguins ne permettent pas de détecter.

  • « Il faut avoir un troupeau témoin pour surveiller l’évolution de la maladie dans un foyer infecté. »

Ce troupeau « témoin » a existé dès le 6e foyer de DNC déclaré le 7 juillet en France, du fait du recours d’un jeune éleveur de Savoie refusant le dépeuplement de son troupeau. Treize jours plus tard, le recours a été refusé et d’autres cas de DNC se sont déclarés dans son élevage. La forte contagiosité de la DNC pourrait en partie expliquer le grand nombre de foyers de DNC déclarés deux semaines plus tard dans les élevages voisins.

  • La DNC relève de la catégorie A du droit européen, comme la fièvre aphteuse, or « pour la fièvre aphteuse, de nouveaux textes préconisent l’abattage partiel ».

C’est faux. La catégorie A correspond en médecine vétérinaire à une maladie soumise une réglementation sanitaire très stricte lorsqu’il s’agit d’une maladie hautement contagieuse émergent dans un pays indemne. Les conséquences économiques et sanitaires justifient une éradication immédiate dès son apparition.

  • « Le vaccin n’est pas efficace car certains bovins vaccinés ont présenté la maladie malgré tout »

La vaccination en urgence n’est pas une vaccinothérapie. Elle nécessite au moins trois semaines pour installer une protection immunitaire. Elle a pu être réalisée chez des animaux déjà infectés avant ou peu après l’injection vaccinale.

  • « La désinsectisation de l’élevage est la méthode la plus efficace pour éviter la contamination ».

Ce sont certes des insectes hématophages qui sont les vecteurs de la DNC, mais les traitements insecticides ne sont jamais efficaces à 100 %. Il n’existe pas de mesure parfaite permettant d’éradiquer tous les insectes d’un élevage.

  • « 70 vétérinaires ont été radiés de l’Ordre des vétérinaires pour avoir refusé l’abattage du troupeau de l’Ariège ».

C’est faux. Le conseil national de l’ordre des vétérinaires confirme qu’aucun vétérinaire n’a été radié pour avoir refusé un abattage.

  • « Le vaccin est dangereux pour les animaux et l’humain ».

C’est faux, le vaccin est un vaccin dit « vivant atténué » qui ne présente aucun danger ni pour les animaux ni pour l’humain. De plus, la DNC n’est pas une zoonose (maladie animale transmissible à l’humain et réciproquement), mais une épizootie.

  • « Il y a encore des cas de DNC en Savoie ».

Dans cette zone désormais considérée comme indemne de la DNC, il peut s’agir de la pseudo dermatose nodulaire contagieuse (PDNC), due à un herpèsvirus qui évolue très rapidement (en 3 semaines) vers la guérison.

  • « La fédération des vétérinaires européens (FVE) préconise plutôt la vaccination que l’abattage dans la DNC ».

C’est faux : la note de la FVE de novembre 2025 présente une revue générale sur le bénéfice des vaccinations en médecine vétérinaire sans remettre en cause la réglementation européenne concernant les maladies classées dans la catégorie A comme la DNC.

  • « L’EFSA (European Food Safety Autority) avait préconisé un abattage partiel en 2016 lors des premiers foyers de DNC en Europe ».

Cette recommandation de l’EFSA en 2016 correspondait à une évaluation mathématique des moyens à mettre en œuvre dans les pays où la DNC était déjà installée (virus endémique), en l’occurrence les Balkans. Elle ne s’applique pas pour les pays indemnes de DNC soumis à la réglementation européenne, comme c’est le cas en France.

  • « Lors de l’épizootie de DNC observée dans l’île de La Réunion en 1991-1992, il n’y a pas eu de dépeuplement total ».

La flambée de DNC sur l’île de la Réunion a été la conséquence de l’importation de zébus malgaches. Le contexte sur cette île qui n’exportait pas de bovins était toutefois différent de la situation actuelle de la DNC en France métropolitaine. Il y a d’abord eu un retard considérable de plusieurs mois pour identifier formellement la maladie. Le premier vaccin, qui était celui utilisé pour la variole ovine, était peu efficace pour les 18 000 bovins vaccinés (sur les 21 000 bovins recensés sur l’île). La vaccination avec le vaccin bovin sud-africain, bien plus efficace, a été réalisée avec un an de retard. Au total, 511 exploitations ont été atteintes avec 10 % de mortalité.

Les conditions de la sortie de crise

En France, la situation est actuellement sous contrôle dans le Sud-Est, mais elle est encore évolutive en Occitanie, où de rares cas peuvent encore apparaître à la fin de cette épizootie. Ce sera le cas de bovins en incubation, car voisins d’un foyer déclaré et dont l’immunité vaccinale n’est pas encore installée pour le protéger.

Deux autres risques ne peuvent pas être évalués pour prédire la fin de cette épizootie de DNC :

  • un déplacement illicite à partir des ZR actuelles d’animaux apparemment sains, mais qui sont de véritables « bombes virales » à retardement ;

  • la non-déclaration d’un cas de suspicion de DNC par un éleveur (comme un représentant syndical a osé le recommander), alors qu’il convient d’éviter la contamination des élevages voisins.

La principale revendication des agriculteurs, répétée inlassablement dans les médias, est un abattage partiel lors de DNC. Elle témoigne d’une méconnaissance de cette maladie. En effet, on l’a vu plus haut, ce serait mettre en danger les troupeaux indemnes et par-delà, tout le cheptel bovin français. Nous espérons qu’il n’y aura plus de foyers de DNC à partir de mi-janvier 2026, comme ce fut le cas dans les Savoie après la vaccination.

La profession vétérinaire a toujours été proche des agriculteurs. Rappelons que les premières écoles vétérinaires au monde ont été créées en France au XVIIIe siècle pour « lutter contre les maladies des bestiaux ». Ainsi, en unissant nos forces nous avons pu éradiquer de la surface de la Terre en 2001 une autre maladie virale : la peste bovine.

The Conversation

Jean-Yves Gauchot est docteur vétérinaire et président de la Féderation des syndicats vétérinaires de France

Jeanne Brugère-Picoux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 11:45

La marche, premier mode de déplacement en France : ce que disent vraiment les statistiques de mobilité

Frédéric Héran, Économiste des transports et urbaniste émérite, Université de Lille
img
En France, la façon de compter les déplacements minore la part de la marche. Ce biais statistique ancien oriente encore les politiques publiques.
Texte intégral (2744 mots)

Les statistiques de mobilité orientent les politiques publiques. Or en France, la manière de les présenter, héritée des années du tout automobile, minore la part de la marche, ce qui pénalise le développement des mobilités actives. Et si on s’inspirait des approches statistiques déjà déployées ailleurs, par exemple en Suisse, pour mieux comptabiliser le temps passé à marcher ?


Les statistiques ne sont jamais neutres : elles sont le reflet de choix politiques répondant à un contexte historique spécifique. La manière de présenter les résultats des enquêtes statistiques sur la mobilité des personnes en France, qui a déjà 50 ans, n’échappe pas à cette règle. Elle conduit à sous-estimer fortement les déplacements à pied, au risque de continuer à favoriser des politiques en faveur des modes de déplacement motorisés.

Il est grand temps de réformer cet usage, comme l’a fait la Suisse il y a déjà 30 ans, si l’on souhaite redonner aujourd’hui davantage de place aux mobilités actives, tant pour des raisons sociales, économiques qu’environnementales.

Pour rappel, la marche est le mode de déplacement le plus inclusif, le plus démocratique et le moins nuisible à l’environnement, et pas seulement dans le cœur des grandes villes.


À lire aussi : Atteindre les objectifs climatiques améliorera aussi la santé publique


Ce que disent les statistiques sur la mobilité

En France, depuis la standardisation des enquêtes sur la mobilité des personnes en 1976, les déplacements sont généralement présentés sous forme de « parts modales ». Il s’agit des parts, sur l’ensemble des déplacements comptabilisés, réalisées avec chaque mode de déplacement : voiture, deux-roues motorisé, transports collectifs, vélo, marche…

Évolution des parts modales en France, entre 1982 et 2019, pour les déplacements en semaine. Dernières enquêtes nationales sur la mobilité des personnes

Dans les présentations classiques des données recueillies, la part modale de la marche apparaît très inférieure à celle de la voiture. Pourtant, quand on regarde l’autre grande source statistique que représentent les enquêtes sur la mobilité réalisées dans les grandes villes, les déplacements à pied dominent dans les centres-villes, et parfois également dans les banlieues denses de la proche périphérie. Mais partout ailleurs, c’est largement le contraire et le triomphe de la voiture apparaît ainsi incontestable.

Voitures stationnées directement sur le trottoir, ce qui empêche de l'utiliser. Fourni par l'auteur

En conséquence, pour qui découvre ces statistiques ainsi présentées , dans la plupart des territoires, il paraît nécessaire de s’occuper en priorité des voitures, de leur accorder davantage de place pour circuler et stationner, même si cela doit se faire au détriment des espaces publics, des trottoirs, des places publiques et autres terre-pleins.

Ce qu’oublient de préciser ces représentations

Examinons ces chiffres de plus près. En réalité, ce qu'on nomme habituellement la « part modale de la marche » ne concerne que la « marche exclusive », c’est-à-dire les déplacements entièrement faits à pied, par les résidents, sur l’espace public et hors du temps de travail.

Par convention, on oublie ainsi :

  • la marche intermodale, c’est-à-dire les déplacements à pied pour rejoindre ou quitter un transport public ou une place de stationnement pour voiture, vélo ou deux-roues motorisé,

  • la marche effectuée dans des espaces privés ouverts au public, comme les centres commerciaux ou les gares,

  • la promenade ou la randonnée,

  • la marche pendant le travail, y compris quand elle est effectuée sur l’espace public, qui est pourtant très importante dans certaines professions,

  • la marche au domicile pour effectuer toutes sortes d’activités : du ménage au jardinage, en passant par le bricolage, etc.,

  • enfin, la marche réalisée par les visiteurs (touristes et autres non-résidents) du territoire.


À lire aussi : Mobilité : et si on remettait le piéton au milieu du village ?


Comment expliquer une approche si restrictive ?

Les conventions statistiques sur la mobilité ont été élaborées dans les années 1960-1970 à l’époque du « tout automobile », puis des premiers efforts réalisés pour relancer les transports publics. Dans ce contexte, il fallait avant tout prévoir et dimensionner la voirie pour absorber un trafic motorisé fortement croissant, les piétons étant très peu considérés et les cyclistes censés disparaître.

Par convention dans les enquêtes sur la mobilité, un déplacement, c’est une personne qui va d’un lieu d'origine à un lieu de destination, avec un ou plusieurs modes et pour un motif particulier. Les modes sont hiérarchisés avec priorité aux plus lourds : d’abord les transports publics, puis la voiture, puis les deux-roues et enfin la marche.

Autrement dit, si une personne se rend à pied à un arrêt de bus, prend le bus, puis termine son trajet à pied, le déplacement est considéré comme ayant été fait en transport public et la part de marche est tout simplement ignorée. Dans cette approche, la marche devient un « résidu » statistique, c’est-à-dire ce qui reste une fois qu’on a pris en compte tous les autres modes de déplacement. Pourtant, les usagers des transports publics passent environ la moitié de leur temps à pied à marcher ou à attendre.


À lire aussi : Réduire l’empreinte carbone des transports : Quand les progrès techniques ne suffisent pas


Ces pays qui comptabilisent les déplacements différemment

Or, cette représentation des statistiques de déplacement en France est loin d’être la seule possible.

En Suisse par exemple, depuis une réforme des statistiques de la mobilité introduite en 1994, les résultats des enquêtes de mobilité sont présentés sous trois angles différents : les distances parcourues, le temps de trajet et le nombre d’étapes.

Par étape, on entend ici les segments d’un déplacement effectués à l’aide d’un seul mode de transport. Un déplacement en transport public, par exemple, compte le plus souvent une première étape à pied, puis une deuxième en transport public et une troisième à nouveau à pied : on parle de marche intermodale.

Ainsi, en 2021, en ne tenant compte que de la marche exclusive et de la marche intermodale, les Suisses ont passé chaque jour plus de temps à pied qu’en voiture.

Parts modales des moyens de transport utilisés en Suisse en 2021. Office fédéral de la statistique suisse

Ailleurs, on réfléchit aussi à d’autres manières de présenter les résultats des enquêtes sur la mobilité, comme en Belgique ou au Royaume-Uni.

En réalité, 100 % de nos déplacements intègrent au moins une part de marche, même minimale lorsqu’il s’agit par exemple de simplement sortir de sa voiture sur le parking de son lieu de travail. La marche est à l'origine de toutes les autres formes de mobilité et les autres modes ne sont que des « relais du piéton ». Parce que nous sommes des bipèdes, la marche est évidemment notre premier mode de déplacement.

Vers une nouvelle approche en France ?

La France peut-elle changer sa façon de présenter les statistiques de mobilité, dans le sillage de ce que propose la Suisse ?

Pour prendre conscience de l’importance journalière de la marche, il convient de l’aborder en temps de déplacement total à pied. Une récente étude de l’Ademe révèle que nous passons chaque jour une heure et douze minutes à pied, soit beaucoup plus que la durée moyenne passée en voiture chaque jour, qui est de 37 minutes.

Ces résultats montrent aussi que la prise en compte de la marche intermodale augmente de 75 % la durée de la seule marche exclusive (dite « déplacements locaux intégralement à pied » dans le graphique ci-après). En tenant compte de tous les temps consacrés à se déplacer, la marche est sans conteste le premier mode de déplacement, loin devant la voiture.

Cette étude repose sur l’utilisation de deux enquêtes existantes mais sous-exploitées (l’enquête mobilité des personnes et l’enquête emploi du temps des Français) et en adoptant plusieurs hypothèses prudentes.

En quelques centaines de milliers d’années d’évolution humaine, la bipédie s’est hautement perfectionnée. Elle a permis de libérer nos mains, nous a rendus très endurants à la course et a contribué à développer notre cerveau. Puis, en 150 ans seulement avec l’avènement du transport motorisé, la marche utilitaire quotidienne s’est effondrée.

Pourtant, de par notre constitution, marcher régulièrement est essentiel pour rester en bonne santé, pour bien grandir, vivre mieux et bien vieillir. C’est un enjeu de santé publique. C’est pourquoi, il convient de réaliser des espaces publics confortables, de libérer les trottoirs du stationnement sauvage et autres obstacles, de ménager des traversées piétonnes sécurisées et de calmer la circulation automobile, sa vitesse et son volume. Pour appuyer de telles politiques, encore faudrait-il revoir notre manière de représenter la marche dans les résultats des enquêtes de mobilité.

The Conversation

Frédéric Héran est membre du conseil d’administration de l'association et groupe de réflexion Rue de l’Avenir

08.01.2026 à 11:45

Peut-on encourager le covoiturage avec des subventions locales ?

Guillaume Monchambert, Maître de conférences en économie, Université Lumière Lyon 2
img
Si le premier bilan des subventions locales au covoiturage demeure encourageant, il masque en vérité plusieurs aspects.
Texte intégral (1743 mots)
Les personnes qui bénéficient des subventions locales pour le covoiturage ne sont pas toujours d’anciens automobilistes solos. Cette réalité limite donc les bénéfices de ces aides. Rawpixel.com/Freepik, CC BY

Le covoiturage est souvent perçu comme une des façons les plus simples de baisser les émissions de gaz à effet de serre des transports. Si le premier bilan des subventions locales visant à généraliser cette pratique est encourageant, il masque en vérité plusieurs aspects.


Face à l’urgence climatique et aux embouteillages chroniques des métropoles françaises, les pouvoirs publics cherchent des solutions pour réduire l’usage de la voiture individuelle. Les automobiles des particuliers sont la principale source des émissions de gaz à effet de serre du transport en France. Elles sont également émettrices de particules fines qui dégradent la qualité de l’air et augmentent les risques de maladies respiratoires et cardiovasculaires.

Face à cette réalité, le covoiturage est une piste qui suscite beaucoup d’espoir, car elle ne nécessite pas d’infrastructures lourdes supplémentaires, s’appuyant sur des ressources existantes de véhicules et de conducteurs. Parmi les solutions incitatives, les aides financières locales au covoiturage, notamment via des plateformes numériques, se développent depuis 2019. Mais ces subventions encouragent-elles vraiment plus de covoiturage ? Et quels sont les gains environnementaux dus à ces subventions ?

Des résultats probants, mais variables selon les territoires

La loi d’orientation des mobilités (LOM), promulguée en 2019, autorise les autorités organisatrices de mobilité à verser une incitation financière aux conducteurs et passagers d’un trajet en covoiturage. Le versement de cette subvention s’effectue principalement via des plateformes numériques qui organisent le covoiturage. La subvention moyenne pour un déplacement en covoiturage de 22 kilomètres s’élève à 1,60 euros.

Pour voir si ce levier est efficace, un jeu de données est précieux : celui du registre de preuve de covoiturage. Il centralise les données de trajets transmises par les plateformes partenaires. Notre étude récente utilise ces données pour mesurer la pratique du covoiturage organisé via plateforme dans 1 123 collectivités locales françaises entre 2019 et 2024.

Elle révèle que ce levier est effectivement puissant. En moyenne, l’introduction d’une subvention locale attribuée pour chaque déplacement augmente d’environ 5 trajets mensuels le nombre de trajets de covoiturage à courte distance (inférieurs à 80 kilomètres) sur plateforme pour 1 000 habitants concernés. Chaque euro de subvention supplémentaire par déplacement génère près de 4 trajets mensuels additionnels par 1 000 habitants. Autrement dit, les finances publiques locales, investies dans ce type d’incitation, produisent un effet tangible et mesurable sur le terrain.

Ce résultat masque cependant une forte diversité. L’effet des subventions est nettement plus marqué dans les zones urbaines denses et peuplées. À l’inverse, dans les territoires peu denses et ruraux, la subvention n’a quasiment aucun effet, traduisant les difficultés du covoiturage à s’implanter sans une masse critique d’usagers. Cette disparité met en lumière le rôle central des effets de réseau propres aux plateformes numériques : plus il y a d’utilisateurs, plus elles deviennent utiles, ce qui amplifie l’impact des subventions.

D’autres réalités doivent également être soulevées pour comprendre l’efficacité ou non de ces subventions, notamment du point de vue environnemental.

L’effet d’aubaine : inciter ceux qui viendraient de toute façon

L’effet d’aubaine se produit lorsque des utilisateurs auraient covoituré via la plateforme même en l’absence de toute subvention. Par exemple, un salarié habitué à organiser son covoiturage quotidien sur une application continue simplement à le faire, mais touche désormais une prime financière.

Ici, la dépense publique n’a donc pas changé son choix ni augmenté le nombre total de trajets partagés, ce qui dilue l’efficacité de la politique.

L’effet d’opportunité : attirer les covoitureurs informels sans créer de nouveaux trajets

L’effet d’opportunité correspond lui aux covoitureurs qui, sans subvention, auraient continué à partager leurs trajets en dehors des plateformes numériques (par exemple via le bouche-à-oreille ou des groupes privés). Lorsque la subvention est instaurée, ils transfèrent leur pratique sur la plateforme pour bénéficier des aides. Ainsi, le volume de trajets enregistrés croit artificiellement, sans que la part réelle du covoiturage dans la mobilité globale n’augmente. Par exemple, deux voisins qui organisaient ensemble leur trajet en voiture hors plateforme rejoignent l’application pour percevoir la prime, sans modification de leur habitude de déplacement. Une enquête du Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) montre qu’un tiers des nouveaux covoitureurs attirés par les dispositifs d’incitation financière covoituraient déjà avant la mise en place de l’incitation.

Le report modal : comprendre d’où viennent les nouveaux passagers

Le facteur le plus décisif concerne cependant les sources du report modal : il s’agit d’identifier le mode de transport qu’un passager du covoiturage aurait utilisé si la subvention n’existait pas. Contrairement à l’idée reçue, une grande partie des nouveaux passagers du covoiturage issu de la subvention ne sont pas d’anciens automobilistes solo, mais d’anciens usagers du transport collectif (bus, train) ou parfois des modes actifs (comme le vélo ou la marche).

Prenons l’exemple d’une passagère qui renonce au TER pour un trajet covoituré subventionné : cela ne retire pas une voiture de la circulation, et les bénéfices pour la réduction des émissions sont nettement moindres que si elle avait quitté la voiture solo.

D’après l’enquête nationale sur le covoiturage pilotée par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), 35 % des passagers du covoiturage courte distance via plateforme faisaient le déplacement en transports en commun avant de pratiquer le covoiturage, 11 % utilisaient un mode actif et 10 % ne faisaient pas ce trajet. Ce constat est valable tant pour le covoiturage court que longue distance, freinant fortement l’effet net de la politique sur les émissions de gaz à effet de serre.

Combien coûte réellement la tonne de CO₂ évitée ?

Pour obtenir une mesure de l’impact net des subventions, il est donc indispensable de corriger les chiffres bruts du nombre de trajets en tenant compte de ces trois effets. Selon notre étude, ces phénomènes expliquent qu’entre un tiers et la moitié de l’augmentation observée n’est pas associée à une réelle réduction de l’autosolisme ou des émissions.

Une manière de mesurer l’efficacité d’une politique de réduction des émissions de gaz à effet de serre, et de la comparer à d’autres politiques, est de calculer le montant nécessaire pour éviter l’émission d’une tonne de CO2. Dans le cas du covoiturage, chaque tonne de CO2 évitée coûte à la collectivité entre 1 000 et 1 300 euros en subventions.

Ce chiffre se situe dans la fourchette haute des instruments de politique climatique en Europe, ce qui dénote une efficacité très relative. À titre de comparaison, le dispositif d’encouragement de l’adoption de la motorisation électrique a un coût pour les finances publiques de l’ordre de 600 euros par tonne de CO₂ évitée.

Vers une stratégie de long terme, ciblée et combinée

Ces résultats montrent bien la nécessité de concevoir des politiques qui ciblent précisément les changements de comportement les plus à même de réduire les émissions de CO2. Ces politiques seront d’autant plus efficaces qu’elles convainquent des autosolistes d’abandonner leur voiture pour covoiturer en tant que passager. Pour cela, des stratégies combinées seront nécessaires : incitations financières, infrastructures adaptées comme les voies réservées, développement de l’intermodalité…

Enfin, l’effet des subventions croissant dans le temps et le développement de la pratique du covoiturage invitent à une vision de long terme, loin des mesures ponctuelles d’effet d’annonce.

The Conversation

Guillaume Monchambert est membre du conseil scientifique de la Société des Grands Projets (SGP). Il a reçu des financements de la Région Auvergne-Rhône-Alpes (Projet Covoit’AURA) et de la BPI (projet Mobipart). Il a effectué des activités de conseil pour SNCF Réseau et SNCF Voyageurs.

07.01.2026 à 17:56

Microcapteurs pour suivre la qualité de l’air : gadgets ou véritables outils de suivi ?

Marie Bellugue Duclos, Doctorante, Université Paris-Saclay
Denis Machon, Professeur, INSA Lyon – Université de Lyon
Michael Canva, Directeur de recherche, Centre national de la recherche scientifique (CNRS); Université de Sherbrooke
img
Les microcapteurs ont démocratisé le suivi de la qualité de l’air. Mais leur performance est variable : à quelles conditions peuvent-ils fournir une information utilisable ?
Texte intégral (2994 mots)

Le suivi de la qualité de l’air s’est grandement démocratisé grâce à l’essor de microcapteurs électroniques accessibles à tout un chacun. Ces dispositifs sont-ils performants, et à quelles conditions peuvent-ils fournir une information utilisable ? État des lieux.


La pollution de l’air extérieur peut être liée au trafic routier, au chauffage au bois, aux activités industrielles ou encore aux feux de forêt et aux éruptions volcaniques. La diversité des particules qui en résulte illustre bien la nature diffuse et mobile de cette pollution. Celle-ci a des conséquences graves en termes d'effets sur la santé, allant des troubles respiratoires immédiats à des maladies chroniques incurables.

Selon l’Organisation mondiale de la santé (OMS), la pollution de l’air, tous polluants confondus, est responsable de 7,4 millions de décès par an dans le monde dont 4,2 millions liés à l’air extérieur et 3,2 millions à l’air intérieur. En France, le fardeau sanitaire des particules fines entraînerait à lui seul 40 000 décès chaque année, et est associés à un coût socio-économique estimé à 13 milliards d’euros.

Aujourd’hui, suivre la qualité de l’air auquel chacun est exposé n’a jamais été aussi simple. En quelques clics, il devient possible d’acheter des microcapteurs, d’accéder à des cartes en ligne ou de télécharger des applications mobiles fournissant un accès à ces données en temps réel. Tout comme la météo guide le choix de prendre un parapluie, cet accès offre aujourd’hui aux citoyens et aux décideurs un outil pratique pour orienter leurs actions.

Pourtant, derrière cette démocratisation, se pose la question de la performance de ces microcapteurs opto-électroniques. S’agit-il vraiment de sentinelles de confiance ? Faisons le point.


À lire aussi : Le potentiel oxydant : un nouvel indice pour mesurer la pollution atmosphérique


Des microcapteurs dans l’air du temps

Commençons par rappeler comment est menée la surveillance réglementaire de la qualité de l’air en France. Elle est coordonnée par le Laboratoire central de surveillance de la qualité de l’air (LCSQA) et mise en œuvre au niveau régional par les associations agréées pour la surveillance de la qualité de l’air (AASQA). Les données, librement accessibles grâce au site régional des AASQA, sont produites selon des protocoles normés afin de s’assurer qu’elles soient comparables d’une station de mesure à l’autre et d’une région à l’autre.

Exemple de station de mesure officielle de la qualité de l’air. Michael Coghlan, CC BY-SA

Toutefois, le nombre de stations de mesure mises en place résulte d’un compromis entre couverture géographique et coûts. La modélisation, basée sur les modèles Chimere ou Sirane par exemple, permet d’extrapoler la qualité de l’air sur un territoire donné, mais elle reste dépendante de la qualité et du nombre des mesures locales.

Afin de renforcer la couverture sans augmenter les coûts, la directive européenne, dont la réglementation française découle, autorise les réseaux de surveillance réglementaire à procéder à des mesures indicatives, pour lesquelles les exigences de qualité sont plus souples. Ce cadre favorise l’intégration des microcapteurs de 10 à 100 fois moins coûteux que les équipements utilisés pour les stations de référence, tant à l'achat qu’en fonctionnement.

Ce marché a le vent en poupe. En 2023, il pesait plus de 6 milliards d’euros, marché qui pourrait s’élever en 2032 à 13,5 milliards. En 2022, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) dénombrait 60 000 références produits disponibles sur les plateformes de vente en ligne.

On y retrouve donc des microcapteurs à bas coût prêts à l’emploi capables de collecter et de transmettre les données en temps réel. Le prix des composants se limite à quelques dizaines d’euros, tandis que le coût total du dispositif varie d’environ une centaine à plusieurs milliers d’euros selon les fonctionnalités.

Une mesure facile, mais une interprétation parfois délicate

Que valent ces différents types de microcapteurs ? Pour le savoir, il faut d’abord définir ce que l’on souhaite mesurer lorsqu’on parle de particules fines. Loin d’être un mélange défini, les particules dans l’air forment un ensemble hétérogène et variable par leur forme, leur taille et leur état.

Trois catégories se distinguent :

  • les hydrométéores (pluie, neige, brouillard),

  • les aérosols (suie, poussières, embruns, composés organiques…)

  • et les bioaérosols (pollens, bactéries, virus, spores…).

Par convention, la matière particulaire en suspension (ou Particulate Matter, PM) est décrite en fonction de la taille de ses constituants, dans lesquels les hydrométéores doivent être exempts. Ainsi, par convention, les particules grossières PM10, les particules fines PM2,5 et les particules ultrafines PM0,1 représentent respectivement des ensembles hétérogènes de taille inférieure ou égale à 10, 2,5 et 0,1 micromètre (µm).

Plus les particules sont petites, plus elles sont susceptibles de pénétrer profondément dans les voies respiratoires. Les PM1,0 peuvent être également suivies par des microcapteurs et des équipements de référence, mais elles ne font pas l’objet d’une réglementation spécifique ni ne sont associées à des seuils sanitaires!


À lire aussi : Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?


Or, les microcapteurs bas coût pour le suivi des particules, dont la mesure est basée sur leur comptage grâce à un principe optique, sont sensibles aux conditions environnementales et aux caractéristiques des particules, ce qui fragilise les performances. Leur fonctionnement repose sur la diffusion de la lumière par le passage d’une particule à travers un faisceau laser. Il s’agit du même principe qui rend visible un rayon lumineux dans la fumée. L’intensité détectée dans une direction donnée dépend de la taille, de la forme, de la composition et de l’orientation des particules.

Il faut également noter que ces microcapteurs sont calibrés avec des particules de polystyrène, loin de refléter l’hétérogénéité réelle de la pollution de l’air extérieur. S’ajoutent à cela leur encrassement et leur vieillissement, qui dégradent les performances dans le temps. L’interprétation des données exige donc une connaissance fine de ces limites.

Des données précieuses… mais sous conditions

Pour autant, les microcapteurs ne sont pas à exclure. En effet, en cas d’épisode de pollution, ils détectent les mêmes tendances que les stations réglementaires, justifiant leur usage pour des mesures indicatives.

Pour s’y retrouver, les organismes pour la surveillance de la qualité de l’air ont mené des évaluations en confrontant les microcapteurs aux équipements réglementaires. Accessibles en ligne, les résultats du challenge Airlab (Airparif, France) et de l’AQ-SPEC (South Coast AQMD, États-Unis) révèlent des corrélations satisfaisantes entre microcapteurs et ces équipements pour les PM1,0 et PM2,5. En revanche, elles sont moins bonnes pour les PM10 , car la conception des microcapteurs et le principe de la mesure ne permettent pas de bien les détecter.

Ces microcapteurs peuvent être achetés autant par des citoyens, des collectivités, des industriels, des associations ou des chercheurs. Tous ces acteurs peuvent publier leurs données sur des cartes interactives, ou y contribuer ponctuellement.

Contrairement aux cartes des AASQA, qui sont comparables entre elles grâce à des protocoles stricts, chaque plateforme adopte sa propre présentation.

Il est donc essentiel de bien comprendre l’information affichée : les points de mesure peuvent fournir une information visuelle qui représente une concentration (Atmotube par exemple) ou un indice de qualité de l’air (IQAir par exemple) avec un jeu de couleurs propre aux plate-formes comme des données chiffrées sans repère pour interpréter la donnée (OpenSenseMap par exemple). De plus, selon les plateformes, une même carte peut afficher tout un ensemble d’indicateurs de pollution de l’air, pas seulement ceux liés à un polluant spécifique comme les particules.

D’un service à l’autre, les cartes de la qualité de l’air peuvent varier considérablement, comme le montre cette comparaison du 17/11/2025 à 05h00 entre les cartes disponibles via IQAir (en haut) et Waqi (en bas). IQ Air/Waqi.info

Par ailleurs, peu de plateformes précisent si les mesures sont faites en intérieur, en extérieur, en mobilité ou en point fixe. De plus, une donnée en temps réel et une donnée moyennée sur une période donnée ne sont pas comparables. De ce fait, pour une même zone géographique, la qualité de l’air affichée peut varier d’une plateforme à l’autre, selon l’emplacement de la mesure, l’indicateur utilisé et la période considérée. En France, les données des AASQA restent la référence pour une information de confiance.

Les microcapteurs n’en restent pas moins des sentinelles utilisables sous réserve d’une excellente maîtrise de leurs limites. L’utilisation individuelle de microcapteurs par le grand public peut être encadrée par un protocole rigoureux pour assurer la qualité des données et accompagner leur interprétation. Le projet d’OpenRadiation, qui porte sur la mesure de la radioactivité, en est un exemple : lorsqu’une mesure faite par l’utilisateur d’un microcapteur apparaît inhabituelle sur la carte, un gestionnaire contacte alors ce contributeur pour comprendre l’origine de cette déviation. La cartographie de la qualité de l'air s'appuie sur une plus grande quantité de microcapteurs, ce qui rend plus difficile un suivi individualisé. Néanmoins, une validation des données à l’instar de ce qui est réalisé pour le suivi réglementaire pourrait être envisagée à l’aide d’un traitement adapté, avec un filtrage par exemple.

Ainsi, comme en témoignent la Captothèque (Atmo Auvergne-Rhône-Alpes) ou Ambassad’air (Rennes), programmes de sciences participatives basés sur la mesure citoyenne de la qualité de l’air, les microcapteurs peuvent non seulement fournir des indications, mais aussi contribuer à l’engagement citoyen pour l’observation environnementale.


À lire aussi : Ces citoyens qui mesurent la radioactivité de leur environnement


The Conversation

Marie Bellugue Duclos a reçu des financements du CNRS pour sa thèse. Elle utilise des micro-capteurs pour ses recherches.

Denis Machon a reçu des financements du CNRS et de l'ANR (France), du CRSNG (Canada) et du FRQ (Québec).

Michael Canva a reçu des financements du CNRS et de l’ANR (France), du CRSNG (Canada) et du FRQ (Québec).

07.01.2026 à 11:39

Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles

Jordy Bony, Docteur et Professeur en droit à l'EM Lyon, EM Lyon Business School
img
Humusation, aquamation, terramation : ces pratiques funéraires s’invitent désormais dans le débat législatif français à travers une proposition de loi récente.
Texte intégral (1249 mots)

Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.


L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.

Quel est l’objet de cette nouvelle proposition de loi ?

La proposition de loi no 2297 portée par le député LFI François Piquemal (4ᵉ circonscription de Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté « contrainte » puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.

Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).

Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.

Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.

Une proposition inspirée par l’actualité internationale du droit funéraire

Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.

Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.

La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »

La situation en France

Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.

À défaut de pouvoir supprimer le cercueil, certains réfléchissent à le rendre plus vert. À Saint-Étienne, la jeune entreprise Pivert Funéraire a ainsi créé un modèle pour crémation fabriqué à partir de déchet des industries sylvicoles et oléicoles.

D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent « Cercueil(s) & droit(s) », qui s’est tenu à l’Université Toulouse Capitole, le 28 novembre 2025.

D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui a lieu dans l’Essonne à travers le projet ANR F-Compost.

En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets, comme celui porté par cette proposition de loi, puissent voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de cent ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…

The Conversation

Jordy Bony a travaillé avec le comité de recherche de l'association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.

06.01.2026 à 16:53

Du sauveur à l’éboueur : comment les lycéens perçoivent leurs éco-délégués

Lise Trégloze, Doctorante au Centre de Recherche sur l’Éducation, les Apprentissages et la Didactique, Université Rennes 2
img
Depuis cinq ans, les élèves du secondaire doivent élire des éco-délégués dans chaque classe. Dans les faits, cela n’est pas toujours respecté et les perceptions quant à leur rôle peuvent beaucoup varier.
Texte intégral (3207 mots)

Voilà cinq ans que les élèves du secondaire ont l’obligation d’élire des éco-délégués dans chaque classe. Dans les faits cependant, cette intention n’est pas toujours respectée, et les perceptions quant à leur rôle varient fortement d’un établissement à l’autre.


À quoi servent les éco-délégués ? « Je ne sais pas », « aucune idée », « on n’a pas d’infos », ont répondu la moitié des 380 lycéens interrogés au sujet de leur expérience de l’éducation au développement durable dans leur lycée. Pourtant, chaque établissement scolaire a l’obligation d’organiser l’élection d’au moins un éco-délégué par classe, et ce depuis 2020.

Considérés comme les « pivots du développement durable dans les établissements », l’État les exhorte à devenir les « acteurs du changement » au sein d’un « peuple de colibris », à travers la voix de Jean-Michel Blanquer, alors ministre de l’éducation nationale.

Cinq ans après cette mise en place obligatoire des éco-délégués, « la tension entre ces injonctions et les réalités du terrain » déjà évoquée en 2023 par les chercheuses Évelyne Bois, Aurélie Zwang et Mandarine Hugon, est toujours palpable.


À lire aussi : Être éco-délégués au collège ou au lycée : quels moyens d’action ?


Un bilan difficile à dresser en l’absence de données officielles

Le ministère de l’éducation nationale affiche certes l’ambition de 250 000 éco-délégués et promeut des ressources et dispositifs d’appui (guides pratiques, prix de l’action de l’éco-délégué, etc.). Cependant, aucun recensement officiel n’est disponible, ni à l’échelle de la direction de l’évaluation, de la prospective et de la performance (DEPP), ni à celle des académies, ni même parfois à celle des établissements. Il est donc compliqué de savoir si chaque classe compte actuellement une ou un éco-délégué. Le travail de terrain nous permet toutefois de déceler que cette obligation n’est pas toujours suivie dans les faits.

Pour tenter de comprendre malgré tout le rôle effectif des éco-délégués, plusieurs ressources sont néanmoins disponibles :

  • une enquête menée en 2023-2024 en région Bretagne auprès d’établissements engagés dans des projets d’éducation au développement durable (EDD), relevant de l’éducation nationale ou de l’enseignement agricole, du secteur public ou privé, de la voie générale ou professionnelle.

  • les quelques travaux existants en science de l’éducation sur l’engagement des éco-délégués.

  • un discret et polémique rapport parlementaire portant sur l’animation des éco-délégués.

À la rencontre des éco-délégués

Des 380 répondants au questionnaire administré auprès de lycéens de Bretagne, 85 % indiquent la présence d’éco-délégués dans leur établissement, même au sein d’un lycée n’ayant pas encore mis en place le dispositif. Moins de 5 % déclarent être eux-mêmes éco-délégué au moment de l’enquête.

À la question « Quelles sont les activités menées par les éco-délégué·es ? », la réponse la plus fréquente (52 %) est donc « Je ne sais pas » ou sans réponse. La question étant ouverte, nous avons pu classer les réponses détaillées des 173 élèves ayant une idée des activités menées. Trois catégories d’acteurs peuvent alors se distinguer dans leurs perceptions du rôle des éco-délégués.

  • Les « agents du changement » (30 %) : les éco-délégués sont avant tout perçus comme les prescripteurs des éco-gestes : ils « trouvent des activités sympas pour insister à ne pas polluer », note une lycéenne. Ils développent, souvent à l’aide de prestataires extérieurs, des nudges inspirés des théories du comportement, pour inciter à la préservation des ressources : une « affiche pour éteindre la lumière », un « autocollant qui se complète que lorsque l’on ferme la fenêtre », un « totem pour recycler le papier »… avec plus ou moins d’efficacité.

Ils peuvent aussi investir des espaces spécifiques, comme un potager, un jardin, un « club nature », ou contribuer à végétaliser la cour. Ils se réunissent souvent le midi, seul temps disponible pour les enseignants comme pour les élèves.

L’éco-délégué est parfois identifié comme l’ambassadeur dont on attend qu’il soit : celui qui « explique les actions et réfléchit à de nouvelles stratégies », qui « présente et propose les projets et motive les élèves », résument des enquêtés. Sa mission de sensibilisation peut progressivement consister à « s’interroger », « trouver des idées pour améliorer le monde pour plus tard », voire à « donner des cours aux camarades », énumèrent d’autres lycéens. Leurs actions « parfois petites mais qui font grandir le lycée » sont vues avec bienveillance. Ils contribuent à « améliorer la vie en communauté pour ne pas avoir à souffrir plus tard », assure une élève. Ils peuvent être perçus comme des innovateurs et apporter des solutions pour « sauver notre terre et l’améliorer », comme l’indique une éco-déléguée.

De façon très marginale, des actions en dehors de la sphère environnementale qui domine les discours sont parfois citées : comme de la sensibilisation sur le handicap, la mise en place de produits d’hygiène féminine ou des « boîtes à livres ».

  • « Les importuns inutiles » (5 %) : Pour certains, les éco-délégués ne font « rien », ou « pas grand-chose ». Leurs rencontres sont identifiées comme l’occasion de « rater les cours pour faire des réunions souvent inutiles » ou pour lesquelles « nous n’avons aucun retour », déplore un élève. Les élèves d’un lycée agricole public en zone rurale sont parmi ceux qui ont les mots les plus durs : les éco-délégués « nous cassent les oreilles » ou sont là « pour faire joli et apporter des idées qui n’aboutissent jamais ».

  • « Les opérateurs de tri » (13 %) : Les éco-délégués ramassent, trient, nettoient, compostent, luttent contre le gaspillage, construisent des poubelles, font des « clean walk » dans leurs lycées, dans leurs villes, sur les plages… Les déchets identifiés sont ceux qui sont visibles, comme le papier ou les mégots, alors que les déchets numériques qui ne cessent de croître ne sont pas mentionnés.

Agir sur les déchets demeure l’activité concrète la plus citée dans l’enquête : qu’elle soit l’unique action ou bien associée à d’autres, perçue de façon conforme aux attendus d’un éco-délégué « acteur du changement » ou de manière plus critique, comme chez ce lycéen qui ironise. « Ils ramassent les poubelles, on ne sait pas s’ils sont délégués ou éboueurs. »

Rappelons que la gestion des déchets dans un établissement scolaire public est une attribution des collectivités qui gèrent les bâtiments. Les projets des éco-délégués peuvent donc impliquer la collaboration d’agents de la collectivité qui sont rarement consultés et, au final, souvent dans l’incapacité de donner suite aux projets commencés, comme la création de composts abandonnés l’année suivante faute de personnel identifié pour les gérer. Il en est de même avec les actions des élèves autour des économies d’énergie dont la portée reste limitée face au défi que représente la rénovation énergétique des bâtiments scolaires, décidée à un tout autre niveau.

Sans remettre en cause l’importance de la gestion des déchets pour la cause écologique et sociale, nous pouvons cependant nous questionner sur l’intérêt d’en faire la mission principale des éco-délégués. Peu de réflexions sur l’origine de ces déchets (surconsommation, obsolescence programmée, mauvaise qualité, réglementation non respectée) ont été observées. Or, sans remise en cause du système à l’origine de la production de ces déchets, les éco-délégués risquent bien de n’occuper qu’une « fonction utilitariste au service des politiques libérales de croissance », pour reprendre les termes des chercheurs Jean-Marc Lange et Angela Barthes.

Un fort effet établissement

Le dispositif des éco-délégués peut également être perçu de manière très différente selon les contextes d’établissements. Dans l’enquête de terrain, les élèves de l’enseignement agricole considèrent les éco-délégués comme des « agents du changement » ou des « opérateurs du tri » dans une proportion supérieure aux attentes. Les élèves de l’éducation nationale suivant une voie de formation générale sont eux beaucoup plus que prévu à répondre ne pas savoir quelles sont les missions des éco-délégués.

Plus surprenant, les élèves d’un lycée pourtant labellisé « établissement en démarche de développement durable (E3D) » et ceux ayant participé à un projet régional sur les ODD (Objectifs de développement durable définis par les Nations unies) sont ceux qui affichent le plus haut pourcentage des « Je ne sais pas » (79 % et 70 %). À l’inverse, les élèves d’un lycée n’ayant pourtant pas encore organisé d’élections d’éco-délégués sont ceux qui les considèrent le plus comme « agents du changement » (49 %).

Perception du rôle des éco-délégués par type d’établissement. Fourni par l’autrice Lise Trégloze

L’analyse du questionnaire indique par ailleurs que les perceptions des activités des éco-délégués ne varient pas significativement selon le genre, le niveau scolaire ni même selon le vécu scolaire : les élèves se déclarant en réussite ou en échec scolaire et les élèves déclarant avoir une expérience positive ou négative de leur scolarité ont des taux de réponse équivalents. Ainsi, l’effet établissement semble agir plus que le profil socio-scolaire des élèves sur leur perception du rôle de l’éco-délégué. Ces premiers résultats mériteraient cependant d’être consolidés à une échelle plus importante.

Enfin, qu’elle soit conforme aux prescriptions du ministère, restreinte aux déchets ou plus critique, la perception du rôle des éco-délégués se cantonne à la sphère écologique. Les systèmes politiques et économiques à l’origine de l’épuisement des ressources et de la surproduction de déchets ne sont quasiment jamais mentionnés. Cette dépolitisation de la question écologique, notamment dans un contexte scolaire, et « l’invisibilisation des enjeux sociaux » qui l’accompagne sont une tendance déjà bien repérée par les recherches en éducation, comme en témoigne le récent ouvrage d’Irène Pereira sur l’éco-pédagogie (2024).

Quant au profil socio-scolaire des éco-délégués, sans étude statistique nationale, difficile de dresser le portrait type. Le rapport parlementaire réalisé sur ce sujet par une députée de la majorité, dresse un panorama assez mitigé. Le dispositif des éco-délégué est accusé de renforcer les stéréotypes de genre en confiant les tâches du « care », et notamment du maintien de la propreté des lieux, aux filles plus qu’aux garçons. Constat déjà largement documenté en sociologie.

Si les éco-délégués perçoivent bien que l’on attend d’eux qu’ils soient force de propositions, ils sont pourtant dirigés, de manière explicite ou plus implicite, vers les actions déjà en cours ou impulsées par leurs encadrants, considérées comme réalisables et « allant dans le bon sens ». Un acteur du changement donc, mais dans les limites de l’acceptable.

Parmi les éco-délégués interrogés pendant l’enquête, certains s’épanouissent clairement dans leur mission, regrettent parfois qu’elle ne puisse pas s’étendre davantage ou se pérenniser d’une année sur l’autre ou d’un établissement à l’autre. Pour d’autres, elle est synonyme d’usure ou de déception, comme en témoigne cet éco-délégué élève de seconde (lycée privé, zone rurale) :

« C’est bien gentil de faire les petits gestes, mais un moment il va falloir faire les grands, et c’est pas le gouvernement qui s’en occupe. »

Tantôt colibris, tantôt ambassadeurs, tantôt sauveurs, tantôt éboueurs… les éco-délégués cumulent ainsi les casquettes sans véritables moyens pour agir, alors même que les défis auxquels ils sont censés répondre ne cessent de croître dramatiquement.

Certes, nous pouvons convenir que les cinq dernières années n’ont pas été de tout repos pour le milieu scolaire : crise sanitaire de la Covid et huit ministres de l’éducation nationale qui se sont succédé. Cependant, nous pouvons constater qu’après un engouement pour les enjeux de développement durable post-COP21, les moyens attribués au déploiement de l’éducation au développement durable peinent encore à être rassemblés à la hauteur des objectifs auxquels la France continue de s’engager, COP après COP.


À lire aussi : De COP en COP, une géopolitique de la procrastination climatique


The Conversation

Lise Trégloze a reçu une bourse de recherche doctorale de la région Bretagne (dispositif ARED).

05.01.2026 à 17:56

Vivre dans un logement trop froid : la réalité sociale de la précarité énergétique

Bérangère Legendre, Professor, Université Savoie Mont Blanc
Dorothée Charlier, Maîtresse de conférences en économie de l’énergie et de l’environnement, IREGE, IAE Savoie Mont Blanc
img
La précarité énergétique a des répercussions sur la santé physique et mentale, sur la vie sociale et même sur la scolarité des enfants.
Texte intégral (2229 mots)

La précarité énergétique est un fléau qui concerne de plus en plus de personnes du fait de la volatilité des prix de l’énergie. Elle a des répercussions sur la santé physique et mentale, sur la vie sociale et même sur la scolarité des enfants.


Alors que l’hiver s’installe, environ 3 millions de ménages en France sont de nouveau confrontés à une difficulté majeure : celle de la précarité énergétique.

Elle se matérialise par des privations, mais également par un sentiment de honte et une exclusion sociale qui en résultent. Ses effets peuvent être multiples, allant même jusqu’à augmenter l’absentéisme scolaire. Les conséquences sociales et sanitaires, longtemps sous-estimées, sont aujourd’hui mieux documentées par la recherche.

Ce que signifie « être en précarité énergétique » au quotidien

La définition française du phénomène est large : une personne est en précarité énergétique lorsqu’elle rencontre des difficultés à disposer, dans son logement, de l’énergie nécessaire pour répondre à ses besoins de base, du fait de faibles ressources ou de conditions de logement inadéquates. Cela signifie vivre dans un logement trop froid l’hiver, trop chaud l’été, souvent mal isolé, où l’on chauffe une seule pièce pour réduire la facture, où l’on évite d’allumer la lumière, où la présence de moisissures ou d’humidité peut devenir chronique. Ces conditions entraînent fréquemment des comportements de restriction d’énergie, c’est-à-dire consommer volontairement moins que ce qui serait nécessaire au confort ou à la santé. Parfois, cela signifie également passer sous le radar des politiques publiques, car les dépenses en énergie sont volontairement modérées.

Cette situation est d’autant plus fréquente que les prix de l’énergie sont volatiles ces dernières années. En 2018 déjà, 34 millions d’Européens déclaraient ne pas pouvoir chauffer correctement leur logement. Les tensions énergétiques depuis 2021 ont encore accentué ce phénomène : les ménages les plus modestes ont consacré une part croissante de leur budget à leurs factures, réduisant leurs marges de manœuvre.

Les conditions de logement jouent également un rôle central : mauvaise isolation, appareils de chauffage vétustes, infiltrations d’eau, ventilation insuffisante, autant de facteurs qui rendent impossible le maintien d’un confort minimal à un coût acceptable.

Qui sont les ménages les plus touchés ?

La recherche en économie identifie de manière cohérente trois déterminants de la précarité énergétique : bas revenus, mauvaise performance énergétique du logement et prix élevés de l’énergie. Mais au-delà de ce triptyque, les recherches récentes en la matière apportent des précisions essentielles.

En France sont particulièrement exposés :

  • les personnes âgées, davantage présentes dans des logements anciens, peu isolés, et disposant de faibles revenus ;

  • les ménages isolés, notamment les femmes seules ou les familles monoparentales, dont les dépenses fixes pèsent plus lourd dans le budget ;

  • les locataires du parc privé, souvent logés dans des habitats moins performants que le parc social qui est susceptible de bénéficier d’une meilleure qualité énergétique ;

  • les ménages vivant dans des logements anciens qui n’ont pas fait l’objet de rénovation et qui utilisent plus fréquemment du gaz ou du fioul et qui font donc face à un coût de l’énergie plus important.

Par ailleurs, les ménages « énergétiquement vulnérables », qui ne sont pas définis comme étant en précarité énergétique mais peuvent basculer en cas de choc (hausse de prix, panne d’équipement, baisse de revenu), sont souvent ignorés des politiques publiques, car mal identifiés. Ces ménages représentent un enjeu majeur pour les politiques publiques, car ils n’entrent pas dans les seuils traditionnels utilisés pour mesurer le phénomène.

Les effets de la précarité énergétique dépassent largement l’inconfort thermique. Ils touchent la santé, la vie sociale et les perspectives économiques.

Les impacts sur la santé physique

Un logement trop froid augmente les risques de maladies respiratoires et cardiovasculaires, aggrave les symptômes des personnes souffrant de maladies chroniques, comme l’arthrose ou la polyarthrite rhumatoïde, et favorise l’apparition de moisissures responsables d’allergies ou d’asthme. Être en précarité énergétique multiplierait par sept le risque de mauvaise santé pour les personnes déjà fragiles.

Les coûts associés pour la collectivité sont considérables : près d’un milliard d’euros de dépenses médicales directes en France, et plus de 20 milliards si l’on inclut les coûts indirects liés à la perte de productivité ou aux arrêts maladie.

Une dégradation marquée de la santé mentale

Un résultat central a été établi pendant la crise sanitaire du Covid-19 : la précarité énergétique a un effet causal fort et significatif sur la santé mentale, dégradant les scores d’anxiété, de dépression et de santé sociale. Être en situation de précarité énergétique aurait réduit en moyenne le score de santé mentale de 6,3 points sur 100 et augmenté le score de dépression de 5,35 points et celui d’anxiété de 6,48 points pendant cette période durant laquelle la majeure partie de la population française et européenne a été confinée à domicile à intervalles réguliers.

La situation était encore plus grave pour les personnes déjà fragilisées : pour le tiers le plus vulnérable de la population, l’effet négatif sur la santé mentale atteignait 20 points. L’utilisation des scores permet de quantifier les effets de la précarité énergétique : un score de santé de 100 indique la meilleure santé qui soit, tandis qu’un score de dépression de 100 indique le niveau le plus élevé de dépression.

Une spirale d’isolement et de honte

Plusieurs travaux sociologiques montrent également que les personnes vivant dans des logements froids ou dégradés évitent d’inviter des proches, se replient sur elles-mêmes, et peuvent éprouver un sentiment de honte ou d’échec. Les difficultés à payer les factures conduisent parfois à des coupures d’énergie ou au risque d’endettement, renforçant encore la vulnérabilité sociale.

La précarité énergétique devient ainsi un facteur d’exclusion, au même titre que la pauvreté monétaire, mais en partie invisible car liée à l’espace privé du logement.

Noel Longhurst et Tom Hargreaves, deux chercheurs en sciences de l’environnement, rapportent ainsi dans une de leur publication de 2019 les propos de Barbara, une trentenaire britannique qui souffre de précarité énergétique :

« Je ne reçois personne. Je ne reçois pas d’amis… Personne. Je ne pense pas avoir reçu d’amis depuis environ trois ans… Je n’aime pas la condensation, et c’est très important pour moi. C’est embarrassant. Je suis gênée quand je sors le matin et que je vois qu’on ne peut pas voir à travers les fenêtres. »

Des répercussions sur les trajectoires scolaires

La précarité énergétique affecte également la scolarité des enfants. Vivre dans un logement froid ou mal chauffé complique le travail scolaire à domicile, perturbe le sommeil et accroît la fatigue, avec des effets potentiels sur l’attention et l’apprentissage.

En France, le défenseur des droits souligne que ces conditions de vie dégradées portent atteinte au droit des enfants à un environnement propice aux études et peuvent peser sur leurs résultats scolaires. Ces constats rappellent que la précarité énergétique est aussi un enjeu éducatif et d’égalité des chances.

Un enjeu européen majeur, des réponses encore insuffisantes

Si la France a développé plusieurs outils (chèques énergie, aides à la rénovation, développement du parc social), la littérature montre que les politiques purement financières ont des effets limités, alors que les actions structurelles – rénovation thermique, construction de logements sociaux performants – ont un impact durable sur la réduction de la précarité énergétique.

À l’échelle européenne, la Commission a inscrit la lutte contre la précarité énergétique au cœur de la directive sur l’efficacité énergétique révisée adoptée en 2024. Mais les disparités restent fortes, et la crise énergétique a rappelé la nécessité d’une stratégie plus ambitieuse, combinant protection des ménages, transition énergétique et amélioration massive du parc résidentiel.

The Conversation

Bérangère Legendre a reçu des financements de la Chaire de l'Economie Environnementale (Fondation Université Savoie Mont Blanc).

Dorothée Charlier est membre de la SOLAR ACADEMY.

05.01.2026 à 17:51

La hausse du prix du carbone conduit-elle à supprimer des emplois ?

Jana Boeckx, Assistant Professor of Finance, IÉSEG School of Management
img
Une étude met en lumière le lien entre hausse du prix du carbone et suppressions d’emplois. Avec pour principaux perdants : les cols bleus.
Texte intégral (1376 mots)
Les entreprises soumises au marché du carbone sont 3,4 % plus susceptibles de réduire leurs effectifs que leurs homologues exempts de cette réglementation. Giulio_Fornasar/Shutterstock

Une étude met en lumière le lien entre hausse du prix du carbone et suppressions d’emplois. Depuis 2017, une augmentation significative du prix des émissions est en cours, désormais 17 fois plus élevé en 2025 qu’en 2017. Si toutes les entreprises affichent leur mécontentement, elles n’adoptent pas les mêmes stratégies selon qu’elles sont cotées en bourse ou non. Avec pour principaux perdants, les cols bleus.


En 2017, le Conseil européen a introduit des réformes majeures dans le système européen d’échange de quotas d’émission, provoquant une forte hausse du prix du carbone. Le prix d’une tonne d’émissions équivalentes en CO2 a doublé, passant de 5,15 euros par tonne d’émissions le 1er janvier 2017 à 11,06 euros le 1er janvier 2018, puis à 22,23 euros le 1er janvier 2019.

L’objectif est clair : rendre la pollution plus coûteuse, afin d’inciter les entreprises à réduire leurs émissions. Mais cette hausse des coûts a eu un effet inattendu, certaines entreprises ont réagi en supprimant des emplois.

Dans notre étude, nous mettons en évidence un lien clair entre la hausse des prix du carbone et les suppressions d’emplois et les ventes d’actifs de production (machines, équipements) par les entreprises.

Alors, la transition climatique se fait-elle au prix de l’emploi ?

Voici quelques entreprises bien connues qui relèvent de ce système : Carrefour, Sanofi, TotalEnergies, Engie, etc.

Hausse du prix du carbone

L’un des outils politiques largement utilisés pour atteindre cet objectif est le système de plafonnement et d’échange, ou cap-and-trade system. L’exemple le plus marquant est le système d’échange de quotas d’émission de l’Union européenne (SEQE-UE), souvent considéré comme une référence.

Malgré sa réputation mondiale, le système d’échange de quotas d’émission de l’Union européenne a eu du mal pendant des années à fixer des prix significatifs pour le carbone. Au cours de sa phase initiale de 2005 à 2007, beaucoup de permis de pollution ont été distribués, ce qui a entraîné une faible demande et fait baisser les prix.

La période suivante de 2008 à 2012 a coïncidé avec la crise financière mondiale, qui a fortement réduit l’activité industrielle et, par conséquent, les besoins en quotas d’émission. Même si le plafond d’émissions a été réduit de 6,5 %, les prix sont restés obstinément bas. Pendant plus d’une décennie, le système n’a pas réussi à créer la pression financière nécessaire pour entraîner des réductions importantes des émissions.

En 2017, l’Union européenne a corrigé cette situation en réduisant l’offre de quotas (the cap) par 2,2 % annuelle. L’enjeu : doubler la canalisation des quotas vers une nouvelle réserve de stabilité du marché, ou Market Stability Reserve, jusqu’à 2023 et ajouter un mécanisme d’annulation pour supprimer définitivement les quotas inutilisés lors de la phase suivante. L’impact a été immédiat puisque le prix d’émission est passé d’un peu plus de 5 euros début 2017 à 11 euros un an plus tard, puis à environ 32 euros en 2020.

Les industriels du carburant vent debout

Cette intervention a suscité une opposition importante de la part des entreprises, des syndicats et des groupes d’intérêt industriels. Ils craignent que l’augmentation des coûts du carbone ne pousse la production et les emplois hors d’Europe. Par exemple FuelsEurope, qui représente l’industrie européenne des carburants, et les producteurs d’acier ont exprimé leurs préoccupations, avertissant que les coûts supplémentaires les rendraient moins compétitifs à l’échelle mondiale

Pourtant, il existe peu de preuves tangibles pour étayer ces affirmations. Les entreprises soumises au SEQE-UE sont 3,4 % plus susceptibles de réduire leurs effectifs que leurs homologues non soumises au SEQE-UE.


À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?


Distinction entre entreprises cotées et non cotées

Cette tendance est loin d’être uniforme. Les entreprises cotées en bourse ne réduisent pas leurs effectifs, tandis que les entreprises non cotées les diminuent de manière plus marquée, avec des baisses pouvant atteindre 3,5 % dans les entreprises les plus polluantes. Les petites entreprises cotées (en dessous de la moyenne de l’échantillon en termes d’actifs totaux) qui disposent d’une marge de manœuvre financière limitée réduisent également leurs effectifs, mais dans une moindre mesure que leurs homologues non cotées.

Qu’ajustent ces entreprises en réponse à la hausse des coûts liés au carbone ? Cherchent-elles à maintenir leur production à un niveau stable, mais avec moins de travailleurs et d’actifs ? Ou bien produisent-elles moins globalement, et ont donc besoin de moins de ressources ?

Nos conclusions révèlent une distinction nette. Les entreprises privées ont tendance à réduire leurs activités, en supprimant à la fois des emplois et des actifs, ce qui suggère une réduction délibérée de leur champ d’action global. En revanche, les petites entreprises cotées en bourse, qui disposent de peu de liquidités, réduisent principalement leurs effectifs, sans diminuer leur base d’actifs.

En d’autres termes, les entreprises privées non cotées réduisent leurs effectifs en faisant moins, tandis que les entreprises cotées en bourse réduisent leurs effectifs en essayant de faire la même chose avec moins de personnel.

Les cols bleus sont les plus touchés

Afin de mieux cerner les employés les plus touchés par ces changements, nous avons également examiné les conséquences de la flambée des prix du carbone dans le cadre du SEQE-UE en Belgique.

À partir de données administratives détaillées, nous avons constaté que l’impact est loin d’être réparti de manière uniforme. Les cols bleus, les hommes ayant un faible niveau d’éducation (généralement avec diplôme secondaire ou sans) sont les plus touchés. L’effet est particulièrement prononcé chez les personnes sous contrat à temps partiel.

Ces résultats ont des implications importantes pour les décideurs politiques qui pilotent la transition écologique en Europe. Bon nombre des nouveaux emplois verts créés exigent des employés hautement qualifiés. Ce décalage pourrait créer des déséquilibres sur le marché du travail, soulignant le besoin urgent de programmes de formation et de reconversion.

The Conversation

Jana Boeckx ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

05.01.2026 à 14:06

Pourquoi les fonds verts peinent à convaincre malgré une épargne record

Syrine Gacem, Docteur en sciences de gestion - Finance, Université Bourgogne Europe
Fabrice Hervé, Professeur en Finance, Université Bourgogne Europe
Sylvain Marsat, Professeur en Finance, Université Clermont Auvergne (UCA)
img
Une étude cherche à comprendre les freins à l’investissement vert chez les investisseurs individuels. Et si la ruse marketing de quelques acteurs nuisait à l’ensemble de la filière ?
Texte intégral (1285 mots)
Les perceptions négatives des ménages sur le _greenwashing_ de certaines entreprises réduisent leurs investissements dans des fonds environnementaux. SKTStudio/Shutterstock

Alors que l’épargne des Françaises et des Français atteint 6,4 milliards d’euros au premier semestre 2025, elle n’est que peu dirigée vers la finance verte. Une étude, menée auprès de 2 215 investisseurs français âgés d’au moins 25 ans, cherche à comprendre les freins à l’investissement vert chez les ménages.


L’épargne des ménages français a atteint un niveau record au premier semestre de 2025, s’élevant à 6,4 milliards d’euros. Elle constitue un taux d’épargne de 18,9 % du revenu disponible. Un niveau si élevé qu’il attire désormais l’attention de l’État sur le financement de l’économie réelle.

Parallèlement, le vendredi 21 novembre 2025 a marqué la clôture de la COP30, où ont eu lieu des discussions rappelant l’ampleur des besoins de financement verts pour réussir la transition écologique. Les pays développés sont appelés à fournir au moins 1,1 milliard d’euros par an aux pays en développement d’ici 2035. « La finance est le levier d’accélération majeur », a rappelé le secrétaire exécutif d’ONU Climat, Simon Stiell, lors du Leaders’Summit au Brésil.

Malgré ce double constat d’abondance d’épargne des ménages et de besoin de financement des projets de transition écologique, l’investissement vert demeure une pratique marginale chez les ménages. Notre étude cherche à en comprendre les raisons.

Manque de transparence sur les fonds verts

Le manque de transparence sur l’impact écologique des fonds verts peut créer une ambiguïté chez les investisseurs particuliers quant à leur efficacité réelle à protéger l’environnement.

Un exemple emblématique est celui de DWS, filiale de Deutsche Bank, impliquée dans un scandale de dénomination environnementale trompeuse, après avoir exagéré les engagements verts de plusieurs de ses fonds. L’affaire s’est soldée par une amende de 25 millions d’euros infligée par la justice allemande en avril 2025.

Promesses écologiques non crédibles

Dans notre étude, nous avons mené une recherche auprès de 2 215 investisseurs français âgés d’au moins 25 ans, entre décembre 2021 et janvier 2022, via Panelabs.

L’échantillon est composé d’investisseurs âgés en moyenne de 47 ans, comprenant 47,3 % de femmes, disposant d’un revenu mensuel net moyen de 3 659 €, et ayant en moyenne un niveau d’éducation équivalent à bac+2. Afin d’évaluer leurs doutes sur l’efficacité réelle des fonds verts, nous leur avons posé la question suivante : « Les fonds verts sont un stratagème marketing pour vendre plus de fonds ». Les réponses étaient notées sur une échelle de 1 à 7, de « pas du tout d’accord » à « tout à fait d’accord ».

Les résultats sont clairs. Plus un investisseur estime que les fonds verts relèvent de promesses écologiques non crédibles, moins il est enclin à y investir. Concrètement, chaque point de hausse sur l’échelle de doute réduit la probabilité d’investir dans un fonds vert de 1,68 point de pourcentage. Mais ce n’est pas tout. Les investisseurs les plus méfiants allouent également des montants plus faibles à ces fonds.

Les jeunes plus sensibles à l’épargne verte

Ce frein n’impacte pas tous les investisseurs de la même manière. Deux profils s’avèrent moins sensibles à ces doutes : les plus jeunes, et ceux ayant un niveau d’éducation élevé. Ces derniers affichant des préférences environnementales très fortes ont tendance à accepter les fonds verts, sans trop les remettre en question, pour rester en accord avec leurs convictions écologiques. Ce phénomène s’explique notamment par la volonté d’éviter une dissonance cognitive entre leurs valeurs et leurs décisions financières.

Notre étude montre que ce frein affecte aussi bien les investisseurs conventionnels (qui n’ont jamais investi dans un fonds vert) que les investisseurs verts (ayant placé au moins 500 € dans un fonds vert). Chez les premiers, elle décourage l’intention d’investir dans des fonds verts. Chez les seconds, elle freine leurs investissements futurs.

Biais de négativité

L’effet dissuasif de la ruse marketing sur l’investissement vert peut s’expliquer à la lumière d’un mécanisme bien connu en psychologie comportementale : le biais de négativité. Ce phénomène décrit la tendance des individus à réagir plus fortement aux signaux négatifs qu’aux signaux positifs.

Nous constatons que les perceptions très négatives de la stratégie de communication verte réduisent significativement la probabilité d’investir. À l’inverse, une certaine confiance dans la communication environnementale ne suffit pas à stimuler l’investissement. Le doute pèse clairement plus lourd que la confiance.

Pourquoi cette asymétrie ? Parce qu’une perception négative de la stratégie marketing active deux leviers puissants. Elle déclenche des émotions négatives qui prennent souvent le dessus sur les raisonnements rationnels dans la prise de décision. En parallèle, ces émotions accentuent la perception du risque financier associé aux fonds verts, ce qui les rend moins attractifs aux yeux des investisseurs.

Renforcer la cohérence entre discours et réalité

Ces résultats appellent les décideurs publics et les acteurs financiers à recentrer leurs efforts sur le contrôle de la véracité de la communication des fonds verts. Tant que les inquiétudes des investisseurs individuels vis-à-vis du marketing des fonds verts ne sont pas levées, les politiques incitatives risquent de ne pas atteindre leur cible.

Ce constat fait écho aux évolutions récentes du cadre réglementaire européen. Ces dernières visent à réduire l’écart entre les promesses associées aux fonds verts et les projets réels dans lesquels ils investissent. Dans ce contexte, la mise en place de réglementations ciblées prend tout son sens. Des dispositifs comme le règlement SFDR ou la taxonomie verte visent à renforcer la transparence et à restaurer la confiance dans la finance verte, condition indispensable pour mobiliser l’investissement des citoyens au service de la transition écologique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

04.01.2026 à 14:03

Ce que révèle une vaste enquête citoyenne sur la qualité de l’eau en France

Nicolas Dietrich, Professeur des universités en génie des procédés, INSA Toulouse
Johanne Teychené, Maitre de conférences en génie des procédés, INSA Toulouse
Nathalie Clergerie, Ingénieure d'études INSA toulouse
img
En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français.
Texte intégral (2455 mots)
Partout en France, des citoyens ont participé à la recherche scientifique en prélevant et testant la qualité de l’eau de leur région. Marielle Duclos/La Grande Synchr'Eau, Collectif Hodos, Fourni par l'auteur

En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français. Une démarche qui en apprend beaucoup aux chercheurs et qui sensibilise les bénévoles.


Le 29 septembre 2023, partout en France, des milliers de personnes ont endossé, le temps d’un week-end, la casquette du chercheur. Armés de leur smartphone, d’une bandelette colorée et d’une fiche d’instructions, ils se sont lancés dans une expérience collective inédite : mesurer la qualité des eaux de France dans les rivières, les fontaines, les lacs, les puits et les flaques. En quelques jours, près de 800 échantillons ont été collectés et plus de 20 000 données ont été mesurées.

Carte de France indiquant où les mesures ont été effectuées
Localisation des mesures réalisées dans le cadre de la Grande Synchr’Eau. La Grande Syncr’Eau, Fourni par l'auteur

Derrière ces chiffres impressionnants se cache une aventure humaine et scientifique : la Grande Synchr’Eau, une initiative massive de science participative récompensée par l’une des médailles de la médiation du CNRS en 2025 pour son originalité et son impact sur la société. Cette expérience participative inédite a permis de révéler la diversité chimique des eaux françaises.

Le principe est simple : tremper une bandelette dans l’eau, observer les pastilles se colorer, puis les comparer à une échelle. Ce geste, à la fois simple et ludique, cache en réalité des mesures précieuses : le pH (ou l’acidité), la concentration en nitrates issus des engrais, en chlore, ainsi qu’en métaux lourds tels que le cuivre ou le plomb. Pour beaucoup, l’expérience provoque un effet « waouh » : « On avait l’impression de jouer, mais en fait, on faisait de la vraie science », racontait une mère venue vivre l’expérience avec sa fille. C’est là toute la force de la science citoyenne : permettre à chacun de participer à la recherche, tout en produisant des données utiles aux scientifiques.

Quatre photographies de volontaires qui récoltent de l’eau, comprenant des enfants et des adultes dans des paysages différents, urbains ou ruraux
Des citoyens de tous âges à l’œuvre : mesurer, observer et comprendre l’eau partout en France. La Grande Synchr’Eau, Fourni par l'auteur

Une mosaïque de réalités locales

Les résultats, compilés par les équipes de l’INSA Toulouse et du Toulouse Biotechnology Institute, révèlent une France de l’eau pleine de contrastes. En Bretagne et dans le Massif central, l’eau est plus acide, en raison des sols granitiques et volcaniques, car ces roches contiennent peu de minéraux capables de « tamponner » l’acidité. L’eau de pluie, naturellement légèrement acide, n’est donc pas neutralisée en traversant ces terrains, contrairement aux régions calcaires où les roches relarguent du carbonate qui remonte le pH. Dans les plaines agricoles de la Beauce et de la Champagne, les nitrates dépassent parfois 100 mg/L, témoins directs de l’usage intensif des engrais.

En ville, d’autres signaux apparaissent : à Lyon, Toulouse ou Marseille, les citoyens ont détecté du cuivre jusqu’à 6 mg/L, un niveau trois fois supérieur à la limite de qualité de l’eau potable (2 mg/L), généralement lié à la corrosion des vieilles canalisations en cuivre. Dans certaines zones rurales, le chlore est quasi absent, alors qu’en Île-de-France ou dans le Rhône, la concentration atteint des niveaux dix fois supérieurs à ceux observés dans les campagnes du Massif central. Cela reste compatible avec les normes, mais reflète une désinfection beaucoup plus marquée des grands réseaux urbains, expliquant parfois les goûts d’eau chlorée rapportés par certains usagers.

Autrement dit, il n’existe pas une eau française, mais une mosaïque d’eaux locales, chacune portant la marque de son sol, de ses usages et de ses infrastructures.

Des flaques chlorées et des puits ferrugineux

Parmi les échantillons, certaines eaux sortent franchement du lot. Si, globalement, le pH reste dans des valeurs normales (entre 6 et 7,6), la diversité chimique surprend. Le chlore total, c’est-à-dire à la fois le chlore libre (désinfectant actif) et le chlore combiné (qui a déjà réagi avec d’autres substances), atteint parfois 10 mg/L, soit cinq fois la concentration d’une piscine publique.

Certaines flaques urbaines semblent avoir reçu un traitement sanitaire involontaire : ruissellement des trottoirs, résidus de produits ménagers, lessivage des surfaces. Bref, si l’eau des flaques n’est pas potable, certaines sont surprenamment bien désinfectées !

La France de l’eau en un coup d’œil : six cartes citoyennes révélant la diversité chimique du territoire. La Grande Synchr’Eau, Fourni par l'auteur

Certains puits battent tous les records de fer, avec des concentrations pouvant atteindre 25 mg/L, soit 500 fois la limite de potabilité. À ce stade, l’eau prend une teinte orangée et un goût métallique prononcé. Sur le millier de prélèvements effectués, 8,4 % des eaux ont été jugées brunes par les citoyens, un signe d’oxydation intense du fer dans les captages locaux. Ce phénomène, fréquent dans certaines zones rurales, n’est pas dangereux en soi, mais rend l’eau impropre à la consommation et peut entraîner des dépôts, des taches et un encrassement des installations domestiques. Il illustre la forte variabilité chimique des eaux locales et les enjeux propres aux puits non traités.

Autre découverte : l’ammonium, présent jusqu’à 40 mg/L dans certains échantillons. Ce composé, issu de la décomposition de la matière organique ou du ruissellement agricole, témoigne d’une activité biologique intense : en clair, une eau très vivante, mais pas forcément celle qu’on a envie de boire.

L’eau, miroir de nos modes de vie

Derrière les anecdotes et les chiffres, ces mesures citoyennes racontent une vérité simple : l’eau enregistre nos modes de vie. Elle circule, transporte et mémorise nos activités. Dans les villes, elle se charge de chlore, de cuivre et de résidus ménagers. Dans les campagnes, elle emporte du nitrate, de l’ammonium ou du fer. Et dans les zones naturelles, elle reste souvent plus équilibrée, mais jamais totalement vierge de l’empreinte humaine.

En plus des cartes, la Grande Synchr’Eau dessine une France curieuse et engagée. L’enquête menée auprès de 120 participants révèle une mobilisation intergénérationnelle : 22 % ont moins de 18 ans, 21 % sont entre 46 et 55 ans, et 45 classes de primaire et de collège ont participé à l’expérience. Les motivations sont variées : 54 % y voient une façon de protéger l’environnement, 43 % de contribuer à la recherche, 28 % pour apprendre et 25 % par curiosité. Autrement dit, mesurer devient un moyen de comprendre et d’agir.

Nourrir la recherche tout en sensibilisant les citoyens

Les effets de la démarche sur les volontaires sont marquants : 81 % des participants estiment que l’expérience a changé leur regard ou leurs comportements, et 82 % ont eu le sentiment de participer à la protection de l’environnement. Lorsqu’on leur demande les mots auxquels ils pensent pour qualifier l’eau, ceux qui reviennent le plus sont vie, vitale et précieuse, ce qui traduit un rapport sensible, presque affectif, à cette ressource commune.

Enfin, à la question « Qui doit agir pour préserver l’eau ? », 83 % citent l’État, 79 % les scientifiques, 71 % les associations et 54 %… eux-mêmes. La science n’est plus perçue comme un domaine réservé : elle devient un espace partagé, où la connaissance se construit à plusieurs et où chacun assume sa responsabilité sociétale.

Au final, peut-on boire l’eau des flaques d’eau ? Non, car elles contiennent parfois plus de chlore qu’une piscine. Mais on peut toujours les observer, les mesurer et les comparer. Ces expériences rappellent qu’il n’y a pas besoin d’un laboratoire pour faire de la science : un peu de curiosité, une bandelette colorée et l’envie de comprendre suffisent à faire émerger une connaissance collective. La Grande Synchr’Eau en est la preuve : la science peut jaillir de partout, même d’une simple flaque.

The Conversation

Nicolas Dietrich a reçu des financements dans le cadre du projet Grande Expérience Participative (2023), financé par l’initiative Nuit Européenne des Chercheur·e·s dans le cadre des Actions Marie Sklodowska-Curie. Un financement complémentaire a été obtenu dans le cadre du projet SMARTER, soutenu par le programme Horizon 2020 de l’Union européenne (Grant Agreement No. 772787)

Johanne Teychené et Nathalie Clergerie ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

02.01.2026 à 09:56

Changement climatique : les stations de ski doivent-elles encore investir dans la production de neige pour s’adapter ?

Jonathan Cognard, Docteur en économie écologique, Inrae
Lucas Berard-Chenu, Chercheur en géographie, INRAE, Univ.Grenoble Alpes, France, Inrae
img
Solution communément adoptée par les stations face au manque de neige, la neige de culture n’apporte pas toujours les gains économiques attendus.
Texte intégral (1667 mots)

Face au recul de l’enneigement naturel, la neige de culture est l’outil privilégié par les stations de ski pour sécuriser leurs activités. Mais notre analyse de 56 exploitations de remontées mécaniques alpines sur quinze ans montre que ces investissements n’ont pas eu les effets escomptés. Le bien-fondé économique du soutien public à ces investissements mérite d’être interrogé.


La production de neige, également appelée neige de culture ou neige artificielle, s’est fortement développée ces dernières décennies dans les stations de sports d’hiver. Elle est désormais une pratique courante de gestion de la neige, qui a par le passé facilité l’exploitation des remontées mécaniques face à la variabilité de l’enneigement naturel.

Mais est-il pertinent, d’un point de vue économique, de poursuivre les investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver à la raréfaction de l’enneigement naturel ?

Pour répondre à cette question, nous avons analysé la performance économique de 56 exploitations de remontées mécaniques dans les Alpes françaises entre 2004 et 2019. Nos résultats interrogent la poursuite des investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver au changement climatique.


À lire aussi : Production de neige : le piège de la dépendance pour les stations de ski ?


La production de neige désormais au cœur du modèle du ski

De fait, l’enneigement naturel varie fortement d’une saison à l’autre. Depuis leur création, les domaines skiables sont confrontés à des hivers d’enneigement variables, les plus difficiles étant qualifiés d’« hiver sans neige ». En raison du changement climatique, la fréquence des hivers bien enneigés diminue et celle des hivers mal enneigés augmente.

Les stations situées à moins de 2000 m d’altitude sont déjà affectées. Dans un scénario avec un réchauffement atteignant +4 °C, il est estimé que 98 % des stations européennes seront exposées à un risque très élevé de déficit d’enneigement naturel. Cette menace sur l’enneigement affecte l’économie des exploitants de domaines skiables, ainsi que plus largement l’avenir de l’économie des territoires qui en dépendent.

La production de neige s’est généralisée dans les domaines skiables à partir des années 1990 afin d’accompagner l’enneigement naturel, et a effectivement permis d’atténuer l’impact des hivers mal enneigés. Plus récemment, son recours s’est fortement intensifié afin de continuer à sécuriser l’enneigement – et de préserver la rentabilité de l’exploitation des remontées mécaniques – face à la raréfaction de l’enneigement naturel dans le contexte du changement climatique. Cela implique d’importants investissements, en partie financés avec de l’argent public.

En France, la proportion de pistes de ski équipées pour la production de neige est passée d’environ 14 % en 2004 à 39 % en 2018. Cette dynamique illustre le changement de rôle donné à la production de neige : d’un accompagnement de l’enneigement naturel, elle est devenue la principale stratégie d’adaptation du tourisme hivernal au changement climatique.


À lire aussi : Pourra-t-on encore skier en Europe dans un monde à +2 °C ?


Poursuivre ces investissements permet-il aux remontées mécaniques de rester rentables ?

Est-il pertinent, pour l’adaptation de l’économie des stations de sports d’hiver, de poursuivre ces investissements ? Pour le savoir, notre étude de 2024 s’est intéressée aux effets des investissements réalisés dans les équipements de production de neige sur deux indicateurs financiers clés des exploitants de remontées mécaniques : le CA (chiffre d’affaires) et l’EBE (excédent brut d’exploitation).

L’EBE donne un aperçu de la rentabilité économique qu’a une entreprise de par son activité. L’analyse a porté sur un panel de 56 stations situées dans les Alpes françaises, couvrant 15 saisons consécutives de 2004/05 à 2018/19. Ces stations, de taille moyenne à très grande, sont gérées par des exploitants de droit privé, dans le cadre d’une délégation de service public.

Localisation des stations étudiées. Fourni par l'auteur

Pour mesurer l’effet des investissements dans la production de neige, nous avons utilisé des méthodes économétriques permettant d’analyser leur effet spécifique en isolant l’effet des investissements dans la production de neige des autres facteurs influençant l’économie des stations, par exemple l’altitude de la station, sa taille ou encore sa proximité vis-à-vis des agglomérations urbaines. Cela nous a permis d’établir des liens de causalité, plutôt que de simples corrélations.

Qu’en est-il ? Nos résultats montrent que les investissements réalisés durant la période d’observation n’ont pas eu d’effets significatifs sur les CA ou EBE des entreprises gestionnaires de domaines skiables. Cette absence de relation a été observée en particulier lors des saisons les moins bien enneigées, soit les 20 % des saisons avec le plus faible enneigement naturel.

Le meilleur atout des stations ? L’altitude

À l’inverse, au cours des saisons les plus déficitaires en neige naturelle de la période étudiée, les stations situées en altitude ont bénéficié d’un avantage comparatif, ce qui contraste avec les plus importants investissements réalisés dans la production de neige qui ne se sont pas traduits par une amélioration significative de leur performance économique.

Ces résultats peuvent sembler surprenants, compte tenu de la confiance accordée à ces investissements. Ils corroborent pourtant l’état des connaissances scientifiques sur le sujet.

En effet, dès 2003, une étude canadienne suggérait que la poursuite des investissements dans la production de neige pourrait devenir non-rentable au-delà d’un certain seuil où le surcoût dépasse les gains économiques. Des travaux réalisés en 2008, 2013 et 2016 ont démontré, en France comme en Suisse, que l’intérêt économique de ces investissements était positif mais diminuait progressivement. Plus récemment, une étude menée en Espagne en 2020 a démontré, tout comme notre étude, que les derniers investissements réalisés n’ont pas eu d’effets significatifs sur la profitabilité des exploitants de remontées mécaniques.

Ces conclusions n’invitent pas nécessairement à cesser de produire de la neige dans les stations de sports d’hiver.

Elles interrogent toutefois la pertinence de poursuivre les investissements dans ces équipements, dont l’efficacité comme stratégie de long terme pour maintenir la rentabilité des stations de ski apparaît insuffisante face aux évolutions climatiques.


À lire aussi : Apocalypse snow : quand l’économie française du ski file tout schuss vers l’abîme


The Conversation

La thèse de Jonathan Cognard a reçu des financements de l'Agence de l'eau RMC et du LabEx ITTEM.

Lucas Berard-Chenu a reçu des financements de diverses organisations publiques dans le cadre de ses projets de recherche

02.01.2026 à 08:46

Pas de chauffage central mais des lits chauffés… Ce que la ville la plus froide du monde nous enseigne

Yangang Xing, Associate Professor, School of Architecture Design and the Built Environment, Nottingham Trent University
img
Dans le nord-est de la Chine, un simple lit de terre chauffé permettait de survivre à des hivers à −30 °C avec très peu de combustible. Ces techniques anciennes pourraient inspirer des solutions plus sobres et plus efficaces.
Texte intégral (1592 mots)

Et si le confort thermique ne se résumait pas à chauffer plus, mais à chauffer mieux ? Des lits chauffants chinois aux kotatsu japonais, l’Asie a longtemps privilégié des solutions ciblées, sobres et durables face au froid.


Les matins d’hiver à Harbin, où l’air extérieur pouvait vous geler les cils, je me réveillais sur un lit de terre chaude. Harbin, où j’ai grandi, se situe dans le nord-est de la Chine. Les températures hivernales y descendent régulièrement jusqu’à −30 °C et, en janvier, même les journées les plus douces dépassent rarement −10 °C. Avec environ 6 millions d’habitants aujourd’hui, Harbin est de loin la plus grande ville du monde à connaître un froid aussi constant.

Rester au chaud sous de telles températures m'a occupé l'esprit toute ma vie. Bien avant la climatisation électrique et le chauffage urbain, les habitants de la région survivaient à des hivers rigoureux en utilisant des méthodes entièrement différentes des radiateurs et des chaudières à gaz qui dominent de nos jours les foyers européens.

Aujourd’hui, en tant que chercheur en architecture dans une université britannique, je suis frappé par tout ce que nous pourrions apprendre de ces systèmes traditionnels. Les factures d’énergie restent trop élevées et des millions de personnes peinent à chauffer leur logement, tandis que le changement climatique devrait rendre les hivers plus instables. Nous avons besoin de moyens efficaces et peu énergivores pour rester au chaud, sans dépendre du chauffage de l’ensemble d’un logement à l’aide de combustibles fossiles.

Certaines des réponses se trouvent peut-être dans les méthodes avec lesquelles j’ai grandi.

Un lit chaud fait de terre

Mes premiers souvenirs de l’hiver sont liés au fait de me réveiller sur un « kang » – une plateforme-lit chauffée faite de briques de terre, utilisée dans le nord de la Chine depuis au moins 2 000 ans. Le kang est moins un meuble qu’un élément du bâtiment lui-même : une dalle épaisse et surélevée, reliée au poêle familial situé dans la cuisine. Lorsque le poêle est allumé pour cuisiner, l’air chaud circule dans des conduits aménagés sous le kang, réchauffant l’ensemble de sa masse.

Un kang traditionnel chinois, combinant lit et poêle. Google Gemini, CC BY-SA

Pour un enfant, le kang avait quelque chose de magique : une surface chaude et rayonnante qui restait tiède toute la nuit. Mais à l’âge adulte – et aujourd’hui en tant que chercheur – je peux mesurer à quel point il s’agit d’une pièce d’ingénierie remarquablement efficace.

Contrairement au chauffage central, qui fonctionne en réchauffant l’air de chaque pièce, seul le kang (c’est-à-dire la surface du lit) est chauffé. La pièce elle-même peut être froide, mais les personnes se réchauffent en s’allongeant ou en s’asseyant sur la plateforme, sous d’épaisses couvertures. Une fois chauffée, sa masse de plusieurs centaines de kilogrammes de terre compactée restitue lentement la chaleur pendant de longues heures. Il n’y avait pas de radiateurs, pas besoin de pompes, et nous ne chauffions pas inutilement des pièces inoccupées. Comme une grande partie de la chaleur initiale était produite par des feux nécessaires de toute façon pour cuisiner, nous économisions du combustible.

L’entretien du kang était une affaire familiale. Mon père – professeur de littérature chinoise au collège, pas vraiment un ingénieur – est devenu un expert du kang. Empiler avec soin des couches de charbon autour du foyer afin de maintenir le feu toute la nuit relevait du travail de ma mère. Avec le recul, je mesure l’ampleur des compétences et du travail que cela exigeait, ainsi que la confiance que les familles accordaient à un système nécessitant une bonne ventilation pour éviter les risques d’intoxication au monoxyde de carbone.

Mais malgré tous ses inconvénients, le kang offrait quelque chose que les systèmes de chauffage modernes peinent encore à fournir : une chaleur durable avec très peu de combustible.

Des approches similaires en Asie de l’Est

Dans toute l’Asie de l’Est, les manières de se réchauffer par temps froid ont évolué autour de principes similaires : maintenir la chaleur près du corps et ne chauffer que les espaces qui comptent vraiment.

En Corée, l’ancien système ondol fait également circuler de l’air chaud sous des sols épais, transformant toute la surface du sol en plancher chauffant. Le Japon a développé le kotatsu, une table basse recouverte d’une lourde couverture, avec un petit dispositif chauffant placé en dessous pour garder les jambes au chaud. Ils peuvent être un peu coûteux, mais comptent parmi les objets les plus populaires dans les foyers japonais.

Les vêtements étaient eux aussi très importants. Chaque hiver, ma mère me confectionnait un tout nouveau manteau épais et matelassé, qu’elle garnissait de coton fraîchement cardé. C’est l’un de mes souvenirs les plus tendres.

L’Europe avait des idées similaires – puis les a oubliées

Des approches comparables se sont jadis développées en Europe. Les Romains de l’Antiquité, par exemple, chauffaient les bâtiments grâce à des hypocaustes, qui faisaient circuler l’air chaud sous les sols. Au Moyen Âge, les foyers suspendaient de lourdes tapisseries aux murs pour réduire les courants d’air, et de nombreuses cultures utilisaient des coussins moelleux, des tapis chauffés ou des espaces de couchage clos afin de conserver la chaleur.

La généralisation du chauffage central moderne au XXe siècle a remplacé ces pratiques par un modèle plus énergivore : chauffer des bâtiments entiers à une température uniforme, même lorsqu’une seule personne est présente au domicile. Tant que l’énergie était bon marché, ce modèle fonctionnait, malgré le fait que la plupart des logements européens (notamment en France, NDT) soient mal isolés au regard des standards internationaux.

Mais aujourd’hui, alors que l’énergie est redevenue chère, des dizaines de millions d’Européens ne parviennent pas à chauffer correctement leur logement. De nouvelles technologies comme les pompes à chaleur et les énergies renouvelables aideront – mais elles fonctionnent d’autant mieux que les bâtiments qu’elles chauffent sont déjà performants, ce qui permet de fixer des consignes de chauffage plus basses et des consignes de refroidissement plus élevées.

Les approches traditionnelles du chauffage domestique ont donc encore beaucoup à nous apprendre. Le kang et les systèmes similaires démontrent que le confort ne vient pas toujours d’une consommation accrue d’énergie, mais d’une conception plus intelligente de la chaleur.

The Conversation

Yangang Xing ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

01.01.2026 à 09:44

Quelles cartes postales hivernales en 2050 ? Imaginer ensemble un futur désirable pour les stations de montagne

Angèle Richard, Stratégie et Innovation, Université Savoie Mont Blanc
Élodie Gardet, Docteur en en Sciences de Gestion, Université Savoie Mont Blanc
Romain Gandia, Maître de conférence, Organizational Studies, Business Administration à l'Université Savoie Mont Blanc, IAE Savoie Mont Blanc
img
Entre urgence climatique et conflits entre acteurs, les stations peinent à se transformer. Et si l’utopie ouvrait un espace pour imaginer une montagne moins enneigée mais toujours désirable en 2050 ?
Texte intégral (1797 mots)

Alors que les Alpes subissent de plein fouet le changement climatique, la transformation du modèle économique des stations reste compliquée, souvent entravée par des tensions et des intérêts divergents. Une nouvelle méthode participative propose de dépasser ces blocages grâce à une approche originale : l’utopie. De quoi stimuler l’imagination pour bâtir une vision partagée d’un futur plus désirable. Celle-ci a été expérimentée au cours d’ateliers où les différentes parties prenantes d’une station de montagne ont été invitées à créer leur propre carte postale de montagne à l’horizon 2050.


Les Alpes françaises comptent parmi les régions les plus exposées au changement climatique. Les stations de montagne y sont directement confrontées, notamment face à la raréfaction de la neige. En mars 2024, la Cour des Comptes constatait l’insuffisance des stratégies d’adaptation mises en place dans ces stations. Celles-ci doivent impérativement transformer leur business model, encore largement centré sur le « tout-ski ».

Cette transformation est nécessaire pour préserver leur performance dans une perspective soutenable. Mais transformer un territoire est plus complexe qu’un simple changement d’offre touristique. Comment amorcer cette transformation ? Avec quelles parties prenantes ? Comment construire une vision commune, quand chacun perçoit la montagne à travers son propre prisme et ses propres intérêts ? Dans quelle direction stratégique s’engager ?

Ces questions sont d’autant plus cruciales que plusieurs tentatives d’innovations en la matière ont déjà échoué, notamment du fait de résistances ou de conflits d’intérêts entre les différentes parties prenantes concernées par ces innovations : exploitants, commerçants, élus, touristes…

Un exemple emblématique de ce type de conflits d’intérêts est la question de l’eau. En effet, elle est utilisée à la fois pour garantir les conditions d’enneigement des domaines skiables (ce qui permet de maintenir l’attractivité touristique en hiver) et pour répondre aux besoins des populations locales et des milieux naturels en montagne.

L’une des principales difficultés tient à la capacité de construire un alignement partagé entre les différents acteurs de la montagne. Cette quête doit reposer sur une proposition de valeur commune. Pour ce faire, nous avons adopté avec des collègues, dans une étude récemment publiée, une méthode de prospective originale basée sur ce qu’on appelle des « scénarios utopistes ».

L’intérêt ? Stimuler l’imaginaire collectif en insistant davantage sur les représentations partagées. Nous avons expérimenté la démarche à l’échelle d’une station de montagne à travers des ateliers participatifs, où ces différents interlocuteurs ont été encouragés à concevoir leur propre « utopie », sous la forme d’une carte postale fictive à l’horizon 2050.


À lire aussi : Changement climatique : les stations de ski doivent-elles encore investir dans la production de neige pour s’adapter ?


L’utopie, une méthode prospective qui favorise le dialogue

Pour surmonter les difficultés évoquées précédemment, il faut avoir recours à des méthodes capables de faire dialoguer toutes les parties prenantes pour créer ensemble une nouvelle proposition de valeur. La prospective stratégique répond précisément à cet enjeu. En élaborant des scénarios exploratoires, elle crée un espace de réflexion où chacun peut se projeter plus librement face aux enjeux du changement climatique.

Les scénarios utopistes, en particulier, permettent l’émergence d’imaginaires collectifs capables de dépasser les représentations individuelles et leurs blocages cognitifs, comme la peur du changement. L’utopie permet d’apporter un regard critique sur l’existant tout en ouvrant la voie à un futur commun plus désirable. Elle peut alors devenir un guide d’action et contribuer à reconfigurer les relations.

La méthode des scénarios utopistes que nous proposons, déployée dans le cadre d’ateliers participatifs, peut avoir un pouvoir transformateur sur les représentations individuelles et collectives de ce que peut être un modèle d’affaires soutenable pour les stations de montagne.


À lire aussi : Une brève histoire de l’utopie


La démarche consiste à :

  • d’abord proposer une relecture de l’existant à partir des représentations individuelles,

  • puis faire émerger d’autres représentations collectives plus soutenables, à travers le dialogue et l’imagination.

  • à partir de celles-ci, plusieurs propositions de valeur sont élaborées par les participants pour favoriser l’alignement entre les acteurs. L’idée est de construire des propositions qui fédèrent davantage qu’elles divisent.

  • un enjeu clé est de renforcer la désidérabilité de ces orientations futures et de redonner du sens au processus de transformation.


À lire aussi : Penser l’avenir : qu’est-ce que la « littératie des futurs » ?


Quand imaginer ensemble aide à se projeter

Mais avant même d’envisager la création de scénarios utopistes, la priorité est d’ouvrir le dialogue. Cette première étape est décisive : elle permet de faire émerger des représentations individuelles fondées sur leurs intérêts, attentes, besoins et préoccupations respectives.

Cette étape permet d’identifier un enjeu véritablement partagé, capable de servir de point d’ancrage à la transformation du business model existant. Parmi les thématiques évoquées lors de nos ateliers, figurait notamment la quête d’un développement économique fondé sur la sobriété en ressources naturelles, tout en restant en harmonie avec l’environnement montagnard.

Une fois ces enjeux clarifiés, les parties prenantes ont été invitées à imaginer ensemble ce que pourrait être la proposition de valeur d’un futur business model pour la station. Pour nourrir cette réflexion, elles ont chacune conçue une utopie, sous la forme d’un parcours client situé en 2050, incarnée par une carte postale fictive. Cet exercice permet d’esquisser une nouvelle proposition de valeur et d’en explorer la désirabilité, en mobilisant l’imagination et les capacités de projection dans le futur.

Cet exercice a donné naissance à plusieurs directions possibles. Citons par exemple les propositions suivantes, qui ont émergé lors des ateliers :

  • un tourisme axé sur le bien-être et la reconnexion au vivant,

  • un écotourisme valorisant l’engagement actif du touriste dans la découverte du patrimoine territorial,

  • ou encore un tourisme expérientiel centré sur l’authenticité et l’immersion dans les savoir-faire locaux.

Toutes ces représentations collectives ont ensuite été discutées de manière critique afin d’anticiper leurs limites potentielles telles que la surcharge d’activités, les tensions autour des ressources ou encore les risques de surfréquentation.

Malgré cette prise de recul, ces idées ont été majoritairement perçues comme désirables et mobilisatrices. Le recours aux scénarios utopistes a permis aux participants de relâcher les contraintes du présent, de mobiliser leur imaginaire et de se projeter dans un futur vu comme moins anxiogène.

L’utopie pour briser la glace ?

Les scénarios utopistes apparaissent ainsi comme un levier stratégique intéressant pour penser de nouveaux business models soutenables :

  • D’abord parce qu’ils aident à prendre de la distance par rapport au modèle actuel. Ils offrent un espace de réflexion afin d’imaginer ceux du futurs, tout en restant ancré dans des enjeux réels et tangibles.

  • Ces visions ne relèvent pas nécessairement de fictions déconnectées : l’utopie permet de transposer ici un idéal déjà observé ailleurs, sur d’autres territoires, dans d’autres secteurs ou encore d’autres industries.

  • Enfin, en rapprochant les représentations individuelles, elle tend à réduire les risques d’échecs et de tensions liés aux divergences d’intérêts, souvent responsables de blocages dans des démarches de co-création de valeur.

Ainsi, nous constatons que les scénarios utopistes permettent de « briser la glace » entre les différentes parties prenantes. En effet, ils offrent un appui stratégique précieux pour initier un projet de transformation, parce qu’ils facilitent l’entrée en relation et le dialogue entre les acteurs du territoire. Ils favorisent ainsi l’émergence de représentations collectives partagées.

Néanmoins, pour que ces visions communes de business models soutenables puissent devenir opérationnelles, une phase d’ajustement intermédiaire reste nécessaire. Dans les premières phases d’un projet de transformation, le défi principal reste de mobiliser autour d’un enjeu commun et séduisant. Sous cet angle, les scénarios utopistes peuvent jouer un rôle mobilisateur et fédérateur en amont.


À lire aussi : Entre utopie et dystopie, créer un langage végétal


The Conversation

Angèle Richard est membre de l'Institut de Recherche en Gestion et Economie. Elle a reçu des financements de la Chaire Tourisme Durable de l'Université Savoie Mont Blanc.

Romain Gandia et Élodie Gardet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview