Version smartphones allégée
🟥 Accueil 🟨 Médias 🟦 International
Lien du flux RSS
L’expertise universitaire, l’exigence journalistique

▸ les 25 dernières parutions

12.01.2026 à 15:53

La Terre du Milieu de Tolkien, un lieu imaginaire pour repenser notre rapport à la nature

Véronique André-Lamat, Professeure de Géographie, Centre national de la recherche scientifique (CNRS)
Léa Menard, Médiatrice scientifique, Centre national de la recherche scientifique (CNRS)
img
« Le Seigneur des anneaux », à travers sa géographie imaginaire, nous invite à nous engager dans une éthique environnementale qui semble plus d’actualité que jamais.
Texte intégral (2841 mots)
La Terre du Milieu. Léa Dutemps, Fourni par l'auteur

L’écrivain anglais J. R. R. Tolkien (1892-1973) était un cartographe de l’imaginaire. Dans le Seigneur des anneaux (1954-1955), il invente un monde dans lequel la frontière entre humanité et animalité est floue. Ses cartes de la Terre du Milieu construisent la cohérence spatiale et la densité narrative de la quête de la Communauté de l’anneau. Montagnes, forêts, rivières y constituent tantôt des épreuves spatiales, tantôt des espaces protecteurs ou de refuge. La géographie y structure le récit et façonne la fiction.


Les mondes imaginaires sont performatifs. Ils se nourrissent du réel dans une projection fictionnelle tout en l’interrogeant. Le Seigneur des anneaux n’y fait pas exception, nous invitant à réfléchir à nos liens avec la nature, à reconnaître sa valeur intrinsèque et à dépasser une conception dualiste opposant nature et culture, ne lui accordant qu’une valeur d’usage ou de ressource, à nous engager dans une éthique environnementale.

En suivant la Communauté, métissée, sur les chemins, parfois de traverse, les menant vers le mont Destin, nous sommes confrontés à différentes manières d’habiter et de transformer la nature : utopies rurales, zones industrieuses, refuges écologiques et lieux symboliques où des choix engagent l’avenir du monde. La fiction devient un outil pour questionner le réel, interroger nos pratiques et réfléchir aux enjeux environnementaux contemporains dans une ère désormais anthropocénique.

Le mont Destin. Léa Dutemps, Fourni par l'auteur

Habiter (avec) le monde : utopies rurales et résistance

La Comté repose sur un système agraire vivrier de polycultures fondé sur de petites exploitations familiales où le tabac réputé n’est que peu exporté. Les Hobbits vivent en autarcie et habitent littéralement une nature jardinée, dans des terriers. Le bocage, les prairies forment un maillage qui limite l’érosion et protège la biodiversité et organisent un territoire où nature et société coexistent harmonieusement. Cet idéal préindustriel s’éteint peu à peu dans le monde occidental moderne où une agriculture intensive et centralisée s’est imposée pour devenir norme sur un territoire remembré.

La Comté. Léa Dutemps, Fourni par l'auteur

La forêt de Fangorn, elle, représente une nature qui résiste à la manière d’une zone à défendre (ZAD). Les Ents, gestionnaires du peuplement forestier, incarnent des arbres doués de parole, capables de révolte. Ils refusent la domination humaine fermant les sentiers d’accès avant de s’engager dans une guerre contre l’industrialisation menée par Saroumane en Isengard. Le chantier stoppé de l’autoroute A69 témoigne de la façon dont la nature peut parfois aujourd’hui par elle-même poser des limites aux projets d’aménagement voulus par l’humain.

La Lothlórien, enfin, symbolise une écotopie, un espace préservé du temps et des pressions humaines, où nature, société et spiritualité vivent en harmonie. La réserve intégrale de la forêt de la Massane, les forêts « sacrées » d’Afrique de l’Ouest ou celles du nord de la Grèce (massif du Pindes) font écho à cet idéal. Pensées comme des écosystèmes dont les dynamiques naturelles sont respectées et où l’intervention humaine contrôlée se fait discrète, elles permettent d’observer et de suivre les espèces, la régénération spontanée des habitats et leur résilience. Mais à l’image de la Lothlórien, un tel système de gestion reste spatialement rare, fragile. Il nécessite de construire la nature comme bien commun dont l’accès et l’usage sont acceptés par les communautés qui cohabitent avec ces espaces forestiers.

La Lothlórien. Léa Dutemps, Fourni par l'auteur

Ces trois types de territoires montrent qu’habiter le monde n’est pas simplement occuper, encore moins s’approprier, un espace de nature mais engager un dialogue avec lui, considérer qu’il a une valeur par lui-même, juste parce qu’il existe, et pas uniquement en tant que ressource. Il s’agit alors de cohabiter dans des interactions où chaque existant prend soin de l’autre.

Exploiter une nature ressource : de l’artificialisation à la destruction

La transformation des espaces de nature, comme le montre Tolkien, peut aussi répondre à une logique d’exploitation intensive, la nature offrant des ressources permettant d’asseoir la domination des humains sur la nature comme sur d’autres humains. Il ne s’agit plus d’envisager une cohabitation être humain/nature mais d’asservir la nature par la technique.

Isengard, le territoire de Saroumane au sud des monts Brumeux, contrôlé par la tour d’Orthanc, incarne la transformation radicale du milieu par et pour l’industrie ; une industrie dont la production d’Orques hybrides, sorte de transhumanisme appliqué à la sauvagerie, vise à renforcer le pouvoir de Saroumane et construire son armée pour prendre le contrôle d’autres territoires. La forêt est rasée, les fleuves détournés, le paysage mécanisé, dans l’unique but d’alimenter l’industrie. Les champs d’exploitation des schistes bitumineux en Amérique du Nord montrent à quel point l’exploitation de la nature peut détruire des paysages, polluer une nature qui devient impropre et dont les fonctions et services écosystémiques sont détruits).

La tour d’Orthanc. Léa Dutemps, Fourni par l'auteur

La Moria, ancien royaume florissant du peuple Nain, est l’exemple de l’issue létale de la surexploitation d’une ressource naturelle. Si le mithril, minerai rare de très grande valeur a construit la puissance du royaume Nain, son exploitation sans cesse plus intense, vidant les profondeurs de la terre, va conduire à l’effondrement de la civilisation et à l’abandon de la Moria. Ce territoire minier en déshérence fait écho aux paysages des régions du Donbass par exemple, qui conservent aujourd’hui encore les traces visibles de décennies d’extraction charbonnière : galeries effondrées, sols instables et villes partiellement abandonnées.

Lieux de rupture et enjeux planétaires

On trouve enfin chez Tolkien une mise en scène d’espaces qui représentent des lieux de bascule pour l’intrigue et l’avenir du monde, en l’occurrence la Terre du Milieu.

Le « bourg-pont » de Bree, zone frontière matérialisée par une large rivière, marque la limite entre l’univers encore protégé, presque fermé, de la Comté et les territoires marchands de l’est, ouverts et instables. Mais Bree est aussi un carrefour dynamique, lieu d’échanges où circulent et se rencontrent des personnes, des biens et des récits. Un carrefour et une frontière où toutefois la tension et la surveillance de toutes les mobilités sont fortes.

La Moria. Léa Dutemps, Fourni par l'auteur

Lieu de transition, symbolisant à la fois ouverture et fermeture territoriales, Bree est un point de bascule dans le récit où convergent et se confrontent des personnages clés de l’intrigue (les Hobbits, Aragorn, les cavaliers noirs de Sauron), les figures du Bien et du Mal autour desquelles vont se jouer l’avenir de la Terre du Milieu. Comme Bree, Calais est un point de friction entre un espace fermé (les frontières britanniques) et un espace ouvert où s’entremêlent société locale, logiques nationales et transnationales, mais où les circulations sont de plus en plus contrôlées.

Enfin, la montagne du Destin, volcan actif, incarne le lieu de rupture ultime, celui où le choix d’un individu, garder l’anneau pour lui seul dans un désir de pouvoir total ou accepter de le détruire, a des conséquences majeures pour toute la Terre du Milieu. Certains espaces jouent un rôle similaire sur notre terre. La fonte du permafrost sibérien ou de l’inlandsis antarctique pourrait libérer d’immenses quantités de carbone pour l’un, d’eau douce pour l’autre, accélérant le dérèglement climatique et la submersion de terres habitées.

Ces lieux où des actions localisées peuvent déclencher des effets systémiques globaux, au-delà de tout contrôle, concentrent ainsi des enjeux critiques, écologiques, géopolitiques ou symboliques.

La fiction constitue un puissant vecteur de réflexion quant à notre responsabilité collective dans la gestion de la nature, quant à nos choix éthiques et politiques dans la manière d’habiter la Terre en tant que bien commun et ainsi éviter d’atteindre un point de bascule qui sera celui d’un non-retour.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

11.01.2026 à 15:41

Après l’abattage de milliers de chevaux sauvages, le parc australien du Kosciuszko retrouve peu à peu ses paysages

David M Watson, Professor in Ecology, Charles Sturt University
Patrick Finnerty, Postdoctoral Research Fellow in Conservation and Wildlife Management, University of Sydney
img
Avec la campagne d’abattage des chevaux sauvages, les zones alpines fragiles ne sont plus piétinées par des sabots durs. Mais les paysages de Kosciuszko mettront des décennies à se rétablir.
Texte intégral (3521 mots)
Des brumbies, chevaux sauvages d’Australie, dans le parc national du Kosciuszko. Fourni par l'auteur, CC BY-ND

Dans le parc national du Kosciuszko, la diminution de la population de brumbies, les chevaux sauvages, ouvre une chance de restauration pour les écosystèmes fragiles du massif. Celles et ceux qui parcourent le parc au quotidien en voient déjà les premiers effets.


Dans le parc national du Kosciuszko, en pleines Alpes australiennes, le paysage évolue lentement. Des zones de végétation, autrefois rasées par les chevaux, repoussent. Les berges de ruisseaux, longtemps érodées, paraissent moins tassées sur les bords. Les visiteurs croisent aussi moins de chevaux immobiles sur les routes, ce qui représentait un réel danger pour la circulation.

En 2023, en effet, la Nouvelle-Galles du Sud a autorisé l’abattage aérien de chevaux sauvages dans le parc national du Kosciuszko. Et fin novembre, le gouvernement a adopté un projet de loi abrogeant le texte qui reconnaissait aux brumbies ou chevaux sauvages un « statut patrimonial » dans le parc (NDT : ces chevaux, arrivés d’Angleterre avec les premiers colons ont été au centre d’une bataille culturelle culturelle ces dernières années).

Ce changement a supprimé les protections juridiques dont bénéficiaient les chevaux dans le parc, qui les distinguaient des autres espèces introduites comme les cerfs, les porcs, les renards et les lapins. Désormais, ils sont traités en Australie de la même manière que les autres espèces invasives, rétablissant une cohérence dans la gestion de leur impact sur les paysages.

La dernière enquête estime qu’environ 3 000 chevaux subsistent dans le parc national du Kosciuszko, contre quelque 17 000 il y a un an. Plus de 9 000 chevaux ont été abattus depuis 2021.

Le plan de gestion actuellement en vigueur prévoit de conserver 3 000 de ces chevaux, un compromis entre protection des écosystèmes et sauvegarde de la valeur patrimoniale de ces animaux. Il doit s’appliquer jusqu’à la mi-2027.

Quels sont les effets environnementaux de la réduction du nombre de chevaux à Kosciuszko ? Et à quoi le parc pourrait-il ressembler à l’avenir ?

Un étalon se tenant dans une tourbière alpine à sphaignes
Un étalon se tenant dans une tourbière alpine à sphaignes. Fourni par l’auteur, CC BY-ND

Les dégâts

Depuis des décennies, les chevaux sauvages constituent une source majeure de dégradations écologiques dans les paysages alpins du Kosciuszko. Leur impact dans ces milieux d’altitude fragiles s’est particulièrement accru au cours de la dernière décennie, période pendant laquelle leur population a augmenté de manière incontrôlée.

Des études empiriques et des analyses d’images satellites montrent que les brumbies réduisent la couverture végétale, dégradent la structure des sols et endommagent les berges des cours d’eau, les tourbières et les marais alpins – des sols riches en carbone formés sur des dizaines de milliers d’années.

Une partie de ces dégâts résulte de leur alimentation, fondée sur des graminées et des plantes herbacées alpines à croissance lente. Un cheval consomme généralement l’équivalent de 2 % de sa masse corporelle par jour, soit environ 8 kilogrammes quotidiens. À titre de comparaison, le plus grand herbivore indigène des hauts plateaux, le kangourou gris de l’Est, consomme environ 600 grammes par jour, c’est 13 fois moins.

Mais l’essentiel des dégâts est causé par leurs sabots. Les chevaux sauvages parcourent jusqu’à 50 kilomètres par jour, et leurs sabots durs écrasent les couches de mousses à sphaignes, compactant en profondeur les sols tourbeux. Ces plantes et ces sols fonctionnent normalement comme des éponges à restitution lente, stockant l’eau de fonte des neiges et alimentant les cours d’eau tout au long de l’été. Et contrairement aux wombats, aux kangourous et à d’autres espèces indigènes, les chevaux sauvages se déplacent en file indienne, traçant de profonds sentiers qui quadrillent les prairies alpines et les assèchent.

Ces transformations affectent l’ensemble de l’écosystème. Les scinques alpins, les rats à dents larges, les grenouilles corroboree, les phalangers pygmées des montagnes et les poissons indigènes dépendent tous d’une végétation dense, de tapis de mousse intacts ou de cours d’eau exempts de sédiments – soit précisément les éléments que les chevaux dégradent.

Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko
Un groupe de chevaux sauvages traversant une rivière dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND

Les cours d’eau ont été particulièrement touchés. Les Alpes australiennes fournissent près d’un tiers des eaux de surface qui alimentent le bassin Murray-Darling (NDT : le plus vaste bassin hydrographique d’Australie), mais le piétinement des chevaux le long des cours d’eau trouble des rivières jusque-là limpides et déstabilise les apports lents et réguliers dont dépendent ces bassins versants.

Ces impacts ne se limitent pas au parc. Ces dernières années, de nombreux chevaux ont gagné des zones voisines, notamment des forêts domaniales, où leurs perturbations s’ajoutent aux effets de l’exploitation forestière commerciale et mettent en danger les visiteurs et les campeurs.

Si l’attention s’est surtout concentrée sur les effets des brumbies au Kosciuszko et, plus largement, dans les écosystèmes alpins, près d’un demi-million de chevaux sauvages affectent les paysages à l’échelle de toute l’Australie, les forêts tropicales claires et les zones semi-arides étant les plus durement touchées.

Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux
Une berge de ruisseau, dont le sol tourbeux a été érodé par le passage des chevaux. Fourni par l’auteur, CC BY-ND

Ce que nous avons observé jusqu’à présent

Nous avons passé beaucoup de temps dans le parc au cours de l’année écoulée et avons commencé à remarquer de petits changements dans les hauts plateaux, cohérents avec ce que l’on pourrait attendre du programme de contrôle des animaux sauvages.

Nous voyons moins de chevaux lors de nos journées sur le terrain. Dans les zones régulièrement piétinées, de petites poches de végétation réapparaissent sur les surfaces dénudées. Même certaines berges, érodées de longue date, paraissent plus souples sur les bords.

Ces observations restent strictement anecdotiques et ne constituent pas des preuves formelles. Mais elles suggèrent un paysage qui commence à se « réoxygéner » à mesure que la pression diminue. Il y a aussi un aspect sécuritaire. Quiconque circule sur les routes alpines connaît la surprise, au sortir d’un virage dans les eucalyptus, de se retrouver nez à nez avec un cheval, voire un troupeau, sur le bitume. Moins de chevaux signifie moins de ces rencontres dangereuses pour les chercheurs, le personnel des parcs nationaux et les visiteurs.

Le retour progressif

Avec beaucoup moins de chevaux dans les hauts plateaux, la pression commence à diminuer. À mesure que le piétinement diminue, les tourbières et les marais devraient commencer à se régénérer et à retenir l’eau plus longtemps. Les tapis de mousse repousseront et d’autres plantes productrices de tourbe pourront s’implanter à nouveau dans des sols qui ne sont plus constamment compactés et surpâturés.

Moins de pâturage signifie également que les herbes alpines, les carex et les graminées des neiges retrouveront de l’espace pour se développer. Les sols nus vont se stabiliser, les berges des cours d’eau se rétablir et les lits des ruisseaux commencer à se dégager.

Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko
Un ruisseau alpin sous la chaîne principale dans le parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND

Ces améliorations se répercutent sur l’ensemble de l’écosystème : des sols plus stables et une végétation plus dense créent un habitat plus favorable aux grenouilles, aux scinques, aux petits mammifères et aux invertébrés qui dépendent d’environnements alpins frais, humides et structurés.

La récupération prendra du temps – des décennies, et non des mois. Des études empiriques à long terme seront indispensables pour suivre les changements et identifier les zones du parc où des efforts de restauration ciblés seront nécessaires pour accélérer le rétablissement.

Enfin, une vraie chance

Rien de tout cela ne se produira en un claquement de doigts. Les écosystèmes alpins se régénèrent lentement, et des décennies de dégâts ne peuvent pas être effacées du jour au lendemain. Les courtes saisons de croissance font que les plantes repoussent progressivement, et non par à-coups. De nombreuses pentes et berges de ruisseaux portent encore les cicatrices du pâturage bovin plus de 60 ans après le départ du bétail. Les perturbations perdurent ici pendant des générations.

La diminution du nombre de chevaux n’est qu’un début, mais c’est une étape essentielle. Et désormais – avec moins de chevaux sur le terrain et la suppression des barrières légales – le parc du Kosciuszko dispose enfin d’une voie réaliste vers la restauration. La prochaine décennie déterminera combien de son fragile patrimoine alpin pourra finalement être retrouvé.

Le fragile écosystème alpin du parc national de Kosciuszko
Le fragile écosystème alpin du parc national de Kosciuszko. Fourni par l’auteur, CC BY-ND
The Conversation

David M. Watson reçoit des financements de recherche du gouvernement fédéral (via l’ARC, le DAFF, le DCCEEW) et siège aux conseils d’administration du Holbrook Landcare Network et des Great Eastern Ranges. Il a exercé deux mandats au sein du Comité scientifique des espèces menacées de la Nouvelle-Galles du Sud, avant de démissionner lorsque la Wild Horse Heritage Act est entrée en vigueur en juin 2018.

Patrick Finnerty est actuellement directeur pour les carrières émergentes en écologie à l’Ecological Society of Australia, coordinateur des jeunes chercheurs à l’Australasian Wildlife Management Society, et membre du conseil de la Royal Zoological Society of NSW. Il reçoit des financements de l’Australian Research Council.

09.01.2026 à 16:45

Manger sain et durable avec la règle des 4V

Anthony Fardet, Chargé de recherches HC, UMR 1019 - Unité de Nutrition humaine, Université Clermont Auvergne, Inrae
Michel Duru, Directeur de recherche honoraire, UMR AGIR (Agroécologie, innovations et territoires), Inrae
img
Manger végétal, vrai et varié et consommer plus de produits issus d'une agriculture régénérant le vivant. Tout cela est bénéfique pour notre santé comme celle des écosystèmes.
Texte intégral (3094 mots)

Manger végétal, vrai et varié et consommer plus de produits issus d’une agriculture régénérant le vivant. Ces quatre objectifs permettent de concilier une alimentation bénéfique pour notre santé comme pour celle des écosystèmes.


Faire ses courses ressemble souvent à un casse-tête. On souhaiterait trouver des produits bon pour la santé, si possible ne venant pas du bout du monde, pas ultratransformés ni cultivés avec force pesticides et engrais chimiques, tout en étant à un prix abordable.

Mais ces enjeux peuvent parfois entrer en contradiction : des produits considérés comme sains ne sont pas toujours issus d’une agriculture de qualité, et inversement. En outre, de bons produits pour la santé et l’environnement ne permettent pas nécessairement d’avoir un régime alimentaire équilibré.

Alors comment sortir de ces dilemmes et aiguiller le consommateur ?

La règle des 4V. Fourni par l'auteur

Nous proposons la règle simple des 4V, qui tient compte des modes de production agricoles et de la composition de l’assiette en invitant à une alimentation vraie, végétale, variée et régénérant le vivant.

La règle des 4V

Manger vrai permet de fait de réduire le risque de nombreuses maladies chroniques (obésité, cancers, diabète de type 2, dépression, maladies cardiovasculaires…). Par précaution, cela consiste à limiter les aliments ultratransformés à 10-15 % des apports caloriques quotidiens, au lieu de 34 % actuellement en moyenne ; soit déjà les diviser par deux au minimum.

Manger plus végétal est également meilleur pour la santé. Cela permet aussi une réduction importante de plusieurs impacts environnementaux : réduction de l’empreinte carbone de notre alimentation, car moins d’émissions de gaz à effet de serre (GES) en agriculture ; moindre consommation de ressources (terres, énergie, eau).

Réduire la production et la consommation de produits animaux permet aussi d’abaisser les émissions d’azote réactif qui polluent l’air, les sols et les nappes phréatiques et produisent du protoxyde d’azote (N₂O), un puissant gaz à effet de serre. Ce deuxième V permet ainsi de diviser par deux les émissions de GES et d’azote dans l’environnement.

Outre la réduction de notre consommation de protéines qui excède en moyenne de 40 % les recommandations, il est proposé de ramener la part des protéines animales à moins de 50 % de l’apport protéique, au lieu de 65 % actuellement. Au final, cela revient à diviser par deux la consommation de viande et un peu celle des produits laitiers, notamment le fromage. L’augmentation de la consommation de protéines végétales provient alors surtout des légumineuses. La végétalisation de l’assiette passe aussi par une consommation accrue de fruits et de légumes peu transformés, de céréales complètes et de fruits à coque.


À lire aussi : Les légumineuses : bonnes pour notre santé et celle de la planète


Manger varié est un atout pour la santé, notamment pour l’équilibre nutritionnel afin d’éviter les déficiences. Cela suppose de diversifier fruits, légumes, céréales complètes, légumineuses et fruits à coque qui sont une source importante de fibres, minéraux, vitamines, oligo-éléments, anti-oxydants et autres phytonutriments bioactifs protecteurs.

Pour cela, il faudrait idéalement consommer de tous les groupes d’aliments tout en variant dans chaque groupe : par exemple, blé, maïs et riz complets pour les céréales. Manger les différents morceaux de viande – en particulier des bovins (par exemple des entrecôtes et pas seulement du steak haché) – est aussi important pour ne pas déstabiliser les filières.

Manger des produits issus d’une agriculture régénérant le vivant permet d’améliorer la densité nutritionnelle des aliments, de réduire l’empreinte environnementale de l’assiette, notamment pour les émissions de GES et d’azote, et aussi d’augmenter les services fournis à la société (séquestration de carbone, épuration de l’eau…).

La regénération du vivant désigne l’ensemble des actions visant à restaurer ou renouveler la fertilité des sols, les cycles de l’eau et de l’azote, la diversité des espèces et la résilience face aux changements climatiques, tout en consommant avec parcimonie les ressources non renouvelables (le gaz qui sert à fabriquer les engrais, le phosphore…). Ainsi, au-delà de la production de nourriture, l’agriculture régénératrice vise à fournir des services à la société, tels que la séquestration du carbone dans les sols, l’augmentation de la densité nutritionnelle des produits.

Manger des produits issus d’une agriculture régénérant le vivant consisterait par exemple à choisir 50 % de produits ayant un bon score environnemental alors que les modes de production contribuant à la régénération du vivant ne dépassent pas 25 % de l’offre.

Types d’agriculture contribuant à la régénération du vivant

L’agriculture conventionnelle, qui vise l’intensification durable en utilisant les technologies pour réduire ses impacts, ne peut cependant pas régénérer le vivant, car elle porte toujours sur des systèmes simplifiés avec un nombre limité de cultures, des sols souvent pauvres en matières organiques, peu d’infrastructures écologiques et de très grandes parcelles.

Cependant, caractériser les modes de culture et d’élevage pour leurs impacts négatifs, mais aussi pour les services qu’ils rendent (séquestration du carbone, densité nutritionnelle des produits) permet d’aller au-delà de la dichotomie usuelle bio/conventionnel.

Les pratiques associées à la régénération du vivant reposent sur la diversification des cultures et des modes d’alimentation des animaux. Elles permettraient de réduire les émissions de GES de 15 % environ, et aussi de séquestrer entre 15 et 20 % des émissions de GES de l’agriculture. Elles permettraient aussi de réduire de moitié insecticides et fongicides. En revanche, une réduction forte de l’utilisation des herbicides est plus difficile et nécessite de combiner plusieurs mesures sans forcément exclure un travail du sol occasionnel.

L’élevage est critiqué, car il introduit une compétition entre feed (nourrir les animaux) et food (nourrir les humains). Cette compétition est bien plus faible pour les vaches, qui mangent de l’herbe, que pour les porcs et les volailles, qui sont nourris avec des graines. Elle est aussi d’autant plus faible que les élevages sont autonomes pour l’énergie et les protéines. Des exemples d’élevage contribuant à la régénération du vivant sont les élevages herbagers et biologiques, dont l’alimentation provient surtout des prairies, ainsi que les élevages Bleu Blanc Cœur pour lesquels l’ajout de lin, graine riche en oméga-3, dans la ration des animaux, a des effets positifs sur leur santé, la nôtre et la planète puisqu’il y a une réduction des émissions de GES en comparaison à des élevages courants.

Il s’agit d’agricultures agroécologiques, telles que l’agriculture biologique, l’agriculture de conservation des sols, s’il y a une réduction effective des pesticides, voire l’agroforesterie.


À lire aussi : Les sept familles de l’agriculture durable


Des initiatives sont en cours pour évaluer l’impact environnemental des produits agricoles et alimentaires. Elles permettent de qualifier les modes de culture et d’élevage en termes d’impacts sur le climat, la biodiversité, en mobilisant la base de données Agribalyse. Elles tiennent compte aussi des services fournis comme la séquestration du carbone, la contribution à la pollinisation des cultures, comme le montre la recherche scientifique.

À ce jour, deux initiatives diffèrent par la manière de prendre en compte les services et de quantifier les impacts. La méthode à retenir dépendra de leur validation scientifique et opérationnelle.

Des bienfaits conjugués

Suivre ces 4V permet de pallier les failles de notre système alimentaire tant pour la santé que pour l’environnement. L’alimentation de type occidental est de fait un facteur de risque important pour le développement de la plupart des maladies chroniques non transmissibles. Les facteurs qui en sont à l’origine sont nombreux : excès de consommation d’aliments ultratransformés, de viandes transformées, de gras/sel/sucres ajoutés, de glucides rapides, manque de fibres, d’oméga-3, d’anti-oxydants, et une exposition trop importante aux résidus de pesticides. Ces maladies sont en augmentation dans de nombreux pays, y compris en France.

Par ailleurs, les modes de production en agriculture sont très dépendants des intrants de synthèse (énergie, engrais, pesticides) dont les excès dégradent la qualité des sols, de l’eau, de l’air, la biodiversité ainsi que la densité nutritionnelle en certains micronutriments.

Nous sommes parvenus à un point où nos modes d’alimentation ainsi que les modes de production agricole qui leur sont associés génèrent des coûts cachés estimés à 170 milliards d’euros pour la France. La nécessité de refonder notre système alimentaire est maintenant reconnue par les politiques publiques.

Un cercle vertueux bon pour la santé et l’environnement

Manger varié encourage la diversification des cultures et le soutien aux filières correspondantes. Il en est de même pour manger vrai, car les industriels qui fabriquent des aliments ultratransformés n’ont pas besoin d’une diversité de cultures dans un territoire. Dit autrement, moins on mange vrai, moins on stimule l’agriculture contribuant à régénérer le vivant. Manger varié est également meilleur pour la santé mais aussi pour le vivant.

Par ailleurs, les pratiques agricoles régénératives permettent généralement d’avoir des produits de plus grande densité nutritionnelle. Même si le mode de production de l’agriculture biologique émet souvent plus de GES par kilo de produit que le mode conventionnel, il suffit de consommer un peu moins de viande pour compenser cet effet.

La règle des 4V (Figure 2) permet donc d’embarquer tous les acteurs du système alimentaire, du champ à l’assiette, ainsi que les acteurs de la santé. Ainsi, adhérer simultanément à vrai, végétal, varié a récemment été associé à une réduction de 27 % du risque de cancer colorectal.

Quant au concept de régénération du vivant, il demeure parlant pour tous les maillons de la chaîne. Vivant, varié et végétal s’adressent aux agriculteurs ; vrai concerne les transformateurs et, in fine, le distributeur qui peut offrir ou non du 4V aux consommateurs. Cette règle des 4V permet ainsi de sensibiliser les acteurs du système alimentaire et les consommateurs aux facteurs à l’origine des coûts cachés de l’alimentation, tant pour la santé que l’environnement.

Enfin, un tel indicateur qualitatif et holistique est facile d’appropriation par le plus grand nombre, notamment les consommateurs, tout en constituant un outil d’éducation et de sensibilisation au concept « Une seule santé » pour l’alimentation, comblant le fossé entre sachants et non-sachants.

The Conversation

Anthony Fardet est membre des comités scientifiques/experts de MiamNutrition, The Regenerative Society Foundation, Centre européen d'excellence ERASME Jean Monnet pour la durabilité, Projet Alimentaire Territorial Grand Clermont-PNR Livradois Forez et l'Association Alimentation Durable. Il a été membre du comité scientifique de Siga entre 2017 et 2022.

Michel Duru est membre du conseil scientifique de PADV (Pour une Agriculture Du Vivant)

08.01.2026 à 17:19

Dermatose nodulaire contagieuse : les vétérinaires victimes d’une épidémie de désinformation

Jeanne Brugère-Picoux, Professeur honoraire agrégée de pathologie du bétail à l’École nationale vétérinaire d’Alfort, Président honoraire de l’Académie vétérinaire de France (2012), Académie nationale de médecine, Académie vétérinaire de France
Jean-Yves Gauchot, Docteur vétérinaire, Président de la Féderation des syndicats vétérinaires de France, Vice-président de l’Académie vétérinaire de France., Académie vétérinaire de France
img
La crise agricole de la dermatose nodulaire contagieuse (DNC) a vu un déferlement inédit de fake news, ciblant en particulier les vétérinaires.
Texte intégral (2448 mots)

Arrivée en France en juin 2025, la dermatose nodulaire contagieuse (DNC) a rapidement fait l’objet de mesures sanitaires qui ont permis d’éradiquer le virus dans certaines régions. Mais la crise agricole qui a suivi a vu émerger une contestation inédite, nourrie par des fausses informations et des remises en cause du rôle des vétérinaires. Dans ce texte, la profession appelle à un « droit de véto » contre la désinformation.


La dermatose nodulaire contagieuse (DNC) a atteint la France en Savoie le 29 juin 2025 à la suite de l’introduction d’un bovin infecté venant d’Italie. La France métropolitaine étant alors indemne de la DNC, la réglementation européenne prévue (dépeuplement total, vaccination d’urgence au sein des zones réglementées (ZR) – instaurées par arrêté préfectoral, limitation des mouvements des bovins…] a été mise en place, ce qui a permis d’éliminer le virus dans la région dès le 21 août.

Les contaminations ultérieures qui ont suivi en France, notamment en Occitanie, sont en réalité le résultat de déplacements illicites de bovins contagieux à partir de la zone réglementée couvrant une partie de l’Ain, de la Savoie et de la Haute-Savoie (zone vaccinale II sur la carte ci-dessous).

Zones réglementées et vaccinales suite aux foyers de DNC en France au 31 décembre 2025. Ministère de l’agriculture, de l’agro-alimentaire et de la souveraineté alimentaire

La forte médiatisation de la DNC associée aux dénonciations de « hold-up politique » par certains éleveurs rappelle de précédentes crises sanitaires (vache folle, grippe aviaire, Covid-19…). Mais à l’époque, la parole des « sachants » n’avait pas été remise en cause dans les mêmes proportions qu’aujourd’hui. Des membres de la profession vétérinaire font l’objet d’insultes, voire de menaces gravissimes, dans certains cas même de menaces de mort.

Cette situation est non seulement surprenante, mais également choquante. Les vétérinaires ont toujours été associés et solidaires avec les éleveurs. Dans le même temps, de fausses informations au sujet de la DNC se propagent dans l’espace médiatique.


À lire aussi : Dermatose nodulaire : comprendre les raisons de la mobilisation agricole


Un déferlement inédit de « fake news »

Parmi les fausses informations que des experts autoproclamés (parmi lesquels on a pu retrouver tant des personnes ayant endossé une posture « antivax » lors de la pandémie de Covid-19 que des scientifiques ou cliniciens méconnaissant la DNC) ont diffusées, non seulement sur les réseaux sociaux mais également dans les médias :

  • « La maladie peut être traitée par des antibiotiques/par l’ivermectine. »

C’est faux. Les antibiotiques ou les antiparasitaires tels que l’ivermectine ne sont pas actifs sur une maladie virale comme la DNC, causée par un Capripoxvirus (Lumpy skin disease virus).

  • « L’Espagne et l’Italie n’ont pas appliqué le dépeuplement total. »

C’est faux. Les autres pays européens confrontés à la DNC, comme l’Espagne et l’Italie, appliquent eux aussi la stratégie d’abattage de tous les bovins présents dans un foyer confirmé de DNC, comme le confirme le ministère de l’agriculture.

  • « La Suisse pratique l’abattage partiel. »

Il n’y a pour l’instant pas eu de cas de DNC confirmé en Suisse, donc pas d’abattage.

  • « Il est inadmissible d’abattre tout un troupeau lorsqu’il y a seulement un animal malade. »

Si un seul animal présente des lésions cutanées, il y a de fortes chances qu’au moins 50 % des animaux soient infectés dans le troupeau. En effet, il est difficile de connaître précisément la date d’infection du bovin. Si celle-ci est antérieure à l’acquisition de la protection vaccinale, alors plusieurs animaux sont potentiellement infectés au sein du troupeau, ce que les tests sanguins ne permettent pas de détecter.

  • « Il faut avoir un troupeau témoin pour surveiller l’évolution de la maladie dans un foyer infecté. »

Ce troupeau « témoin » a existé dès le 6e foyer de DNC déclaré le 7 juillet en France, du fait du recours d’un jeune éleveur de Savoie refusant le dépeuplement de son troupeau. Treize jours plus tard, le recours a été refusé et d’autres cas de DNC se sont déclarés dans son élevage. La forte contagiosité de la DNC pourrait en partie expliquer le grand nombre de foyers de DNC déclarés deux semaines plus tard dans les élevages voisins.

  • La DNC relève de la catégorie A du droit européen, comme la fièvre aphteuse, or « pour la fièvre aphteuse, de nouveaux textes préconisent l’abattage partiel ».

C’est faux. La catégorie A correspond en médecine vétérinaire à une maladie soumise une réglementation sanitaire très stricte lorsqu’il s’agit d’une maladie hautement contagieuse émergent dans un pays indemne. Les conséquences économiques et sanitaires justifient une éradication immédiate dès son apparition.

  • « Le vaccin n’est pas efficace car certains bovins vaccinés ont présenté la maladie malgré tout »

La vaccination en urgence n’est pas une vaccinothérapie. Elle nécessite au moins trois semaines pour installer une protection immunitaire. Elle a pu être réalisée chez des animaux déjà infectés avant ou peu après l’injection vaccinale.

  • « La désinsectisation de l’élevage est la méthode la plus efficace pour éviter la contamination ».

Ce sont certes des insectes hématophages qui sont les vecteurs de la DNC, mais les traitements insecticides ne sont jamais efficaces à 100 %. Il n’existe pas de mesure parfaite permettant d’éradiquer tous les insectes d’un élevage.

  • « 70 vétérinaires ont été radiés de l’Ordre des vétérinaires pour avoir refusé l’abattage du troupeau de l’Ariège ».

C’est faux. Le conseil national de l’ordre des vétérinaires confirme qu’aucun vétérinaire n’a été radié pour avoir refusé un abattage.

  • « Le vaccin est dangereux pour les animaux et l’humain ».

C’est faux, le vaccin est un vaccin dit « vivant atténué » qui ne présente aucun danger ni pour les animaux ni pour l’humain. De plus, la DNC n’est pas une zoonose (maladie animale transmissible à l’humain et réciproquement), mais une épizootie.

  • « Il y a encore des cas de DNC en Savoie ».

Dans cette zone désormais considérée comme indemne de la DNC, il peut s’agir de la pseudo dermatose nodulaire contagieuse (PDNC), due à un herpèsvirus qui évolue très rapidement (en 3 semaines) vers la guérison.

  • « La fédération des vétérinaires européens (FVE) préconise plutôt la vaccination que l’abattage dans la DNC ».

C’est faux : la note de la FVE de novembre 2025 présente une revue générale sur le bénéfice des vaccinations en médecine vétérinaire sans remettre en cause la réglementation européenne concernant les maladies classées dans la catégorie A comme la DNC.

  • « L’EFSA (European Food Safety Autority) avait préconisé un abattage partiel en 2016 lors des premiers foyers de DNC en Europe ».

Cette recommandation de l’EFSA en 2016 correspondait à une évaluation mathématique des moyens à mettre en œuvre dans les pays où la DNC était déjà installée (virus endémique), en l’occurrence les Balkans. Elle ne s’applique pas pour les pays indemnes de DNC soumis à la réglementation européenne, comme c’est le cas en France.

  • « Lors de l’épizootie de DNC observée dans l’île de La Réunion en 1991-1992, il n’y a pas eu de dépeuplement total ».

La flambée de DNC sur l’île de la Réunion a été la conséquence de l’importation de zébus malgaches. Le contexte sur cette île qui n’exportait pas de bovins était toutefois différent de la situation actuelle de la DNC en France métropolitaine. Il y a d’abord eu un retard considérable de plusieurs mois pour identifier formellement la maladie. Le premier vaccin, qui était celui utilisé pour la variole ovine, était peu efficace pour les 18 000 bovins vaccinés (sur les 21 000 bovins recensés sur l’île). La vaccination avec le vaccin bovin sud-africain, bien plus efficace, a été réalisée avec un an de retard. Au total, 511 exploitations ont été atteintes avec 10 % de mortalité.

Les conditions de la sortie de crise

En France, la situation est actuellement sous contrôle dans le Sud-Est, mais elle est encore évolutive en Occitanie, où de rares cas peuvent encore apparaître à la fin de cette épizootie. Ce sera le cas de bovins en incubation, car voisins d’un foyer déclaré et dont l’immunité vaccinale n’est pas encore installée pour le protéger.

Deux autres risques ne peuvent pas être évalués pour prédire la fin de cette épizootie de DNC :

  • un déplacement illicite à partir des ZR actuelles d’animaux apparemment sains, mais qui sont de véritables « bombes virales » à retardement ;

  • la non-déclaration d’un cas de suspicion de DNC par un éleveur (comme un représentant syndical a osé le recommander), alors qu’il convient d’éviter la contamination des élevages voisins.

La principale revendication des agriculteurs, répétée inlassablement dans les médias, est un abattage partiel lors de DNC. Elle témoigne d’une méconnaissance de cette maladie. En effet, on l’a vu plus haut, ce serait mettre en danger les troupeaux indemnes et par-delà, tout le cheptel bovin français. Nous espérons qu’il n’y aura plus de foyers de DNC à partir de mi-janvier 2026, comme ce fut le cas dans les Savoie après la vaccination.

La profession vétérinaire a toujours été proche des agriculteurs. Rappelons que les premières écoles vétérinaires au monde ont été créées en France au XVIIIe siècle pour « lutter contre les maladies des bestiaux ». Ainsi, en unissant nos forces nous avons pu éradiquer de la surface de la Terre en 2001 une autre maladie virale : la peste bovine.

The Conversation

Jean-Yves Gauchot est docteur vétérinaire et président de la Féderation des syndicats vétérinaires de France

Jeanne Brugère-Picoux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

08.01.2026 à 11:45

La marche, premier mode de déplacement en France : ce que disent vraiment les statistiques de mobilité

Frédéric Héran, Économiste des transports et urbaniste émérite, Université de Lille
img
En France, la façon de compter les déplacements minore la part de la marche. Ce biais statistique ancien oriente encore les politiques publiques.
Texte intégral (2744 mots)

Les statistiques de mobilité orientent les politiques publiques. Or en France, la manière de les présenter, héritée des années du tout automobile, minore la part de la marche, ce qui pénalise le développement des mobilités actives. Et si on s’inspirait des approches statistiques déjà déployées ailleurs, par exemple en Suisse, pour mieux comptabiliser le temps passé à marcher ?


Les statistiques ne sont jamais neutres : elles sont le reflet de choix politiques répondant à un contexte historique spécifique. La manière de présenter les résultats des enquêtes statistiques sur la mobilité des personnes en France, qui a déjà 50 ans, n’échappe pas à cette règle. Elle conduit à sous-estimer fortement les déplacements à pied, au risque de continuer à favoriser des politiques en faveur des modes de déplacement motorisés.

Il est grand temps de réformer cet usage, comme l’a fait la Suisse il y a déjà 30 ans, si l’on souhaite redonner aujourd’hui davantage de place aux mobilités actives, tant pour des raisons sociales, économiques qu’environnementales.

Pour rappel, la marche est le mode de déplacement le plus inclusif, le plus démocratique et le moins nuisible à l’environnement, et pas seulement dans le cœur des grandes villes.


À lire aussi : Atteindre les objectifs climatiques améliorera aussi la santé publique


Ce que disent les statistiques sur la mobilité

En France, depuis la standardisation des enquêtes sur la mobilité des personnes en 1976, les déplacements sont généralement présentés sous forme de « parts modales ». Il s’agit des parts, sur l’ensemble des déplacements comptabilisés, réalisées avec chaque mode de déplacement : voiture, deux-roues motorisé, transports collectifs, vélo, marche…

Évolution des parts modales en France, entre 1982 et 2019, pour les déplacements en semaine. Dernières enquêtes nationales sur la mobilité des personnes

Dans les présentations classiques des données recueillies, la part modale de la marche apparaît très inférieure à celle de la voiture. Pourtant, quand on regarde l’autre grande source statistique que représentent les enquêtes sur la mobilité réalisées dans les grandes villes, les déplacements à pied dominent dans les centres-villes, et parfois également dans les banlieues denses de la proche périphérie. Mais partout ailleurs, c’est largement le contraire et le triomphe de la voiture apparaît ainsi incontestable.

Voitures stationnées directement sur le trottoir, ce qui empêche de l'utiliser. Fourni par l'auteur

En conséquence, pour qui découvre ces statistiques ainsi présentées , dans la plupart des territoires, il paraît nécessaire de s’occuper en priorité des voitures, de leur accorder davantage de place pour circuler et stationner, même si cela doit se faire au détriment des espaces publics, des trottoirs, des places publiques et autres terre-pleins.

Ce qu’oublient de préciser ces représentations

Examinons ces chiffres de plus près. En réalité, ce qu'on nomme habituellement la « part modale de la marche » ne concerne que la « marche exclusive », c’est-à-dire les déplacements entièrement faits à pied, par les résidents, sur l’espace public et hors du temps de travail.

Par convention, on oublie ainsi :

  • la marche intermodale, c’est-à-dire les déplacements à pied pour rejoindre ou quitter un transport public ou une place de stationnement pour voiture, vélo ou deux-roues motorisé,

  • la marche effectuée dans des espaces privés ouverts au public, comme les centres commerciaux ou les gares,

  • la promenade ou la randonnée,

  • la marche pendant le travail, y compris quand elle est effectuée sur l’espace public, qui est pourtant très importante dans certaines professions,

  • la marche au domicile pour effectuer toutes sortes d’activités : du ménage au jardinage, en passant par le bricolage, etc.,

  • enfin, la marche réalisée par les visiteurs (touristes et autres non-résidents) du territoire.


À lire aussi : Mobilité : et si on remettait le piéton au milieu du village ?


Comment expliquer une approche si restrictive ?

Les conventions statistiques sur la mobilité ont été élaborées dans les années 1960-1970 à l’époque du « tout automobile », puis des premiers efforts réalisés pour relancer les transports publics. Dans ce contexte, il fallait avant tout prévoir et dimensionner la voirie pour absorber un trafic motorisé fortement croissant, les piétons étant très peu considérés et les cyclistes censés disparaître.

Par convention dans les enquêtes sur la mobilité, un déplacement, c’est une personne qui va d’un lieu d'origine à un lieu de destination, avec un ou plusieurs modes et pour un motif particulier. Les modes sont hiérarchisés avec priorité aux plus lourds : d’abord les transports publics, puis la voiture, puis les deux-roues et enfin la marche.

Autrement dit, si une personne se rend à pied à un arrêt de bus, prend le bus, puis termine son trajet à pied, le déplacement est considéré comme ayant été fait en transport public et la part de marche est tout simplement ignorée. Dans cette approche, la marche devient un « résidu » statistique, c’est-à-dire ce qui reste une fois qu’on a pris en compte tous les autres modes de déplacement. Pourtant, les usagers des transports publics passent environ la moitié de leur temps à pied à marcher ou à attendre.


À lire aussi : Réduire l’empreinte carbone des transports : Quand les progrès techniques ne suffisent pas


Ces pays qui comptabilisent les déplacements différemment

Or, cette représentation des statistiques de déplacement en France est loin d’être la seule possible.

En Suisse par exemple, depuis une réforme des statistiques de la mobilité introduite en 1994, les résultats des enquêtes de mobilité sont présentés sous trois angles différents : les distances parcourues, le temps de trajet et le nombre d’étapes.

Par étape, on entend ici les segments d’un déplacement effectués à l’aide d’un seul mode de transport. Un déplacement en transport public, par exemple, compte le plus souvent une première étape à pied, puis une deuxième en transport public et une troisième à nouveau à pied : on parle de marche intermodale.

Ainsi, en 2021, en ne tenant compte que de la marche exclusive et de la marche intermodale, les Suisses ont passé chaque jour plus de temps à pied qu’en voiture.

Parts modales des moyens de transport utilisés en Suisse en 2021. Office fédéral de la statistique suisse

Ailleurs, on réfléchit aussi à d’autres manières de présenter les résultats des enquêtes sur la mobilité, comme en Belgique ou au Royaume-Uni.

En réalité, 100 % de nos déplacements intègrent au moins une part de marche, même minimale lorsqu’il s’agit par exemple de simplement sortir de sa voiture sur le parking de son lieu de travail. La marche est à l'origine de toutes les autres formes de mobilité et les autres modes ne sont que des « relais du piéton ». Parce que nous sommes des bipèdes, la marche est évidemment notre premier mode de déplacement.

Vers une nouvelle approche en France ?

La France peut-elle changer sa façon de présenter les statistiques de mobilité, dans le sillage de ce que propose la Suisse ?

Pour prendre conscience de l’importance journalière de la marche, il convient de l’aborder en temps de déplacement total à pied. Une récente étude de l’Ademe révèle que nous passons chaque jour une heure et douze minutes à pied, soit beaucoup plus que la durée moyenne passée en voiture chaque jour, qui est de 37 minutes.

Ces résultats montrent aussi que la prise en compte de la marche intermodale augmente de 75 % la durée de la seule marche exclusive (dite « déplacements locaux intégralement à pied » dans le graphique ci-après). En tenant compte de tous les temps consacrés à se déplacer, la marche est sans conteste le premier mode de déplacement, loin devant la voiture.

Cette étude repose sur l’utilisation de deux enquêtes existantes mais sous-exploitées (l’enquête mobilité des personnes et l’enquête emploi du temps des Français) et en adoptant plusieurs hypothèses prudentes.

En quelques centaines de milliers d’années d’évolution humaine, la bipédie s’est hautement perfectionnée. Elle a permis de libérer nos mains, nous a rendus très endurants à la course et a contribué à développer notre cerveau. Puis, en 150 ans seulement avec l’avènement du transport motorisé, la marche utilitaire quotidienne s’est effondrée.

Pourtant, de par notre constitution, marcher régulièrement est essentiel pour rester en bonne santé, pour bien grandir, vivre mieux et bien vieillir. C’est un enjeu de santé publique. C’est pourquoi, il convient de réaliser des espaces publics confortables, de libérer les trottoirs du stationnement sauvage et autres obstacles, de ménager des traversées piétonnes sécurisées et de calmer la circulation automobile, sa vitesse et son volume. Pour appuyer de telles politiques, encore faudrait-il revoir notre manière de représenter la marche dans les résultats des enquêtes de mobilité.

The Conversation

Frédéric Héran est membre du conseil d’administration de l'association et groupe de réflexion Rue de l’Avenir

08.01.2026 à 11:45

Peut-on encourager le covoiturage avec des subventions locales ?

Guillaume Monchambert, Maître de conférences en économie, Université Lumière Lyon 2
img
Si le premier bilan des subventions locales au covoiturage demeure encourageant, il masque en vérité plusieurs aspects.
Texte intégral (1743 mots)
Les personnes qui bénéficient des subventions locales pour le covoiturage ne sont pas toujours d’anciens automobilistes solos. Cette réalité limite donc les bénéfices de ces aides. Rawpixel.com/Freepik, CC BY

Le covoiturage est souvent perçu comme une des façons les plus simples de baisser les émissions de gaz à effet de serre des transports. Si le premier bilan des subventions locales visant à généraliser cette pratique est encourageant, il masque en vérité plusieurs aspects.


Face à l’urgence climatique et aux embouteillages chroniques des métropoles françaises, les pouvoirs publics cherchent des solutions pour réduire l’usage de la voiture individuelle. Les automobiles des particuliers sont la principale source des émissions de gaz à effet de serre du transport en France. Elles sont également émettrices de particules fines qui dégradent la qualité de l’air et augmentent les risques de maladies respiratoires et cardiovasculaires.

Face à cette réalité, le covoiturage est une piste qui suscite beaucoup d’espoir, car elle ne nécessite pas d’infrastructures lourdes supplémentaires, s’appuyant sur des ressources existantes de véhicules et de conducteurs. Parmi les solutions incitatives, les aides financières locales au covoiturage, notamment via des plateformes numériques, se développent depuis 2019. Mais ces subventions encouragent-elles vraiment plus de covoiturage ? Et quels sont les gains environnementaux dus à ces subventions ?

Des résultats probants, mais variables selon les territoires

La loi d’orientation des mobilités (LOM), promulguée en 2019, autorise les autorités organisatrices de mobilité à verser une incitation financière aux conducteurs et passagers d’un trajet en covoiturage. Le versement de cette subvention s’effectue principalement via des plateformes numériques qui organisent le covoiturage. La subvention moyenne pour un déplacement en covoiturage de 22 kilomètres s’élève à 1,60 euros.

Pour voir si ce levier est efficace, un jeu de données est précieux : celui du registre de preuve de covoiturage. Il centralise les données de trajets transmises par les plateformes partenaires. Notre étude récente utilise ces données pour mesurer la pratique du covoiturage organisé via plateforme dans 1 123 collectivités locales françaises entre 2019 et 2024.

Elle révèle que ce levier est effectivement puissant. En moyenne, l’introduction d’une subvention locale attribuée pour chaque déplacement augmente d’environ 5 trajets mensuels le nombre de trajets de covoiturage à courte distance (inférieurs à 80 kilomètres) sur plateforme pour 1 000 habitants concernés. Chaque euro de subvention supplémentaire par déplacement génère près de 4 trajets mensuels additionnels par 1 000 habitants. Autrement dit, les finances publiques locales, investies dans ce type d’incitation, produisent un effet tangible et mesurable sur le terrain.

Ce résultat masque cependant une forte diversité. L’effet des subventions est nettement plus marqué dans les zones urbaines denses et peuplées. À l’inverse, dans les territoires peu denses et ruraux, la subvention n’a quasiment aucun effet, traduisant les difficultés du covoiturage à s’implanter sans une masse critique d’usagers. Cette disparité met en lumière le rôle central des effets de réseau propres aux plateformes numériques : plus il y a d’utilisateurs, plus elles deviennent utiles, ce qui amplifie l’impact des subventions.

D’autres réalités doivent également être soulevées pour comprendre l’efficacité ou non de ces subventions, notamment du point de vue environnemental.

L’effet d’aubaine : inciter ceux qui viendraient de toute façon

L’effet d’aubaine se produit lorsque des utilisateurs auraient covoituré via la plateforme même en l’absence de toute subvention. Par exemple, un salarié habitué à organiser son covoiturage quotidien sur une application continue simplement à le faire, mais touche désormais une prime financière.

Ici, la dépense publique n’a donc pas changé son choix ni augmenté le nombre total de trajets partagés, ce qui dilue l’efficacité de la politique.

L’effet d’opportunité : attirer les covoitureurs informels sans créer de nouveaux trajets

L’effet d’opportunité correspond lui aux covoitureurs qui, sans subvention, auraient continué à partager leurs trajets en dehors des plateformes numériques (par exemple via le bouche-à-oreille ou des groupes privés). Lorsque la subvention est instaurée, ils transfèrent leur pratique sur la plateforme pour bénéficier des aides. Ainsi, le volume de trajets enregistrés croit artificiellement, sans que la part réelle du covoiturage dans la mobilité globale n’augmente. Par exemple, deux voisins qui organisaient ensemble leur trajet en voiture hors plateforme rejoignent l’application pour percevoir la prime, sans modification de leur habitude de déplacement. Une enquête du Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) montre qu’un tiers des nouveaux covoitureurs attirés par les dispositifs d’incitation financière covoituraient déjà avant la mise en place de l’incitation.

Le report modal : comprendre d’où viennent les nouveaux passagers

Le facteur le plus décisif concerne cependant les sources du report modal : il s’agit d’identifier le mode de transport qu’un passager du covoiturage aurait utilisé si la subvention n’existait pas. Contrairement à l’idée reçue, une grande partie des nouveaux passagers du covoiturage issu de la subvention ne sont pas d’anciens automobilistes solo, mais d’anciens usagers du transport collectif (bus, train) ou parfois des modes actifs (comme le vélo ou la marche).

Prenons l’exemple d’une passagère qui renonce au TER pour un trajet covoituré subventionné : cela ne retire pas une voiture de la circulation, et les bénéfices pour la réduction des émissions sont nettement moindres que si elle avait quitté la voiture solo.

D’après l’enquête nationale sur le covoiturage pilotée par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), 35 % des passagers du covoiturage courte distance via plateforme faisaient le déplacement en transports en commun avant de pratiquer le covoiturage, 11 % utilisaient un mode actif et 10 % ne faisaient pas ce trajet. Ce constat est valable tant pour le covoiturage court que longue distance, freinant fortement l’effet net de la politique sur les émissions de gaz à effet de serre.

Combien coûte réellement la tonne de CO₂ évitée ?

Pour obtenir une mesure de l’impact net des subventions, il est donc indispensable de corriger les chiffres bruts du nombre de trajets en tenant compte de ces trois effets. Selon notre étude, ces phénomènes expliquent qu’entre un tiers et la moitié de l’augmentation observée n’est pas associée à une réelle réduction de l’autosolisme ou des émissions.

Une manière de mesurer l’efficacité d’une politique de réduction des émissions de gaz à effet de serre, et de la comparer à d’autres politiques, est de calculer le montant nécessaire pour éviter l’émission d’une tonne de CO2. Dans le cas du covoiturage, chaque tonne de CO2 évitée coûte à la collectivité entre 1 000 et 1 300 euros en subventions.

Ce chiffre se situe dans la fourchette haute des instruments de politique climatique en Europe, ce qui dénote une efficacité très relative. À titre de comparaison, le dispositif d’encouragement de l’adoption de la motorisation électrique a un coût pour les finances publiques de l’ordre de 600 euros par tonne de CO₂ évitée.

Vers une stratégie de long terme, ciblée et combinée

Ces résultats montrent bien la nécessité de concevoir des politiques qui ciblent précisément les changements de comportement les plus à même de réduire les émissions de CO2. Ces politiques seront d’autant plus efficaces qu’elles convainquent des autosolistes d’abandonner leur voiture pour covoiturer en tant que passager. Pour cela, des stratégies combinées seront nécessaires : incitations financières, infrastructures adaptées comme les voies réservées, développement de l’intermodalité…

Enfin, l’effet des subventions croissant dans le temps et le développement de la pratique du covoiturage invitent à une vision de long terme, loin des mesures ponctuelles d’effet d’annonce.

The Conversation

Guillaume Monchambert est membre du conseil scientifique de la Société des Grands Projets (SGP). Il a reçu des financements de la Région Auvergne-Rhône-Alpes (Projet Covoit’AURA) et de la BPI (projet Mobipart). Il a effectué des activités de conseil pour SNCF Réseau et SNCF Voyageurs.

07.01.2026 à 17:56

Microcapteurs pour suivre la qualité de l’air : gadgets ou véritables outils de suivi ?

Marie Bellugue Duclos, Doctorante, Université Paris-Saclay
Denis Machon, Professeur, INSA Lyon – Université de Lyon
Michael Canva, Directeur de recherche, Centre national de la recherche scientifique (CNRS); Université de Sherbrooke
img
Les microcapteurs ont démocratisé le suivi de la qualité de l’air. Mais leur performance est variable : à quelles conditions peuvent-ils fournir une information utilisable ?
Texte intégral (2994 mots)

Le suivi de la qualité de l’air s’est grandement démocratisé grâce à l’essor de microcapteurs électroniques accessibles à tout un chacun. Ces dispositifs sont-ils performants, et à quelles conditions peuvent-ils fournir une information utilisable ? État des lieux.


La pollution de l’air extérieur peut être liée au trafic routier, au chauffage au bois, aux activités industrielles ou encore aux feux de forêt et aux éruptions volcaniques. La diversité des particules qui en résulte illustre bien la nature diffuse et mobile de cette pollution. Celle-ci a des conséquences graves en termes d'effets sur la santé, allant des troubles respiratoires immédiats à des maladies chroniques incurables.

Selon l’Organisation mondiale de la santé (OMS), la pollution de l’air, tous polluants confondus, est responsable de 7,4 millions de décès par an dans le monde dont 4,2 millions liés à l’air extérieur et 3,2 millions à l’air intérieur. En France, le fardeau sanitaire des particules fines entraînerait à lui seul 40 000 décès chaque année, et est associés à un coût socio-économique estimé à 13 milliards d’euros.

Aujourd’hui, suivre la qualité de l’air auquel chacun est exposé n’a jamais été aussi simple. En quelques clics, il devient possible d’acheter des microcapteurs, d’accéder à des cartes en ligne ou de télécharger des applications mobiles fournissant un accès à ces données en temps réel. Tout comme la météo guide le choix de prendre un parapluie, cet accès offre aujourd’hui aux citoyens et aux décideurs un outil pratique pour orienter leurs actions.

Pourtant, derrière cette démocratisation, se pose la question de la performance de ces microcapteurs opto-électroniques. S’agit-il vraiment de sentinelles de confiance ? Faisons le point.


À lire aussi : Le potentiel oxydant : un nouvel indice pour mesurer la pollution atmosphérique


Des microcapteurs dans l’air du temps

Commençons par rappeler comment est menée la surveillance réglementaire de la qualité de l’air en France. Elle est coordonnée par le Laboratoire central de surveillance de la qualité de l’air (LCSQA) et mise en œuvre au niveau régional par les associations agréées pour la surveillance de la qualité de l’air (AASQA). Les données, librement accessibles grâce au site régional des AASQA, sont produites selon des protocoles normés afin de s’assurer qu’elles soient comparables d’une station de mesure à l’autre et d’une région à l’autre.

Exemple de station de mesure officielle de la qualité de l’air. Michael Coghlan, CC BY-SA

Toutefois, le nombre de stations de mesure mises en place résulte d’un compromis entre couverture géographique et coûts. La modélisation, basée sur les modèles Chimere ou Sirane par exemple, permet d’extrapoler la qualité de l’air sur un territoire donné, mais elle reste dépendante de la qualité et du nombre des mesures locales.

Afin de renforcer la couverture sans augmenter les coûts, la directive européenne, dont la réglementation française découle, autorise les réseaux de surveillance réglementaire à procéder à des mesures indicatives, pour lesquelles les exigences de qualité sont plus souples. Ce cadre favorise l’intégration des microcapteurs de 10 à 100 fois moins coûteux que les équipements utilisés pour les stations de référence, tant à l'achat qu’en fonctionnement.

Ce marché a le vent en poupe. En 2023, il pesait plus de 6 milliards d’euros, marché qui pourrait s’élever en 2032 à 13,5 milliards. En 2022, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) dénombrait 60 000 références produits disponibles sur les plateformes de vente en ligne.

On y retrouve donc des microcapteurs à bas coût prêts à l’emploi capables de collecter et de transmettre les données en temps réel. Le prix des composants se limite à quelques dizaines d’euros, tandis que le coût total du dispositif varie d’environ une centaine à plusieurs milliers d’euros selon les fonctionnalités.

Une mesure facile, mais une interprétation parfois délicate

Que valent ces différents types de microcapteurs ? Pour le savoir, il faut d’abord définir ce que l’on souhaite mesurer lorsqu’on parle de particules fines. Loin d’être un mélange défini, les particules dans l’air forment un ensemble hétérogène et variable par leur forme, leur taille et leur état.

Trois catégories se distinguent :

  • les hydrométéores (pluie, neige, brouillard),

  • les aérosols (suie, poussières, embruns, composés organiques…)

  • et les bioaérosols (pollens, bactéries, virus, spores…).

Par convention, la matière particulaire en suspension (ou Particulate Matter, PM) est décrite en fonction de la taille de ses constituants, dans lesquels les hydrométéores doivent être exempts. Ainsi, par convention, les particules grossières PM10, les particules fines PM2,5 et les particules ultrafines PM0,1 représentent respectivement des ensembles hétérogènes de taille inférieure ou égale à 10, 2,5 et 0,1 micromètre (µm).

Plus les particules sont petites, plus elles sont susceptibles de pénétrer profondément dans les voies respiratoires. Les PM1,0 peuvent être également suivies par des microcapteurs et des équipements de référence, mais elles ne font pas l’objet d’une réglementation spécifique ni ne sont associées à des seuils sanitaires!


À lire aussi : Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?


Or, les microcapteurs bas coût pour le suivi des particules, dont la mesure est basée sur leur comptage grâce à un principe optique, sont sensibles aux conditions environnementales et aux caractéristiques des particules, ce qui fragilise les performances. Leur fonctionnement repose sur la diffusion de la lumière par le passage d’une particule à travers un faisceau laser. Il s’agit du même principe qui rend visible un rayon lumineux dans la fumée. L’intensité détectée dans une direction donnée dépend de la taille, de la forme, de la composition et de l’orientation des particules.

Il faut également noter que ces microcapteurs sont calibrés avec des particules de polystyrène, loin de refléter l’hétérogénéité réelle de la pollution de l’air extérieur. S’ajoutent à cela leur encrassement et leur vieillissement, qui dégradent les performances dans le temps. L’interprétation des données exige donc une connaissance fine de ces limites.

Des données précieuses… mais sous conditions

Pour autant, les microcapteurs ne sont pas à exclure. En effet, en cas d’épisode de pollution, ils détectent les mêmes tendances que les stations réglementaires, justifiant leur usage pour des mesures indicatives.

Pour s’y retrouver, les organismes pour la surveillance de la qualité de l’air ont mené des évaluations en confrontant les microcapteurs aux équipements réglementaires. Accessibles en ligne, les résultats du challenge Airlab (Airparif, France) et de l’AQ-SPEC (South Coast AQMD, États-Unis) révèlent des corrélations satisfaisantes entre microcapteurs et ces équipements pour les PM1,0 et PM2,5. En revanche, elles sont moins bonnes pour les PM10 , car la conception des microcapteurs et le principe de la mesure ne permettent pas de bien les détecter.

Ces microcapteurs peuvent être achetés autant par des citoyens, des collectivités, des industriels, des associations ou des chercheurs. Tous ces acteurs peuvent publier leurs données sur des cartes interactives, ou y contribuer ponctuellement.

Contrairement aux cartes des AASQA, qui sont comparables entre elles grâce à des protocoles stricts, chaque plateforme adopte sa propre présentation.

Il est donc essentiel de bien comprendre l’information affichée : les points de mesure peuvent fournir une information visuelle qui représente une concentration (Atmotube par exemple) ou un indice de qualité de l’air (IQAir par exemple) avec un jeu de couleurs propre aux plate-formes comme des données chiffrées sans repère pour interpréter la donnée (OpenSenseMap par exemple). De plus, selon les plateformes, une même carte peut afficher tout un ensemble d’indicateurs de pollution de l’air, pas seulement ceux liés à un polluant spécifique comme les particules.

D’un service à l’autre, les cartes de la qualité de l’air peuvent varier considérablement, comme le montre cette comparaison du 17/11/2025 à 05h00 entre les cartes disponibles via IQAir (en haut) et Waqi (en bas). IQ Air/Waqi.info

Par ailleurs, peu de plateformes précisent si les mesures sont faites en intérieur, en extérieur, en mobilité ou en point fixe. De plus, une donnée en temps réel et une donnée moyennée sur une période donnée ne sont pas comparables. De ce fait, pour une même zone géographique, la qualité de l’air affichée peut varier d’une plateforme à l’autre, selon l’emplacement de la mesure, l’indicateur utilisé et la période considérée. En France, les données des AASQA restent la référence pour une information de confiance.

Les microcapteurs n’en restent pas moins des sentinelles utilisables sous réserve d’une excellente maîtrise de leurs limites. L’utilisation individuelle de microcapteurs par le grand public peut être encadrée par un protocole rigoureux pour assurer la qualité des données et accompagner leur interprétation. Le projet d’OpenRadiation, qui porte sur la mesure de la radioactivité, en est un exemple : lorsqu’une mesure faite par l’utilisateur d’un microcapteur apparaît inhabituelle sur la carte, un gestionnaire contacte alors ce contributeur pour comprendre l’origine de cette déviation. La cartographie de la qualité de l'air s'appuie sur une plus grande quantité de microcapteurs, ce qui rend plus difficile un suivi individualisé. Néanmoins, une validation des données à l’instar de ce qui est réalisé pour le suivi réglementaire pourrait être envisagée à l’aide d’un traitement adapté, avec un filtrage par exemple.

Ainsi, comme en témoignent la Captothèque (Atmo Auvergne-Rhône-Alpes) ou Ambassad’air (Rennes), programmes de sciences participatives basés sur la mesure citoyenne de la qualité de l’air, les microcapteurs peuvent non seulement fournir des indications, mais aussi contribuer à l’engagement citoyen pour l’observation environnementale.


À lire aussi : Ces citoyens qui mesurent la radioactivité de leur environnement


The Conversation

Marie Bellugue Duclos a reçu des financements du CNRS pour sa thèse. Elle utilise des micro-capteurs pour ses recherches.

Denis Machon a reçu des financements du CNRS et de l'ANR (France), du CRSNG (Canada) et du FRQ (Québec).

Michael Canva a reçu des financements du CNRS et de l’ANR (France), du CRSNG (Canada) et du FRQ (Québec).

07.01.2026 à 11:39

Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles

Jordy Bony, Docteur et Professeur en droit à l'EM Lyon, EM Lyon Business School
img
Humusation, aquamation, terramation : ces pratiques funéraires s’invitent désormais dans le débat législatif français à travers une proposition de loi récente.
Texte intégral (1249 mots)

Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.


L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.

Quel est l’objet de cette nouvelle proposition de loi ?

La proposition de loi no 2297 portée par le député LFI François Piquemal (4ᵉ circonscription de Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté « contrainte » puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.

Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).

Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.

Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.

Une proposition inspirée par l’actualité internationale du droit funéraire

Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.

Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.

La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »

La situation en France

Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.

À défaut de pouvoir supprimer le cercueil, certains réfléchissent à le rendre plus vert. À Saint-Étienne, la jeune entreprise Pivert Funéraire a ainsi créé un modèle pour crémation fabriqué à partir de déchet des industries sylvicoles et oléicoles.

D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent « Cercueil(s) & droit(s) », qui s’est tenu à l’Université Toulouse Capitole, le 28 novembre 2025.

D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui a lieu dans l’Essonne à travers le projet ANR F-Compost.

En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets, comme celui porté par cette proposition de loi, puissent voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de cent ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…

The Conversation

Jordy Bony a travaillé avec le comité de recherche de l'association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.

06.01.2026 à 16:53

Du sauveur à l’éboueur : comment les lycéens perçoivent leurs éco-délégués

Lise Trégloze, Doctorante au Centre de Recherche sur l’Éducation, les Apprentissages et la Didactique, Université Rennes 2
img
Depuis cinq ans, les élèves du secondaire doivent élire des éco-délégués dans chaque classe. Dans les faits, cela n’est pas toujours respecté et les perceptions quant à leur rôle peuvent beaucoup varier.
Texte intégral (3207 mots)

Voilà cinq ans que les élèves du secondaire ont l’obligation d’élire des éco-délégués dans chaque classe. Dans les faits cependant, cette intention n’est pas toujours respectée, et les perceptions quant à leur rôle varient fortement d’un établissement à l’autre.


À quoi servent les éco-délégués ? « Je ne sais pas », « aucune idée », « on n’a pas d’infos », ont répondu la moitié des 380 lycéens interrogés au sujet de leur expérience de l’éducation au développement durable dans leur lycée. Pourtant, chaque établissement scolaire a l’obligation d’organiser l’élection d’au moins un éco-délégué par classe, et ce depuis 2020.

Considérés comme les « pivots du développement durable dans les établissements », l’État les exhorte à devenir les « acteurs du changement » au sein d’un « peuple de colibris », à travers la voix de Jean-Michel Blanquer, alors ministre de l’éducation nationale.

Cinq ans après cette mise en place obligatoire des éco-délégués, « la tension entre ces injonctions et les réalités du terrain » déjà évoquée en 2023 par les chercheuses Évelyne Bois, Aurélie Zwang et Mandarine Hugon, est toujours palpable.


À lire aussi : Être éco-délégués au collège ou au lycée : quels moyens d’action ?


Un bilan difficile à dresser en l’absence de données officielles

Le ministère de l’éducation nationale affiche certes l’ambition de 250 000 éco-délégués et promeut des ressources et dispositifs d’appui (guides pratiques, prix de l’action de l’éco-délégué, etc.). Cependant, aucun recensement officiel n’est disponible, ni à l’échelle de la direction de l’évaluation, de la prospective et de la performance (DEPP), ni à celle des académies, ni même parfois à celle des établissements. Il est donc compliqué de savoir si chaque classe compte actuellement une ou un éco-délégué. Le travail de terrain nous permet toutefois de déceler que cette obligation n’est pas toujours suivie dans les faits.

Pour tenter de comprendre malgré tout le rôle effectif des éco-délégués, plusieurs ressources sont néanmoins disponibles :

  • une enquête menée en 2023-2024 en région Bretagne auprès d’établissements engagés dans des projets d’éducation au développement durable (EDD), relevant de l’éducation nationale ou de l’enseignement agricole, du secteur public ou privé, de la voie générale ou professionnelle.

  • les quelques travaux existants en science de l’éducation sur l’engagement des éco-délégués.

  • un discret et polémique rapport parlementaire portant sur l’animation des éco-délégués.

À la rencontre des éco-délégués

Des 380 répondants au questionnaire administré auprès de lycéens de Bretagne, 85 % indiquent la présence d’éco-délégués dans leur établissement, même au sein d’un lycée n’ayant pas encore mis en place le dispositif. Moins de 5 % déclarent être eux-mêmes éco-délégué au moment de l’enquête.

À la question « Quelles sont les activités menées par les éco-délégué·es ? », la réponse la plus fréquente (52 %) est donc « Je ne sais pas » ou sans réponse. La question étant ouverte, nous avons pu classer les réponses détaillées des 173 élèves ayant une idée des activités menées. Trois catégories d’acteurs peuvent alors se distinguer dans leurs perceptions du rôle des éco-délégués.

  • Les « agents du changement » (30 %) : les éco-délégués sont avant tout perçus comme les prescripteurs des éco-gestes : ils « trouvent des activités sympas pour insister à ne pas polluer », note une lycéenne. Ils développent, souvent à l’aide de prestataires extérieurs, des nudges inspirés des théories du comportement, pour inciter à la préservation des ressources : une « affiche pour éteindre la lumière », un « autocollant qui se complète que lorsque l’on ferme la fenêtre », un « totem pour recycler le papier »… avec plus ou moins d’efficacité.

Ils peuvent aussi investir des espaces spécifiques, comme un potager, un jardin, un « club nature », ou contribuer à végétaliser la cour. Ils se réunissent souvent le midi, seul temps disponible pour les enseignants comme pour les élèves.

L’éco-délégué est parfois identifié comme l’ambassadeur dont on attend qu’il soit : celui qui « explique les actions et réfléchit à de nouvelles stratégies », qui « présente et propose les projets et motive les élèves », résument des enquêtés. Sa mission de sensibilisation peut progressivement consister à « s’interroger », « trouver des idées pour améliorer le monde pour plus tard », voire à « donner des cours aux camarades », énumèrent d’autres lycéens. Leurs actions « parfois petites mais qui font grandir le lycée » sont vues avec bienveillance. Ils contribuent à « améliorer la vie en communauté pour ne pas avoir à souffrir plus tard », assure une élève. Ils peuvent être perçus comme des innovateurs et apporter des solutions pour « sauver notre terre et l’améliorer », comme l’indique une éco-déléguée.

De façon très marginale, des actions en dehors de la sphère environnementale qui domine les discours sont parfois citées : comme de la sensibilisation sur le handicap, la mise en place de produits d’hygiène féminine ou des « boîtes à livres ».

  • « Les importuns inutiles » (5 %) : Pour certains, les éco-délégués ne font « rien », ou « pas grand-chose ». Leurs rencontres sont identifiées comme l’occasion de « rater les cours pour faire des réunions souvent inutiles » ou pour lesquelles « nous n’avons aucun retour », déplore un élève. Les élèves d’un lycée agricole public en zone rurale sont parmi ceux qui ont les mots les plus durs : les éco-délégués « nous cassent les oreilles » ou sont là « pour faire joli et apporter des idées qui n’aboutissent jamais ».

  • « Les opérateurs de tri » (13 %) : Les éco-délégués ramassent, trient, nettoient, compostent, luttent contre le gaspillage, construisent des poubelles, font des « clean walk » dans leurs lycées, dans leurs villes, sur les plages… Les déchets identifiés sont ceux qui sont visibles, comme le papier ou les mégots, alors que les déchets numériques qui ne cessent de croître ne sont pas mentionnés.

Agir sur les déchets demeure l’activité concrète la plus citée dans l’enquête : qu’elle soit l’unique action ou bien associée à d’autres, perçue de façon conforme aux attendus d’un éco-délégué « acteur du changement » ou de manière plus critique, comme chez ce lycéen qui ironise. « Ils ramassent les poubelles, on ne sait pas s’ils sont délégués ou éboueurs. »

Rappelons que la gestion des déchets dans un établissement scolaire public est une attribution des collectivités qui gèrent les bâtiments. Les projets des éco-délégués peuvent donc impliquer la collaboration d’agents de la collectivité qui sont rarement consultés et, au final, souvent dans l’incapacité de donner suite aux projets commencés, comme la création de composts abandonnés l’année suivante faute de personnel identifié pour les gérer. Il en est de même avec les actions des élèves autour des économies d’énergie dont la portée reste limitée face au défi que représente la rénovation énergétique des bâtiments scolaires, décidée à un tout autre niveau.

Sans remettre en cause l’importance de la gestion des déchets pour la cause écologique et sociale, nous pouvons cependant nous questionner sur l’intérêt d’en faire la mission principale des éco-délégués. Peu de réflexions sur l’origine de ces déchets (surconsommation, obsolescence programmée, mauvaise qualité, réglementation non respectée) ont été observées. Or, sans remise en cause du système à l’origine de la production de ces déchets, les éco-délégués risquent bien de n’occuper qu’une « fonction utilitariste au service des politiques libérales de croissance », pour reprendre les termes des chercheurs Jean-Marc Lange et Angela Barthes.

Un fort effet établissement

Le dispositif des éco-délégués peut également être perçu de manière très différente selon les contextes d’établissements. Dans l’enquête de terrain, les élèves de l’enseignement agricole considèrent les éco-délégués comme des « agents du changement » ou des « opérateurs du tri » dans une proportion supérieure aux attentes. Les élèves de l’éducation nationale suivant une voie de formation générale sont eux beaucoup plus que prévu à répondre ne pas savoir quelles sont les missions des éco-délégués.

Plus surprenant, les élèves d’un lycée pourtant labellisé « établissement en démarche de développement durable (E3D) » et ceux ayant participé à un projet régional sur les ODD (Objectifs de développement durable définis par les Nations unies) sont ceux qui affichent le plus haut pourcentage des « Je ne sais pas » (79 % et 70 %). À l’inverse, les élèves d’un lycée n’ayant pourtant pas encore organisé d’élections d’éco-délégués sont ceux qui les considèrent le plus comme « agents du changement » (49 %).

Perception du rôle des éco-délégués par type d’établissement. Fourni par l’autrice Lise Trégloze

L’analyse du questionnaire indique par ailleurs que les perceptions des activités des éco-délégués ne varient pas significativement selon le genre, le niveau scolaire ni même selon le vécu scolaire : les élèves se déclarant en réussite ou en échec scolaire et les élèves déclarant avoir une expérience positive ou négative de leur scolarité ont des taux de réponse équivalents. Ainsi, l’effet établissement semble agir plus que le profil socio-scolaire des élèves sur leur perception du rôle de l’éco-délégué. Ces premiers résultats mériteraient cependant d’être consolidés à une échelle plus importante.

Enfin, qu’elle soit conforme aux prescriptions du ministère, restreinte aux déchets ou plus critique, la perception du rôle des éco-délégués se cantonne à la sphère écologique. Les systèmes politiques et économiques à l’origine de l’épuisement des ressources et de la surproduction de déchets ne sont quasiment jamais mentionnés. Cette dépolitisation de la question écologique, notamment dans un contexte scolaire, et « l’invisibilisation des enjeux sociaux » qui l’accompagne sont une tendance déjà bien repérée par les recherches en éducation, comme en témoigne le récent ouvrage d’Irène Pereira sur l’éco-pédagogie (2024).

Quant au profil socio-scolaire des éco-délégués, sans étude statistique nationale, difficile de dresser le portrait type. Le rapport parlementaire réalisé sur ce sujet par une députée de la majorité, dresse un panorama assez mitigé. Le dispositif des éco-délégué est accusé de renforcer les stéréotypes de genre en confiant les tâches du « care », et notamment du maintien de la propreté des lieux, aux filles plus qu’aux garçons. Constat déjà largement documenté en sociologie.

Si les éco-délégués perçoivent bien que l’on attend d’eux qu’ils soient force de propositions, ils sont pourtant dirigés, de manière explicite ou plus implicite, vers les actions déjà en cours ou impulsées par leurs encadrants, considérées comme réalisables et « allant dans le bon sens ». Un acteur du changement donc, mais dans les limites de l’acceptable.

Parmi les éco-délégués interrogés pendant l’enquête, certains s’épanouissent clairement dans leur mission, regrettent parfois qu’elle ne puisse pas s’étendre davantage ou se pérenniser d’une année sur l’autre ou d’un établissement à l’autre. Pour d’autres, elle est synonyme d’usure ou de déception, comme en témoigne cet éco-délégué élève de seconde (lycée privé, zone rurale) :

« C’est bien gentil de faire les petits gestes, mais un moment il va falloir faire les grands, et c’est pas le gouvernement qui s’en occupe. »

Tantôt colibris, tantôt ambassadeurs, tantôt sauveurs, tantôt éboueurs… les éco-délégués cumulent ainsi les casquettes sans véritables moyens pour agir, alors même que les défis auxquels ils sont censés répondre ne cessent de croître dramatiquement.

Certes, nous pouvons convenir que les cinq dernières années n’ont pas été de tout repos pour le milieu scolaire : crise sanitaire de la Covid et huit ministres de l’éducation nationale qui se sont succédé. Cependant, nous pouvons constater qu’après un engouement pour les enjeux de développement durable post-COP21, les moyens attribués au déploiement de l’éducation au développement durable peinent encore à être rassemblés à la hauteur des objectifs auxquels la France continue de s’engager, COP après COP.


À lire aussi : De COP en COP, une géopolitique de la procrastination climatique


The Conversation

Lise Trégloze a reçu une bourse de recherche doctorale de la région Bretagne (dispositif ARED).

05.01.2026 à 17:56

Vivre dans un logement trop froid : la réalité sociale de la précarité énergétique

Bérangère Legendre, Professor, Université Savoie Mont Blanc
Dorothée Charlier, Maîtresse de conférences en économie de l’énergie et de l’environnement, IREGE, IAE Savoie Mont Blanc
img
La précarité énergétique a des répercussions sur la santé physique et mentale, sur la vie sociale et même sur la scolarité des enfants.
Texte intégral (2229 mots)

La précarité énergétique est un fléau qui concerne de plus en plus de personnes du fait de la volatilité des prix de l’énergie. Elle a des répercussions sur la santé physique et mentale, sur la vie sociale et même sur la scolarité des enfants.


Alors que l’hiver s’installe, environ 3 millions de ménages en France sont de nouveau confrontés à une difficulté majeure : celle de la précarité énergétique.

Elle se matérialise par des privations, mais également par un sentiment de honte et une exclusion sociale qui en résultent. Ses effets peuvent être multiples, allant même jusqu’à augmenter l’absentéisme scolaire. Les conséquences sociales et sanitaires, longtemps sous-estimées, sont aujourd’hui mieux documentées par la recherche.

Ce que signifie « être en précarité énergétique » au quotidien

La définition française du phénomène est large : une personne est en précarité énergétique lorsqu’elle rencontre des difficultés à disposer, dans son logement, de l’énergie nécessaire pour répondre à ses besoins de base, du fait de faibles ressources ou de conditions de logement inadéquates. Cela signifie vivre dans un logement trop froid l’hiver, trop chaud l’été, souvent mal isolé, où l’on chauffe une seule pièce pour réduire la facture, où l’on évite d’allumer la lumière, où la présence de moisissures ou d’humidité peut devenir chronique. Ces conditions entraînent fréquemment des comportements de restriction d’énergie, c’est-à-dire consommer volontairement moins que ce qui serait nécessaire au confort ou à la santé. Parfois, cela signifie également passer sous le radar des politiques publiques, car les dépenses en énergie sont volontairement modérées.

Cette situation est d’autant plus fréquente que les prix de l’énergie sont volatiles ces dernières années. En 2018 déjà, 34 millions d’Européens déclaraient ne pas pouvoir chauffer correctement leur logement. Les tensions énergétiques depuis 2021 ont encore accentué ce phénomène : les ménages les plus modestes ont consacré une part croissante de leur budget à leurs factures, réduisant leurs marges de manœuvre.

Les conditions de logement jouent également un rôle central : mauvaise isolation, appareils de chauffage vétustes, infiltrations d’eau, ventilation insuffisante, autant de facteurs qui rendent impossible le maintien d’un confort minimal à un coût acceptable.

Qui sont les ménages les plus touchés ?

La recherche en économie identifie de manière cohérente trois déterminants de la précarité énergétique : bas revenus, mauvaise performance énergétique du logement et prix élevés de l’énergie. Mais au-delà de ce triptyque, les recherches récentes en la matière apportent des précisions essentielles.

En France sont particulièrement exposés :

  • les personnes âgées, davantage présentes dans des logements anciens, peu isolés, et disposant de faibles revenus ;

  • les ménages isolés, notamment les femmes seules ou les familles monoparentales, dont les dépenses fixes pèsent plus lourd dans le budget ;

  • les locataires du parc privé, souvent logés dans des habitats moins performants que le parc social qui est susceptible de bénéficier d’une meilleure qualité énergétique ;

  • les ménages vivant dans des logements anciens qui n’ont pas fait l’objet de rénovation et qui utilisent plus fréquemment du gaz ou du fioul et qui font donc face à un coût de l’énergie plus important.

Par ailleurs, les ménages « énergétiquement vulnérables », qui ne sont pas définis comme étant en précarité énergétique mais peuvent basculer en cas de choc (hausse de prix, panne d’équipement, baisse de revenu), sont souvent ignorés des politiques publiques, car mal identifiés. Ces ménages représentent un enjeu majeur pour les politiques publiques, car ils n’entrent pas dans les seuils traditionnels utilisés pour mesurer le phénomène.

Les effets de la précarité énergétique dépassent largement l’inconfort thermique. Ils touchent la santé, la vie sociale et les perspectives économiques.

Les impacts sur la santé physique

Un logement trop froid augmente les risques de maladies respiratoires et cardiovasculaires, aggrave les symptômes des personnes souffrant de maladies chroniques, comme l’arthrose ou la polyarthrite rhumatoïde, et favorise l’apparition de moisissures responsables d’allergies ou d’asthme. Être en précarité énergétique multiplierait par sept le risque de mauvaise santé pour les personnes déjà fragiles.

Les coûts associés pour la collectivité sont considérables : près d’un milliard d’euros de dépenses médicales directes en France, et plus de 20 milliards si l’on inclut les coûts indirects liés à la perte de productivité ou aux arrêts maladie.

Une dégradation marquée de la santé mentale

Un résultat central a été établi pendant la crise sanitaire du Covid-19 : la précarité énergétique a un effet causal fort et significatif sur la santé mentale, dégradant les scores d’anxiété, de dépression et de santé sociale. Être en situation de précarité énergétique aurait réduit en moyenne le score de santé mentale de 6,3 points sur 100 et augmenté le score de dépression de 5,35 points et celui d’anxiété de 6,48 points pendant cette période durant laquelle la majeure partie de la population française et européenne a été confinée à domicile à intervalles réguliers.

La situation était encore plus grave pour les personnes déjà fragilisées : pour le tiers le plus vulnérable de la population, l’effet négatif sur la santé mentale atteignait 20 points. L’utilisation des scores permet de quantifier les effets de la précarité énergétique : un score de santé de 100 indique la meilleure santé qui soit, tandis qu’un score de dépression de 100 indique le niveau le plus élevé de dépression.

Une spirale d’isolement et de honte

Plusieurs travaux sociologiques montrent également que les personnes vivant dans des logements froids ou dégradés évitent d’inviter des proches, se replient sur elles-mêmes, et peuvent éprouver un sentiment de honte ou d’échec. Les difficultés à payer les factures conduisent parfois à des coupures d’énergie ou au risque d’endettement, renforçant encore la vulnérabilité sociale.

La précarité énergétique devient ainsi un facteur d’exclusion, au même titre que la pauvreté monétaire, mais en partie invisible car liée à l’espace privé du logement.

Noel Longhurst et Tom Hargreaves, deux chercheurs en sciences de l’environnement, rapportent ainsi dans une de leur publication de 2019 les propos de Barbara, une trentenaire britannique qui souffre de précarité énergétique :

« Je ne reçois personne. Je ne reçois pas d’amis… Personne. Je ne pense pas avoir reçu d’amis depuis environ trois ans… Je n’aime pas la condensation, et c’est très important pour moi. C’est embarrassant. Je suis gênée quand je sors le matin et que je vois qu’on ne peut pas voir à travers les fenêtres. »

Des répercussions sur les trajectoires scolaires

La précarité énergétique affecte également la scolarité des enfants. Vivre dans un logement froid ou mal chauffé complique le travail scolaire à domicile, perturbe le sommeil et accroît la fatigue, avec des effets potentiels sur l’attention et l’apprentissage.

En France, le défenseur des droits souligne que ces conditions de vie dégradées portent atteinte au droit des enfants à un environnement propice aux études et peuvent peser sur leurs résultats scolaires. Ces constats rappellent que la précarité énergétique est aussi un enjeu éducatif et d’égalité des chances.

Un enjeu européen majeur, des réponses encore insuffisantes

Si la France a développé plusieurs outils (chèques énergie, aides à la rénovation, développement du parc social), la littérature montre que les politiques purement financières ont des effets limités, alors que les actions structurelles – rénovation thermique, construction de logements sociaux performants – ont un impact durable sur la réduction de la précarité énergétique.

À l’échelle européenne, la Commission a inscrit la lutte contre la précarité énergétique au cœur de la directive sur l’efficacité énergétique révisée adoptée en 2024. Mais les disparités restent fortes, et la crise énergétique a rappelé la nécessité d’une stratégie plus ambitieuse, combinant protection des ménages, transition énergétique et amélioration massive du parc résidentiel.

The Conversation

Bérangère Legendre a reçu des financements de la Chaire de l'Economie Environnementale (Fondation Université Savoie Mont Blanc).

Dorothée Charlier est membre de la SOLAR ACADEMY.

05.01.2026 à 17:51

La hausse du prix du carbone conduit-elle à supprimer des emplois ?

Jana Boeckx, Assistant Professor of Finance, IÉSEG School of Management
img
Une étude met en lumière le lien entre hausse du prix du carbone et suppressions d’emplois. Avec pour principaux perdants : les cols bleus.
Texte intégral (1376 mots)
Les entreprises soumises au marché du carbone sont 3,4 % plus susceptibles de réduire leurs effectifs que leurs homologues exempts de cette réglementation. Giulio_Fornasar/Shutterstock

Une étude met en lumière le lien entre hausse du prix du carbone et suppressions d’emplois. Depuis 2017, une augmentation significative du prix des émissions est en cours, désormais 17 fois plus élevé en 2025 qu’en 2017. Si toutes les entreprises affichent leur mécontentement, elles n’adoptent pas les mêmes stratégies selon qu’elles sont cotées en bourse ou non. Avec pour principaux perdants, les cols bleus.


En 2017, le Conseil européen a introduit des réformes majeures dans le système européen d’échange de quotas d’émission, provoquant une forte hausse du prix du carbone. Le prix d’une tonne d’émissions équivalentes en CO2 a doublé, passant de 5,15 euros par tonne d’émissions le 1er janvier 2017 à 11,06 euros le 1er janvier 2018, puis à 22,23 euros le 1er janvier 2019.

L’objectif est clair : rendre la pollution plus coûteuse, afin d’inciter les entreprises à réduire leurs émissions. Mais cette hausse des coûts a eu un effet inattendu, certaines entreprises ont réagi en supprimant des emplois.

Dans notre étude, nous mettons en évidence un lien clair entre la hausse des prix du carbone et les suppressions d’emplois et les ventes d’actifs de production (machines, équipements) par les entreprises.

Alors, la transition climatique se fait-elle au prix de l’emploi ?

Voici quelques entreprises bien connues qui relèvent de ce système : Carrefour, Sanofi, TotalEnergies, Engie, etc.

Hausse du prix du carbone

L’un des outils politiques largement utilisés pour atteindre cet objectif est le système de plafonnement et d’échange, ou cap-and-trade system. L’exemple le plus marquant est le système d’échange de quotas d’émission de l’Union européenne (SEQE-UE), souvent considéré comme une référence.

Malgré sa réputation mondiale, le système d’échange de quotas d’émission de l’Union européenne a eu du mal pendant des années à fixer des prix significatifs pour le carbone. Au cours de sa phase initiale de 2005 à 2007, beaucoup de permis de pollution ont été distribués, ce qui a entraîné une faible demande et fait baisser les prix.

La période suivante de 2008 à 2012 a coïncidé avec la crise financière mondiale, qui a fortement réduit l’activité industrielle et, par conséquent, les besoins en quotas d’émission. Même si le plafond d’émissions a été réduit de 6,5 %, les prix sont restés obstinément bas. Pendant plus d’une décennie, le système n’a pas réussi à créer la pression financière nécessaire pour entraîner des réductions importantes des émissions.

En 2017, l’Union européenne a corrigé cette situation en réduisant l’offre de quotas (the cap) par 2,2 % annuelle. L’enjeu : doubler la canalisation des quotas vers une nouvelle réserve de stabilité du marché, ou Market Stability Reserve, jusqu’à 2023 et ajouter un mécanisme d’annulation pour supprimer définitivement les quotas inutilisés lors de la phase suivante. L’impact a été immédiat puisque le prix d’émission est passé d’un peu plus de 5 euros début 2017 à 11 euros un an plus tard, puis à environ 32 euros en 2020.

Les industriels du carburant vent debout

Cette intervention a suscité une opposition importante de la part des entreprises, des syndicats et des groupes d’intérêt industriels. Ils craignent que l’augmentation des coûts du carbone ne pousse la production et les emplois hors d’Europe. Par exemple FuelsEurope, qui représente l’industrie européenne des carburants, et les producteurs d’acier ont exprimé leurs préoccupations, avertissant que les coûts supplémentaires les rendraient moins compétitifs à l’échelle mondiale

Pourtant, il existe peu de preuves tangibles pour étayer ces affirmations. Les entreprises soumises au SEQE-UE sont 3,4 % plus susceptibles de réduire leurs effectifs que leurs homologues non soumises au SEQE-UE.


À lire aussi : Histoire des crédits carbone : vie et mort d'une fausse bonne idée ?


Distinction entre entreprises cotées et non cotées

Cette tendance est loin d’être uniforme. Les entreprises cotées en bourse ne réduisent pas leurs effectifs, tandis que les entreprises non cotées les diminuent de manière plus marquée, avec des baisses pouvant atteindre 3,5 % dans les entreprises les plus polluantes. Les petites entreprises cotées (en dessous de la moyenne de l’échantillon en termes d’actifs totaux) qui disposent d’une marge de manœuvre financière limitée réduisent également leurs effectifs, mais dans une moindre mesure que leurs homologues non cotées.

Qu’ajustent ces entreprises en réponse à la hausse des coûts liés au carbone ? Cherchent-elles à maintenir leur production à un niveau stable, mais avec moins de travailleurs et d’actifs ? Ou bien produisent-elles moins globalement, et ont donc besoin de moins de ressources ?

Nos conclusions révèlent une distinction nette. Les entreprises privées ont tendance à réduire leurs activités, en supprimant à la fois des emplois et des actifs, ce qui suggère une réduction délibérée de leur champ d’action global. En revanche, les petites entreprises cotées en bourse, qui disposent de peu de liquidités, réduisent principalement leurs effectifs, sans diminuer leur base d’actifs.

En d’autres termes, les entreprises privées non cotées réduisent leurs effectifs en faisant moins, tandis que les entreprises cotées en bourse réduisent leurs effectifs en essayant de faire la même chose avec moins de personnel.

Les cols bleus sont les plus touchés

Afin de mieux cerner les employés les plus touchés par ces changements, nous avons également examiné les conséquences de la flambée des prix du carbone dans le cadre du SEQE-UE en Belgique.

À partir de données administratives détaillées, nous avons constaté que l’impact est loin d’être réparti de manière uniforme. Les cols bleus, les hommes ayant un faible niveau d’éducation (généralement avec diplôme secondaire ou sans) sont les plus touchés. L’effet est particulièrement prononcé chez les personnes sous contrat à temps partiel.

Ces résultats ont des implications importantes pour les décideurs politiques qui pilotent la transition écologique en Europe. Bon nombre des nouveaux emplois verts créés exigent des employés hautement qualifiés. Ce décalage pourrait créer des déséquilibres sur le marché du travail, soulignant le besoin urgent de programmes de formation et de reconversion.

The Conversation

Jana Boeckx ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

05.01.2026 à 14:06

Pourquoi les fonds verts peinent à convaincre malgré une épargne record

Syrine Gacem, Docteur en sciences de gestion - Finance, Université Bourgogne Europe
Fabrice Hervé, Professeur en Finance, Université Bourgogne Europe
Sylvain Marsat, Professeur en Finance, Université Clermont Auvergne (UCA)
img
Une étude cherche à comprendre les freins à l’investissement vert chez les investisseurs individuels. Et si la ruse marketing de quelques acteurs nuisait à l’ensemble de la filière ?
Texte intégral (1285 mots)
Les perceptions négatives des ménages sur le _greenwashing_ de certaines entreprises réduisent leurs investissements dans des fonds environnementaux. SKTStudio/Shutterstock

Alors que l’épargne des Françaises et des Français atteint 6,4 milliards d’euros au premier semestre 2025, elle n’est que peu dirigée vers la finance verte. Une étude, menée auprès de 2 215 investisseurs français âgés d’au moins 25 ans, cherche à comprendre les freins à l’investissement vert chez les ménages.


L’épargne des ménages français a atteint un niveau record au premier semestre de 2025, s’élevant à 6,4 milliards d’euros. Elle constitue un taux d’épargne de 18,9 % du revenu disponible. Un niveau si élevé qu’il attire désormais l’attention de l’État sur le financement de l’économie réelle.

Parallèlement, le vendredi 21 novembre 2025 a marqué la clôture de la COP30, où ont eu lieu des discussions rappelant l’ampleur des besoins de financement verts pour réussir la transition écologique. Les pays développés sont appelés à fournir au moins 1,1 milliard d’euros par an aux pays en développement d’ici 2035. « La finance est le levier d’accélération majeur », a rappelé le secrétaire exécutif d’ONU Climat, Simon Stiell, lors du Leaders’Summit au Brésil.

Malgré ce double constat d’abondance d’épargne des ménages et de besoin de financement des projets de transition écologique, l’investissement vert demeure une pratique marginale chez les ménages. Notre étude cherche à en comprendre les raisons.

Manque de transparence sur les fonds verts

Le manque de transparence sur l’impact écologique des fonds verts peut créer une ambiguïté chez les investisseurs particuliers quant à leur efficacité réelle à protéger l’environnement.

Un exemple emblématique est celui de DWS, filiale de Deutsche Bank, impliquée dans un scandale de dénomination environnementale trompeuse, après avoir exagéré les engagements verts de plusieurs de ses fonds. L’affaire s’est soldée par une amende de 25 millions d’euros infligée par la justice allemande en avril 2025.

Promesses écologiques non crédibles

Dans notre étude, nous avons mené une recherche auprès de 2 215 investisseurs français âgés d’au moins 25 ans, entre décembre 2021 et janvier 2022, via Panelabs.

L’échantillon est composé d’investisseurs âgés en moyenne de 47 ans, comprenant 47,3 % de femmes, disposant d’un revenu mensuel net moyen de 3 659 €, et ayant en moyenne un niveau d’éducation équivalent à bac+2. Afin d’évaluer leurs doutes sur l’efficacité réelle des fonds verts, nous leur avons posé la question suivante : « Les fonds verts sont un stratagème marketing pour vendre plus de fonds ». Les réponses étaient notées sur une échelle de 1 à 7, de « pas du tout d’accord » à « tout à fait d’accord ».

Les résultats sont clairs. Plus un investisseur estime que les fonds verts relèvent de promesses écologiques non crédibles, moins il est enclin à y investir. Concrètement, chaque point de hausse sur l’échelle de doute réduit la probabilité d’investir dans un fonds vert de 1,68 point de pourcentage. Mais ce n’est pas tout. Les investisseurs les plus méfiants allouent également des montants plus faibles à ces fonds.

Les jeunes plus sensibles à l’épargne verte

Ce frein n’impacte pas tous les investisseurs de la même manière. Deux profils s’avèrent moins sensibles à ces doutes : les plus jeunes, et ceux ayant un niveau d’éducation élevé. Ces derniers affichant des préférences environnementales très fortes ont tendance à accepter les fonds verts, sans trop les remettre en question, pour rester en accord avec leurs convictions écologiques. Ce phénomène s’explique notamment par la volonté d’éviter une dissonance cognitive entre leurs valeurs et leurs décisions financières.

Notre étude montre que ce frein affecte aussi bien les investisseurs conventionnels (qui n’ont jamais investi dans un fonds vert) que les investisseurs verts (ayant placé au moins 500 € dans un fonds vert). Chez les premiers, elle décourage l’intention d’investir dans des fonds verts. Chez les seconds, elle freine leurs investissements futurs.

Biais de négativité

L’effet dissuasif de la ruse marketing sur l’investissement vert peut s’expliquer à la lumière d’un mécanisme bien connu en psychologie comportementale : le biais de négativité. Ce phénomène décrit la tendance des individus à réagir plus fortement aux signaux négatifs qu’aux signaux positifs.

Nous constatons que les perceptions très négatives de la stratégie de communication verte réduisent significativement la probabilité d’investir. À l’inverse, une certaine confiance dans la communication environnementale ne suffit pas à stimuler l’investissement. Le doute pèse clairement plus lourd que la confiance.

Pourquoi cette asymétrie ? Parce qu’une perception négative de la stratégie marketing active deux leviers puissants. Elle déclenche des émotions négatives qui prennent souvent le dessus sur les raisonnements rationnels dans la prise de décision. En parallèle, ces émotions accentuent la perception du risque financier associé aux fonds verts, ce qui les rend moins attractifs aux yeux des investisseurs.

Renforcer la cohérence entre discours et réalité

Ces résultats appellent les décideurs publics et les acteurs financiers à recentrer leurs efforts sur le contrôle de la véracité de la communication des fonds verts. Tant que les inquiétudes des investisseurs individuels vis-à-vis du marketing des fonds verts ne sont pas levées, les politiques incitatives risquent de ne pas atteindre leur cible.

Ce constat fait écho aux évolutions récentes du cadre réglementaire européen. Ces dernières visent à réduire l’écart entre les promesses associées aux fonds verts et les projets réels dans lesquels ils investissent. Dans ce contexte, la mise en place de réglementations ciblées prend tout son sens. Des dispositifs comme le règlement SFDR ou la taxonomie verte visent à renforcer la transparence et à restaurer la confiance dans la finance verte, condition indispensable pour mobiliser l’investissement des citoyens au service de la transition écologique.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

04.01.2026 à 14:03

Ce que révèle une vaste enquête citoyenne sur la qualité de l’eau en France

Nicolas Dietrich, Professeur des universités en génie des procédés, INSA Toulouse
Johanne Teychené, Maitre de conférences en génie des procédés, INSA Toulouse
Nathalie Clergerie, Ingénieure d'études INSA toulouse
img
En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français.
Texte intégral (2455 mots)
Partout en France, des citoyens ont participé à la recherche scientifique en prélevant et testant la qualité de l’eau de leur région. Marielle Duclos/La Grande Synchr'Eau, Collectif Hodos, Fourni par l'auteur

En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français. Une démarche qui en apprend beaucoup aux chercheurs et qui sensibilise les bénévoles.


Le 29 septembre 2023, partout en France, des milliers de personnes ont endossé, le temps d’un week-end, la casquette du chercheur. Armés de leur smartphone, d’une bandelette colorée et d’une fiche d’instructions, ils se sont lancés dans une expérience collective inédite : mesurer la qualité des eaux de France dans les rivières, les fontaines, les lacs, les puits et les flaques. En quelques jours, près de 800 échantillons ont été collectés et plus de 20 000 données ont été mesurées.

Carte de France indiquant où les mesures ont été effectuées
Localisation des mesures réalisées dans le cadre de la Grande Synchr’Eau. La Grande Syncr’Eau, Fourni par l'auteur

Derrière ces chiffres impressionnants se cache une aventure humaine et scientifique : la Grande Synchr’Eau, une initiative massive de science participative récompensée par l’une des médailles de la médiation du CNRS en 2025 pour son originalité et son impact sur la société. Cette expérience participative inédite a permis de révéler la diversité chimique des eaux françaises.

Le principe est simple : tremper une bandelette dans l’eau, observer les pastilles se colorer, puis les comparer à une échelle. Ce geste, à la fois simple et ludique, cache en réalité des mesures précieuses : le pH (ou l’acidité), la concentration en nitrates issus des engrais, en chlore, ainsi qu’en métaux lourds tels que le cuivre ou le plomb. Pour beaucoup, l’expérience provoque un effet « waouh » : « On avait l’impression de jouer, mais en fait, on faisait de la vraie science », racontait une mère venue vivre l’expérience avec sa fille. C’est là toute la force de la science citoyenne : permettre à chacun de participer à la recherche, tout en produisant des données utiles aux scientifiques.

Quatre photographies de volontaires qui récoltent de l’eau, comprenant des enfants et des adultes dans des paysages différents, urbains ou ruraux
Des citoyens de tous âges à l’œuvre : mesurer, observer et comprendre l’eau partout en France. La Grande Synchr’Eau, Fourni par l'auteur

Une mosaïque de réalités locales

Les résultats, compilés par les équipes de l’INSA Toulouse et du Toulouse Biotechnology Institute, révèlent une France de l’eau pleine de contrastes. En Bretagne et dans le Massif central, l’eau est plus acide, en raison des sols granitiques et volcaniques, car ces roches contiennent peu de minéraux capables de « tamponner » l’acidité. L’eau de pluie, naturellement légèrement acide, n’est donc pas neutralisée en traversant ces terrains, contrairement aux régions calcaires où les roches relarguent du carbonate qui remonte le pH. Dans les plaines agricoles de la Beauce et de la Champagne, les nitrates dépassent parfois 100 mg/L, témoins directs de l’usage intensif des engrais.

En ville, d’autres signaux apparaissent : à Lyon, Toulouse ou Marseille, les citoyens ont détecté du cuivre jusqu’à 6 mg/L, un niveau trois fois supérieur à la limite de qualité de l’eau potable (2 mg/L), généralement lié à la corrosion des vieilles canalisations en cuivre. Dans certaines zones rurales, le chlore est quasi absent, alors qu’en Île-de-France ou dans le Rhône, la concentration atteint des niveaux dix fois supérieurs à ceux observés dans les campagnes du Massif central. Cela reste compatible avec les normes, mais reflète une désinfection beaucoup plus marquée des grands réseaux urbains, expliquant parfois les goûts d’eau chlorée rapportés par certains usagers.

Autrement dit, il n’existe pas une eau française, mais une mosaïque d’eaux locales, chacune portant la marque de son sol, de ses usages et de ses infrastructures.

Des flaques chlorées et des puits ferrugineux

Parmi les échantillons, certaines eaux sortent franchement du lot. Si, globalement, le pH reste dans des valeurs normales (entre 6 et 7,6), la diversité chimique surprend. Le chlore total, c’est-à-dire à la fois le chlore libre (désinfectant actif) et le chlore combiné (qui a déjà réagi avec d’autres substances), atteint parfois 10 mg/L, soit cinq fois la concentration d’une piscine publique.

Certaines flaques urbaines semblent avoir reçu un traitement sanitaire involontaire : ruissellement des trottoirs, résidus de produits ménagers, lessivage des surfaces. Bref, si l’eau des flaques n’est pas potable, certaines sont surprenamment bien désinfectées !

La France de l’eau en un coup d’œil : six cartes citoyennes révélant la diversité chimique du territoire. La Grande Synchr’Eau, Fourni par l'auteur

Certains puits battent tous les records de fer, avec des concentrations pouvant atteindre 25 mg/L, soit 500 fois la limite de potabilité. À ce stade, l’eau prend une teinte orangée et un goût métallique prononcé. Sur le millier de prélèvements effectués, 8,4 % des eaux ont été jugées brunes par les citoyens, un signe d’oxydation intense du fer dans les captages locaux. Ce phénomène, fréquent dans certaines zones rurales, n’est pas dangereux en soi, mais rend l’eau impropre à la consommation et peut entraîner des dépôts, des taches et un encrassement des installations domestiques. Il illustre la forte variabilité chimique des eaux locales et les enjeux propres aux puits non traités.

Autre découverte : l’ammonium, présent jusqu’à 40 mg/L dans certains échantillons. Ce composé, issu de la décomposition de la matière organique ou du ruissellement agricole, témoigne d’une activité biologique intense : en clair, une eau très vivante, mais pas forcément celle qu’on a envie de boire.

L’eau, miroir de nos modes de vie

Derrière les anecdotes et les chiffres, ces mesures citoyennes racontent une vérité simple : l’eau enregistre nos modes de vie. Elle circule, transporte et mémorise nos activités. Dans les villes, elle se charge de chlore, de cuivre et de résidus ménagers. Dans les campagnes, elle emporte du nitrate, de l’ammonium ou du fer. Et dans les zones naturelles, elle reste souvent plus équilibrée, mais jamais totalement vierge de l’empreinte humaine.

En plus des cartes, la Grande Synchr’Eau dessine une France curieuse et engagée. L’enquête menée auprès de 120 participants révèle une mobilisation intergénérationnelle : 22 % ont moins de 18 ans, 21 % sont entre 46 et 55 ans, et 45 classes de primaire et de collège ont participé à l’expérience. Les motivations sont variées : 54 % y voient une façon de protéger l’environnement, 43 % de contribuer à la recherche, 28 % pour apprendre et 25 % par curiosité. Autrement dit, mesurer devient un moyen de comprendre et d’agir.

Nourrir la recherche tout en sensibilisant les citoyens

Les effets de la démarche sur les volontaires sont marquants : 81 % des participants estiment que l’expérience a changé leur regard ou leurs comportements, et 82 % ont eu le sentiment de participer à la protection de l’environnement. Lorsqu’on leur demande les mots auxquels ils pensent pour qualifier l’eau, ceux qui reviennent le plus sont vie, vitale et précieuse, ce qui traduit un rapport sensible, presque affectif, à cette ressource commune.

Enfin, à la question « Qui doit agir pour préserver l’eau ? », 83 % citent l’État, 79 % les scientifiques, 71 % les associations et 54 %… eux-mêmes. La science n’est plus perçue comme un domaine réservé : elle devient un espace partagé, où la connaissance se construit à plusieurs et où chacun assume sa responsabilité sociétale.

Au final, peut-on boire l’eau des flaques d’eau ? Non, car elles contiennent parfois plus de chlore qu’une piscine. Mais on peut toujours les observer, les mesurer et les comparer. Ces expériences rappellent qu’il n’y a pas besoin d’un laboratoire pour faire de la science : un peu de curiosité, une bandelette colorée et l’envie de comprendre suffisent à faire émerger une connaissance collective. La Grande Synchr’Eau en est la preuve : la science peut jaillir de partout, même d’une simple flaque.

The Conversation

Nicolas Dietrich a reçu des financements dans le cadre du projet Grande Expérience Participative (2023), financé par l’initiative Nuit Européenne des Chercheur·e·s dans le cadre des Actions Marie Sklodowska-Curie. Un financement complémentaire a été obtenu dans le cadre du projet SMARTER, soutenu par le programme Horizon 2020 de l’Union européenne (Grant Agreement No. 772787)

Johanne Teychené et Nathalie Clergerie ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

02.01.2026 à 09:56

Changement climatique : les stations de ski doivent-elles encore investir dans la production de neige pour s’adapter ?

Jonathan Cognard, Docteur en économie écologique, Inrae
Lucas Berard-Chenu, Chercheur en géographie, INRAE, Univ.Grenoble Alpes, France, Inrae
img
Solution communément adoptée par les stations face au manque de neige, la neige de culture n’apporte pas toujours les gains économiques attendus.
Texte intégral (1667 mots)

Face au recul de l’enneigement naturel, la neige de culture est l’outil privilégié par les stations de ski pour sécuriser leurs activités. Mais notre analyse de 56 exploitations de remontées mécaniques alpines sur quinze ans montre que ces investissements n’ont pas eu les effets escomptés. Le bien-fondé économique du soutien public à ces investissements mérite d’être interrogé.


La production de neige, également appelée neige de culture ou neige artificielle, s’est fortement développée ces dernières décennies dans les stations de sports d’hiver. Elle est désormais une pratique courante de gestion de la neige, qui a par le passé facilité l’exploitation des remontées mécaniques face à la variabilité de l’enneigement naturel.

Mais est-il pertinent, d’un point de vue économique, de poursuivre les investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver à la raréfaction de l’enneigement naturel ?

Pour répondre à cette question, nous avons analysé la performance économique de 56 exploitations de remontées mécaniques dans les Alpes françaises entre 2004 et 2019. Nos résultats interrogent la poursuite des investissements dans la production de neige pour adapter l’économie des stations de sports d’hiver au changement climatique.


À lire aussi : Production de neige : le piège de la dépendance pour les stations de ski ?


La production de neige désormais au cœur du modèle du ski

De fait, l’enneigement naturel varie fortement d’une saison à l’autre. Depuis leur création, les domaines skiables sont confrontés à des hivers d’enneigement variables, les plus difficiles étant qualifiés d’« hiver sans neige ». En raison du changement climatique, la fréquence des hivers bien enneigés diminue et celle des hivers mal enneigés augmente.

Les stations situées à moins de 2000 m d’altitude sont déjà affectées. Dans un scénario avec un réchauffement atteignant +4 °C, il est estimé que 98 % des stations européennes seront exposées à un risque très élevé de déficit d’enneigement naturel. Cette menace sur l’enneigement affecte l’économie des exploitants de domaines skiables, ainsi que plus largement l’avenir de l’économie des territoires qui en dépendent.

La production de neige s’est généralisée dans les domaines skiables à partir des années 1990 afin d’accompagner l’enneigement naturel, et a effectivement permis d’atténuer l’impact des hivers mal enneigés. Plus récemment, son recours s’est fortement intensifié afin de continuer à sécuriser l’enneigement – et de préserver la rentabilité de l’exploitation des remontées mécaniques – face à la raréfaction de l’enneigement naturel dans le contexte du changement climatique. Cela implique d’importants investissements, en partie financés avec de l’argent public.

En France, la proportion de pistes de ski équipées pour la production de neige est passée d’environ 14 % en 2004 à 39 % en 2018. Cette dynamique illustre le changement de rôle donné à la production de neige : d’un accompagnement de l’enneigement naturel, elle est devenue la principale stratégie d’adaptation du tourisme hivernal au changement climatique.


À lire aussi : Pourra-t-on encore skier en Europe dans un monde à +2 °C ?


Poursuivre ces investissements permet-il aux remontées mécaniques de rester rentables ?

Est-il pertinent, pour l’adaptation de l’économie des stations de sports d’hiver, de poursuivre ces investissements ? Pour le savoir, notre étude de 2024 s’est intéressée aux effets des investissements réalisés dans les équipements de production de neige sur deux indicateurs financiers clés des exploitants de remontées mécaniques : le CA (chiffre d’affaires) et l’EBE (excédent brut d’exploitation).

L’EBE donne un aperçu de la rentabilité économique qu’a une entreprise de par son activité. L’analyse a porté sur un panel de 56 stations situées dans les Alpes françaises, couvrant 15 saisons consécutives de 2004/05 à 2018/19. Ces stations, de taille moyenne à très grande, sont gérées par des exploitants de droit privé, dans le cadre d’une délégation de service public.

Localisation des stations étudiées. Fourni par l'auteur

Pour mesurer l’effet des investissements dans la production de neige, nous avons utilisé des méthodes économétriques permettant d’analyser leur effet spécifique en isolant l’effet des investissements dans la production de neige des autres facteurs influençant l’économie des stations, par exemple l’altitude de la station, sa taille ou encore sa proximité vis-à-vis des agglomérations urbaines. Cela nous a permis d’établir des liens de causalité, plutôt que de simples corrélations.

Qu’en est-il ? Nos résultats montrent que les investissements réalisés durant la période d’observation n’ont pas eu d’effets significatifs sur les CA ou EBE des entreprises gestionnaires de domaines skiables. Cette absence de relation a été observée en particulier lors des saisons les moins bien enneigées, soit les 20 % des saisons avec le plus faible enneigement naturel.

Le meilleur atout des stations ? L’altitude

À l’inverse, au cours des saisons les plus déficitaires en neige naturelle de la période étudiée, les stations situées en altitude ont bénéficié d’un avantage comparatif, ce qui contraste avec les plus importants investissements réalisés dans la production de neige qui ne se sont pas traduits par une amélioration significative de leur performance économique.

Ces résultats peuvent sembler surprenants, compte tenu de la confiance accordée à ces investissements. Ils corroborent pourtant l’état des connaissances scientifiques sur le sujet.

En effet, dès 2003, une étude canadienne suggérait que la poursuite des investissements dans la production de neige pourrait devenir non-rentable au-delà d’un certain seuil où le surcoût dépasse les gains économiques. Des travaux réalisés en 2008, 2013 et 2016 ont démontré, en France comme en Suisse, que l’intérêt économique de ces investissements était positif mais diminuait progressivement. Plus récemment, une étude menée en Espagne en 2020 a démontré, tout comme notre étude, que les derniers investissements réalisés n’ont pas eu d’effets significatifs sur la profitabilité des exploitants de remontées mécaniques.

Ces conclusions n’invitent pas nécessairement à cesser de produire de la neige dans les stations de sports d’hiver.

Elles interrogent toutefois la pertinence de poursuivre les investissements dans ces équipements, dont l’efficacité comme stratégie de long terme pour maintenir la rentabilité des stations de ski apparaît insuffisante face aux évolutions climatiques.


À lire aussi : Apocalypse snow : quand l’économie française du ski file tout schuss vers l’abîme


The Conversation

La thèse de Jonathan Cognard a reçu des financements de l'Agence de l'eau RMC et du LabEx ITTEM.

Lucas Berard-Chenu a reçu des financements de diverses organisations publiques dans le cadre de ses projets de recherche

02.01.2026 à 08:46

Pas de chauffage central mais des lits chauffés… Ce que la ville la plus froide du monde nous enseigne

Yangang Xing, Associate Professor, School of Architecture Design and the Built Environment, Nottingham Trent University
img
Dans le nord-est de la Chine, un simple lit de terre chauffé permettait de survivre à des hivers à −30 °C avec très peu de combustible. Ces techniques anciennes pourraient inspirer des solutions plus sobres et plus efficaces.
Texte intégral (1592 mots)

Et si le confort thermique ne se résumait pas à chauffer plus, mais à chauffer mieux ? Des lits chauffants chinois aux kotatsu japonais, l’Asie a longtemps privilégié des solutions ciblées, sobres et durables face au froid.


Les matins d’hiver à Harbin, où l’air extérieur pouvait vous geler les cils, je me réveillais sur un lit de terre chaude. Harbin, où j’ai grandi, se situe dans le nord-est de la Chine. Les températures hivernales y descendent régulièrement jusqu’à −30 °C et, en janvier, même les journées les plus douces dépassent rarement −10 °C. Avec environ 6 millions d’habitants aujourd’hui, Harbin est de loin la plus grande ville du monde à connaître un froid aussi constant.

Rester au chaud sous de telles températures m'a occupé l'esprit toute ma vie. Bien avant la climatisation électrique et le chauffage urbain, les habitants de la région survivaient à des hivers rigoureux en utilisant des méthodes entièrement différentes des radiateurs et des chaudières à gaz qui dominent de nos jours les foyers européens.

Aujourd’hui, en tant que chercheur en architecture dans une université britannique, je suis frappé par tout ce que nous pourrions apprendre de ces systèmes traditionnels. Les factures d’énergie restent trop élevées et des millions de personnes peinent à chauffer leur logement, tandis que le changement climatique devrait rendre les hivers plus instables. Nous avons besoin de moyens efficaces et peu énergivores pour rester au chaud, sans dépendre du chauffage de l’ensemble d’un logement à l’aide de combustibles fossiles.

Certaines des réponses se trouvent peut-être dans les méthodes avec lesquelles j’ai grandi.

Un lit chaud fait de terre

Mes premiers souvenirs de l’hiver sont liés au fait de me réveiller sur un « kang » – une plateforme-lit chauffée faite de briques de terre, utilisée dans le nord de la Chine depuis au moins 2 000 ans. Le kang est moins un meuble qu’un élément du bâtiment lui-même : une dalle épaisse et surélevée, reliée au poêle familial situé dans la cuisine. Lorsque le poêle est allumé pour cuisiner, l’air chaud circule dans des conduits aménagés sous le kang, réchauffant l’ensemble de sa masse.

Un kang traditionnel chinois, combinant lit et poêle. Google Gemini, CC BY-SA

Pour un enfant, le kang avait quelque chose de magique : une surface chaude et rayonnante qui restait tiède toute la nuit. Mais à l’âge adulte – et aujourd’hui en tant que chercheur – je peux mesurer à quel point il s’agit d’une pièce d’ingénierie remarquablement efficace.

Contrairement au chauffage central, qui fonctionne en réchauffant l’air de chaque pièce, seul le kang (c’est-à-dire la surface du lit) est chauffé. La pièce elle-même peut être froide, mais les personnes se réchauffent en s’allongeant ou en s’asseyant sur la plateforme, sous d’épaisses couvertures. Une fois chauffée, sa masse de plusieurs centaines de kilogrammes de terre compactée restitue lentement la chaleur pendant de longues heures. Il n’y avait pas de radiateurs, pas besoin de pompes, et nous ne chauffions pas inutilement des pièces inoccupées. Comme une grande partie de la chaleur initiale était produite par des feux nécessaires de toute façon pour cuisiner, nous économisions du combustible.

L’entretien du kang était une affaire familiale. Mon père – professeur de littérature chinoise au collège, pas vraiment un ingénieur – est devenu un expert du kang. Empiler avec soin des couches de charbon autour du foyer afin de maintenir le feu toute la nuit relevait du travail de ma mère. Avec le recul, je mesure l’ampleur des compétences et du travail que cela exigeait, ainsi que la confiance que les familles accordaient à un système nécessitant une bonne ventilation pour éviter les risques d’intoxication au monoxyde de carbone.

Mais malgré tous ses inconvénients, le kang offrait quelque chose que les systèmes de chauffage modernes peinent encore à fournir : une chaleur durable avec très peu de combustible.

Des approches similaires en Asie de l’Est

Dans toute l’Asie de l’Est, les manières de se réchauffer par temps froid ont évolué autour de principes similaires : maintenir la chaleur près du corps et ne chauffer que les espaces qui comptent vraiment.

En Corée, l’ancien système ondol fait également circuler de l’air chaud sous des sols épais, transformant toute la surface du sol en plancher chauffant. Le Japon a développé le kotatsu, une table basse recouverte d’une lourde couverture, avec un petit dispositif chauffant placé en dessous pour garder les jambes au chaud. Ils peuvent être un peu coûteux, mais comptent parmi les objets les plus populaires dans les foyers japonais.

Les vêtements étaient eux aussi très importants. Chaque hiver, ma mère me confectionnait un tout nouveau manteau épais et matelassé, qu’elle garnissait de coton fraîchement cardé. C’est l’un de mes souvenirs les plus tendres.

L’Europe avait des idées similaires – puis les a oubliées

Des approches comparables se sont jadis développées en Europe. Les Romains de l’Antiquité, par exemple, chauffaient les bâtiments grâce à des hypocaustes, qui faisaient circuler l’air chaud sous les sols. Au Moyen Âge, les foyers suspendaient de lourdes tapisseries aux murs pour réduire les courants d’air, et de nombreuses cultures utilisaient des coussins moelleux, des tapis chauffés ou des espaces de couchage clos afin de conserver la chaleur.

La généralisation du chauffage central moderne au XXe siècle a remplacé ces pratiques par un modèle plus énergivore : chauffer des bâtiments entiers à une température uniforme, même lorsqu’une seule personne est présente au domicile. Tant que l’énergie était bon marché, ce modèle fonctionnait, malgré le fait que la plupart des logements européens (notamment en France, NDT) soient mal isolés au regard des standards internationaux.

Mais aujourd’hui, alors que l’énergie est redevenue chère, des dizaines de millions d’Européens ne parviennent pas à chauffer correctement leur logement. De nouvelles technologies comme les pompes à chaleur et les énergies renouvelables aideront – mais elles fonctionnent d’autant mieux que les bâtiments qu’elles chauffent sont déjà performants, ce qui permet de fixer des consignes de chauffage plus basses et des consignes de refroidissement plus élevées.

Les approches traditionnelles du chauffage domestique ont donc encore beaucoup à nous apprendre. Le kang et les systèmes similaires démontrent que le confort ne vient pas toujours d’une consommation accrue d’énergie, mais d’une conception plus intelligente de la chaleur.

The Conversation

Yangang Xing ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

01.01.2026 à 09:44

Quelles cartes postales hivernales en 2050 ? Imaginer ensemble un futur désirable pour les stations de montagne

Angèle Richard, Stratégie et Innovation, Université Savoie Mont Blanc
Élodie Gardet, Docteur en en Sciences de Gestion, Université Savoie Mont Blanc
Romain Gandia, Maître de conférence, Organizational Studies, Business Administration à l'Université Savoie Mont Blanc, IAE Savoie Mont Blanc
img
Entre urgence climatique et conflits entre acteurs, les stations peinent à se transformer. Et si l’utopie ouvrait un espace pour imaginer une montagne moins enneigée mais toujours désirable en 2050 ?
Texte intégral (1797 mots)

Alors que les Alpes subissent de plein fouet le changement climatique, la transformation du modèle économique des stations reste compliquée, souvent entravée par des tensions et des intérêts divergents. Une nouvelle méthode participative propose de dépasser ces blocages grâce à une approche originale : l’utopie. De quoi stimuler l’imagination pour bâtir une vision partagée d’un futur plus désirable. Celle-ci a été expérimentée au cours d’ateliers où les différentes parties prenantes d’une station de montagne ont été invitées à créer leur propre carte postale de montagne à l’horizon 2050.


Les Alpes françaises comptent parmi les régions les plus exposées au changement climatique. Les stations de montagne y sont directement confrontées, notamment face à la raréfaction de la neige. En mars 2024, la Cour des Comptes constatait l’insuffisance des stratégies d’adaptation mises en place dans ces stations. Celles-ci doivent impérativement transformer leur business model, encore largement centré sur le « tout-ski ».

Cette transformation est nécessaire pour préserver leur performance dans une perspective soutenable. Mais transformer un territoire est plus complexe qu’un simple changement d’offre touristique. Comment amorcer cette transformation ? Avec quelles parties prenantes ? Comment construire une vision commune, quand chacun perçoit la montagne à travers son propre prisme et ses propres intérêts ? Dans quelle direction stratégique s’engager ?

Ces questions sont d’autant plus cruciales que plusieurs tentatives d’innovations en la matière ont déjà échoué, notamment du fait de résistances ou de conflits d’intérêts entre les différentes parties prenantes concernées par ces innovations : exploitants, commerçants, élus, touristes…

Un exemple emblématique de ce type de conflits d’intérêts est la question de l’eau. En effet, elle est utilisée à la fois pour garantir les conditions d’enneigement des domaines skiables (ce qui permet de maintenir l’attractivité touristique en hiver) et pour répondre aux besoins des populations locales et des milieux naturels en montagne.

L’une des principales difficultés tient à la capacité de construire un alignement partagé entre les différents acteurs de la montagne. Cette quête doit reposer sur une proposition de valeur commune. Pour ce faire, nous avons adopté avec des collègues, dans une étude récemment publiée, une méthode de prospective originale basée sur ce qu’on appelle des « scénarios utopistes ».

L’intérêt ? Stimuler l’imaginaire collectif en insistant davantage sur les représentations partagées. Nous avons expérimenté la démarche à l’échelle d’une station de montagne à travers des ateliers participatifs, où ces différents interlocuteurs ont été encouragés à concevoir leur propre « utopie », sous la forme d’une carte postale fictive à l’horizon 2050.


À lire aussi : Changement climatique : les stations de ski doivent-elles encore investir dans la production de neige pour s’adapter ?


L’utopie, une méthode prospective qui favorise le dialogue

Pour surmonter les difficultés évoquées précédemment, il faut avoir recours à des méthodes capables de faire dialoguer toutes les parties prenantes pour créer ensemble une nouvelle proposition de valeur. La prospective stratégique répond précisément à cet enjeu. En élaborant des scénarios exploratoires, elle crée un espace de réflexion où chacun peut se projeter plus librement face aux enjeux du changement climatique.

Les scénarios utopistes, en particulier, permettent l’émergence d’imaginaires collectifs capables de dépasser les représentations individuelles et leurs blocages cognitifs, comme la peur du changement. L’utopie permet d’apporter un regard critique sur l’existant tout en ouvrant la voie à un futur commun plus désirable. Elle peut alors devenir un guide d’action et contribuer à reconfigurer les relations.

La méthode des scénarios utopistes que nous proposons, déployée dans le cadre d’ateliers participatifs, peut avoir un pouvoir transformateur sur les représentations individuelles et collectives de ce que peut être un modèle d’affaires soutenable pour les stations de montagne.


À lire aussi : Une brève histoire de l’utopie


La démarche consiste à :

  • d’abord proposer une relecture de l’existant à partir des représentations individuelles,

  • puis faire émerger d’autres représentations collectives plus soutenables, à travers le dialogue et l’imagination.

  • à partir de celles-ci, plusieurs propositions de valeur sont élaborées par les participants pour favoriser l’alignement entre les acteurs. L’idée est de construire des propositions qui fédèrent davantage qu’elles divisent.

  • un enjeu clé est de renforcer la désidérabilité de ces orientations futures et de redonner du sens au processus de transformation.


À lire aussi : Penser l’avenir : qu’est-ce que la « littératie des futurs » ?


Quand imaginer ensemble aide à se projeter

Mais avant même d’envisager la création de scénarios utopistes, la priorité est d’ouvrir le dialogue. Cette première étape est décisive : elle permet de faire émerger des représentations individuelles fondées sur leurs intérêts, attentes, besoins et préoccupations respectives.

Cette étape permet d’identifier un enjeu véritablement partagé, capable de servir de point d’ancrage à la transformation du business model existant. Parmi les thématiques évoquées lors de nos ateliers, figurait notamment la quête d’un développement économique fondé sur la sobriété en ressources naturelles, tout en restant en harmonie avec l’environnement montagnard.

Une fois ces enjeux clarifiés, les parties prenantes ont été invitées à imaginer ensemble ce que pourrait être la proposition de valeur d’un futur business model pour la station. Pour nourrir cette réflexion, elles ont chacune conçue une utopie, sous la forme d’un parcours client situé en 2050, incarnée par une carte postale fictive. Cet exercice permet d’esquisser une nouvelle proposition de valeur et d’en explorer la désirabilité, en mobilisant l’imagination et les capacités de projection dans le futur.

Cet exercice a donné naissance à plusieurs directions possibles. Citons par exemple les propositions suivantes, qui ont émergé lors des ateliers :

  • un tourisme axé sur le bien-être et la reconnexion au vivant,

  • un écotourisme valorisant l’engagement actif du touriste dans la découverte du patrimoine territorial,

  • ou encore un tourisme expérientiel centré sur l’authenticité et l’immersion dans les savoir-faire locaux.

Toutes ces représentations collectives ont ensuite été discutées de manière critique afin d’anticiper leurs limites potentielles telles que la surcharge d’activités, les tensions autour des ressources ou encore les risques de surfréquentation.

Malgré cette prise de recul, ces idées ont été majoritairement perçues comme désirables et mobilisatrices. Le recours aux scénarios utopistes a permis aux participants de relâcher les contraintes du présent, de mobiliser leur imaginaire et de se projeter dans un futur vu comme moins anxiogène.

L’utopie pour briser la glace ?

Les scénarios utopistes apparaissent ainsi comme un levier stratégique intéressant pour penser de nouveaux business models soutenables :

  • D’abord parce qu’ils aident à prendre de la distance par rapport au modèle actuel. Ils offrent un espace de réflexion afin d’imaginer ceux du futurs, tout en restant ancré dans des enjeux réels et tangibles.

  • Ces visions ne relèvent pas nécessairement de fictions déconnectées : l’utopie permet de transposer ici un idéal déjà observé ailleurs, sur d’autres territoires, dans d’autres secteurs ou encore d’autres industries.

  • Enfin, en rapprochant les représentations individuelles, elle tend à réduire les risques d’échecs et de tensions liés aux divergences d’intérêts, souvent responsables de blocages dans des démarches de co-création de valeur.

Ainsi, nous constatons que les scénarios utopistes permettent de « briser la glace » entre les différentes parties prenantes. En effet, ils offrent un appui stratégique précieux pour initier un projet de transformation, parce qu’ils facilitent l’entrée en relation et le dialogue entre les acteurs du territoire. Ils favorisent ainsi l’émergence de représentations collectives partagées.

Néanmoins, pour que ces visions communes de business models soutenables puissent devenir opérationnelles, une phase d’ajustement intermédiaire reste nécessaire. Dans les premières phases d’un projet de transformation, le défi principal reste de mobiliser autour d’un enjeu commun et séduisant. Sous cet angle, les scénarios utopistes peuvent jouer un rôle mobilisateur et fédérateur en amont.


À lire aussi : Entre utopie et dystopie, créer un langage végétal


The Conversation

Angèle Richard est membre de l'Institut de Recherche en Gestion et Economie. Elle a reçu des financements de la Chaire Tourisme Durable de l'Université Savoie Mont Blanc.

Romain Gandia et Élodie Gardet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview