29.01.2026 à 12:14
Quand et comment décide-t-on qu’une espèce est éteinte ?
Texte intégral (4349 mots)

Il est bien plus difficile de prouver une absence que de constater une présence. Il faut donc souvent des années, et un processus minutieux, pour qu’une espèce soit déclarée éteinte. Cela peut-être particulièrement difficile lorsqu’il s’agit d’espèces nocturnes, discrètes ou vivant dans des milieux reculés.
Déclarer une espèce « éteinte », ce n’est pas comme rayer un nom d’une liste. C’est un verdict lourd de sens, prononcé avec une extrême prudence. Car annoncer trop tôt une disparition peut condamner une espèce qui existe peut-être encore quelque part. Alors comment font les scientifiques en pratique ?
Comment les scientifiques tranchent-ils la question de l’extinction ?
Pour en arriver là, les biologistes doivent mener des recherches exhaustives, dans tous les habitats potentiels, aux bonnes périodes (saisons, cycles de reproduction), et sur une durée adaptée à la biologie de l’espèce.
Concrètement, plusieurs indices sont analysés ensemble :
l’absence prolongée d’observations fiables,
des campagnes de recherche répétées et infructueuses,
le temps écoulé depuis la dernière observation confirmée,
et l’état de l’habitat. Si celui-ci a été totalement détruit ou transformé au point d’être incompatible avec la survie de l’espèce, la conclusion devient plus solide.
Autrement dit, on ne déclare pas une espèce éteinte parce qu’on ne l’a pas vue depuis longtemps, mais parce qu’on a tout fait pour la retrouver, sans succès.
Qui décide officiellement de l’extinction ?
À l’échelle mondiale, c’est l’Union internationale pour la conservation de la nature (UICN) qui statue, depuis 1964, via sa célèbre « liste rouge », référence internationale en matière de biodiversité.
La liste rouge classe les espèces selon leur risque d’extinction, en plusieurs catégories allant de « préoccupation mineure » à « éteinte ». Elle est mise à jour régulièrement, accessible en ligne, et donne aujourd’hui le statut de 172 600 espèces.
Bien plus qu’une simple liste d’espèces et de leur statut, elle fournit aussi des informations sur l’aire de répartition, la taille des populations, l’habitat et l’écologie, l’utilisation et/ou le commerce, les menaces ainsi que les mesures de conservation qui aident à éclairer les décisions nécessaires en matière de préservation.
C’est donc un outil indispensable pour informer et stimuler l’action en faveur de la conservation de la biodiversité et des changements de politique. Le processus d’élaboration de la liste rouge implique le personnel de l’équipe d’évaluation et de connaissance de la biodiversité de l’UICN, les organisations partenaires, les scientifiques, les experts de la Commission de la sauvegarde des espèces de l’UICN, ainsi que les réseaux partenaires qui compilent les informations sur les espèces.
L’IUCN déclare une espèce comme « éteinte » quand il n’existe aucun doute raisonnable que le dernier individu a disparu. Des gouvernements ou agences nationales peuvent également déclarer une espèce éteinte localement, sur leur territoire.
Des extinctions bien réelles : quelques exemples récents
Le dodo (Raphus cucullatus) reste l’icône des extinctions causées par l’humain : découvert à la fin du XVIᵉ siècle lors de l’arrivée des Européens sur l’île Maurice, il disparaît moins de cent ans plus tard, victime de la chasse et des espèces introduites.
Mais il est loin d’être un cas isolé, les extinctions récentes touchent tous les groupes du vivant. Si les espèces insulaires représentent une part disproportionnée des extinctions récentes (les îles, bien qu’elles ne couvrent que 5 % des terres émergées, abritent près de 40 % des espèces menacées), les espèces continentales sont également touchées.
- L’espadon de Chine (Psephurus gladius), une grande espèce de poisson d’eau douce (jusqu’à plusieurs mètres) qui vivait dans le fleuve Yangtsé, a été déclaré éteint en 2022. La surpêche, les barrages bloquant les migrations et la destruction de son habitat ont eu raison de cette espèce spectaculaire qui a été aperçue pour la dernière fois en 2003.
Le courlis à bec grêle (Numenius tenuirostris), un oiseau des zones humides, qui hibernait autour de la Méditerranée avant de rejoindre sa Sibérie natale au printemps, n’a plus été observé de manière certaine depuis 1995. Une étude publiée fin 2024 estime à 96 % la probabilité qu’il soit aujourd’hui éteint, victime de l’agriculture intensive et du drainage des marais.
La musaraigne de l’île Christmas (Crocidura trichura), discrète habitante de l’océan Indien, a été officiellement déclarée éteinte en 2025, après quarante ans sans observation malgré des recherches répétées. Les prédateurs introduits (rats, chats) et les perturbations de l’habitat sont les principaux suspects.
Deux escargots polynésiens (Partula dentifera et P. pearcekellyi) ont été officiellement déclarés éteints en 2024. La cause principale de leur disparition serait l’introduction d’un escargot prédateur invasif (Euglandina rosea), une tragédie silencieuse mais fréquente sur les îles.
Chez les plantes, Amaranthus brownii, une plante herbacée annuelle endémique d’une petite île hawaïenne, a été déclarée éteinte en 2018 après plus de trente-cinq ans sans observation malgré des recherches intensives. La destruction de son habitat et l’arrivée d’espèces invasives ont conduit à sa disparition, sans qu’aucune graine ni plant viable n’ait pu être conservé.
Depuis 2024, la liste rouge de l’IUCN comprend aussi des champignons. En mars 2025 la liste évaluait le statut de 1 300 espèces de champignons. Nous sommes loin des 155 000 espèces connues, mais les premières évaluations restent préoccupantes avec 411 espèces de champignons menacées d’extinction, soit près d’un tiers des espèces recensées.
Peut-on vraiment être sûr ? Entre erreurs, miracles et illusions
L’histoire de la biodiversité peut être pleine de rebondissements.
- L’effet Lazare désigne la redécouverte d’espèces que l’on croyait éteintes. Ce terme fait référence au personnage biblique du Nouveau Testament ressuscité plusieurs jours après sa mort par Jésus. Ce terme est aussi employé en paléontologie pour désigner des groupes d’organismes qui semblent avoir disparu pendant des millions d’années dans le registre fossile avant de réapparaître comme par miracle.
Selon le naturaliste, Brett Scheffers et ses collaborateurs au moins 351 espèces ont ainsi été « ressuscitées » en un peu plus d’un siècle, parfois après des décennies d’absence. La perruche nocturne (Pezoporus occidentalis) ou la rousserolle à grand bec (Acrocephalus orinus) en sont des exemples spectaculaires. Il est important de noter que la majorité de ces redécouvertes concerne des espèces si rares ou difficiles à trouver que leur seule occurrence confirmée provenait de leur description initiale. Ces espèces redécouvertes sont donc pour leur grande majorité toujours considérées comme gravement menacées et pourraient disparaître prochainement.
- L’effet Roméo, au contraire, survient lorsqu’on renonce trop tôt à sauver une espèce en la croyant disparue.
Résultat : on cesse les efforts de conservation… alors qu’il restait peut-être une chance de la sauver. Ce nom fait référence au Roméo de Shakespeare qui renonce à vivre en croyant Juliette morte, alors qu’elle ne l’est pas encore. La conure de Caroline (Conuropsis carolinensis), un perroquet d’Amérique du Nord, pourrait en être un triste exemple. Présumée éteinte au début du XXᵉ siècle cette espèce a probablement survécu plus longtemps comme en atteste les nombreux témoignages locaux (incluant des détails sur son comportement) jusqu’aux années 1950, et peut-être même jusqu’aux années 1960.
- Enfin, l’effet thylacine (du nom du thylacine, plus connu sous le nom de « tigre de Tasmanie ») illustre l’excès inverse : l’espoir persistant qu’une espèce éteinte survit encore, malgré l’absence de preuves solides.
Le thylacine, dont le dernier animal (captif) est officiellement mort en 1936, continue de fait d’alimenter de nombreuses rumeurs et témoignages d’observations non vérifiables. Selon l’étude scientifique la plus complète à ce sujet le dernier animal sauvage entièrement documenté (avec des photographies) a été abattu en 1930, mais il n’y aurait aucune raison de douter de l’authenticité de deux carcasses signalées en 1933, ni de deux autres captures suivies de relâchers en 1935 et en 1937. Par la suite, sur une période de huit décennies, 26 morts et 16 captures supplémentaires ont été rapportées, mais sans être vérifiées, ainsi que 271 observations par des « experts » (anciens piégeurs, chasseurs, scientifiques ou responsables) et 698 signalements par le grand public. En 2005, le magazine australien d’information The Bulletin a offert une récompense de plus d’un million de dollars (soit plus 836 000 euros) à quiconque fournirait une preuve scientifique de l’existence du thylacine, en vain. Entre 2014 et 2020, 3 225 sites équipés de pièges photographiques en Tasmanie, totalisant plus de 315 000 nuits de surveillance, n’ont révélé aucune détection pouvant être attribuée à un thylacine.
Pourquoi est-ce si compliqué de mesurer les extinctions ?
Prouver une absence est bien plus compliqué que constater une présence. L’UICN préfère donc l’extrême prudence et ne classe une espèce « éteinte » que lorsqu’elle peut l’affirmer avec certitude. En effet, comme nous l’avons vu, officialiser une extinction est un acte lourd de conséquences car cela conduit à clôturer les éventuelles mesures de protection. Ainsi, le requin perdu (Carcharhinus obsoletus) est estimé comme « gravement menacé d’extinction – possiblement éteint » par la dernière publication de la liste rouge de l’UICN en 2020, alors qu’il n’a plus été vu dans ses eaux de la mer de Chine depuis 1934. La liste rouge ne déclarant éteintes que des espèces pour lesquelles il n’y a aucun doute, les extinctions enregistrées sont largement sous-estimées.
De plus, notre vision est biaisée : les vertébrés (en particulier les oiseaux et les mammifères) sont relativement bien suivis, mais l’immense majorité des espèces – insectes, invertébrés, champignons, microorganismes – restent très mal connues et leur taux d’extinction est sous-estimé. Beaucoup d’espèces sont discrètes, minuscules, nocturnes ou vivent dans des milieux difficiles d’accès. Pour la majorité d’entre elles, les données sont quasi inexistantes et elles peuvent disparaître sans que personne ne s’en aperçoive.
Pourquoi est-ce si important de savoir ?
Savoir si une espèce a réellement disparu permet de choisir les bonnes stratégies de conservation. Beaucoup d’espèces peuvent encore être sauvées lorsque quelques individus subsistent. C’est par exemple le cas du condor de Californie (Gymnogyps californianus) pour lequel il restait seulement 22 individus à l’état sauvage dans les années 1980. Un programme de capture de ces spécimens, puis d’élevage en captivité et de réintroduction progressive a permis à la population sauvage de réaugmenter progressivement et d’atteindre 369 individus en 2024.
À l’inverse, un diagnostic erroné – trop optimiste ou trop pessimiste – peut détourner les efforts au mauvais moment.
L’extinction est un fait biologique, mais c’est aussi un défi méthodologique. Entre prudence scientifique, incertitudes du terrain et illusions collectives, établir la frontière entre « menacée » et « éteinte » reste l’un des exercices les plus sensibles de la conservation moderne.
Violaine Nicolas Colin a reçu des financements de l'ANR
28.01.2026 à 16:12
Face aux aléas climatiques, les îles du Pacifique mobilisent les savoirs locaux
Texte intégral (3129 mots)
Les îles du Pacifique sont parmi les plus exposées aux aléas climatiques. Leur histoire les rend aussi particulièrement dépendantes des importations pour se nourrir. Mobiliser les savoirs locaux pour renforcer la souveraineté alimentaire et la résilience des territoires insulaires face au changement climatique est donc crucial.
« Depuis deux ans, peut-être, on ressent quand même qu’il y a un changement au niveau climatique, au niveau de la pluie. Avant, c’était assez fixe. On sait que juillet, c’est [la] saison fraîche […]. Mais l’année dernière, on était en sécheresse depuis juin jusqu’à novembre », constate un homme sur la presqu’île de Taravao, en Polynésie.
Sur l’île de Moorea, à 70 km de là, une femme renchérit.
« C’est vrai qu’on a remarqué les changements climatiques, quand on était plus petit, tu voyais bien les saisons […]. Maintenant, même sur les abeilles, on le voit. Normalement, là, ça y est, on est en période d’hiver austral, de juin jusqu’à septembre, on n’a plus de [miel]. Là, elles continuent encore à produire. Même les abeilles, elles sentent qu’il y a eu un changement. »
Les îles du Pacifique ont régulièrement été confrontées à des événements météorologiques parfois violents : fortes chaleurs, sécheresses, cyclones… L’une des premières conséquences du changement climatique est l’augmentation de la fréquence et/ou de l’intensité de ces évènements, auxquels sont particulièrement exposées les îles du Pacifique.
En effet, de par leur nature insulaire, ces phénomènes affectent l’intégralité des terres, qui sont également plus sensibles à la montée du niveau des océans.
L’agriculture est un secteur important pour ces îles. C’est à la fois une source de nourriture et de revenus pour les agriculteurs comme pour les personnes qui cultivent un jardin océanien. Ces jardins, qui regroupent une grande diversité d’espèces végétales (fruits, légumes, tubercules, plantes aromatiques et parfois médicinales), favorisant la biodiversité dans son ensemble, sont largement répandus dans les îles du Pacifique et particulièrement en Polynésie où ils constituent une part significative de l’identité polynésienne. Les surplus de productions sont régulièrement vendus au bord des routes.
Les impacts du changement climatique présents et à venir sur l’agriculture sont considérables et risquent d’affecter la sécurité alimentaire des îles du Pacifique, fragilisées entre autres par leur dépendance aux importations alimentaires. Les habitants s’y préparent déjà et ont déployé une culture du risque, nourrie de savoirs et de savoir-faire sans cesse renouvelés pour y faire face.
La place des savoirs autochtones et traditionnels dans l’agriculture en Polynésie française
Si les savoirs autochtones et locaux sont depuis longtemps identifiés par leurs détenteurs et par les chercheurs en sciences humaines et sociales pour leur potentiel d’adaptation à l’environnement, une attention particulière leur est portée depuis les accords de Paris en 2015. Ils sont depuis internationalement reconnus comme ressource pour comprendre le changement climatique et ses effets et également pour mettre au point des actions pertinentes pour l’adaptation.
Dans le cadre du projet CLIPSSA, notre équipe a mené des entretiens auprès des cultivateurs et cultivatrices des îles du Pacifique pour comprendre comment se construisent leurs cultures du risque, leurs savoirs et pratiques agricoles pour faire face aux effets du changement climatique.
Face aux fortes chaleurs ou aux fortes pluies qui comptent parmi les effets marquants du changement climatique dans la région, les cultivateurs du Pacifique combinent par exemple différentes techniques comme le paillage (protéger un sol avec de la paille, du fumier, ou de la bâche plastique), la diversification et l’adaptation des types de cultures et de plantations…
Ces différents savoirs et techniques sont parfois transmis par les aînés, parfois expérimentés par soi-même, parfois observés chez d’autres cultivateurs. À Tahiti et à Moorea, deux îles proches de l’archipel de la Société, en Polynésie française, les jardins océaniens (faaapu en tahitien) sont des lieux clés où ces savoirs circulent, s’échangent, s’expérimentent et s’hybrident.
Ces savoirs autochtones, locaux sont avant tout ancrés dans un territoire et adaptés à leur environnement et à ses changements : à ce titre, ils sont en constante évolution. Pourtant, on les désigne souvent comme des savoirs traditionnels ou ancestraux, ce qui peut sous-entendre qu’ils sont transmis à l’identique, de génération en génération. Mais comment ces savoirs ancestraux habitent et nourrissent les savoirs locaux aujourd’hui ?
La figure des Anciens (tupuna) est importante en Polynésie ; particulièrement en agriculture. En effet, le secteur agricole a connu d’importants changements dans les années 1970, avec l’arrivée du Centre d’expérimentation du Pacifique : la mise en œuvre des essais nucléaires a eu de nombreuses conséquences sanitaires, mais aussi économiques (tertiarisation de l’économie polynésienne), et agricoles (développement des importations, notamment alimentaires).
Si le secteur agricole n’a pas pour autant disparu, il a été marginalisé pendant cette période, créant ainsi une rupture dans la transmission des savoirs. Cette rupture a contribué à renforcer l’estime portée aux savoirs agricoles des Anciens qui ont commencé à cultiver avant cette période de changements et s’inscrit dans la continuité de la réappropriation culturelle de l’identité polynésienne, matérialisée, entre autres, par les liens et références à ses ancêtres.
Ainsi, la transmission des connaissances et pratiques des Anciens reste importante, dotée d’une valeur symbolique forte et largement citée par les Polynésiens ; au point où nous pouvons parler d’un socle de savoirs ancestraux.
Mais l’on ne cultive plus aujourd’hui en Polynésie comme l’on cultivait dans les années 1950 ; l’agriculture s’est modernisée, ouverte aux intrants et à de nouvelles cultures. Ce socle s’est donc enrichi de nombreuses influences (modernisation de l’enseignement agricole, tutoriels issus des réseaux sociaux…).
Observer la diversité des savoirs et les pratiques agricoles dans les jardins océaniens
C’est ce que tâche de faire Thierry, qui s’occupe d’un faaapu depuis une quarantaine d’années sur la presqu’île de Tahiti. Cet habitant cultive sur quelques hectares plusieurs dizaines de variétés de bananes, tubercules, coco, agrumes, avocats, destinées à l’autoconsommation mais aussi à la vente.
Le socle de connaissances (savoirs et pratiques) principalement mobilisé par Thierry est celui des savoirs ancestraux, considérés comme une base de savoirs auxquels se référer. Par exemple, il mobilise des indicateurs environnementaux pour planifier ses activités, comme la floraison d’une Zingiberacée qui annonce une période d’abondance pour la pêche, signifiant aux agriculteurs qu’ils doivent se préparer à laisser leurs cultures quelques semaines pour se concentrer sur une activité complémentaire.
Sa parcelle est traversée par une rivière, principale source d’irrigation de ses cultures. Mais pour faire face aux périodes de fortes sécheresses qui peuvent assécher la rivière, ce qu’il observe depuis 2008, il utilise également des bidons en plastique dans lesquels il stocke de l’eau à proximité de ses cultures.
Il utilise aussi le paillage, une technique de recouvrement des sols pour les protéger et garder l’humidité, en disposant des palmes de cocotiers, des troncs de bananiers qu’il complète avec des cartons depuis qu’il a constaté l’assèchement annuel de la rivière :
« Alors, moi, je ne vais pas aller par quatre chemins, nous raconte-t-il. Je vais mettre des cartons par autour. Je vais aller chez les commerçants, leur demander des cartons vides. Je vais mettre par autour parce que je n’ai pas envie de passer mon temps courbé. Après, tu lèves, tu retires. »
Plus globalement, d’une année sur l’autre, Thierry adapte ses cultures en fonction de l’évolution du climat qu’il ressent et décrit ; par exemple en plantant des tubercules, comme le taro, un tubercule tropical adapté au milieu humide.
« Avant, il n’y a jamais d’eau qui coulait ici. Jamais. Et depuis deux-trois ans… Avec cette pluie qui tombe à partir de février-mars, je veux planter des taros, là. Comme ça, je m’adapte, je tire pour le prix de cette eau qui tombe gratuitement. »
À travers l’exemple du faaapu de Thierry, nous pouvons observer que si les savoirs ancestraux restent le socle de références mobilisé pour cultiver, pour faire face aux aléas du changement climatique, il n’hésite pas à adapter ses pratiques, introduire des matériaux ou changer certaines de ses cultures.
Des « faisceaux de savoirs ordinaires » plutôt que des « savoirs ancestraux extra-ordinaires »
Évoquer les savoirs autochtones et locaux renvoie généralement aux notions de « savoirs traditionnels », de « savoirs ancestraux ». Ces savoirs peuvent effectivement avoir un ancrage temporel, beaucoup sont transmis depuis plusieurs générations par exemple. Mais il s’agit d’abord de savoirs ancrés localement, adaptés à leur environnement, qui, à ce titre, ont la capacité de se transformer, de s’hybrider avec d’autres types de savoirs mais aussi de se cumuler, comme nous avons pu le voir dans l’étude de cas présentée.
Face à l’urgence du changement climatique et de ses impacts en milieu insulaire, les politiques publiques locales, nationales ou globales recherchent souvent des solutions d’atténuation ou d’adaptation efficaces et radicales, en misant sur les innovations technologiques, l’ingénierie climatique, les énergies renouvelables…
Au-delà des changements importants et à grande échelle, qui peuvent aussi être complexes, longs et coûteux à mettre en place, les stratégies locales d’adaptation doivent également être envisagées comme des solutions. En revanche, ces solutions locales sont rarement des pratiques délimitées et liées à des savoirs « extraordinaires » (c’est-à-dire en dehors du cours ordinaire des règles et normes attendues). L’adaptation au changement climatique se fait plutôt par succession de petites adaptations, parfois invisibles, dont la configuration est presque unique à chaque agriculteur ou jardinier.
En Polynésie, c’est l’articulation d’un socle de savoirs ancestraux, combiné avec de nombreuses autres ressources, qui fait aujourd’hui la richesse des savoirs agricoles locaux et permet de s’adapter à certains effets du changement climatique. Ces savoirs sont une ressource précieuse à étudier et à mobiliser pour faire face aux risques systémiques du changement climatique qui pèsent sur les petits territoires du Pacifique et notamment sur l’agriculture et la souveraineté alimentaire.
Nous tenons à remercier à Alexi Payssan (anthropologue, Tahiti) pour les échanges inspirants concernant cet article.
Cet article est publié dans le cadre de la Fête de la science (qui a eu lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.
Le postdoctorat de Maya Leclercq dans le cadre duquel cette recherche a été menée est financé par le projet CLIPSSA (dont les fonds proviennent de l'AFD, de l'IRD et de Météo-France).
Catherine Sabinot a reçu des financements de l'AFD pour réaliser le programme de recherche qui a permis de produire les résultats présentés dans l'article.
27.01.2026 à 16:24
En quoi les communs peuvent-ils répondre aux enjeux de la transition écologique ?
Texte intégral (2152 mots)
De nombreuses initiatives promeuvent aujourd’hui le retour des communs, c’est-à-dire des formes de gestion collective des ressources dont les communautés humaines ont besoin. Pertinente pour répondre à une multitude d’enjeux, cette approche, de par son caractère coopératif, innovant et transversal, apparaît particulièrement prometteuse pour accompagner la transition écologique.
La notion de « communs » revient depuis quelques années sur le devant de la scène, déclinée à des domaines aussi variés que les transports, la santé, l’éducation ou le numérique. Qu’est-ce que les communs ? On peut les définir comme des ressources matérielles (jardins partagés, boîte à livres…) ou immatérielles (Wikipédia, OpenStreetMap…) gérées collectivement par une communauté qui établit des règles de gouvernance dans le but de les préserver et de les pérenniser.
Leur théorisation est récente, mais le principe des communs est en réalité très ancien, beaucoup plus d’ailleurs que la construction juridique et politique, plus récente, de la propriété privée. L’exploitation et l’entretien des ressources, en particulier naturelles, ont très longtemps été organisés collectivement par les communautés humaines… jusqu’à ce que différents processus, dont la construction des États-nations et l’essor du commerce international, contribuent à démanteler ces communs.
Ces dernières décennies, plusieurs facteurs ont entraîné leur regain :
D’une part, la prise de conscience, des effets néfastes de la privatisation des terres sur l’équilibre alimentaire des pays du Sud.
De l’autre, l’essor d’internet et de l’open source, mouvement qui s’oppose au modèle du logiciel propriétaire.
Les travaux d’Elinor Ostrom, qui a reçu en 2009 le Nobel d’économie pour ses travaux démontrant l’efficacité économique des communs, ont largement contribué à imposer le terme dans la sphère médiatique.
À lire aussi : « L’envers des mots » : Biens communs
La collaboration plutôt que la concurrence
Aujourd’hui, l’idée des communs prend d’autant plus d’importance dans le contexte de la transition écologique. En effet, la prise de conscience d’un monde aux ressources finies implique de repenser leur gestion collective. Or, les communs sont particulièrement propices aux démarches d’intérêt général. Leur logique, fondée sur la coopération, va à rebours de celle, dominante, de la concurrence. Dans un cadre de ressources contraintes, une telle logique est précieuse.
C’est pourquoi de nombreux acteurs, pouvoirs publics comme acteurs privés, commencent à s’en emparer. En France, l’Agence de la transition écologique (Ademe) a déjà accompagné 50 projets de communs depuis quatre ans, à travers un appel à communs (AAC) inédit consacré à la sobriété et la résilience des territoires.
Les porteurs de projets (associations, entreprises, collectivités…) ayant bénéficié d’un soutien technique et financier dans ce cadre doivent ainsi respecter un certain nombre de critères en matière de coopération et de transparence.
Toutes les ressources produites doivent, par exemple, être encadrées par des licences ouvertes. Les porteurs doivent également s’inscrire dans une posture collaborative : s’organiser pour diffuser au maximum les ressources, intégrer les retours utilisateurs et se connecter aux communautés déjà formées dans le domaine.
D’autres acteurs participent à la transformation de l’action publique et se mobilisent sur les communs : la Fondation Macif, l’IGN, France Tiers-Lieux (partenaires de l’AAC de l’Ademe), l’Agence nationale de la cohésion des territoires (ANCT), le ministère de l’éducation nationale, la direction interministérielle du numérique (Dinum)…
Des enjeux transversaux
En favorisant les synergies entre acteurs, les communs apportent des réponses moins cloisonnées.
La 3e édition de l’Appel à communs de l’Ademe traite cinq thématiques sous forme de défis (alimentation et forêt, aménagement et bâtiment, mobilité et logistique, recyclage matière et numérique) qui peuvent être abordés de manière transversale.
Autre spécificité, les candidatures sont rendues publiques avant le dépôt et la sélection des projets, ce qui encourage les postulants à créer des synergies, voire des fusions de projets, des échanges de briques techniques. Les moyens humains et financiers nécessaires au développement des communs sont alors mutualisés, ce qui, à moyen et long terme, permet de réduire les dépenses et de multiplier les impacts.
Parmi les projets de communs que l’Ademe a accompagnés, on peut citer La rue commune. Cette méthode pour repenser les rues en tant que premier bien commun urbain prend en compte des enjeux de différentes natures selon cinq principes :
le lien social,
la priorité au piéton pour favoriser la santé et le bien-être,
la biodiversité,
le rafraîchissement urbain,
et la valorisation des eaux pluviales.
Un autre exemple, Le logement social paysan, entend promouvoir la réhabilitation des fermes pour en faire des logements sociaux paysans, en organisant la rencontre entre paysans et bailleurs sociaux. Ici se croisent les enjeux du bâtiment et ceux de l’agriculture.
Le potentiel des communs numériques
Un intérêt croissant est porté aujourd’hui aux communs numériques, qui constituent à la fois un outil très puissant pour croiser des données complexes et les mettre en commun au service de la transition.
Parmi les projets que l’Ademe a déjà soutenus, citons Pas de vacances pour la vacance, un outil de datavisualisation construit à partir de données publiques qui permet d’observer, à différentes échelles du territoire, la part de logements vacants. L’intérêt : permettre de les revaloriser dans une logique d’urbanisme circulaire et de mieux exploiter ce levier pour répondre aux besoins de logements.
Même principe pour le commun Diagnostic mobilité. Cet outil permet, par datavisualisation, un prédiagnostic pour les collectivités rurales des flux de déplacement majoritaires sur leur territoire, afin de les guider dans les choix de leur politique de transport.
Les communs constituent aujourd’hui un cadre d’action stratégique pour mobiliser l’intelligence collective, dans une logique d’innovation ouverte au service de la transition écologique, en décloisonnant les approches et en mutualisant les savoirs.
À lire aussi : Aux sources de la démocratie : penser le « commun » avec Alcméon, Héraclite et Démocrite
Héloïse Calvier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
26.01.2026 à 14:58
L’agriculture verticale peut-elle nourrir les villes ? Comment dépasser le mirage technologique
Texte intégral (1520 mots)
L’agriculture verticale a longtemps été présentée comme une solution miracle pour nourrir les mégapoles tout en réduisant leur empreinte environnementale. Mais derrière les promesses high-tech, la réalité est contrastée. Entre des succès spectaculaires en Asie et des faillites retentissantes en Europe et aux États-Unis, le modèle cherche encore sa voie.
L’agriculture verticale repose sur une idée simple : produire en intérieur et hors-sol, dans des milieux totalement contrôlés, y compris la lumière, la température, l’humidité et les nutriments, sur de vastes étagères en hauteur, au cœur des villes. À première vue, ses avantages paraissent irrésistibles. Sans pesticides, ce mode de culture consomme jusqu’à 90 % d’eau en moins grâce au recyclage – notamment l’hydroponie – et peut fonctionner 365 jours par an, avec un rendement élevé, sans dépendre des caprices du climat. Il offre ainsi la promesse d’une production fraîche et locale, directement connectée aux circuits courts.
Cet horizon a suscité un engouement mondial. Le Japon, avec la société Spread, a automatisé la production de salades indoor sur de vastes étagères, dans des univers aseptisés, à l’échelle industrielle. Singapour a inscrit les fermes verticales au cœur de son objectif « 30 by 30 », visant à couvrir localement 30 % de ses besoins alimentaires d’ici à 2030. Les pays du Golfe, comme les Émirats arabes unis et le Koweït, confrontés à la rareté des terres arables, y voient un outil stratégique alors que, aux États-Unis, des start-up ont levé des centaines de millions de dollars sur la base d’une vision d’un futur alimentaire ultratechnologique. Mais des échecs cuisants mettent aussi en évidence les limites du modèle, qui peu à peu tente de se réinventer pour y répondre.
Les ingrédients du succès
Les fermes verticales qui fonctionnent vraiment partagent un point commun : elles naissent dans des contextes où elles répondent à un besoin structurel. Dans les régions où la terre est rare, chère ou aride, la production en hauteur – ou à la verticale – répond efficacement aux contraintes géographiques.
À Singapour ou à Dubaï, par exemple, l’État joue un rôle déterminant en soutenant financièrement les infrastructures, en réduisant les risques d’investissement et en intégrant ces technologies dans les stratégies alimentaires nationales.
La réussite de ces modèles tient aussi à leur insertion dans les dynamiques locales. En effet, à Dubaï, les fermes verticales ne se contentent pas de produire, mais contribuent également à la sécurité alimentaire, à la formation technique, à l’emploi qualifié et à la sensibilisation des citoyens.
L’île-ville de Singapour s’appuie par ailleurs sur des technologies hydroponiques et aéroponiques avancées, avec des tours agricoles intégrés au bâti urbain. Ceci illustre l’adaptation de l’agriculture aux contraintes foncières et urbaines. Les progrès technologiques, notamment l’éclairage LED à haut rendement, l’automatisation poussée et l’IA permettant d’optimiser la croissance des plantes, améliorent la performance des modèles les mieux conçus.
Malgré des défis (coûts énergétiques, fragilité économique), ces fermes continuent aujourd’hui d’être considérées comme un « modèle d’avenir » pour des villes-États densément peuplées, ce qui montre que l’initiative s’inscrit dans une politique de long terme plutôt qu’à titre de simple effet de mode.
Coût, énergie et dépendance au capital-risque
Malgré ces succès, de nombreux projets ont échoué et révélé les fragilités d’un modèle bien moins robuste qu’il y paraît.
Le premier obstacle est énergétique. Éclairer, climatiser et faire fonctionner une installation entièrement contrôlée demande une quantité importante d’électricité, ce qui rend l’activité coûteuse et parfois peu écologique lorsque l’énergie n’est pas décarbonée.
Le second obstacle est économique : les marges sur les herbes aromatiques ou les salades sont faibles, et le modèle dépend souvent du capital-risque plutôt que de revenus stables. C’est ce qui a précipité les difficultés d’Infarm en Europe et d’AeroFarms aux États-Unis.
Certaines fermes se sont également retrouvées déconnectées des besoins alimentaires locaux, produisant des volumes ou des produits qui ne répondaient pas aux attentes des territoires. Le modèle, mal ancré localement, devient alors vulnérable à la moindre fluctuation des marchés financiers ou énergétiques.
De nouveaux modèles en développement
Face à ces limites, une nouvelle génération de projets émerge, cherchant à combiner technologie, intégration et demande urbaine au moyen de modèles de microfermes verticales adossées à des supermarchés, garantissant la fraîcheur, la visibilité et une réduction des coûts logistiques.
D’autres initiatives explorent les synergies énergétiques, en couplant production alimentaire et récupération de chaleur de data centers, en développant des serres photovoltaïques ou en utilisant des réseaux de chaleur urbains.
Les fermes verticales évoluent aussi vers des fonctions plus pédagogiques et démonstratives : même après sa faillite, une partie du modèle Infarm continue d’inspirer des fermes urbaines où la production sert autant à sensibiliser les citoyens qu’à fournir des produits frais. Ces approches hybrides témoignent d’une maturité croissante du secteur, qui privilégie moins la production de masse que la pertinence territoriale.
Vers une agriculture verticale plus durable ?
Pour devenir un levier crédible de la transition alimentaire, l’agriculture verticale doit clarifier sa finalité. Produire davantage ne suffit pas : il s’agit de contribuer à la résilience alimentaire des villes, d’offrir une complémentarité avec les agricultures urbaines plus « horizontales », telles que les toits productifs, les ceintures maraîchères ou les jardins partagés, et de s’inscrire dans les politiques alimentaires territoriales.
En particulier, les projets alimentaires territoriaux (PAT) peuvent, par leur ambition, fédérer les différents acteurs du territoire autour de l’alimentation. Ils jouent un rôle clé pour intégrer ces dispositifs de manière cohérente, en les articulant avec les enjeux de nutrition, d’accessibilité, de distribution et d’éducation. L’agriculture verticale ne deviendra durable que si elle est pensée dans une logique systémique, sobre sur le plan énergétique, ancrée localement et compatible avec les objectifs climatiques.
Loin d’être la panacée, elle est en revanche un laboratoire d’innovation. Là où elle réussit, c’est parce qu’elle s’inscrit dans une vision systémique de la transition alimentaire, combinant technologie, gouvernance territoriale et sobriété énergétique. Son avenir dépendra moins de la hauteur des tours que de la manière dont elle s’imbrique dans les territoires et contribue à renforcer la capacité des villes à se nourrir face aux crises climatiques et géopolitiques.
Marie Asma Ben-Othmen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
22.01.2026 à 12:29
En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes
Texte intégral (2895 mots)

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.
À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.
Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.
Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.
De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.
C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).
Les vertus de la phytoremédiation
Commençons par expliquer ce que l’on entend par « phytoremédiation ».
Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).
Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.
Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.
Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.
L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles
À lire aussi : La phytoremédiation : quand les plantes dépolluent les sols
La friche d’Uckange, laboratoire à ciel ouvert
Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.
Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.
Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.
Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.
Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.
Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.
À lire aussi : Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt
Associer plantes d’extraction et de dégradation
Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).
L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.
Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :
la diminution des teneurs en contaminants,
l’amélioration de la qualité agronomique,
et l’augmentation de la biodiversité microbienne.
La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.
Les premiers résultats seront publiés dans les prochains mois.
Bénéfices collatéraux de la phytoremédiation
Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.
Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.
Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.
En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.
Sonia Henry a reçu des financements de la Communauté d'Agglomération du Val de Fensch et de l'Institut Carnot Icéel
22.01.2026 à 12:16
Comment dépolluer les friches industrielles face à la défiance des habitants ?
Texte intégral (2086 mots)
Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.
Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.
Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).
Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.
Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.
Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.
Dépolluer : une étape indispensable mais complexe
Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.
Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.
À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.
Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.
À lire aussi : En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes
Le stigmate, angle mort de la reconversion
Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.
C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.
Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.
Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.
Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.
À lire aussi : Comment redonner une nouvelle vie aux friches industrielles en ville ?
Un décalage entre gestion technique et perceptions
Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.
Plusieurs mécanismes expliquent ce décalage.
Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.
La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.
Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.
Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.
Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.
Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.
À lire aussi : Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite
L'enquête détaillée dans l'article a été financée par l'Université de Montpellier.
Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l'ADEME et la Région Pays de la Loire (2014-2017).
21.01.2026 à 16:44
Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ?
Texte intégral (2250 mots)
En matière de transition énergétique, les débats sur la production et la consommation électrique tendent à occuper le devant de la scène politico-médiatique et à occulter le rôle des bioénergies. Ces dernières font pourtant partie intégrante de la programmation énergétique du pays. Leur production peut avoir des impacts majeurs tant sur les modes de production agricole que sur nos habitudes alimentaires.
Dans les prospectives énergétiques telles que la stratégie nationale bas carbone (SNBC), les scénarios négaWatt ou encore ceux de l’Agence de la transition écologique Ademe… les bioénergies sont régulièrement présentées comme un levier incontournable de la transition, en complément de l’électrification du système énergétique.
Pour rappel, ces énergies, qui peuvent être de différentes natures (chaleur, électricité, carburant…), se distinguent des autres par leur provenance. Elles sont issues de gisements de biomasses tels que le bois, les végétaux et résidus associés, les déchets et les effluents organiques.
L’électrification met en scène de nombreuses controverses politiques et sociétales dans le débat public et médiatique. Par exemple : compétition entre renouvelable et nucléaire, arrêt des moteurs thermiques… À l’inverse, les discussions sur les bioénergies se cantonnent encore aux milieux scientifiques et académiques.
Pourtant, leur déploiement implique des évolutions importantes. Et ceci à la fois dans les modes de production agricole et les habitudes alimentaires, en tout cas si nous le voulons durable.
Il est donc essentiel que le sujet bénéficie d’une meilleure visibilité et d’une plus grande appropriation par la société pour que puissent naître des politiques publiques cohérentes.
Les bioénergies, levier de la transition énergétique
La transition énergétique, qui consiste à réduire drastiquement le recours aux énergies fossiles, est centrale dans la lutte contre le changement climatique. À l’horizon 2050, elle s’appuie sur deux piliers :
d’une part l’augmentation de la production d’électricité « bas carbone », associée à une forte électrification des usages, notamment pour la mobilité.
de l’autre, une hausse conséquente de la production de bioénergies pour compléter l’offre électrique, en particulier pour les usages difficilement « électrifiables » (par exemple dans l’industrie).
Actuellement, au niveau national, les bioénergies représentent de 150 à 170 térawattheures (TWh) par an, soit un peu plus de 10 % de l’énergie finale consommée. Ce chiffre concerne principalement la filière bois, à laquelle s’ajoutent les biocarburants et la filière biogaz. À l’horizon 2050, les prospectives énergétiques prévoient une consommation de plus de 300 de bioénergies, avec une forte croissance dans les secteurs du biométhane (injection du biogaz dans le réseau de gaz après épuration du biométhane) et, dans une moindre mesure, des biocarburants.
La programmation pluriannuelle de l’énergie n°3 (PPE3), qui est en cours de consultation, constitue la feuille de route de la France pour sa transition énergétique, avec des objectifs chiffrés. Pour la filière biométhane, la cible est fixée à 44 TWh/an dès l’horizon 2030 puis jusqu’à 80 TWh/an en 2035, contre une production actuelle de l’ordre de 12 TWh/an. Concernant les biocarburants, la PPE3 prévoit une légère augmentation pour atteindre 50 TWh/an en 2030-2035.
À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?
La nécessité d’une biomasse « durable »
L’optimisme quant à nos capacités à cultiver de manière durable les biomasses nécessaires à la production de ces bioénergies n’est cependant plus de mise.
Alors que la deuxième Stratégie nationale bas carbone (SNBC) tablait sur une production de 370 TWh/an de bioénergies en 2050, la nouvelle version SNBC 3 revoit ce chiffre à la baisse à 305 TWh/an. En mai 2025, le rapport des académies d’agriculture et des technologies réduisait ce chiffre à 250 TWh/an.
L’évolution à la baisse de ces chiffres met en lumière l’inadéquation entre les besoins de biomasse pour la transition énergétique, telle qu’elle est actuellement envisagée, et les capacités de production du système agricole actuel.
En novembre 2023, le Secrétariat général à la planification écologique lançait l’alerte, à travers cette formule relayée par le Monde :
« Il y a un problème de bouclage sur la biomasse. »
Ces questionnements ont donné lieu à des échanges entre le ministère de l’agriculture et de la souveraineté alimentaire et l’Inrae autour des enjeux agronomiques, techniques et économiques d’une mobilisation accrue des différents gisements de biomasse et de leur transformation en bioénergies. Ils ont confirmé les difficultés de faire correspondre les besoins pour la transition énergétique et la capacité de production.
Les flux de biomasse en France
Pour y voir plus clair sur les enjeux et les leviers disponibles, il convient d’analyser plus globalement les flux de biomasses agricoles à l’échelle nationale.
Environ 245 millions de tonnes de matière sèche (MtMS) sont produits chaque année pour des usages primaires (directs) et secondaires (indirects). Ces usages se répartissent comme suit :
Environ 100-110 MtMS sont mobilisés pour l’alimentation animale et finalement la production de denrées alimentaires telles que le lait, la viande, les œufs.
Quelque 70-80 MtMS/an retournent directement au sol (résidus de cultures, fourrages et prairies), auxquels s’ajoutent environ 30 MtMS/an de flux secondaires principalement issus de l’élevage sous forme d’effluents (lisier, fumier, digestat…).
Environ 50-55 MtMS/an sont utilisés directement pour la production de denrées alimentaires humaines (dont plus de la moitié est exportée).
Et 9 MtMS/an servent à la production d’énergie (biocarburant et biogaz) auxquels s’agrègent environ 9MtMS/an de flux secondaires provenant de l’élevage et de l’industrie agroalimentaire (lisier, fumier, biodéchets…).
À échéance 2050, les besoins supplémentaires en biomasses pour les bioénergies s’établissent entre 30 et 60 MtMS/an.
Les dilemmes pour répondre à ces besoins accrus
Tous les acteurs s’accordent sur le fait qu’il n’est pas concevable de rediriger des ressources utilisables – et actuellement utilisées pour l’alimentation humaine – vers des usages énergétiques.
Il apparaît dès lors tentant de rediriger la biomasse qui retourne actuellement au sol. Pourtant, ces flux de biomasse sont essentiels à la santé, qualité et à la fertilité des sols. Ils participent à la lutte contre le changement climatique à travers leur contribution au stockage (ou à la limitation du déstockage) de carbone dans les sols.
Une autre piste, pour répondre à ces besoins croissants, serait d’augmenter la production primaire de biomasse à travers le développement et la récolte de cultures intermédiaires appelées « cultures intermédiaires à vocation énergétique » (CIVE). Celles-ci sont cultivées entre deux cultures principales.
Toutefois, une telle production supplémentaire de biomasse implique l’utilisation de ressources supplémentaires (nutriments, eau, produits phytosanitaires). Elle tend aussi à accroître les risques de transferts de pollution vers la biosphère.
Mobiliser trop fortement ces leviers pourrait donc s’avérer contreproductif. Les alertes s’accumulent à ce sujet. Ces leviers sont donc à actionner avec parcimonie.
Une autre piste, conceptualisée dans plusieurs scénarios de transition, serait de rediriger une partie de la biomasse actuellement utilisée pour nourrir les animaux d’élevage vers la production énergétique.
Ceci impliquerait à la fois une diminution des cheptels et une extensification des élevages afin de préserver leurs services écosystémiques rendus, tout en minimisant leur consommation de biomasse. Cela répondrait à l’enjeu de réduction des émissions de gaz à effet de serre de l’agriculture et serait donc le plus cohérent pour affronter les enjeux écologiques.
Ce scénario requiert toutefois des changements d’envergure dans nos habitudes alimentaires, avec une réduction de notre consommation de produits animaux pour éviter une augmentation des importations.
Vers des politiques publiques coordonnées et cohérentes ?
Après deux ans de retard et de blocages dans les ministères, la stratégie nationale pour l’alimentation, la nutrition et le climat ne semble malheureusement pas à la hauteur de cette problématique. En témoigne l’absence d’objectif chiffré sur la réduction de la consommation de produits animaux, voire la disparition du terme de réduction dans les dernières versions.
De même, les lois récentes d’orientation agricole et Duplomb renforcent l’orientation productiviste de l’agriculture, tout en minimisant les enjeux de transition. Ceci va à l’encontre (au moins partiellement) des orientations nécessaires pour la transition énergétique et la SNBC 3, sans parler des antagonismes avec la stratégie nationale biodiversité.
La France ne manque donc pas de stratégies, mais d’une cohérence globale entre elles. C’est bien cela qui conduit à un découragement des responsables de l’élaboration et la mise en œuvre des politiques publiques et à une adhésion insuffisante des citoyens à ces stratégies.
Il y a donc urgence à développer une vision et des politiques publiques intersectorielles cohérentes et complémentaires englobant l’énergie, l’agriculture, l’environnement, l’alimentation et la santé.
Fabrice Beline a reçu des financements de l’Ademe (projet ABMC) et de GRDF (projet MethaEau).
21.01.2026 à 16:19
Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ?
Texte intégral (2773 mots)
Au cœur de l’hiver, la quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, qui n’endommage pas l’environnement, qui soit confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.
Avoir chaud en hiver tout en limitant son impact environnemental peut sembler un défi. Chercher à avoir des vêtements nous protégeant au mieux du froid est certes un levier efficace pour réduire sa consommation d’énergie, comme le montrent des initiatives telles que le mouvement Slow Heat et d’autres expérimentations récentes.
Toutefois, cette démarche se heurte à une contradiction de taille : le secteur textile reste parmi les plus polluants au monde, avec des émissions de gaz à effet de serre importantes et une contribution notable aux microplastiques marins.
Alors, quelles matières tiennent vraiment chaud tout en respectant davantage l’environnement ? Si les fibres naturelles sont souvent mises en avant pour leur bonne isolation et leur fin de vie plus respectueuse de l’environnement, leur impact réel dépend largement de la manière dont elles sont produites et utilisées. Pour y voir plus clair, commençons par comprendre ce qui fait qu’un textile tient chaud.
La fabrication du textile tout aussi importante que la fibre
La capacité d’un textile à tenir chaud dépend moins de la fibre utilisée que de l’air qu’elle parvient à enfermer. En restant immobile dans de minuscules espaces au cœur du tissu, cet air limite les échanges de chaleur, un peu comme dans une couette ou un double vitrage. Plus un tissu est épais, duveteux ou poreux, plus il limite les échanges de chaleur.
Cette capacité dépend beaucoup de la structure des fibres et de la manière dont le textile est fabriqué. Les fibres frisées ou ondulées comme la laine de mouton créent des poches où l’air reste piégé. D’autres fibres comme l’alpaga (un camélidé des Andes proche du lama) ou le duvet synthétique sont partiellement creuses, augmentant encore la capacité isolante. De même, les tricots et mailles, plus lâches, isolent mieux que les tissages serrés. Ainsi, la chaleur d’un vêtement dépend autant de sa construction que de sa matière.
C’est sur ces mêmes principes physiques que reposent les fibres synthétiques. En effet, le polyester, l’acrylique, le polaire imitent en partie la laine par leur structure volumineuse et leur capacité à emprisonner de l’air, soit grâce à des fibres frisées, soit grâce à des fibres creuses ou texturées.
Ainsi, ces textiles offrent une bonne isolation thermique, sont légers et sèchent rapidement, ce qui les rend très populaires pour le sport et l’outdoor. En revanche, leur faible respirabilité intrinsèque et leur capacité limitée à absorber l’humidité peuvent favoriser la transpiration et la sensation d’humidité lors d’efforts prolongés. D’autre part, contrairement aux fibres naturelles, ces matériaux sont inflammables, un aspect souvent négligé, mais qui constitue un enjeu réel de sécurité.
Elles ont également un coût environnemental élevé. Issues du pétrole, non biodégradables et fortement consommatrices d’énergie, ces fibres libèrent à chaque lavage des microfibres plastiques dans l’eau, contribuant à la pollution marine. On estime qu’entre 16 % et 35 % des microplastiques marins proviennent de ces textiles, soit de 200 000 à 500 000 tonnes par an. Ces impacts surpassent largement ceux des fibres naturelles, ce qui constitue un vrai défi pour une mode plus durable.
Les bénéfices de la laine de mouton mérinos et de l’alpaga
Face à ces limites, les fibres naturelles apparaissent donc souvent comme des alternatives intéressantes, à commencer par la laine de mouton, longtemps considérée comme une référence en matière d’isolation thermique.
La laine possède en effet une structure complexe et écailleuse : chaque fibre est frisée et forme de multiples micro-poches d’air, réduisant ainsi la perte de chaleur corporelle. Même lorsqu’elle absorbe un peu d’humidité, l’air reste piégé dans sa structure, ce qui lui permet de continuer à isoler efficacement. Cette organisation particulière explique aussi pourquoi la laine est respirante et capable de réguler l’humidité sans donner une sensation de froid. Cependant, ces mêmes fibres peuvent parfois provoquer une sensation de « grattage » pour certaines personnes : plus les fibres sont épaisses, plus elles stimulent les récepteurs de la peau et provoquent des picotements. Il s’agit d’un phénomène purement sensoriel, et non d’une allergie.
Parmi les différents types de laines, la laine de mouton mérinos, issue d’une race d’ovin originaire d’Espagne se distingue par la finesse de ses fibres, nettement plus fines que celles de la laine classique (de 11 à 24 microns pour le mérinos et de 25 à 40 microns pour la laine classique) . Cette caractéristique réduit fortement les sensations d’irritation au contact de la peau et améliore le confort.
Elle favorise également la formation de nombreuses micro-poches d’air isolantes, tout en maintenant une excellente respirabilité. Ces qualités expliquent son usage croissant dans les sous-couches et vêtements techniques, aussi bien pour le sport que pour le quotidien.
Pour autant, la laine n’est pas exempte d’impact environnemental. Bien qu’elle soit renouvelable et biodégradable, son élevage contribue aux émissions de gaz à effet de serre, principalement via le méthane produit par les moutons et la gestion des pâturages. On estime qu’entre 15 et 35 kg de CO₂ équivalent sont émis pour produire 1 kg de laine brute, et qu’environ 10 000 litres d’eau sont nécessaires, selon le mode d’élevage. Le bien-être animal et les pratiques agricoles, comme le mulesing ou l’intensification des pâturages, jouent également un rôle déterminant dans l’empreinte globale de cette fibre.
D’autres fibres animales, comme l’alpaga, suscitent un intérêt croissant en raison de propriétés thermiques comparables, voire supérieures, associées à un meilleur confort. Les fibres d’alpaga sont en effet partiellement creuses, ce qui leur permet de piéger efficacement l’air et de limiter les pertes de chaleur, tout en restant légères. Contrairement à certaines laines plus grossières, elles ne grattent pas, ce qui les rend agréables à porter directement sur la peau.
Elles sont également plus longues et plus fines que la laine classique, avec une bonne capacité de régulation de l’humidité et un séchage plus rapide. Ces caractéristiques expliquent l’essor de l’alpaga dans les vêtements techniques comme dans les pièces haut de gamme, des sous-couches aux manteaux. Sur le plan environnemental, l’alpaga présente aussi certains avantages. En effet, l’élevage d’alpagas exerce généralement une pression moindre sur les écosystèmes : animaux plus légers, consommation alimentaire plus faible, émissions de méthane réduites et dégradation limitée des sols comparativement à l’élevage ovin. Là encore, la durabilité dépend largement du respect de systèmes extensifs et adaptés aux milieux locaux.
Le succès des fibres synthétiques
Malgré les nombreux atouts de ces textiles naturels, les fibres synthétiques restent donc très utilisées, notamment pour leurs performances techniques. Mais leur succès est aussi lié à des facteurs économiques et pratiques : elles sont généralement moins coûteuses, très abondantes dans le commerce, et faciles à transformer en vêtements de masse. Ces aspects rendent le synthétique accessible et pratique pour une large partie des consommateurs, ce qui explique en partie sa prédominance dans l’industrie textile, indépendamment des préférences individuelles.
Polaire, duvet synthétique ou fibres techniques offrent une isolation thermique efficace, tout en étant légères et rapides à sécher, des qualités particulièrement recherchées dans les vêtements de sport et d’outdoor. La conductivité thermique est une mesure de la capacité d’un matériau à conduire la chaleur : plus cette valeur est faible, moins la chaleur passe facilement à travers le matériau, ce qui signifie une meilleure capacité à retenir la chaleur dans un textile donné.
Des mesures de conductivité thermique montrent par exemple que certains isolants synthétiques comme la polaire présentent des valeurs très basses (0,035-0,05 watt par mètre-kelvin (W/m·K)), indiquant une excellente capacité à retenir la chaleur. Pour comparaison, la laine, lorsqu’elle est compacte ou densifiée, peut atteindre 0,16 W/m·K, mais dans les textiles isolants volumineux, elle reste faible (0,033–0,045 W/m·K).
Toutefois, l’origine fossile, la non-biodégradabilité, la libération de microplastiques et un recyclage encore très limité font des textiles synthétiques des matériaux à fort impact environnemental.
Le pull en laine qui gratte, un préjugé qui colle à la peau
À l’inverse, si les fibres naturelles sont parfois boudées, ce n’est pas toujours pour des raisons environnementales, mais souvent pour des questions de confort. Une personne ayant déjà porté un vêtement en fibres naturelles qui lui a paru inconfortable ou irritant peut développer un rejet global de ces fibres, au profit du synthétique, même lorsque des alternatives plus douces existent.
Or, des solutions sont disponibles : privilégier des fibres fines comme la laine mérinos, l’alpaga ou le cachemire, recourir à des traitements mécaniques ou enzymatiques pour adoucir les fibres, ou encore combiner différentes fibres naturelles. Le choix doit aussi tenir compte de l’usage du vêtement et de son contact direct avec la peau.
En pratique, choisir un textile chaud et moins polluant relève donc d’un compromis, qui dépend autant de la matière que de l’usage. Une sous-couche portée à même la peau bénéficiera de fibres fines et respirantes, comme la laine mérinos, tandis qu’une couche intermédiaire privilégiera l’isolation et un vêtement extérieur la protection contre l’humidité et le vent.
Enfin, plutôt que de rechercher une matière « parfaite », il est essentiel de raisonner en cycle de vie. Sa durabilité (combien de temps il est porté), sa réparabilité, la fréquence et la manière de le laver, ainsi que sa fin de vie (recyclage, réutilisation, compostage pour les fibres naturelles) influencent largement son impact environnemental total. Un vêtement bien entretenu et durable peut avoir un impact bien moindre qu’un textile « écologique », mais rapidement jeté.
Au final, les matières textiles les plus chaudes et les moins polluantes sont majoritairement naturelles, mais aucune n’est totalement exempte d’impact. La laine mérinos et l’alpaga offrent aujourd’hui un compromis intéressant entre chaleur, confort et fin de vie environnementale. Le rejet des fibres naturelles pour des raisons de grattage mérite d’être nuancé : la qualité et la finesse des fibres font toute la différence. Mieux informer sur ces aspects pourrait encourager des choix plus durables. En textile comme ailleurs, le meilleur choix reste souvent celui que l’on garde longtemps.
Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.01.2026 à 19:01
Le monde est désormais en « faillite hydrique », selon un rapport de l’ONU
Texte intégral (4581 mots)

De Téhéran au fleuve Colorado, les signes d’un effondrement durable des ressources en eau se multiplient. La planète consomme aujourd’hui plus d’eau douce qu’elle n’est capable d’en renouveler. Sous l’effet du changement climatique et de décennies de surexploitation, de nombreuses régions du monde ne parviennent plus à se remettre des périodes de manque d’eau. Cette situation, que nous qualifions de « faillite hydrique », est omniprésente : elle touche déjà des milliards de personnes avec des conséquences déjà visibles sur les sociétés, l’agriculture et les écosystèmes.
Le monde utilise aujourd’hui tellement d’eau douce, dans un contexte de changement climatique, qu’il est désormais en situation de « faillite hydrique ». Par là, il faut comprendre que nombreuses régions ne sont plus en mesure de se remettre des pénuries d’eau à mesure que celles-ci deviennent de plus en plus fréquentes.
Environ 4 milliards de personnes, soit près de la moitié de la population mondiale, vivent dans des conditions de grave pénurie d’eau (c’est-à-dire sans accès à une quantité d’eau suffisante pour répondre à tous leurs besoins) pendant au moins un mois par an.
En réalité, beaucoup plus de personnes subissent les conséquences du déficit hydrique : réservoirs asséchés, villes englouties, mauvaises récoltes, rationnement de l’eau, incendies de forêt et tempêtes de poussière dans les régions touchées par la sécheresse.
Les signes de faillite hydrique sont partout, de Téhéran, où les sécheresses et l’utilisation non durable de l’eau ont épuisé les réservoirs dont dépend la capitale iranienne, alimentant les tensions politiques, jusqu’aux États-Unis, où la demande en eau a dépassé les capacités du fleuve Colorado, une source cruciale d’eau potable et d’irrigation pour sept États.
La faillite hydrique n’est pas seulement une métaphore du manque d’eau. Il s’agit d’une situation chronique qui se développe lorsqu’un endroit utilise plus d’eau que la nature ne peut en remplacer de façon fiable, et lorsque les dommages causés aux ressources naturelles qui stockent et filtrent cette eau, comme les aquifères et les zones humides, deviennent difficiles à réparer.
Une nouvelle étude que j’ai dirigée avec l’Institut pour l’eau, l’environnement et la santé de l’Université des Nations unies (UNU) conclut que nous n’en sommes plus à des crises de l’eau ponctuelles et temporaires. De nombreux systèmes hydrologiques naturels ne sont plus en mesure de retrouver leur état historique. Ces systèmes sont désormais en état de défaillance, que nous proposons d’appeler « faillite hydrique ».
Reconnaître les signes de « faillite hydrique »
Lors d’une faillite financière personnelle, les signes avant-coureurs semblent au départ gérables : retards de paiement, compensés par des emprunts voire des ventes d’objets. Puis la spirale s’accélère. Les premières étapes d’une faillite hydrique sont assez similaires.
Cela commence doucement, d’abord les années sèches, où l’on augmente les prélèvements d’eau souterraine, on utilise des pompes plus puissantes ou encore des puits plus profonds.
Puis on va peut-être, pour répondre aux besoins, transférer l’eau d’un bassin à un autre. On assèche des zones humides et on rectifie le cours des rivières pour laisser de la place aux fermes et aux villes préexistantes.
C’est alors que les coûts cachés commencent à être visibles. Les lacs rétrécissent d’année en année. Les puits doivent être creusés plus profondément. Les rivières qui coulaient autrefois toute l’année deviennent intermittentes. L’eau salée s’infiltre dans les aquifères près de la côte. Dans certains cas, le sol lui-même commence à s’affaisser.
Ce dernier phénomène, appelé subsidence, surprend souvent les gens. Il s’agit pourtant d’un signe caractéristique lié au manque d’eau. Lorsque les nappes phréatiques sont surexploitées, la structure souterraine, qui retient l’eau presque comme une éponge, peut s’effondrer. À Mexico, le sol s’affaisse d’environ 25 centimètres par an. En effet, une fois que les « pores » du sol sont compactés, leur recharge en eau est plus difficile et moins efficace.
Le Global Water Bankruptcy report, publié ce 20 janvier 2026, montre à quel point ce phénomène est en train de se généraliser. L’extraction des eaux souterraines a contribué à un affaissement important du sol sur plus de 6 millions de kilomètres carrés, y compris dans les zones urbaines où vivent près de 2 milliards de personnes. Jakarta (Indonésie), Bangkok (Thaïlande) et Hô Chi Minh-Ville (Vietnam) sont parmi les exemples les plus connus en Asie.
L’agriculture est le plus grand consommateur d’eau au monde, responsable d’environ 70 % des prélèvements mondiaux d’eau douce. Lorsqu’une région est confrontée à un manque d’eau, l’agriculture devient plus difficile et plus coûteuse. Dans certains cas, les agriculteurs peuvent perdre leur emploi, les tensions peuvent augmenter et la sécurité nationale peut être menacée.
Environ 3 milliards de personnes et plus de la moitié de la production alimentaire mondiale sont concentrées dans des régions où les réserves d’eau sont déjà soit en déclin, soit instables. Plus de 1,7 million de kilomètres carrés de terres agricoles irriguées sont déjà soumises à un stress hydrique élevé ou très élevé. Cela menace la stabilité de l’approvisionnement alimentaire dans le monde entier.
Les sécheresses sont également de plus en plus longues, fréquentes et intenses à mesure que les températures mondiales augmentent. Plus de 1,8 milliard de personnes – près d’un humain sur quatre – ont été confrontées à des conditions de sécheresse à un moment ou à un autre entre 2022 et 2023.
Ces chiffres ont des conséquences très concrètes : hausse des prix de l’alimentation, pénuries d’hydroélectricité, risques sanitaires, chômage, pressions migratoires, troubles et conflits.
Comment en est-on arrivé là ?
Chaque année, la nature offre à chaque région une « rente » d’eau sous forme de pluie et de neige. On peut la considérer comme un compte courant : c’est la quantité d’eau à dépenser et à partager avec la nature dont nous disposons chaque année.
Lorsque la demande augmente, nous pouvons puiser dans notre compte d’épargne. Nous prélevons alors plus d’eau souterraine que ce que les milieux peuvent reconstituer. Autrement dit, nous volons la part d’eau dont la nature a besoin et asséchons les zones humides au cours du processus. Cela peut fonctionner quelque temps, tout comme l’endettement peut financer un mode de vie dépensier pendant un certain temps.
Ces sources d’eau sont aujourd’hui en train de disparaître, en tout cas à long terme. En cinq décennies, le monde a perdu plus de 4,1 millions de kilomètres carrés de zones humides naturelles. Les zones humides ne se contentent pas de retenir l’eau. Elles la purifient, atténuent les inondations et servent d’abri à la faune et la flore.
La qualité de l’eau diminue également. La pollution, les intrusions d’eau salée et la salinisation des sols peuvent rendre l’eau trop souillée et trop salée pour être utilisée, contribuant ainsi à la pénurie d’eau.
Le changement climatique aggrave la situation en réduisant les précipitations dans de nombreuses régions du monde. Il augmente aussi les besoins en eau des cultures et la demande en électricité pour pomper davantage d’eau. Il provoque enfin la fonte des glaciers qui stockent l’eau douce.
Malgré ces problèmes, les États continuent de prélever toujours plus d’eau pour soutenir l’expansion des villes, des terres agricoles, des industries et désormais des data centers.
Tous les bassins hydrographiques du monde ne sont heureusement pas en situation de faillite hydrique. Mais n’oublions pas que ces bassins sont interconnectés du fait de la géographie, du commerce, mais également des migrations et du climat. La faillite hydrique d’une région exercera une pression supplémentaire sur les autres et peut ainsi accroître les tensions locales et internationales.
Ce que nous pouvons faire
Sur le plan financier, une faillite prend fin lorsqu’on modifie la structure des dépenses. C’est la même chose pour la faillite hydrique.
Arrêter l’hémorragie : la première étape consiste à reconnaître que le bilan est déséquilibré. Cela implique de fixer des limites de consommation d’eau qui reflètent la quantité d’eau réellement disponible, plutôt que de simplement forer plus profondément et reporter le problème sur les générations futures.
Protéger le capital naturel, au-delà de l’eau : protéger les zones humides, restaurer les cours d’eau, rétablir la santé des sols et gérer la recharge des nappes phréatiques ne sont pas des actions de confort. Elles sont essentielles au maintien d’un approvisionnement en eau saine, tout comme elles le sont à un climat stable.
Consommer moins d’eau, mais la partager de façon plus équitable : la gestion de la demande en eau est devenue inévitable dans de nombreux endroits, mais les plans qui réduisent l’approvisionnement des populations pauvres tout en protégeant les plus puissants sont voués à l’échec. Les approches sérieuses comprennent des mesures de protection sociale, un soutien aux agriculteurs pour qu’ils se tournent vers des cultures et des systèmes moins gourmands en eau, et des investissements dans l’efficacité hydrique.
Mesurer ce qui compte vraiment : de nombreux pays gèrent encore l’eau avec des informations partielles. Pourtant, des méthodes modernes, comme la télédétection par satellite, facilitent la surveillance des réserves d’eau et des tendances globales. Cela permettrait d’émettre des alertes précoces concernant l’épuisement des nappes phréatiques, l’affaissement des sols, la disparition des zones humides, le recul des glaciers et la détérioration de la qualité de l’eau.
Prévoir moins d’eau : le plus difficile aspect d’une faillite est l’aspect psychologique. C’est cette dimension qui nous oblige à abandonner ce qu’on tenait pour acquis. La faillite hydrique implique de repenser les villes, les systèmes alimentaires et les économies pour respecter de nouvelles limites et éviter que celles-ci ne se resserrent encore davantage.
En matière d’eau, comme de finance, la faillite peut être un tournant. L’humanité peut continuer à dépenser comme si la nature offrait un crédit illimité, ou elle peut apprendre à vivre sans outrepasser les limites de ses ressources hydrologiques.
Kaveh Madani ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.01.2026 à 16:06
L’origine du « moustique du métro de Londres » enfin résolue
Texte intégral (1810 mots)
Longtemps présenté comme un exemple spectaculaire d’adaptation rapide à l’urbanisation, le « moustique du métro de Londres » n’est en réalité pas né dans les tunnels londoniens, comme on le pensait jusqu’ici. Une nouvelle étude retrace ses origines et montre qu’elles sont bien plus anciennes que ce que l’on imaginait. Elles remonteraient à plus de mille ans, en lien avec le développement des sociétés agricoles.
Et si le « moustique du métro de Londres », surtout connu pour ses piqûres sur les populations réfugiées à Londres dans les sous-sols de la ville pendant la Seconde Guerre mondiale, n’était en réalité pas né dans les tunnels londoniens ? C’est ce que révèle une étude que nous avons récemment publiée avec des collègues.
Nos résultats montrent que les caractéristiques « urbaines » de ce moustique, que l’on pensait s’être adapté à la vie souterraine il y a un peu plus d’un siècle, remontent en fait à plus de mille ans.
Le moustique Culex pipiens molestus, qui diffère de son cousin Culex pipiens pipiens dans la mesure où le premier pique surtout des humains, et le second surtout des oiseaux, est probablement né dans la vallée du Nil ou au Moyen-Orient, en lien avec le développement des premières sociétés agricoles humaines.
À lire aussi : Combien de temps un moustique peut-il survivre sans piquer un humain ?
Le « moustique du métro de Londres » n’est pas né dans le métro
Cette découverte jette une lumière nouvelle sur l’évolution des moustiques. Depuis plusieurs décennies, une hypothèse présentait en effet le moustique commun (Culex pipiens) comme un exemple spectaculaire d’adaptation rapide à l’urbanisation.
Selon cette théorie, une forme particulière de ce moustique, appelée Culex pipiens molestus, se serait adaptée à la vie urbaine en un peu plus de cent ans seulement, à partir de sa forme jumelle Culex pipiens pipiens. Là où celle-ci préfère piquer les oiseaux, s’accoupler dans des espaces ouverts et « hiberner » pendant l’hiver, la forme molestus aurait évolué en une forme quasi distincte, capable de vivre dans les souterrains et de piquer l’humain et d’autres mammifères, de s’accoupler dans des souterrains et de rester actif toute l’année.
Cette adaptation spectaculaire du « moustique du métro de Londres » était devenue un cas d’école, figurant dans de nombreux manuels d’écologie et d’évolution. L’idée sous-jacente était que l’urbanisation des villes pouvait sélectionner à grande vitesse de nouvelles espèces et en quelque sorte « accélérer » l’évolution.
Mais notre étude vient montrer que cette belle histoire, aussi séduisante soit-elle, est fausse.
Un moustique urbain… né bien avant les villes modernes
Notre consortium international de chercheurs PipPop a ainsi publié dans la revue Science une étude qui démystifie cette hypothèse. En séquençant le génome de plus de 350 moustiques, contemporains et historiques, issus de 77 populations d’Europe, d’Afrique du Nord et d’Asie occidentale, nous avons reconstitué leur histoire évolutive.
En définitive, les caractéristiques qui font de Culex pipiens molestus un moustique si adapté à la vie urbaine ne sont pas apparues dans le métro londonien, mais bien plus tôt, il y a plus de mille ans, vraisemblablement dans la vallée du Nil ou au Moyen-Orient. Ce résultat remet en question ce qui était considéré comme un exemple clé de l’évolution urbaine rapide. Au final, il s’agirait d’une adaptation plus lente, associée au développement de sociétés humaines anciennes.
Autrement dit, ce moustique était déjà « urbain » (au sens : étroitement associé aux humains) bien avant l’ère industrielle. Les premières sociétés agricoles, avec leurs villages denses, leurs systèmes d’irrigation et leurs réserves d’eau, lui ont offert un terrain de jeu idéal pour son adaptation.
À lire aussi : Comment les moustiques nous piquent (et les conséquences)
Un acteur clé des épidémies modernes
Le moustique Culex pipiens n’est pas juste une curiosité scientifique : il joue un rôle majeur dans la transmission de virus comme ceux du Nil occidental ou d’Usutu. Ces derniers circulent surtout chez les oiseaux mais peuvent aussi être transmis aux humains et aux mammifères.
La forme Culex pipiens pipiens, qui pique les oiseaux, est principalement responsable de la transmission du virus dans l’avifaune, tandis que Culex pipiens molestus est vu comme responsable de la transmission aux humains et aux mammifères.
Lorsque les deux se croisent et s’hybrident, ils pourraient donner naissance à des moustiques au régime mixte, capables de « faire le pont » entre oiseaux et humains et de nous transmettre des virus dits zoonotiques.
De fait, nos analyses confirment que les deux formes s’hybrident davantage dans les villes densément peuplées, augmentant le risque de transmission de ces virus. Autrement dit la densité humaine augmente les occasions de rencontre entre les deux formes de moustiques – et potentiellement la probabilité de produire des moustiques capables de piquer à la fois les oiseaux et les humains.
Comprendre quand et où ces deux formes se croisent et comment leurs gènes se mélangent est donc crucial pour anticiper les risques d’épidémie.
Repenser l’adaptation urbaine
L’histoire du « moustique du métro de Londres » a eu un immense succès parce qu’elle incarne en une image frappante tout ce que l’on redoute et admire dans l’adaptation rapide des espèces à nos environnements. Par exemple, une adaptation très rapide face à l’augmentation de la pollution et de l’artificialisation des habitats, souvent mobilisée dans les imaginaires, de science-fiction en particulier.
Mais la réalité est tout autre : les moustiques de nos villes modernes ne sont pas une nouveauté née dans le métro londonien. En revanche, le développement urbain a offert une nouvelle scène à un acteur déjà préparé par des millénaires de cohabitation avec les humains dans les premières sociétés agricoles du Moyen-Orient et de la Méditerranée. Le fruit de cette évolution a ensuite pu être « recyclé » dans les villes contemporaines.
On parle alors d’ « exaptation », c’est-à-dire qu’un trait préexistant dans un contexte donné (ici les premières villes du Moyen-Orient) devient avantageux dans un autre contexte (les villes du nord de l’Europe). Les circuits sensoriels et métaboliques qui pilotent la recherche d’hôtes à piquer, la prise de repas sanguin et la reproduction avaient déjà été remodelés par l’histoire ancienne des sociétés agricoles de la Méditerranée et du Moyen-Orient, avant d’être « réutilisés » dans le contexte urbain moderne au nord de l’Europe.
Nos systèmes d’irrigation antiques, nos premières villes et nos habitudes de stockage de l’eau ont donc posé les bases génétiques qui permettent aujourd’hui à certains moustiques de prospérer dans les galeries de métro ou les sous-sols d’immeubles de nos grandes villes.
Cette découverte change la donne. En retraçant l’histoire de la forme urbaine du moustique commun Culex pipiens, l’étude invite à changer de regard sur l’évolution urbaine : ce n’est pas seulement une adaptation rapide déclenchée par l’urbanisation intensive des villes, mais un long processus qui relie notre développement technique et social et celle des autres espèces.
Comprendre ces dynamiques est crucial : non seulement pour la science, mais aussi pour anticiper les risques sanitaires et mieux cohabiter avec les autres espèces. Et vous, saviez-vous que le moustique qui vous pique la nuit avait une histoire évolutive aussi ancienne ?
Haoues Alout a reçu des financements de l'ANR et de l'ANSES ainsi que de l'Union Européenne.
18.01.2026 à 07:49
Ursula K. Le Guin, l’autrice de science-fiction qui nous invite à réinventer le monde
Texte intégral (2158 mots)

Alors que Rennes (Ille-et-Vilaine) s’apprête à donner son nom à une rue et que la chanteuse Rosalia la cite en interview, Ursula K. Le Guin, disparue il y a six ans, nous a laissé une œuvre qui alimente plus de réflexions et de discussions que jamais, débordant largement les contours des littératures dites de l’imaginaire. De l’utopie anarchiste des Dépossédés à l’école des sorciers de Terremer en passant par les pérégrinations des ethnographes intergalactiques du Cycle de l’Ekumen, les mondes de fiction de Le Guin et leur philosophie nourrie de taoïsme continuent de nous proposer des manières alternatives de penser la crise et de concilier l’inconciliable.
Fille d’anthropologues et autrice multiprimée de romans de science-fiction et de fantasy, l’autrice américaine Ursula K. Le Guin (1929-2018) porte sur le monde un regard venu de loin. Aux yeux de l’autrice, inspirée depuis son enfance par la pensée taoïste (elle publie en 1997 sa propre traduction du Daodejing), les sociétés occidentales contemporaines et les récits glorieux qui les fondent ou les font vibrer souffrent d’un excès de yang – le principe masculin d’expansion, de chaleur et de lumière, de dureté, d’action et de contrôle, dans le taoïsme.
Pour guérir de nos maux et résoudre les crises qui nous traversent, l’autrice propose d’explorer des alternatives yin (principe féminin de réception et d’acceptation, froid et obscur, humide, aussi souple et modulable que l’eau, selon le taoïsme), en pensant en termes de processus plutôt que de progrès. Dans ses œuvres, Le Guin imagine des « utopies ambiguës » – pour reprendre le sous-titre de son roman les Dépossédés – loin de la fixité minérale et impersonnelle d’un idéal quasi mythologique, et qui se conçoivent, à l’inverse, comme des mondes vivants, humains, imparfaits, ouvrant des fenêtres sur d’autres manières de vivre, de faire et de penser.
Penser le politique : la rencontre plutôt que la conquête
Sur le plan politique, l’autrice propose une philosophie mêlant le concept taoïste du wuwei (l’action par l’inaction) aux principes de respect de l’autre dans sa différence, de liberté individuelle et de responsabilité collective. Inspirée par cette pensée yin, Le Guin nous appelle à questionner notre propre rapport aux questions politiques : la nouvelle « Ceux qui partent d’Omelas », régulièrement enseignée au lycée en France comme aux États-Unis, est une fable interrogeant la part de responsabilité individuelle dans le fonctionnement des systèmes oppressifs – à quel moment notre ignorance se mue-t-elle en complicité ?
Celles et ceux qui partent d’Omelas ne combattent ni par les armes ni par l’anathème ; leur résistance est celle des lignes de fuite et de l’appel à l’imaginaire pour ouvrir de nouveaux espaces dans le réel. Le refus de la résignation et l’ouverture sur l’ailleurs constituent ainsi des gestes politiques fondateurs. De même, dans les Dépossédés, Le Guin – qui fustigeait régulièrement le capitalisme dans ses discours et défendit ardemment les auteurs du bloc de l’Est pendant la guerre froide – se demande à quoi pourrait ressembler une véritable société anarchiste. Elle en propose une des réalisations les plus totales jamais offertes par la fiction comme la non-fiction, et montre que seule la vigilance d’individus responsables et libres empêche les régimes de basculer dans l’autoritarisme : pour que l’utopie vive elle doit demeurer mobile, ouverte à toutes ses contradictions, en constante quête d’équilibre.
Enfin, le Cycle de l’Ekumen, dans lequel s’inscrit ce roman et beaucoup d’autres, se propose plus largement de subvertir les récits traditionnels de conquête qui peuplaient les romans de SF de l’âge d’or (les années 1960 et 1970), eux-mêmes inspirés de la geste glorieuse de la conquête de l’Ouest. Le Guin imagine au contraire une expansion affranchie des dominations, où la violence laisse la place à la rencontre et où les sociétés humaines, dans leur infinie diversité, s’enrichissent mutuellement de leurs différences.
Penser le vivant comme une même communauté
Le Guin fut aussi une grande penseuse de la crise écologique et du rapport entre l’humain et le non-humain.
Dès le premier tome du Cycle de Terremer, l’autrice met en scène un monde dans lequel tous les êtres vivants – du chardon à l’épervier, du dragon aux vagues de la mer – parlent le même langage sacré de la création. Le magicien y devient gardien de l’équilibre du monde, et les aventures des protagonistes au fil des tomes n’ont de cesse de rétablir et d’entretenir l’équilibre fragile entre humains et non-humains, entre la parole et le silence, entre le monde des vivants et le royaume des morts.
Dans la Vallée de l’éternel retour – œuvre la plus radicale et la plus dense de l’autrice –, Le Guin imagine une archéologie du futur : elle dépeint la société traditionnelle du peuple Kesh, dans une Californie au relief totalement redessinée par les cataclysmes et le changement climatique. En lisant, guidés par l’ethnographe Pandora, nous suivons les mœurs et les vies de ces humains du futur ayant renoué avec les modes de vie des peuples autochtones américains ; les plantes et les animaux sont pour eux des personnes à part entière, avec qui l’humain partage le monde sans hiérarchies – et si l’on peut les mettre à mort pour s’en nourrir, cela doit se faire dans le respect de rituels assurant la dignité de tous.
Télescopant le passé et le futur, Le Guin décrit un monde où la solution à la crise climatique ne se trouve ni du côté de la technologie, ni à l’échelle globale, mais bien à une échelle locale, dans un « faire monde » commun, basé sur l’immanence et le respect mutuel entre humains et non humains, tous membres d’une même communauté.
Penser l’individu autrement
C’est aussi sur le plan intime que Le Guin interroge radicalement ce qui fait l’humain et l’origine de nos crises personnelles. Dans la Main gauche de la nuit, elle montre à quel point les rapports de genre sont déterminants dans notre expérience du réel, en mettant en scène un peuple humanoïde androgyne dont les membres ne sont sexués que quelques jours par mois – aussi bien au féminin qu’au masculin. L’ethnographe (humain de sexe masculin) envoyé sur cette planète pour l’inviter à rejoindre l’Ekumen, alliance intergalactique pacifique, est décontenancé par ce monde où l’on peut être père de certains de ses enfants et mère des autres, où il n’existe ni galanterie ni misogynie, ni rapports de force ou de séduction basés exclusivement sur le genre.
Dans la nouvelle « Solitude », l’autrice se livre à une autre expérience de pensée en imaginant une société entièrement structurée par l’introversion ; sur Eleven-Soro, planète hantée par les ruines d’anciennes mégalopoles ultratechnologiques, la civilisation représente une ombre mortifère. Pour les lointains descendants de ce monde disparu, revenus à un mode de vie aux apparences primitives, toute forme de relation interpersonnelle – ou même de communication – est devenue un objet de menace et de méfiance. Ce mouvement de recentrement rejette la civilisation au profit d’une communion directe de l’être avec le monde ; il revient à chacun et chacune, dès l’enfance, de « faire son âme » à l’aide d’un sac personnel où collecter des objets signifiants, glanés au fil d’une vie et qui acquièrent ainsi une valeur sacrée.
Penser le récit : la « fiction-panier »
Cette figure du contenant, du panier que l’on remplit au fil du chemin, est une constante chez Le Guin. Elle l’érige en étendard de son écriture : contre l’éternel héros mythique qui parvient à occire les monstres pour sauver son peuple (et en devenir le chef), l’autrice invente et met en pratique une théorie de la « fiction-panier », où le soin mutuel et l’art du glanage sont les éléments centraux.
Car, en plus de ses œuvres en science-fiction et fantasy (SFF), Le Guin a aussi beaucoup écrit de poésie (une douzaine de recueils) et d’essais sur l’art de l’écriture. Elle achève d’ailleurs sa trajectoire romanesque par une œuvre étonnante, Lavinia, qui reprend et étend l’Enéide en adoptant le point de vue de Lavinia, ultime épouse du héros, à qui Virgile n’accorde que quelques vers et aucune parole. Entre courage, désir de liberté et piété filiale, l’héroïne est témoin de la bêtise et de la violence propres aux récits héroïques comme celui dans lequel elle est prise : que peut l’étoffe tissée des mains d’une mère face à la pointe d’une lance transperçant la chair ? Dans ce texte conçu comme une conversation avec Virgile et qui souligne à quel point la littérature est un monde partagé, en constante mutation, Le Guin fait dialoguer une Lavinia consciente de son propre statut fictif avec le poète qui lui a donné vie – une vie toute entière faite de mots, où rien ne s’efface mais où tout peut toujours s’ajouter.
La pensée de Le Guin ne fait pas système, au sens où une théorie irréfutable rendrait ses propos péremptoires. Comme Lavinia elle-même, Le Guin, doute, hésite, reprend. Ainsi, renouant après des décennies, avec son cycle de fantasy Terremer, l’autrice change totalement sa façon d’écrire : ses protagonistes ont vieilli, leur regard s’est affûté, et Le Guin explore sans concession les ambiguïtés de son propre imaginaire. Remettant en question la relation des individus au pouvoir, elle confie à une femme d’âge mûr le soin de répondre à l’appel du héros, pour le bien commun, avant de pouvoir revenir avec soulagement à sa ferme, à son potager, et à l’homme qui l’y attend.
Aujourd’hui, alors que nous commémorons la disparition d’Ursula K. Le Guin il y a huit ans, des autrices et auteurs du monde entier (Rivers Solomon, Han Song, Wu Ming-yi, Céline Minard, Luvan et bien d’autres), revendiquent l’influence de cette légende des lettres états-uniennes, dont la sagesse n’a pas fini de nous éclairer :
« Lorsque nous parlons d’avancer vers l’avenir, c’est une métaphore, de la pensée mythique interprétée littéralement, peut-être même du bluff, né de notre peur machiste d’être un instant inactifs, réceptifs, ouverts, silencieux, immobiles. […] C’est lorsque nous confondons nos rêves et nos idées avec le monde réel que les ennuis commencent, quand nous pensons l’avenir comme un endroit qui nous appartient. »
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
15.01.2026 à 10:30
La faute de nos biais cognitifs, vraiment ? Comment cette notion fabrique l’inaction écologique
Texte intégral (2295 mots)
Face à l’urgence écologique, l’inaction est souvent justifiée par nos biais cognitifs individuels. Mais cette lecture psychologisante occulte l’essentiel. Des causes politiques, économiques et sociales sont à l’œuvre dans l’effondrement du vivant actuel. On le verra à travers l’exemple des océans et des milieux marins.
Face à l’urgence climatique, pourquoi sait-on mais n’agit-on pas ? Telle est la question posée par l’activiste Camille Étienne dans son documentaire Pourquoi on se bat ? (2022). Parmi ses invités figure Sébastien Bohler, journaliste et chroniqueur, notamment connu pour son essai le Bug humain (2019). Dans l’ouvrage, il explique que notre cerveau privilégierait le court terme au détriment de la planète. Il en conclut qu’il faut rééduquer notre cerveau pour déclencher l’action collective.
Ce discours, qui attribue l’inaction écologique à des biais cognitifs, c’est-à-dire à des mécanismes automatiques du cerveau, est repris par de nombreuses communications grand public. Sa simplicité est séduisante, mais il pose plusieurs problèmes. En effet, il ne dit rien des écarts considérables de comportements que l’on peut observer entre individus ou sociétés, il occulte les facteurs politiques, économiques et culturels et surtout il offre un alibi aux industries qui ont tout intérêt à maintenir l’exploitation intensive de la nature.
Cette explication est attrayante, mais ne permet pas de comprendre ce qui organise l’inaction ni d’y apporter des solutions concrètes et efficaces. Le cas du milieu marin illustre particulièrement cette logique : la gouvernance de l’océan est particulièrement délicate dans un contexte où prédomine l’exploitation économique, alors que les problèmes qui en découlent (catastrophes environnementales, destruction des moyens de subsistance de celles et ceux qui en dépendent ailleurs dans le monde…) sont souvent invisibilisés.
L’exemple des océans
L’océan constitue un bon exemple des limites de ce discours. Il s’agit du principal espace naturel à être exploité en continu à l’échelle planétaire : pêche, transport maritime, tourisme, sans parler de l’exploitation minière. Les prélèvements massifs y ont conduit à un effondrement global des espèces marines.
Cette découverte est relativement récente. En effet, la recherche océanographique s’est développée plus tardivement que ses équivalents terrestres, du fait, entre autres raisons, des difficultés d’accès du milieu marin. Ce retard explique en partie pourquoi la prise de conscience environnementale liée à la mer a été plus tardive que celle concernant les forêts ou les terres agricoles, par exemple.
De plus, l’océan a un statut particulier : c’est un bien commun global. Or, dans notre économie actuelle, les ressources libres et non régulées tendent à être surexploitées, les acteurs économiques cherchant à maximiser leurs bénéfices individuels avant que la ressource ne s’épuise. Cette dimension collective rend la gouvernance océanique complexe et retarde sa mise en place, puisqu’elle est dépendante de la coopération internationale.
Surtout, l’océan est un milieu qui nous est étranger : la dégradation des fonds, la raréfaction des espèces ou l’acidification des eaux se produisent hors de nos champs sensoriels. Ce contexte est particulièrement propice à l’émergence de biais cognitifs pour expliquer leur effondrement écologique.
Des biais réels mais surestimés
Depuis les années 1980, la recherche sur le sujet a montré qu'il existait à la fois des biais psychologiques et des remèdes à ces derniers. Pour n’en citer que quelques-uns : biais d’optimisme, de présentisme (c'est-à-dire, notre tendance à préférer les résultats immédiats au détriment des résultats futurs) ou encore distance psychologique.
Appliqués à l’écologie, ils se traduisent par une minimisation des risques environnementaux, qui sont alors perçus comme lointains, temporaires ou réversibles. De ces constats naît l’idée que l’inaction environnementale serait préprogrammée dans notre cerveau de façon universelle et que les solutions devraient viser cette partie rétive de nos psychologies.
Autre exemple : le phénomène de « shifting baseline » (aussi appelé amnésie environnementale), qui décrit la tendance pour chaque nouvelle génération à réévaluer comme « normal » un état de plus en plus dégradé de la nature. Pour le milieu marin, les professionnels prennent alors pour référence des niveaux de biodiversité déjà appauvris. Chaque nouvelle étape de dégradation des écosystèmes est ainsi intégrée comme un nouvel état stable, ce qui rend la perte globale plus difficile à voir.
Les biais cognitifs possibles sont nombreux : les facteurs individuels participant à l’inaction écologique sont depuis longtemps étudiés, connus et intégrés. Mais leur influence sur l’inaction climatique est surestimée.
À lire aussi : Inaction climatique : et si on était victime du biais de « statu quo » ?
Quand les biais cognitifs tombent à l’eau
Souvent mobilisés pour expliquer les comportements humains, ces biais peinent pourtant à décrire toute la réalité. Raisonnons par l’absurde : s’il existe des biais universels qui nous poussent à minimiser les enjeux environnementaux, voire à détruire l’environnement, comment expliquer les écarts parfois importants en termes de croyances et de comportements que l’on peut observer d’une personne à l’autre, d’une société à l’autre ?
Comment expliquer que, pour nombre de sociétés, le terme de nature n’existe tout simplement pas, parce qu’il n’y a pas de différence faite entre ce qui est considéré comme soi (humain) et comme autre, animal ou végétal ?
L’effondrement écologique ne peut se comprendre sans faire l’analyse des sociétés qui y contribuent et qui exacerbent nos biais individuels. Dans nos sociétés industrialisées, l’accroissement du capital structure à la fois nos environnements sociaux et nos motivations. Or, l’avènement des sociétés capitalistes n’a pas été le résultat de seuls biais cognitifs ou de processus biologiques universels : il a été mené par une petite fraction de l’humanité qui, avec les moyens matériels et politiques adéquats, a pu l’imposer à la majorité, entraînant la rupture des rapports sociaux et environnementaux préexistants.
Dans les milieux marins, l’effondrement écologique s’explique surtout par les conditions économiques et politiques qui le rendent possible à l’échelle globale : pêche industrielle peu régulée, marchandisation de la biodiversité marine (tourisme, aquaculture…), intérêts économiques et politiques liés au contrôle de l’extraction minière et énergétique (hydrocarbures offshore, minerais marins)… Le tout inscrit dans un système économique global fondé sur l’accumulation.
Tout cela montre que l’effondrement écologique actuel est davantage la conséquence d’arrangements sociopolitiques que de biais cognitifs individuels qui nous pousseraient naturellement à détruire les écosystèmes. Il nous faut sortir de cette vision et agir sur les causes systémiques qui produisent l’inaction.
En effet, nous pouvons agir sur les organes politiques et économiques qui encadrent la gestion des milieux naturels, dont les milieux marins. Or, c’est précisément ce que les discours majoritaires sur les biais psychologiques empêchent de faire. En légitimant l’idée selon laquelle ces biais universels – car inscrits dans notre biologie – seraient à l’origine des problèmes d’exploitation, ils invisibilisent les rapports de pouvoir, déresponsabilisent les politiques et fournissent des outils permettant ensuite de justifier l’inaction.
À lire aussi : Climat : comment l’industrie pétrolière veut nous faire porter le chapeau
Déplacer la focale de l’individuel au collectif
Que faire ? Individuellement, il est bien sûr possible d’agir sur sa consommation de produits issus de la surpêche et de l’exploitation animale, de limiter les déplacements polluants ou encore de rejoindre des collectifs afin de gagner en capacité d’action et d’information.
Quels arguments pour convaincre et engager à l’action ? La recherche en psychologie et en communication environnementale a identifié six « vérités clés » :
le changement climatique existe,
il est créé par nos sociétés industrielles,
il existe un consensus scientifique,
il a des conséquences graves sur l’humanité et la biodiversité,
la majorité des personnes en sont inquiètes et veulent agir,
enfin, des actions efficaces existent.
L’action collective doit ensuite œuvrer à tous les niveaux, du local à l’international, en gardant pour boussole :
le respect des droits et de la dignité des populations,
une gouvernance la plus égalitaire et démocratique possible,
et la mise en place de mesures efficaces, contrôlées et collaboratives de gestion des biens communs, tels que des aires marines protégées exigeantes.
L’effondrement du climat et de la biodiversité ne sont donc pas des fatalités, mais les conséquences des systèmes sur lesquels nous pouvons avoir un impact – à condition de les réorienter vers des modèles plus justes et soutenables.
Pierre-Yves Carpentier est membre de l'association Alternatiba06 qui œuvre pour l'écologie.
Benoit Dérijard a reçu des financements du CNRS (Centre National de la Recherche Scientifique), de l'Université Côte d'Azur, du FEAMPA (Fonds Européen pour les Affaires Maritimes, la Pêche et l'Aquaculture), de la Région Sud et de l'OFB (Office Français de la Biodiversité).
Clara Vincendon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
15.01.2026 à 10:30
Faut-il en finir avec les incitations à mieux gérer nos déchets ? Le problème posé par les sciences comportementales
Texte intégral (1896 mots)
Pour réduire les déchets, les politiques publiques misent de plus en plus sur les sciences comportementales, comme les « nudges » (dispositifs de suggestion). Cette idée est séduisante, mais elle déplace la responsabilité d’un problème systémique vers les individus. Les défauts de tris et autres dépôts sauvages sont alors souvent requalifiés comme de « mauvais comportements ». Le problème de cette approche ? Elle invisibilise les déterminants matériels, sociaux et politiques de la production des déchets.
Depuis une dizaine d’années, les collectivités territoriales, les agences nationales et une partie du secteur privé se sont engouffrées dans une voie présentée comme prometteuse : l’application des sciences comportementales à la réduction des déchets.
L’idée est que si les individus trient mal, jettent au mauvais endroit ou produisent trop de déchets, c’est qu’ils manquent d’information, de motivation ou parce que les dispositifs censés orienter leurs gestes (emplacement des bacs, lisibilité des consignes…) n’envoient pas les « bons signaux ». Des campagnes fondées sur les « nudges », des dispositifs incitatifs ou des signalétiques présentées comme « engageantes », sont alors présentées comme suffisantes pour transformer les comportements ordinaires et les pratiques quotidiennes.
Ce récit séduit. En effet, il permet d’agir vite, à moindre coût, et sans remettre en cause les logiques structurelles qui génèrent les déchets. Mais cette vision est réductrice. Elle repose sur une vision des conduites humaines qui méconnaît profondément les rapports sociaux, les conditions d’habiter, les trajectoires résidentielles, les inégalités matérielles et symboliques.
Surtout, elle déplace la question politique des déchets à l’échelle des individus. Ce faisant, elle en assigne la responsabilité aux habitants, présentés comme des acteurs indisciplinés mais rationalisables à coups de micro-incitations.
À lire aussi : Les mots de la gestion des déchets : quand le langage façonne nos imaginaires
Dispositifs défaillants et production institutionnelle de la stigmatisation
Sur le terrain, les observations ethnographiques montrent un paysage différent. Il est davantage structuré par des dispositifs sociotechniques, économiques, organisationnels que par les intentions individuelles.
Dans de nombreux quartiers, le tri est entravé par des infrastructures inadaptées. Citons par exemple les vide-ordures encore en usage qui empêchent toute séparation des flux à la source, l’absence d’espaces de stockage dans les logements, les bacs trop éloignés ou difficilement accessibles… certains dispositifs semblent conçus sans avoir tenu compte des pratiques quotidiennes de circulation des habitants. On peut ainsi penser aux points d’apport volontaire dispersés sur plusieurs centaines de mètres, qui imposent de longs trajets pour trier le verre, le papier et les plastiques.
Ces contraintes matérielles façonnent les gestes quotidiens, bien davantage qu’un prétendu manque de volonté ou de sensibilisation. S’y ajoute un autre phénomène, particulièrement saillant dans les quartiers populaires : des pratiques de circulation d’objets – don, récupération, redistribution informelle – se trouvent placées sous un régime de suspicions et de sanctions.
Autrement dit, ce qui relevait auparavant d’une économie populaire du réemploi est désormais requalifié en dépôts sauvages et incivilités. Et cela non pas parce que les pratiques auraient nécessairement changé, mais parce que leur visibilité est perçue comme un problème par les institutions.
Cette requalification transforme des logiques de subsistance ou de solidarité en manquements à la norme. Dans ce cadre, les acteurs institutionnels chargés de la gestion des déchets valorisent avant tout une logique de salubrité publique. Leur action se concentre alors sur l’évacuation, la disparition rapide des traces, l’entretien visuel de la voie publique. Le déchet y est traité comme un rebut dont il faut se débarrasser, et non comme une ressource susceptible d’être valorisée. Ainsi, des objets laissés temporairement dans l’espace public dans l’attente d’un repreneur ou d’un réemploi sont ramassés par les camions de collecte. Et ce faisant, définitivement soustraits à toute possibilité de réutilisation, parfois réduits à l’état de déchets ultimes par le broyage.
Ce glissement est lourd d’effets. Dans ces quartiers, les déchets deviennent des marqueurs sociaux. Ils servent à requalifier des groupes, à leur attribuer des comportements naturalisés, à désigner des « responsabilités » qui coïncident souvent avec des stigmatisations ethno-sociales préexistantes.
La propreté devient alors un instrument de classement. La figure de l’« habitant défaillant » se substitue aux défaillances structurelles des dispositifs sociotechniques, économiques et organisationnels. Rebut d’un côté, ressources de l’autre : la distinction n’est pas seulement technique, elle est sociale et politique. Elle organise la manière dont les territoires sont perçus, traités et hiérarchisés.
À lire aussi : Pollution, un mot qui permet aussi d’opérer un classement social
Les sciences comportementales masquent les vrais enjeux
Dans ce contexte, le recours aux sciences comportementales agit comme un masque. Il détourne l’attention des problèmes très concrets qui structurent la gestion des déchets au quotidien :
infrastructures défaillantes ou mal pensées (vide-ordures qui encouragent à jeter sans trier, locaux poubelles saturés, équipements peu lisibles),
conditions de travail éprouvantes (gardiens inexistants ou cantonnés à « tenir » les parties communes sans moyens ni formation sur le tri, prestataires de nettoiement soumis à des règles strictes et à des cadences élevées),
et des conflits permanents entre acteurs (bailleur, métropole, prestataires, habitants).
Au lieu de rendre ces dysfonctionnements visibles, l’analyse se concentre sur le dernier maillon de la chaîne : l’habitant, présenté comme celui qui se trompe, résiste ou ne fait pas assez d’efforts. C’est pourtant l’organisation du système qui crée les conditions mêmes de ces « mauvais gestes ».
Les éboueurs, les agents de tri, les services techniques et les décisions politiques disparaissent derrière une théorie simplifiée des comportements, où l’individu devient un point d’application dépolitisé. Pour les instituions, cette approche est séduisante à plusieurs titres :
d’abord parce qu’elle promet des résultats visibles à court terme ;
ensuite, parce qu’elle évite d’avoir à ouvrir le dossier – plus coûteux et plus conflictuel – de la réduction à la source, de la régulation de la production, ou de la reconfiguration des infrastructures (transformation matérielle et organisationnelle des dispositifs existants). Cela impliquerait ainsi de remettre en cause des équipements qui orientent structurellement les pratiques vers l’évacuation plutôt que vers la valorisation. Ou encore de redéfinir le rôle des acteurs de terrain – gardiens, agents de propreté, prestataires –, aujourd’hui cantonnés à une gestion de la salubrité visible ;
enfin, elle s’accorde avec une conception néolibérale de l’action publique où chacun est sommé d’être responsable de son empreinte.
Pourtant, cette logique se heurte à deux limites majeures.
La première tient aux résultats eux-mêmes de ces interventions comportementales. D’abord, leurs effets sont difficiles à mesurer. Elles peuvent également se révéler peu durables, puisque fortement dépendante des configurations sociales et matérielles dans lesquelles elles sont déployées. Enfin, elles peuvent modifier les comportements à court terme, mais ces ajustements se défont rapidement lorsque les incitations cessent, tant que l’organisation concrète reste inchangée. En pratique, les effets observés dans des cadres expérimentaux se révèlent difficiles à transposer durablement dans les contextes ordinaires.
La seconde limite est politique. En recentrant l’attention sur les comportements individuels, ces interventions contribuent à déplacer la responsabilité vers ceux qui disposent de la marge de manœuvre la plus étroite. Les habitants les plus précaires deviennent les premiers visés par ces dispositifs correctifs, alors même qu’ils subissent des infrastructures défaillantes et des conditions d’habiter plus contraignantes que d’autres.
Pendant ce temps, les ressorts structurels de la production de déchets demeurent intouchés. L’action publique se focalise ainsi sur ceux qui ont le moins de pouvoir d’action et épargne ceux qui déterminent réellement les volumes et les flux.
Sortir de la vision psychologisante de la gestion des déchets
En finir avec les sciences comportementales appliquées à la gestion des déchets ne signifie pas rejeter toute forme d’attention aux pratiques quotidiennes et individuelles. Cela implique plutôt de déplacer son centre de gravité. Pour cela, il convient de sortir d’une vision psychologisante, de réintroduire les dimensions matérielles, institutionnelles, historiques, politiques et sociales, et enfin de reconnaître que les déchets ne sont pas seulement une affaire d’individus mais aussi de systèmes.
Les infrastructures, les logiques économiques de production, la division sociale du travail, les politiques urbaines et les rapports de pouvoir façonnent bien davantage les volumes, les flux et les gestes que ne le feront jamais les autocollants sur un bac jaune.
Si les sciences comportementales ont pu offrir quelques outils ponctuels, elles ne constituent ni une théorie sociale ni une politique publique durable. La gestion des déchets exige une compréhension plus exigeante, celle d’un monde où la matérialité, les normes, la stigmatisation, les inégalités et les infrastructures s’entremêlent. S’y dérober en réduisant sa complexité à des micro-incitations n’est pas seulement inefficace, c’est aussi renoncer à penser ce que les déchets révèlent réellement de nos sociétés.
Camille Dormoy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
14.01.2026 à 16:22
The first ice core library in Antarctica to save humanity’s climate memory
Texte intégral (1719 mots)

On Wednesday, January 14, 2026, the coolest library on Earth was inaugurated at the Concordia station, Antarctica. Samples from glaciers rescued worldwide are now beginning to be stored there for safekeeping. This will allow, among other things, future generations to continue studying traces of past climates trapped under ice, as glaciers on every continent continue to thaw out at a fast pace.
With its temperature of -50°C, the archive sanctuary built below the surface at Concordia will allow endangered ice cores extracted from the Andes, Svalbard, the Alps, the Caucasus, and the Pamir Mountains in Tajikistan to escape global warming without the need for technical intervention or refrigeration.
Former co-chair of the IPCC’s “Science” working group, Swiss climatologist and physicist Thomas Stocker is now president of the Ice Memory Foundation, which initiated this project, together with the University of Grenoble Alpes (France) and Ca’ Foscari University of Venice (Italy). He explains the urgency for this long-term initiative.
The Conversation: Could you give us a concrete example of how these ice cores stored in Antarctica could be used by scientists in the future?
Thomas Stocker: We can take the example of a new substance found in the atmosphere, like a pesticide. If in fifty years from now, a scientist wants to know what the concentration of that compound was in the year 2026, say in the European Alps or in Asia, they can now turn to an ice core.
If the ice core had not been collected and stored in Antarctica, the scientist would simply be at a loss to answer the question. But thanks to these ice cores that are now being safeguarded in Antarctica, researchers can analyse a sample of that core in Antarctica, measure the compound from the ice that was collected fifty or one hundred years ago, and reconstruct the data to answer that question.
But in order to allow future scientists to answer the many questions that will arise, we need to act quickly. A very recent article in Nature takes a global view of glacier loss and predicts that the number of glaciers to vanish will increase until around 2040, at which point annual glacier loss worldwide is set to peak.
Thereafter numbers will decline not because global warming has halted, but because one by one, glaciers disappear off the face of the earth, leaving fewer glaciers in a state of meltdown, a prospect which, in turn, ultimately destroys the prestigious and precious environmental archives available.
Temperatures in the Alps are rising about twice as fast as the global average, so it’s essentially a race against time. We need to secure these ice cores when water from the melting surface in summer has not yet penetrated the ice.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Since you started working, you have undoubtedly seen many methodological and technological advances that have enabled us to make the ice “talk”. What are your hopes for future generations? What factors would allow for further “dialogue” with the ice core that will be stored at Concordia?
T.S.: I can only extrapolate from what we have learned and experienced in science over the last fifty years. We witnessed the arrival of new technology that, all of a sudden, offers the analysis of parameters of elemental composition, of the concentration of gases trapped within the ice that suddenly, like a key, opens a door to a whole new series of information about our environmental system.
So what I can see happening is new optical methods to determine the isotopic composition of different elements in various chemical substances, the likelihood of high-precision analytical tools being invented in the next decades or so that go down to the picogram level or or femtomole level, to tell us something about atmospheric composition, and particles such as dust and minerals from various regions which have been deposited in these ice cores that give us information about the conditions or state of the atmosphere in the past.
You are an Emeritus Professor of Climate and Environmental Physics. Which other fields will the Ice Memory project be useful for?
T.S.: Biology comes to mind. If you find organic remains or DNA in these ice cores, that’s biology. You can question the chemical composition of the atmosphere. That’s chemistry. If you question what’s the mineral composition of small dust particles that are deposited in these ice cores. That’s geology. And so, you have a whole range of different branches of science that can draw new information from these ice cores.
The Ice Memory Project brings together different scientific disciplines, as well as scientists of many nationalities. How challenging can this be in a time of increasing geopolitical tensions?
T.S.: Ice Memory is a case in point for how multilateralism plays out in the scientific community. It’s an opportunity for scientists in every nation to make use of this unique sanctuary in Concordia. And for us, it’s really an iconic endeavour that goes beyond frontiers, beyond political divisions, to really safeguard data from planet Earth, not only for the next generation of scientists, but for humanity in general.
We also urge all nations who have glaciers on their territory to participate and support scientific community-led ice coring expeditions in these areas, and to follow Tajikistan’s example. Tajikistan was the first nation to donate an ice core, 105 metres of precious ice from a unique location (the Kon Chukurbashi ice cap, for preservation in the Ice Memory foundation’s storage sanctuary in Antarctica.
During the Cold War, Antarctica was one of the few places on Earth where Russians and Americans could exchange ideas and conduct scientific research together. Could Antarctica still be a place where dialogue replaces rivalry?
T.S.: I am absolutely convinced that the unique environment Antarctica offers that’s so rich with nature and life, and so special on our planet, means that considerations surrounding each country’s position and values are secondary. The top priority, as we have demonstrated over the past fifty years of scientific exploration in the field, is really to understand our climate system, observe nature from the perspective of Antarctica, and to protect it. This gives us the opportunity to truly immerse ourselves, work together, and exchange ideas on specific scientific issues that concern us all, and in particular, concern the future of the planet we share.
Interview by Gabrielle Maréchaux, Environment Journalist at The Conversation France.
Thomas Stocker is the president of the Ice Memory Foundation.
14.01.2026 à 15:18
En Inde, les 60 millions de chiens des rues fouillent de moins en moins les poubelles, et c’est dangereux
Texte intégral (2364 mots)

On compte plus de 60 millions de chiens errants en Inde. Depuis le déclin des vautours à la fin des années 1990, l’apparition de nouvelles sources de nourriture issues des déchets leur permet d’accéder aux déjections des abattoirs, au nourrissage spontané et aux carcasses abandonnées (la disparition des vautours a entraîné l’absence de régulation des populations de charognards, comme les chiens et les rats). Le comportement de ces animaux opportunistes a évolué, révélant l’interdépendance complexe entre chaîne alimentaire, pratiques humaines et santé publique.
Quand j’étais enfant, dans l’Inde rurale, ma grand-mère donnait chaque après-midi au chien du village un demi-chapati et un bol de lait, manifestement insuffisants pour couvrir ses besoins. Le chien survivait en fouillant les environs et en récupérant de la nourriture auprès des maisons voisines. Des années plus tard, à Delhi, j’ai croisé des chiens errants refusant des biscuits tant ils recevaient de nourriture de la part des habitants du quartier, qui tous rivalisaient d’attention à leur égard.
En Inde, l’entrelacement de valeurs religieuses et culturelles a instauré une forte tolérance à l’égard des non-humains et de la faune sauvage, toutes classes sociales confondues. Une attitude ancrée dans des millénaires de coexistence. Les populations acceptent délibérément de s’exposer à des risques importants pour vivre avec les animaux. Mais cet équilibre se fragilise à mesure que les villes s’étendent et que les chiens deviennent plus territoriaux dans des espaces partagés toujours plus encombrés et jonchés de déchets.
L’Inde compte au moins 60 millions de chiens en liberté, selon un décompte vieux de plus de dix ans. Des enquêtes plus récentes en recensent environ 1 million rien qu’à Delhi. Dans le même temps, le pays concentre plus d’un tiers des décès dus à la rage dans le monde.
À la différence de la plupart des pays occidentaux, la culture et le droit indiens proscrivent l’abattage. Les chiens doivent être capturés, stérilisés, vaccinés puis – impérativement – réinstallés sur leur territoire initial. En pratique, ces règles sont fréquemment bafouées.
Tout change en août 2025. Après plusieurs attaques de chiens errants contre des enfants, la Cour suprême indienne ordonne brièvement la capture de tous les chiens des rues de Delhi et de sa région, avec leur placement en refuges ou en fourrières, promettant pour la première fois depuis des décennies des rues sans chiens.
La décision est inapplicable – il n’existe tout simplement pas de structures pour accueillir des millions d’animaux – et déclenche une vive réaction des associations de protection animale. Deux jours plus tard, la Cour fait machine arrière et rétablit la politique de stérilisation en vigueur.
Les décisions ultérieures ont resserré le périmètre d’application. En novembre 2025, la Cour a ordonné le retrait des chiens des écoles, des hôpitaux et des zones de transport public dans tout le pays, tout en imposant des restrictions à l’alimentation des chiens dans l’espace public et en encourageant la mise en place de clôtures pour les tenir à distance.
Plus récemment encore, le 7 janvier 2026, elle a demandé aux autorités de clôturer et de sécuriser l’ensemble des 1,5 million d’écoles et d’établissements d’enseignement supérieur de l’Inde contre les chiens, et ce, en seulement huit semaines. Mais, comme les précédentes injonctions, ce calendrier ambitieux fait abstraction des contraintes d’infrastructure et a peu de chances de réduire significativement la fréquence des morsures et des infections qui en découlent. La Cour entend actuellement les parties prenantes, cherchant une voie médiane entre le retrait à grande échelle des chiens et le respect du bien-être animal.
La nation est divisée. L’État semble incapable de tuer ces chiens, de les héberger dans des foyers ou de les contrôler. La question de leur devenir relève à la fois de la sécurité publique et de la protection animale, mais touche aussi à quelque chose de plus profond : le dernier chapitre de l’un des partenariats les plus remarquables de l’évolution.
À lire aussi : « Permis de tuer » ou sécurité publique ? En Turquie, une loi controversée sur les chiens errants
Une expérience de coexistence
Les chiens sont la seule espèce de vertébrés à avoir suivi les migrations humaines hors d’Afrique, à travers tous les climats et tous les types de peuplement. Si le moment exact de leur domestication reste incertain, on sait que les chiens ont évolué pour vivre aux côtés des humains. Mais ce lien entre espèces se heurte aujourd’hui à un défi inédit : celui de l’urbanisation tropicale.
Au cours des derniers siècles, alors que les chiens gagnaient leur place dans nos foyers, les humains ont créé plus de 400 races, belles, laborieuses ou affectueuses. Cette coévolution est importante : elle a rendu les chiens sensibles aux signaux humains et capables de développer de forts liens avec des personnes ou des lieux précis. Dans l’Inde urbaine, où les chiens n’appartiennent à personne mais ne sont pas vraiment sauvages, ces liens se traduisent par un comportement territorial autour d’un foyer ou d’une personne qui les nourrit.
Le laboratoire socio-écologique unique de l’Inde
L’Inde offre une perspective inégalée sur cette relation. Historiquement, les chiens des rues jouaient le rôle d’éboueurs. Dans les quartiers plus modestes, ils le font encore. Mais dans les zones plus aisées, ils sont désormais nourris délibérément.
Des recherches préliminaires à Delhi menées avec ma collègue Bharti Sharma montrent que les chiens s’organisent en meutes autour de foyers précis, où quelques personnes qui les nourrissent régulièrement peuvent couvrir presque 100 % de leurs besoins alimentaires. Cela permet des densités de chiens bien plus élevées que ce que le rôle d’éboueur pourrait supporter.
La collision urbaine
C’est ici que la coexistence ancienne se heurte à l’urbanisme moderne. Les rues indiennes sont des espaces multifonctions. Dans les climats tropicaux, les récupérateurs de déchets et les travailleurs manuels opèrent souvent la nuit
– exactement aux heures où les chiens se montrent les plus territoriaux et où les habitants plus aisés qui les nourrissent dorment.
Dans les climats tropicaux, les chiffonniers et les ouvriers travaillent souvent la nuit – précisément aux heures où les chiens se montrent les plus territoriaux et où les habitants plus aisés qui les nourrissent dorment.
Les chiens ont adapté leur comportement – aboiements, poursuites, morsures occasionnelles – de manière à être involontairement récompensés par ceux qui les nourrissent, tout en créant des dangers pour les autres. Les chiffres sont inquiétants : des millions de morsures et des milliers de décès dus à la rage chaque année.
Pour autant, une réaction contre les décisions de la Cour suprême était inévitable. Avec la gentrification, qui redéfinit qui peut décider de l’organisation de la vie urbaine, un conflit de valeurs est apparu : certains défendent la présence partagée des animaux, d’autres privilégient l’élimination des risques.
La voie à suivre
Les villes indiennes ont peut-être atteint leur « apogée de coexistence ». Malgré les nuisances quotidiennes – aboiements, poursuites – des millions de personnes continuent de nourrir ces chiens. Pourtant, le même chien qui remue la queue devant ses nourrisseurs familiers peut mordre un inconnu. Il ne s’agit pas d’agression irrationnelle, mais d’une protection territoriale née d’un lien profond avec une communauté humaine spécifique.
Les villes occidentales ont abattu leurs chiens errants il y a longtemps, car les priorités sociales y étaient plus homogènes. La diversité de l’Inde empêche un tel consensus. Il faudra sans doute encore de vingt à trente ans avant que l’ensemble de sa population urbaine considère la présence de chiens territoriaux comme intolérable.
À mesure que l’Inde s’urbanise, elle doit choisir entre préserver des espaces pour des relations anciennes, antérieures aux villes elles-mêmes ou suivre la voie occidentale d’un contrôle total. Le rituel de ma grand-mère, donnant son demi-chapati, incarnait un ancien accord : un investissement minimal, une coexistence pacifique et un bénéfice mutuel. Les chiens de Delhi, suralimentés et défendant leur territoire, incarnent aujourd’hui une nouvelle intimité plus intense – et il n’est pas certain que cette situation soit bénéfique pour les deux espèces.
Nishant Kumar bénéficie d’un financement de la DBT/Wellcome Trust India Alliance Fellowship. Il est chercheur associé à cette bourse au National Centre for Biological Science, TIFR, à Bangalore, en Inde, son accueil à l’étranger étant assuré par le Département de biologie de l’Université d’Oxford. Il est également cofondateur et scientifique en chef d’un think-tank de recherche basé à Delhi, Thinkpaws : www.Thinkpaws.org.
14.01.2026 à 14:24
La première bibliothèque de carottes glaciaires en Antarctique pour protéger la mémoire climatique de l’humanité
Texte intégral (1687 mots)
Le mercredi 14 janvier 2026, la première bibliothèque de carottes de glace au monde a été inaugurée à Concordia, en Antarctique. Des échantillons provenant de glaciers du monde entier commencent à y être stockés. Ils permettront notamment aux générations futures de continuer à étudier les traces des climats passés piégés dans la glace, alors que les glaciers de tous les continents fondent à un rythme effréné.
Grâce à sa température moyenne de -50 °C, cette carothèque souterraine pourra préserver du réchauffement climatique des carottes de glace déjà prélevées dans les Andes, au Svalbard (archipel norvégien en mer du Groenland), dans les Alpes, dans le Caucase ou dans les montagnes du Pamir au Tadjikistan, et ce, sans assistance technique ni réfrigération.
Ancien coprésident du groupe de travail Science du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), le climatologue et physicien suisse Thomas Stocker est aujourd’hui président de la Fondation Ice Memory, à l’initiative de ce projet en collaboration avec l’Université Grenoble Alpes et l’Université Ca’ Foscari de Venise. Il explique l’urgence de cette initiative qui se projette sur le temps long.
The Conversation : Pouvez-vous nous donner un exemple concret de la façon dont ces carottes de glace stockées en Antarctique pourraient être utilisées par les scientifiques du futur ?
Thomas Stocker : Prenons l’exemple d’un nouveau composé chimique présent dans l’atmosphère, comme un pesticide. Si, dans cinquante ans, un ou une scientifique souhaite connaître la concentration de ce composé en 2026, par exemple dans les Alpes européennes ou en Asie, il se tournera vers une carotte de glace.
Mais si la carotte de glace n’a pas été prélevée et stockée en Antarctique, ce ou cette scientifique sera incapable de répondre à cette question. Grâce aux carottes de glace stockées à Concordia, cependant, il ou elle pourra prélever un échantillon, mesurer la concentration de ce composé dans la glace prélevée il y a cinquante ou cent ans, reconstituer les données et répondre à cette question.
Mais pour permettre aux futurs scientifiques de répondre à toutes les questions qu’ils se poseront, nous devons agir rapidement. Un article scientifique très récent, publié dans Nature, s’est penché sur l’évolution globale de la fonte des glaces et prévoit que le nombre de glaciers qui disparaissent augmentera jusqu’en 2040 environ, ce qui représenterait le pic annuel de la fonte des glaciers dans le monde.
À partir de là, la fonte des glaciers se réduira. Les chiffres vont baisser, non pas parce qu’on aura arrêté le réchauffement climatique, mais parce que, un par un, ces glaciers auront disparu, et il restera de moins en moins de glaciers qui fondent. Donc, vers 2040, on va atteindre un pic de fonte des glaciers, ce qui détruira au passage les archives environnementales prestigieuses et précieuses qu’ils représentent.
Dans les Alpes, nous avons connu un réchauffement environ deux fois plus rapide que le réchauffement moyen mondial, et nous sommes donc entrés dans une véritable course contre la montre. Nous devons prélever ces carottes de glace avant que l’eau provenant de la fonte estivale pénètre dans la glace.
Depuis vos premiers travaux, vous avez pu bénéficier de nombreuses avancées méthodologiques et technologiques qui nous permettent de « faire parler » la glace. Quels sont vos espoirs en la matière ? Quels facteurs pourraient contribuer à exploiter encore davantage les échantillons de glaciers qui seront conservés à Concordia ?
T. S. : Je ne peux qu’extrapoler à partir de ce que nous avons appris et expérimenté en science au cours des cinquante dernières années. Nous avons effectivement assisté à l’arrivée de nouvelles technologies qui permettent d’analyser les paramètres de la composition élémentaire, la concentration des gaz stockés dans la glace et qui, comme des clés, vous ouvrent soudainement la porte à toute une série d’informations inédites sur notre système environnemental.
Ce que je peux donc imaginer à partir de là, ce sont de nouvelles méthodes optiques permettant de déterminer la composition isotopique de différents éléments dans diverses substances chimiques, des outils d’analyse de haute précision qui pourraient être inventés dans les prochaines décennies et qui permettraient d’atteindre le niveau du picogramme, du picomole ou du femtomole, afin de nous renseigner sur la composition de l’atmosphère, sur ses composants, tels que la poussière, les minéraux provenant de diverses régions qui se sont déposés dans ces carottes de glace, afin de nous informer sur la situation, l’état de l’atmosphère dans le passé.
Vous êtes professeur émérite de physique climatique et environnementale. Pour quelles autres disciplines le projet Ice Memory est-il utile ?
T. S. : On peut penser à la biologie. Si vous trouvez des restes organiques ou de l’ADN dans ces carottes de glace, c’est de la biologie. On peut aussi étudier la composition chimique de l’atmosphère. C’est alors de la chimie. On peut même se demander quelle est la composition minérale des petites particules de poussière qui se déposent dans ces carottes de glace. C’est un travail de géologue. Vous disposez donc de toute une gamme de domaines scientifiques différents qui peuvent tirer de nouvelles informations à partir de ces carottes de glace.
Le projet Ice Memory ne fait pas que rassembler différentes disciplines scientifiques, il aspire aussi à fédérer des scientifiques du monde entier. Quel défi cela représente-t-il à une époque où les tensions géopolitiques ne cessent de croître ?
T. S. : Ice Memory est l’un de ces exemples où le multilatéralisme est activement mis en pratique par la communauté scientifique. Il s’agit d’une offre faite aux scientifiques du monde entier, dans tous les pays, afin qu’ils puissent utiliser ce sanctuaire unique situé à Concordia. Pour nous, il s’agit vraiment d’une activité emblématique qui dépasse les frontières et les divisions politiques afin de préserver les informations provenant de la planète Terre, non seulement pour la prochaine génération de scientifiques, mais aussi pour l’humanité en général.
Nous invitons également tous les pays qui possèdent des glaciers sur leur territoire à participer et à soutenir leur communauté scientifique afin de forer des carottes de glace dans ces régions et de suivre l’exemple du Tadjikistan. ce dernier est le premier pays à avoir fait don d’une carotte de glace, 105 mètres de glace précieuse provenant d’un site unique, le glacier Chukurbashi, à la fondation Ice Memory afin qu’elle soit stockée en Antarctique.
Pendant la guerre froide, l’Antarctique était l’un des rares endroits sur Terre où Russes et Américains pouvaient échanger leurs idées et mener ensemble des recherches scientifiques. L’Antarctique peut-elle encore être un lieu où le dialogue remplace la rivalité ?
T. S. : Je suis absolument convaincu que l’environnement unique de l’Antarctique, si riche en nature et en vie, et si particulier sur notre planète, fait que les considérations relatives à la position et aux valeurs de chaque pays sont secondaires. La priorité absolue, comme nous l’avons pratiquée au cours des cinquante dernières années d’activité scientifique sur le terrain, est vraiment de comprendre notre système climatique, d’observer la nature du point de vue de l’Antarctique et de la protéger.
Cela nous donne l’occasion de nous immerger véritablement, de collaborer et d’échanger des idées sur des questions scientifiques spécifiques qui nous concernent tous, car elles concernent l’avenir de cette planète que nous partageons.
Propos recueillis par Gabrielle Maréchaux.
Thomas Stocker est président de la Fondation Ice Memory.
13.01.2026 à 15:47
Parler d’écologie en France : que révèle l’analyse linguistique des récits de la transition ?
Texte intégral (3439 mots)
La façon dont on parle des initiatives écologiques menées sur le territoire français depuis 1980 raconte beaucoup de choses sur les imaginaires de la transition. Dans une étude publiée par l’Agence de la transition écologique, l’Ademe, en 2025, nous montrons, avec l’appui de la linguistique, comment certains narratifs peuvent devenir de véritables leviers d’action concrète.
La question des récits et des narratifs qu’ils mobilisent est de plus en plus présente dans les discussions sur la transition socio-environnementale. Et cela, parfois jusqu’au « narrative washing », qui revient à masquer l’inaction à l’aide d’une belle histoire. Une étude que j’ai coordonnée pour l’Ademe, publiée en octobre 2025, montre pourtant que les récits jouent un rôle pivot dans les initiatives de transition écologique en France.
L’intérêt pour les récits n’est pas nouveau du côté de l’Ademe, qui a déjà soutenu plusieurs travaux sur le sujet et notamment sur la question des imaginaires de la transition écologique.
Ce qui est nouveau, en revanche, c’est d’avoir étudié ces récits sous un angle linguistique. Ainsi, nous avons constitué un corpus de textes, puis en avons étudié la lexicométrie (c’est-à-dire, l’étude quantitative du lexique). Enfin, nous avons procédé à une analyse de discours.
Concrètement, cela signifie que nous avons rassemblé des textes portant sur des initiatives de transition écologique et les avons étudiés de manière statistique (nombre d’occurrences, sens des mots…), afin de cerner les grands thèmes qui les traversent. Cette approche a été déclinée sur un corpus textuel (comment les acteurs parlent d’eux-mêmes, comment leurs partenaires en parlent, comment les médias et les citoyens les diffusent…) portant sur 559 initiatives menées entre 1980 et 2020 sur tout le territoire, y compris ultramarin. Bien sûr, la France a totalisé beaucoup plus d’initiatives sur la période, mais une sélection a dû être opérée pour nourrir l’analyse.
À la clé, un inventaire des récits écologiques ainsi mis en circulation, qui permet de comprendre comment les discours des uns et des autres se sont approprié les enjeux de transition écologique et quelles sont les dimensions clés mobilisées par les initiatives les plus emblématiques.
À lire aussi : Les textes des COP parlent-ils vraiment de climat ? Le regard de l’écolinguistique
Où s’ancrent les récits les plus emblématiques ?
Les résultats de l’étude montrent la grande diversité des initiatives, avec de réelles différences en fonction des formes juridiques porteuses (entreprises, associations, collectivités, etc.), des secteurs d’activité, mais aussi des territoires.
Dans ce cadre, nous nous sommes intéressés aux récits dits « emblématiques ». Par là, on entend : uniquement les récits traitant d’actions concrètes, incarnés par des acteurs clés et créateurs d’imaginaires capables de transformer les représentations qui circulent dans la société. Les récits étudiés ne sont donc donc pas des narratifs imaginaires et vaporeux déconnectés de toute réalité socio-économique.
En France hexagonale, les territoires regroupant le plus d’initiatives emblématiques sont ainsi :
soit des territoires avec de grandes villes fortement engagées (Rennes, Nantes ou Toulouse, par exemple),
des territoires ayant connu des crises socio-économiques fortes (comme le Nord et le Pas-de-Calais),
ou encore des territoires ayant un fort attachement linguistique et culturel (Pays basque, Corse, ou Bretagne). On retrouve également cette spécificité sur plusieurs territoires ultramarins, comme Mayotte, La Réunion ou la Guyane.
À lire aussi : Qui parle du climat en France ? Ce que nous apprennent les réseaux sociaux
Les grands thèmes transversaux
Au sein des 559 initiatives étudiées, 11 thèmes transcendent les territoires et les domaines d’activité socioprofessionnels. Ils sont mobilisés dans les récits pour raconter les différentes manières de s’engager pour la transition écologique en France. Nous les avons identifiés grâce au logiciel Iramuteq.
Le réemploi (couleur orange, en bas à gauche), une thématique importante, apparaît comme légèrement déconnectée des autres. En cause, l’orientation historique de ce modèle, lié au secteur de l’économie sociale et solidaire ainsi que le modèle d’insertion qu’il promeut. Le plus souvent, la gestion de la seconde main est effectuée par des associations qui accompagnent des personnes éloignées de l’emploi (par exemple Emmaüs).
Ceci montre que le modèle de réemploi obéit à une logique propre, plus ancienne et non directement liée à la prise de conscience plus récente de la nécessité d’une transition écologique. En d’autres termes, le secteur du réemploi a d’abord eu une vocation sociale, avant de mettre en avant plus distinctement son orientation écologique, d’où son isolement sur le graphe. Ainsi, associer des publics en situation d’exclusion au traitement d’objets eux-mêmes exclus du marché interroge sur les imaginaires qui traversent le modèle de réemploi et la précarité en général. En réalité, cette double exclusion peut expliquer la déconnexion relative par rapport aux autres thèmes de récit, plus explicitement centrés sur la transition environnementale que sur la dimension sociale.
En haut à gauche, les dimensions de convivialité, d’interaction humaine (couleur bleu foncé) et d’alimentation (en gris) sont liées. Ce marqueur illustre le besoin de retrouver une logique de « bons moments ». Celle-ci lie la consommation de produits alimentaires vertueux au besoin de se retrouver ensemble dans une logique hédonique. Les initiatives présentées par ces récits fonctionnent sur un rythme événementiel et s’appuient sur le besoin de créer des temps d’échange, de partage et de vie sociale.
Sur la partie droite, on distingue le besoin d’inscription territoriale (couleur rose), la question de l’agriculture vertueuse (en rose-violet), les enjeux de financement et d’énergie (en rouge), et enfin la dimension éducative (bleu-vert clair). Ces thèmes constituent autant de manières de mobiliser concrètement la transition avec une dimension territoriale : modèle économique, inscription locale en lien avec les projets des collectivités, sensibilisation des populations, modèles de production énergétique et agricole à réinventer…
Au centre du schéma, enfin, on retrouve les éléments pivots desquels s’articulent toutes les thématiques des récits : l’insertion et l’emploi. Ceci montre que les récits de la transition écologiques ne sont pas nécessairement utopiques : le réalisme économique et social des modèles socio-environnementaux est crucial pour créer du dynamisme économique et de l’emploi.
À lire aussi : Ressourceries, Emmaüs, Le Relais : les acteurs emblématiques de la seconde main menacés par la grande distribution
La place ambivalente de l’environnement
Pour ce qui est des domaines d’activité des initiatives étudiées, on remarque une légère prédominance de l’innovation sociale, qui regroupe notamment les tiers-lieux et écolieux, et plus généralement les espaces qui tentent de réinventer des modalités économiques et sociale. En deuxième position, on retrouve l’économie circulaire et le réemploi, puis les activités agricoles et alimentaires, et enfin l’engagement d’acteurs publics locaux et des collectivités.
Étonnamment, on remarque que les métiers spécifiquement liés à l’environnement et à la biodiversité (en tant que secteurs d’activité économique) sont minoritaires parmi les 559 initiatives. Pourtant, le graphe ci-dessous montre qu’il s’agit du premier sujet mobilisé par les récits d’initiatives emblématiques.
Ainsi, si l’environnement n’est pas toujours porteur lorsqu’il est en première ligne des initiatives, il est systématiquement associé aux initiatives comme élément d’accompagnement ou d’amplification.
Des récits qui dépendent des secteurs mais aussi des territoires
Afin de permettre une analyse du corpus la plus fine possible, plusieurs paramètres ont été définis dans le logiciel d’analyse pour représenter des informations récurrentes qui constituent de véritables « variables » des récits. Il s’agit de la date de création de l’initiative, de sa région, son département, le type de territoire, la forme juridique, le métier principal, le ou les objets de l’activité, le nom de l’activité…
En n’affichant que ces grandes catégories de variables, le graphe livre de nouveaux résultats. Par exemple, on remarque que le récit de convivialité semble prédominer en région Bretagne et concerne tout particulièrement les tiers-lieux.
Citons quelques-uns de ces tiers-lieux, visibles sur le graphe : la Manufacture des Capucins dans l’Eure, la Maison Glaz dans le Morbihan, ou encore la Maison du Colonel à Amiens. Cela ne signifie pas que la convivialité soit le seul récit porté par les initiatives étudiées, mais que ces tiers-lieux constituent, en termes de narratif, des moteurs nationaux pour associer la dimension de la convivialité à celle de la transition écologique.
Cette présentation des résultats met en avant d’autres initiatives locales, comme la commune alsacienne de Muttersholtz pour ce qui est de la transition énergétique, l’association réunionnaise Reutiliz pour l’économie circulaire, ou encore le CERDD, Centre ressource du développement durable dans les Hauts-de-France pour l’attachement au territoire.
Les trois piliers de la transition écologique
Ainsi, parmi les grands enseignements de cette étude, on remarque que les récits de transition écologique en France reposent sur trois piliers :
l’attachement au territoire et à ses réalités locales,
le besoin de liens sociaux pour créer de l’engagement convivial et désirable autour de la transition,
et la stimulation d’une véritable transformation culturelle des modes de vie et des comportements.
Ces récits sont précieux pour inciter à l’optimisme en ces temps de backlash écologique. Mais cette étude laisse une question en suspens : les récits qui sous-tendent la transition écologique sont-ils comparables ailleurs dans le monde ? Adopter une approche comparative entre différents pays permettrait d’identifier les leviers communs sur lesquels s’appuyer en priorité.
L'étude décrite dans cet article a été co-financée par l'Agence de la transition écologique (Ademe).
12.01.2026 à 15:53
La Terre du Milieu de Tolkien, un lieu imaginaire pour repenser notre rapport à la nature
Texte intégral (2908 mots)

L’écrivain anglais J. R. R. Tolkien (1892-1973) était un cartographe de l’imaginaire. Dans le Seigneur des anneaux (1954-1955), il invente un monde dans lequel la frontière entre humanité et animalité est floue. Ses cartes de la Terre du Milieu construisent la cohérence spatiale et la densité narrative de la quête de la Communauté de l’anneau. Montagnes, forêts, rivières y constituent tantôt des épreuves spatiales, tantôt des espaces protecteurs ou de refuge. La géographie y structure le récit et façonne la fiction.
Les mondes imaginaires sont performatifs. Ils se nourrissent du réel dans une projection fictionnelle tout en l’interrogeant. Le Seigneur des anneaux n’y fait pas exception, nous invitant à réfléchir à nos liens avec la nature, à reconnaître sa valeur intrinsèque et à dépasser une conception dualiste opposant nature et culture, ne lui accordant qu’une valeur d’usage ou de ressource, à nous engager dans une éthique environnementale.
En suivant la Communauté, métissée, sur les chemins, parfois de traverse, les menant vers le mont Destin, nous sommes confrontés à différentes manières d’habiter et de transformer la nature : utopies rurales, zones industrieuses, refuges écologiques et lieux symboliques où des choix engagent l’avenir du monde. La fiction devient un outil pour questionner le réel, interroger nos pratiques et réfléchir aux enjeux environnementaux contemporains dans une ère désormais anthropocénique.
Habiter (avec) le monde : utopies rurales et résistance
La Comté repose sur un système agraire vivrier de polycultures fondé sur de petites exploitations familiales où le tabac réputé n’est que peu exporté. Les Hobbits vivent en autarcie et habitent littéralement une nature jardinée, dans des terriers. Le bocage, les prairies forment un maillage qui limite l’érosion et protège la biodiversité et organisent un territoire où nature et société coexistent harmonieusement. Cet idéal préindustriel s’éteint peu à peu dans le monde occidental moderne où une agriculture intensive et centralisée s’est imposée pour devenir norme sur un territoire remembré.
La forêt de Fangorn, elle, représente une nature qui résiste à la manière d’une zone à défendre (ZAD). Les Ents, gestionnaires du peuplement forestier, incarnent des arbres doués de parole, capables de révolte. Ils refusent la domination humaine fermant les sentiers d’accès avant de s’engager dans une guerre contre l’industrialisation menée par Saroumane en Isengard. Le chantier stoppé de l’autoroute A69 témoigne de la façon dont la nature peut parfois aujourd’hui par elle-même poser des limites aux projets d’aménagement voulus par l’humain.
La Lothlórien, enfin, symbolise une écotopie, un espace préservé du temps et des pressions humaines, où nature, société et spiritualité vivent en harmonie. La réserve intégrale de la forêt de la Massane, les forêts « sacrées » d’Afrique de l’Ouest ou celles du nord de la Grèce (massif du Pindes) font écho à cet idéal. Pensées comme des écosystèmes dont les dynamiques naturelles sont respectées et où l’intervention humaine contrôlée se fait discrète, elles permettent d’observer et de suivre les espèces, la régénération spontanée des habitats et leur résilience. Mais à l’image de la Lothlórien, un tel système de gestion reste spatialement rare, fragile. Il nécessite de construire la nature comme bien commun dont l’accès et l’usage sont acceptés par les communautés qui cohabitent avec ces espaces forestiers.
Ces trois types de territoires montrent qu’habiter le monde n’est pas simplement occuper, encore moins s’approprier, un espace de nature mais engager un dialogue avec lui, considérer qu’il a une valeur par lui-même, juste parce qu’il existe, et pas uniquement en tant que ressource. Il s’agit alors de cohabiter dans des interactions où chaque existant prend soin de l’autre.
Exploiter une nature ressource : de l’artificialisation à la destruction
La transformation des espaces de nature, comme le montre Tolkien, peut aussi répondre à une logique d’exploitation intensive, la nature offrant des ressources permettant d’asseoir la domination des humains sur la nature comme sur d’autres humains. Il ne s’agit plus d’envisager une cohabitation être humain/nature mais d’asservir la nature par la technique.
Isengard, le territoire de Saroumane au sud des monts Brumeux, contrôlé par la tour d’Orthanc, incarne la transformation radicale du milieu par et pour l’industrie ; une industrie dont la production d’Orques hybrides, sorte de transhumanisme appliqué à la sauvagerie, vise à renforcer le pouvoir de Saroumane et construire son armée pour prendre le contrôle d’autres territoires. La forêt est rasée, les fleuves détournés, le paysage mécanisé, dans l’unique but d’alimenter l’industrie. Les champs d’exploitation des schistes bitumineux en Amérique du Nord montrent à quel point l’exploitation de la nature peut détruire des paysages, polluer une nature qui devient impropre et dont les fonctions et services écosystémiques sont détruits).
La Moria, ancien royaume florissant du peuple Nain, est l’exemple de l’issue létale de la surexploitation d’une ressource naturelle. Si le mithril, minerai rare de très grande valeur a construit la puissance du royaume Nain, son exploitation sans cesse plus intense, vidant les profondeurs de la terre, va conduire à l’effondrement de la civilisation et à l’abandon de la Moria. Ce territoire minier en déshérence fait écho aux paysages des régions du Donbass par exemple, qui conservent aujourd’hui encore les traces visibles de décennies d’extraction charbonnière : galeries effondrées, sols instables et villes partiellement abandonnées.
Lieux de rupture et enjeux planétaires
On trouve enfin chez Tolkien une mise en scène d’espaces qui représentent des lieux de bascule pour l’intrigue et l’avenir du monde, en l’occurrence la Terre du Milieu.
Le « bourg-pont » de Bree, zone frontière matérialisée par une large rivière, marque la limite entre l’univers encore protégé, presque fermé, de la Comté et les territoires marchands de l’est, ouverts et instables. Mais Bree est aussi un carrefour dynamique, lieu d’échanges où circulent et se rencontrent des personnes, des biens et des récits. Un carrefour et une frontière où toutefois la tension et la surveillance de toutes les mobilités sont fortes.
Lieu de transition, symbolisant à la fois ouverture et fermeture territoriales, Bree est un point de bascule dans le récit où convergent et se confrontent des personnages clés de l’intrigue (les Hobbits, Aragorn, les cavaliers noirs de Sauron), les figures du Bien et du Mal autour desquelles vont se jouer l’avenir de la Terre du Milieu. Comme Bree, Calais est un point de friction entre un espace fermé (les frontières britanniques) et un espace ouvert où s’entremêlent société locale, logiques nationales et transnationales, mais où les circulations sont de plus en plus contrôlées.
Enfin, la montagne du Destin, volcan actif, incarne le lieu de rupture ultime, celui où le choix d’un individu, garder l’anneau pour lui seul dans un désir de pouvoir total ou accepter de le détruire, a des conséquences majeures pour toute la Terre du Milieu. Certains espaces jouent un rôle similaire sur notre terre. La fonte du permafrost sibérien ou de l’inlandsis antarctique pourrait libérer d’immenses quantités de carbone pour l’un, d’eau douce pour l’autre, accélérant le dérèglement climatique et la submersion de terres habitées.
Ces lieux où des actions localisées peuvent déclencher des effets systémiques globaux, au-delà de tout contrôle, concentrent ainsi des enjeux critiques, écologiques, géopolitiques ou symboliques.
La fiction constitue un puissant vecteur de réflexion quant à notre responsabilité collective dans la gestion de la nature, quant à nos choix éthiques et politiques dans la manière d’habiter la Terre en tant que bien commun et ainsi éviter d’atteindre un point de bascule qui sera celui d’un non-retour.
Léa Menard, médiatrice scientifique au laboratoire Passages (UMR -Université Bordeaux Montaigne), a participé à la rédaction de cet article. Les illustrations ont été produites dans le cadre d'une exposition au GeoDock sur Les cartes de l'Imaginaire réalisée par le laboratoire Passages, en partenariat avec le label SAPS de l'Université Bordeaux Montaigne par l'artiste Léa Dutemps.
Véronique André-Lamat ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
11.01.2026 à 15:41
Après l’abattage de milliers de chevaux sauvages, le parc australien du Kosciuszko retrouve peu à peu ses paysages
Texte intégral (3521 mots)

Dans le parc national du Kosciuszko, la diminution de la population de brumbies, les chevaux sauvages, ouvre une chance de restauration pour les écosystèmes fragiles du massif. Celles et ceux qui parcourent le parc au quotidien en voient déjà les premiers effets.
Dans le parc national du Kosciuszko, en pleines Alpes australiennes, le paysage évolue lentement. Des zones de végétation, autrefois rasées par les chevaux, repoussent. Les berges de ruisseaux, longtemps érodées, paraissent moins tassées sur les bords. Les visiteurs croisent aussi moins de chevaux immobiles sur les routes, ce qui représentait un réel danger pour la circulation.
En 2023, en effet, la Nouvelle-Galles du Sud a autorisé l’abattage aérien de chevaux sauvages dans le parc national du Kosciuszko. Et fin novembre, le gouvernement a adopté un projet de loi abrogeant le texte qui reconnaissait aux brumbies ou chevaux sauvages un « statut patrimonial » dans le parc (NDT : ces chevaux, arrivés d’Angleterre avec les premiers colons ont été au centre d’une bataille culturelle culturelle ces dernières années).
Ce changement a supprimé les protections juridiques dont bénéficiaient les chevaux dans le parc, qui les distinguaient des autres espèces introduites comme les cerfs, les porcs, les renards et les lapins. Désormais, ils sont traités en Australie de la même manière que les autres espèces invasives, rétablissant une cohérence dans la gestion de leur impact sur les paysages.
La dernière enquête estime qu’environ 3 000 chevaux subsistent dans le parc national du Kosciuszko, contre quelque 17 000 il y a un an. Plus de 9 000 chevaux ont été abattus depuis 2021.
Le plan de gestion actuellement en vigueur prévoit de conserver 3 000 de ces chevaux, un compromis entre protection des écosystèmes et sauvegarde de la valeur patrimoniale de ces animaux. Il doit s’appliquer jusqu’à la mi-2027.
Quels sont les effets environnementaux de la réduction du nombre de chevaux à Kosciuszko ? Et à quoi le parc pourrait-il ressembler à l’avenir ?
Les dégâts
Depuis des décennies, les chevaux sauvages constituent une source majeure de dégradations écologiques dans les paysages alpins du Kosciuszko. Leur impact dans ces milieux d’altitude fragiles s’est particulièrement accru au cours de la dernière décennie, période pendant laquelle leur population a augmenté de manière incontrôlée.
Des études empiriques et des analyses d’images satellites montrent que les brumbies réduisent la couverture végétale, dégradent la structure des sols et endommagent les berges des cours d’eau, les tourbières et les marais alpins – des sols riches en carbone formés sur des dizaines de milliers d’années.
Une partie de ces dégâts résulte de leur alimentation, fondée sur des graminées et des plantes herbacées alpines à croissance lente. Un cheval consomme généralement l’équivalent de 2 % de sa masse corporelle par jour, soit environ 8 kilogrammes quotidiens. À titre de comparaison, le plus grand herbivore indigène des hauts plateaux, le kangourou gris de l’Est, consomme environ 600 grammes par jour, c’est 13 fois moins.
Mais l’essentiel des dégâts est causé par leurs sabots. Les chevaux sauvages parcourent jusqu’à 50 kilomètres par jour, et leurs sabots durs écrasent les couches de mousses à sphaignes, compactant en profondeur les sols tourbeux. Ces plantes et ces sols fonctionnent normalement comme des éponges à restitution lente, stockant l’eau de fonte des neiges et alimentant les cours d’eau tout au long de l’été. Et contrairement aux wombats, aux kangourous et à d’autres espèces indigènes, les chevaux sauvages se déplacent en file indienne, traçant de profonds sentiers qui quadrillent les prairies alpines et les assèchent.
Ces transformations affectent l’ensemble de l’écosystème. Les scinques alpins, les rats à dents larges, les grenouilles corroboree, les phalangers pygmées des montagnes et les poissons indigènes dépendent tous d’une végétation dense, de tapis de mousse intacts ou de cours d’eau exempts de sédiments – soit précisément les éléments que les chevaux dégradent.
Les cours d’eau ont été particulièrement touchés. Les Alpes australiennes fournissent près d’un tiers des eaux de surface qui alimentent le bassin Murray-Darling (NDT : le plus vaste bassin hydrographique d’Australie), mais le piétinement des chevaux le long des cours d’eau trouble des rivières jusque-là limpides et déstabilise les apports lents et réguliers dont dépendent ces bassins versants.
Ces impacts ne se limitent pas au parc. Ces dernières années, de nombreux chevaux ont gagné des zones voisines, notamment des forêts domaniales, où leurs perturbations s’ajoutent aux effets de l’exploitation forestière commerciale et mettent en danger les visiteurs et les campeurs.
Si l’attention s’est surtout concentrée sur les effets des brumbies au Kosciuszko et, plus largement, dans les écosystèmes alpins, près d’un demi-million de chevaux sauvages affectent les paysages à l’échelle de toute l’Australie, les forêts tropicales claires et les zones semi-arides étant les plus durement touchées.
Ce que nous avons observé jusqu’à présent
Nous avons passé beaucoup de temps dans le parc au cours de l’année écoulée et avons commencé à remarquer de petits changements dans les hauts plateaux, cohérents avec ce que l’on pourrait attendre du programme de contrôle des animaux sauvages.
Nous voyons moins de chevaux lors de nos journées sur le terrain. Dans les zones régulièrement piétinées, de petites poches de végétation réapparaissent sur les surfaces dénudées. Même certaines berges, érodées de longue date, paraissent plus souples sur les bords.
Ces observations restent strictement anecdotiques et ne constituent pas des preuves formelles. Mais elles suggèrent un paysage qui commence à se « réoxygéner » à mesure que la pression diminue. Il y a aussi un aspect sécuritaire. Quiconque circule sur les routes alpines connaît la surprise, au sortir d’un virage dans les eucalyptus, de se retrouver nez à nez avec un cheval, voire un troupeau, sur le bitume. Moins de chevaux signifie moins de ces rencontres dangereuses pour les chercheurs, le personnel des parcs nationaux et les visiteurs.
Le retour progressif
Avec beaucoup moins de chevaux dans les hauts plateaux, la pression commence à diminuer. À mesure que le piétinement diminue, les tourbières et les marais devraient commencer à se régénérer et à retenir l’eau plus longtemps. Les tapis de mousse repousseront et d’autres plantes productrices de tourbe pourront s’implanter à nouveau dans des sols qui ne sont plus constamment compactés et surpâturés.
Moins de pâturage signifie également que les herbes alpines, les carex et les graminées des neiges retrouveront de l’espace pour se développer. Les sols nus vont se stabiliser, les berges des cours d’eau se rétablir et les lits des ruisseaux commencer à se dégager.
Ces améliorations se répercutent sur l’ensemble de l’écosystème : des sols plus stables et une végétation plus dense créent un habitat plus favorable aux grenouilles, aux scinques, aux petits mammifères et aux invertébrés qui dépendent d’environnements alpins frais, humides et structurés.
La récupération prendra du temps – des décennies, et non des mois. Des études empiriques à long terme seront indispensables pour suivre les changements et identifier les zones du parc où des efforts de restauration ciblés seront nécessaires pour accélérer le rétablissement.
Enfin, une vraie chance
Rien de tout cela ne se produira en un claquement de doigts. Les écosystèmes alpins se régénèrent lentement, et des décennies de dégâts ne peuvent pas être effacées du jour au lendemain. Les courtes saisons de croissance font que les plantes repoussent progressivement, et non par à-coups. De nombreuses pentes et berges de ruisseaux portent encore les cicatrices du pâturage bovin plus de 60 ans après le départ du bétail. Les perturbations perdurent ici pendant des générations.
La diminution du nombre de chevaux n’est qu’un début, mais c’est une étape essentielle. Et désormais – avec moins de chevaux sur le terrain et la suppression des barrières légales – le parc du Kosciuszko dispose enfin d’une voie réaliste vers la restauration. La prochaine décennie déterminera combien de son fragile patrimoine alpin pourra finalement être retrouvé.
David M. Watson reçoit des financements de recherche du gouvernement fédéral (via l’ARC, le DAFF, le DCCEEW) et siège aux conseils d’administration du Holbrook Landcare Network et des Great Eastern Ranges. Il a exercé deux mandats au sein du Comité scientifique des espèces menacées de la Nouvelle-Galles du Sud, avant de démissionner lorsque la Wild Horse Heritage Act est entrée en vigueur en juin 2018.
Patrick Finnerty est actuellement directeur pour les carrières émergentes en écologie à l’Ecological Society of Australia, coordinateur des jeunes chercheurs à l’Australasian Wildlife Management Society, et membre du conseil de la Royal Zoological Society of NSW. Il reçoit des financements de l’Australian Research Council.
09.01.2026 à 16:45
Manger sain et durable avec la règle des 4V
Texte intégral (3094 mots)
Manger végétal, vrai et varié et consommer plus de produits issus d’une agriculture régénérant le vivant. Ces quatre objectifs permettent de concilier une alimentation bénéfique pour notre santé comme pour celle des écosystèmes.
Faire ses courses ressemble souvent à un casse-tête. On souhaiterait trouver des produits bon pour la santé, si possible ne venant pas du bout du monde, pas ultratransformés ni cultivés avec force pesticides et engrais chimiques, tout en étant à un prix abordable.
Mais ces enjeux peuvent parfois entrer en contradiction : des produits considérés comme sains ne sont pas toujours issus d’une agriculture de qualité, et inversement. En outre, de bons produits pour la santé et l’environnement ne permettent pas nécessairement d’avoir un régime alimentaire équilibré.
Alors comment sortir de ces dilemmes et aiguiller le consommateur ?
Nous proposons la règle simple des 4V, qui tient compte des modes de production agricoles et de la composition de l’assiette en invitant à une alimentation vraie, végétale, variée et régénérant le vivant.
La règle des 4V
Manger vrai permet de fait de réduire le risque de nombreuses maladies chroniques (obésité, cancers, diabète de type 2, dépression, maladies cardiovasculaires…). Par précaution, cela consiste à limiter les aliments ultratransformés à 10-15 % des apports caloriques quotidiens, au lieu de 34 % actuellement en moyenne ; soit déjà les diviser par deux au minimum.
Manger plus végétal est également meilleur pour la santé. Cela permet aussi une réduction importante de plusieurs impacts environnementaux : réduction de l’empreinte carbone de notre alimentation, car moins d’émissions de gaz à effet de serre (GES) en agriculture ; moindre consommation de ressources (terres, énergie, eau).
Réduire la production et la consommation de produits animaux permet aussi d’abaisser les émissions d’azote réactif qui polluent l’air, les sols et les nappes phréatiques et produisent du protoxyde d’azote (N₂O), un puissant gaz à effet de serre. Ce deuxième V permet ainsi de diviser par deux les émissions de GES et d’azote dans l’environnement.
Outre la réduction de notre consommation de protéines qui excède en moyenne de 40 % les recommandations, il est proposé de ramener la part des protéines animales à moins de 50 % de l’apport protéique, au lieu de 65 % actuellement. Au final, cela revient à diviser par deux la consommation de viande et un peu celle des produits laitiers, notamment le fromage. L’augmentation de la consommation de protéines végétales provient alors surtout des légumineuses. La végétalisation de l’assiette passe aussi par une consommation accrue de fruits et de légumes peu transformés, de céréales complètes et de fruits à coque.
À lire aussi : Les légumineuses : bonnes pour notre santé et celle de la planète
Manger varié est un atout pour la santé, notamment pour l’équilibre nutritionnel afin d’éviter les déficiences. Cela suppose de diversifier fruits, légumes, céréales complètes, légumineuses et fruits à coque qui sont une source importante de fibres, minéraux, vitamines, oligo-éléments, anti-oxydants et autres phytonutriments bioactifs protecteurs.
Pour cela, il faudrait idéalement consommer de tous les groupes d’aliments tout en variant dans chaque groupe : par exemple, blé, maïs et riz complets pour les céréales. Manger les différents morceaux de viande – en particulier des bovins (par exemple des entrecôtes et pas seulement du steak haché) – est aussi important pour ne pas déstabiliser les filières.
Manger des produits issus d’une agriculture régénérant le vivant permet d’améliorer la densité nutritionnelle des aliments, de réduire l’empreinte environnementale de l’assiette, notamment pour les émissions de GES et d’azote, et aussi d’augmenter les services fournis à la société (séquestration de carbone, épuration de l’eau…).
La regénération du vivant désigne l’ensemble des actions visant à restaurer ou renouveler la fertilité des sols, les cycles de l’eau et de l’azote, la diversité des espèces et la résilience face aux changements climatiques, tout en consommant avec parcimonie les ressources non renouvelables (le gaz qui sert à fabriquer les engrais, le phosphore…). Ainsi, au-delà de la production de nourriture, l’agriculture régénératrice vise à fournir des services à la société, tels que la séquestration du carbone dans les sols, l’augmentation de la densité nutritionnelle des produits.
Manger des produits issus d’une agriculture régénérant le vivant consisterait par exemple à choisir 50 % de produits ayant un bon score environnemental alors que les modes de production contribuant à la régénération du vivant ne dépassent pas 25 % de l’offre.
Types d’agriculture contribuant à la régénération du vivant
L’agriculture conventionnelle, qui vise l’intensification durable en utilisant les technologies pour réduire ses impacts, ne peut cependant pas régénérer le vivant, car elle porte toujours sur des systèmes simplifiés avec un nombre limité de cultures, des sols souvent pauvres en matières organiques, peu d’infrastructures écologiques et de très grandes parcelles.
Cependant, caractériser les modes de culture et d’élevage pour leurs impacts négatifs, mais aussi pour les services qu’ils rendent (séquestration du carbone, densité nutritionnelle des produits) permet d’aller au-delà de la dichotomie usuelle bio/conventionnel.
Les pratiques associées à la régénération du vivant reposent sur la diversification des cultures et des modes d’alimentation des animaux. Elles permettraient de réduire les émissions de GES de 15 % environ, et aussi de séquestrer entre 15 et 20 % des émissions de GES de l’agriculture. Elles permettraient aussi de réduire de moitié insecticides et fongicides. En revanche, une réduction forte de l’utilisation des herbicides est plus difficile et nécessite de combiner plusieurs mesures sans forcément exclure un travail du sol occasionnel.
L’élevage est critiqué, car il introduit une compétition entre feed (nourrir les animaux) et food (nourrir les humains). Cette compétition est bien plus faible pour les vaches, qui mangent de l’herbe, que pour les porcs et les volailles, qui sont nourris avec des graines. Elle est aussi d’autant plus faible que les élevages sont autonomes pour l’énergie et les protéines. Des exemples d’élevage contribuant à la régénération du vivant sont les élevages herbagers et biologiques, dont l’alimentation provient surtout des prairies, ainsi que les élevages Bleu Blanc Cœur pour lesquels l’ajout de lin, graine riche en oméga-3, dans la ration des animaux, a des effets positifs sur leur santé, la nôtre et la planète puisqu’il y a une réduction des émissions de GES en comparaison à des élevages courants.
Il s’agit d’agricultures agroécologiques, telles que l’agriculture biologique, l’agriculture de conservation des sols, s’il y a une réduction effective des pesticides, voire l’agroforesterie.
À lire aussi : Les sept familles de l’agriculture durable
Des initiatives sont en cours pour évaluer l’impact environnemental des produits agricoles et alimentaires. Elles permettent de qualifier les modes de culture et d’élevage en termes d’impacts sur le climat, la biodiversité, en mobilisant la base de données Agribalyse. Elles tiennent compte aussi des services fournis comme la séquestration du carbone, la contribution à la pollinisation des cultures, comme le montre la recherche scientifique.
À ce jour, deux initiatives diffèrent par la manière de prendre en compte les services et de quantifier les impacts. La méthode à retenir dépendra de leur validation scientifique et opérationnelle.
Des bienfaits conjugués
Suivre ces 4V permet de pallier les failles de notre système alimentaire tant pour la santé que pour l’environnement. L’alimentation de type occidental est de fait un facteur de risque important pour le développement de la plupart des maladies chroniques non transmissibles. Les facteurs qui en sont à l’origine sont nombreux : excès de consommation d’aliments ultratransformés, de viandes transformées, de gras/sel/sucres ajoutés, de glucides rapides, manque de fibres, d’oméga-3, d’anti-oxydants, et une exposition trop importante aux résidus de pesticides. Ces maladies sont en augmentation dans de nombreux pays, y compris en France.
Par ailleurs, les modes de production en agriculture sont très dépendants des intrants de synthèse (énergie, engrais, pesticides) dont les excès dégradent la qualité des sols, de l’eau, de l’air, la biodiversité ainsi que la densité nutritionnelle en certains micronutriments.
Nous sommes parvenus à un point où nos modes d’alimentation ainsi que les modes de production agricole qui leur sont associés génèrent des coûts cachés estimés à 170 milliards d’euros pour la France. La nécessité de refonder notre système alimentaire est maintenant reconnue par les politiques publiques.
Un cercle vertueux bon pour la santé et l’environnement
Manger varié encourage la diversification des cultures et le soutien aux filières correspondantes. Il en est de même pour manger vrai, car les industriels qui fabriquent des aliments ultratransformés n’ont pas besoin d’une diversité de cultures dans un territoire. Dit autrement, moins on mange vrai, moins on stimule l’agriculture contribuant à régénérer le vivant. Manger varié est également meilleur pour la santé mais aussi pour le vivant.
Par ailleurs, les pratiques agricoles régénératives permettent généralement d’avoir des produits de plus grande densité nutritionnelle. Même si le mode de production de l’agriculture biologique émet souvent plus de GES par kilo de produit que le mode conventionnel, il suffit de consommer un peu moins de viande pour compenser cet effet.
La règle des 4V (Figure 2) permet donc d’embarquer tous les acteurs du système alimentaire, du champ à l’assiette, ainsi que les acteurs de la santé. Ainsi, adhérer simultanément à vrai, végétal, varié a récemment été associé à une réduction de 27 % du risque de cancer colorectal.
Quant au concept de régénération du vivant, il demeure parlant pour tous les maillons de la chaîne. Vivant, varié et végétal s’adressent aux agriculteurs ; vrai concerne les transformateurs et, in fine, le distributeur qui peut offrir ou non du 4V aux consommateurs. Cette règle des 4V permet ainsi de sensibiliser les acteurs du système alimentaire et les consommateurs aux facteurs à l’origine des coûts cachés de l’alimentation, tant pour la santé que l’environnement.
Enfin, un tel indicateur qualitatif et holistique est facile d’appropriation par le plus grand nombre, notamment les consommateurs, tout en constituant un outil d’éducation et de sensibilisation au concept « Une seule santé » pour l’alimentation, comblant le fossé entre sachants et non-sachants.
Anthony Fardet est membre des comités scientifiques/experts de MiamNutrition, The Regenerative Society Foundation, Centre européen d'excellence ERASME Jean Monnet pour la durabilité, Projet Alimentaire Territorial Grand Clermont-PNR Livradois Forez et l'Association Alimentation Durable. Il a été membre du comité scientifique de Siga entre 2017 et 2022.
Michel Duru est membre du conseil scientifique de PADV (Pour une Agriculture Du Vivant)
08.01.2026 à 17:19
Dermatose nodulaire contagieuse : les vétérinaires victimes d’une épidémie de désinformation
Texte intégral (2448 mots)
Arrivée en France en juin 2025, la dermatose nodulaire contagieuse (DNC) a rapidement fait l’objet de mesures sanitaires qui ont permis d’éradiquer le virus dans certaines régions. Mais la crise agricole qui a suivi a vu émerger une contestation inédite, nourrie par des fausses informations et des remises en cause du rôle des vétérinaires. Dans ce texte, la profession appelle à un « droit de véto » contre la désinformation.
La dermatose nodulaire contagieuse (DNC) a atteint la France en Savoie le 29 juin 2025 à la suite de l’introduction d’un bovin infecté venant d’Italie. La France métropolitaine étant alors indemne de la DNC, la réglementation européenne prévue (dépeuplement total, vaccination d’urgence au sein des zones réglementées (ZR) – instaurées par arrêté préfectoral, limitation des mouvements des bovins…] a été mise en place, ce qui a permis d’éliminer le virus dans la région dès le 21 août.
Les contaminations ultérieures qui ont suivi en France, notamment en Occitanie, sont en réalité le résultat de déplacements illicites de bovins contagieux à partir de la zone réglementée couvrant une partie de l’Ain, de la Savoie et de la Haute-Savoie (zone vaccinale II sur la carte ci-dessous).
La forte médiatisation de la DNC associée aux dénonciations de « hold-up politique » par certains éleveurs rappelle de précédentes crises sanitaires (vache folle, grippe aviaire, Covid-19…). Mais à l’époque, la parole des « sachants » n’avait pas été remise en cause dans les mêmes proportions qu’aujourd’hui. Des membres de la profession vétérinaire font l’objet d’insultes, voire de menaces gravissimes, dans certains cas même de menaces de mort.
Cette situation est non seulement surprenante, mais également choquante. Les vétérinaires ont toujours été associés et solidaires avec les éleveurs. Dans le même temps, de fausses informations au sujet de la DNC se propagent dans l’espace médiatique.
À lire aussi : Dermatose nodulaire : comprendre les raisons de la mobilisation agricole
Un déferlement inédit de « fake news »
Parmi les fausses informations que des experts autoproclamés (parmi lesquels on a pu retrouver tant des personnes ayant endossé une posture « antivax » lors de la pandémie de Covid-19 que des scientifiques ou cliniciens méconnaissant la DNC) ont diffusées, non seulement sur les réseaux sociaux mais également dans les médias :
- « La maladie peut être traitée par des antibiotiques/par l’ivermectine. »
C’est faux. Les antibiotiques ou les antiparasitaires tels que l’ivermectine ne sont pas actifs sur une maladie virale comme la DNC, causée par un Capripoxvirus (Lumpy skin disease virus).
- « L’Espagne et l’Italie n’ont pas appliqué le dépeuplement total. »
C’est faux. Les autres pays européens confrontés à la DNC, comme l’Espagne et l’Italie, appliquent eux aussi la stratégie d’abattage de tous les bovins présents dans un foyer confirmé de DNC, comme le confirme le ministère de l’agriculture.
- « La Suisse pratique l’abattage partiel. »
Il n’y a pour l’instant pas eu de cas de DNC confirmé en Suisse, donc pas d’abattage.
- « Il est inadmissible d’abattre tout un troupeau lorsqu’il y a seulement un animal malade. »
Si un seul animal présente des lésions cutanées, il y a de fortes chances qu’au moins 50 % des animaux soient infectés dans le troupeau. En effet, il est difficile de connaître précisément la date d’infection du bovin. Si celle-ci est antérieure à l’acquisition de la protection vaccinale, alors plusieurs animaux sont potentiellement infectés au sein du troupeau, ce que les tests sanguins ne permettent pas de détecter.
- « Il faut avoir un troupeau témoin pour surveiller l’évolution de la maladie dans un foyer infecté. »
Ce troupeau « témoin » a existé dès le 6e foyer de DNC déclaré le 7 juillet en France, du fait du recours d’un jeune éleveur de Savoie refusant le dépeuplement de son troupeau. Treize jours plus tard, le recours a été refusé et d’autres cas de DNC se sont déclarés dans son élevage. La forte contagiosité de la DNC pourrait en partie expliquer le grand nombre de foyers de DNC déclarés deux semaines plus tard dans les élevages voisins.
- La DNC relève de la catégorie A du droit européen, comme la fièvre aphteuse, or « pour la fièvre aphteuse, de nouveaux textes préconisent l’abattage partiel ».
C’est faux. La catégorie A correspond en médecine vétérinaire à une maladie soumise une réglementation sanitaire très stricte lorsqu’il s’agit d’une maladie hautement contagieuse émergent dans un pays indemne. Les conséquences économiques et sanitaires justifient une éradication immédiate dès son apparition.
- « Le vaccin n’est pas efficace car certains bovins vaccinés ont présenté la maladie malgré tout »
La vaccination en urgence n’est pas une vaccinothérapie. Elle nécessite au moins trois semaines pour installer une protection immunitaire. Elle a pu être réalisée chez des animaux déjà infectés avant ou peu après l’injection vaccinale.
- « La désinsectisation de l’élevage est la méthode la plus efficace pour éviter la contamination ».
Ce sont certes des insectes hématophages qui sont les vecteurs de la DNC, mais les traitements insecticides ne sont jamais efficaces à 100 %. Il n’existe pas de mesure parfaite permettant d’éradiquer tous les insectes d’un élevage.
- « 70 vétérinaires ont été radiés de l’Ordre des vétérinaires pour avoir refusé l’abattage du troupeau de l’Ariège ».
C’est faux. Le conseil national de l’ordre des vétérinaires confirme qu’aucun vétérinaire n’a été radié pour avoir refusé un abattage.
- « Le vaccin est dangereux pour les animaux et l’humain ».
C’est faux, le vaccin est un vaccin dit « vivant atténué » qui ne présente aucun danger ni pour les animaux ni pour l’humain. De plus, la DNC n’est pas une zoonose (maladie animale transmissible à l’humain et réciproquement), mais une épizootie.
- « Il y a encore des cas de DNC en Savoie ».
Dans cette zone désormais considérée comme indemne de la DNC, il peut s’agir de la pseudo dermatose nodulaire contagieuse (PDNC), due à un herpèsvirus qui évolue très rapidement (en 3 semaines) vers la guérison.
- « La fédération des vétérinaires européens (FVE) préconise plutôt la vaccination que l’abattage dans la DNC ».
C’est faux : la note de la FVE de novembre 2025 présente une revue générale sur le bénéfice des vaccinations en médecine vétérinaire sans remettre en cause la réglementation européenne concernant les maladies classées dans la catégorie A comme la DNC.
- « L’EFSA (European Food Safety Autority) avait préconisé un abattage partiel en 2016 lors des premiers foyers de DNC en Europe ».
Cette recommandation de l’EFSA en 2016 correspondait à une évaluation mathématique des moyens à mettre en œuvre dans les pays où la DNC était déjà installée (virus endémique), en l’occurrence les Balkans. Elle ne s’applique pas pour les pays indemnes de DNC soumis à la réglementation européenne, comme c’est le cas en France.
- « Lors de l’épizootie de DNC observée dans l’île de La Réunion en 1991-1992, il n’y a pas eu de dépeuplement total ».
La flambée de DNC sur l’île de la Réunion a été la conséquence de l’importation de zébus malgaches. Le contexte sur cette île qui n’exportait pas de bovins était toutefois différent de la situation actuelle de la DNC en France métropolitaine. Il y a d’abord eu un retard considérable de plusieurs mois pour identifier formellement la maladie. Le premier vaccin, qui était celui utilisé pour la variole ovine, était peu efficace pour les 18 000 bovins vaccinés (sur les 21 000 bovins recensés sur l’île). La vaccination avec le vaccin bovin sud-africain, bien plus efficace, a été réalisée avec un an de retard. Au total, 511 exploitations ont été atteintes avec 10 % de mortalité.
Les conditions de la sortie de crise
En France, la situation est actuellement sous contrôle dans le Sud-Est, mais elle est encore évolutive en Occitanie, où de rares cas peuvent encore apparaître à la fin de cette épizootie. Ce sera le cas de bovins en incubation, car voisins d’un foyer déclaré et dont l’immunité vaccinale n’est pas encore installée pour le protéger.
Deux autres risques ne peuvent pas être évalués pour prédire la fin de cette épizootie de DNC :
un déplacement illicite à partir des ZR actuelles d’animaux apparemment sains, mais qui sont de véritables « bombes virales » à retardement ;
la non-déclaration d’un cas de suspicion de DNC par un éleveur (comme un représentant syndical a osé le recommander), alors qu’il convient d’éviter la contamination des élevages voisins.
La principale revendication des agriculteurs, répétée inlassablement dans les médias, est un abattage partiel lors de DNC. Elle témoigne d’une méconnaissance de cette maladie. En effet, on l’a vu plus haut, ce serait mettre en danger les troupeaux indemnes et par-delà, tout le cheptel bovin français. Nous espérons qu’il n’y aura plus de foyers de DNC à partir de mi-janvier 2026, comme ce fut le cas dans les Savoie après la vaccination.
La profession vétérinaire a toujours été proche des agriculteurs. Rappelons que les premières écoles vétérinaires au monde ont été créées en France au XVIIIe siècle pour « lutter contre les maladies des bestiaux ». Ainsi, en unissant nos forces nous avons pu éradiquer de la surface de la Terre en 2001 une autre maladie virale : la peste bovine.
Jean-Yves Gauchot est docteur vétérinaire et président de la Féderation des syndicats vétérinaires de France
Jeanne Brugère-Picoux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
08.01.2026 à 11:45
La marche, premier mode de déplacement en France : ce que disent vraiment les statistiques de mobilité
Texte intégral (2744 mots)
Les statistiques de mobilité orientent les politiques publiques. Or en France, la manière de les présenter, héritée des années du tout automobile, minore la part de la marche, ce qui pénalise le développement des mobilités actives. Et si on s’inspirait des approches statistiques déjà déployées ailleurs, par exemple en Suisse, pour mieux comptabiliser le temps passé à marcher ?
Les statistiques ne sont jamais neutres : elles sont le reflet de choix politiques répondant à un contexte historique spécifique. La manière de présenter les résultats des enquêtes statistiques sur la mobilité des personnes en France, qui a déjà 50 ans, n’échappe pas à cette règle. Elle conduit à sous-estimer fortement les déplacements à pied, au risque de continuer à favoriser des politiques en faveur des modes de déplacement motorisés.
Il est grand temps de réformer cet usage, comme l’a fait la Suisse il y a déjà 30 ans, si l’on souhaite redonner aujourd’hui davantage de place aux mobilités actives, tant pour des raisons sociales, économiques qu’environnementales.
Pour rappel, la marche est le mode de déplacement le plus inclusif, le plus démocratique et le moins nuisible à l’environnement, et pas seulement dans le cœur des grandes villes.
À lire aussi : Atteindre les objectifs climatiques améliorera aussi la santé publique
Ce que disent les statistiques sur la mobilité
En France, depuis la standardisation des enquêtes sur la mobilité des personnes en 1976, les déplacements sont généralement présentés sous forme de « parts modales ». Il s’agit des parts, sur l’ensemble des déplacements comptabilisés, réalisées avec chaque mode de déplacement : voiture, deux-roues motorisé, transports collectifs, vélo, marche…
Dans les présentations classiques des données recueillies, la part modale de la marche apparaît très inférieure à celle de la voiture. Pourtant, quand on regarde l’autre grande source statistique que représentent les enquêtes sur la mobilité réalisées dans les grandes villes, les déplacements à pied dominent dans les centres-villes, et parfois également dans les banlieues denses de la proche périphérie. Mais partout ailleurs, c’est largement le contraire et le triomphe de la voiture apparaît ainsi incontestable.
En conséquence, pour qui découvre ces statistiques ainsi présentées , dans la plupart des territoires, il paraît nécessaire de s’occuper en priorité des voitures, de leur accorder davantage de place pour circuler et stationner, même si cela doit se faire au détriment des espaces publics, des trottoirs, des places publiques et autres terre-pleins.
Ce qu’oublient de préciser ces représentations
Examinons ces chiffres de plus près. En réalité, ce qu'on nomme habituellement la « part modale de la marche » ne concerne que la « marche exclusive », c’est-à-dire les déplacements entièrement faits à pied, par les résidents, sur l’espace public et hors du temps de travail.
Par convention, on oublie ainsi :
la marche intermodale, c’est-à-dire les déplacements à pied pour rejoindre ou quitter un transport public ou une place de stationnement pour voiture, vélo ou deux-roues motorisé,
la marche effectuée dans des espaces privés ouverts au public, comme les centres commerciaux ou les gares,
la promenade ou la randonnée,
la marche pendant le travail, y compris quand elle est effectuée sur l’espace public, qui est pourtant très importante dans certaines professions,
la marche au domicile pour effectuer toutes sortes d’activités : du ménage au jardinage, en passant par le bricolage, etc.,
enfin, la marche réalisée par les visiteurs (touristes et autres non-résidents) du territoire.
À lire aussi : Mobilité : et si on remettait le piéton au milieu du village ?
Comment expliquer une approche si restrictive ?
Les conventions statistiques sur la mobilité ont été élaborées dans les années 1960-1970 à l’époque du « tout automobile », puis des premiers efforts réalisés pour relancer les transports publics. Dans ce contexte, il fallait avant tout prévoir et dimensionner la voirie pour absorber un trafic motorisé fortement croissant, les piétons étant très peu considérés et les cyclistes censés disparaître.
Par convention dans les enquêtes sur la mobilité, un déplacement, c’est une personne qui va d’un lieu d'origine à un lieu de destination, avec un ou plusieurs modes et pour un motif particulier. Les modes sont hiérarchisés avec priorité aux plus lourds : d’abord les transports publics, puis la voiture, puis les deux-roues et enfin la marche.
Autrement dit, si une personne se rend à pied à un arrêt de bus, prend le bus, puis termine son trajet à pied, le déplacement est considéré comme ayant été fait en transport public et la part de marche est tout simplement ignorée. Dans cette approche, la marche devient un « résidu » statistique, c’est-à-dire ce qui reste une fois qu’on a pris en compte tous les autres modes de déplacement. Pourtant, les usagers des transports publics passent environ la moitié de leur temps à pied à marcher ou à attendre.
À lire aussi : Réduire l’empreinte carbone des transports : Quand les progrès techniques ne suffisent pas
Ces pays qui comptabilisent les déplacements différemment
Or, cette représentation des statistiques de déplacement en France est loin d’être la seule possible.
En Suisse par exemple, depuis une réforme des statistiques de la mobilité introduite en 1994, les résultats des enquêtes de mobilité sont présentés sous trois angles différents : les distances parcourues, le temps de trajet et le nombre d’étapes.
Par étape, on entend ici les segments d’un déplacement effectués à l’aide d’un seul mode de transport. Un déplacement en transport public, par exemple, compte le plus souvent une première étape à pied, puis une deuxième en transport public et une troisième à nouveau à pied : on parle de marche intermodale.
Ainsi, en 2021, en ne tenant compte que de la marche exclusive et de la marche intermodale, les Suisses ont passé chaque jour plus de temps à pied qu’en voiture.
Ailleurs, on réfléchit aussi à d’autres manières de présenter les résultats des enquêtes sur la mobilité, comme en Belgique ou au Royaume-Uni.
En réalité, 100 % de nos déplacements intègrent au moins une part de marche, même minimale lorsqu’il s’agit par exemple de simplement sortir de sa voiture sur le parking de son lieu de travail. La marche est à l'origine de toutes les autres formes de mobilité et les autres modes ne sont que des « relais du piéton ». Parce que nous sommes des bipèdes, la marche est évidemment notre premier mode de déplacement.
Vers une nouvelle approche en France ?
La France peut-elle changer sa façon de présenter les statistiques de mobilité, dans le sillage de ce que propose la Suisse ?
Pour prendre conscience de l’importance journalière de la marche, il convient de l’aborder en temps de déplacement total à pied. Une récente étude de l’Ademe révèle que nous passons chaque jour une heure et douze minutes à pied, soit beaucoup plus que la durée moyenne passée en voiture chaque jour, qui est de 37 minutes.
Ces résultats montrent aussi que la prise en compte de la marche intermodale augmente de 75 % la durée de la seule marche exclusive (dite « déplacements locaux intégralement à pied » dans le graphique ci-après). En tenant compte de tous les temps consacrés à se déplacer, la marche est sans conteste le premier mode de déplacement, loin devant la voiture.
Cette étude repose sur l’utilisation de deux enquêtes existantes mais sous-exploitées (l’enquête mobilité des personnes et l’enquête emploi du temps des Français) et en adoptant plusieurs hypothèses prudentes.
En quelques centaines de milliers d’années d’évolution humaine, la bipédie s’est hautement perfectionnée. Elle a permis de libérer nos mains, nous a rendus très endurants à la course et a contribué à développer notre cerveau. Puis, en 150 ans seulement avec l’avènement du transport motorisé, la marche utilitaire quotidienne s’est effondrée.
Pourtant, de par notre constitution, marcher régulièrement est essentiel pour rester en bonne santé, pour bien grandir, vivre mieux et bien vieillir. C’est un enjeu de santé publique. C’est pourquoi, il convient de réaliser des espaces publics confortables, de libérer les trottoirs du stationnement sauvage et autres obstacles, de ménager des traversées piétonnes sécurisées et de calmer la circulation automobile, sa vitesse et son volume. Pour appuyer de telles politiques, encore faudrait-il revoir notre manière de représenter la marche dans les résultats des enquêtes de mobilité.
Frédéric Héran est membre du conseil d’administration de l'association et groupe de réflexion Rue de l’Avenir
08.01.2026 à 11:45
Peut-on encourager le covoiturage avec des subventions locales ?
Texte intégral (1743 mots)

Le covoiturage est souvent perçu comme une des façons les plus simples de baisser les émissions de gaz à effet de serre des transports. Si le premier bilan des subventions locales visant à généraliser cette pratique est encourageant, il masque en vérité plusieurs aspects.
Face à l’urgence climatique et aux embouteillages chroniques des métropoles françaises, les pouvoirs publics cherchent des solutions pour réduire l’usage de la voiture individuelle. Les automobiles des particuliers sont la principale source des émissions de gaz à effet de serre du transport en France. Elles sont également émettrices de particules fines qui dégradent la qualité de l’air et augmentent les risques de maladies respiratoires et cardiovasculaires.
Face à cette réalité, le covoiturage est une piste qui suscite beaucoup d’espoir, car elle ne nécessite pas d’infrastructures lourdes supplémentaires, s’appuyant sur des ressources existantes de véhicules et de conducteurs. Parmi les solutions incitatives, les aides financières locales au covoiturage, notamment via des plateformes numériques, se développent depuis 2019. Mais ces subventions encouragent-elles vraiment plus de covoiturage ? Et quels sont les gains environnementaux dus à ces subventions ?
Des résultats probants, mais variables selon les territoires
La loi d’orientation des mobilités (LOM), promulguée en 2019, autorise les autorités organisatrices de mobilité à verser une incitation financière aux conducteurs et passagers d’un trajet en covoiturage. Le versement de cette subvention s’effectue principalement via des plateformes numériques qui organisent le covoiturage. La subvention moyenne pour un déplacement en covoiturage de 22 kilomètres s’élève à 1,60 euros.
Pour voir si ce levier est efficace, un jeu de données est précieux : celui du registre de preuve de covoiturage. Il centralise les données de trajets transmises par les plateformes partenaires. Notre étude récente utilise ces données pour mesurer la pratique du covoiturage organisé via plateforme dans 1 123 collectivités locales françaises entre 2019 et 2024.
Elle révèle que ce levier est effectivement puissant. En moyenne, l’introduction d’une subvention locale attribuée pour chaque déplacement augmente d’environ 5 trajets mensuels le nombre de trajets de covoiturage à courte distance (inférieurs à 80 kilomètres) sur plateforme pour 1 000 habitants concernés. Chaque euro de subvention supplémentaire par déplacement génère près de 4 trajets mensuels additionnels par 1 000 habitants. Autrement dit, les finances publiques locales, investies dans ce type d’incitation, produisent un effet tangible et mesurable sur le terrain.
Ce résultat masque cependant une forte diversité. L’effet des subventions est nettement plus marqué dans les zones urbaines denses et peuplées. À l’inverse, dans les territoires peu denses et ruraux, la subvention n’a quasiment aucun effet, traduisant les difficultés du covoiturage à s’implanter sans une masse critique d’usagers. Cette disparité met en lumière le rôle central des effets de réseau propres aux plateformes numériques : plus il y a d’utilisateurs, plus elles deviennent utiles, ce qui amplifie l’impact des subventions.
D’autres réalités doivent également être soulevées pour comprendre l’efficacité ou non de ces subventions, notamment du point de vue environnemental.
L’effet d’aubaine : inciter ceux qui viendraient de toute façon
L’effet d’aubaine se produit lorsque des utilisateurs auraient covoituré via la plateforme même en l’absence de toute subvention. Par exemple, un salarié habitué à organiser son covoiturage quotidien sur une application continue simplement à le faire, mais touche désormais une prime financière.
Ici, la dépense publique n’a donc pas changé son choix ni augmenté le nombre total de trajets partagés, ce qui dilue l’efficacité de la politique.
L’effet d’opportunité : attirer les covoitureurs informels sans créer de nouveaux trajets
L’effet d’opportunité correspond lui aux covoitureurs qui, sans subvention, auraient continué à partager leurs trajets en dehors des plateformes numériques (par exemple via le bouche-à-oreille ou des groupes privés). Lorsque la subvention est instaurée, ils transfèrent leur pratique sur la plateforme pour bénéficier des aides. Ainsi, le volume de trajets enregistrés croit artificiellement, sans que la part réelle du covoiturage dans la mobilité globale n’augmente. Par exemple, deux voisins qui organisaient ensemble leur trajet en voiture hors plateforme rejoignent l’application pour percevoir la prime, sans modification de leur habitude de déplacement. Une enquête du Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) montre qu’un tiers des nouveaux covoitureurs attirés par les dispositifs d’incitation financière covoituraient déjà avant la mise en place de l’incitation.
Le report modal : comprendre d’où viennent les nouveaux passagers
Le facteur le plus décisif concerne cependant les sources du report modal : il s’agit d’identifier le mode de transport qu’un passager du covoiturage aurait utilisé si la subvention n’existait pas. Contrairement à l’idée reçue, une grande partie des nouveaux passagers du covoiturage issu de la subvention ne sont pas d’anciens automobilistes solo, mais d’anciens usagers du transport collectif (bus, train) ou parfois des modes actifs (comme le vélo ou la marche).
Prenons l’exemple d’une passagère qui renonce au TER pour un trajet covoituré subventionné : cela ne retire pas une voiture de la circulation, et les bénéfices pour la réduction des émissions sont nettement moindres que si elle avait quitté la voiture solo.
D’après l’enquête nationale sur le covoiturage pilotée par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), 35 % des passagers du covoiturage courte distance via plateforme faisaient le déplacement en transports en commun avant de pratiquer le covoiturage, 11 % utilisaient un mode actif et 10 % ne faisaient pas ce trajet. Ce constat est valable tant pour le covoiturage court que longue distance, freinant fortement l’effet net de la politique sur les émissions de gaz à effet de serre.
Combien coûte réellement la tonne de CO₂ évitée ?
Pour obtenir une mesure de l’impact net des subventions, il est donc indispensable de corriger les chiffres bruts du nombre de trajets en tenant compte de ces trois effets. Selon notre étude, ces phénomènes expliquent qu’entre un tiers et la moitié de l’augmentation observée n’est pas associée à une réelle réduction de l’autosolisme ou des émissions.
Une manière de mesurer l’efficacité d’une politique de réduction des émissions de gaz à effet de serre, et de la comparer à d’autres politiques, est de calculer le montant nécessaire pour éviter l’émission d’une tonne de CO2. Dans le cas du covoiturage, chaque tonne de CO2 évitée coûte à la collectivité entre 1 000 et 1 300 euros en subventions.
Ce chiffre se situe dans la fourchette haute des instruments de politique climatique en Europe, ce qui dénote une efficacité très relative. À titre de comparaison, le dispositif d’encouragement de l’adoption de la motorisation électrique a un coût pour les finances publiques de l’ordre de 600 euros par tonne de CO₂ évitée.
Vers une stratégie de long terme, ciblée et combinée
Ces résultats montrent bien la nécessité de concevoir des politiques qui ciblent précisément les changements de comportement les plus à même de réduire les émissions de CO2. Ces politiques seront d’autant plus efficaces qu’elles convainquent des autosolistes d’abandonner leur voiture pour covoiturer en tant que passager. Pour cela, des stratégies combinées seront nécessaires : incitations financières, infrastructures adaptées comme les voies réservées, développement de l’intermodalité…
Enfin, l’effet des subventions croissant dans le temps et le développement de la pratique du covoiturage invitent à une vision de long terme, loin des mesures ponctuelles d’effet d’annonce.
Guillaume Monchambert est membre du conseil scientifique de la Société des Grands Projets (SGP). Il a reçu des financements de la Région Auvergne-Rhône-Alpes (Projet Covoit’AURA) et de la BPI (projet Mobipart). Il a effectué des activités de conseil pour SNCF Réseau et SNCF Voyageurs.
07.01.2026 à 17:56
Microcapteurs pour suivre la qualité de l’air : gadgets ou véritables outils de suivi ?
Texte intégral (2994 mots)
Le suivi de la qualité de l’air s’est grandement démocratisé grâce à l’essor de microcapteurs électroniques accessibles à tout un chacun. Ces dispositifs sont-ils performants, et à quelles conditions peuvent-ils fournir une information utilisable ? État des lieux.
La pollution de l’air extérieur peut être liée au trafic routier, au chauffage au bois, aux activités industrielles ou encore aux feux de forêt et aux éruptions volcaniques. La diversité des particules qui en résulte illustre bien la nature diffuse et mobile de cette pollution. Celle-ci a des conséquences graves en termes d'effets sur la santé, allant des troubles respiratoires immédiats à des maladies chroniques incurables.
Selon l’Organisation mondiale de la santé (OMS), la pollution de l’air, tous polluants confondus, est responsable de 7,4 millions de décès par an dans le monde dont 4,2 millions liés à l’air extérieur et 3,2 millions à l’air intérieur. En France, le fardeau sanitaire des particules fines entraînerait à lui seul 40 000 décès chaque année, et est associés à un coût socio-économique estimé à 13 milliards d’euros.
Aujourd’hui, suivre la qualité de l’air auquel chacun est exposé n’a jamais été aussi simple. En quelques clics, il devient possible d’acheter des microcapteurs, d’accéder à des cartes en ligne ou de télécharger des applications mobiles fournissant un accès à ces données en temps réel. Tout comme la météo guide le choix de prendre un parapluie, cet accès offre aujourd’hui aux citoyens et aux décideurs un outil pratique pour orienter leurs actions.
Pourtant, derrière cette démocratisation, se pose la question de la performance de ces microcapteurs opto-électroniques. S’agit-il vraiment de sentinelles de confiance ? Faisons le point.
À lire aussi : Le potentiel oxydant : un nouvel indice pour mesurer la pollution atmosphérique
Des microcapteurs dans l’air du temps
Commençons par rappeler comment est menée la surveillance réglementaire de la qualité de l’air en France. Elle est coordonnée par le Laboratoire central de surveillance de la qualité de l’air (LCSQA) et mise en œuvre au niveau régional par les associations agréées pour la surveillance de la qualité de l’air (AASQA). Les données, librement accessibles grâce au site régional des AASQA, sont produites selon des protocoles normés afin de s’assurer qu’elles soient comparables d’une station de mesure à l’autre et d’une région à l’autre.
Toutefois, le nombre de stations de mesure mises en place résulte d’un compromis entre couverture géographique et coûts. La modélisation, basée sur les modèles Chimere ou Sirane par exemple, permet d’extrapoler la qualité de l’air sur un territoire donné, mais elle reste dépendante de la qualité et du nombre des mesures locales.
Afin de renforcer la couverture sans augmenter les coûts, la directive européenne, dont la réglementation française découle, autorise les réseaux de surveillance réglementaire à procéder à des mesures indicatives, pour lesquelles les exigences de qualité sont plus souples. Ce cadre favorise l’intégration des microcapteurs de 10 à 100 fois moins coûteux que les équipements utilisés pour les stations de référence, tant à l'achat qu’en fonctionnement.
Ce marché a le vent en poupe. En 2023, il pesait plus de 6 milliards d’euros, marché qui pourrait s’élever en 2032 à 13,5 milliards. En 2022, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) dénombrait 60 000 références produits disponibles sur les plateformes de vente en ligne.
On y retrouve donc des microcapteurs à bas coût prêts à l’emploi capables de collecter et de transmettre les données en temps réel. Le prix des composants se limite à quelques dizaines d’euros, tandis que le coût total du dispositif varie d’environ une centaine à plusieurs milliers d’euros selon les fonctionnalités.
Une mesure facile, mais une interprétation parfois délicate
Que valent ces différents types de microcapteurs ? Pour le savoir, il faut d’abord définir ce que l’on souhaite mesurer lorsqu’on parle de particules fines. Loin d’être un mélange défini, les particules dans l’air forment un ensemble hétérogène et variable par leur forme, leur taille et leur état.
Trois catégories se distinguent :
les hydrométéores (pluie, neige, brouillard),
les aérosols (suie, poussières, embruns, composés organiques…)
et les bioaérosols (pollens, bactéries, virus, spores…).
Par convention, la matière particulaire en suspension (ou Particulate Matter, PM) est décrite en fonction de la taille de ses constituants, dans lesquels les hydrométéores doivent être exempts. Ainsi, par convention, les particules grossières PM10, les particules fines PM2,5 et les particules ultrafines PM0,1 représentent respectivement des ensembles hétérogènes de taille inférieure ou égale à 10, 2,5 et 0,1 micromètre (µm).
Plus les particules sont petites, plus elles sont susceptibles de pénétrer profondément dans les voies respiratoires. Les PM1,0 peuvent être également suivies par des microcapteurs et des équipements de référence, mais elles ne font pas l’objet d’une réglementation spécifique ni ne sont associées à des seuils sanitaires!
À lire aussi : Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?
Or, les microcapteurs bas coût pour le suivi des particules, dont la mesure est basée sur leur comptage grâce à un principe optique, sont sensibles aux conditions environnementales et aux caractéristiques des particules, ce qui fragilise les performances. Leur fonctionnement repose sur la diffusion de la lumière par le passage d’une particule à travers un faisceau laser. Il s’agit du même principe qui rend visible un rayon lumineux dans la fumée. L’intensité détectée dans une direction donnée dépend de la taille, de la forme, de la composition et de l’orientation des particules.
Il faut également noter que ces microcapteurs sont calibrés avec des particules de polystyrène, loin de refléter l’hétérogénéité réelle de la pollution de l’air extérieur. S’ajoutent à cela leur encrassement et leur vieillissement, qui dégradent les performances dans le temps. L’interprétation des données exige donc une connaissance fine de ces limites.
Des données précieuses… mais sous conditions
Pour autant, les microcapteurs ne sont pas à exclure. En effet, en cas d’épisode de pollution, ils détectent les mêmes tendances que les stations réglementaires, justifiant leur usage pour des mesures indicatives.
Pour s’y retrouver, les organismes pour la surveillance de la qualité de l’air ont mené des évaluations en confrontant les microcapteurs aux équipements réglementaires. Accessibles en ligne, les résultats du challenge Airlab (Airparif, France) et de l’AQ-SPEC (South Coast AQMD, États-Unis) révèlent des corrélations satisfaisantes entre microcapteurs et ces équipements pour les PM1,0 et PM2,5. En revanche, elles sont moins bonnes pour les PM10 , car la conception des microcapteurs et le principe de la mesure ne permettent pas de bien les détecter.
Ces microcapteurs peuvent être achetés autant par des citoyens, des collectivités, des industriels, des associations ou des chercheurs. Tous ces acteurs peuvent publier leurs données sur des cartes interactives, ou y contribuer ponctuellement.
Il existe des cartes qui affichent les mesures de leurs propres microcapteurs, comme des projets associatifs et locaux tels que OpenSenseMap, Sensor.community ou SmartCitizen, ainsi que systèmes commerciaux déployés à plus grande échelle tels que AirCasting, AirGradient, Atmotube, ou Purple Air.
D’autres services, comme le World Air Quality Index ou IQAir, agrègent les données autant de microcapteurs que des réseaux réglementaires.
Contrairement aux cartes des AASQA, qui sont comparables entre elles grâce à des protocoles stricts, chaque plateforme adopte sa propre présentation.
Il est donc essentiel de bien comprendre l’information affichée : les points de mesure peuvent fournir une information visuelle qui représente une concentration (Atmotube par exemple) ou un indice de qualité de l’air (IQAir par exemple) avec un jeu de couleurs propre aux plate-formes comme des données chiffrées sans repère pour interpréter la donnée (OpenSenseMap par exemple). De plus, selon les plateformes, une même carte peut afficher tout un ensemble d’indicateurs de pollution de l’air, pas seulement ceux liés à un polluant spécifique comme les particules.
Par ailleurs, peu de plateformes précisent si les mesures sont faites en intérieur, en extérieur, en mobilité ou en point fixe. De plus, une donnée en temps réel et une donnée moyennée sur une période donnée ne sont pas comparables. De ce fait, pour une même zone géographique, la qualité de l’air affichée peut varier d’une plateforme à l’autre, selon l’emplacement de la mesure, l’indicateur utilisé et la période considérée. En France, les données des AASQA restent la référence pour une information de confiance.
Les microcapteurs n’en restent pas moins des sentinelles utilisables sous réserve d’une excellente maîtrise de leurs limites. L’utilisation individuelle de microcapteurs par le grand public peut être encadrée par un protocole rigoureux pour assurer la qualité des données et accompagner leur interprétation. Le projet d’OpenRadiation, qui porte sur la mesure de la radioactivité, en est un exemple : lorsqu’une mesure faite par l’utilisateur d’un microcapteur apparaît inhabituelle sur la carte, un gestionnaire contacte alors ce contributeur pour comprendre l’origine de cette déviation. La cartographie de la qualité de l'air s'appuie sur une plus grande quantité de microcapteurs, ce qui rend plus difficile un suivi individualisé. Néanmoins, une validation des données à l’instar de ce qui est réalisé pour le suivi réglementaire pourrait être envisagée à l’aide d’un traitement adapté, avec un filtrage par exemple.
Ainsi, comme en témoignent la Captothèque (Atmo Auvergne-Rhône-Alpes) ou Ambassad’air (Rennes), programmes de sciences participatives basés sur la mesure citoyenne de la qualité de l’air, les microcapteurs peuvent non seulement fournir des indications, mais aussi contribuer à l’engagement citoyen pour l’observation environnementale.
À lire aussi : Ces citoyens qui mesurent la radioactivité de leur environnement
Marie Bellugue Duclos a reçu des financements du CNRS pour sa thèse. Elle utilise des micro-capteurs pour ses recherches.
Denis Machon a reçu des financements du CNRS et de l'ANR (France), du CRSNG (Canada) et du FRQ (Québec).
Michael Canva a reçu des financements du CNRS et de l’ANR (France), du CRSNG (Canada) et du FRQ (Québec).
07.01.2026 à 11:39
Une proposition de loi veut supprimer l’obligation d’utiliser un cercueil et relancer le débat sur la liberté des funérailles
Texte intégral (1249 mots)
Une proposition de loi déposée à la toute fin 2025 entend rouvrir un débat ancien mais de plus en plus actuel : celui du choix réel des modalités de disposition du corps après la mort, au-delà du seul face-à-face entre inhumation et crémation.
L’actualité du droit funéraire est très vivante ces dernières années et cela n’est pas prêt de s’arrêter. Pour preuve, une proposition de loi a été déposée le 23 décembre 2025, proposition visant à rendre effective la liberté des funérailles à travers le développement d’alternatives à l’inhumation et à la crémation et s’inscrivant dans la lignée d’une proposition précédente visant à développer l’humusation, un sujet qui reste dans l’actualité depuis 2023 malgré une certaine instabilité politique.
Quel est l’objet de cette nouvelle proposition de loi ?
La proposition de loi no 2297 portée par le député LFI François Piquemal (4ᵉ circonscription de Haute-Garonne) vise « à rendre effective la liberté des funérailles ». Autrement dit, l’enjeu de ce texte n’est pas de promouvoir une alternative en particulier à l’inhumation et à la crémation mais d’offrir une plus grande marge de manœuvre aux citoyennes et citoyens français quant au choix de leurs funérailles. Pour rappel, il s’agit normalement d’une liberté déjà inscrite dans la loi de 1887 sur la liberté des funérailles mais qui est souvent interprétée comme une liberté « contrainte » puisque cantonnée au choix entre inhumation ou crémation avec obligation de recourir à un cercueil dans les deux cas.
Ainsi, le texte propose de renforcer cette liberté par une mesure forte : l’abrogation de l’obligation d’utiliser un cercueil au profit d’une liberté de choix de l’enveloppe mortuaire (article 2), suivie d’une invitation à la reconnaissance légale d’alternatives à l’inhumation et la crémation (la terramation, l’humusation et l’aquamation sont ainsi nommées dans l’article 3 de la proposition).
Là est la différence majeure entre cette proposition de loi et celle de 2023 citée en introduction : la liberté de choix de l’enveloppe mortuaire. Autant les alternatives à l’inhumation et à la crémation commencent à être connues, autant il s’agit là d’une mesure totalement inédite qui vient porter un coup à plus de 200 ans de tradition juridique, l’obligation légale d’utiliser un cercueil datant d’un arrêté du préfet de Paris de 1801 pour des raisons d’hygiène.
Enfin, là où cette nouvelle proposition de loi rejoint la précédente, c’est sur la technique légistique de l’expérimentation. Les deux propositions proposent de passer par la voie de l’expérimentation avec un délai plus crédible pour la nouvelle proposition (5 ans) contre 6 mois seulement dans celle de 2023.
Une proposition inspirée par l’actualité internationale du droit funéraire
Cette nouvelle proposition de loi n’est pas une initiative isolée. Cela commence à faire plusieurs années que nous entendons parler de reconnaissances légales d’alternatives à l’inhumation et à la crémation. C’est le cas notamment aux États-Unis, en Allemagne et peut-être bientôt en Suisse.
Ce mouvement de légalisation dans le monde témoigne d’une nouvelle sensibilité écologique et de l’aspiration de nos concitoyens à davantage de liberté dans l’organisation des funérailles.
La France n’est d’ailleurs pas le seul pays à réfléchir à l’abrogation de l’obligation légale d’utiliser un cercueil. En région bruxelloise (Belgique) il est ainsi permis depuis janvier 2019 de s’affranchir du cercueil au profit d’un linceul. On reconnait ici la théorie défendue par Alexandre Flückiger, légisticien, selon laquelle « le droit d’un État voisin est susceptible de déployer des effets d’ordre recommandationnel sur un territoire limitrophe. Le droit étranger déploie dans ce contexte un effet symbolique qui agirait sur les comportements au même titre qu’une recommandation très implicite. »
La situation en France
Enfin, en dehors de la proposition de loi, il est possible de trouver plusieurs indicateurs sur le sol français qui démontrent un vif intérêt pour une plus grande liberté des funérailles et pour l’abrogation de l’obligation légale du cercueil.
À défaut de pouvoir supprimer le cercueil, certains réfléchissent à le rendre plus vert. À Saint-Étienne, la jeune entreprise Pivert Funéraire a ainsi créé un modèle pour crémation fabriqué à partir de déchet des industries sylvicoles et oléicoles.
D’autres organisent des colloques académiques sur le sujet. C’est l’exemple du colloque récent « Cercueil(s) & droit(s) », qui s’est tenu à l’Université Toulouse Capitole, le 28 novembre 2025.
D’autres encore mènent des expériences effectives sur le déploiement d’alternatives à l’inhumation et la crémation. C’est l’exemple de l’expérimentation sur des brebis qui a lieu dans l’Essonne à travers le projet ANR F-Compost.
En somme, les acteurs de la recherche et des pompes funèbres préparent le terrain pour que des projets, comme celui porté par cette proposition de loi, puissent voir le jour. Si une réserve pouvait être émise il y a quelques années sur l’intérêt du Parlement pour ces questions, il est permis de penser qu’à plus de cent ans la loi sur la liberté des funérailles pourrait bientôt connaître une nouvelle vie…
Jordy Bony a travaillé avec le comité de recherche de l'association Humo Sapiens, pour une mort régénérative qui œuvre pour promouvoir et expérimenter la terramation en France.