10.02.2026 à 12:32
Bruno Marquis
Il est une forme de pollution dont on parle peu en matière d'environnement, et qui pourtant subordonne toutes les autres. La pollution mentale, parce qu'elle nous empêche de prendre les mesures nécessaires pour lutter efficacement contre les graves défis et problèmes environnementaux qui nous assaillent, devrait aussi se retrouver au sommet de nos préoccupations quant à notre avenir.
(Ce texte a d'abord été publié dans l'édition de février du journal Ski-se-Dit.)
Cette pollution de l'esprit a d'importantes conséquences sur notre capacité à comprendre le monde, par le raisonnement, à discerner le vrai du faux, à prendre la juste mesure des choses. Si elle se décline sur plusieurs formes, à différents niveaux, c'est d'abord sous son aspect scientifique que nous allons l'aborder.
De façon générale, la pollution mentale désigne l'excès d'informations, de stimulations négatives ou de sollicitations inutiles qui surchargent le cerveau, générant des idées confuses et créant un état d'épuisement qui rendent la concentration difficile. Elle a d'abord des impacts sur la santé, engendrant du stress, de l'anxiété et éventuellement des troubles cognitifs, mais aussi, comme mentionné plus haut, sur notre façon d'appréhender le monde.
Un article publié sur le sujet l'été dernier dans le trimestriel Confluence Magazine nous explique que « malgré le principe selon lequel nous n'utilisons que 8 à 10 % de nos capacités mentales, la quantité de données visuelles à laquelle le cerveau humain est de nos jours exposé en permanence ne doit pas être sous-estimée, alors que tant de personnes, en particulier les enfants, regardent la télévision, jouent à des jeux vidéo et surfent sur Internet ». (Les images et le contenu violents diffusés en grande quantité sur les réseaux sociaux et à la télévision auraient même des effets néfastes sur la mémoire selon l'universitaire Brad Bushman qui s'est beaucoup penché sur les agressions et la violence dans les médias.)
Surdose d'informations
Nous sommes en effet bombardés au quotidien d'images, de vidéos et d'informations, très souvent de façon fragmentaire, sans que nous ayons le temps, l'énergie ou l'intérêt de nous y arrêter. L'abondance d'informations de tout genre et de tout horizon, parfois offensante, la plupart du temps non sollicitées et superflues, surcharge notre cerveau, nous rendant difficile la mémorisation, dans ce fouillis, d'éléments dont nous aimerions nous rappeler. Leur analyse aussi, ce qui est d'autant plus grave.
Incapables bien souvent, dans ce contexte, de filtrer l'information, en conservant d'une part ce qui nous est utile et en rejetant le reste, et d'autre part en conservant ce qui est crédible et en rejetant ce qui ne l'est pas, nous pouvons ainsi tomber dans un relativisme qui nous amène à penser que tous les points de vue s'équivalent et que les données empiriques, utiles à la connaissance et à l'analyse, ne constituent qu'une opinion parmi tant d'autres.
Outre la quantité grandissante d'images, de vidéos ou d'informations de tout genre qui pullulent dans les médias sociaux, mais aussi dans les médias en général, l'augmentation de la désinformation et de la mésinformation au cours des dernières années dans les médias sociaux et sur le Web vient aussi amplifier cette forme de pollution. Les algorithmes, aussi, bien sûr.
Négationnisme
Que l'on ait porté au pouvoir, aux États-Unis et dans certains autres pays, des gens qui nient l'impact des changements climatiques et la crise écologique en général, constitue un problème majeur en matière d'environnement, le premier obstacle en fait, mais non le seul, à l'urgente mise en place de solutions viables pour assurer notre survie sur la planète.
Le consensus scientifique sur le changement climatique est pourtant extrêmement élevé, avec des études récentes indiquant que plus de 99 % des climatologues dans le monde affirment que le réchauffement observé depuis l'ère préindustrielle est d'origine humaine. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) nous confirme depuis 1988 que l'activité humaine en est la cause principale, un point de vue soutenu par des milliers d'études évaluées par des pairs et des organisations scientifiques mondiales. Ce consensus, basé sur de fortes preuves, comme l'augmentation rapide des températures et des concentrations de gaz à effet de serre, n'a même cessé de se renforcer au fil du temps.
Malgré ce fort consensus, le pourcentage de ce qu'on appelle les climato-sceptiques – qui sont en fait des climato-négationnistes – continuerait de croître dans le monde, selon des données colligées à la fin de 2024, et atteindrait les 39 %. S'il est en général moins élevé dans les pays occidentaux, il n'a tout de même pas empêché des dirigeants climato-négationnistes, comme Donald Trump aux États-Unis, d'y accéder au pouvoir. Avec les conséquences que l'on sait sur la lutte aux changements climatiques, entre autres aspects de la crise écologique, avec la revalorisation des énergies polluantes, les déréglementations, le retrait des États-Unis de nombreuses organisations lies à l'environnement, incluant la Convention-cadre sur les changements climatiques (CCNUCC), et l'augmentation des dépenses militaires.
La réalité du réchauffement climatique et de la crise écologique en général bute, chez de trop nombreuses personnes, sur la difficulté de faire le tri parmi une trop grande quantité d'informations, et d'accorder aux faits, aux sources crédibles et valables, une place centrale dans leur raisonnement. Ce n'est bien sûr rien d'irréversible… Que faire ?
Eh bien d'abord prendre conscience que cette pollution des esprits constitue un obstacle important à la mise en place de solutions pour lutter contre la crise écologique. Il nous faut agir, comme nous le pouvons, pour que les populations ne constituent pas elles-mêmes, par cette pollution mentale, un soutien à des politiciens climato-négationnistes ; puis, dans la même veine, en poussant plus loin cette logique, qu'ils réalisent que les mesures qui s'imposent pour faire face aux changements climatiques et à la crise écologique, sont des mesures radicales qui nécessitent un changement de paradigme. Bref, qu'il nous faut sortir du capitalisme, de la croissance sans fin et sans buts du capital, et envisager sérieusement des mesures de décroissance, des mesures de décroissance qui visent un juste partage des ressources entre les pays et les populations riches et pauvres.
******
Abonnez-vous à notre lettre hebdomadaire - pour recevoir tous les liens permettant d'avoir accès aux articles publiés chaque semaine.Chaque semaine, PTAG publie de nouveaux articles dans ses différentes rubriques (économie, environnement, politique, mouvements sociaux, actualités internationales ...). La lettre hebdomadaire vous fait parvenir par courriel les liens qui vous permettent d'avoir accès à ces articles.
Remplir le formulaire ci-dessous et cliquez sur ce bouton pour vous abonner à la lettre de PTAG :
Abonnez-vous à la lettre
10.02.2026 à 12:32
Vincent Lucchese
Le niveau des mers augmente, et va encore s'intensifier avec la fonte des glaciers. À quel point ? La réponse à cette question dépend d'une source d'incertitude majeure, étudiée par les scientifiques : le cas de l'Antarctique.
2 février 2026 | tiré de reporterre.net | Illustration : En Antarctique, l'écoulement de la glace vers l'océan est l'un des facteurs majeurs de l'élévation à venir du niveau de la mer. - © Cécile Guillard / Reporterre https://reporterre.net/Montee-des-eaux-comment-l-Antarctique-fait-planer-la-menace-du-pire
Jusqu'à quelle hauteur la mer va-t-elle monter ? Et, surtout, à quel point le changement climatique va-t-il accélérer cette élévation du niveau des océans, qui a déjà commencé ? La question taraude les climatologues et glaciologues, dont les regards convergent vers une source d'incertitude massive pour l'avenir : l'Antarctique.
Des millions de milliards de tonnes de glace recouvrent le continent polaire. Elles forment une calotte dont la structure et les dynamiques sont d'une très grande complexité. Or, l'écoulement de cette glace vers l'océan constitue l'un des facteurs majeurs de l'élévation à venir du niveau de la mer. Si l'ensemble de la calotte antarctique fondait, la mer monterait de 58 mètres.
Un tel scénario est fort heureusement totalement exclu. Pour autant, de nombreuses inconnues entourent la fonte partielle en cours du continent, et notamment la vitesse d'écoulement et les mécanismes de déstabilisation de certains glaciers. Ce sont ces inconnues qui expliquent que les projections pour 2100 soient très incertaines.
1 milliard d'humains bientôt concernés
Si l'on suit notre trajectoire climatique actuelle, menant à 2,7 °C de réchauffement en 2100, la mer devrait monter de 44 à 76 cm en fin de siècle, selon les projections du Giec, par rapport au niveau de référence de la période 1995-2014. Dans le scénario pessimiste de très fortes émissions, la hausse serait comprise entre 63 cm et 1,01 m. Voire, en prenant en compte le déclenchement d'éléments jugés très improbables, de 1,6 m. Et encore : des experts du sujet sondés dans une étude en 2019 estimaient plausible que l'élévation dépasse les 2 mètres dès 2100.
De tels écarts d'estimation sont d'autant plus problématiques qu'une dizaine de centimètres d'élévation supplémentaire est déjà catastrophique. Si le réchauffement planétaire atteint 2 °C plutôt que 1,5 °C en 2100, la mer monterait en moyenne d'environ 10 cm de plus, estime le Giec, avec pour conséquence de rendre 10 millions de personnes supplémentaires vulnérables à cette hausse.
Plus la mer monte, plus s'accroissent les risques de submersion, d'érosion côtière, de salinisation des sols et des ressources en eau douce, et de destructions catastrophiques provoquées par des événements climatiques extrêmes. Dès 2050, 1 milliard d'habitants des régions côtières dans le monde seront vulnérables à de tels risques, d'après la synthèse des connaissances établie par le Giec.
Les mystères de la calotte Antarctique font partie des « lacunes majeures dans les connaissances des processus critiques » qui « entravent l'adaptation au changement climatique », alertait une étude publiée en février 2025 dans le journal Science.
Des mystères de glace multimillénaires
Combler ces lacunes est donc crucial, mais les scientifiques se heurtent à des défis colossaux en Antarctique. À commencer par l'ampleur des échelles de temps concernées. « Les calottes polaires réagissent à la fois à l'échelle des cycles glaciaires/interglaciaires [de l'ordre de 100 000 ans] et à très court terme », dit Hélène Seroussi, glaciologue et professeure associée au Dartmouth College, aux États-Unis. La plateforme de glace antarctique appelée Larsen B s'est, par exemple, effondrée soudainement,en moins de deux mois, en 2002. « Comprendre les phénomènes sur ces deux échelles de temps à la fois est difficile », souligne la chercheuse.
L'évolution au long cours de ces glaciers multimillénaires est d'autant plus complexe à comprendre que les observations directes ne remontent souvent qu'aux années 1990 et aux premiers satellites dédiés à ces questions. Une trentaine d'années dérisoires comparé à l'immense inertie de ces géants de glace.
« Certains chercheurs pensent que le recul actuel des glaciers serait influencé par un épisode fort d'El Niño ayant eu lieu... dans les années 1940 ! Mais on ne sait pas du tout quelle était la forme de la calotte à cette époque », illustre Frank Pattyn, glaciologue à l'Université libre de Bruxelles.
Deuxième défi : les processus en jeu ne sont pas linéaires. La déstabilisation des glaciers peut être déclenchée soudainement. Une fois passé un certain seuil de réchauffement global, cela peut entraîner ce qu'on appelle un point de bascule climatique. Par exemple, lorsque la fonte fait reculer le glacier, il peut atteindre un point où la pente du socle rocheux sur lequel il repose devient défavorable. Le glacier est alors irréversiblement entraîné en arrière, même si le réchauffement était miraculeusement interrompu.
Les inconnues sous la glace
Ce mécanisme d'instabilité de la calotte marine, appelé Misi (pour Marine Ice Sheet Instability), est bien connu, mais de nombreuses incertitudes entourent le moment de son déclenchement puis sa vitesse. Comme le devenir des plateformes de glace flottante : ce terme désigne la glace qui flotte sur l'océan, au bord des glaciers du continent et y est rattachée. Elle agit un peu comme un contrefort et aide à stabiliser le glacier, mais ces plateformes sont elles-mêmes instables et leur rupture incertaine…
La température à laquelle les scientifiques estiment que ces points de bascule peuvent être franchis est elle-même entourée d'incertitude. Une étude publiée en mai 2025 dans Communications Earth & Environment estimait ainsi que la limite de 1,5 °C de réchauffement était déjà trop élevée pour éviter ces points de bascule et une élévation de plusieurs mètres du niveau des mers dans les prochains siècles.
Pour mieux anticiper ces phénomènes, les glaciologues doivent réussir à modéliser ce qu'ils ne peuvent pas voir. C'est-à-dire ce qui se trame sous cette calotte, parfois épaisse de plusieurs kilomètres, et dont seule la surface est observable par satellite.
« La glace est un matériau visqueux, un peu comme du miel. Plus elle est chaude, plus elle s'écoule facilement. Mais on n'a aucune information sur son état sous la surface lorsqu'on se rapproche du socle rocheux. À quel point elle se réchauffe en divers endroits sous l'effet de la friction, de la pression, des flux géothermiques venus de la roche ? » questionne Hélène Seroussi.
Anticiper l'évolution du glacier implique de comprendre la déformation interne de la glace, mais aussi son glissement sur la roche, donc la nature et la morphologie de cette roche, la présence éventuelle de sédiments ou d'eau liquide. Autant d'inconnues avec lesquelles doivent composer les scientifiques pour concevoir leurs modèles de glaciers.
L'hypothèse Mici : très improbable mais très grave
Et encore, à ces incertitudes dans les processus connus s'ajoute l'incertitude de processus hypothétiques. C'est le cas de l'instabilité des falaises de glace ou Mici (Marine Ice Cliff Instability). À ne pas confondre avec le Misi évoqué plus haut...
Ces deux acronymes désignent deux types d'instabilité différente de la glace. Le Misi concerne le risque d'effondrement des plateformes de glace, qui flottent devant le continent. Mais en l'absence de celles-ci, les falaises de glace qui constituent l'extrémité des glaciers, face à l'océan, seraient fragilisées et pourraient à leur tour s'effondrer. C'est ce que désigne le Mici.
Ce dernier est à la base des estimations les plus pessimistes, qui envisagent 1,6 ou 2 mètres d'élévation du niveau des mers en 2100. « C'est un processus très controversé, qui a été proposé par un groupe limité de chercheurs, tempère Violaine Coulon, glaciologue à l'Université libre de Bruxelles. Le problème est que ce phénomène n'a encore jamais été directement observé, il reste hypothétique. Et il pourrait être contrebalancé par des phénomènes contraires. »
Ce scénario d'une élévation de 2 mètres dès 2100 faisant intervenir le Mici correspond à ce que les auteurs du Giec appellent un scénario « peu probable mais à haut impact ». En d'autres termes, même très incertains, des scénarios seraient tellement catastrophiques qu'ils mériteraient d'être pris en considération dans les choix ou les évaluations des politiques climatiques.
D'autant que les conséquences du Mici n'ont été modélisées par les chercheurs que pour les scénarios d'émissions extrêmes de gaz à effet de serre. Pas pour le scénario climatique médian sur lequel nous nous trouvons actuellement. Est-il possible que ce mécanisme Mici se déclenche dans un scénario médian, et entraîne une montée des eaux qui dépasse la fourchette des projections actuelles ? « Honnêtement, je ne sais pas répondre à cette question, dit Frank Pattyn. Ce qui est sûr, c'est que la mer va continuer de monter. Une hausse de 1,6 m en 2100 me paraît très peu probable, mais en 2150 ou 2200 cela devient plus plausible. L'important pour s'adapter, ce n'est pas le niveau atteint dans l'absolu, mais la vitesse à laquelle la mer monte. »
Encore des trous dans les modèles
De fait, les scientifiques s'accordent à dire qu'une montée de la mer de 2 mètres est dorénavant presque inéluctable après 2100. Le seuil pourrait être dépassé dès 2120 dans un scénario d'émissions extrêmes de gaz à effet de serre, et atteindre plus de 5 mètres en 2300. Les contraintes d'adaptation pour les générations — pas si lointaines — postérieures à 2100 s'annoncent abyssales.
Quant au risque de mauvaises surprises au cours de notre siècle, il est alimenté par une dernière catégorie d'incertitudes concernant l'Antarctique : celles qui concernent les processus que nous ne connaissons pas du tout, mais que les scientifiques s'attendent à voir surgir à l'avenir.
« On sait qu'au-delà de 2 °C de réchauffement, nos modèles ne sont pas complets. Au-delà de ce seuil, il y aura des processus qu'on ne connaît pas », souligne Benoit Meyssignac, chercheur au Laboratoire d'études en géophysique et océanographie spatiales (Legos) de Toulouse.
« Il y a des limitations liées à nos capacités de calcul. Et on sait qu'on a de grosses incertitudes sur les interactions avec l'océan, par exemple. Mais on paramétrise nos modèles pour essayer d'intégrer cette marge d'incertitude. On progresse et nos modèles reproduisent de mieux en mieux la fonte observée aujourd'hui », assure Violaine Coulon.
De tous ces éléments ressort tout de même une certitude : nous ne maîtrisons absolument pas les conséquences de nos actes lorsque nous déstabilisons le climat. La gravité absolue des désastres à venir, quelles que soient les incertitudes entourant leur ampleur et leur vitesse, mériterait de servir d'étalon pour jauger de toutes les décisions politiques.
« Même sans inclure les scénarios les plus extrêmes et improbables, 80 cm ou 1 m d'élévation, c'est déjà catastrophique et dramatique », dit Hélène Seroussi. « Cela pourrait être contre-productif de trop insister sur les scénarios extrêmes. Ça nourrit l'argumentaire de ceux qui prônent le recours aux projets dangereux de géoingénierie glaciaire », abonde Violaine Coulon.
Les scientifiques continuent, quoi qu'il en soit, d'améliorer leurs modèles et leurs connaissances de l'Antarctique. Notre capacité à comprendre et appréhender les catastrophes à venir dépendra des moyens alloués à la science, brutalement attaquée par Donald Trump et par un capitalisme radicalisé qui semble s'accommoder du désastre dont il continue de tirer profit.
***** Abonnez-vous à notre lettre hebdomadaire - pour recevoir tous les liens permettant d'avoir accès aux articles publiés chaque semaine.Chaque semaine, PTAG publie de nouveaux articles dans ses différentes rubriques (économie, environnement, politique, mouvements sociaux, actualités internationales ...). La lettre hebdomadaire vous fait parvenir par courriel les liens qui vous permettent d'avoir accès à ces articles.
Remplir le formulaire ci-dessous et cliquez sur ce bouton pour vous abonner à la lettre de PTAG :
Abonnez-vous à la lettre
10.02.2026 à 12:31
Erwan Manac'h
Les compagnies aériennes promettent une décarbonation grâce aux carburants dits « durables ». Mais le prix à payer pour y parvenir et la croissance du secteur rendent cette hypothèse illusoire, selon plusieurs expertises.
4 février 2026 | tiré de reporterre.net
Non, l'aviation ne pourra pas compter sur les biocarburants pour atteindre la « neutralité carbone ». Une nouvelle étudedu Shift Project et de l'association Aéro Décarbo, collectif de salariés du secteur aérien, publiée le 3 février, apporte un nouveau verdict sans appel.
Même en retenant les hypothèses les plus optimistes, il faudrait limiter les déplacements en avion à 1 000 km par an et par personne pour respecter l'Accord de Paris sur le climat. Cela constituerait une rupture radicale avec la tendance actuelle de développement du trafic aérien.
Brûler des plantes en (très) grande quantité
Les carburants d'aviation durables (CAD ou SAF, en anglais) constituent une grande famille regroupant deux principales techniques et une large déclinaison de procédés industriels. La première catégorie consiste à brûler de la biomasse, c'est-à-dire des arbres, des résidus agricoles, des huiles de friture usagées ou graisses animales, des boues d'épuration. L'Europe a exclu les biocarburants dits de première génération, fabriqués à partir de cultures dédiées comme le colza ou l'huile de palme, pour ne pas encourager la déforestation.
Ces « biokérosènes » affichent un rendement particulièrement médiocre : pour parcourir 12 000 km en avion, soit la distance entre Paris et Montréal, grâce à des bio-SAF, il faudrait cultiver une surface équivalente à quatre terrains de tennis, pour une personne, selon les calculs du Shift Project et d'Aéro Décarbo.
Lire aussi :Biokérosène, pellets : ces mégaprojets qui dévorent la forêt
Rappel utile : le raffinage de la biomasse est en tant que tel néfaste pour l'environnement et la combustion de kérosène, fusse-t-il « bio », émet bel et bien du carbone dans l'atmosphère. C'est sur le temps très long que l'opération peut être considérée comme « neutre », lorsque la végétation repousse et capte ainsi du CO2. Au final, « la plupart des biocarburants avancés ont une intensité carbone peu intéressante, sur l'ensemble de leur cycle de vie, voire parfois proche du niveau d'émission du kérosène fossile », résume à Reporterre Jérôme du Boucher, responsable aviation pour l'ONG Transport & Environment (T&E) France.
Lire aussi : Couper la forêt pour faire voler les avions : dans les Pyrénées, la résistance s'organise
Aéro Décarbo et le Shift Project ont analysé l'hypothèse la plus ambitieuse, colportée par les industriels, selon laquelle la France disposerait d'un potentiel de biomasse de 10 millions de tonnes. Pour parvenir à produire une telle quantité, il faudrait construire 30 usines comme le projet contesté d'unité E-Cho à Lacq (Pyrénées-Atlantiques), dont la zone d'approvisionnement en bois couvre tout le quart sud-ouest de la France.
Capter du CO2, moyennant une quantité d'électricité colossale
La seconde grande technique, aujourd'hui marginale mais considérée comme prometteuse, consiste à récupérer du CO2 dans l'atmosphère, en y ajoutant de l'hydrogène, pour produire un kérosène de synthèse, ou e-SAF. Cette solution épargne la biomasse et reste compatible avec les limites planétaires, mais elle nécessite énormément d'électricité. « Ces carburants de synthèse sont incontournables pour avancer sur la décarbonation, sans être pour autant la solution miracle. C'est un des principaux enseignements du rapport conjoint », résume Jérôme du Boucher.
Là aussi, il faut avoir en tête un ordre de grandeur : remplacer l'ensemble du kérosène mondial consommé aujourd'hui par du e-SAF nécessiterait la totalité de l'électricité renouvelable produite dans le monde aujourd'hui, soit un tiers de toute la production électrique planétaire (10 000 TWh), selon les deux associations. Un simple trajet Paris-Montréal nécessiterait 8 000 kWh d'électricité, pour produire le e-SAF essentiel au voyage, soit le double de la consommation électrique moyenne d'un foyer français.
Lire aussi : Stocker le CO2 dans le sous-sol, une diversion pour polluer encore
Produire du e-SAF est également bien moins rentable, énergétiquement, que les autres modes de transport électrique. 1 MWh d'électricité permet de parcourir 5 000 km en voiture électrique et 1 400 km en avion alimenté en e-SAF.
Autre écueil, le procédé coûte extrêmement cher. Sur les onze projets industriels comptabilisés par T&E, aucun ne sera opérationnel avant 2030, faute de rentabilité — et donc d'investissement — pour les majors pétrolières.
Deux tours du monde au cours d'une vie
Le développement à grande échelle des carburants « durables » — qui représentent en 2024 seulement 0,53 % de la consommation mondiale de carburant pour l'aviation — est donc plus qu'improbable, comprend-on entre les lignes de cette expertise qui fait écho à de nombreux travaux similaires avant elle. Sans compter que le secteur aérien n'est pas le seul à lorgner sur la biomasse pour s'imaginer un avenir sans pétrole. Les transports maritimes et routiers, ainsi que l'agriculture, comptent également sur cette ressource limitée.
Les deux associations ont néanmoins joué le jeu jusqu'au bout, retenant des « hypothèses volontairement optimistes » [1] pour évaluer la crédibilité d'une décarbonation du transport aérien grâce aux SAF. Dans ce scénario, les émissions de l'aviation commenceraient par augmenter fortement avant de diminuer, pour rejoindre, en 2050, leur niveau d'aujourd'hui grâce à un remplacement massif du kérosène par des SAF.
Même en imaginant que l'aérien dispose d'une électricité renouvelable en quantité illimitée — ce qui est impossible —, cette projection nous ramène à une idée qui fait largement consensus : le trafic aérien doit baisser, fortement, le plus rapidement possible. Au moins 15 % de baisse d'ici cinq ans pour limiter leréchauffement climatique à +1,7 °C, selon Aéro Décarbo et le Shift Project. « Le choix devient explicite : maintenir les perspectives de croissance annoncées par le secteur ou respecter les objectifs climatiques », écrivent les experts.
La limitation du trafic est le « seul levier qui n'apparaît pas dans leur feuille de route »
En refaisant leurs calculs avec des hypothèses plus crédibles de développement des SAF [2], les deux associations estiment que le trafic aérien devrait diminuer de moitié pour atteindre la neutralité carbone en 2050. C'est loin des estimations du secteur (1,1 % de croissance par an) et de la tendance constatée (+3 % par an).
« La limitation du trafic reste un gros tabou pour le secteur aérien. C'est le seul levier qui n'apparaît pas dans leur feuille de route, alors que toutes les études indépendantes montrent qu'elle est nécessaire », dit à Reporterre Alexis Chailloux, responsable aérien au Réseau Action Climat. « Ils ne peuvent pas se permettre d'anticiper une baisse, car leur modèle économique est fondé sur la croissance. Leurs actionnaires ne permettraient pas un autre scénario », dit Jérôme du Boucher.
Un voyage en Australie tous les 30 ans
Diviser le trafic actuel par deux, « c'est rejoindre le niveau de trafic de l'an 2000, qui était tout de même une période où nous voyagions en avion », souligne Timon Vicat-Blanc, d'Aéro Décarbo. En imaginant que chaque personne, dans le monde, puisse avoir un accès équitable à l'aviation en 2040, chaque individu pourra parcourir 1 000 km par an, contre 3 000 en moyenne aujourd'hui pour un Français. Cela représente un aller-retour Paris-Montréal tous les douze ans, un voyage en Australie tous les trente ans, ou deux tours du monde au cours d'une vie, écrivent le Shift Project et Aéro Décarbo.
Un lobby très puissant
Un tel tableau n'empêche pas les acteurs du secteur aérien de nourrir le mirage d'une aviation décarbonée, sans stagnation du trafic. Avec succès : alors que l'aérien est l'un des rares secteurs dont la contribution au réchauffement climatique continue d'augmenter année après année, la Stratégie nationale bas carbone, feuille de route de la France pour atteindre la neutralité carbone en 2050, prévoit une augmentation des émissions de gaz à effet de serre entre 2023 et 2030 de l'aérien international (17 contre 18 MtCO2e), « à rebours de tous les autres secteurs », souligne le Réseau Action Climat.
« Les lobbies du secteur sont très puissants et ont la promesse facile. En 2007, l'Association du transport aérien international (Iata) nous promettait 10 % d'incorporation de SAF en 2017. Nous sommes à peine à 1 % aujourd'hui. C'est à se demander pourquoi les gouvernements continuent de croire à ces beaux discours », dit Alexis Chailloux.
Le lobby déploie désormais des efforts pour tenter d'affaiblir les critères de durabilité des SAF, afin de faciliter leur développement quitte à les vider de toute cohérence écologique. Il a abandonné la promesse de faire voler des avions à l'hydrogène et le mirage de l'avion électrique ; promet de nombreux projets d'extension aéroportuaire [3] et milite activement contre toute augmentation de taxe.
Pour inverser cette tendance, le Shift Project et Aéro Décarbo formulent, avec leurs mots feutrés, des propositions radicales : interdire les programmes de fidélité des compagnies aériennes ; réguler la publicité pour l'avion ; augmenter les taxes sur les billets d'avion ; instaurer des quotas ou taxes sur le CO2, sur le kérosène ou sur les kilomètres parcourus à l'échelle individuelle ou/et des entreprises ; limiter la taille des aéroports ; supprimer les liaisons disposant d'alternatives efficaces…
Un an et demi avant l'élection présidentielle, les deux associations soulignent que des « arbitrages sociétaux forts » sont nécessaires.
***** Abonnez-vous à notre lettre hebdomadaire - pour recevoir tous les liens permettant d'avoir accès aux articles publiés chaque semaine.Chaque semaine, PTAG publie de nouveaux articles dans ses différentes rubriques (économie, environnement, politique, mouvements sociaux, actualités internationales ...). La lettre hebdomadaire vous fait parvenir par courriel les liens qui vous permettent d'avoir accès à ces articles.
Remplir le formulaire ci-dessous et cliquez sur ce bouton pour vous abonner à la lettre de PTAG :
Abonnez-vous à la lettre