LePartisan.info À propos Podcasts Fil web Écologie Blogs REVUES Médias
Souscrire à ce flux
L’expertise universitaire, l’exigence journalistique

▸ Les 25 dernières parutions

21.01.2026 à 11:36

Des éclairs détectés sur Mars pour la toute première fois

Baptiste Chide, Chargé de Recherche CNRS à l'IRAP (Université de Toulouse, CNES), Observatoire Midi-Pyrénées

Franck Montmessin, Directeur de recherche CNRS au Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay

Pour la première fois, un microphone placé sur le rover Perseverance a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière.
Texte intégral (1725 mots)

Pour la première fois, un microphone placé sur le rover Perseverance de la Nasa a permis de découvrir l’existence de petites décharges électriques dans les tourbillons et les tempêtes martiennes de poussière. Longtemps théorisés, ces petits éclairs sur Mars deviennent une réalité grâce à des enregistrements acoustiques et électromagnétiques inédits que nous venons de publier dans la revue Nature. Cette découverte, aux conséquences multiples sur nos connaissances de la chimie et de la physique ainsi que sur le climat de la planète rouge, révèle de nouveaux défis pour les futures missions robotiques et habitées.


Un souffle de vent martien, et soudain, un claquement sec : les dust devils, ces tourbillons de poussière qui parcourent la planète rouge, viennent de nous livrer un secret bien gardé : ils sont traversés de petits arcs électriques ! Ils ont été vus, ou plutôt entendus, de manière totalement fortuite, grâce au microphone de l’instrument SuperCam sur le rover Perseverance qui sillonne Mars depuis 2020.

Ce microphone est notre oreille à la surface de Mars. Il alimente depuis 2021 une « playlist » de plus de trente heures composée de brefs extraits quotidiens du paysage sonore martien : le microphone est allumé environ trois minutes tous les deux jours, pour des raisons de partage du temps du rover avec les autres instruments.

Un jackpot scientifique

Parmi ses morceaux les plus écoutés ? Le ronflement basse fréquence du souffle du vent, le crépitement aigu des grains de sable et les grincements mécaniques des articulations du robot. Mais le dernier titre de cette compilation d’un autre monde est une pépite : un dust devil capté en direct alors qu’il passait au-dessus de notre microphone. Qu’un dust devil passe au-dessus de Perseverance, ce n’est pas forcément exceptionnel – ils sont très actifs dans le cratère de Jezero où est posé Perseverance. Mais, qu’il survole le rover à l’instant même où le microphone est allumé, cela relève du jackpot scientifique.

Le son du tout premier éclair enregistré sur Mars. NASA/JPL-Caltech/LANL/CNES/CNRS/IRAP, Fourni par l'auteur214 ko (download)

Au cœur de cet enregistrement se cachait un signal fort que nous avons peiné à interpréter. Notre première hypothèse fut celle d’un gros grain de sable ayant impacté la zone proche de la membrane du microphone. Quelques années plus tard, alors que nous assistions à une conférence sur l’électricité atmosphérique, nous avons eu une illumination : s’il y avait des décharges sur Mars, la façon la plus directe de les détecter serait de les écouter parce qu’aucun autre instrument à bord de Perseverance ne permet d’étudier les champs électriques.

Évidemment, l’enregistrement le plus favorable pour vérifier cette hypothèse était précisément celui-ci. Réexaminé à la lumière de cette interprétation, il correspondait bien au signal acoustique d’une décharge électrique. Ce n’était pas tout !

Cette onde de choc était précédée d’un signal étrange qui ne ressemblait pas à quelque chose de naturel mais qui provenait en réalité de l’interférence électromagnétique de la décharge avec l’électronique du microphone. Nous savions que celle-ci était sensible aux ondes parasites, mais nous avons tourné ce petit défaut à notre avantage. Grâce à la combinaison de ces deux signaux, tout était devenu clair : nous avions détecté pour la première fois des arcs électriques sur Mars. Pour en être absolument convaincus, nous avons reproduit ce phénomène en laboratoire à l’aide de la réplique de l’instrument SuperCam et d’une machine de Wimshurst, une expérience historiquement utilisée pour générer des arcs électriques. Les deux signaux – acoustique et électromagnétique – obtenus étaient rigoureusement identiques à ceux enregistrés sur Mars.

En soi, l’existence de ces décharges martiennes n’est pas si surprenante que cela : sur Terre, l’électrification des particules de poussière est bien connue, notamment dans les régions désertiques, mais elle aboutit rarement à des décharges électriques. Sur Mars, en revanche, l’atmosphère ténue de CO₂ rend ce phénomène beaucoup plus probable, la quantité de charges nécessaire à la formation d’étincelles étant beaucoup plus faible que sur Terre. Cela s’explique par le frottement de minuscules grains de poussière entre eux, qui se chargent en électrons puis libèrent leurs charges sous forme d’arcs électriques longs de quelques centimètres, accompagnés d’ondes de choc audibles. Le vrai changement de paradigme de cette découverte, c’est la fréquence et l’énergie de ces décharges : à peine perceptibles, comparables à une décharge d’électricité lorsqu’on touche une raquette à moustiques, ces étincelles martiennes sont fréquentes, en raison de l’omniprésence de la poussière sur Mars.

Des implications au niveau du climat martien

Ce qui est fascinant, c’est que cette découverte intervient après des décennies de spéculations sur l’activité électrique martienne, touchant une arborescence de phénomènes encore peu ou mal expliqués. Par exemple, l’activité électrique de la poussière a longtemps été suspectée de fournir un moyen très efficace pour soulever la poussière du sol martien. Les champs électriques derrière les arcs électriques entendus sur Mars sont a priori suffisamment forts pour faire léviter la poussière.

En absorbant et en réfléchissant la lumière solaire, la poussière martienne contrôle la température de l’air et intensifie la circulation atmosphérique (les vents). Et parce que les vents contrôlent en retour le soulèvement de la poussière, la boucle de rétroactions poussière-vent-poussière est à l’origine des tempêtes globales qui recouvrent intégralement la planète de poussière tous les 5 ou 6 ans. Vu l’importance de la poussière dans le climat martien, et alors que les meilleurs modèles ne savent pas encore prédire correctement son soulèvement, les forces électrostatiques ne pourront plus être ignorées dans le cycle global de la poussière sur Mars.

Expliquer la disparition du méthane

L’autre sujet qui attire les regards des scientifiques concerne le très controversé méthane martien. La communauté débat depuis plus de vingt ans à son sujet en raison de ses implications potentielles, à savoir une activité géophysique ou biologique éventuelle sur Mars, deux hypothèses fascinantes.

Au-delà du caractère énigmatique de ses détections sporadiques, sa disparition – des centaines de fois plus rapide que ce que prédisent les modèles de chimie atmosphérique les plus sophistiqués – a longtemps laissé les experts circonspects. L’un des mécanismes de destruction du méthane les plus prometteurs, proposé il y a une vingtaine d’années, fait précisément intervenir l’action de champs électriques intenses sur la chimie atmosphérique. En accélérant ions et électrons, ces champs permettent de casser les molécules de méthane, mais surtout celles de la vapeur d’eau, produisant ainsi de puissantes espèces réactives capables de détruire le méthane bien plus efficacement encore.

Qui plus est, la présence d’arcs électriques à l’échelle planétaire pourrait s’avérer déterminante dans la préservation de la matière organique. Des expériences de laboratoire ont montré la destruction brutale de biomarqueurs causée par le recyclage d’espèces chlorées induite par l’activité électrostatique de la poussière.

On le voit, la portée de ces nouveaux sons martiens dépasse largement le seul cadre de la communication grand public. Ils redessinent plusieurs pans de notre compréhension de Mars et ouvrent un nouveau champ d’investigations, qui nécessitera un nombre accru d’observations.

Peut-être lors de futures missions ? L’Agence spatiale européenne (ESA) avait déjà tenté l’expérience – sans succès – avec l’atterrisseur Schiaparelli, qui devait réaliser les premières mesures des champs électriques martiens avant de s’écraser à la surface de la planète. L’exploration future, humaine ou non, se devra de mieux caractériser ces champs pour mieux cerner leurs implications. D’ici là, Perseverance restera l’unique témoin in situ de ce phénomène qui est sans doute loin de nous avoir tout révélé.

The Conversation

Franck Montmessin a reçu des financements de l'ANR et du CNES.

Baptiste Chide ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 11:36

Les crocodiles, des reptiles loquaces et à l’écoute du monde

Nicolas Mathevon, Professeur (Neurosciences & bioacoustique - Université de Saint-Etienne, Ecole Pratique des Hautes Etudes - PSL & Institut universitaire de France), Université Jean Monnet, Saint-Étienne

On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe.
Texte intégral (3253 mots)
S’ils sont discrets, les crocodiles sont aussi bavards entre eux, et ce, avant même l’éclosion de l’œuf. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur

On l’imagine chasseur solitaire et discret, constamment à l’affût d’une proie. Pourtant, l’armure d’écailles du crocodile dissimule une vie sociale complexe. Tendez l’oreille : le seigneur des fleuves a beaucoup à dire.


Lorsque l’on se représente un crocodile, on pense à un prédateur silencieux, un tronc d’arbre flottant au milieu du fleuve, attendant patiemment qu’une proie s’approche pour faire brusquement claquer ses mâchoires. Cette image, bien que partiellement vraie – il est sagement déconseillé de nager au milieu de crocodiles –, occulte une réalité biologique fascinante : les crocodiliens (crocodiles, alligators, caïmans et gavials) sont les reptiles les plus vocaux et les plus sociaux de la planète.

Ces animaux possèdent un système de communication acoustique sophistiqué et une ouïe d’une finesse redoutable, peut-être hérités de leurs ancêtres communs avec les oiseaux et les dinosaures. Depuis près de trois décennies, notre équipe de recherche en bioacoustique s’attelle à décoder ce qu’ils disent et à comprendre comment ils perçoivent leur environnement sonore. Voici ce que nos études révèlent du monde sonore des crocodiliens.

La première conversation : parler depuis l’œuf

L’histoire acoustique d’un crocodile commence avant sa naissance. Contrairement à la majorité des reptiles qui pondent leurs œufs et les abandonnent, les mères ou les pères crocodiliens montent la garde près du nid. Mais comment savoir quand les petits sont prêts à sortir, enfouis sous des dizaines de centimètres de sable ou de végétation ? Nos recherches ont démontré que les embryons de crocodiles ne sont pas passifs. Lorsqu’ils sont prêts à sortir de l’œuf, après trois mois d’incubation, ils commencent à émettre des vocalisations particulières, appelées cris d’éclosion.

Les cris d’éclosion des petits crocodiles encore dans l’œuf. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur91,5 ko (download)

Ces sons, audibles à travers la coquille et à l’extérieur du nid, remplissent une double fonction. D’une part, ils s’adressent à la fratrie. Lors d’expériences consistant à émettre des sons depuis un haut-parleur près d’œufs de crocodiles du Nil prêts à éclore, nous avons observé que l’audition de ces cris incite les autres embryons à vocaliser à leur tour et à briser leur coquille. Ce mécanisme permet de synchroniser l’éclosion : toute la nichée va sortir ensemble. Pour des proies aussi vulnérables que des nouveau-nés de quelques dizaines de grammes, c’est une belle stratégie de survie face aux prédateurs.

D’autre part, ces cris sont un signal impérieux pour la mère ou le père. Une femelle crocodile qui monte la garde depuis trois mois réagit immédiatement à l’audition de ces cris d’éclosion : elle se met à creuser le nid avec ses pattes. Sans ce comportement parental en réponse à leur signal sonore, les petits resteraient prisonniers sous terre.

Cependant, la mère ne réagit pas au premier petit bruit venu. Nos expériences sur le crocodile du Nil ont montré que la femelle réagit à des cris isolés par des mouvements de tête, enfouissant son museau dans le sol comme pour en sentir les vibrations, mais elle ne commence à creuser activement que si les cris forment une séquence continue et rythmée. Ceci évite à la femelle d’ouvrir le nid trop tôt pour un seul petit précocement bavard, ce qui mettrait en danger le reste de la couvée.

Le langage des jeunes crocos

Une fois sortis de l’œuf et délicatement transportés à l’eau dans la gueule de leurs parents, les jeunes crocodiliens restent groupés en crèches sous la protection de l’adulte pendant des semaines, voire des mois. Durant cette période, la communication acoustique entre parent et jeunes est vitale.

Le répertoire vocal des juvéniles est structuré autour de deux types de signaux principaux : les cris de contact et les cris de détresse. Le cri de contact est utilisé pour maintenir la cohésion du groupe de jeunes. C’est un son d’intensité assez faible et dont la fréquence varie peu. Le cri de détresse, lui, est émis lorsqu’un jeune est saisi par un prédateur. Il est plus fort et sa fréquence est plus modulée. Il présente souvent une structure acoustique plus chaotique, ce qui le rend un peu rugueux à l’oreille.

La tête d’un jeune crocodile qui dépasse de l’eau
Les jeunes crocodiles s’expriment, soit pour signaler un danger, soit pour maintenir la cohésion du groupe. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur

La mère sait faire la différence : un cri de contact suscite une simple attention, tandis qu’un cri de détresse déclenche une réaction agressive de défense immédiate. Mais un parent reconnaît-il la voix de ses petits ? Visiblement pas : nos analyses acoustiques des crocodiles du Nil indiquent qu’il n’y a pas de signature vocale chez les nouveau-nés qui permettrait aux parents de les identifier individuellement. En revanche, nous avons découvert que plus le crocodile est petit, plus le cri est aigu. Lors d’expériences réalisées dans la nature, les mères crocodiles du Nil ont réagi plus intensément aux cris les plus aigus. C’est logique : les plus petits sont les plus vulnérables aux prédateurs et nécessitent une protection accrue.

La tête d’un crocodile adulte dépasse de l’eau. Autour d’elle, de très jeunes crocodiles se confondent avec des plantes aquatiques
Les parents, ici une femelle, surveillent leurs jeunes au sein de crèches et restent attentifs à leurs vocalisations. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur

Une ouïe entre l’eau et l’air

Le crocodile est un animal amphibie, vivant à l’interface entre l’air et l’eau, mondes aux propriétés acoustiques radicalement différentes. Mais son audition est d’abord aérienne. Lorsque le crocodile flotte, immobile, ce qui est sa position favorite pour attendre une proie, ses oreilles se trouvent juste au-dessus de la ligne de flottaison. Si l’animal plonge, une paupière vient protéger l’oreille, et l’on ne sait pas encore si les crocodiles entendent bien sous l’eau.

La tête d’un caïman yacare qui sort de l’eau
Un yacare à l’affut. Ce caïman, comme les autres crocodiliens, garde ses oreilles juste au-dessus de l’eau lorsqu’il s’immerge. Nicolas Mathevon/Université Jean-Monnet, Fourni par l'auteur

Comment un animal dont la tête est à moitié immergée fait-il pour localiser une proie, un petit ou un rival ? Chez l’humain ou d’autres mammifères et oiseaux, la localisation repose sur deux indices principaux : le son arrive plus vite à l’oreille tournée vers la source et est également plus fort, puisque la tête fait écran. Dans des expériences, nous avons entraîné des crocodiles à se diriger vers des haut-parleurs pour obtenir une récompense, et les résultats montrent qu’ils utilisent également ces deux sources d’information. Pour les sons graves, ils se fient surtout au temps ; pour les aigus, ils utilisent plutôt la différence d’intensité.

Distinguer dans le bruit

Les crocodiliens vivent souvent dans des environnements bruyants. Pour survivre, ils doivent être capables d’isoler un signal pertinent du bruit de fond, mais aussi d’identifier ce qu’ils entendent. Un bruit dans les roseaux est-il une proie ou un congénère ? Au laboratoire, nous avons découvert quel paramètre acoustique ils utilisent pour faire cette distinction. Ce n’est pas la hauteur du son ni son rythme mais l’enveloppe spectrale, c’est-à-dire le timbre du son. C’est exactement le même paramètre que nous, humains, utilisons pour distinguer les voyelles (« a » ou « o ») ou pour reconnaître la voix de quelqu’un au téléphone. Et la catégorisation des sons opérée par les crocodiles n’est pas totalement figée, elle peut être affinée par l’apprentissage, preuve d’une vraie plasticité cognitive.

En particulier, les crocodiles savent reconnaître et sont particulièrement appâtés par les signaux de détresse d’autres animaux. Quand on diffuse des enregistrements de pleurs de bébés humains, bonobos ou chimpanzés à des crocodiles du Nil, les résultats sont frappants : les crocodiles sont très fortement attirés par ces pleurs. Mais pas n’importe comment.

Les humains jugent la détresse d’un bébé principalement à la hauteur de son cri (plus c’est aigu, plus on pense que le bébé exprime de la douleur). Les crocodiles, eux, se basent sur un critère acoustique plus fiable : le chaos, qui se traduit par la rugosité de la voix qui survient lorsque les cordes vocales sont poussées à leurs limites physiques sous l’effet du stress ou de la douleur.

Les crocodiles se sont donc révélés meilleurs que les humains pour évaluer le niveau de détresse des bébés, en particulier des bonobos. Là où nous surestimons la détresse des bonobos à cause de leurs cris suraigus, les crocodiles ne réagissent intensément qu’aux pleurs contenant beaucoup de chaos acoustique, signe d’une véritable urgence, et donc d’une proie vulnérable.

Entre congénère et proie, que privilégier ?

Si les jeunes crocodiliens sont particulièrement bavards, les adultes ne sont pas en reste. Les mères, et les pères pour les espèces où ils s’occupent de leur progéniture, émettent des grognements qui attirent les jeunes. Femelles et mâles adultes rugissent lors des parades nuptiales et pour défendre leur territoire. Lorsqu’ils se sentent menacés, les adultes peuvent souffler de manière bruyante, ce qui passe l’envie de les approcher. On observe cependant de grandes différences dans l’usage des signaux sonores entre les groupes de crocodiliens : si les alligators et les caïmans sont particulièrement vocaux, les autres crocodiles deviennent plus silencieux à l’âge adulte.

Le rugissement d’un caïman noir adulte. Nicolas Mathevon/Université Jean Monnet, Fourni par l'auteur30,2 ko (download)

Imaginez un jeune crocodile affamé qui entend un congénère l’appeler, mais qui sent en même temps une odeur de viande. Que fait-il ? Nous avons testé ce conflit sensoriel. Les résultats montrent que l’état de satiété modifie la réponse comportementale. Un crocodile rassasié est très attentif aux sons sociaux : il se dirige vers les cris de contact de ses congénères. Un crocodile affamé privilégie la recherche d’une source de nourriture. Cela suggère une modulation de l’attention : la priorité de l’animal peut basculer selon les besoins physiologiques.

Loin de l’image du monstre primitif, le crocodile est un animal doté d’une vie sensorielle et cognitive riche. Il naît dans un monde sonore, synchronisant son éclosion avec ses frères et sœurs. Il communique avec l’adulte qui s’occupe de lui pour obtenir protection. Il analyse son environnement sonore avec des outils sophistiqués (localisation binaurale, démasquage spatial) dignes des oiseaux ou des mammifères. Il catégorise les sons sur la base de leur timbre pour distinguer les congénères des en-cas. Et il est même capable d’évaluer le niveau de détresse dans la voix d’autres espèces.


Ces études sur les crocodiles ont impliqué de nombreux collaborateurs et collaboratrices, dont Thierry Aubin (CNRS), Nicolas Grimault (CNRS), Nicolas Boyer (Université de Saint-Étienne), Amélie Vergne, Léo Papet, Julie Thévenet et Naïs Caron-Delsbosc. Je remercie les parcs zoologiques La Ferme aux crocodiles (Pierrelatte, France) et Crocoparc (Agadir, Maroc) pour leur soutien.

The Conversation

Nicolas Mathevon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

21.01.2026 à 11:36

Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?

Manuel Bellanger, Chercheur en économie, Ifremer

La géo-ingénierie vise (sans preuve d’efficacité) à éviter les risques climatiques, mais c’est aussi un moyen de gagner de l’argent.
Texte intégral (2658 mots)
L’océan joue un rôle important pour absorber le carbone présent dans l’atmosphère terrestre et le stocker. Des start-ups cherchent à favoriser ce stockage dans le but de limiter les impacts du changement climatique, mais l’efficacité et les risques de ces techniques sont mal connus. ESA, CC BY-SA

Le mot « géo-ingénierie » recouvre un grand nombre de techniques, du « parasol spatial », qui limite l’arrivée de lumière du soleil dans l’atmosphère, à l’ensemencement de l’océan pour lui faire absorber encore plus de carbone qu’il ne le fait naturellement.

Manuel Bellanger étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec son regard d’économiste. Cet interview, réalisée par Elsa Couderc, cheffe de rubrique Sciences et Technologies, constitue le second volet de « regards croisés » sur la géo-ingénierie climatique. Dans le premier, nous explorons avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger.


The Conversation : La géo-ingénierie marine est mal connue en France, pourtant elle se développe à l’étranger. Qui développe ces projets ?

Manuel Bellanger : En ce qui concerne l’océan, le spectre des acteurs et des techniques de géo-ingénierie est très varié.

Les initiatives les plus prudentes sont en général pilotées par des instituts de recherche, par exemple aux États-Unis ou en Allemagne. Leur finalité est plutôt de comprendre si ces interventions sont techniquement possibles : peut-on développer des méthodes pour capturer du CO₂ atmosphérique par l’océan, mesurer la quantité de carbone stockée durablement, vérifier les affirmations des différents acteurs, étudier les impacts écologiques, tenter de définir des bonnes pratiques et des protocoles ? Ces projets de recherche sont typiquement financés par des fonds publics, souvent sans objectif de rentabilité immédiate.

Il existe aussi des collaborations entre institutions académiques et partenaires privés et, enfin, à l’autre bout du spectre, un certain nombre de start-up qui font la promotion du déploiement rapide et massif de ces techniques.

Peut-on espérer gagner de l’argent grâce à la géo-ingénierie marine ?

M. B. : Le modèle économique de ces start-up repose sur la vente de crédits carbone qu’elles espèrent pouvoir mettre sur les marchés volontaires du carbone – c’est-à-dire qu’elles cherchent à vendre des certificats à des acteurs privés qui veulent compenser leurs émissions.

Pour cela, la séquestration doit être certifiée par des standards ou des autorités. Sachant qu’il y a aussi des initiatives privées qui développent des certifications… aujourd’hui, c’est un peu la jungle, les marchés volontaires du carbone. Et l’achat de ces crédits certifiés reste sur la base du volontariat, puisqu’il n’y a généralement pas d’obligation réglementaire pour les entreprises de compenser leurs émissions.

Pouvez-vous nous donner des exemples de telles start-up et l’état de leurs travaux ?

M. B. : Running Tide, aux États-Unis, a tenté de développer des crédits carbone issus de la culture d’algues sur des bouées biodégradables qui devaient couler sous leur propre poids dans les profondeurs abyssales. Mais ils ne sont pas parvenus à produire des quantités significatives d’algues. L’entreprise a finalement eu recours au déversement de milliers de tonnes de copeaux de bois dans les eaux islandaises pour essayer d’honorer les crédits carbone qu’ils avaient vendus. Mais les experts et observateurs ont critiqué le manque de preuves scientifiques montrant que cette approche permettait réellement de séquestrer du CO₂ et l’absence d’évaluation des impacts sur les écosystèmes marins. L’entreprise finalement a cessé ses activités en 2024 pour des raisons économiques.

Une start-up canadienne, Planetary Technology, développe une approche d’augmentation de l’alcalinité océanique visant à accroître l’absorption du CO₂ atmosphérique et son stockage à long terme sous forme dissoute dans l’océan. Pour cela, ils ajoutent à l’eau de mer du minerai alcalin, de l’hydroxyde de magnésium. Ils ont annoncé avoir vendu des crédits carbone, notamment à Shopify et British Airways.

Une autre société, californienne cette fois, Ebb Carbon, cherche également à augmenter l’alcalinité océanique, mais par électrochimie : ils traitent de l’eau de mer pour la séparer en flux alcalins et acides, puis renvoient la solution alcaline dans l’océan. Cette société a annoncé avoir signé un contrat avec Microsoft pour retirer des centaines de milliers de tonnes de CO₂ sur plusieurs années.

L’écosystème commercial fleurit déjà en Amérique du Nord, même si on n’en entend pas forcément parler ici.

Il y a aussi une sorte de fonds, appelé Frontier Climate, qui engage des contrats anticipés pour des tonnes de CO₂ qui seront retirées de l’atmosphère dans le futur : ils achètent par avance des crédits carbone à des sociétés qui sont en phase de développement et qui ne sont pas encore réellement en train de capturer et de séquestrer du carbone. Derrière ce fonds-là, il y a des géants de la tech, comme Google ou Facebook, parmi les membres fondateurs. On peut supposer que c’est une manière pour ces entreprises, qui ont une consommation énergétique assez importante, de s’acheter une vertu climatique. Donc, eux, ils ont déjà annoncé avoir acheté pour 1,75 million de dollars (plus de 1,5 million d’euros) de crédits carbone à des entreprises d’alcalinisation de l’océan.

Et pourtant, vous disiez tout à l’heure qu’on n’est pas encore sûrs de savoir mesurer scientifiquement si l’océan a bien absorbé ces tonnes de carbone.

M. B. : Effectivement, les bases scientifiques de ces techniques-là ne sont vraiment pas solides aujourd’hui. On ne sait pas encore quelles quantités de CO₂ elles vont permettre de capturer et de séquestrer et on ne sait pas non plus quels vont être les impacts sur l’environnement.


À lire aussi : Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?


Et côté scientifique, il n’y a donc pour l’instant pas de consensus sur la capacité des techniques de géo-ingénierie marine à retirer suffisamment de carbone de l’atmosphère pour réellement freiner le changement climatique ?

M. B. : Il y a même pratiquement un consensus scientifique pour dire que, aujourd’hui, on ne peut pas présenter les techniques de géo-ingénierie marine comme des solutions. En fait, tant qu’on n’a pas drastiquement réduit les émissions de gaz à effet de serre, beaucoup considèrent qu’il est complètement futile de vouloir commencer à déployer ces techniques-là.

En effet, aujourd’hui, les ordres de grandeur évoqués (le nombre de tonnes que les entreprises annoncent séquestrer) n’ont rien à voir avec les ordres de grandeur qui permettraient de changer quoi que ce soit au climat. Par exemple, pour la culture de macroalgues, certaines modélisations estiment qu’il faudrait recouvrir 20 % de la surface totale des océans avec des fermes de macroalgues – ce qui est déjà presque absurde en soi – pour capturer (si ça marche) 0,6 gigatonne de CO₂ par an… à comparer aux 40 gigatonnes que l’humanité émet aujourd’hui chaque année. Si ces techniques pouvaient jouer un rôle dans le futur pour compenser les émissions que le Giec désigne comme « résiduelles » et « difficiles à éviter » (de l’ordre de 7 à 9 gigatonnes de CO₂ par an à l’horizon 2050) et atteindre des objectifs de neutralité carbone, les déployer aujourd’hui ne pourrait en aucun cas remplacer des réductions d’émissions rapides et massives.

Alors, qui pousse ces développements technologiques ?

M. B. : Un certain nombre d’initiatives semblent être poussées par ceux qui ont un intérêt au statu quo, peut-être même par certains qui n’auraient pas de réelle volonté de déployer la géo-ingénierie, mais qui ont un intérêt à faire diversion pour retarder l’action qui viserait à diminuer les émissions aujourd’hui.

On pense plutôt aux acteurs des énergies fossiles qu’aux géants de la tech, dans ce cas ?

M. B. : Les acteurs des énergies fossiles ont effectivement cet intérêt à retarder l’action climatique, mais ils sont de fait moins visibles aujourd’hui dans le financement direct des techniques de géo-ingénierie – il semble qu’ils soient plus dans le lobbying et dans les discours qui vont légitimer ce genre de techniques.

De fait, investir dans la géo-ingénierie ne fait-il pas courir le risque de détourner l’attention des citoyens et des gouvernements de l’urgence de réduire nos émissions de gaz à effet de serre ?

M. B. : C’est un risque clairement identifié dans la littérature scientifique, parfois sous le nom d’« aléa moral climatique », parfois d’« effet de dissuasion ». Derrière, il y a l’idée que la promesse de solutions technologiques futures, comme la géo-ingénierie marine, pourrait affaiblir la volonté politique ou sociétale de réduire les émissions dès maintenant. Donc le risque d’être moins exigeants envers nos décideurs politiques pour qu’ils tiennent les engagements climatiques et, in fine, que le décalage entre les objectifs et l’action climatique réelle soit toujours plus grand.

Par ailleurs, on a des ressources financières, ressources en main-d’œuvre, en expertise, qui sont somme toute limitées. Tout ce qui est investi dans la recherche et le développement ou pour l’expérimentation de ces technologies de géo-ingénierie peut se faire au détriment des ressources allouées pour les mesures d’atténuation connues et démontrées : l’efficacité énergétique, les énergies renouvelables, la sobriété. On sait que ces solutions fonctionnent : ce sont elles qu’il faudrait mettre en œuvre le plus rapidement.

La priorité absolue – on n’arrête pas de le répéter –, c’est la diminution rapide des émissions de gaz à effet de serre. Donc la position de la plupart des scientifiques, c’est que ces techniques de géo-ingénierie marine devraient être explorées d’un point de vue de la recherche, par exemple pour évaluer leur efficacité et leurs effets environnementaux, économiques et sociaux, de manière à éclairer les choix politiques et sociétaux à venir. Mais, encore une fois, aujourd’hui la géo-ingénierie marine ne peut pas être présentée comme une solution à court terme.

C’est pour cela que la communauté scientifique appelle à une gouvernance internationale de la géo-ingénierie, avant un déploiement massif de ces techniques. Quelles instances internationales seraient à même de mener une gouvernance sur le sujet ?

M. B. : Il faut en effet que les États s’impliquent fortement dans la gouvernance de la géo-ingénierie, et il faut des traités internationaux. Pour l’instant, c’est assez fragmenté entre différents instruments juridiques, mais il y a ce qu’on appelle le protocole de Londres, adopté en 1996, pour éviter la pollution en mer par dumping (le fait de pouvoir décharger des choses en mer). Ce protocole permet déjà en partie de réguler les usages de géo-ingénierie marine.

Par exemple, la fertilisation des océans par ajout de fer visant à stimuler le phytoplancton qui capture le CO₂ par photosynthèse. Cette technique rentre dans le cadre existant du protocole de Londres, qui interdit la fertilisation de l’océan à des fins commerciales et impose un cadre strict pour la recherche scientifique depuis plus d’une quinzaine d’années. Le protocole pourrait être adapté ou amendé pour réguler d’autres techniques de géo-ingénierie marine, ce qui est plus facile que de créer un nouveau traité international.

Les COP sur le climat sont aussi importantes pour deux raisons : elles rassemblent plus de nations que le protocole de Londres, et elles sont le cadre privilégié pour discuter des marchés carbone et donc pour éviter la prolifération d’initiatives commerciales non contrôlées, pour limiter les risques environnementaux et les dérives du type crédits carbone douteux.

Il y a des précédents avec ce qu’il s’est passé sur les crédits carbone forestiers : une enquête publiée par le Guardian en 2022 a montré que plus de 90 % des projets certifiés par Verra – le principal standard mondial – n’ont pas empêché la déforestation ou ont largement surévalué leurs bénéfices climatiques. Sans encadrement, la géo-ingénierie marine pourrait tout à fait suivre le même chemin.

Enfin, il y a bien sûr des enjeux d’équité, si ceux qui mettent en œuvre une action ne sont pas ceux qui risquent de subir les impacts ! Là aussi, il y a des précédents observés sur des projets forestiers certifiés pour générer des crédits carbone, où les bénéfices économiques sont captés par les investisseurs tandis que les communautés locales subissent des restrictions d’accès aux ressources forestières ou sont exposées à des changements dans leur mode de vie.

Concrètement, quels sont les risques pour les populations qui vivent à proximité de l’océan ou s’en servent de ressource nourricière, par exemple ?

M. B. : Ça dépend vraiment de la technique de géo-ingénierie utilisée et de l’endroit où ça va être déployé. Par exemple, si on imagine un déploiement massif de cultures d’algues, ça pourrait modifier les écosystèmes côtiers, et par ailleurs générer une concurrence pour l’espace avec la pêche ou l’aquaculture traditionnelle.

Sur les littoraux, où les activités maritimes sont souvent très denses, il y a déjà des conflits d’usage, que l’on observe par exemple dans les tensions autour des installations de parcs éoliens en mer.


Propos recueillis par Elsa Couderc.

The Conversation

Manuel Bellanger a reçu des financements dans le cadre du programme ANR n° 21-POCE-0001 PPR Océan & Climat.

PDF

21.01.2026 à 11:36

Géo-ingénierie climatique : de quoi parle-t-on ? Pour quelle efficacité et quels nouveaux risques ?

Laurent Bopp, Directeur de recherche, Centre national de la recherche scientifique (CNRS); École normale supérieure (ENS) – PSL; Académie des sciences

Loin d’être la solution magique, manipuler artificiellement le climat pourrait générer de nouveaux risques – certains sont déjà bien documentés, d’autres plus incertains à ce stade.
Texte intégral (3489 mots)
L’idée d’injecter des aérosols dans l’atmosphère pour imiter l’effet des éruptions volcaniques et masquer les rayons du Soleil n’est pas nouvelle, mais elle nous expose au risque de « choc terminal » : un réchauffement brutal si l’injection venait à s’arrêter. Ici, une éruption du volcan Tonga, dans le Pacifique. Goes-West Satellite/NOAA/RAMMB/CIRA, CC BY

La « géo-ingénierie climatique » recouvre un ensemble de techniques qui visent à manipuler le climat à grande échelle afin d’éviter les risques du changement climatique. Ces techniques sont très variées, depuis les parasols spatiaux pour limiter l’arrivée des rayons du soleil dans l’atmosphère jusqu’à la fertilisation des océans pour que le phytoplancton consomme davantage de CO₂, en passant par la restauration et la conservation de zones humides où le carbone est stocké de façon préférentielle.

En octobre 2025, l’Académie des sciences a publié un rapport qui détaille ce que l’on sait et ce que l’on ignore encore sur les éventuels bénéfices de ces techniques et sur les nouveaux risques qu’elles font surgir.

Elsa Couderc, cheffe de rubrique Sciences et Technologies, explore ici avec Laurent Bopp, climatologue et académicien, les nouveaux risques climatiques que ces techniques pourraient faire émerger. Le second volet de ces « regards croisés » est un entretien avec Manuel Bellanger, qui étudie à l’Ifremer le développement des techniques de géo-ingénierie marine avec un regard d’économiste.


The Conversation : Pourquoi l’Académie des sciences s’empare-t-elle aujourd’hui du sujet de la géo-ingénierie climatique, alors qu’on en parle relativement peu en France ?

Laurent Bopp : Le sujet est de plus en plus présent dans la littérature scientifique, dans le débat scientifique et dans le débat politique qui entoure les discussions sur le changement climatique. On ne s’en rend pas bien compte en France, mais aux États-Unis, en Angleterre, en Allemagne, au Canada, le débat est beaucoup plus présent.

Certains climatologues, y compris de renom, se prononcent pour faire beaucoup plus de recherches sur ces technologies, mais aussi parfois pour envisager leur déploiement à grande échelle afin d’éviter un réchauffement trop important. L’argument est simple : un niveau de réchauffement trop élevé génère des risques importants et pourrait conduire au dépassement de certains points de bascule potentiels dans le système climatique, par exemple une fonte irréversible des calottes glaciaires du Groenland et de l’Antarctique, ce qui pourrait entraîner une élévation du niveau de la mer de plusieurs mètres additionnels.

En France, nous avons besoin collectivement de plus d’informations et de plus de débats autour de ces techniques. Nous avons eu le sentiment que certains de nos représentants se sont retrouvés en partie dépourvus dans des arènes de négociations internationales, face à des représentants d’autres gouvernements qui ont un agenda très agressif sur ces technologies. C’est sans doute une des raisons pour lesquelles l’Académie des sciences s’est emparée du sujet.

L’idée des interventions de géo-ingénierie climatique, c’est de réduire les risques liés au changement climatique. Mais ces interventions pourraient-elles induire de nouveaux risques et lesquels ?

L. B. : Un des intérêts de ce rapport, c’est de mettre la lumière sur ces nouveaux risques.

Mais, avant de rentrer dans le détail, il faut, quand nous parlons de géo-ingénierie climatique, distinguer deux grandes catégories de techniques – ces deux catégories sont fondées sur des approches très différentes et présentent des risques, là aussi, très différents.

Pour la première de ces catégories, il s’agit de modifier de façon assez directe le rayonnement solaire. On parle en anglais de Solar Radiation Management ou SRM. Dans ce cas-là, l’action s’apparente plutôt à une sorte de pansement sur la plaie d’une blessure, sans s’attaquer du tout à la cause du changement climatique : l’idée est de refroidir la Terre de façon artificielle, en utilisant par exemple des particules atmosphériques ou des miroirs spatiaux qui limiteraient la pénétration du rayonnement solaire jusqu’à la surface de la Terre. Ce refroidissement pourrait compenser, en partie au moins, le réchauffement lié aux gaz à effet de serre qui continueraient à augmenter dans l’atmosphère.

L’injection d’aérosols dans la haute atmosphère vise à imiter des éruptions volcaniques de très grande taille qui, par le passé, ont pu refroidir la Terre. Une des limites premières de cette approche, c’est que cette façon de refroidir la Terre est très différente de la façon dont elle se réchauffe aujourd’hui à cause des gaz à effet de serre : les échelles de temps et les échelles spatiales associées sont très différentes, et cela engendre un certain nombre de conséquences. Les risques sont à lire en fonction de ces deux échelles.

Les aérosols que l’on pourrait injecter dans la haute atmosphère ont une durée de vie courte. Ils vont disparaître de l’atmosphère assez rapidement, tandis que les gaz à effet de serre qui réchauffent le système Terre, le CO₂ en particulier, sont dans l’atmosphère pour très longtemps.

Cette différence majeure entraîne l’un des risques les plus préoccupants : le risque de « choc terminal ». Concrètement, si l’on décidait d’arrêter brutalement l’injection d’aérosols après s’être engagé dans ce type de stratégie
– et les raisons pourraient être multiples, qu’il s’agisse de problèmes de gouvernance, de financement ou de conflits internationaux – le réchauffement climatique jusque-là partiellement masqué réapparaîtrait d’un seul coup. On subirait alors, en très peu de temps, plusieurs années de réchauffement accumulé. On aurait des taux de réchauffement temporels très très rapides, et donc des conséquences sur la biodiversité ou sur les sociétés humaines difficiles à anticiper.

En d’autres termes, si le réchauffement arrive relativement lentement, la mise en place de mesures d’adaptation est possible ; s’il est très rapide, les conséquences sont potentiellement bien plus dévastatrices.

L’autre risque majeur est lié aux échelles spatiales : refroidir avec des aérosols par exemple, ce n’est pas du tout la même chose que ne pas refroidir en émettant moins de CO₂. Les effets régionaux du refroidissement vont être très différents de ce qu’ils auraient été si on avait réchauffé un peu moins. La localisation des précipitations, l’intensité de la mousson notamment ont des conséquences sur l’agriculture, sur la santé. Sur ces effets régionaux, il y a encore beaucoup d’incertitudes aujourd’hui, c’est quelque chose que les modèles décrivent moins bien que les effets temporels dont je parlais tout à l’heure.


À lire aussi : Parasols géants et blanchiment du ciel : de fausses bonnes idées pour le climat


Face à ce risque majeur, l’Académie recommande d’arrêter le déploiement des techniques de modification du rayonnement solaire, et même les recherches sur cette technique de géo-ingénierie…

L. B. : Effectivement, notre rapport recommande de ne pas utiliser ces techniques, et nous allons même jusqu’à suggérer un traité international qui interdirait leur déploiement.

Nous pensons aussi qu’il ne faut pas financer, de façon importante, de la recherche qui soit spécifiquement fléchée sur ces techniques de modification du rayonnement solaire, pour éviter de légitimer ces approches trop dangereuses.

Bien sûr, nous avons besoin de bien plus de recherche sur le climat et sur les processus climatiques importants, donc sur les processus qui lient, par exemple, les aérosols dans la haute atmosphère avec la modification du rayonnement, mais nous pensons vraiment qu’il faut éviter les projets fondamentalement pensés pour pousser l’avènement de ces technologies. Les risques associés sont trop importants.

La géo-ingénierie climatique inclut une deuxième approche, celle qui consiste à augmenter l’efficacité des puits de carbone naturels, par exemple les forêts, les tourbières ou les océans qui absorbent naturellement du carbone. En quoi est-ce fondamentalement différent de la modification du rayonnement solaire ?

L. B. : Il ne s’agit plus de refroidir la Terre pour compenser un réchauffement qui serait lié à l’augmentation des gaz à effet de serre, mais d’éliminer du CO₂ qui est déjà présent dans l’atmosphère. Le terme consacré est celui d’« élimination du dioxyde de carbone », ou Carbon Dioxide Removal (CDR) en anglais.

D’abord, soyons clairs : la priorité des priorités reste de réduire les émissions actuelles de façon drastique. Ces « puits de carbone » additionnels ne doivent intervenir que comme un complément, après la réduction des émissions de façon massive et immédiate.

Pour stabiliser le climat et répondre aux objectifs de l’accord de Paris à 1,5 ou 2 °C de réchauffement par rapport à l’époque préindustrielle, nous avons besoin d’aller collectivement vers des émissions nettes nulles !

Comme il y aura sans doute des secteurs difficiles à décarboner, comme la sidérurgie ou le transport aérien, nous savons qu’il y aura sans doute besoin d’un peu de ces puits de carbone pour compenser ces émissions résiduelles.

On est donc sur une ligne de crête compliquée à tenir : ne pas mettre ces techniques d’élimination du CO₂ en avant, pour ne pas décourager la réduction des émissions – en raison du potentiel de décarbonation limité de ces techniques, nous allons y revenir – et en même temps continuer à soutenir la recherche sur ces technologies parce qu’elles pourraient se révéler utiles, au moins dans une certaine mesure.

En augmentant l’efficacité des puits de carbone naturels, si on reprend l’analogie avec le pansement et la blessure, on ne s’attaque toujours pas à la cause (l’émission de gaz à effet de serre), mais on remonte dans la chaîne de causalité en s’attaquant à quelque chose de plus amont que dans le cas de la modification du rayonnement solaire.

Il existe de nombreux types de méthodes d’élimination du CO₂, à la fois naturelles et technologiques. Présentent-elles toutes le même potentiel et les mêmes risques ?

L. B. : Pour éliminer du CO₂ déjà dans l’atmosphère, il y a une très grande diversité de techniques, en partie parce qu’il existe plusieurs « réservoirs » dans lesquels il serait possible de stocker le CO₂ retiré de l’atmosphère : dans le sous-sol, dans l’océan, dans la biomasse continentale.

Pour simplifier, je dirais qu’il y a une série de techniques qui sont aujourd’hui considérées comme « gagnant-gagnant » : elles permettent de retirer du CO₂ de l’atmosphère et elles ont d’autres bénéfices.

Prenons par exemple la restauration et la conservation des écosystèmes côtiers, comme les mangroves ou les herbiers marins : ces actions permettent un stockage de carbone et, par exemple, de mieux protéger les côtes contre la montée du niveau marin et les épisodes de submersion côtière. D’autres techniques, en foresterie, en agroforesterie ou en stockant le carbone dans les sols, permettent aussi de développer des pratiques agricoles qui sont plus vertueuses.

Malheureusement, comme évoqué dans le rapport, ces approches sont difficiles à mettre à l’échelle, en raison des surfaces souvent limitées et des quantités phénoménales de carbone qu’il faudrait pouvoir stocker dans ces réservoirs naturels pour avoir un effet significatif.

Et puis il y a, à l’autre bout du spectre, des techniques qui sont jugées peu efficaces et dont on sait qu’elles ont sans doute des effets dommageables sur les écosystèmes. Compte tenu des connaissances actuelles, l’Académie des sciences recommande de ne pas poursuivre dans ces directions-là.

L’exemple le mieux documenté est celui de la fertilisation par le fer du plancton marin, car elle a été envisagée il y a déjà longtemps, à la fin des années 1980. L’idée est d’aller en pleine mer, dans des régions où le développement du phytoplancton est limité par la faible abondance d’un nutriment bien particulier : le fer. Dans ces régions, il n’y a pas besoin d’ajouter beaucoup de fer pour fertiliser le plancton, qui va se développer davantage, et pour cela absorber plus de CO₂. Une partie de la matière organique produite coule ensuite vers les profondeurs de l’océan, emportant avec elle le carbone qu’elle contient. Ce carbone est ainsi isolé de l’atmosphère dans l’océan profond, potentiellement pour des centaines d’années.

Plusieurs expériences scientifiques ont été menées en pleine mer dans les années 1990 et 2000. À court terme, elles ont effectivement mis en évidence une augmentation du flux de carbone de l’atmosphère vers l’océan.

Toutefois, des travaux plus récents, notamment fondés sur la modélisation, montrent que cette technique est probablement beaucoup moins efficace qu’on ne l’imaginait initialement. Surtout, en modifiant fortement les écosystèmes marins pour capter du carbone, elle entraîne toute une série d’effets indésirables : l’émission d’autres gaz à effet de serre, une diminution de l’oxygène dans les eaux profondes, ou encore l’épuisement de certains nutriments essentiels, qui ne sont alors plus disponibles pour d’autres écosystèmes.

Ces constats ont conduit la communauté internationale à réagir. En 2008, les États ont amendé le protocole de Londres afin d’y introduire une interdiction de ce type de pratiques en haute mer.

Dans le cas de la fertilisation des océans, les risques sont donc bien documentés – ils ne concernent pas directement le climat mais des dommages collatéraux ?

L. B. : Oui. Malheureusement, on voit en ce moment une résurgence de certains projets poussés par certains chercheurs qui continuent à défendre ce type de techniques, par exemple aux États-Unis. Mais pour nous, il semble clair qu’il ne faut pas recommander ces techniques aux effets collatéraux bien documentés.


À lire aussi : Géo-ingénierie marine : qui développe ces grands projets, et qu’y a-t-il à y gagner ?


Entre les techniques trop risquées, comme la fertilisation des océans, et les techniques de conservation et de restauration, que j’appelais « gagnant-gagnant » tout à l’heure, il y a d’autres techniques, pour lesquelles on a besoin de davantage de recherche – c’est le cas, par exemple, des techniques d’alcalinisation de l’océan.

Il s’agit d’une technique chimique cette fois : on augmente le pouvoir tampon de l’océan en ajoutant du matériel alcalin. Un des points positifs, c’est que cette technique consiste en l’accélération d’un phénomène naturel qui est l’altération des roches sur les continents. Quand les roches s’altèrent, elles apportent de l’alcalinité à l’océan, donc elles augmentent le pouvoir tampon de l’océan qui absorbe plus de CO₂ – c’est un processus très lent, qui a un rôle très important sur les échelles de temps très, très longues et qui régule en partie le cycle du carbone sur les échelles de temps géologiques.

Deuxième avantage : le CO2 ainsi stocké dans l’océan l’est de manière très durable, bien plus que dans des approches reposant sur du carbone organique (comme la fertilisation des océans) où le stockage est beaucoup plus incertain. Troisième point positif, cette augmentation de l’alcalinité permet aussi de réduire partiellement l’acidification des océans.

Mais ces bénéfices s’accompagnent de nombreuses incertitudes et de risques. Ajouter des matériaux alcalins modifie parfois fortement la chimie de l’eau de mer. Quels effets cela pourrait-il avoir sur les écosystèmes marins, le plancton ou les espèces côtières dont dépendent de nombreuses populations humaines ? À ce stade, nous manquons encore de données pour répondre clairement à ces questions.

L’efficacité même de la technique reste également incertaine. Pour qu’elle fonctionne, l’alcalinité ajoutée doit rester dans les couches de surface de l’océan, là où les échanges avec l’atmosphère ont lieu. Si elle est rapidement entraînée vers les profondeurs, son impact sur l’absorption du CO₂ devient très limité.

Enfin, il y a beaucoup de questions sur le coût de ces techniques. En particulier, un certain nombre de start-up et d’entreprises s’orientent vers des méthodes électrochimiques, mais c’est très coûteux d’un point de vue énergétique. Il faut faire le bilan sur l’ensemble du cycle de vie de ces techniques.

En somme, on a une gamme de techniques, parfois appelées abusivement « solutions » : certaines que l’on ne recommande pas aujourd’hui parce que les risques sont énormes ; d’autres qu’il faut prioriser et recommander, mais qui ont une efficacité somme toute limitée. Et puis entre les deux, des méthodes sur lesquelles il faut continuer à travailler.

À l’échelle internationale, où et quand se discutent les nouveaux risques des techniques de géo-ingénierie climatique ?

L. B. : La question des puits de carbone est déjà largement débattue dans le cadre des COP Climat, notamment parce que les gouvernements peuvent les intégrer dans leurs objectifs de réduction des émissions. C’est le cas, par exemple, des stratégies d’afforestation (boisement) et de reforestation. En revanche, il reste encore beaucoup de travail à faire sur les modalités concrètes de mise en œuvre de certaines techniques d’élimination du CO₂ que nous avons évoquées. En particulier, les questions de mesure et de vérification du CO₂ réellement retiré de l’atmosphère sont complexes et loin d’être résolues. Le Giec a d’ailleurs été mandaté par les gouvernements pour produire un rapport méthodologique spécifiquement consacré à ces enjeux.

En ce qui concerne la modification du rayonnement solaire, mon inquiétude est nettement plus forte. Certains pays affichent désormais ouvertement leur intérêt pour un déploiement potentiel de ces techniques.

Dans le prochain rapport du Giec, la géo-ingénierie occupera une place plus importante que dans les précédents. J’espère que cela permettra de documenter de façon précise et convaincante les risques potentiels associés à ces approches.


Propos recueillis par Elsa Couderc.

The Conversation

Bopp Laurent a reçu des financements du CNRS, de l'Agence Nationale de la Recherche, de la Fondation pour la Recherche sur la Biodiversité, du Programme Horizon Europe de la Commission Européenne, et de la Fondation Schmidt Sciences.

PDF

20.01.2026 à 16:58

Des planètes errantes, sans étoile, découvertes par le satellite Euclid

Hervé Bouy, Professeur, Astrophysique, Université de Bordeaux

Le satellite Euclid a découvert une quinzaine de planètes errantes, sans étoile. Peu visibles, ces astres recèlent encore bien des mystères.
Texte intégral (1655 mots)
Difficiles à observer, les planètes errantes commencent à se dévoiler notamment grâce au télescope Euclid. De futures missions devraient nous en apprendre beaucoup sur ces astres. Hervé Bouy/Cosmic-Dance Team, Fourni par l'auteur

Sa mission est de cartographier le cosmos pour en dévoiler les mystères. Mais au passage, le satellite Euclid a découvert une quinzaine d’exoplanètes sans étoiles : des planètes errantes. On en connaît peu, mais Euclid et de futurs satellites devraient nous aider à comprendre leur formation.


Lorsque le télescope spatial Euclid de l’Agence spatiale européenne (ESA) a été lancé en 2023, son objectif était d’explorer l’un des plus grands mystères de l’Univers : le côté obscur du cosmos. En cartographiant des milliards de galaxies, Euclid doit aider à révéler la nature de la mystérieuse énergie noire qui serait le moteur de l’évolution du cosmos. Il n’avait pas été conçu pour étudier les régions de formation d’étoiles ni pour traquer des planètes.

Mais quelques mois après son lancement, l’ESA a mis en place le programme d’observations préliminaires d’Euclid (Euclid early release observations, ou ERO). Ce programme vise à démontrer les performances exceptionnelles du télescope à travers une large gamme d’objets astrophysiques, qu’il s’agisse de galaxies et d’amas lointains ou de régions de formation d’étoiles beaucoup plus proches. Cela permet de mettre en lumière la polyvalence et la précision des instruments d’Euclid, et prouver leur valeur bien au-delà de sa mission principale de cosmologie.

Des planètes sans soleil

Par définition, les planètes sont censées orbiter autour d’étoiles. Mais certaines sont solitaires, errant dans l’espace interstellaire sans étoile pour les réchauffer. Ces planètes errantes, comme on les surnomme, sont de véritables orphelines du cosmos. On pense qu’elles peuvent s’être formées comme des mini-étoiles, à partir de l’effondrement de petits nuages de gaz et de poussières.

Une autre hypothèse y voit de vraies planètes, nées autour d’une étoile et ayant été violemment éjectées de leur système d’origine. Les détecter et les étudier permet ainsi aux astronomes de mieux comprendre à la fois la formation des étoiles et la formation et l’évolution précoce (et parfois chaotique) des systèmes planétaires.

Jusqu’à présent, repérer ces corps discrets relevait presque de l’impossible tant la lumière qu’ils émettent est faible. Ils sont aussi très difficiles à distinguer d’autres objets astrophysiques, en particulier de galaxies lointaines. Mais Euclid, grâce à la combinaison unique d’un grand champ de vision, d’une résolution fine et d’une sensibilité allant de la lumière visible à l’infrarouge, a changé la donne.

Euclid prend le Taureau par les cornes

Lorsque l’ESA a proposé à la communauté scientifique de participer au programme ERO, notre équipe a suggéré de pointer Euclid vers une région de formation d’étoiles bien connue : le nuage LDN 1495, au sein de la constellation du Taureau, situé à environ 450 années-lumière. Cette région sombre, où le gaz et la poussière se condensent pour former de jeunes étoiles, est étudiée depuis des décennies, mais ne l’avait jamais été avec la précision et la sensibilité fournie par Euclid.

Les observations d’Euclid ont été combinées à plus de vingt ans d’imagerie au sol accumulée par notre équipe et obtenue avec des télescopes, comme le Canada-France-Hawaii Telescope (CFHT), Subaru ou UKIRT, tous les trois situés sur le sommet du volcan Mauna Kea dans l’archipel hawaiien (États-Unis). Cette longue période d’observation nous a permis de mesurer les mouvements, les luminosités et les couleurs de centaines de milliers de sources faibles dans ces images.

Parmi elles, 15 objets se distinguent. Leur luminosité, leur couleur et leur mouvement correspondent à ceux attendus pour des objets qui se sont formés dans les nuages moléculaires du Taureau. Ces objets partagent certaines propriétés : étant nés à peu près ensemble, ils sont tous jeunes (quelques millions d’années), situés à une distance similaire (celle des nuages, d’environ 425 à 490 années-lumière) et se déplacent ensemble à la même vitesse et dans la même direction dans le ciel, ayant hérité du mouvement du nuage moléculaire où ils sont nés. Neuf de ces quinze objets sont totalement nouveaux, et parmi les plus faibles et les moins massifs jamais détectés dans cette région.

Certains de ces candidats sont incroyablement petits : d’après leur luminosité extrêmement faible, ils pourraient avoir des masses proches ou légèrement supérieures à celle de Jupiter. C’est bien en dessous du seuil de masse d’une étoile ou même d’une naine brune, un astre plus gros qu’une planète, mais trop petit pour être une étoile. Cela les place donc clairement dans la catégorie des objets de masse planétaire. S’ils sont confirmés, ils compteraient parmi les objets les plus légers jamais détectés de manière directe en dehors d’un système solaire.

Une fenêtre sur les origines cosmiques

Cette découverte est bien plus qu’une curiosité : elle ouvre une fenêtre directe sur la façon dont l’Univers fabrique ses étoiles et ses planètes. Ces mondes solitaires se forment-ils de la même manière que les étoiles, à partir de petits fragments de nuages qui s’effondrent sous l’effet de la gravité ? Ou bien sont-ils les orphelins de systèmes planétaires, expulsés par le chaos gravitationnel de leur famille ?

Chacun de ces deux scénarios a des implications différentes pour notre compréhension des premiers stades de la formation stellaire, mais aussi de la formation des planètes. Dans des régions comme la constellation du Taureau, où la densité d’étoiles est faible et les étoiles massives sont rares, ces objets de masse planétaire pourraient se former directement par effondrement gravitationnel, brouillant encore davantage la frontière entre planète et étoile.

Les résultats de notre équipe suggèrent également que ces planètes errantes pourraient ne pas être si rares. En extrapolant nos résultats à l’ensemble du complexe du Taureau, on peut estimer que des dizaines d’entre elles, encore à découvrir, pourraient exister dans cette région.

Un Univers plein de surprises

Ce travail ne constitue qu’une première étape. Euclid a déjà observé d’autres régions de formation d’étoiles dans le cadre du programme ERO, actuellement en cours d’analyse, et pourrait en observer à nouveau à l’avenir, offrant ainsi des mesures de mouvements encore plus précises et des recensements plus complets.

À moyen terme, le futur télescope spatial Nancy-Grace-Roman, dont le lancement est prévu à l’automne 2026, disposera de capacités similaires et complémentaires en grand champ et en infrarouge. Ensemble, ces télescopes ouvriront une ère nouvelle pour l’étude systématique des objets de très faible masse dans les jeunes régions du cosmos.

Enfin, le James-Webb Space Telescope jouera un rôle clé dans le suivi de ces découvertes, en fournissant les observations spectroscopiques indispensables pour confirmer la nature, la masse et la composition des atmosphères de ces mondes errants. Ces missions dessinent un avenir particulièrement prometteur pour l’exploration des origines des étoiles et des planètes errantes.


À lire aussi : Euclid vs James-Webb : le match des télescopes spatiaux ?


Chaque nouveau grand télescope finit par accomplir des découvertes qu’il n’était pas censé faire. Le télescope spatial Hubble a révolutionné la cosmologie, mais il nous a aussi offert des vues spectaculaires des pouponnières d’étoiles. Aujourd’hui, Euclid, construit pour cartographier le squelette invisible du cosmos, révèle de nouveaux mondes en formation flottant dans l’Univers sans attache et sans étoile. Petits, froids et solitaires, ces mondes vagabonds nous rappellent que la frontière entre planète et étoile est mince et que, même dans l’obscurité entre les étoiles, il reste des histoires à découvrir.

The Conversation

Hervé Bouy est membre senior de l'Institut Universitaire de France. Il a reçu des financements du Conseil européen pour la recherche (ERC) et a été employé à l'Agence spatiale européenne (ESA).

PDF

19.01.2026 à 16:25

La microscopie de fluorescence à super-résolution : véritable tournant technologique dans l’analyse de la dynamique des mitochondries

Pauline Teixeira, Docteur en biologie cellulaire, Université d’Angers

Arnaud Chevrollier, Professeur des Universités Biologie Médicale, Biotechnologie, Université d’Angers

Solenn Plouzennec, Doctorante, Université d’Angers

Grâce à de nouvelles techniques, les mitochondries, composants clés des cellules impliqués dans de nombreuses pathologies, révèlent une partie de leurs mystères.
Texte intégral (1890 mots)
Jusqu’à présent, il était difficile de distinguer des mitochondries individuelles, et encore plus délicat de voir à l’intérieur : ici, ce sont des agrégats de mitochondries que l’on distingue en doré. Torsten Wittmann, University of California, San Francisco, CC BY

Explorer l’intérieur de nos cellules et leurs compartiments, tout en identifiant chaque protéine pour les cartographier, préciser leurs interactions et déchiffrer de nouveaux mécanismes biologiques… c’est désormais à notre portée grâce au développement de microscopes de super-résolution. Grâce à ces nouvelles techniques, les mitochondries, composants clés des cellules impliqués dans de nombreuses pathologies, révèlent une partie de leurs mystères.


Les mitochondries sont principalement connues pour être les centrales énergétiques de nos cellules, car elles y sont responsables de la production d’énergie et de chaleur. Elles participent également à la synthèse de nombreuses molécules et assurent un contrôle crucial sur la vie et la mort des cellules. Récemment, des microscopes ultrasophistiqués ont permis de mettre à jour l’incroyable vie active des mitochondries, qui se déplacent, fusionnent entre elles et se séparent.

Ces progrès sont cruciaux car les mitochondries sont impliquées dans de nombreuses atteintes neurodégénératives, maladies cardio-vasculaires et cancers. Comprendre comment les mitochondries endommagées contribuent au processus d’une maladie est essentiel pour le développement de traitements.

Les mitochondries, un réseau en reconfiguration perpétuelle

Dans la plupart des cellules et des tissus, les mitochondries ont la forme de tubes, plus ou moins longs. Les mitochondries s’adaptent à la taille et aux besoins énergétiques des cellules, ainsi dans les larges cellules énergivores, il peut y avoir plus de 200 000 mitochondries par cellules tandis que dans d’autres cellules, il y aurait moins de 100 mitochondries. En fonction de l’organe d’origine de la cellule, les mitochondries se répartissent dans la cellule et forment de grands réseaux. Elles changent également sans cesse de formes et leurs attachements avec les autres structures de la cellule.

Dès les années 1950, les données de microscopies électroniques ont révélé la structure de ces petits tubes et précisé leur organisation membranaire. Leur membrane externe est doublée d’une membrane interne, qui s’invagine et forme des poches à l’intérieur des mitochondries. Ces poches sont appelées crêtes et sont le lieu de la synthèse d’énergie.

Pour bien comprendre la fonction des mitochondries, il faut donc s’intéresser à leur structure, leur dynamique et leur distribution. Un axe important de travaux scientifiques porte sur cette relation structure-fonction afin de découvrir de nouveaux moyens de protéger la morphologie mitochondriale et de développer des stratégies thérapeutiques pour lutter contre les maladies mitochondriales ou les atteintes neurodégénératives.

La microscopie de fluorescence, la clé pour le suivi des mitochondries en temps réel

Si la microscopie électronique permet d’obtenir des vues extrêmement détaillées des mitochondries, son utilisation ne permet pas de rendre compte de la complexité de leur organisation au sein des cellules, ni de leur nature dynamique. En effet, ce type de microscopie se limite à des images cellulaires figées dans le temps. C’est ici qu’intervient la microscopie de fluorescence, un domaine en pleine effervescence qui permet de capturer des images ou des vidéos.

La microscopie de fluorescence repose sur le principe d’excitation et d’émission contrôlées de photons, particules composant la lumière, par des molécules présentes dans les cellules. Contrairement aux microscopes à fond clair, qui sont les microscopes les plus simples, comme ceux utilisés en cours de sciences, et où l’image est générée à partir des signaux collectés après le passage de la lumière à travers l’échantillon, les microscopes à fluorescence collectent les signaux lumineux qui proviennent de l’objet biologique lui-même, comme des petites ampoules que l’on allumerait au cœur de la cellule.

Le développement de l’informatique et des capteurs de caméra sensibles et rapides ont également rendu possible le suivi des signaux dans le temps, et la quantification des mouvements de chaque compartiment des mitochondries.

Visualisation des membranes internes des mitochondries de cellules fibroblastiques en culture par super-résolution STED. La barre d’échelle représente 500 nanomètres. CECAD imaging facility, Université de Cologne, Allemagne ; et S. Plouzennec, Mitolab, Université Angers, Fourni par l'auteur

La super-résolution, quand la science éclaire l’invisible

Pour aller plus loin que ces observations déjà fascinantes de réseaux de mitochondries, la microscopie de fluorescence ne suffit pas. En effet, en microscopie optique, les objets plus petits qu’une certaine taille, environ 200-300 nanomètres radialement et 500-700 nanomètres axialement, ne peuvent pas être distingués. En effet, selon un principe physique, la diffraction de la lumière, soit la déviation des rayons lumineux, fait qu’un émetteur unique apparaît comme une tache sur la caméra – on parle de figure de diffraction, et plus précisément ici de « fonction d’étalement du point ».

Cette limitation entrave l’observation précise de structures complexes telles que les mitochondries du fait de leur taille qui est similaire à la limite de diffraction.

La microscopie de fluorescence à super-résolution (microSR) a changé la donne dans le domaine de la recherche biologique depuis les années 2000. Grâce à cette technologie, les scientifiques peuvent pénétrer dans le monde nanoscopique et observer en temps réel les structures complexes et les interactions des composants cellulaires. La microscopie de fluorescence à super-résolution englobe quatre techniques principales, dont l’une a été récompensée par le prix Nobel de chimie en 2014.

Chacune de ces techniques s’attaque à la limite de diffraction d’une manière unique, permettant de séparer des points situés à moins de 200 nanomètres. Cette avancée permet aux chercheurs d’atteindre des résolutions spatiales de quelques nanomètres, dévoilant ainsi les détails les plus fins des structures cellulaires comme jamais auparavant. Restreints il y a encore peu de temps à quelques laboratoires prestigieux dans le monde, ces équipements se démocratisent et se déploient dans les plates-formes de microscopie.

La mitochondrie sous un nouveau jour, dévoilée à l’échelle nanométrique

Nous avons utilisé un type de microscopie de fluorescence à super-résolution, la microscopie de localisation de molécules uniques, qui nous a permis d’identifier les protéines sur les membranes des mitochondries et de les cartographier.

Avec un autre type de microscopie de fluorescence à super-résolution, nous avons visualisé le contour des crêtes, retrouvant ainsi le visuel connu d’une image de microscopie électronique… à ceci près qu’aucun traitement chimique liée à la fixation de l’échantillon n’est venu perturber l’organisation de ces fines membranes et fragiles petites poches. Ceci permet de découvrir la complexité interne des mitochondries et l’hétérogénéité de ses structures, afin de corréler la morphologie des mitochondries à leur activité ou à la présence de défaut génétique.

Ces images donnent accès à deux échelles de temps, c’est-à-dire deux niveaux de cinétique. D’une part, sur quelques minutes durant lesquelles nous pouvons observer, nous voyons que les mitochondries se déplacent, changent de forme, fusionnent entre elles ou se séparent.

D’autre part, toujours avec la microscopie de super résolution, nous pouvons observer sur quelques secondes, toute l’ondulation et le remodelage des structures internes des mitochondries nécessaires à la production d’énergie.

Visualisation de la dynamique des membranes internes des mitochondries de cellules en culture par super-résolution STED sur quelques minutes (Leica Microsystems, Wetzlar, Germany) en collaboration avec PRIMACEN ; MONT-SAINT-AIGNAN ; C. Laigle (A. Chevrollier Mitolab, Université Angers). Source : Université Angers.

Ainsi, on découvre que les mitochondries ne sont pas de simples centrales énergétiques cellulaires mais des organites dynamiques possédant de nombreuses particularités nanoscopiques. La microscopie de super résolution permet d’envisager une meilleure compréhension de comment les mitochondries endommagées contribuent au processus de nombreuses maladies, ce qui est essentiel pour le développement de traitements.

The Conversation

Arnaud Chevrollier a reçu des financements de l'Université d'Angers, AFM-téléthon

Pauline Teixeira et Solenn Plouzennec ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

19.01.2026 à 16:06

L’origine du « moustique du métro de Londres » enfin résolue

Haoues Alout, chargé de recherche, Inrae

Le « moustique du métro de Londres » n’est en fait pas né dans le métro. Une étude révèle que les gènes permettant son adaptation remontent à plus de mille ans.
Texte intégral (1808 mots)

Longtemps présenté comme un exemple spectaculaire d’adaptation rapide à l’urbanisation, le « moustique du métro de Londres » n’est en réalité pas né dans les tunnels londoniens, comme on le pensait jusqu’ici. Une nouvelle étude retrace ses origines et montre qu’elles sont bien plus anciennes que ce que l’on imaginait. Elles remonteraient à plus de mille ans, en lien avec le développement des sociétés agricoles.


Et si le « moustique du métro de Londres », surtout connu pour ses piqûres sur les populations réfugiées à Londres dans les sous-sols de la ville pendant la Seconde Guerre mondiale, n’était en réalité pas né dans les tunnels londoniens ? C’est ce que révèle une étude que nous avons récemment publiée avec des collègues.

Des réfugiés s’abritant dans le métro de Londres pendant le Blitz de Londres, en novembre 1940.

Nos résultats montrent que les caractéristiques « urbaines » de ce moustique, que l’on pensait s’être adapté à la vie souterraine il y a un peu plus d’un siècle, remontent en fait à plus de mille ans.

Le moustique Culex pipiens molestus, qui diffère de son cousin Culex pipiens pipiens dans la mesure où le premier pique surtout des humains, et le second surtout des oiseaux, est probablement né dans la vallée du Nil ou au Moyen-Orient, en lien avec le développement des premières sociétés agricoles humaines.


À lire aussi : Combien de temps un moustique peut-il survivre sans piquer un humain ?


Le « moustique du métro de Londres » n’est pas né dans le métro

Cette découverte jette une lumière nouvelle sur l’évolution des moustiques. Depuis plusieurs décennies, une hypothèse présentait en effet le moustique commun (Culex pipiens) comme un exemple spectaculaire d’adaptation rapide à l’urbanisation.

Selon cette théorie, une forme particulière de ce moustique, appelée Culex pipiens molestus, se serait adaptée à la vie urbaine en un peu plus de cent ans seulement, à partir de sa forme jumelle Culex pipiens pipiens. Là où celle-ci préfère piquer les oiseaux, s’accoupler dans des espaces ouverts et « hiberner » pendant l’hiver, la forme molestus aurait évolué en une forme quasi distincte, capable de vivre dans les souterrains et de piquer l’humain et d’autres mammifères, de s’accoupler dans des souterrains et de rester actif toute l’année.

Cette adaptation spectaculaire du « moustique du métro de Londres » était devenue un cas d’école, figurant dans de nombreux manuels d’écologie et d’évolution. L’idée sous-jacente était que l’urbanisation des villes pouvait sélectionner à grande vitesse de nouvelles espèces et en quelque sorte « accélérer » l’évolution.

Mais notre étude vient montrer que cette belle histoire, aussi séduisante soit-elle, est fausse.

Un moustique urbain… né bien avant les villes modernes

Notre consortium international de chercheurs PipPop a ainsi publié dans la revue Science une étude qui démystifie cette hypothèse. En séquençant le génome de plus de 350 moustiques, contemporains et historiques, issus de 77 populations d’Europe, d’Afrique du Nord et d’Asie occidentale, nous avons reconstitué leur histoire évolutive.

En définitive, les caractéristiques qui font de Culex pipiens molestus un moustique si adapté à la vie urbaine ne sont pas apparues dans le métro londonien, mais bien plus tôt, il y a plus de mille ans, vraisemblablement dans la vallée du Nil ou au Moyen-Orient. Ce résultat remet en question ce qui était considéré comme un exemple clé de l’évolution urbaine rapide. Au final, il s’agirait d’une adaptation plus lente, associée au développement de sociétés humaines anciennes.

Autrement dit, ce moustique était déjà « urbain » (au sens : étroitement associé aux humains) bien avant l’ère industrielle. Les premières sociétés agricoles, avec leurs villages denses, leurs systèmes d’irrigation et leurs réserves d’eau, lui ont offert un terrain de jeu idéal pour son adaptation.


À lire aussi : Comment les moustiques nous piquent (et les conséquences)


Un acteur clé des épidémies modernes

Le moustique Culex pipiens n’est pas juste une curiosité scientifique : il joue un rôle majeur dans la transmission de virus comme ceux du Nil occidental ou d’Usutu. Ces derniers circulent surtout chez les oiseaux mais peuvent aussi être transmis aux humains et aux mammifères.

La forme Culex pipiens pipiens, qui pique les oiseaux, est principalement responsable de la transmission du virus dans l’avifaune, tandis que Culex pipiens molestus est vu comme responsable de la transmission aux humains et aux mammifères.

Lorsque les deux se croisent et s’hybrident, ils pourraient donner naissance à des moustiques au régime mixte, capables de « faire le pont » entre oiseaux et humains et de nous transmettre des virus dits zoonotiques.

De fait, nos analyses confirment que les deux formes s’hybrident davantage dans les villes densément peuplées, augmentant le risque de transmission de ces virus. Autrement dit la densité humaine augmente les occasions de rencontre entre les deux formes de moustiques – et potentiellement la probabilité de produire des moustiques capables de piquer à la fois les oiseaux et les humains.

Comprendre quand et où ces deux formes se croisent et comment leurs gènes se mélangent est donc crucial pour anticiper les risques d’épidémie.

Repenser l’adaptation urbaine

L’histoire du « moustique du métro de Londres » a eu un immense succès parce qu’elle incarne en une image frappante tout ce que l’on redoute et admire dans l’adaptation rapide des espèces à nos environnements. Par exemple, une adaptation très rapide face à l’augmentation de la pollution et de l’artificialisation des habitats, souvent mobilisée dans les imaginaires, de science-fiction en particulier.

Mais la réalité est tout autre : les moustiques de nos villes modernes ne sont pas une nouveauté née dans le métro londonien. En revanche, le développement urbain a offert une nouvelle scène à un acteur déjà préparé par des millénaires de cohabitation avec les humains dans les premières sociétés agricoles du Moyen-Orient et de la Méditerranée. Le fruit de cette évolution a ensuite pu être « recyclé » dans les villes contemporaines.

On parle alors d’ « exaptation », c’est-à-dire qu’un trait préexistant dans un contexte donné (ici les premières villes du Moyen-Orient) devient avantageux dans un autre contexte (les villes du nord de l’Europe). Les circuits sensoriels et métaboliques qui pilotent la recherche d’hôtes à piquer, la prise de repas sanguin et la reproduction avaient déjà été remodelés par l’histoire ancienne des sociétés agricoles de la Méditerranée et du Moyen-Orient, avant d’être « réutilisés » dans le contexte urbain moderne au nord de l’Europe.

Nos systèmes d’irrigation antiques, nos premières villes et nos habitudes de stockage de l’eau ont donc posé les bases génétiques qui permettent aujourd’hui à certains moustiques de prospérer dans les galeries de métro ou les sous-sols d’immeubles de nos grandes villes.

Cette découverte change la donne. En retraçant l’histoire de la forme urbaine du moustique commun Culex pipiens, l’étude invite à changer de regard sur l’évolution urbaine : ce n’est pas seulement une adaptation rapide déclenchée par l’urbanisation intensive des villes, mais un long processus qui relie notre développement technique et social et celle des autres espèces.

Comprendre ces dynamiques est crucial : non seulement pour la science, mais aussi pour anticiper les risques sanitaires et mieux cohabiter avec les autres espèces. Et vous, saviez-vous que le moustique qui vous pique la nuit avait une histoire évolutive aussi ancienne ?

The Conversation

Haoues Alout a reçu des financements de l'ANR et de l'ANSES ainsi que de l'Union Européenne.

PDF

18.01.2026 à 20:51

Les plantes aussi ont un microbiote – pourrait-on s’en servir pour se passer de phytosanitaires ?

Cécile Monard, Chargée de recherche, Centre national de la recherche scientifique (CNRS)

Abdelhak El Amrani, MCF-Génomique Fonctionnelle

Grâce aux récentes avancées en séquençage du génome, nous décodons le langage entre les plantes et leurs microbiotes.
Texte intégral (1359 mots)
Les plantes sont en contact tellement étroit avec des microorganismes que l’on parle de symbiose, et qu’on ne peut envisager l’évolution des unes sans les autres. Gaudenis/Unsplash, CC BY

Les plantes et leur microbiote – tout comme les humains et leur microbiote –échangent du matériel génétique. En étudiant cette forme de communication entre les partenaires d’une symbiose, des scientifiques montrent comment les racines peuvent favoriser l’accès aux nitrates présents dans le sol – une ressource indispensable à la croissance des plantes. Ils et elles explorent aussi l’hypothèse que ce langage permette de lutter contre les pathogènes.


Depuis une dizaine d’années, une nouvelle vision des organismes s’impose. Les êtres humains, les animaux et les plantes ne peuvent exister sans leur association avec une myriade d’espèces de microorganismes qui constituent leur microbiote et qui leur apportent des fonctions biologiques complémentaires à leur hôte.

Par exemple, les champignons « mycorhiziens » prolongent les fonctions racinaires des plantes. Ils leur permettent notamment d’explorer le sol et ses ressources ; et apportent une fonction protectrice contre les pathogènes grâce à leur capacité à synthétiser des fongicides et des antibiotiques.

Cet ensemble « hôte et microbiote » forme ce que l’on appelle l’« holobionte », et il est maintenant admis qu’il s’agit d’une unité évolutive et fonctionnelle à prendre en compte dans son ensemble.

Cette nouvelle vision des organismes, non plus comme des individus uniques mais comme des métaorganismes, implique l’existence d’un dialogue entre les différents partenaires de cet ensemble complexe – que nous nous efforçons aujourd’hui de décoder.

Un nouveau langage, fondé sur le transfert de « code génétique » au sein des êtres vivants

Au sein des êtres vivants, différents mécanismes de communication sont connus, permettant le transfert d’informations à différentes échelles de l’organisme. Il peut s’agir d’échanges d’ions, comme le calcium ou le potassium entre les cellules, de signaux électriques à travers nos neurones ou encore le transport d’hormones dans le sang, comme l’insuline qui régule la glycémie en fonction de notre régime alimentaire.

Il existe même des petites protéines ou des peptides capables de voyager entre les organes, qui peuvent par exemple être impliqués dans l’immunité. Un cas très étudié est celui de la systémine, produite par les feuilles de plantes blessées. Ce peptide est transféré à d’autres organes pour induire des mécanismes de défense dans la plante entière.

En plus de cet arsenal de dialogues moléculaires, une autre voie de communication a été découverte en 1993 et a révolutionné le domaine de la communication chez les organismes vivants. Elle est basée sur l’échange de matériel génétique, composé de mini-séquences appelées « microARN », entre différentes cellules et/ou organes d’un même individu.

Initialement observée chez un nématode (un ver microscopique), cette découverte a ensuite été généralisée à d’autres animaux, aux êtres humains et aux plantes. Elle a donné lieu à l’attribution du prix Nobel de médecine 2024 à Victor Ambros et Gary Ruvkun.

Les premières recherches ont montré que ces microARN sont des intermédiaires de communication impliqués dans la majorité des processus biologiques, depuis l’embryogenèse jusqu’au vieillissement, et affecte notamment l’immunité et la résistance des organismes aux contraintes environnementales.

Un langage aussi utilisé entre différents êtres vivants

Depuis une dizaine d’années, nous savons également que ces microARN sont impliqués dans le transfert d’information entre différents individus – ce que l’on peut qualifier de communication.

En particulier, les microorganismes du microbiote et leur hôte échangent du matériel génétique. Ceci est particulièrement surprenant car, en général, le matériel génétique (ADN) ou l’intermédiaire de ce matériel (ARN) ne sont pas très mobiles entre cellules et a fortiori entre cellules d’individus et d’espèces différents !

Néanmoins, l’étude du microbiote intestinal des mammifères a bien mis en évidence en 2016 l’implication de microARN produits par les cellules épithéliales du tube digestif de l’hôte, dont le but est d’exercer une pression de sélection du microbiote intestinal bénéfique et de reprogrammer le fonctionnement de ce dernier.

De la même façon, nous avons montré que les racines des plantes influencent le fonctionnement de leur microbiote. Celui-ci, par son rôle dans l’assimilation des nutriments, présente des similitudes avec le système digestif des animaux.

Pourquoi ce « langage » est important pour une agriculture en transition

En 2024, nous avons également montré (Brevet FR3147485 du 11/10/2024) que des microARN de plantes pouvaient réduire la compétition de ses dernières avec certains microorganismes présents dans le sol à proximité de leurs racines pour l’accès aux nitrates, une ressource vitale pour les végétaux souvent apportée par les engrais minéraux ou les épandages de lisier et fumier.

De plus, dans le cas de certains stress environnementaux ou bien d’infections par les pathogènes, l’expression des microARN est perturbée et on assiste à un développement anarchique, ou déséquilibre, du microbiote – on parle de « dysbiose ».

Il est concevable d’agir sur le « langage » entre microbiote et racines pour moduler la réponse des plantes aux changements environnementaux, notamment en contexte agricole. Par exemple, l’utilisation de microARN naturellement produits par les plantes pourrait aider ces dernières à recruter un microbiote bénéfique, et leur permettre de se défendre des pathogènes, de résister aux stress environnementaux liés au changement climatique ou encore de faciliter leur nutrition ; ce qui pourrait permettre de limiter notre dépendance aux engrais minéraux et aux produits phytosanitaires délétères pour l’environnement.

Nous espérons que ces pratiques fondées sur l’application de microARN mimant ceux naturellement produits par les plantes puissent constituer une nouvelle porte d’entrée vers une agriculture durable et respectueuse de l’environnement sans avoir recours à l’introduction de gènes exogènes dans le génome des plantes, ce qui crée des organismes génétiquement modifiés, qui sont l’objet de controverses dans notre société.

The Conversation

Cécile Monard a reçu des financements de CNRS, CMI Roullier, OSERen

Abdelhak El amrani a reçu des financements de la région de bretagne, CNRS, Europe, ANR.

PDF

15.01.2026 à 16:01

En 2026, à quoi vont ressembler les nouveaux deepfakes qui vont déferler sur nos écrans

Siwei Lyu, Professor of Computer Science and Engineering; Director, UB Media Forensic Lab, University at Buffalo

Après une explosion des deepfakes en 2025, l’année 2026 s’annonce encore plus critique avec l’émergence de contenus synthétiques interactifs en temps réel.
Texte intégral (1453 mots)
La barrière technologique à l’entrée a sauté : générer des deepfakes est désormais plus accessible _via_ les outils IA grand public. Image générée par Siwei Lyu/IA Google Gemini 3

En 2025, la génération de deepfakes a explosé : visages, voix et mouvements du corps créés par des systèmes d’intelligence artificielle deviennent presque indiscernables des humains, bouleversant la perception et la sécurité des contenus en ligne.


Au cours de l’année 2025, les techniques de génération de deepfakes ont connu une évolution spectaculaire. Les visuels de visages, de voix et de corps entiers générés des systèmes d’IA ont gagné en qualité – bien au-delà de ce que beaucoup d’experts imaginaient encore il y a quelques années. Ces vidéos sont aussi davantage utilisées pour tromper ceux qui les regardent.

Dans de nombreuses situations du quotidien – en particulier les appels vidéo de faible résolution et les contenus diffusés sur les réseaux sociaux –, leur réalisme est désormais suffisant pour berner à coup sûr des publics non spécialistes. Concrètement, les médias synthétiques sont devenus indiscernables d’enregistrements authentiques pour le grand public et, dans certains cas, même pour des institutions.

Et cette flambée ne se limite pas à la qualité. Le volume de deepfakes générés a lui aussi explosé : l’entreprise de cybersécurité DeepStrike estime qu’on est passé d’environ 500 000 vidéos de ce type présentes en ligne en 2023 à près de 8 millions en 2025, avec une croissance annuelle proche de 900 %.

Je suis informaticien et je mène des recherches sur les deepfakes et d’autres médias synthétiques. De mon point de vue, la situation risque encore de s’aggraver en 2026, à mesure que les deepfakes évolueront vers des entités synthétiques capables d’interagir en temps réel avec des humains.

Des améliorations spectaculaires

Plusieurs évolutions techniques expliquent cette escalade. Tout d’abord, le réalisme a franchi un cap grâce à des modèles de génération de vidéos conçus spécifiquement pour maintenir la cohérence temporelle. Ces modèles produisent des vidéos aux mouvements cohérents, avec des identités stables pour les personnes représentées et un contenu logique d’une image à l’autre. Ils dissocient les informations liées à la représentation de l’identité d’une personne de celles relatives au mouvement, ce qui permet d’appliquer un même mouvement à différentes identités ou, inversement, d’associer une même identité à plusieurs types de mouvements.

Ces modèles génèrent des visages stables et cohérents, sans les scintillements, déformations ou anomalies structurelles autour des yeux et de la mâchoire qui constituaient des signes techniques fiables de deepfakes auparavant.

Deuxièmement, le clonage vocal a franchi ce que j’appellerais le « seuil d’indiscernabilité ». Quelques secondes d’audio suffisent désormais pour générer un clone convaincant – avec une intonation, un rythme, des accents, des émotions, des pauses et même des bruits de respiration naturels. Cette capacité alimente déjà des fraudes à grande échelle. De grands distributeurs indiquent recevoir plus de 1 000 appels frauduleux générés par l’IA chaque jour. Les indices perceptifs qui permettaient autrefois d’identifier des voix synthétiques ont en grande partie disparu.

Troisièmement, les outils grand public ont fait chuter la barrière technique à un niveau proche de zéro. Les évolutions d’OpenAI avec Sora 2, de Google avec Veo 3 et l’émergence d’une vague de start-up font qu’il suffit aujourd’hui de décrire une idée et de laisser un grand modèle de langage comme ChatGPT d’OpenAI ou Gemini de Google rédiger un script, pour générer en quelques minutes des contenus audiovisuels aboutis. Des agents d’IA peuvent automatiser l’ensemble du processus. La capacité à produire à grande échelle des deepfakes cohérents et construits autour d’un récit s’est ainsi largement démocratisée.

Cette combinaison d’une explosion des volumes et de figures synthétiques devenues presque indiscernables d’êtres humains réels pose de sérieux défis pour la détection des deepfakes, en particulier dans un environnement médiatique où l’attention est fragmentée et où les contenus circulent plus vite qu’ils ne peuvent être vérifiés. Des dommages bien réels ont déjà été constatés – de la désinformation au harcèlement ciblé et aux arnaques financières – facilités par des deepfakes qui se propagent avant que le public n’ait le temps de comprendre ce qui se passe.

Le temps réel, nouvelle frontière

Pour l’année à venir, la trajectoire est claire : les deepfakes se dirigent vers une synthèse en temps réel capable de produire des vidéos reproduisant fidèlement les subtilités de l’apparence humaine, ce qui facilitera le contournement des systèmes de détection. La frontière évolue du réalisme visuel statique vers la cohérence temporelle et comportementale : des modèles qui génèrent du contenu en direct ou quasi direct plutôt que des séquences préenregistrées.

La modélisation de l’identité converge vers des systèmes unifiés qui capturent non seulement l’apparence d’une personne, mais aussi sa façon de bouger et de parler selon les contextes. Le résultat dépasse le simple « cela ressemble à la personne X » pour devenir « cela se comporte comme la personne X sur la durée ». Je m'attends à ce que des participants à des appels vidéo soient synthétisés en temps réel ; à voir des acteurs de synthèse pilotés par l’IA dont le visage, la voix et les gestes s’adaptent instantanément à une consigne ; et à ce que des arnaqueurs déploient des avatars réactifs plutôt que des vidéos fixes.

À mesure que ces capacités se développent, l’écart perceptuel entre humains authentiques et synthétiques continuera de se réduire. La véritable ligne de défense ne reposera plus sur le jugement humain, mais sur des protections au niveau des infrastructures. Cela inclut des mécanismes de traçabilité sécurisée, comme la signature cryptographique des médias et l’adoption par les outils de génération IA des spécifications de la Coalition for Content Provenance and Authenticity. Cela dépendra également d’outils d’analyse multimodaux, comme le Deepfake-o-Meter que je développe avec mes équipes dans mon laboratoire.

Se contenter d’examiner les pixels attentivement ne suffira plus.

The Conversation

Siwei Lyu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

14.01.2026 à 16:23

Comment fonctionne l’hérédité ? Une nouvelle étude explore le rôle de l’épigénétique

Vincent Colot, Directeur de recherche, École normale supérieure (ENS) – PSL

Pierre Baduel, Chargé de recherche en génétique, École normale supérieure (ENS) – PSL

On transmet à sa descendance ses gènes, son ADN. Mais certaines espèces peuvent également transmettre un autre type d’information, dite épigénétique, qui indique quels gènes peuvent ou non s’exprimer.
Texte intégral (2427 mots)

On transmet à sa descendance ses gènes, son ADN. Mais certaines espèces peuvent également transmettre un autre type d’information, dite épigénétique, qui indique quels gènes peuvent ou non s’exprimer. Une nouvelle étude parue dans Science explore les mécanismes qui permettent cette transmission chez les plantes.


Comment fonctionne l’hérédité ? Ou, en d’autres termes, par quels mécanismes moléculaires un organisme peut-il transmettre certaines caractéristiques à sa descendance via la reproduction sexuée ?

Depuis les années 1940, on sait que l’ADN porte l’information génétique transmise de génération en génération. Mais différentes observations chez les plantes indiquent que toutes les différences héritables observées entre individus, comme un retard de floraison ou un changement de la pigmentation du maïs, ne sont pas dues à des mutations de la séquence de l’ADN.

Dans notre étude publiée en novembre 2025 dans Science, nous montrons que l’épigénétique contribue, chez les plantes, aux différences héritables entre individus, notamment en réponse à des stress environnementaux comme la sécheresse.

Les modifications dites « épigénétiques » n’affectent pas la séquence de l’ADN proprement dite, mais plutôt sa capacité à favoriser ou non l’expression des gènes. Dans notre étude, nous élucidons certains des mécanismes par lesquels des modifications épigénétiques, en l’occurrence la méthylation de l’ADN (voir encadré), peuvent être transmises, chez les plantes, sur des dizaines de générations… ou au contraire être rapidement rétablies dans leur état initial.


À lire aussi : Épigénétique, inactivation du chromosome X et santé des femmes : conversation avec Edith Heard


Le mystère de la plante qui fleurissait tard

Arabidopsis thaliana est une plante que les scientifiques utilisent beaucoup, à tel point que l’on parle de « plante modèle ». Lorsqu’en 2000 un important retard de floraison a été observé dans une souche de laboratoire d’A. thaliana les recherches se sont naturellement d’abord concentrées sur l’identification de la mutation de la séquence d’ADN potentiellement responsable de ce retard. Or, aucune mutation n’a été identifiée en lien avec ce retard de floraison !… En cause : une perte de méthylation de l’ADN au niveau d’un gène, désigné FWA.

Qu’est-ce que la méthylation de l’ADN ?

  • On dit que l’ADN est méthylé lorsqu’il porte une modification chimique particulière : il s’agit d’un groupement chimique « méthyl- » ajouté dans le cycle de certaines bases (la cytosine, abbréviée C) de l’ADN.
  • Chez les plantes, la méthylation de l’ADN est le plus généralement inhibitrice, c’est-à-dire qu’elle limite l’expression des gènes avoisinants, lorsqu’elle est densément présente sur toutes les cytosines d’une région donnée.
  • Chez les mammifères, on ne trouve la méthylation de l’ADN que dans le contexte CG (une cytosine suivie d’une guanine) et elle est inhibitrice lorsqu’elle est présente sur des régions denses en CG, appelées îlots de CG.

Normalement, le gène FWA d’A. thaliana qui code un répresseur de la floraison est méthylé, ce qui le rend « silencieux », c’est-à-dire qu’il ne s’exprime pas. Dans la souche de laboratoire présentant un retard de floraison, la méthylation de ce gène a disparu – par accident ; le gène FWA est alors réactivé, ce qui conduit à retarder la floraison.

Or, cette perte de la méthylation de FWA est transmise de façon fidèle à la descendance sur au moins plusieurs dizaines de générations. Ceci explique l’hérédité du retard à la floraison… alors même que la séquence du gène FWA (et du reste du génome !) reste inchangée.

Pourquoi de telles observations chez les plantes et non chez les mammifères ?

Les mammifères, comme les plantes, utilisent la méthylation de l’ADN pour réguler l’expression des gènes (voir encadré plus haut). En revanche, il n’existe pas de caractères épigénétiques héritables chez les animaux dans la nature (bien qu’il y ait des exemples au laboratoire sur des séquences transgéniques de mammifères).


À lire aussi : Nous héritons de la génétique de nos parents, mais quid de l’épigénétique ?


La raison n’est pas encore clairement établie, mais la communauté scientifique soupçonne qu’il existe des différences dans la manière dont ces deux groupes d’organismes reprogramment la méthylation de l’ADN à chaque génération.

En effet, nous savons aujourd’hui que les mammifères, mais non les plantes, effacent et rétablissent de manière quasi totale la méthylation de l’ADN le long de leur génome à chaque génération. Ainsi donc, des altérations accidentelles de l’état de méthylation des séquences du génome seraient plus facilement héritables chez les plantes.

Bien que frappants, les exemples décrits jusqu’à présent d’une telle hérédité « épigénétique » (comme dans le cas de FWA) n’avaient pas permis d’établir les mécanismes régissant ce mode additionnel de transmission des caractères.

C’est à cette question que nous nous sommes attelés : en comparant systématiquement des lignées expérimentales et naturelles d’A. thaliana, nous avons obtenu une première démonstration formelle de l’ampleur de l’héritabilité épigénétique dans la nature (chez les plantes) et des mécanismes qui la régissent.

L’hérédité épigénétique dans nos lignées de laboratoire

Pour cela, nous avons d’abord exploité des lignées expérimentales d’A. thaliana générées et caractérisées depuis vingt ans par notre équipe et qui ne diffèrent que dans leurs états de méthylation de l’ADN le long du génome.

Plus précisément, nous avons intentionnellement localisé les différences de méthylation d’ADN au niveau d’« éléments transposables » ou « transposons » (voir encadré ci-dessous). En effet, les éléments transposables sont chez les plantes les cibles principales de la méthylation de l’ADN, qui limite ainsi leur activité mais peut également affecter l’activité des gènes avoisinants.

Qu’est-ce qu’un élément transposable ?

  • Les éléments transposables ou transposons sont des éléments génétiques qui ont la capacité de se déplacer le long du génome, soit _via_ un intermédiaire ARN (on parle dans ce cas de rétrotransposons), soit directement par excision et réinsertion (transposons à ADN).
  • De par leur capacité à se propager dans le génome, les éléments transposables représentent des fractions significatives de l’ADN des génomes eucaryotes (45 % chez l’humain, 85 % chez le maïs !). Cependant, la grande majorité des éléments transposables du génome sont des copies dérivées d’événements de transposition anciens et ont perdu toute capacité de mobilisation depuis, ce sont donc essentiellement des fossiles.
  • Lorsque les éléments transposables sont mobiles, les mutations qu’ils génèrent en s’insérant au sein ou à proximité des gènes ont souvent des effets majeurs. Par exemple, la mobilisation d’un transposon a été impliquée dans l’apparition spontanée de l’hémophilie de type A chez l’humain. Chez les plantes, les mutations causées par des éléments transposables ont été notamment exploitées en agriculture.
  • Les éléments transposables, mobiles ou non, sont le plus souvent maintenus dans un état épigénétique dit « répressif », notamment par la méthylation de l’ADN chez les plantes et les mammifères.

Nous avons ainsi montré pour 7 000 éléments transposables présents le long du génome d’A. thaliana qu’une perte de méthylation de l’ADN peut être héritée sur au moins une dizaine de générations, parfois jusqu’à 20… et sans doute beaucoup plus, mais pas infiniment néanmoins.

En étudiant en détail cette transmission épigénétique dans plus d’une centaine de lignées expérimentales, nous avons établi que plus un élément transposable est présent en grand nombre de copies dans le génome, plus il est la cible d’un contrôle épigénétique intense et, dès lors, plus rapidement la méthylation de l’ADN est restaurée sur cet élément lors de la reproduction sexuée.

Dans la nature

Fort de ces résultats, nous avons entrepris ensuite de chercher dans 700 lignées d’A. thaliana isolées dans la nature des pertes héritables de la méthylation de l’ADN de la même amplitude et sur les mêmes 7 000 éléments transposables.

Résultat : environ un millier d’éléments transposables (soit plus de 15 % des 7 000 étudiés) présentent, dans au moins une lignée naturelle, une perte héritable de méthylation de l’ADN très similaire à celle induite expérimentalement dans les lignées de laboratoire.

Qui plus est, nous avons montré que cette perte de méthylation de l’ADN est le plus souvent héritée indépendamment des variations de la séquence d’ADN entre lignées naturelles, et qu’elle est donc bien d’ordre épigénétique.

Ainsi donc, le potentiel de transmission épigénétique révélé expérimentalement au laboratoire est bel et bien le reflet, au moins en partie, de ce qui se passe dans la nature.

Le lien avec les stress environnementaux

Une différence majeure distingue néanmoins les variations épigénétiques expérimentales de celles retrouvées dans la nature : si les premières affectent sans discrimination tout type d’éléments transposables, les secondes sont préférentiellement restreintes à ceux d’entre eux situés à proximité de gènes, notamment des gènes impliqués dans la réponse aux stress biotiques (réponse aux pathogènes) ou abiotiques (variation de température ou d’humidité par exemple).

Cet enrichissement est d’autant plus lourd d’implications, que nous avons pu clairement établir que, comme leur contrepartie expérimentale, les variations épigénétiques naturelles modulent l’expression des gènes voisins.

Par exemple, la perte de méthylation de l’ADN d’un élément transposable situé à proximité d’un gène de réponse au froid et à la sécheresse magnifie l’induction de ce dernier d’un facteur 5 ! De plus, les lignées expérimentales présentant cet élément transposable sous sa forme déméthylée répondent plus vite à la sécheresse que celles portant la version méthylée. Or, les lignées naturelles porteuses de la version déméthylée proviennent de régions du globe où les événements de gel et de sécheresse sont plus fréquents en été, ce qui suggère que la perte de méthylation de l’ADN donne prise à la sélection naturelle.

L’origine de ces pertes de méthylation de l’ADN dans la nature reste néanmoins à établir. Une hypothèse est que l’environnement joue un rôle d’inducteur, mais nos observations et un bilan complet de la littérature apportent peu de soutien à cette théorie. Nous pensons plutôt que ces variants héritables de méthylation de l’ADN apparaissent de manière aléatoire et récurrente, et sont ensuite sélectionnés par l’environnement en fonction de leurs impacts sur l’expression des gènes.

Ces travaux, s’ils ne remettent certainement pas en cause l’importance prépondérante des variations de séquence de l’ADN dans l’origine des différences héritables entre individus, démontrent néanmoins que les variations épigénétiques peuvent elles aussi y contribuer significativement, du moins chez les plantes.


Le projet Prise en compte des éléments transposables et de leur variation épigénétique dans les études de la relation génotype-phénotype — STEVE est soutenu par l’Agence nationale de la recherche (ANR) qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Vincent Colot a reçu des financements de l'ANR et de l'Union européenne

Pierre Baduel a reçu des financements de l'ANR et de la FRM.

PDF

12.01.2026 à 15:58

Les plantes sont bien plus bavardes que vous ne le pensez

François Bouteau, Pr Biologie, Université Paris Cité

Beaucoup de végétaux sont capables d’interagir entre eux et avec le reste de leur environnement. Des échanges qui façonnent et transforment activement les paysages.
Texte intégral (1773 mots)

Les plantes sont loin d’être aussi muettes que ce que l’on imagine ! Beaucoup de végétaux sont en réalité capables d’interagir entre eux et avec le reste de leur environnement. Et ces échanges façonnent et transforment activement les paysages.


On pense souvent les plantes comme des êtres silencieux, immobiles, sans intention ni action. Pourtant, de nombreuses études révèlent aujourd’hui qu’elles communiquent activement entre elles, mais aussi avec les autres êtres vivants, animaux, champignons, microorganismes. En communiquant, elles ne font pas que transmettre des informations : elles modifient les dynamiques écologiques et sont ainsi actrices des transformations de leur environnement.

Cette communication n’a rien de magique : elle repose sur des signaux principalement chimiques. Dans les faits, on peut considérer que la communication se produit lorsqu’un émetteur envoie un signal perçu par un récepteur qui, en retour, modifie son comportement. Pour communiquer, les plantes doivent donc être sensibles à leur environnement. De fait elles sont capables de percevoir de très nombreux signaux environnementaux qu’elles utilisent en tant qu’information : la lumière, l’eau, la présence de nutriments, le toucher, les attaques d’insectes ou encore la proximité d’autres plantes.

Elles savent alors ajuster leur développement : orientation des feuilles vers le soleil, développement de leurs racines vers les zones riches en nutriments ou évitement des endroits pauvres ou toxiques. Lorsqu’elles subissent l’attaque d’un pathogène, elles déclenchent des réactions chimiques qui renforcent leurs défenses ou avertissent leurs voisines du danger. Cela implique donc que les plantes sont aussi capables d’émettre des signaux compréhensibles que d’autres organismes récepteurs vont pouvoir interpréter. Ces comportements montrent une véritable capacité d’action : les plantes ne subissent pas simplement leur environnement, elles interagissent avec lui, elles vont lancer des réponses adaptées, orientées vers un but important pour elles, croître.

Parler avec des molécules

La plupart des échanges entre plantes se font notamment grâce à des composés organiques volatils. Ces molécules sont produites par les plantes et se déplacent sous forme gazeuse dans l’air ou dans le sol et peuvent ainsi véhiculer un message. Attaquée par un pathogène, une plante peut libérer des composés volatils qui alertent ses voisines. L’exemple emblématique, bien que controversé, est l’étude menée par l’équipe de Wouter Van Hoven (Université de Pretoria, Afrique du Sud, ndlr) ayant montré que les acacias soumis au broutage des koudous, une espèce d’antilope, synthétisaient des tanins toxiques et que les acacias situés quelques mètres plus loin faisaient de même.

Les chercheurs ont suggéré que les acacias broutés libéraient de l’éthylène, un composé qui induisait la synthèse de tanins chez les acacias voisins, les protégeant ainsi des koudous. Ce type d’interaction a aussi été observé chez d’autres plantes. Chez l’orge, par exemple l’émission de composés volatils permet de réduire la sensibilité au puceron Rhopalosiphum padi. Les pieds d’orge percevant ces composés peuvent activer leurs défenses avant même d’être attaqués par les pucerons.

Certains de ces composés peuvent être synthétisés spécifiquement pour attirer les prédateurs de l’agresseur. Ainsi, lorsqu’elles sont attaquées par des chenilles, certaines plantes, comme le maïs, émettent des molécules pour appeler à l’aide les guêpes prédatrices des chenilles. D’autres signaux chimiques émis dans les exsudats racinaires permettent aux plantes d’identifier leurs voisines, de reconnaître leurs parentes et d’adapter leur comportement selon le degré de parenté. Ces types d’échanges montrent que la communication végétale n’est pas un simple réflexe : elle implique une évaluation du contexte et une action ajustée.

En fonction du contexte, les plantes s’expriment différemment

Mais toutes les plantes ne communiquent pas de la même façon. Certaines utilisent des signaux dits publics, que de nombreuses espèces peuvent percevoir, ce qu’on appelle parfois l’écoute clandestine. D’autres émettent des messages dits privés, très spécifiques, compris uniquement par leurs proches ou leurs partenaires symbiotiques, c’est-à-dire des espèces avec lesquelles elles échangent des informations ou des ressources. C’est le cas lors de la mise en place des symbioses mycorhiziennes entre une plante et des champignons, qui nécessitent un dialogue moléculaire entre la plante et son partenaire fongique.

Ce choix de communication dépend donc du contexte écologique. Dans des milieux où les plantes apparentées poussent ensemble, le partage d’informations profite à tout le groupe : c’est une stratégie collective. Mais dans des milieux compétitifs, il est plus avantageux de garder les messages secrets pour éviter que des concurrentes en tirent profit. Cette flexibilité montre que les végétaux adaptent la manière dont ils transmettent l’information selon leurs intérêts.

Peut-on dire que les végétaux se parlent ?

De fait, les signaux émis par les plantes ne profitent pas qu’à elles-mêmes. Ils peuvent influencer le développement de tout l’écosystème. En attirant des prédateurs d’herbivores, en favorisant la symbiose avec des champignons ou en modulant la croissance des voisines, les plantes participent à un vaste réseau d’interactions.

La question est alors de savoir si les plantes ont un langage. Si l’on entend par là une syntaxe et des symboles abstraits, la réponse est non. Mais si on considère le langage comme un ensemble de signaux produisant des effets concrets sur un récepteur, alors oui, les plantes communiquent. Des philosophes ont recherché si des analogies avec certains aspects du langage humain pouvaient être mises en évidence.

Certains d’entre eux considèrent que la communication chez les plantes peut être considérée comme performative dans la mesure où elle ne décrit pas le monde, mais le transforme. Quand une plante émet un signal pour repousser un herbivore ou avertir ses voisines, elle n’émet pas seulement de l’information, elle agit. Ce type de communication produit un effet mesurable, ce que les philosophes du langage, dans la lignée de l’Américain John Austin, appellent un effet perlocutoire.

Les plantes façonnent activement les écosystèmes

Cette vision élargie de la communication végétale devrait transformer notre conception des écosystèmes. Les plantes ne sont pas des éléments passifs du paysage, mais des actrices à part entière, capables de transformer leur environnement à travers leurs actions chimiques, physiques et biologiques.

Ces découvertes ouvrent des perspectives pour une agriculture durable : en comprenant et en utilisant la communication des plantes, il devient possible de renforcer leurs défenses sans pesticides, grâce à des associations de cultures ou à des espèces sentinelles qui préviennent les autres du danger. La question des paysages olfactifs est aussi un sujet émergent pour la gestion des territoires.

Pour cela il faut que s’installe un nouveau regard sur le comportement végétal. En effet, pendant des siècles, on a cru que les plantes étaient dénuées de comportement, de mouvement ou de décision. Darwin avait déjà observé, au XIXe siècle, qu’elles orientaient leurs organes selon la lumière, la gravité ou le contact. Aujourd’hui, on sait qu’elles peuvent aussi mémoriser certaines expériences et réagir différemment à un même signal selon leur vécu. Certains chercheurs utilisent des modèles issus de la psychologie et de la théorie de l’information pour étudier la prise de décision chez les plantes : perception d’un signal, interprétation, choix de réponse, action.

Repenser la hiérarchie du vivant

Au-delà de la communication, certains chercheurs parlent désormais d’agentivité végétale, c’est-à-dire la capacité des plantes à agir de façon autonome et efficace dans un monde en perpétuel changement. Reconnaître cette agentivité change profondément notre rapport au vivant. Les plantes ne sont pas de simples organismes passifs : elles perçoivent, décident et agissent, individuellement et collectivement. Elles modifient les équilibres écologiques, influencent les autres êtres vivants et participent activement à la dynamique du monde.

L’idée d’agentivité végétale nous invite à abandonner la vision hiérarchique du vivant héritée d’Aristote, qui place l’être humain tout en haut d’une pyramide d’intelligence. Elle nous pousse à reconnaître la pluralité des formes d’action et de sensibilité dans la nature. Comprendre cela, c’est aussi repenser notre propre manière d’habiter la terre : non plus comme des maîtres du vivant, mais comme des partenaires d’un vaste réseau d’êtres vivants où tous sont capables de sentir, d’agir et de transformer leur environnement.

The Conversation

François Bouteau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

11.01.2026 à 15:44

L’avenir de l’impression 3D passera par les matériaux

Benoît Vieille, Professeur en mécanique des matériaux aéronautiques, INSA Rouen Normandie

Breteau Thomas, Professeur Agrégé de Génie Mécanique , INSA Rouen Normandie

Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités.
Texte intégral (2077 mots)

Qu’il s’agisse de pièces de fusée, d’automobile, de pont ou même d’aliments, la fabrication additive (FA) redéfinit complètement le champ des possibles dans de très nombreux domaines d’activités. Elle offre des perspectives prometteuses en matière de matériaux, mais elle pose également des défis techniques, économiques et environnementaux qui nécessitent une maturation et une adaptation des procédés en lien avec les matériaux utilisés.


Plus connu sous la dénomination « impression 3D », ce procédé met en œuvre des polymères (plastiques) ou des alliages métalliques pour fabriquer des objets du quotidien. Les imprimantes 3D polymères sont accessibles au grand public pour quelques centaines d’euros. Elles permettent notamment de fabriquer des pièces prototypes (d’où le nom prototypage rapide), des coques de téléphone, des pièces de rechange, des prothèses, des bijoux, des jouets, des objets de décorations ou des maquettes. En ce qui concerne les métaux, les machines d’impression sont beaucoup plus chères (quelques centaines de milliers d’euros). On trouve des applications telles que des implants médicaux, des pièces aérospatiales/automobiles, de l’outillage industriel, des bijoux de luxe. On peut également trouver ce principe de fabrication dans le domaine du BTP avec des « imprimantes » qui mettent en œuvre du béton pour fabriquer des maisons, des bâtiments ou tout type de structure en génie civil.

Mais, comme toute nouveauté, le procédé suscite autant d’espoir qu’il ne réserve de surprises (bonnes ou mauvaises) à celles et ceux qui souhaitent utiliser ce nouveau moyen de fabrication.

D’un point de vue technique, l’impression 3D consiste, couche après couche, à durcir (polymériser) une résine liquide ou à venir déposer de la matière (plastique ou métallique) de manière précise et contrôlée (en ajustant les paramètres tels que la température, la vitesse d’impression, le taux de remplissage, l’orientation de l’objet) pour répondre à certaines contraintes de géométrie, poids, optimisation des propriétés mécaniques ou physiques.

La microstructure d’une pièce imprimée en 3D (polymère ou métal) désigne l’organisation interne de sa matière à une échelle microscopique, influencée par le procédé d’impression. La complexité de la géométrie, les dimensions, le prix vont conditionner le choix de la technologie d’impression et des matériaux associés.

Une révolution dans de nombreux domaines industriels

Qu’elle soit alternative ou complémentaire des techniques conventionnelles par enlèvement de matière ou par déformation, la FA révolutionne de nombreux domaines industriels. De la réalisation de pièces monolithiques (en une seule étape de fabrication, sans assemblage) à forte valeur ajoutée à la fonctionnalisation (conférer à la pièce certaines propriétés locales en changeant les paramètres d’impression au besoin), en passant par le prototypage rapide (valider la conception d’une pièce prototype de manière itérative), les possibilités sont multiples. On peut citer notamment des prothèses de hanche en titane adaptées à l’anatomie de chaque patient, des injecteurs de fusée à géométrie complexe et fabriquées en une seule pièce, des moules optimisés avec canaux de refroidissement sur mesure, des bijoux en métaux précieux avec des designs impossibles à obtenir avec des moyens d’usinage conventionnels.

La chaîne de valeurs de la FA – qui définit l’ensemble des étapes de réalisation d’une pièce de l’approvisionnement en matière première, à la conception, aux conditions de mise en œuvre, à la fabrication, au coût énergétique, à la reprise d’usinage, aux opérations de parachèvement, à la qualification de la santé matière, à la caractérisation des propriétés physiques, au recyclage – est cependant plus complexe et potentiellement plus onéreuse. La technicité, oui, mais pas à n’importe quel prix ! Outre les moyens de fabrication spécifiques sur lesquels elle repose, elle nécessite des règles de conception fondamentalement différentes car elle impose de nouvelles contraintes techniques. De la Conception Assistée par Ordinateur, au choix matériau, au programme machine et à l’industrialisation, il faut ainsi redéfinir complètement la manière de penser du cahier des charges à la maintenance des produits issus de la FA.

Des enjeux majeurs pour les matériaux

Un des points fondamentaux du développement de ces nouveaux procédés réside dans la compréhension du lien entre les paramètres de fabrication des pièces (temps d’impression, puissance du laser, vitesse de déplacement de la tête d’impression, dimensions, environnement de travail – sous atmosphère contrôlée ou non), leur santé matière (présence de porosités ou de défauts parfois liés à un manque de fusion/gazéification locaux de la matière) et leurs propriétés physiques (conductivité thermique ou électrique, propriétés mécaniques, densité). Autrement dit, il est nécessaire de fiabiliser les procédés et optimiser les propriétés finales de la pièce en étant capable de contrôler des paramètres de fabrication, lesquels vont beaucoup dépendre des matériaux mis en œuvre. Ainsi, la FA présente des enjeux majeurs pour les matériaux, qu’ils soient techniques, économiques ou environnementaux.

Tout d’abord, les procédés de FA nécessitent de développer, en amont, des matériaux adaptés (filaments, poudres) aux spécificités des procédés (fusion laser, dépôt de matière fondue, alimentation en matière des têtes d’impression), lesquels vont imposer des contraintes en termes de prix, toxicité et recyclabilité. En effet, les poudres métalliques ou polymères spécifiques (de type thermoplastique) dédiées à la fabrication additive restent souvent plus coûteuses que les matériaux conventionnels, d’un facteur 10 environ.

Néanmoins, malgré le coût plus élevé des matériaux et des procédés, l’impression 3D réduit les déchets (pas de copeaux comme en usinage), permet de fabriquer des pièces dont la géométrie est optimisée (allègement des structures) et élimine le besoin de moules coûteux pour les petites séries, ce qui peut compenser l’écart de coût pour des pièces à forte valeur ajoutée. Ainsi, la réduction des coûts est un enjeu clé pour une adoption plus large. De plus, l’approvisionnement en matière première peut être limité, ce qui ralentit le développement des applications industrielles.

La FA permet également de faire de l’hybridation en associant différents types de matériaux lors de l’impression (en utilisant plusieurs têtes d’impression) afin d’obtenir des pièces composites dont les propriétés mécaniques, électriques ou thermiques sont spécifiques. Par exemple, dans l’industrie aérospatiale ou l’automobile, l’impression 3D de pièces comme des moules d’injection ou des échangeurs thermiques avec des canaux de refroidissement complexes intégrés – lesquels sont impossibles à réaliser par usinage classique – permettent d’optimiser la dissipation thermique, améliorant l’efficacité et la longévité de la pièce.

Les procédés de FA permettent également d’imprimer des structures arborescentes (bio-mimétisme) obtenues via des outils d’optimisation topologique qui est une méthode de conception avancée qui utilise des algorithmes pour déterminer la forme optimale d’une structure en fonction de contraintes spécifiques, telles que la résistance, le poids, ou la distribution des efforts. La spécificité de l’impression 3D réside aussi dans la possibilité de produire des structures complexes de type treillis ou architecturées pour fonctionnaliser le matériau (propriétés mécaniques sur mesure, réduction de la masse, diminution des coûts de fabrication, isolation thermique, acoustique, absorption des chocs ou des vibrations).

Fusion de matière

Quand les pièces sont imprimées, il existe – selon le procédé de fabrication – des opérations dites de parachèvement qui consistent à finaliser les pièces. Cela inclut l’usinage des supports de conformage (qui sont comme des échafaudages qui supportent la pièce lors de la fabrication couche par couche), la reprise d’usinage des surfaces (ou polissage) pour améliorer l’état de surface (quand cela est possible) en raison de la rugosité importante des pièces brutes. On peut également réaliser des traitements thermiques pour homogénéiser la microstructure (pièces métalliques) ou de compression à chaud pour limiter le taux de porosités (un des inconvénients majeurs de l’impression 3D). Ces opérations sont fondamentales, car la rugosité de surface et le taux de porosités sont les caractéristiques les plus critiques du point de vue du comportement mécanique. Par ailleurs, quand il s’agit de procédés à base de poudres, il est nécessaire de dépoudrer les pièces pour évacuer le surplus de matière, lequel peut nuire au fonctionnement en service de la pièce ainsi fabriquée.

Par nature, la majorité des procédés de FA impliquent la fusion de matière (plastique ou métallique), ce qui va se traduire par des échauffements localisés et des différences de température très importants au sein de la pièce. Ces gradients thermiques vont conditionner la microstructure, la présence de contraintes internes (en lien avec la microstructure), la santé (présence de défauts), l’anisotropie (les propriétés ne sont pas les mêmes dans toutes les directions) et l’hétérogénéité (les propriétés ne sont pas les mêmes en tout point) des pièces. La fiabilité des pièces imprimées va donc beaucoup dépendre de ces caractéristiques.

En amont, il est alors important d’étudier les interactions entre procédés-microstructure et propriétés mécaniques pour différents types de matériaux. C’est l’objet de nos travaux de recherche menés à l’INSA Rouen Normandie. Pour les polymères, l’impression 3D par dépôt de filament fondu (FFF) présente une porosité intrinsèque qui réduit la résistance à la rupture. En utilisant des procédés tels que le laser shock peening (LSP), un traitement mécanique in situ appliqué à certaines couches pendant l’impression, on peut alors faire de la fonctionnalisation en réduisant localement la porosité et en créant des barrières ralentissant la propagation des fissures, améliorant ainsi la ténacité des matériaux (la résistance à la fissuration du matériau). De manière similaire, pour les alliages métalliques obtenus par Fusion sur Lit de Poudre, en jouant sur les paramètres de fabrication (puissance et vitesse de déplacement du laser notamment), il est possible d’ajuster localement les propriétés du matériau pour moduler sa ténacité ou sa capacité à se déformer plastiquement.*

Aussi, il est nécessaire de caractériser précisément – en aval de la fabrication – les propriétés (thermiques, électriques, mécaniques) des pièces en accord avec les normes de certification propres aux différents domaines d’activité (médical, aéronautique, aérospatiale, automobile, agro-alimentaire).

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

PDF

11.01.2026 à 15:42

Groenland : rester avec les Inuit polaires

Ludovic Slimak, Archéologue, penseur et chercheur au CNRS, Université de Toulouse

En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début de l’effondrement des sociétés inuit traditionnelles.
Texte intégral (2846 mots)

En juin 1951, l’explorateur Jean Malaurie voit surgir de la toundra une immense base militaire américaine, bâtie dans le secret le plus total. Ce choc marque pour lui le début d’un basculement irréversible pour les sociétés inuit. Aujourd’hui, alors que le Groenland redevient un enjeu stratégique mondial, l’histoire semble se répéter. Rester avec les Inuit polaires, c’est refuser de parler de territoires en oubliant ceux qui les habitent.


Le 16 juin 1951, l’explorateur français Jean Malaurie progresse en traîneaux à chiens sur la côte nord-ouest du Groenland. Il est parti seul, sur un coup de tête, avec un maigre pécule du CNRS, officiellement pour travailler sur les paysages périglaciaires. En réalité, cette rencontre avec des peuples dont la relation au monde était d’une autre nature allait forger un destin singulier.

Ce jour-là, après de longs mois d’isolement parmi les Inuit, au moment critique du dégel, Malaurie avance avec quelques chasseurs. Il est épuisé, sale, amaigri. L’un des Inuit lui touche l’épaule : « Takou, regarde » Un épais nuage jaune monte au ciel. À la longue-vue, Malaurie croit d’abord à un mirage : « une cité de hangars et de tentes, de tôles et d’aluminium, éblouissante au soleil dans la fumée et la poussière […] Il y a trois mois, la vallée était calme et vide d’hommes. J’avais planté ma tente, un jour clair de l’été dernier, dans une toundra fleurie et virginale. »

Le souffle de cette ville nouvelle, écrira-t-il, « ne nous lâchera plus ». Les excavatrices tentaculaires raclent la terre, les camions vomissent les gravats à la mer, les avions virevoltent. Malaurie est projeté de l’âge de pierre à l’âge de l’atome. Il vient de découvrir la base secrète américaine de Thulé, nom de code Operation Blue Jay. L’un des projets de construction militaire les plus massifs et les plus rapides de l’histoire des États-Unis.

La base américaine de Thulé au début des années 1950. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Sous ce nom anodin se cache une logistique pharaonique. Les États-Unis redoutent une attaque nucléaire soviétique par la route polaire. En un seul été, quelque 120 navires et 12 000 hommes sont mobilisés dans une baie qui n’avait connu jusque-là que le glissement silencieux des kayaks. Le Groenland ne comptait alors qu’environ 23 000 habitants. En 104 jours, sur un sol gelé en permanence, surgit une cité technologique capable d’accueillir les bombardiers géants B-36, porteurs d’ogives nucléaires. À plus de 1 200 kilomètres au nord du cercle polaire, dans un secret presque total, les États-Unis font surgir l’une des plus grandes bases militaires jamais construites hors de leur territoire continental. Un accord de défense est signé avec le Danemark au printemps 1951, mais l’Operation Blue Jay est déjà engagée : la décision américaine a été prise dès 1950.

L’annexion de l’univers Inuit

Malaurie comprend aussitôt que la démesure de l’opération signe, de fait, une annexion de l’univers Inuit. Un monde fondé sur la vitesse, la machine, l’accumulation vient de pénétrer brutalement, aveuglément, un espace réglé par la tradition, le cycle, la chasse et l’attente.

Le geai bleu est un oiseau bruyant, agressif, extrêmement territorial. La base de Thulé se situe à mi-chemin entre Washington et Moscou par la route polaire. À l’heure des missiles hypersoniques intercontinentaux, hier soviétiques, aujourd’hui russes, c’est cette même géographie qui fonde encore l’argument du « besoin impérieux » invoqué par Donald Trump dans son désir d’annexion du Groenland.

La base de Thulé a une position stratégique entre les USA et la Russie. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Le résultat immédiat le plus tragique de l’Opération Blue Jay ne fut pas militaire, mais humain. En 1953, pour sécuriser le périmètre de la base et de ses radars, les autorités décidèrent de déplacer l’ensemble de la population inughuit locale vers Qaanaaq, à une centaine de kilomètres plus au nord. Le déplacement fut rapide, contraint, sans consultation, brisant le lien organique entre ce peuple et ses territoires de chasse ancestraux. Un “peuple racine” déraciné pour faire place à une piste d’aviation.

C’est sur ce moment de bascule foudroyante que Malaurie situe l’effondrement des sociétés traditionnelles inuit, où la chasse n’est pas une technique de survie mais un principe organisateur du monde social. L’univers inuit est une économie du sens, faite de relations, de gestes et de transmissions, qui donnent à chacun reconnaissance, rôle et place. Cette cohérence intime, qui fait la force de ces sociétés, les rend aussi extrêmement vulnérables lorsqu’un système extérieur en détruit soudainement les fondements territoriaux et symboliques.

Conséquences de l’effondrement des structures traditionnelles

Aujourd’hui, la société groenlandaise est largement sédentarisée et urbanisée. Plus du tiers des 56 500 habitants vit à Nuuk, la capitale, et la quasi-totalité de la population réside désormais dans des villes et localités côtières sédentarisées. L’habitat reflète cette transition brutale. Dans les grandes villes, une part importante de la population occupe des immeubles collectifs en béton, construits pour beaucoup dans les années 1960 et 1970, souvent vétustes et suroccupées. L’économie repose largement sur une pêche industrielle tournée vers l’exportation. La chasse et la pêche de subsistance persistent. Fusils modernes, GPS, motoneiges, connexions satellitaires accompagnent désormais les gestes anciens. La chasse demeure un repère identitaire, mais elle ne structure plus ni l’économie ni la transmission.

Les conséquences humaines de cette rupture sont massives. Le Groenland présente aujourd’hui l’un des taux de suicide les plus élevés au monde, en particulier chez les jeunes hommes inuit. Les indicateurs sociaux contemporains du Groenland - taux de suicide, alcoolisme, violences intrafamiliales – sont largement documentés. De nombreux travaux les relient à la rapidité des transformations sociales, à la sédentarisation et à la rupture des transmissions traditionnelles.

Manœuvres militaires américaines à Thulé. U.S. Army, The Big Picture -- Operation Blue Jay (1953), CC BY

Revenons à Thulé. L’immense projet secret engagé au début des années 1950 n’avait rien de provisoire. Radars, pistes, tours radio, hôpital : Thulé devient une ville stratégique totale. Pour Malaurie, l’homme du harpon est condamné. Non par une faute morale, mais par une collision de systèmes. Il met en garde contre une européanisation qui ne serait qu’une civilisation de tôle émaillée, matériellement confortable, humainement appauvrie. Le danger n’est pas dans l’irruption de la modernité, mais dans l’avènement, sans transition, d’une modernité sans intériorité, opérant sur des terres habitées comme si elles étaient vierges, répétant, à cinq siècles d’écart, l’histoire coloniale des Amériques.

Espaces et contaminations radioactives

Le 21 janvier 1968, cette logique atteint un point de non-retour. Un bombardier B-52G de l’US Air Force, engagé dans une mission permanente d’alerte nucléaire du dispositif Chrome Dome, s’écrase sur la banquise à une dizaine de kilomètres de Thulé. Il transporte quatre bombes thermonucléaires. Les explosifs conventionnels des bombes nucléaires, destinés à amorcer la réaction, détonnent à l’impact. Il n’y a pas d’explosion nucléaire, mais la déflagration disperse sur une vaste zone du plutonium, de l’uranium, de l’americium et du tritium.

Dans les jours qui suivent, Washington et Copenhague lancent Project Crested Ice, une vaste opération de récupération et de décontamination avant la fonte printanière. Environ 1 500 travailleurs danois sont mobilisés pour racler la glace et collecter la neige contaminée. Plusieurs décennies plus tard, nombre d’entre eux engageront des procédures judiciaires, affirmant avoir travaillé sans information ni protection adéquates. Ces contentieux se prolongeront jusqu’en 2018-2019, débouchant sur des indemnisations politiques limitées, sans reconnaissance juridique de responsabilité. Aucune enquête épidémiologique exhaustive ne sera jamais menée auprès des populations inuit locales.

Aujourd’hui rebaptisée Pituffik Space Base, l’ancienne base de Thulé est l’un des nœuds stratégiques majeurs du dispositif militaire américain. Intégrée à la US Space Force, elle joue un rôle central dans l’alerte antimissile et la surveillance spatiale en Arctique, sous un régime de sécurité maximale. Elle n’est pas un vestige de la guerre froide, mais un pivot actif de la géopolitique contemporaine.

Dans Les Derniers Rois de Thulé, Malaurie montre que les peuples racine n’ont jamais de place possible au cœur des considérations stratégiques occidentales. Face aux grandes manœuvres du monde, l’existence des Inuit y devient aussi périphérique que celle des phoques ou des papillons.

Les déclarations de Donald Trump ne font pas surgir un monde nouveau. Elles visent à généraliser au Groenland un système en place depuis soixante-quinze ans. Mais la position d’un homme ne saurait nous exonérer de nos responsabilités collectives. Entendre aujourd’hui que le Groenland « appartient » au Danemark et dépend de l’OTAN, sans même évoquer les Inuit, revient à répéter un vieux geste colonial : concevoir les territoires en y effaçant ceux qui l’habitent.

Les Inuit demeurent invisibles et inaudibles. Nos sociétés continuent de se représenter comme des adultes face à des populations indigènes infantilisées. Leur savoir, leurs valeurs, leurs manières sont relégués au rang de variables secondaires. La différence n’entre pas dans les catégories à partir desquelles nos sociétés savent agir.

À la suite de Jean Malaurie, mes recherches abordent l’humain par ses marges. Qu’il s’agisse des sociétés de chasseurs-cueilleurs ou de ce qu’il reste de Néandertal, lorsqu’on le déshabille de nos projections, l’Autre demeure toujours l’angle mort de notre regard. Nous ne savons pas voir comment s’effondrent des mondes entiers lorsque la différence cesse d’être pensable.

Malaurie concluait son premier chapitre sur Thulé par ces mots :

« Rien n’aura été prévu pour imaginer l’avenir avec hauteur. »

Il faut redouter par-dessus tout non la disparition brutale d’un peuple, mais sa relégation silencieuse, et radicale, dans un monde qui parle de lui sans jamais le regarder ni l’entendre.

The Conversation

Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.01.2026 à 11:49

Éditer le génome pour soigner : où en sont les thérapies issues de CRISPR et ses dérivés ?

Carole Arnold, Docteur en sciences biologiques, Université de Haute-Alsace (UHA)

L’édition du génome humain avec CRISPR-Cas9 commence à guérir des maladies jusque-là incurables. Quels sont les espoirs mais aussi les limites techniques et éthiques de ces technologies ?
Texte intégral (1677 mots)

Ce qui ressemblait hier encore à de la science-fiction est désormais une réalité clinique : l’édition du génome humain avec CRISPR-Cas9 commence à guérir des maladies jusque-là incurables. Mais où en est réellement cette révolution annoncée ? Entre premiers succès cliniques, limites techniques et questions éthiques persistantes, les thérapies issues de CRISPR dessinent un paysage où promesses et prudence sont désormais indissociables.


Nous assistons à une nette montée des espoirs pour des maladies rares, souvent « orphelines ». Par exemple, un nourrisson atteint d’un déficit métabolique rare (une maladie génétique dans laquelle une enzyme ou une voie métabolique essentielle ne fonctionne pas correctement) dû à une mutation sur le gène CPS1, a reçu en 2025 un traitement « sur mesure » utilisant la technique d’édition de base (base editing), avec des résultats biologiques encourageants.

Aujourd’hui, l’édition génique n’est plus une hypothèse lointaine, mais donne des résultats concrets et change déjà la vie de certains patients. Pour comprendre ce qui est en train de se jouer, il faut revenir sur les progrès fulgurants de ces dernières années, des premiers essais pionniers aux versions de plus en plus sophistiquées de l’édition génomique.

Développée en 2012 grâce à l’association d’une endonucléase, Cas9, et de petits ARN guides (sgRNA), cette méthode d’édition ciblée du génome a bouleversé la biologie moderne, au point de valoir à ses inventrices le prix Nobel de chimie en 2020. Depuis son invention, le CRISPR-Cas9 classique est largement utilisé dans les laboratoires, dont le nôtre, pour créer des modèles cellulaires de maladies, fabriquer des cellules qui s’illuminent sous certaines conditions ou réagissent à des signaux précis, et explorer le rôle de gènes jusqu’ici mystérieux.

Un premier système extraordinaire mais imparfait

Côté clinique, l’utilisation de CRISPR-Cas9 a ouvert des possibilités thérapeutiques inédites : modifier précisément un gène, l’inactiver ou en corriger une version défectueuse, le tout avec une simplicité et une rapidité jusqu’alors inimaginables. Mais cette puissance s’accompagnait alors de limites importantes : une précision parfois imparfaite, avec des coupures hors-cible difficiles à anticiper (des modifications accidentelles de l’ADN réalisées à des endroits non prévus du génome), une efficacité variable selon les cellules, et l’impossibilité d’effectuer des modifications plus fines sans induire de cassure double brin (une rupture affectant les deux brins d’ADN à un site génomique spécifique) potentiellement délétère.

Ces limites tiennent en grande partie au recours obligatoire aux cassures double brin et à la réparation par homologie (mode de réparation de l’ADN dans lequel la cellule s’aide d’une séquence d’ADN modèle très similaire – ou fournie par le chercheur – pour réparer une cassure double brin), un mécanisme peu fiable et inégal selon les types cellulaires. Mais la véritable rupture est apparue à partir de 2016 avec l’invention des éditeurs de base (base editors), des versions ingénieusement modifiées de CRISPR capables de changer une seule lettre de l’ADN sans provoquer de cassure double brin. Pour la première fois, il devenait possible de réécrire le génome avec une précision quasi chirurgicale, ouvrant la voie à des corrections plus sûres et plus fines que celles permises par Cas9 classique. Cependant, les base editors restaient limités : ils permettaient d’effectuer certaines substitutions de bases, mais étaient incapables de réaliser des insertions ou des modifications plus complexes du génome.

Ces limitations des base editors ont été en partie levées avec l’arrivée de leurs successeurs, les prime editors, en 2019 : ces nouvelles machines moléculaires permettent non seulement de substituer des bases, mais aussi d’insérer ou de supprimer de courtes séquences (jusqu’à plusieurs kilobases), le tout sans provoquer de cassure double brin, offrant ainsi un contrôle beaucoup plus fin sur le génome. Cette technique a été utilisée avec succès pour créer en laboratoire des modèles cellulaires et animaux de maladies génétiques, et des plantes transgéniques. Cependant, en pratique, son efficacité restait trop faible pour des traitements humains, et le résultat dépendait du système de réparation de la cellule, souvent inactif ou aléatoire. Mais en six ans, la technique a gagné en précision et polyvalence, et les études chez l’animal ont confirmé à la fois son efficacité et la réduction des effets hors-cible. Résultat : en 2025, six ans après son invention, le prime editing fait enfin son entrée en clinique, un moment que beaucoup de médecins décrivent comme un véritable tournant pour la médecine.

Des traitements sur le marché

Dès 2019, de premiers essais cliniques avec le système CRISPR-Cas9 classique (le médicament Casgevy) avaient été réalisés sur des patients atteints de β-thalassémie et drépanocytose, deux maladies génétiques de l’hémoglobine, via la correction ex vivo et la réinjection des cellules modifiées au patient. Les premiers résultats étaient prometteurs : certains patients avaient vu leur production de globules rouges anormaux corrigée de manière durable, avec une amélioration significative de leurs symptômes, après une unique injection. Le traitement Casgevy a d’ailleurs été approuvé en Europe en 2024, pour un coût d’environ 2 millions d’euros par patient.

Plus récemment, en 2025 un bébé atteint d’une mutation du gène CPS1 a été guéri grâce à l’édition de base, la version moins invasive et plus sûre de CRISPR-Cas9, mais qui reste limitée aux substitutions ponctuelles et ne permet pas toutes les modifications (pas d’insertion de séquences longues). Mais aujourd’hui, le prime editing lève les deux grands verrous du CRISPR-Cas9 classique – la nécessité de casser l’ADN et la dépendance à des mécanismes de réparation inefficaces – ouvrant la voie à une édition plus sûre, plus précise et applicable à un spectre beaucoup plus large de maladies.

Il n’est plus limité à de simples conversions ponctuelles, mais permet pour la première fois de remplacer ou restaurer un gène complet, de façon précise et contrôlée. L’année 2025 marque le premier succès clinique d’une telle thérapie – une étape historique pour l’édition génomique. En effet, le 19 mai 2025 la société Prime Medicine fondée par David Liu, inventeur du prime editing, a annoncé la première administration humaine de sa thérapie, destinée à un jeune patient atteint de granulomatose chronique, une maladie immunitaire rare liée à une mutation de l’ADN. Les premiers résultats biologiques de ce « CRISPR ultrapuissant » se sont révélés très prometteurs, ouvrant une nouvelle ère pour l’édition génomique. Il faudra toutefois patienter encore quelques mois avant de mesurer réellement le succès du prime editing : les premiers essais cliniques restent très récents et le manque de recul ne permet pas encore d’en tirer des conclusions définitives, notamment en termes de sécurité – l’absence d’effets secondaires – et de stabilité à long terme.

Ces stratégies d’édition du génome s’inscrivent pleinement dans le mouvement de la médecine personnalisée, où chaque traitement est conçu sur mesure pour un patient donné, en fonction de sa mutation spécifique – un véritable médicament « pour lui seul ». Pour la suite, des sociétés annoncent déjà vouloir continuer l’aventure avec des stratégies consistant à administrer directement les traitements dans le corps, sans passer par la modification in vitro de cellules prélevées chez le patient – une procédure complexe et onéreuse.

D’un prototype de laboratoire, on est donc passés en un temps record à une technologie polyvalente, et on entre désormais dans l’ère de la médecine personnalisée même pour des pathologies très rares. Le champ d’application s’élargit : on ne se contente plus des pathologies sanguines – des essais et projets explorent des maladies métaboliques, des infections chroniques (ex. thérapies pour hépatite B) ou des maladies héréditaires rares. De nouvelles avancées viennent constamment enrichir le potentiel de CRISPR, élargissant sans cesse ses possibilités. Tous les types de maladies ne sont pas encore éligibles : les pathologies monogéniques (mutation simple, bien identifiée) sont les plus adaptées. Pour des maladies multifactorielles, complexes, ou dépendant de l’environnement, l’édition reste beaucoup moins directe. De plus, certaines cibles (cellules non accessibles, tissus spécifiques, traitement in vivo) restent techniquement très difficiles. C’est également un défi économique, tant les traitements de médecine personnalisée restent extrêmement coûteux.

The Conversation

Carole Arnold a reçu des financements de l'INSERM, la Région Grand-Est, le FEDER et l'ANR.

PDF

07.01.2026 à 11:49

Que sont les xénobots, ces robots biologiques qui bouleversent les frontières entre vivant et machine ?

Jean-François Bodart, Professeur des Universités, en Biologie Cellulaire et Biologie du Développement, Université de Lille

Ces « robots vivants », fabriqués à partir de cellules d’amphibien, sont capables de se déplacer, de se réparer et parfois de se reproduire en assemblant de nouveaux agrégats cellulaires.
Texte intégral (2916 mots)
Un xénobot (en rouge) en forme de Pac-Man, conçu par IA, en train de se répliquer grâce à des cellules compressées en une sphère (en vert) pour reproduire sa forme. Douglas Blackiston, Sam Kriegman, CC BY-SA

Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.


Les xénobots sont des entités biologiques artificielles entièrement composées de cellules vivantes issues d’embryons de xénope (Xenopus laevis), un amphibien africain. Prélevées sur des embryons de stade précoce, ces cellules sont encore indifférenciées : elles ne se sont pas encore spécialisées pour devenir des cellules de peau ou du foie par exemple. Elles sont cependant déjà « programmées » naturellement pour devenir des cellules qui tapissent les surfaces internes et externes du corps (peau, parois des organes, vaisseaux) ou des cellules contractiles du muscle cardiaque. Les contractions de ces cellules cardiaques agissent comme de minuscules moteurs, générant une propulsion, qui permet aux xénobots de se déplacer dans un milieu aquatique.

Xénobot par microscopie
Un xénobot conçu par IA est fait de cellules de muscle cardiaque, ce qui lui permet de se déplacer. Douglas Blackiston, Sam Kriegman, CC BY

Pour fabriquer un xénobot, on isole et on assemble manuellement des groupes de cellules, comme des « briques biologiques ». À l’issue de cette phase de microchirurgie et d’organisation tridimensionnelle, les xénobots sont des entités de moins d’un millimètre de morphologies variables selon la fonction recherchée. Ils ne disposent d’aucun système nerveux ni organe sensoriel. Leur comportement est uniquement dicté par leur forme et leur composition cellulaire, toutes deux déterminées lors de leur création via des techniques de bio-ingénierie.

Bien qu’ils soient constitués uniquement de cellules vivantes, on parle de robots biologiques ou biobots, car ils obéissent à des tâches prédéfinies par l’humain : déplacement, coopération en essaim, transport d’objets, voire contrôle et assemblage d’autres xénobots à partir de cellules libres présentes autour d’eux (on parle d’autoréplication). Le terme « robot » prend ici un sens élargi, fondé sur la capacité à accomplir une tâche, en l’occurrence programmée par la forme et non par un logiciel interne.

Des robots biologiques conçus avec de l’IA

Avant de fabriquer un xénobot en laboratoire, des programmes d’intelligence artificielle (IA) sont utilisés pour tester virtuellement et simuler des milliers de formes et d’agencements cellulaires. Des algorithmes calculent quelles combinaisons fonctionneraient le mieux pour atteindre l’objectif fixé par le cahier des charges : par exemple, maximiser la vitesse de déplacement, transporter une charge ou induire de l’autoréplication.

Le lien entre l’intelligence artificielle et les cellules n’existe que lors de l’étape théorique de la conception. L’IA sert exclusivement à prédire et à optimiser la forme la plus adéquate, qui sera ensuite réalisée par microchirurgie et assemblage par des humains. Elle ne fournit aucun processus cognitif embarqué dans le xénobot, qui n’est donc pas contrôlé par une IA et ne possède aucune autonomie décisionnelle, contrairement à d’autres types de robots en développement.

Représentation schématique puis photo de microscopie d’un xénobot
À gauche, le design du xénobot, tel que proposé par un programme d’intelligence artificielle. À droite, l’organisme réel, construit à partir de cellules de peau (en vert) et de muscle cardiaque (en rouge). Douglas Blackiston, Sam Kriegman, CC BY

Les xénobots ont d’abord été conçus sous forme de sphères, de triangles ou de pyramides, des géométries simples choisies pour être faciles à construire, afin d’étudier de manière contrôlée la manière dont la forme et la disposition des cellules influencent le mouvement.

La forme en croissant, dite Pac-Man, a été identifiée par intelligence artificielle comme la plus performante pour s’autorépliquer. La réplication est cependant limitée à trois ou quatre générations en laboratoire et les xénobots se dégradent après environ dix jours, limitant leurs applications à plus long terme.

Quelles applications pour les xénobots ?

Toutes les applications envisagées demeurent pour l’instant expérimentales. Certaines fonctions (locomotion, agrégation de particules, autoréparation, réplication limitée) ont été démontrées in vitro, ce qui constitue des preuves de concept. En revanche, les usages proposés en médecine ou pour l’environnement restent pour l’instant des hypothèses extrapolées à partir de ces expériences et de modèles informatiques, sans validation chez l’animal.

Dans le domaine environnemental, grâce à leur petite taille, leur forte biodégradabilité et leur capacité à fonctionner en essaim, les xénobots pourraient être utilisés pour concentrer des microparticules ou des polluants en un même endroit, avant une étape de récupération ou de traitement adaptée, les xénobots eux-mêmes se dégradant ensuite sans laisser de trace biologique.

Des versions plus complexes de xénobots pourraient être utilisées comme marqueurs visuels de modifications dans un environnement. Un tel xénobot, exposé à un certain type de polluant, subirait un changement de structure et de couleur. Cette propriété permettrait en quelque sorte de lire ce que le xénobot a rencontré dans son environnement, à l’image d’un capteur lumineux. Cette application n’a cependant pas encore été démontrée expérimentalement.

Cinq constructions schématiques de xénobots accompagnés à chaque fois d’une photographie de l’organisme réel
Le programme d’intelligence artificielle est capable de proposer des centaines de designs possibles, chacun ayant des propriétés spécifiques pour des applications différentes. Douglas Blackiston, Sam Kriegman, CC BY

Dans le domaine médical, les xénobots pourraient être utilisés, tout comme d’autres microrobots, pour transporter localement des molécules thérapeutiques autour de cellules cibles, en réduisant ainsi la toxicité sur les tissus sains. La possibilité que les xénobots puissent servir à la livraison de molécules, comme des anticancéreux, reste cependant une extrapolation à partir d’expériences in vitro préliminaires sur d’autres microrobots.

Enfin, la recherche fondamentale pourrait bénéficier de l’existence de ces objets. L’organisation cellulaire des xénobots, hors du contexte embryonnaire, offre un modèle pour explorer la plasticité cellulaire ou tissulaire, la coordination cellulaire collective et l’auto-organisation, domaines clés pour comprendre l’évolution d’entités vivantes.

Des propriétés inattendues

Au-delà des tâches programmées, des propriétés remarquables ont été identifiées expérimentalement. Par exemple, des xénobots exposés à des vibrations sonores modifient significativement leur comportement moteur, passant d’une rotation à un déplacement linéaire rapide, une réaction absente chez les embryons de xénope au même stade.

En regroupant des cellules selon des architectures originales, les xénobots obligeraient ces cellules à reprogrammer en partie leur activité génétique : des analyses des gènes activés par ces cellules montrent l’activation de voies de stress, de réparation tissulaire ou de remodelage, qui ne sont pas utilisées de la même façon dans l’embryon intact.

De plus, dans ces expériences, plusieurs xénobots sectionnés se réparent spontanément et retrouvent un mouvement coordonné, ce qui suggère une communication à courte distance entre cellules, probablement via des signaux bioélectriques et chimiques, alors qu’aucun nerf n’est présent. Ces comportements illustrent une forte plasticité cellulaire, dont l’ampleur varie selon la manière dont les tissus ont été assemblés et les conditions de culture employées.

Derrière les promesses, des enjeux éthiques majeurs

Les promesses d’applications médicales ou environnementales ne doivent pas occulter l’ambiguïté de statut de ces entités, ni organismes naturels ni machines traditionnelles. Les xénobots sont des assemblages cellulaires conçus par l’humain appuyé par des systèmes d’intelligence artificielle. Leur déploiement reste, aujourd’hui, de l’ordre de l’hypothèse.

Plusieurs risques sont discutés par les bioéthiciens. Écologique d’abord, en cas d’acquisition par les xénobots d’une capacité de survie ou de réplication inattendue dans l’environnement. Sanitaire ensuite, en cas d’utilisation chez l’humain sans maîtrise complète de leur comportement à long terme. Un risque de détournement enfin, par exemple pour la libération ciblée d’agents toxiques.


À lire aussi : Xénobots, biobots : doit-on avoir peur des « robots vivants » ?


À cela s’ajoutent des enjeux plus symboliques : brouiller davantage la frontière entre vivant et non-vivant pourrait fragiliser certains cadres juridiques de protection du vivant, d’où les appels à un cadre réglementaire international spécifique à ces biorobots. Les promesses d’applications médicales ou dans le domaine de l’environnement ne doivent pas occulter l’ambiguïté de statut de ces entités, qui exigent une réflexion éthique et un cadre réglementaire international.

L’extension de l’utilisation de ces outils biologiques à des cellules humaines ne devra se réaliser que dans un cadre strictement contrôlé et sous supervision d’un comité éthique pluridisciplinaire. Plusieurs travaux dans ce domaine recommandent déjà des évaluations systématiques des risques (écologiques, sanitaires et de détournement), une transparence des protocoles et une implication du public dans les décisions de déploiement.

Il a été proposé de créer des instances spécifiques à cette technologie, chargées de vérifier la biodégradabilité, la limitation de la réplication, la traçabilité des essais et le respect de la dignité du vivant. Dans ce contexte, l’usage éventuel de xénobots ou d’organismes similaires dérivés de cellules humaines devrait s’inscrire dans un cadre réglementaire international inspiré de ces recommandations, avec des garde-fous comparables à ceux mis en place pour les organismes génétiquement modifiés (OGM) ou les thérapies géniques.

The Conversation

Jean-François Bodart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

07.01.2026 à 11:49

D’où venons-nous ? Un voyage de 4 milliards d’années jusqu’à l’origine de nos cellules

Purificación López García, Membre, Académie des sciences; Université Paris-Saclay

Purificación López García s’intéresse à l’origine et aux grandes diversifications du vivant sur Terre. Elle étudie la diversité, l’écologie et l’évolution des micro-organismes des trois domaines du vivant.
Texte intégral (4268 mots)

Entrée à l’Académie des sciences en janvier 2025, Purificación López García s’intéresse à l’origine et aux grandes diversifications du vivant sur Terre. Elle étudie la diversité, l’écologie et l’évolution des microorganismes des trois domaines du vivant (archées, bactéries, eucaryotes). Avec David Moreira, elle a émis une hypothèse novatrice pour expliquer l’origine de la cellule eucaryote, celle dont sont composés les plantes, les animaux et les champignons, entre autres. Elle est directrice de recherche au CNRS depuis 2007 au sein de l’unité Écologie- Société-Évolution de l’Université Paris-Saclay et a été récompensée de la médaille d’argent du CNRS en 2017. Elle a raconté son parcours et ses découvertes à Benoît Tonson, chef de rubrique Science et Technologie.


The Conversation : Vous vous intéressez à l’origine du vivant. Vivant, que l’on classifie en trois grands domaines : les eucaryotes, des organismes dont les cellules ont un noyau, comme les humains ou les plantes par exemple ; les bactéries, qui ne possèdent pas de noyau, et un troisième, sans doute le moins connu, les archées. Pouvez-vous nous les présenter ?

Purificación López García : Ce domaine du vivant a été mis en évidence par Carl Woese à la fin des années 1970. Quand j’ai commencé mes études, à la fin des années 1980, cette découverte ne faisait pas consensus, il y avait encore beaucoup de résistance de la part de certains biologistes à accepter un troisième domaine du vivant. Ils pensaient qu’il s’agissait tout simplement de bactéries. En effet, comme les bactéries, les archées sont unicellulaires et n’ont pas de noyau. Il a fallu étudier leurs gènes et leurs génomes pour montrer que les archées et les bactéries étaient très différentes entre elles et même que les archées étaient plus proches des eucaryotes que des bactéries au niveau de leur biologie moléculaire.

Comment Carl Woese a-t-il pu classifier le vivant dans ces trois domaines ?

P. L. G. : On est donc à la fin des années 1970. C’est l’époque où commence à se développer la phylogénie moléculaire. L’idée fondatrice de cette discipline est qu’il est possible d’extraire des informations évolutives à partir des gènes et des protéines codées dans le génome de tous les êtres vivants. Certains gènes sont conservés chez tous les organismes parce qu’ils codent des ARN ou des protéines dont la fonction est essentielle à la cellule. Toutefois, la séquence en acides nucléiques (les lettres qui composent l’ADN : A, T, C et G ; U à la place de T dans l’ARN) et donc celle des acides aminés des protéines qu’ils codent (des combinaisons de 20 lettres) va varier. En comparant ces séquences, on peut déterminer si un organisme est plus ou moins proche d’un autre et classifier l’ensemble des organismes en fonction de leur degré de parenté évolutive.

Carl Woese est le premier à utiliser cette approche pour classifier l’ensemble du vivant : de la bactérie à l’éléphant, en passant par les champignons… Il va s’intéresser dans un premier temps non pas à l’ADN mais à l’ARN et, plus précisément, à l’ARN ribosomique. Le ribosome est la structure qui assure la traduction de l’ARN en protéines. On peut considérer que cette structure est la plus conservée dans tout le vivant : elle est présente dans toutes les cellules.

La classification du vivant en trois grands domaines selon Carl Woese. CC BY

Avec ses comparaisons des séquences d’ARN ribosomiques, Woese montre deux choses : que l’on peut établir un arbre universel du vivant en utilisant des séquences moléculaire et qu’un groupe de séquences d’organismes considérés comme de bactéries « un peu bizarres », souvent associées à des milieux extrêmes, forment une clade (un groupe d’organismes) bien à part. En étudiant leur biologie moléculaire et, plus tard, leurs génomes, les archées s’avéreront en réalité beaucoup plus proches des eucaryotes, tout en ayant des caractéristiques propres, comme la composition unique des lipides de leurs membranes.

Aujourd’hui, avec les progrès des méthodes moléculaires, cette classification en trois grands domaines reste d’actualité et est acceptée par l’ensemble de la communauté scientifique. On se rend compte aussi que la plupart de la biodiversité sur Terre est microbienne.

Vous vous êtes intéressée à ces trois grands domaines au fur et à mesure de votre carrière…

P. L. G. : Depuis toute petite, j’ai toujours été intéressée par la biologie. En démarrant mes études universitaires, les questions liées à l’évolution du vivant m’ont tout de suite attirée. Au départ, je pensais étudier la biologie des animaux, puis j’ai découvert la botanique et enfin le monde microbien, qui m’a complètement fascinée. Toutes les formes de vie m’intéressaient, et c’est sûrement l’une des raisons pour lesquelles je me suis orientée vers la biologie marine pendant mon master. Je pouvais travailler sur un écosystème complet pour étudier à la fois les microorganismes du plancton, mais aussi les algues et les animaux marins.

Puis, pendant ma thèse, je me suis spécialisée dans le monde microbien et plus précisément dans les archées halophiles (celles qui vivent dans des milieux très concentrés en sels). Les archées m’ont tout de suite fascinée parce que, à l’époque, on les connaissait comme des organismes qui habitaient des environnements extrêmes, très chauds, très salés, très acides. Donc, c’était des organismes qui vivaient aux limites du vivant. Les étudier, cela permet de comprendre jusqu’où peut aller la vie, comment elle peut évoluer pour coloniser tous les milieux, même les plus inhospitaliers.

Cette quête de l’évolution que j’avais toujours à l’esprit a davantage été nourrie par des études sur les archées hyperthermophiles lors de mon postdoctorat, à une époque où une partie de la communauté scientifique pensait que la vie aurait pu apparaître à proximité de sources hydrothermales sous-marines. J’ai orienté mes recherches vers l’origine et l’évolution précoce de la vie : comment est-ce que la vie est apparue et s’est diversifiée ? Comment les trois domaines du vivant ont-ils évolué ?

Pour répondre à ces questions, vous avez monté votre propre laboratoire. Avec quelle vision ?

P. L. G. : Après un bref retour en Espagne, où j’ai commencé à étudier la diversité microbienne dans le plancton océanique profond, j’ai monté une petite équipe de recherche à l’Université Paris-Sud. Nous nous sommes vraiment donné la liberté d’explorer la diversité du vivant avec les outils moléculaires disponibles, mais en adoptant une approche globale, qui prend en compte les trois domaines du vivant. Traditionnellement, les chercheurs se spécialisent : certains travaillent sur les procaryotes – archées ou bactéries –, d’autres sur les eucaryotes. Les deux mondes se croisent rarement, même si cela commence à changer.

Cette séparation crée presque deux cultures scientifiques différentes, avec leurs concepts, leurs références et même leurs langages. Pourtant, dans les communautés naturelles, cette frontière n’existe pas : les organismes interagissent en permanence. Ils échangent, collaborent, entrent en symbiose mutualiste ou, au contraire, s’engagent dans des relations de parasitisme ou de compétition.

Nous avons décidé de travailler simultanément sur les procaryotes et les eucaryotes, en nous appuyant d’abord sur l’exploration de la diversité. Cette étape est essentielle, car elle constitue la base qui permet ensuite de poser des questions d’écologie et d’évolution.

L’écologie s’intéresse aux relations entre organismes dans un écosystème donné. Mais mes interrogations les plus profondes restent largement des questions d’évolution. Et l’écologie est indispensable pour comprendre ces processus évolutifs : elle détermine les forces sélectives et les interactions quotidiennes qui façonnent les trajectoires évolutives, en favorisant certaines tendances plutôt que d’autres. Pour moi, les deux dimensions – écologique et évolutive – sont intimement liées, surtout dans le monde microbien.

Sur quels terrains avez-vous travaillé ?

P. L. G. : Pour approfondir ces questions, j’ai commencé à travailler dans des environnements extrêmes, des lacs de cratère mexicains au lac Baïkal en Sibérie, du désert de l’Atacama et l’Altiplano dans les Andes à la dépression du Danakil en Éthiopie, et en m’intéressant en particulier aux tapis microbiens. À mes yeux, ces écosystèmes microbiens sont les véritables forêts du passé. Ce type de systèmes a dominé la planète pendant l’essentiel de son histoire.

Purificación López García dans le Salar de Quisquiro (Chili), tenant un tapis microbien. Ana Gutiérrez-Preciado, Fourni par l'auteur

La vie sur Terre est apparue il y a environ 4 milliards d’années, alors que notre planète en a environ 4,6. Les eucaryotes, eux, n’apparaissent qu’il y a environ 2 milliards d’années. Les animaux et les plantes ne se sont diversifiés qu’il y a environ 500 millions d’années : autant dire avant-hier à l’échelle de la planète.

Pendant toute la période qui précède l’émergence des organismes multicellulaires complexes, le monde était entièrement microbien. Les tapis microbiens, constitués de communautés denses et structurées, plus ou moins épaisses, formaient alors des écosystèmes très sophistiqués. Ils étaient, en quelque sorte, les grandes forêts primitives de la Terre.

Étudier aujourd’hui la diversité, les interactions et le métabolisme au sein de ces communautés – qui sont devenues plus rares car elles sont désormais en concurrence avec les plantes et les animaux – permet de remonter le fil de l’histoire évolutive. Ces systèmes nous renseignent sur les forces de sélection qui ont façonné la vie dans le passé ainsi que sur les types d’interactions qui ont existé au cours des premières étapes de l’évolution.

Certaines de ces interactions ont d’ailleurs conduit à des événements évolutifs majeurs, comme l’origine des eucaryotes, issue d’une symbiose entre procaryotes.

Comment ce que l’on observe aujourd’hui peut-il nous fournir des informations sur le passé alors que tout le vivant ne cesse d’évoluer ?

P. L. G. : On peut utiliser les communautés microbiennes actuelles comme des analogues de communautés passées. Les organismes ont évidemment évolué – ils ne sont plus les mêmes –, mais nous savons deux choses essentielles. D’abord, les fonctions centrales du métabolisme sont bien plus conservées que les organismes qui les portent. En quelque sorte, il existe un noyau de fonctions fondamentales. Par exemple, il n’existe que très peu de manières de fixer le CO₂ présent dans l’atmosphère. La plus connue est le cycle de Calvin associé à la photosynthèse oxygénique de cyanobactéries des algues et des plantes. Ce processus permet d’utiliser le carbone du CO₂ pour produire des molécules organiques plus ou moins complexes indispensables à tout organisme.

On connaît six ou sept grandes voies métaboliques de fixation du carbone inorganique, qui sont en réalité des variantes les unes des autres. La fixation du CO₂, c’est un processus absolument central pour tout écosystème. Certains organismes, dont les organismes photosynthétiques, fixent le carbone. Ce sont les producteurs primaires.

Ensuite vient toute la diversification d’organismes et des voies qui permettent de dégrader et d’utiliser cette matière organique produite par les fixateurs de carbone. Et là encore, ce sont majoritairement les microorganismes qui assurent ces fonctions. Sur Terre, ce sont eux qui pilotent les grands cycles biogéochimiques. Pas tellement les plantes ou les animaux. Ces cycles existaient avant notre arrivée sur la planète, et nous, animaux comme plantes, ne savons finalement pas faire grand-chose à côté de la diversité métabolique microbienne.

Les procaryotes – archées et bactéries – possèdent une diversité métabolique bien plus vaste que celle des animaux ou des végétaux. Prenez la photosynthèse : elle est héritée d’un certain type de bactéries que l’on appelle cyanobactéries. Ce sont elles, et elles seules, chez qui la photosynthèse oxygénique est apparue et a évolué (d’autres bactéries savent faire d’autres types de photosynthèse dites anoxygéniques). Et cette innovation a été déterminante pour notre planète : avant l’apparition des cyanobactéries, l’atmosphère ne contenait pas d’oxygène. L’oxygène atmosphérique actuel n’est rien d’autre que le résultat de l’accumulation d’un déchet de cette photosynthèse.

Les plantes et les algues eucaryotes, elles, n’ont fait qu’hériter de cette capacité grâce à l’absorption d’une ancienne cyanobactérie capable de faire la photosynthèse (on parle d’endosymbiose). Cet épisode a profondément marqué l’évolution des eucaryotes, puisqu’il a donné naissance à toutes les lignées photosynthétiques – algues et plantes.

À l’instar de la fixation du carbone lors de la photosynthèse, ces voies métaboliques centrales sont beaucoup plus conservées que les organismes qui les portent. Ces organismes, eux, évoluent en permanence, parfois très rapidement, pour s’adapter aux variations de température, de pression, aux prédateurs, aux virus… Pourtant, malgré ces changements, les fonctions métaboliques centrales restent préservées.

Et ça, on peut le mesurer. Lorsque l’on analyse la diversité microbienne dans une grande variété d’écosystèmes, on observe une diversité taxonomique très forte, avec des différences d’un site à l’autre. Mais quand on regarde les fonctions de ces communautés, de grands blocs de conservation apparaissent. En appliquant cette logique, on peut donc remonter vers le passé et identifier des fonctions qui étaient déjà conservées au tout début de la vie – des fonctions véritablement ancestrales. C’est un peu ça, l’idée sous-jacente.

Finalement, jusqu’où peut-on remonter ?

P. L. G. : On peut remonter jusqu’à un organisme disons « idéal » que l’on appelle le Last Universal Common Ancestor, ou LUCA – le dernier ancêtre commun universel des organismes unicellulaires. Mais on sait que cet organisme était déjà très complexe, ce qui implique qu’il a forcément été précédé d’organismes beaucoup plus simples.

On infère l’existence et les caractéristiques de cet ancêtre par comparaison : par la phylogénie moléculaire, par l’étude des contenus en gènes et des propriétés associées aux trois grands domaines du vivant. En réalité, je raisonne surtout en termes de deux grands domaines, puisque l’on sait aujourd’hui que les eucaryotes dérivent d’une symbiose impliquant archées et bactéries. Le dernier ancêtre commun, dans ce cadre, correspondrait donc au point de bifurcation entre les archées et les bactéries.

À partir de là, on peut établir des phylogénies, construire des arbres, et comparer les éléments conservés entre ces deux grands domaines procaryotes. On peut ainsi inférer le « dénominateur commun », celui qui devait être présent chez cet ancêtre, qui était probablement déjà assez complexe. Les estimations actuelles évoquent un génome comprenant peut-être entre 2 000 et 4 000 gènes.

Cela nous ramène à environ 4 milliards d’années. Vers 4,4 milliards d’années, on commence à voir apparaître des océans d’eau liquide et les tout premiers continents. C’est à partir de cette période que l’on peut vraiment imaginer le développement de la vie. On ne sait pas quand exactement, mais disons qu’autour de 4-4,2 milliards d’années, c’est plausible. Et on sait que, à 3,5 milliards d’années, on a déjà des fossiles divers de tapis microbiens primitifs (des stromatolites fossiles).

Et concernant notre groupe, les eucaryotes, comment sommes-nous apparus ?

P. L. G. : Nous avons proposé une hypothèse originale en 1998 : celle de la syntrophie. Pour bien la comprendre, il faut revenir un peu sur l’histoire des sciences, notamment dans les années 1960, quand Lynn Margulis, microbiologiste américaine, avance la théorie endosymbiotique. Elle propose alors que les chloroplastes des plantes et des algues – les organites qui permettent de réaliser la photosynthèse dans les cellules de plantes – dérivent d’anciennes bactéries, en particulier de cyanobactéries, qu’on appelait à l’époque « algues vert-bleu ». Et elle avance aussi que les mitochondries, l’organite eucaryote où se déroule la respiration et qui nous fournit notre énergie, proviennent elles aussi d’anciennes bactéries endosymbiotes – un endosymbiote étant un organisme qui vit à l’intérieur des cellules d’un autre.

Ces idées, qui avaient été déjà énoncées au début du vingtième siècle et que Margulis a fait revivre, ont été très débattues. Mais à la fin des années 1970, avec les premiers arbres phylogénétiques, on a pu démontrer que mitochondries et chloroplastes dérivent effectivement d’anciennes bactéries endosymbiotes : les cyanobactéries pour les chloroplastes, et un groupe que l’on appelait autrefois les « bactéries pourpres » pour les mitochondries.

L’hypothèse dominante, à cette époque, pour expliquer l’origine des eucaryotes, repose sur un scénario dans lequel un dernier ancêtre commun se diversifie en trois grands groupes ou domaines : les bactéries, les archées et les eucaryotes. Les archées sont alors vues comme le groupe-frère des eucaryotes, avec une biologie moléculaire et des protéines conservées qui se ressemblent beaucoup. Dans ce modèle, la lignée proto-eucaryote qui conduira aux eucaryotes et qui développe toutes les caractéristiques des eucaryotes, dont le noyau, acquiert assez tardivement la mitochondrie via l’endosymbiose d’une bactérie, ce qui lancerait la diversification des eucaryotes.

Sauf que, dans les années 1990, on commence à se rendre compte que tous les eucaryotes possèdent ou ont possédé des mitochondries. Certains groupes semblaient en être dépourvus, mais on découvre qu’ils les ont eues, que ces mitochondries ont parfois été extrêmement réduites ou ont transféré leurs gènes au noyau. Cela signifie que l’ancêtre de tous les eucaryotes avait déjà une mitochondrie. On n’a donc aucune preuve qu’une lignée « proto-eucaryote » sans mitochondrie ait jamais existé.

C’est dans ce contexte que de nouveaux modèles fondés sur la symbiose émergent. On savait déjà que les archées et les eucaryotes partageaient des similarités importantes en termes de protéines impliquées dans des processus informationnels (réplication de l’ADN, transcription, traduction de l’ARN aux protéines). Nous avons proposé un modèle impliquant trois partenaires : une bactérie hôte (appartenant aux deltaprotéobactéries), qui englobe une archée prise comme endosymbionte, cette archée devenant le futur noyau. Les gènes eucaryotes associés au noyau seraient ainsi d’origine archéenne.

Puis une seconde endosymbiose aurait eu lieu, avec l’acquisition d’une autre bactérie (une alphaprotéobactérie) : l’ancêtre de la mitochondrie, installée au sein de la bactérie hôte.

Toutefois, à l’époque, ces modèles fondés sur la symbiose n’étaient pas considérés très sérieusement. La donne a changé avec la découverte, il y a une dizaine d’années, d’un groupe particulier d’archées, appelées Asgard, qui partagent beaucoup de gènes avec les eucaryotes, qui sont en plus très similaires. Les arbres phylogénétiques faits avec des protéines très conservées placent les eucaryotes au sein de ces archées. Cela veut dire que les eucaryotes ont une origine symbiogénétique : ils dérivent d’une fusion symbiotique impliquant au minimum une archée (de type Asgard) et une alpha-protéobactérie, l’ancêtre de la mitochondrie. Mais la contribution d’autres bactéries, notamment des deltaprotéobactéries, des bactéries sulfato-réductrices avec lesquelles les archées Asgard établissent des symbioses syntrophiques dans l’environnement, n’est pas exclue.

Aujourd’hui, l’eucaryogénèse est un sujet étudié activement. La découverte des archées Asgard a renforcé la vraisemblance de ce type de modèle symbiogénétique. Des chercheurs qui considéraient ces idées comme trop spéculatives – parce qu’on ne pourra jamais avoir de preuve directe d’un événement datant d’il y a 2 milliards d’années – s’y intéressent désormais. Tous ceux qui travaillent sur la biologie cellulaire des eucaryotes se posent la question, parce qu’on peut aujourd’hui remplacer certaines protéines ou homologues eucaryotes par leurs variantes Asgard… et ça fonctionne.

The Conversation

Purificación López García ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

06.01.2026 à 16:56

Quelle est la différence entre matière noire et antimatière ?

Dipangkar Dutta, Professor of Nuclear Physics, Mississippi State University

La matière ordinaire – qui constitue tout ce que nous voyons et touchons – n’est pas le seul type de matière présent dans l’Univers.
Texte intégral (2160 mots)
Les galaxies spirales, comme ici Messier 77, ont aidé les astronomes à découvrir l’existence de la matière noire. NASA, ESA & A. van der Hoeven, CC BY

« Qu’est-ce que la matière noire et qu’est-ce que l’antimatière ? Sont-elles la même chose ou différentes ? » Cet article est issu de notre série pour les plus jeunes lecteurs, Curious Kids, et répond à la question de Namrata, 13 ans, Ghaziabad, Inde.


Les minions dont parle l’auteur de ce texte sont des personnages farceurs et burlesques issus des films Moi, moche et méchant.

Imaginez un jeu vidéo d’aventure avec votre héros préféré comme personnage principal. Un autre personnage, son jumeau miroir, apparaît de temps en temps et fait exploser tout ce qu’il touche. Pour corser encore le tout, le jeu inclut une ruche mystérieuse peuplée de minions cachés à chaque coin, qui changent les règles du jeu sans jamais se montrer.

Si l’on considère ces personnages comme des types de matière, ce jeu vidéo représente en gros le fonctionnement de notre Univers.

Le héros est la matière ordinaire, c’est-à-dire tout ce que nous pouvons voir autour de nous. L’antimatière est le jumeau miroir explosif que les scientifiques arrivent à comprendre, mais plus difficilement à trouver. Et la matière noire représente les minions invisibles : elle est partout, mais nous ne pouvons pas la voir, et les scientifiques ignorent de quoi elle est faite.

Antimatière : le jumeau miroir

Toute la matière ordinaire autour de vous est constituée de blocs de base appelés atomes. Les atomes possèdent des particules chargées positivement appelées protons entourées de minuscules électrons chargés négativement.

On peut considérer l’antimatière comme le jumeau de la matière ordinaire, mais avec des charges opposées.

Toutes les particules, comme les protons et les électrons, ont des « frères et sœurs » d’antimatière. Les électrons ont des positrons, qui sont des anti-électrons, tandis que les protons ont des antiprotons. Les antiprotons et les positrons forment des atomes d’antimatière, ou anti-atomes. Ils ressemblent à des images miroirs, mais avec leurs charges électriques inversées. Quand la matière et l’antimatière se rencontrent, elles se détruisent mutuellement dans un éclair de lumière et d’énergie avant de disparaître.

Heureusement, l’antimatière est très rare dans notre Univers. Mais certains atomes de matière ordinaire, comme le potassium, peuvent se désintégrer et produire de l’antimatière. Par exemple, lorsque vous mangez une banane ou tout aliment riche en potassium, vous consommez de très petites quantités de ces atomes producteurs d’antimatière. Mais la quantité est trop faible pour avoir un effet sur votre santé.

L’antimatière a été découverte il y a presque cent ans. Aujourd’hui, les scientifiques peuvent créer, stocker et étudier l’antimatière en laboratoire. Ils en comprennent très bien les propriétés. Les médecins l’utilisent même pour les PET-Scan. Ils injectent de toutes petites quantités d’atomes producteurs d’antimatière dans le corps et, au fur et à mesure que ces atomes circulent, le scanner prend des images des éclairs de lumière produits par l’annihilation de l’antimatière et de la matière dans le corps. Ce processus permet aux médecins de voir ce qui se passe à l’intérieur du corps.

Les scientifiques ont également découvert qu’à la naissance de l’Univers, il y avait des quantités presque égales de matière et d’antimatière. Elles se sont rencontrées et annihilées. Heureusement, une très petite quantité de matière ordinaire a survécu pour former les étoiles, les planètes et nous tous.

Si la matière et l’antimatière s’annihilent en entrant en contact, et qu’il y avait autrefois des quantités égales de chacune, comment se fait-il qu’il y ait aujourd’hui beaucoup plus de matière que d’antimatière dans l’Univers ?

Matière noire : les minions invisibles

La matière noire est beaucoup plus mystérieuse. Avez-vous déjà tourné très vite sur un tourniquet ? Si oui, vous savez combien il est difficile de rester dessus sans tomber, surtout si vous êtes seul sur le tourniquet.

Maintenant, imaginez qu’il y ait plein de minions invisibles sur ce tourniquet avec vous. Vous ne pouvez ni les voir ni les toucher, mais ils vous retiennent et vous empêchent de vous envoler quand il tourne à toute vitesse. Vous savez qu’ils sont là parce que le tourniquet est plus lourd et difficile à faire tourner qu’il n’y paraît. Les minions ne jouent pas et ne parlent à personne ; ils restent simplement là, ajoutant leur poids à l’ensemble.

Il y a environ cinquante ans, l’astronome Vera Rubin a découvert un mystère similaire dans les galaxies spirales. Elle a observé des galaxies en rotation, qui sont comme des tourniquets cosmiques, et a remarqué quelque chose d’étrange : les étoiles situées à l’extérieur de ces galaxies tournaient beaucoup plus vite qu’elles ne devraient. Elles auraient dû être projetées dans l’espace comme des étincelles d’un feu d’artifice. Mais ce n’était pas le cas.

C’était comme regarder des enfants tourner à une vitesse incroyable sur un tourniquet mais rester parfaitement en place.

L’astronome Vera Rubin a découvert, en observant les galaxies spirales, ce que les scientifiques expliquent aujourd’hui par la matière noire. Carnegie Institution for Science, CC BY

La seule explication ? Il doit exister un océan de « choses » invisibles qui maintiennent tout en place grâce à leur gravité supplémentaire. Les scientifiques ont appelé cette matière mystérieuse « matière noire ».

Depuis, les astronomes ont observé des comportements étranges similaires dans tout l’Univers. Les galaxies au sein de grands amas se déplacent de manière inattendue. La lumière est plus courbée autour des galaxies qu’elle ne devrait l’être. Les galaxies restent bien plus solidaires que ce que la matière visible seule pourrait expliquer.

C’est comme si notre terrain de jeu cosmique avait des balançoires qui bougent toutes seules et des tape-culs qui basculent alors que personne n’est assis dessus.

La matière noire n’est pour l’instant qu’un nom provisoire, en attendant que les scientifiques découvrent ce que c’est réellement. Depuis cinquante ans, de nombreux chercheurs mènent des expériences pour détecter la matière noire ou la produire en laboratoire. Mais jusqu’à présent, ils sont restés bredouilles.

Nous ne savons pas ce qu’est la matière noire, mais elle est partout. Il pourrait s’agir de particules que les scientifiques n’ont pas encore découvertes ou de quelque chose de complètement inattendu. Mais les astronomes peuvent constater, en observant la vitesse de rotation des galaxies, qu’il y a environ cinq fois plus de matière noire que toute la matière ordinaire de l’Univers.

The Conversation

Dipangkar Dutta bénéficie d'un financement du ministère américain de l'Énergie et de la National Science Foundation.

PDF

05.01.2026 à 15:44

Une nouvelle étude met en lumière le rôle du climat dans la disparition de l’homme de Florès

Nick Scroxton, Research Fellow, Palaeoclimate, National University of Ireland Maynooth

Gerrit (Gert) van den Bergh, Researcher in Palaeontology, University of Wollongong

Michael Gagan, Honorary Professor, Palaeoclimate, University of Wollongong; The University of Queensland

Mika Rizki Puspaningrum, Researcher in Palaeontology, Bandung Institute of Technology, Institut Teknologi Bandung

Pendant un million d’années, l’un des derniers cousins de l’humanité a vécu sur une île en Indonésie. Pourquoi a-t-il disparu ? De nouvelles recherches mettent en avant le rôle du climat.
Texte intégral (1980 mots)
Crâne d’_Homo Floresiensis_ dont le cerveau atteint un volume de 380 à 400 cm³. Wikimédia Commons, CC BY-SA

L’analyse de stalagmites et de fossiles d’éléphants pygmées révèle comment le climat et la présence d’eau douce ont façonné la vie et la survie de l’homme de Florès.


Il y a environ 50 000 ans, l’humanité a perdu l’un de ses derniers cousins hominines survivants, Homo floresiensis (ou homme de Florès, également connu sous le nom de « Hobbit » en raison de sa petite taille). La cause de sa disparition, après plus d’un million d’années passées sur l’île volcanique isolée de Florès, en Indonésie, demeure une énigme de longue date.

De nouvelles preuves suggèrent toutefois qu’une période de sécheresse extrême, commencée il y a environ 61 000 ans, pourrait avoir contribué à la disparition des hommes de Florès. Notre nouvelle étude, publiée le 8 décembre dans Communications Earth & Environment, révèle une histoire d’essor et d’effondrement écologique. Nous avons établi le relevé climatique le plus détaillé à ce jour du site où vivaient autrefois ces anciens hominines.

Une île aux grottes profondes

La découverte d’Homo floresiensis en 2003 a bouleversé notre conception de ce qui fait de nous des êtres humains. Ces hominines de petite taille et au cerveau réduit, qui ne mesuraient que 1,1 m, fabriquaient des outils en pierre. Contre toute attente, ils ont atteint l’île de Florès, apparemment sans disposer de technologie maritime.

Les ossements et outils en pierre d’H. floresiensis ont été retrouvés dans la grotte de Liang Bua, dissimulée dans une petite vallée des hauteurs de l’île. Ces vestiges datent d’une période comprise entre 190 000 et 50 000 ans.

Aujourd’hui, Florès connaît un climat de mousson, avec de fortes pluies pendant les étés humides (principalement de novembre à mars) et des précipitations plus légères durant les hivers plus secs (de mai à septembre). Cependant, durant la dernière période glaciaire, la quantité de pluie et le moment où elle tombait variaient considérablement.

Pour comprendre à quoi ressemblaient ces pluies, notre équipe s’est tournée vers une grotte située à 700 mètres en amont de Liang Bua, appelée Liang Luar. Par pur hasard, au fond de cette grotte se trouvait une stalagmite qui s’est formée précisément pendant la période correspondant à la disparition d’H. floresiensis. En grandissant couche après couche grâce à l’eau qui goutte du plafond, sa composition chimique variable enregistre l’histoire d’un climat en mutation.

Les paléoclimatologues disposent de deux principaux outils géochimiques pour reconstituer à partir des stalagmites les précipitations passées. En observant une mesure spécifique de l’oxygène, appelée δ18O, ils peuvent identifier les variations d’intensité de la mousson. Parallèlement, le rapport entre le magnésium et le calcium permet d’estimer la quantité totale de précipitations.

Nous avons combiné ces deux types de mesures sur les mêmes échantillons, les avons précisément datés, puis avons reconstitué les niveaux de précipitations estivales, hivernales et annuelles. L’ensemble offre un aperçu inédit de la variabilité saisonnière du climat.

Nous avons identifié trois grandes phases climatiques. Entre 91 000 et 76 000 ans, le climat était plus humide qu’aujourd’hui tout au long de l’année. De 76 000 à 61 000 ans, la mousson est devenue très nettement saisonnière, avec des étés plus pluvieux et des hivers plus secs. Enfin, entre 61 000 et 47 000 ans, le climat s’est considérablement asséché durant l’été, à l’image de celui que connaît aujourd’hui le sud du Queensland en Australie.

Les « Hobbits » suivaient leurs proies

Nous disposions donc d’un relevé précis des grands changements climatiques, mais restait à savoir quelle en avait été la réponse écologique, s’il y en avait eu une. Il nous fallait établir une chronologie précise des fossiles d’H. floresiensis retrouvés à Liang Bua.

La solution est venue de manière inattendue grâce à notre analyse du δ18O contenu dans l’émail des dents fossilisées de Stegodon florensis insularis, un lointain parent pygmée disparu des éléphants modernes. Ces jeunes éléphants pygmées figuraient parmi les proies préférées des « Hobbits », comme le montrent les traces de découpe sur les os retrouvés à Liang Bua.

Fait remarquable, les variations du δ18O observées dans la stalagmite de Liang Luar correspondaient parfaitement à celles relevées dans les dents provenant de couches sédimentaires de plus en plus profondes à Liang Bua. Cette concordance nous a permis de dater avec précision les fossiles de Stegodon ainsi que les restes associés d’Homo floresiensis.

La chronologie ainsi affinée montre qu’environ 90 % des restes d’éléphants pygmées datent de la période comprise entre 76 000 et 61 000 ans, soit une période au climat fortement saisonnier, ni trop humide ni trop sec – une sorte de climat idéal. Ce contexte semble avoir offert des conditions favorables au pâturage des éléphants pygmées et à leur chasse par Homo floresiensis. Mais les deux espèces ont presque disparu lorsque le climat est devenu plus sec.

En bas, une photo d’une stalagmite taillée et polie avec les emplacements d’échantillonnage indiqués par des carrés bleus. Au-dessus, un graphique combinant courbe et histogramme montre la fréquence des fossiles de Stegodon. Les données s’accordent clairement avec une période d’étés humides
Coupe transversale de la stalagmite précisément datée utilisée dans cette étude, montrant ses couches de croissance. Le graphique illustre la chronologie affinée des fossiles de Stegodon dans deux secteurs de fouille à Liang Bua. Mike Gagan

Le recul des précipitations, des éléphants pygmées et des « Hobbits » au même moment indique que la raréfaction des ressources a joué un rôle crucial dans ce qui ressemble à un abandon progressif de Liang Bua.

Avec l’assèchement du climat, la principale source d’eau en saison sèche, le petit fleuve Wae Racang, a peut-être diminué au point de ne plus suffire, privant les Stegodon d’eau douce. Les animaux ont alors pu migrer hors de la région, Homo floresiensis les suivant.

Un volcan impliqué ?

Les derniers restes fossiles de Stegodon et les outils en pierre de Liang Bua sont recouverts d’une épaisse couche de cendres volcaniques, datée d’environ 50 000 ans. On ne sait pas encore si une éruption volcanique à proximité a constitué « la goutte d’eau » dans le déclin des hommes de Florès de Liang Bua.

Les premières traces archéologiques attribuées à Homo sapiens se trouvent au-dessus de cette couche de cendres. Même s’il est impossible de savoir si Homo sapiens et Homo floresiensis se sont croisés, de nouvelles preuves archéologiques et génétiques indiquent que les Homo sapiens parcouraient déjà l’Indonésie, sautant d’île en île jusqu’au supercontinent de Sahul, il y a au moins 60 000 ans.

Si Homo floresiensis a été contraint par des pressions écologiques de quitter leur refuge pour se rapprocher de la côte, il est possible qu’ils aient croisé la route des humains modernes. Et si tel était le cas, la concurrence, les maladies, voire la prédation, auraient pu devenir des facteurs déterminants.

Quelle que soit la cause ultime, notre étude fournit un cadre pour de futures recherches sur l’extinction de l’emblématique Homo floresiensis dans le contexte de grands changements climatiques. Le rôle fondamental de la disponibilité en eau douce dans le déclin de l’un de nos cousins humains rappelle que l’histoire de l’humanité est une expérience fragile de survie, et que les variations des précipitations peuvent avoir des conséquences profondes.

The Conversation

Nick Scroxton a reçu des financements de de la Sustainable Energy Authority of Ireland et a réalisé ce travail tout en bénéficiant d’un financement de l’Australian Research Council.

Gerrit van den Bergh a reçu des financements de l’Australian Research Council.

Michael Gagan a reçu des financements de l’Australian Research Council.

Mika Rizki Puspaningrum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

04.01.2026 à 14:03

Ce que révèle une vaste enquête citoyenne sur la qualité de l’eau en France

Nicolas Dietrich, Professeur des universités en génie des procédés, INSA Toulouse

Johanne Teychené, Maitre de conférences en génie des procédés, INSA Toulouse

Nathalie Clergerie, Ingénieure d'études INSA toulouse

En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français.
Texte intégral (2453 mots)
Partout en France, des citoyens ont participé à la recherche scientifique en prélevant et testant la qualité de l’eau de leur région. Marielle Duclos/La Grande Synchr'Eau, Collectif Hodos, Fourni par l'auteur

En 2023, des milliers de citoyens ont pris part à un projet de recherche participative visant à cartographier la qualité de l’eau sur le territoire français. Une démarche qui en apprend beaucoup aux chercheurs et qui sensibilise les bénévoles.


Le 29 septembre 2023, partout en France, des milliers de personnes ont endossé, le temps d’un week-end, la casquette du chercheur. Armés de leur smartphone, d’une bandelette colorée et d’une fiche d’instructions, ils se sont lancés dans une expérience collective inédite : mesurer la qualité des eaux de France dans les rivières, les fontaines, les lacs, les puits et les flaques. En quelques jours, près de 800 échantillons ont été collectés et plus de 20 000 données ont été mesurées.

Carte de France indiquant où les mesures ont été effectuées
Localisation des mesures réalisées dans le cadre de la Grande Synchr’Eau. La Grande Syncr’Eau, Fourni par l'auteur

Derrière ces chiffres impressionnants se cache une aventure humaine et scientifique : la Grande Synchr’Eau, une initiative massive de science participative récompensée par l’une des médailles de la médiation du CNRS en 2025 pour son originalité et son impact sur la société. Cette expérience participative inédite a permis de révéler la diversité chimique des eaux françaises.

Le principe est simple : tremper une bandelette dans l’eau, observer les pastilles se colorer, puis les comparer à une échelle. Ce geste, à la fois simple et ludique, cache en réalité des mesures précieuses : le pH (ou l’acidité), la concentration en nitrates issus des engrais, en chlore, ainsi qu’en métaux lourds tels que le cuivre ou le plomb. Pour beaucoup, l’expérience provoque un effet « waouh » : « On avait l’impression de jouer, mais en fait, on faisait de la vraie science », racontait une mère venue vivre l’expérience avec sa fille. C’est là toute la force de la science citoyenne : permettre à chacun de participer à la recherche, tout en produisant des données utiles aux scientifiques.

Quatre photographies de volontaires qui récoltent de l’eau, comprenant des enfants et des adultes dans des paysages différents, urbains ou ruraux
Des citoyens de tous âges à l’œuvre : mesurer, observer et comprendre l’eau partout en France. La Grande Synchr’Eau, Fourni par l'auteur

Une mosaïque de réalités locales

Les résultats, compilés par les équipes de l’INSA Toulouse et du Toulouse Biotechnology Institute, révèlent une France de l’eau pleine de contrastes. En Bretagne et dans le Massif central, l’eau est plus acide, en raison des sols granitiques et volcaniques, car ces roches contiennent peu de minéraux capables de « tamponner » l’acidité. L’eau de pluie, naturellement légèrement acide, n’est donc pas neutralisée en traversant ces terrains, contrairement aux régions calcaires où les roches relarguent du carbonate qui remonte le pH. Dans les plaines agricoles de la Beauce et de la Champagne, les nitrates dépassent parfois 100 mg/L, témoins directs de l’usage intensif des engrais.

En ville, d’autres signaux apparaissent : à Lyon, Toulouse ou Marseille, les citoyens ont détecté du cuivre jusqu’à 6 mg/L, un niveau trois fois supérieur à la limite de qualité de l’eau potable (2 mg/L), généralement lié à la corrosion des vieilles canalisations en cuivre. Dans certaines zones rurales, le chlore est quasi absent, alors qu’en Île-de-France ou dans le Rhône, la concentration atteint des niveaux dix fois supérieurs à ceux observés dans les campagnes du Massif central. Cela reste compatible avec les normes, mais reflète une désinfection beaucoup plus marquée des grands réseaux urbains, expliquant parfois les goûts d’eau chlorée rapportés par certains usagers.

Autrement dit, il n’existe pas une eau française, mais une mosaïque d’eaux locales, chacune portant la marque de son sol, de ses usages et de ses infrastructures.

Des flaques chlorées et des puits ferrugineux

Parmi les échantillons, certaines eaux sortent franchement du lot. Si, globalement, le pH reste dans des valeurs normales (entre 6 et 7,6), la diversité chimique surprend. Le chlore total, c’est-à-dire à la fois le chlore libre (désinfectant actif) et le chlore combiné (qui a déjà réagi avec d’autres substances), atteint parfois 10 mg/L, soit cinq fois la concentration d’une piscine publique.

Certaines flaques urbaines semblent avoir reçu un traitement sanitaire involontaire : ruissellement des trottoirs, résidus de produits ménagers, lessivage des surfaces. Bref, si l’eau des flaques n’est pas potable, certaines sont surprenamment bien désinfectées !

La France de l’eau en un coup d’œil : six cartes citoyennes révélant la diversité chimique du territoire. La Grande Synchr’Eau, Fourni par l'auteur

Certains puits battent tous les records de fer, avec des concentrations pouvant atteindre 25 mg/L, soit 500 fois la limite de potabilité. À ce stade, l’eau prend une teinte orangée et un goût métallique prononcé. Sur le millier de prélèvements effectués, 8,4 % des eaux ont été jugées brunes par les citoyens, un signe d’oxydation intense du fer dans les captages locaux. Ce phénomène, fréquent dans certaines zones rurales, n’est pas dangereux en soi, mais rend l’eau impropre à la consommation et peut entraîner des dépôts, des taches et un encrassement des installations domestiques. Il illustre la forte variabilité chimique des eaux locales et les enjeux propres aux puits non traités.

Autre découverte : l’ammonium, présent jusqu’à 40 mg/L dans certains échantillons. Ce composé, issu de la décomposition de la matière organique ou du ruissellement agricole, témoigne d’une activité biologique intense : en clair, une eau très vivante, mais pas forcément celle qu’on a envie de boire.

L’eau, miroir de nos modes de vie

Derrière les anecdotes et les chiffres, ces mesures citoyennes racontent une vérité simple : l’eau enregistre nos modes de vie. Elle circule, transporte et mémorise nos activités. Dans les villes, elle se charge de chlore, de cuivre et de résidus ménagers. Dans les campagnes, elle emporte du nitrate, de l’ammonium ou du fer. Et dans les zones naturelles, elle reste souvent plus équilibrée, mais jamais totalement vierge de l’empreinte humaine.

En plus des cartes, la Grande Synchr’Eau dessine une France curieuse et engagée. L’enquête menée auprès de 120 participants révèle une mobilisation intergénérationnelle : 22 % ont moins de 18 ans, 21 % sont entre 46 et 55 ans, et 45 classes de primaire et de collège ont participé à l’expérience. Les motivations sont variées : 54 % y voient une façon de protéger l’environnement, 43 % de contribuer à la recherche, 28 % pour apprendre et 25 % par curiosité. Autrement dit, mesurer devient un moyen de comprendre et d’agir.

Nourrir la recherche tout en sensibilisant les citoyens

Les effets de la démarche sur les volontaires sont marquants : 81 % des participants estiment que l’expérience a changé leur regard ou leurs comportements, et 82 % ont eu le sentiment de participer à la protection de l’environnement. Lorsqu’on leur demande les mots auxquels ils pensent pour qualifier l’eau, ceux qui reviennent le plus sont vie, vitale et précieuse, ce qui traduit un rapport sensible, presque affectif, à cette ressource commune.

Enfin, à la question « Qui doit agir pour préserver l’eau ? », 83 % citent l’État, 79 % les scientifiques, 71 % les associations et 54 %… eux-mêmes. La science n’est plus perçue comme un domaine réservé : elle devient un espace partagé, où la connaissance se construit à plusieurs et où chacun assume sa responsabilité sociétale.

Au final, peut-on boire l’eau des flaques d’eau ? Non, car elles contiennent parfois plus de chlore qu’une piscine. Mais on peut toujours les observer, les mesurer et les comparer. Ces expériences rappellent qu’il n’y a pas besoin d’un laboratoire pour faire de la science : un peu de curiosité, une bandelette colorée et l’envie de comprendre suffisent à faire émerger une connaissance collective. La Grande Synchr’Eau en est la preuve : la science peut jaillir de partout, même d’une simple flaque.

The Conversation

Nicolas Dietrich a reçu des financements dans le cadre du projet Grande Expérience Participative (2023), financé par l’initiative Nuit Européenne des Chercheur·e·s dans le cadre des Actions Marie Sklodowska-Curie. Un financement complémentaire a été obtenu dans le cadre du projet SMARTER, soutenu par le programme Horizon 2020 de l’Union européenne (Grant Agreement No. 772787)

Johanne Teychené et Nathalie Clergerie ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

18.12.2025 à 14:54

Des Néandertaliennes et des enfants victimes de cannibalisme il y a 45 000 ans

Quentin Cosnefroy, Post doctorant, Université de Bordeaux

Hélène Rougier, Professeure, California State University, Northridge

Isabelle Crevecoeur, Directrice de recherche au CNRS, Paléoanthropologue, Université de Bordeaux

S’agit-il d’un épisode unique ou d’une pratique répétée dans le temps ? Ce comportement est-il propre à la grotte de Goyet ou pourrait-il être reconnu sur d’autres sites ?
Texte intégral (2349 mots)

Des ossements retrouvés dans la grotte de Goyet en Belgique prouvent que les Néandertaliens pratiquaient le cannibalisme. S’agit-il d’un épisode unique ou d’une pratique répétée dans le temps ? Ce comportement est-il propre à ce site ou pourrait-il être reconnu sur d’autres ?


La pratique du cannibalisme chez les Néandertaliens est bien documentée. À ce jour, et d’après nos calculs, le nombre d’individus néandertaliens montrant des traces de cannibalisme dépasserait même celui des individus inhumés pour cette espèce humaine disparue, ce qui en ferait une pratique mortuaire récurrente.

Une nouvelle étude menée par notre équipe et publiée dans la revue Scientific Reports apporte de nouveaux éclairages sur cette pratique, à la toute fin de l’histoire des Néandertaliens en Europe.

À Goyet, en Belgique, il y a environ 41 000 à 45 000 ans, des femmes et des enfants néandertaliens ont été les victimes d’un cannibalisme hautement sélectif. Cette sélection témoigne d’abord de pratiques exocannibales, c’est-à-dire qu’elle a été exercée sur des individus non locaux, considérés comme externes au groupe qui les a consommés.

L’étude révèle ensuite que la composition de l’assemblage (quatre femmes, un enfant et un nouveau-né) ne peut s’expliquer par le hasard : elle résulte d’un choix délibéré qui a spécifiquement ciblé des individus jeunes et des femmes parmi les plus petites et les moins robustes jamais documentées chez Néandertal. Ce comportement pourrait représenter l’un des premiers indices tangibles de tensions ou de conflits entre groupes humains au Paléolithique moyen (de - 300 000 à - 40 000 ans).

Un assemblage exceptionnel

Les restes osseux néandertaliens de la troisième caverne de Goyet (Belgique) représentent l’une des plus grandes collections de restes néandertaliens au monde. Les individus ont pu être identifiés grâce à un long travail de réexamen des collections anciennes, amorcé en 2008 par Hélène Rougier (qui cosigne cet article).

Conservée à l’Institut royal des sciences naturelles de Belgique (IRSNB), à Bruxelles, depuis les premières fouilles menées sur le site de Goyet à la fin du XIXe siècle, cette collection anthropologique était encore largement inédite au début du XXIe siècle, car mélangée aux restes animaux du site. Un effort de plus de dix ansn mêlant tri de la faune, remontage de pièces osseuses et analyses biochimiques, a permis de reconstituer et de réanalyser cet assemblage exceptionnel fragment par fragment, malgré la perte du contexte archéologique originel.

Une précédente étude de notre équipe a montré qu’environ un tiers de ces ossements présentent des traces de cannibalisme. Visibles sur la surface des os, des traces de découpe laissées par des outils en pierre (liées à la désarticulation et au décharnement des corps) ainsi que des impacts de percussion et des fractures réalisées sur os frais (pour en extraire la moelle osseuse) attestent d’une consommation de ces restes humains, avec un traitement identique à celui de la faune chassée et consommée dans ce site. Certains de ces ossements ont même été utilisés comme outils pour affûter les silex taillés.

Localisation des différents types de traces (coupures, cassures, impacts de percussion et usures en tant que retouchoir) sur les os de Néandertaliens de Goyet. Fourni par l'auteur

Dans cette nouvelle étude, notre équipe interdisciplinaire et internationale menée par des chercheuses et chercheurs du laboratoire PACEA (Université de Bordeaux-CNRS-Ministère de la culture) et de l’Université d’État de Californie à Northridge, a poussé les analyses encore plus loin afin d’identifier le profil biologique des individus cannibalisés, malgré l’état fragmentaire des restes.

Une combinaison de données paléogénétiques (analyse de l’ADN ancien) et isotopiques (donnant des informations sur la provenance géographique ou l’alimentation), associées à une analyse fine de la morphologie des ossements (principalement des os des membres inférieurs, les fémurs et les tibias) indique un assemblage tout à fait singulier : sur un minimum de six individus identifiés, quatre sont des femmes adultes ou adolescentes et deux sont des individus immatures de sexe masculin.

La comparaison avec un profil de mortalité attendu à cette époque ou avec d’autres sites attestant d’un cannibalisme entre Néandertaliens montre que la probabilité d’obtenir la composition retrouvée à Goyet est proche de zéro. En somme, l’association de ces individus ne peut résulter du hasard, elle est le résultat d’une sélection délibérée de certains individus.

Une approche interdisciplinaire pour faire parler les ossements

Nous avons pu dresser le profil de ces individus cannibalisés, parmi les derniers représentants néandertaliens au monde.

Les données de l’ADN ancien montrent que les individus adultes/adolescents sont tous de sexe féminin, mais n’ont pas de liens de parenté proche. Cette caractéristique pourrait suggérer l’appartenance des individus à différents groupes, et donc renvoyer à plusieurs évènements de cannibalisme, mais pourrait aussi s’expliquer par une origine exogame des individus féminins d’un même groupe, c’est-à-dire avec des femmes venant d’autres groupes avant d’intégrer celui où elles vivaient, une pratique déjà documentée chez les Néandertaliens.

Pour aller dans ce sens, nos analyses montrent que les individus consommés n’étaient pas originaires de la région. Ce sont les isotopes du soufre présents dans leurs os qui montrent une signature distincte de celle de la faune locale et des Néandertaliens voisins du site de Spy – une indication forte que les victimes ne faisaient pas partie du groupe local, confirmant ainsi la dimension exocannibale de cette pratique sur le site de Goyet.

Enfin, l’étude de la morphologie des ossements eux-mêmes apporte des précisions essentielles sur l’identité des individus, en particulier des quatre femmes adultes/adolescentes. Cependant, cette analyse a représenté un véritable défi : les ossements sont extrêmement fragmentés, conséquence directe des multiples fracturations survenues lors de leur consommation. Ce travail, mené à l’Université de Bordeaux, s’est appuyé sur une analyse virtuelle des restes à partir de scanners par rayons X réalisés à l’IRSNB.

Les résultats montrent que les indices de robustesse des fémurs et des tibias sont très faibles en comparaison de ceux d’autres spécimens de la même période : ces Néandertaliennes étaient remarquablement graciles (minces). Plus encore, les estimations de stature obtenues indiquent une petite taille : 1,51 mètre en moyenne pour l’ensemble des individus et autour de 1,43 mètre pour la plus petite d’entre elles, baptisée GN3. Bien qu’il s’agisse d’estimations, ces valeurs placent les Néandertaliennes de Goyet parmi les plus petites représentantes de cette humanité disparue.

Des indices de conflits préhistoriques ?

Qu’il s’agisse d’un ou de plusieurs évènements, la pratique d’un cannibalisme ciblé sur les femmes et sur les enfants d’un autre groupe social suggère la présence de tensions ou de conflits entre groupes. À cette époque (la fin du Paléolithique moyen), les données archéologiques témoignent de la coexistence de plusieurs traditions culturelles associées à Néandertal dans le nord de l’Europe et touchant à la façon de tailler les outils en pierre.

Reconstitution virtuelle d’un Néandertalien. Institute of Natural Sciences, Fourni par l'auteur

Dans ce contexte, l’arrivée des premiers groupes d’Homo sapiens, déjà présents à quelques centaines de kilomètres à l’est de Goyet, a pu engendrer une pression sur les groupes néandertaliens de la région et notamment dans l’accès aux ressources, les deux groupes humains chassant les mêmes animaux. Si l’on ne peut pas exclure qu’Homo sapiens ait été à l’origine de l’assemblage de Goyet, les données archéologiques, et notamment l’utilisation de certains ossements comme outils (pratique documentée dans d’autres sites avec traces de cannibalisme où seul Néandertal pouvait en être l’auteur), vont plutôt dans le sens d’une pratique intra-spécifique.

Des perspectives pour le futur

Malgré ces avancées, plusieurs questions demeurent ouvertes : s’agit-il d’un épisode unique ou d’une pratique répétée dans le temps ? Ce comportement est-il propre à Goyet ou pourrait-il être reconnu sur d’autres sites si l’on disposait des mêmes outils d’analyse ? Travailler sur des restes issus de cannibalisme reste particulièrement complexe : il faut d’abord identifier des fragments, puis tenter d’en extraire un maximum d’informations.

Dans le cas présent, c’est précisément la combinaison de plusieurs approches réunissant des spécialistes internationaux de disciplines différentes qui a permis d’éclairer la spécificité de ces vestiges longtemps restés muets.

Désormais, l’existence de méthodes fiables pour analyser des fragments très réduits ouvre des perspectives considérables : la reprise d’anciennes collections non étudiées, la réévaluation de sites connus pour leur cannibalisme ou l’identification de nouveaux assemblages pourraient, dans les années à venir, profondément renouveler notre compréhension des interactions sociales, des dynamiques territoriales et de la diversité biologique des derniers Néandertaliens.

The Conversation

Quentin Cosnefroy a reçu des financements du Projet-ANR-22-CE27-0016 NeHos : De l'Homme de Néandertal à l'Homo sapiens - Comprendre une (r)évolution culturelle en Europe au Paléolithique.

Hélène Rougier et Isabelle Crevecoeur ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

PDF

17.12.2025 à 16:11

Timides, audacieux, anxieux… les poissons, aussi, ont une personnalité

Marie-Laure Bégout, Chercheuse, Ifremer

Si vous pensiez que ce qui ressemble le plus à un bar est un autre bar, détrompez-vous. Chaque individu a sa propre personnalité.
Texte intégral (2213 mots)

Si vous pensiez que ce qui ressemble le plus à un bar est un autre bar, détrompez-vous, chaque individu a sa propre personnalité, et la recherche décortique ces traits pour mieux les comprendre et pour améliorer le bien-être des animaux.


Depuis des années, voire des siècles, la personnalité a été étudiée chez l’humain. En 1990, cinq tempéraments (ouverture, conscienciosité, extraversion, agréabilité et névrotisme) ont été définis et sont désormais utilisés pour décrire la personnalité humaine. Ces traits ont également été identifiés chez de nombreux animaux terrestres, notamment dans des environnements d’élevage comme les fermes bovines ou porcines afin de disposer d’indicateurs de performances ou de bien-être des animaux.

Chez les animaux, la personnalité a été déclinée en cinq traits : timidité et audace (en réponse à des situations à haut risque), exploration (en réponse à de nouvelles situations), niveau d’activité, d’agressivité et de sociabilité. Ces traits sont souvent liés, on parle alors de typologies comportementales. Deux types de réponses extrêmes sont distinguées et les individus qui composent une population se distribuent entre ces deux extrêmes selon un continuum. Il y a les individus plutôt proactifs qui ont une réponse de combat ou de fuite et, à l’opposé du continuum, les individus principalement réactifs qui ont une réponse de type immobilité et qui montrent une forte timidité.

Tout d’abord démontrées chez les oiseaux ou les mammifères, ces types de réponses conduisent à observer par exemple qu’un cochon plutôt proactif explore son milieu de vie rapidement et forme des routines (il va toujours très vite dans le même couloir chercher sa nourriture) alors qu’un individu plutôt réactif aura une exploration minutieuse de son milieu, sera enclin à changer de direction plus souvent et trouvera plus rapidement sa nourriture si elle a changé de couloir dans un labyrinthe.

Ce poisson est-il timide ou audacieux ?

Pour ma part, je m’intéresse aux poissons depuis plus de trente ans et plus particulièrement à leurs réponses comportementales et à leurs capacités d’adaptation à divers environnements. Chez eux également des travaux menés en laboratoire ou dans l’environnement naturel depuis plus de deux décennies ont contribué à démontrer que, comme tous les animaux, les poissons sont doués de capacités cognitives complexes, d’apprentissage et de mémoire : compétences socles de leur intelligence.

Ces compétences leur permettent de résoudre les problèmes qui se posent à eux pour survivre dans leur environnement naturel et social et, comme tous les animaux, la manière dont ils résolvent ces problèmes sera différente selon leur personnalité, s’ils sont plutôt timides ou audacieux. L’existence des patrons comportementaux correspondants aux deux typologies proactive/réactive a été largement montrée chez les poissons que ce soit dans un contexte d’élevage ou dans un contexte écologique.

Un prérequis pour ces recherches dans l’ensemble, mais aussi pour celles que j’ai conduites, a été d’imaginer des dispositifs expérimentaux pour mesurer ces traits de personnalité adaptés aux animaux en général sociaux que sont les poissons, au milieu aquatique et aux méthodes disponibles. En particulier, il est important de bien concevoir le dispositif et la procédure du test pour éviter les situations d’ambiguïté.

Dans certains cas par exemple, on souhaite mesurer les patrons comportementaux ou le niveau d’anxiété en réponse à un facteur de stress et il existe des tests pour cela, par exemple en plaçant l’individu dans un environnement nouveau et en mesurant immédiatement sa réponse (activité de nage).

Labyrinthes et arènes pour observer les poissons

Dans d’autres cas, on veut mesurer une autre caractéristique que la réponse à un facteur de stress, la méthode la plus simple consiste alors en l’ajout d’une période d’acclimatation qui n’est pas utilisée pour mesurer le trait comportemental d’intérêt. Dans mon laboratoire nous avons divers dispositifs afin de mesurer les capacités comportementales des poissons (comme le médaka marin, le poisson zèbre ou le bar) lors de challenges ou suite à des expositions à des molécules chimiques ou des situations mimant des changements climatiques ou globaux. Il s’agit de labyrinthes, de dispositifs de préférence de place (le poisson peut choisir entre un fond clair ou sombre dans son aquarium), des arènes d’observation (grand aquarium adapté à des petits groupes de poissons) dans lesquelles nous filmons les poissons pour ensuite déterminer leurs déplacements à l’aide de logiciels spécifiques.

Ainsi pour caractériser les traits de personnalité, par définition des caractéristiques individuelles, les expériences ont d’abord été généralement réalisées en travaillant avec des individus testés isolément. En adaptant des tests élaborés pour les rongeurs, nous étudions par exemple l’exploration d’un labyrinthe en Z chez les poissons marins (médaka marin, bar) avec des enregistrements par vidéo des déplacements en 2D.

Un individu est placé dans une zone de départ ombragée, et après quelques minutes d’acclimatation, une porte est ouverte à distance et permet l’exploration de quatre couloirs continus sans obtenir de récompense particulière. Ce test permet d’évaluer à la fois l’audace à travers la prise de risque (sortir de la zone protégée) et l’exploration d’un nouvel environnement. Cela nous a permis par exemple de montrer que l’expérience de vie antérieure chez le bar (être nourri à heure fixe ou à heure imprévisible) avait une influence sur le niveau d’audace : être nourris à heure fixe rendait les individus moins audacieux. Dans un autre contexte, celui de l’écotoxicologie, cela nous a aussi permis de démontrer que les polluants pouvaient altérer l’audace, l’activité et les capacités exploratoires de poissons exposés à certains polluants ou de leur descendance.

Cependant les manipulations exercées sur chaque individu testé constituent une source de stress pouvant aussi bien révéler qu’altérer les réponses comportementales et les capacités cognitives des individus. Pour contourner cela, nous réalisons aussi des enregistrements de l’activité de nage en petits groupes de 6 à 10 individus, cela nous permet de mesurer la réponse comportementale des individus au sein du groupe. Au-delà de l’activité plus ou moins intense, les distances entre les poissons et l’utilisation de l’espace dans cet environnement nouveau sont indicatrices du stress et de l’anxiété des animaux. Avec cette approche, nous évaluons l’activité, la thigmotaxie (déplacements répétés d’un individu qui suit les parois et évite le centre de l’aquarium) et la cohésion des groupes. Dans ce test, la zone centrale est aussi une zone plus exposée qui est préférée par un poisson audacieux, évitée par un poisson timide ou anxieux.

Pour faire la différence entre plusieurs traits comportementaux à l’issue d’un test, il peut être nécessaire de faire plusieurs tests différents et de s’assurer de la convergence des réponses. Par exemple, une baisse d’oxygène disponible augmente la thigmotaxie tout en réduisant l’activité et la cohésion du groupe. Ces indicateurs, combinés à des mesures sanguines de marqueurs du stress tels que le cortisol, permettent de qualifier le niveau de bien-être des animaux.

Des connaissances indispensables pour le bien-être

Toujours dans des groupes, nous avons été parmi les premiers à mesurer l’audace et l’activité individuelle dans de très grands groupes de 500 à 1500 bars. Pour cela nous avons installé dans les bassins d’élevage de 5m3 un séparateur avec un passage circulaire de 10 cm de diamètre au milieu.

Bassin d’expérimentation et schéma de l’expérimentation. Fourni par l'auteur

Chaque poisson équipé d’une puce électronique a son identité lue par une antenne lorsqu’il quitte le groupe des poissons en zone ombragée et prend le risque d’aller de l’autre côté du séparateur. En répétant le même test trois fois à plusieurs semaines d’intervalle, ces travaux ont démontré un apprentissage du test – une mémorisation, que les traits de personnalité étaient stables dans le temps et que les individus les plus timides avaient une meilleure croissance dans les conditions de notre élevage. Documenter ces traits de personnalité est important en pisciculture pour éviter la sélection par inadvertance de certains traits comportementaux (par exemple, l’agressivité) qui pourraient avoir des conséquences négatives sur la production et surtout compromettre le bien-être des animaux.

En effet le bien-être d’un animal est défini par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) comme l’état mental et physique positif lié à la satisfaction de ses besoins physiologiques et comportementaux ainsi que de ses attentes. Cet état varie en fonction de la perception de la situation par l’animal.

Ces différents exemples montrent comment en développant des méthodes d’observation adaptées, la mesure des réponses comportementales permet de voir autrement les poissons, montrer et démontrer leurs besoins et attentes, leur sensibilité et leurs capacités cognitives, oublier « la mémoire de poisson rouge ». Penser la place des animaux et des poissons différemment dans nos sociétés est une des étapes essentielles pour comprendre et préserver les poissons dans toute leur biodiversité, y compris celle de leurs comportements dans un contexte de changement global avéré.


Un grand merci à tous les étudiants et collègues qui ont développé ces études à mes côtés.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Marie-Laure Bégout a reçu des financements de l'ANR de l'Europe (FP7, H2020, Horizon).

PDF

15.12.2025 à 16:14

Et si la nature brillait plus que ce que nous voyons ? À la découverte de la vie fluo

Romain Garrouste, Chercheur à l’Institut de systématique, évolution, biodiversité (ISYEB), Muséum national d’histoire naturelle (MNHN)

Bernd Schöllhorn, Professeur, laboratoire ITODYS, Université Paris Cité

Serge Berthier, Professeur, Institut des Nanosciences de Paris, Sorbonne Université

La fluorescence naturelle révèle un monde lumineux insoupçonné : du camouflage animal aux innovations biomimétiques, une autre vision du vivant s’ouvre à nous.
Texte intégral (3128 mots)
Portait en fluorescence aux UV de la grenouille arboricole _Ostecephalus taurinus_, en Guyane. La fluorescence aux UV des batraciens se manifeste par une couleur bleu-vert, avec quelque fois la fluorescence des os en transparence. Romain Garrouste, Fourni par l'auteur

Le parcours nocturne Lumières de la nature, proposé par le Jardin des plantes de Paris jusqu’au 16 janvier 2026, a été inspiré d’études menées en Guyane. Derrière cette exposition, on trouve notamment trois chercheurs qui ont inspecté la forêt amazonienne, armés de lampes UV. Ils nous livrent ici les secrets de la fluorescence naturelle, le plus souvent invisible pour les humains mais omniprésente dans le vivant.


Dans la pénombre de la forêt guyanaise, en début de nuit, nos lampes UV éclairent une forme mouvante dans les arbres, mauve, presque rose et assez intense. C’est un mammifère marsupial, un Marmosa, qui nous révèle un phénomène physique longtemps passé inaperçu dans le vivant… Non loin de là, sur un tronc à hauteur d’homme, une grosse grenouille arboricole montre elle une intense couleur bleu-vert, alors que sa peau est brun-vert en lumière normale, presque mimétique des troncs où elle se déplace.

Ce phénomène physique s’appelle la fluorescence, un type de photoluminescence qui se manifeste dans la nature, au sein d’une étonnante diversité d’organismes : lichens, plantes, champignons, insectes, araignées, scorpions, reptiles, poissons, oiseaux et même… mammifères. Dans ce contexte on parle de la « fluorescence naturelle » qui implique l’absorption d’un rayonnement du spectre lumineux
– l’ultraviolet (UV), le visible ou l’infrarouge (IR) – suivie de l’émission spontanée (à l’échelle de la nanoseconde) d’une lumière moins énergétique, souvent visible, mais pas uniquement.

Longtemps considérée comme une curiosité, la fluorescence naturelle se révèle plus répandue et intrigante qu’on ne l’imaginait. Elle intéresse de plus en plus la recherche, notamment dans le cadre d’applications technologiques ou biomédicales (par exemple des nouveaux marqueurs cellulaires pour la recherche). Les chercheuses et chercheurs l’étudient davantage dans la nature, une nouvelle exploration du vivant étant permise par des instruments portatifs de mesures (photo-spectromètres) et d’émissions (torches LED UV). Notre équipe de recherche se spécialise depuis plusieurs années sur l’exploration des fluorescences du vivant. Nous revenons d’une mission scientifique en Guyane dans le but d’appréhender ce phénomène dans la forêt amazonienne, et plus spécialement dans les biotopes autour de la station de recherche des Nouragues


À lire aussi : Ces champignons qui brillent dans la nuit : la bioluminescence fongique décryptée


Un éclat discret mais omniprésent

La fluorescence naturelle, à ne pas confondre avec la bioluminescence, repose sur la capacité de certaines molécules, les fluorophores, à absorber un photon d’énergie élevée (par exemple dans l’UV) et à en réémettre un autre, d’énergie moindre (dans le visible ou l’IR). La vie, à toutes ses échelles, en est imprégnée. On trouve quelquefois le terme d’autofluorescence pour bien insister sur le fait qu’il ne s’agit pas de fluorescence de composés artificiels. C’est le cas également de nombreux minéraux, comme la fluorite (CaF2), qui a donné son nom au phénomène de fluorescence du fait de sa fluorescence spectaculaire aux UV.

La fluorescence des plantes est connue depuis longtemps, notamment à travers celle de la chlorophylle : lorsqu’elle absorbe la lumière, une partie de l’énergie non utilisée pour la photosynthèse est réémise sous forme de fluorescence rouge. Ce signal est si caractéristique qu’il sert à mesurer à distance la vitalité de la végétation, y compris depuis les satellites. Mais la chlorophylle n’est pas seule à briller. D’autres composés végétaux, comme les flavonoïdes, les anthocyanes ou les ptérines, peuvent émettre une fluorescence bleue ou verte lorsqu’ils sont excités par la lumière ultraviolette.

Liane avec lichens en sous-bois humide en Guyane. Les lichens sont souvent très fluorescents aux UV. Les Monocotyledones (Graminées, Broméliacées, Cypéracées, etc.) fluorescent surtout en bleu-vert (ici surtout des Rapateacées), les pigments photosynthétiques de la
Liane avec lichens en sous-bois humide. Les lichens sont souvent très fluorescents aux UV. Les Monocotyledones (Graminées, Broméliacées, Cypéracées, etc.) fluorescent surtout en bleu-vert (ici surtout des Rapateacées), les pigments photosynthétiques de la plupart des Dicotyledones en rouge (comme les Melastomatacées de sous-bois). Romain Garrouste, Fourni par l'auteur

Plus largement, des études récentes ont révélé que la fluorescence existe dans presque tous les grands groupes du vivant.

À quoi sert la fluorescence ?

Chez certains animaux, elle pourrait jouer un rôle avant tout dans la protection contre les UV, mais aussi dans la communication visuelle telle que la reconnaissance entre congénères (comme chez l’araignée Cosmophasis umbratica, les perruches australiennes ou encore une grenouille arboricole), ou dans l’avertissement, et même le camouflage. Cela peut sembler contre-intuitif de se camoufler en étant « fluo » mais il ne faut pas oublier que d’autres organismes n’ont pas la même vision que les humains.

La fluorescence de certaines fleurs, à la lumière du jour souvent cachée aux yeux humains mais perceptible pour les insectes pollinisateurs, pourrait jouer un rôle attractif. Pour la plupart des autres organismes fluorescents, nous ignorons si cette propriété possède une fonction biologique ou s’il ne s’agit pas simplement d’un effet optique sans conséquence pour l’animal ou la plante. La frontière reste floue si l’on ne possède pas les clés pour déchiffrer les phénomènes. Encore faut-il les voir…

Chez les mammifères : quand les marsupiaux s’y mettent

La découverte a surpris la communauté scientifique : des mammifères fluorescents, vraiment ? Depuis 2020, plusieurs études ont montré que des marsupiaux – notamment les opossums américains (Didelphis spp.), mais aussi des espèces australiennes comme le planeur à sucre (Petaurus breviceps) ou phalanger, émettent une fluorescence rose ou bleutée sous lumière ultraviolette.

En Guyane, comme nous l’avons observé, des petits opossums sont également fluo, comme les Marmosa.

Fluorescence aux UV d’un marsupial dans la forêt Guyanaise, photographiée au téléobjectif dans la canopée. Rare image de la fluorescence de ces animaux dans le milieu naturel, en limite de détection du capteur
Fluorescence aux UV d’un marsupial dans la forêt Guyanaise, photographiée au téléobjectif dans la canopée. Rare image de la fluorescence de ces animaux dans le milieu naturel, en limite de détection du capteur. Romain Garrouste, Fourni par l'auteur

Des travaux récents ont élargi le constat : plus de 125 espèces de mammifères présentent un certain degré de fluorescence. Celle-ci se manifeste surtout sur les zones claires ou peu pigmentées : pelage blanc, moustaches, griffes, dents ou piquants. Sur le terrain, nous avons souvent observé des rats fluorescents dans la nature (Rattus spp.) que ce soit en Europe, en Asie ou en Guyane.

Chez les insectes, des signaux souvent cachés

Les insectes offrent une extraordinaire diversité de structures fluorescentes. Les ailes de certaines libellules et cigales contiennent de la résiline, une protéine élastique qui émet une lumière bleue sous UV. L’un des plus spectaculaires reste les nids de guêpes asiatiques (Polistes sp.), que nous avons observés au Vietnam qui battent des records de fluorescence induite par l’UV avec un rendement quantique (le rapport entre le nombre de photons émis et absorbés) exceptionnellement élevé jusqu’à 36 % (champion des matériaux biologiques terrestre à ce jour).

Les élytres des coléoptères, quant à eux, peuvent renfermer des pigments fluorescents enchâssés dans des micro ou nanostructures photoniques, capables d’amplifier, de restreindre ou de diriger la lumière émise. Chez le scarabée Hoplia coerulea, par exemple, ces structures créent une fluorescence directionnelle d’un bleu métallique saisissant. Quelques exemples ont été étudiés mais certainement beaucoup d’autres restent à découvrir.

Portrait d’une abeille à longues antenne Eucera sp. (Massif des maures, France). Les yeux des insectes sont le plus souvent bleu-vert. On distingue aussi les ocelles (ou yeux élémentaires), disposées en triangle plat, de la même couleur
Portrait d’une abeille à longues antenne Eucera sp. (massif des Maures, France). Les yeux des insectes sont le plus souvent bleu-vert. On distingue aussi les ocelles (ou yeux élémentaires), disposées en triangle plat, de la même couleur. Romain Garrouste, Fourni par l'auteur

En Amazonie, chez le Morpho sulkowskyi, un papillon iridescent et spectaculaire, la fluorescence fait aussi partie des signaux renvoyés par les ailes colorées.

Une lumière sur l’évolution… et sur la recherche

Cette redécouverte de la fluorescence naturelle dans autant de groupes vivants change notre regard sur la biodiversité et nous incite à mieux la comprendre. L’anthropomorphisme nous a conduits à croire que nous vivions dans un monde visible universel alors que c’est loin d’être le cas, par exemple, notre totale non-perception des UV qui pourtant imprègnent une grande partie du monde animal, des insectes aux poissons (la plupart des requins sont fluorescents !), et déterminent un grand nombre d’interactions écologiques, comme la pollinisation et les relations proie-prédateur, ou modifie notre perception du mimétisme (que voient réellement les prédateurs ?).

Documentaire sur la fluorescence naturelle sur lequel le « fluo trio » a été conseiller scientifique.

Pour comprendre ces phénomènes, la chimie et la physique doivent s’associer à la biologie qui peine seule à élucider les mécanismes, et qui peut les ignorer ou les minimiser.

Ne négligeons pas les applications potentielles (par fois bio-inspirées) qui peuvent découler de la meilleure connaissance et de la compréhension des systèmes naturels. La fluorescence est déjà au cœur de nombreuses applications scientifiques : microscopie de fluorescence, imagerie médicale, biologie cellulaire. Aujourd’hui, la GFP (protéine fluorescente verte), trouvée dans une méduse, est l’un des outils les plus largement utilisés en biologie moléculaire, et sa découverte a été récompensée par un prix Nobel en 2008. La découverte de nouvelles molécules fluorescentes performantes pourrait améliorer les outils de diagnostics médicaux et ouvrir la voie à des dispositifs photoniques inédits, capables d’améliorer l’efficacité des panneaux solaires, par exemple.

Le monde vivant n’est pas seulement coloré, il recèle aussi un « spectre caché » de lumières invisibles à l’œil humain. Pour le comprendre, il nous faut l’appréhender et revoir notre perception du monde, ainsi que de nombreuses certitudes. C’est ce qui fait la beauté de la science face à la merveilleuse complexité de la nature. Et si le monde était encore plus beau que ce que l’on croyait ?


Pour en savoir plus, vous pouvez visiter l’exposition « En voie d’illumination : les lumières de la nature » jusqu’au 18 janvier 2026 au Jardin des plantes (Paris), où vous verrez une reconstitution de la forêt tropicale d’Amérique du Sud, avec sa bioluminescence et sa fluorescence.

The Conversation

Romain Garrouste a reçu des financements de MNHN, CNRS, Sorbonne Université, National Geographic, MRAE, MTE, Labex BCDiv, Labex CEBA, WWF

Bernd SCHÖLLHORN a reçu des financements du CNRS (MITI et OVNI) et de l'Université Paris Cité (IDEX et laboratoire ITODYS)

Serge Berthier a reçu des financements de ANR, CNRS, Sorbonne Université.

PDF

14.12.2025 à 17:59

Airbus : D’où vient la panne qui a conduit l’entreprise à immobiliser des milliers d’avions ?

David Monniaux, Chercheur en informatique, Centre national de la recherche scientifique (CNRS), Université Grenoble Alpes (UGA)

Les radiations solaires peuvent-elles mettre en danger un avion ? Les mesures de sécurité existantes devraient pourtant prévenir ces incidents.
Texte intégral (2101 mots)

Fin octobre, Airbus demande aux compagnies aériennes de maintenir au sol 6 000 A320, à la suite d’un incident survenu en vol. L’entreprise l’explique par une mise à jour logicielle qui serait plus sensible aux rayonnements cosmiques. Si ce genre de problèmes existe, ils sont cependant détectés immédiatement en temps normal.


Le 30 octobre dernier, un vol de Cancún vers le New Jersey de la compagnie JetBlue a rapidement chuté en plein vol, avant que les pilotes puissent rétablir sa trajectoire, au bout de quelques secondes. Après un atterrissage en urgence en Floride, quelques passagers ont reçu des soins. À la suite de cet incident, Airbus a dû changer en urgence un logiciel de pilotage dans 6000 appareils de la famille A320. On a évoqué une « perturbation par une particule isolée » et le rôle des éruptions solaires. Qu’en est-il ?

Le palliatif proposé par Airbus est de faire revenir la version de certains logiciels de pilotage à une version antérieure. Sur les forums spécialisés, on spécule sur les causes techniques de ce dysfonctionnement, sur d’éventuelles fonctionnalités ajoutées entre ces deux versions, qui seraient insuffisamment protégées contre les effets que des rayonnements cosmiques peuvent avoir dans les composants informatiques. Il vaut mieux, toutefois, attendre le rapport officiel de l’enquête sur l’incident. En attendant, nous pouvons revenir sur l’explication invoquée et en quoi elle peut surprendre.

Les rayons cosmiques, ennemis de nos systèmes électroniques

La Terre est en permanence bombardée par des particules venant de l’espace – du Soleil ou de corps plus lointains. La plupart de ces particules sont déviées par le champ magnétique terrestre, une autre partie est absorbée ou transformée par l’atmosphère, mais certaines d’entre elles peuvent atteindre la surface terrestre. Elles forment une partie de la radioactivité naturelle, et sont plus abondantes en périodes d’éruption solaire.

Ces particules arrivant de l’espace ont des effets variés. Dans les régions polaires, moins protégées par le champ magnétique terrestre, elles provoquent de magnifiques aurores dans le ciel de nuit. On leur attribue également les flashes lumineux que les astronautes perçoivent dans leurs yeux. Comme il s’agit de rayonnements ionisants, les particules reçues peuvent avoir des effets sur la santé. Ainsi, Thomas Pesquet, en six mois de séjour dans la station spatiale internationale, a bien dépassé le quota annuel maximum d’exposition aux radiations permis pour un travailleur français.

Les particules issues de l’espace peuvent provoquer des dysfonctionnements dans les circuits électroniques. Par exemple, dans les années 1990, des composants électroniques de puissance, notamment conçus pour des trains, grillaient pour des raisons mystérieuses. Pour trier parmi les diverses hypothèses envisagées, on a essayé ces composants à la surface et dans une mine de sel, sous 140 mètres de roche : les problèmes ne se produisaient pas dans la mine ! Une fois le problème identifié, on a pu concevoir des composants et des modes d’utilisation beaucoup moins vulnérables.

Qu’est-ce qu’une perturbation par une particule isolée ?

Il est plus courant que, plutôt que de griller un composant, les particules modifient une donnée qui y est stockée. Les ordinateurs retiennent les informations sous forme de 0 et de 1, et une particule peut provoquer le basculement d’un 0 en 1 ou l’inverse, ce qu’on appelle une « perturbation par une particule isolée », ou single event upset en anglais.

En 2003, dans la commune belge de Schaerbeek, une liste a obtenu lors d’une élection un excès de précisément 4 096 voix, ce qui correspond exactement au basculement d’un 0 en 1 à l’intérieur d’un nombre écrit en binaire. Un tel basculement s’expliquerait par un single event upset.

Bien évidemment, et notamment pour les applications aérospatiales, particulièrement exposées, on a développé des parades. Certaines parades sont matérielles : par exemple, les mémoires vives peuvent être munies de codes correcteurs d’erreurs fondés sur du matériel spécifique pour coder et décoder très rapidement. C’est habituellement le cas de la mémoire vive des serveurs, les machines qui stockent des données dans les data centers, mais pas des ordinateurs de bureau ou des portables, du fait de leur coût. Ces codes permettent de corriger à coup sûr certaines erreurs et, dans d’autres cas, d’au moins signaler qu’il s’est passé quelque chose d’incorrect.

D’autres parades sont logicielles : procéder régulièrement à certaines vérifications, dupliquer des données à conserver sur de longues durées, éviter de garder trop longtemps des données dans des mémoires vulnérables, enregistrer certaines informations importantes d’une façon telle que le basculement d’un chiffre fournit une valeur absurde, donc détectable… Les possibilités sont nombreuses. Il y a par ailleurs des protocoles de test, y compris consistant à placer les circuits dans le faisceau d’un accélérateur de particules (grand instrument de sciences physiques).

Des commandes de vol électriques touchées par une panne

Voyons maintenant les implications pour l’aviation. La transmission des ordres des pilotes de ligne à leurs gouvernes, les parties mobiles de l’avion qui permettent de contrôler sa trajectoire, se faisait historiquement par des systèmes de câbles, de poulies ou de circuits hydrauliques assez compliqués. Il faut en plus assurer la redondance, c’est-à-dire prévoir plusieurs modes de transmission en cas de panne. Depuis les années 1980, les nouveaux modèles d’avions utilisent des commandes de vol électriques, c’est-à-dire que ces transmissions mécaniques sont remplacées par des câblages et des calculateurs électroniques.

Ces calculateurs diminuent la charge de pilotage (ils automatisent des actions que les pilotes devraient sinon faire manuellement) et augmentent ainsi la sécurité. Ils peuvent vérifier si les pilotes commandent une manœuvre qui sortirait l’avion du domaine des manœuvres qu’il peut faire en sécurité, et peuvent par exemple prévenir le décrochage. La panne qui a valu le rappel des avions Airbus concerne un calculateur appelé ELAC, qui commande les élévateurs et les ailerons, qui sont respectivement des gouvernes situées sur le stabilisateur arrière de l’avion et sur l’arrière du bout des ailes.

Les commandes de vol sont particulièrement sécurisées

Un point qui peut tout d’abord nous rassurer est que les problèmes de particules venues de l’espace se produisent plutôt à haute altitude, lorsqu’il y a moins d’atmosphère protectrice, alors que les étapes les plus dangereuses dans un vol sont plutôt le décollage et l’atterrissage. Ceci n’excuse cependant pas le dysfonctionnement constaté. Voyons un peu pourquoi ce problème n’aurait pas dû se produire.

Les calculateurs informatisés d’aviation civile sont classés, suivant les standards internationaux de l’aviation civile, en cinq niveaux de criticité, selon la sévérité des conséquences possibles d’un dysfonctionnement : du niveau A, où un dysfonctionnement peut provoquer une catastrophe aérienne, au niveau E, où il n’y aurait pas de conséquences pour la sécurité de l’aéronef. Les commandes de vol électriques sont du niveau A, elles sont donc soumises aux normes les plus sévères. On peut donc raisonnablement supposer que les commandes de vol des A320 sont équipées de mécanismes de détection et/ou de remédiation de dysfonctionnements, y compris dus aux radiations.

Sur les Airbus A330/A340, par exemple, il existe deux niveaux de commande de vol, primaires et secondaires. Il y a trois boîtiers de commandes primaires, et lorsqu’un boîtier a subi un problème, il est temporairement désactivé – ce n’est pas grave, car il en a deux autres pour le relayer. S’il y avait un problème générique sur les commandes primaires, on pourrait fonctionner avec les commandes secondaires, qui utilisent d’autres types de composants.

Chaque boîtier de commande de vol primaire consiste en deux calculateurs, l’un qui commande les gouvernes, l’autre qui surveille celui qui commande – ils doivent produire environ les mêmes résultats, sinon le système détecte que quelque chose ne va pas. Normalement, sur un tel système, en cas de dysfonctionnement d’un des calculateurs, le problème est rapidement détecté, le boîtier est désactivé, on passe sur un autre et une chute comme celle qui s’est passée en octobre est impossible.

Pourquoi les systèmes n’ont-ils pas détecté le problème ?

J’ai personnellement travaillé sur l’analyseur statique Astrée, un outil destiné à vérifier que des logiciels de contrôle ne se mettent jamais dans des situations d’erreur. Il a notamment été utilisé par Airbus sur ses commandes de vol électriques. J’ai eu l’occasion, au fil des années, d’apprécier le sérieux et la volonté de cette société de se doter d’approches à la pointe de l’état de l’art en matière de technologies logicielles, notamment de vérification formelle.

Plus récemment, j’ai également travaillé sur des contre-mesures à des erreurs de fonctionnement informatique provoquées volontairement à l’aide de rayonnements électromagnétiques. Il existe en effet la possibilité que des personnes induisent volontairement des pannes afin de les exploiter dans un but frauduleux, c’est donc nécessaire de travailler à prévenir ces tentatives pour des cartes à puce et d’autres équipements sécurisés.

L’hypothèse qu’il s’agisse bien d’une perturbation par une particule isolée reste plausible, mais il est surprenant qu’il ait fallu plusieurs secondes pour traiter le problème. Le système de sécurité du boîtier de commande affecté par l’irradiation aurait dû détecter l’incident, le boîtier touché aurait dû être automatiquement désactivé et l’avion basculé sur un autre, en secours. Il faut donc attendre d’autres éléments pour déterminer si c’est la bonne explication, et comment cela a pu alors se produire, ou si d’autres scénarios sont à envisager.

The Conversation

David Monniaux a reçu des financements de l'ANR (PEPR Cybersécurité). En tant que co-développeur de l'analyseur Astrée, il touche une prime d'intéressement à la valorisation de ce logiciel, donc à ses ventes.

PDF

10.12.2025 à 16:07

Dans les torrents, des insectes tissent de minuscules filets de pêche qui inspirent de nouveaux matériaux

Christophe Mori, Maitre de conférences, Université de Corse Pascal-Paoli

Au fond des ruisseaux, de petites larves construisent des filets et font preuve d’une intelligence remarquable pour s’adapter au courant.
Texte intégral (1519 mots)

Au fond des torrents et des ruisseaux, de petites larves d’insecte construisent des filets pour attraper leur nourriture et font preuve d’une intelligence remarquable pour s’adapter au courant. Des comportements qui inspirent nos propres innovations techniques.


Imaginez-vous au bord d’un torrent, où l’eau surgit avec une force capable d’emporter des pierres. Au fond de ce tumulte, des larves de quelques millimètres, non seulement survivent, mais prospèrent en bâtissant des pièges ingénieux pour capturer leur nourriture. Sur leurs filets de soie de 2 à 3 cm de diamètre, on les voit s’affairer, le nettoyant régulièrement des petits morceaux de feuilles, de bois, des algues et des petits organismes qui s’y piègent.

Ces larves sont des hydropsychés, des insectes de l’ordre des trichoptères. Après avoir vécu sous la forme de larve dans une rivière pendant un à deux ans, ils s’envolent une fois leur forme adulte atteinte, durant laquelle il ressemble à un petit papillon de nuit. La fin de leur vie sera alors très courte, de 10 à 20 jours seulement.

Les hydropsychés, petits ingénieurs des ruisseaux

Les hydropsychés sont des insectes aquatiques ingénieux qui construisent ces tamis de soie pour filtrer passivement leur nourriture dans les eaux courantes. Cette capacité démontre une réelle intelligence comportementale, d’autant qu’ils savent s’ajuster aux flux de nutriments et qu’elles défendent leur territoire. Les larves tricotent des mailles fines (entre 1/50 e et 1/10 e de mm) adaptées à la vitesse du courant : plus il est fort, plus elles fabriquent un filet aux mailles serrées pour résister au courant ! Et lorsqu’il est obstrué ou endommagé, par exemple par des sédiments ou un courant trop fort, elles sont capables de le reconstruire ou le modifier. Il reste à comprendre le déclencheur précis de cette adaptation – est-ce purement génétique ou influencé par l’apprentissage individuel ?

Un si petit organisme, de seulement 1 à 2 cm de long, et qui possède un cerveau de 0,3 mm3 est non seulement capable de concevoir son filet avec une maille variable, de l’ancrer au substrat et de l’orienter face au courant. Mais il est sait aussi repousser ses congénères qui pourraient s’installer trop près et lui voler sa pêche ! Pour cela, les hydropsychés utilisent des ultrasons (d’une fréquence de 64 à 100 kHz, bien au-delà de ce que l’oreille humaine peut percevoir) pour indiquer leur présence à leurs voisins.

À la manière des cigales, les larves génèrent ces sons par stridulation, en frottant certaines parties de leur corps entre elles. Cette technique acoustique facilite leur navigation dans le tumulte sonore des eaux agitées, et est associée à des signaux chimiques tels que des phéromones qui facilitent l’identification et l’interaction sociale dans des milieux agités.

Des petites larves témoin de la qualité des eaux

Dans les communautés aquatiques, les hydropsychés coexistent avec d’autres espèces filtreuses, comme des larves de diptères, pour optimiser les ressources. Elles influencent la stabilité des cours d’eau en modulant les sédiments organiques et les différents flux nutritifs. Les organismes filtreurs sont de véritables nettoyeurs des rivières et des torrents, de petits ingénieurs qui améliorent la qualité des eaux. Ils sont déterminants dans l’architecture des écosystèmes d’eaux courantes, puisqu’ils constituent des proies pour les autres organismes, et sont donc à la base des chaînes alimentaires.

D’un point de vue morphologique, les branchies spécialisées des hydropsychés leur permettent d’extraire l’oxygène même dans des conditions tumultueuses ou déficientes. Cependant, ce sont aussi des organismes fragiles. Cela en fait de bons indicateurs biologiques qui servent aux scientifiques à évaluer la qualité de l’eau et les impacts de la pollution ou du changement climatique.

De plus, les hydropsyché inspirent le biomimétisme pour des technologies filtrantes durables, des colles aquatiques et la recherche médicale. Contrairement à la soie de ver à soie ou d’araignée, celle des hydropsychés est synthétisée sous l’eau, ce qui lui confère une résistance exceptionnelle à l’humidité, une haute élasticité et une biodégradabilité contrôlée. Ces caractéristiques en font un modèle idéal pour développer des biomatériaux innovants en médecine.

Quand l’hydropsyché inspire nos propres innovations

Dans ce monde aquatique en perpétuel mouvement, ces organismes démontrent que la survie dépend d’une vigilance constante et de l’adaptation face à l’instabilité. L’humanité peut s’inspirer de cette résilience et, plus spécifiquement, des stratégies de ces petits insectes aquatiques. La soie des larves d’hydropsychés intéresse la recherche, car elle adhère facilement aux surfaces immergées tout en restant flexible. Elle présente également une résistance mécanique jusqu’à plusieurs fois celle de l’acier à poids égal, n’induit pas de réactions immunitaires fortes et est biodégradable sans laisser de résidus toxiques.

En imitant la composition de la soie des larves d’hydropsyché, les scientifiques développent des colles synthétiques qui fonctionnent en milieu humide, comme dans le corps humain. Ces adhésifs pourraient révolutionner la chirurgie en permettant de refermer des tissus mous (comme le foie ou le cœur) sans points de suture, réduisant les risques d’infection et accélérant la guérison. Des prototypes sont déjà testés pour sceller des vaisseaux sanguins ou réparer des organes internes.

Le filet adaptable des hydropsychés inspire aussi des filtres intelligents qui ajustent leur porosité selon le débit d’eau et la taille des particules, et qui seraient utiles dans les usines de traitement des eaux et les stations d’épuration. Ce composé intéresse aussi les industries marines, pour créer des matériaux qui absorberaient l’énergie des vagues sans se briser, prolongeant la durée de vie des structures. Cela pourrait notamment être exploité par le secteur de l’énergie, pour les éoliennes marines ou les hydroliennes.

Les habitants des cours d’eau : un exemple à suivre

En nous inspirant de ce petit ingénieur, nous ouvrons des voies pour des avancées concrètes. Les solutions les plus élégantes et durables ne viennent pas toujours de laboratoires, mais souvent de la nature elle-même, où l’ingénieuse simplicité du vivant surpasse notre créativité. Et à l’instar des communautés d’organismes fluviaux qui se soutiennent mutuellement, les sociétés humaines doivent établir des réseaux solidaires pour affronter l’incertitude. La remarquable résilience de ces larves nous exhorte à repenser nos modes de vie, en mettant l’accent sur une adaptation préventive plutôt que sur une réaction tardive.

En fin de compte, les hydropsychés et les organismes aquatiques en général nous offrent un exemple à suivre : dans un environnement instable, la survie réside dans la diversité des adaptations et une réelle persévérance. Dans un monde en mutation, elle n’est pas innée, mais elle peut être cultivée. Ces organismes nous montrent que même dans l’agitation structurelle permanente, la vie persiste. En protégeant les écosystèmes fluviaux, nous préservons non seulement la biodiversité, mais aussi un trésor d’inspirations pour un avenir plus résilient et innovant.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Christophe Mori ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF

10.12.2025 à 12:22

Ces pointes de flèches prouvent-elles la présence d’Homo Sapiens au cœur de l'Eurasie il y a 80 000 ans ?

Hugues Plisson, archéologue spécialisé en tracéologie (reconstitution de la fonction des outils préhistoriques par l'analyse de leurs usures), Université de Bordeaux

Andrey I. Krivoshapkin, Permanent researcher at Institute of Archaeology & Ethnography, Russian Academy of Sciences

De minuscules pointes de projectile triangulaires ont été identifiées en Ouzbékistan. Cette nouvelle étude éclaire le scénario de l’arrivée d’Homo Sapiens en Europe.
Texte intégral (3861 mots)
Des pointes de flèche retrouvées en Asie centrale. Malvina Baumann, Fourni par l'auteur

De minuscules pointes de projectile triangulaires ont été identifiées à partir de leurs fractures d’impact dans les plus anciennes couches d’occupation du site d’Obi-Rakhmat en Ouzbékistan, vieilles de 80 000 ans. Elles ont la dimension de pointes de flèches et sont identiques à celles découvertes dans une couche beaucoup plus récente d’un site de la vallée du Rhône, en France, à la toute fin du Paléolithique moyen, correspondant à une incursion d’Homo Sapiens en territoire néanderthalien il y a 54 000 ans. Cette nouvelle étude, publiée dans la revue « PLOS One », apporte un argument décisif pour la réécriture du scénario de l’arrivée d’Homo Sapiens en Europe.


Développés en Europe occidentale et plus particulièrement en France à partir de la seconde moitié du XIXe siècle, les cadres chrono-culturels et anthropologiques de la Préhistoire et les modèles évolutifs qu’ils inspirèrent furent d’abord linéaires et européocentrés : Cro-Magnon descendant de Néanderthal posait les fondements d’une supériorité civilisationnelle dont se prévalait alors cette partie du monde. Ce n’est qu’un siècle plus tard que sera mise en évidence l’origine africaine d’Homo Sapiens et des traits technologiques et sociaux structurants du Paléolithique supérieur occidental, de ~ 45 000 à 12 000 ans avant le présent (productions symboliques, réseaux à grande distance, outillages et armements lithiques et osseux diversifiés).

Les plus anciennes évidences de présence d’Homo Sapiens en Australie vers 65 000 ans précèdent de 10 millénaires celles de l’Europe dont les modalités du peuplement demeurent sujet de discussion. À ce jour, le calage chronologique des toutes premières occupations européennes du Paléolithique supérieur par rapport à celles de l’est du bassin méditerranéen, pourtant regardées comme les plus proches, demeure insatisfaisant. Soit les données sont issues de fouilles trop anciennes pour avoir été suffisamment précises, soit elles ne s’inscrivent pas dans la filiation directe supposée entre le Levant et l’Europe. Les racines mêmes du Paléolithique supérieur initial levantin, malgré la proximité africaine, sont incertaines. Une origine centre asiatique, a été suggérée par l’archéologue Ludovic Slimak en 2023.

Un site en Asie centrale

Vue depuis l’abri d’Obi-Rakhmat sur l’extrémité du Tien Shan. Fourni par l'auteur

Corridor entre l’ouest et l’est du continent ou zone refuge, selon les phases climatiques, l’Asie centrale n’est encore documentée que par quelques sites paléolithiques, mais qui sont autant de références de l’histoire de la Préhistoire.

Parmi ceux-ci figure l’abri sous roche d’Obi-Rakhmat en Ouzbékistan découvert en 1962. Ce gisement livre sur 10 mètres de stratigraphie, entre 80 000 et 40 000 ans, une industrie lithique qui par certains traits s’inscrit clairement dans la continuité du Paléolithique moyen ancien du Levant mais par d’autres fut rapprochée du Paléolithique supérieur initial. Ce Paléolithique moyen ancien du Levant, associé dans le site de Misliya à de l’Homo Sapiens archaïque, disparut du Proche-Orient vers 100 000 ans. À Obi-Rakhmat, les restes crâniens d’un enfant trouvés dans une couche à ~ 70 000 ans, présentent des caractères regardés comme néanderthaliens et d’autres comme anatomiquement modernes, combinaison pouvant résulter d’une hybridation.

Lames massives mais pointes microlithiques

Éléments de l’industrie lithique de la couche 21 d’Obi-Rakhmat : lames brutes (1-2), grande lame retouchée (3), lames retouchées en pointe (4-5), pointes retouchées impactées (6-8), micro pointe Levallois brute (9), micro-pointes brutes impactées (10-11). Fourni par l'auteur

C’est dans ce contexte que notre équipe internationale, dirigée par Andrei I. Krivoshapkin, a identifié dans les couches les plus anciennes de minuscules pointes de projectiles triangulaires. Mesurant moins de 2 cm de large et ne pesant que quelques grammes, elles sont impropres par leurs dimensions et leur fragilité à avoir été montées sur des hampes de lances. Leur étroitesse correspond au diamètre (inférieur ou égal à 8 mm) des hampes documentées ethnographiquement sur tous les continents pour les flèches tirées à l’arc droit.

Deux micro-pointes brutes de la couche 21 du site d’Obi-Rakhmat, l’une intacte, l’autre brisée et rayée par son usage en armature de projectile. L’allumette matérialise leur minuscule dimension. Fourni par l'auteur

Question de balistique

Les armes perforantes projetées constituent des systèmes complexes dont les éléments ne sont pas interchangeables d’un type d’arme à l’autre, car répondant à des contraintes différentes en intensité et en nature.

L’importante force d’impact des lances tenues ou lancées à la main fait de la robustesse de l’arme un paramètre essentiel, aussi bien en termes d’efficacité que de survie du chasseur, la masse assurant à la fois cette robustesse, la force d’impact et la pénétration. À l’opposé, la pénétration des traits légers tirés à grande distance repose sur leur acuité, car l’énergie cinétique, beaucoup plus faible, procède là essentiellement de leur vitesse, laquelle, à la différence de la masse, décroit très rapidement sur la trajectoire et dans la cible. Cette vitesse ne pouvant être atteinte par la seule extension du bras humain, elle est obligatoirement tributaire de l’emploi d’un instrument de lancer. Les pointes de flèche et celles de lances ou de javelines ne sont donc pas conçues selon les mêmes critères et ne se montent pas sur les même hampes, les dimensions et le degré d’élasticité desquelles sont par ailleurs essentiels en terme balistique. Ainsi, comme en paléontologie où la forme d’une dent révèle le type d’alimentation et suggère le mode de locomotion, les caractéristiques d’une armature fournissent des indices sur le type d’arme dont elle est l’élément vulnérant.

Un armement propre à Sapiens ?

Le minuscule gabarit des pointes d’Obi-Rakhmat ne peut être regardé comme un choix par défaut, car non seulement la matière première lithique de bonne qualité dont on a tiré de grandes lames ne manque pas à proximité du site, mais l’inventaire des traces d’usage relevées à la loupe binoculaire et au microscope met en évidence au sein du même assemblage des pointes retouchées beaucoup plus robustes (15 à 20 fois plus lourdes et 3 à 4 fois plus épaisses) et du gabarit des têtes de lance ou de javeline.

En retournant à la bibliographie et à nos propres travaux sur des outillages du Paléolithique moyen, nous avons constaté que la présence dans un même ensemble d’armatures de divers types, pour partie microlithiques et produites à cette fin, n’était à ce jour connue que dans les sites à Homo Sapiens. Les plus anciennes occurrences documentées sont en Afrique du Sud dans les couches culturelles Pre-Still Bay (plus de 77 000 ans) et postérieures du gisement de Sibudu. Dans l’univers néanderthalien, les pointes lithiques endommagées par un usage en armature de projectile sont rares, elles sont de fort gabarit et ne se distinguent ni par leurs dimensions, leur facture ou leur type de celles employées à d’autres activités que la chasse, telles que la collecte de végétaux ou la boucherie. Cette distinction dans la conception des outillages et des armements prend valeur de marqueur anthropologique.

Pointes levallois du site d’Um el-Tlel en Syrie, Paléolithique Moyen récent levantin attribué à Néanderthal. De gauche à droite : reconstitution graphique à partir d’un fragment planté dans une vertèbre d’âne, lame de couteau à plante, lame de couteau de boucherie. Ces pointes polyvalentes sont 2 à 3 fois plus larges que les micro-pointes d’Obi-Rakhmat. Fourni par l'auteur

En raison de leurs dates respectives, de la distance entre l’Afrique du sud et l’Asie centrale (14 000 km) et de la différence de facture des armatures d’Obi-Rakhmat et de Sibudu (lithique brut de débitage vs lithique façonné ou retouché, osseux façonné), l’hypothèse de foyers d’invention indépendants est la plus vraisemblable.

Des piémonts du Tien Shan à la vallée du Rhône 25 000 plus tard

La seule forme d’armature miniature de projectile identique actuellement connue est beaucoup plus récente. Elle fut découverte par Laure Metz, sur le site de Mandrin, en vallée du Rhône en France, qui livra aussi une dent de lait d’Homo Sapiens déterminée par Clément Zanolli. L’ensemble est daté d’environ 54 000 ans, soit une dizaine de milliers d’années avant la disparition des Néanderthaliens locaux. La similitude des micro-pointes d’Obi-Rakhmat et de Mandrin, pourtant séparées par plus de 6 000 km et 25 millénaires, est telle que les unes et les autres pourraient être interchangées sans qu’aucun autre détail que la roche ne trahisse la substitution.

Similitude des micro-pointes d’Obi-Rakhmat et de Mandrin brisées par leur usage en armature de projectile. La localisation et l’extension de leur fracture (surlignement en rouge et en bleu et détail macroscopique) signent l’impact axial. Fourni par l'auteur

Des travaux récents publiés par Leonardo Vallini et Stéphane Mazières définissent le Plateau perse, à la périphérie nord-est duquel est situé Obi-Rakhmat, comme un concentrateur de population où les ancêtres de tous les non-Africains actuels vécurent entre les premières phases de l’expansion hors d’Afrique – donc bien avant le Paléolithique supérieur – et la colonisation plus large de l’Eurasie. Cet environnement riche en ressources pourrait avoir constitué une zone de refuge propice à une régénération démographique après le goulet d’étranglement génétique de la sortie d’Afrique, à l’interaction entre les groupes et par conséquent aux innovations techniques.

De part et d'autre du plateau perse (encadré orange), identifié génétiquement comme une aire refuge de concentration et développement démographique des Homo Sapiens sortis d’Afrique, Obi-Rakhmat et Mandrin ont en commun, à 25 000 ans et 6 000 km de distance, les mêmes micro-pointes de projectile. Fourni par l'auteur

Mandrin et Obi-Rakhmat représentent probablement deux extrémités géographiques et temporelles d’une phase pionnière de peuplement telle qu’entrevue par Ludovic Slimak, marquée par ce que les typologues qualifiaient jadis de fossile directeur et qui ici recouvrirait la propagation d’une invention fondamentale propre à Homo Sapiens. Jusqu’à présent passées inaperçues parce que brutes de débitage, minuscules et fragmentaires, il est à parier que les micro-pointes de projectile dont les critères de reconnaissance sont maintenant posés commenceront à apparaître dans des sites intermédiaires entre l’Asie centrale et la Méditerranée occidentale.

Prémisses d’un nouveau scénario du peuplement occidental d’Homo Sapiens

Cette découverte est stimulante à plusieurs titres. Elle valide la cohérence de l’étude du site de Mandrin qui concluait à une brève incursion en territoire néanderthalien de Sapiens armés d’arcs, mais dont plusieurs éléments avaient été critiqués – ce qui est cependant le jeu scientifique habituel lorsqu’une proposition nouvelle s’écarte par trop des connaissances admises – et dont la dimension prédictive n’avait alors pas été considérée.

La similitude des micro-pointes de Mandrin et d’Obi-Rakhmat ne peut être une simple coïncidence. Elle ne porte pas seulement sur leur forme, mais aussi sur leur mode de fabrication, qui requière un réel savoir-faire comme en témoigne la préparation minutieuse de leur plan de frappe avant débitage, et sur leur fonctionnement. On pourra débattre de l’instrument approprié au tir de flèche armées de si minuscules armatures, l’arc étant en filigrane, ou si l’on préfère garder une certaine réserve ne parler que de tir instrumenté, mais cela contraste déjà avec ce que l’on connait des armes de chasse de Néanderthal et de leur conception.

L’autre aspect remarquable, encore peu habituel, est la convergence et la complémentarité de données provenant de la culture matérielle et de la mémoire de nos gènes, qui ne purent s’influencer au regard des dates d’étude et de publication respectives. Les deux conjuguées esquissent la réécriture du scénario de l’arrivée d’Homo Sapiens en Europe : on le pensait venu directement d’Afrique par le chemin le plus court, il y a 45 000 ans, et on le découvre implanté depuis fort longtemps au cœur du continent eurasiatique, bien avant qu’il n’en sorte en quête de nouveaux territoires.

The Conversation

Plisson Hugues a reçu des financements du CNRS et de l'université de Bordeaux

Andrey I. Krivoshapkin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

PDF
25 / 25
  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌓