20.01.2026 à 16:59
Anthony Chung Chai Man, Assistant Professor, ESCE International Business School
Béatrice Bellini, Enseignant-chercheur en modèles d'affaires responsables, Université Paris Nanterre
Norchene Ben Dahmane Mouelhi, Marketing, ESCE International Business School
Un affichage de type éco-score sur les vêtements pourrait-il avoir un impact sur les habitudes de consommation, en orientant les consommateurs vers les marques les plus vertueuses ? Ces derniers seraient-ils prêts à payer plus cher des vêtements respectueux de l’environnement ? Deux facteurs vont influencer la réponse des acheteurs : l’impact de l’éco-score sur l’image du vêtement et sur leur sentiment de culpabilité.
L’industrie textile est réputée être l’une des plus polluantes au monde, produisant 10 % des émissions mondiales de gaz à effet de serre et 20 % de la pollution de l’eau potable (Agence européenne pour l’environnement. Pourtant, contrairement au secteur alimentaire où le Nutri-Score est devenu familier en quelques années, le textile ne dispose pas encore de systèmes d’étiquetage environnemental largement reconnu dans le monde entier.
À lire aussi : Nutri-Score : pourquoi exempter les aliments AOP et IGP n’aurait aucun sens
Face à ce vide, l’Agence de la transition écologique (Ademe) a lancé une expérimentation d’éco-score textile, dans le cadre de la loi Climat et résilience, avec l’objectif de donner une information synthétique aux consommateurs pour identifier les vêtements les plus respectueux de l’environnement. Mais ce type d’affichage peut-il vraiment influencer les comportements d’achat ? Et surtout, sommes-nous prêts à payer plus cher pour des vêtements plus respectueux de l’environnement ?
Bien que plus de la moitié des consommateurs expriment le souhait que les marques de mode adoptent des pratiques plus vertueuses en matière d’écologie, moins d’un tiers se disent réellement prêts à débourser davantage pour des vêtements conçus de manière durable.
Nous avons étudié dans un article à paraître l’impact que pourrait avoir un indicateur de type éco-score sur la propension à payer un surprix, c’est-à-dire un prix plus élevé, pour des vêtements plus durables. Après avoir interrogé 136 clients dans deux magasins d’une même marque de vêtement, six scénarios ont été testés via une expérimentation en ligne auprès de 277 répondants. Les manipulations (des AB tests) correspondent aux éco-scores allant de A (très bon) à E (très mauvais), ainsi que l’absence de score.
L’éco-score est un signal efficace pour encourager les consommateurs à payer un surprix à travers deux mécanismes : l’image verte perçue de la marque et la culpabilité anticipée.
À l’heure où la fast-fashion explose (Shein a connu une croissance de 57 % en un an), il devient crucial de proposer des alternatives plus durables, qui ne soient pas seulement une forme de greenwashing.
Notre étude montre que les scores A et B, en améliorant significativement « l’image verte » des marques, augmentent la propension des consommateurs à payer un surprix, par rapport au même vêtement proposé sans indication de score. À l’inverse, les scores D et E ont un effet plus négatif que l’absence de score, alors que le score C a des effets similaires à l’absence de score.
L’image verte perçue de la marque joue ainsi un rôle clé. Un affichage environnemental clair et crédible améliore cette image, et peut donc devenir un levier stratégique pour les marques les plus vertueuses.
De manière contre-intuitive, notre étude révèle que seul le score E (le plus défavorable) génère plus de culpabilité anticipée comparativement à l’absence de score. La culpabilité est définie comme « l’anticipation d’un sentiment que l’on peut éprouver lorsqu’on envisage de violer ses normes personnelles ». Le score C, souvent perçu comme neutre, ou le D (négatif) ont les mêmes effets sur la culpabilité des consommateurs que l’absence de score. Cela souligne l’importance d’un affichage obligatoire, car sans signal clair, même un produit écologique peut être perçu comme peu vertueux. En effet, sans étiquette, les consommateurs ne détectent pas le caractère durable du produit, et ne sont donc pas enclins à payer plus cher. À l’inverse, une marque peu écologique qui n’affiche rien évite de générer de la culpabilité, ce qui peut favoriser l’achat.
Or, notre recherche montre que plus les consommateurs se sentent coupables, moins ils sont prêts à payer un surprix. Un affichage environnemental positif (scores A ou B) permet donc non seulement de valoriser les efforts des marques, mais aussi de réduire la culpabilité liée à l’achat, favorisant ainsi des comportements plus responsables.
Au-delà de son rôle incitatif, l’éco-score pourrait aussi jouer un rôle dissuasif : en rendant visibles les pratiques peu vertueuses, il pénalise les entreprises non responsables en exposant leur impact environnemental aux yeux des consommateurs. Ce mécanisme de signalement négatif pourrait encourager les marques à revoir leurs chaînes de production, sous peine de voir leur image écologiquement dégradée. L’absence de score, elle aussi, devient suspecte, puisqu’elle peut être interprétée comme une volonté de cacher des pratiques peu durables.
Reste le problème du nombre de labels, aujourd’hui nombreux et parfois confus. Notre recherche montre qu’un affichage standardisé et bien conçu peut aider à clarifier les choix. Les consommateurs veulent un signal simple et auxquels ils sont déjà familiers (« on a l’habitude de ce genre d’étiquette, comme pour le Nutri-Score ou l’électroménager », indique une des personnes interrogées). Mais attention : il ne s’agit pas dans notre étude de consommer moins, mais de consommer mieux.
La généralisation de l’éco-score textile pourrait encourager des pratiques d’achat plus durables, à condition que les marques jouent le jeu de la transparence ou qu’elles y soient contraintes. Pour les consommateurs, c’est une opportunité de faire des choix plus éclairés – et pour les marques, une chance de redéfinir leur positionnement éthique.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
20.01.2026 à 16:58
Hervé Bouy, Professeur, Astrophysique, Université de Bordeaux

Sa mission est de cartographier le cosmos pour en dévoiler les mystères. Mais au passage, le satellite Euclid a découvert une quinzaine d’exoplanètes sans étoiles : des planètes errantes. On en connaît peu, mais Euclid et de futurs satellites devraient nous aider à comprendre leur formation.
Lorsque le télescope spatial Euclid de l’Agence spatiale européenne (ESA) a été lancé en 2023, son objectif était d’explorer l’un des plus grands mystères de l’Univers : le côté obscur du cosmos. En cartographiant des milliards de galaxies, Euclid doit aider à révéler la nature de la mystérieuse énergie noire qui serait le moteur de l’évolution du cosmos. Il n’avait pas été conçu pour étudier les régions de formation d’étoiles ni pour traquer des planètes.
Mais quelques mois après son lancement, l’ESA a mis en place le programme d’observations préliminaires d’Euclid (Euclid early release observations, ou ERO). Ce programme vise à démontrer les performances exceptionnelles du télescope à travers une large gamme d’objets astrophysiques, qu’il s’agisse de galaxies et d’amas lointains ou de régions de formation d’étoiles beaucoup plus proches. Cela permet de mettre en lumière la polyvalence et la précision des instruments d’Euclid, et prouver leur valeur bien au-delà de sa mission principale de cosmologie.
Par définition, les planètes sont censées orbiter autour d’étoiles. Mais certaines sont solitaires, errant dans l’espace interstellaire sans étoile pour les réchauffer. Ces planètes errantes, comme on les surnomme, sont de véritables orphelines du cosmos. On pense qu’elles peuvent s’être formées comme des mini-étoiles, à partir de l’effondrement de petits nuages de gaz et de poussières.
Une autre hypothèse y voit de vraies planètes, nées autour d’une étoile et ayant été violemment éjectées de leur système d’origine. Les détecter et les étudier permet ainsi aux astronomes de mieux comprendre à la fois la formation des étoiles et la formation et l’évolution précoce (et parfois chaotique) des systèmes planétaires.
Jusqu’à présent, repérer ces corps discrets relevait presque de l’impossible tant la lumière qu’ils émettent est faible. Ils sont aussi très difficiles à distinguer d’autres objets astrophysiques, en particulier de galaxies lointaines. Mais Euclid, grâce à la combinaison unique d’un grand champ de vision, d’une résolution fine et d’une sensibilité allant de la lumière visible à l’infrarouge, a changé la donne.
Lorsque l’ESA a proposé à la communauté scientifique de participer au programme ERO, notre équipe a suggéré de pointer Euclid vers une région de formation d’étoiles bien connue : le nuage LDN 1495, au sein de la constellation du Taureau, situé à environ 450 années-lumière. Cette région sombre, où le gaz et la poussière se condensent pour former de jeunes étoiles, est étudiée depuis des décennies, mais ne l’avait jamais été avec la précision et la sensibilité fournie par Euclid.
Les observations d’Euclid ont été combinées à plus de vingt ans d’imagerie au sol accumulée par notre équipe et obtenue avec des télescopes, comme le Canada-France-Hawaii Telescope (CFHT), Subaru ou UKIRT, tous les trois situés sur le sommet du volcan Mauna Kea dans l’archipel hawaiien (États-Unis). Cette longue période d’observation nous a permis de mesurer les mouvements, les luminosités et les couleurs de centaines de milliers de sources faibles dans ces images.
Parmi elles, 15 objets se distinguent. Leur luminosité, leur couleur et leur mouvement correspondent à ceux attendus pour des objets qui se sont formés dans les nuages moléculaires du Taureau. Ces objets partagent certaines propriétés : étant nés à peu près ensemble, ils sont tous jeunes (quelques millions d’années), situés à une distance similaire (celle des nuages, d’environ 425 à 490 années-lumière) et se déplacent ensemble à la même vitesse et dans la même direction dans le ciel, ayant hérité du mouvement du nuage moléculaire où ils sont nés. Neuf de ces quinze objets sont totalement nouveaux, et parmi les plus faibles et les moins massifs jamais détectés dans cette région.
Certains de ces candidats sont incroyablement petits : d’après leur luminosité extrêmement faible, ils pourraient avoir des masses proches ou légèrement supérieures à celle de Jupiter. C’est bien en dessous du seuil de masse d’une étoile ou même d’une naine brune, un astre plus gros qu’une planète, mais trop petit pour être une étoile. Cela les place donc clairement dans la catégorie des objets de masse planétaire. S’ils sont confirmés, ils compteraient parmi les objets les plus légers jamais détectés de manière directe en dehors d’un système solaire.
Cette découverte est bien plus qu’une curiosité : elle ouvre une fenêtre directe sur la façon dont l’Univers fabrique ses étoiles et ses planètes. Ces mondes solitaires se forment-ils de la même manière que les étoiles, à partir de petits fragments de nuages qui s’effondrent sous l’effet de la gravité ? Ou bien sont-ils les orphelins de systèmes planétaires, expulsés par le chaos gravitationnel de leur famille ?
Chacun de ces deux scénarios a des implications différentes pour notre compréhension des premiers stades de la formation stellaire, mais aussi de la formation des planètes. Dans des régions comme la constellation du Taureau, où la densité d’étoiles est faible et les étoiles massives sont rares, ces objets de masse planétaire pourraient se former directement par effondrement gravitationnel, brouillant encore davantage la frontière entre planète et étoile.
Les résultats de notre équipe suggèrent également que ces planètes errantes pourraient ne pas être si rares. En extrapolant nos résultats à l’ensemble du complexe du Taureau, on peut estimer que des dizaines d’entre elles, encore à découvrir, pourraient exister dans cette région.
Ce travail ne constitue qu’une première étape. Euclid a déjà observé d’autres régions de formation d’étoiles dans le cadre du programme ERO, actuellement en cours d’analyse, et pourrait en observer à nouveau à l’avenir, offrant ainsi des mesures de mouvements encore plus précises et des recensements plus complets.
À moyen terme, le futur télescope spatial Nancy-Grace-Roman, dont le lancement est prévu à l’automne 2026, disposera de capacités similaires et complémentaires en grand champ et en infrarouge. Ensemble, ces télescopes ouvriront une ère nouvelle pour l’étude systématique des objets de très faible masse dans les jeunes régions du cosmos.
Enfin, le James-Webb Space Telescope jouera un rôle clé dans le suivi de ces découvertes, en fournissant les observations spectroscopiques indispensables pour confirmer la nature, la masse et la composition des atmosphères de ces mondes errants. Ces missions dessinent un avenir particulièrement prometteur pour l’exploration des origines des étoiles et des planètes errantes.
À lire aussi : Euclid vs James-Webb : le match des télescopes spatiaux ?
Chaque nouveau grand télescope finit par accomplir des découvertes qu’il n’était pas censé faire. Le télescope spatial Hubble a révolutionné la cosmologie, mais il nous a aussi offert des vues spectaculaires des pouponnières d’étoiles. Aujourd’hui, Euclid, construit pour cartographier le squelette invisible du cosmos, révèle de nouveaux mondes en formation flottant dans l’Univers sans attache et sans étoile. Petits, froids et solitaires, ces mondes vagabonds nous rappellent que la frontière entre planète et étoile est mince et que, même dans l’obscurité entre les étoiles, il reste des histoires à découvrir.
Hervé Bouy est membre senior de l'Institut Universitaire de France. Il a reçu des financements du Conseil européen pour la recherche (ERC) et a été employé à l'Agence spatiale européenne (ESA).
20.01.2026 à 16:57
Nonna Mayer, Directrice de recherche au CNRS/Centre d'études européennes, Sciences Po
Frédéric Gonthier, Professeur de science politique, Sciences Po Grenoble - Université Grenoble Alpes
Depuis la dissolution de juin 2024, le système politique français semble grippé et la confiance des Français dans les institutions politiques s’érode. Pourtant, la recherche montre que les citoyens ne rejettent pas la démocratie en tant que telle, ils rejettent un système politique qui ne fonctionne plus comme une démocratie.
La France s’est installée dans une zone de turbulences démocratiques durables. Effondrement des partis de gouvernement, poussée de la droite radicale populiste et fragmentation de l’Assemblée nationale nourrissent depuis quelques décennies l’idée d’une démocratie structurellement déstabilisée. La séquence électorale de 2024, marquée par des élections européennes triomphales pour le Rassemblement national (RN), la dissolution surprise de l’Assemblée nationale et l’aggravation de la crise du fait majoritaire, a amplifié ce diagnostic d’une démocratie fragilisée.
Ces turbulences masquent pourtant un paradoxe : si la confiance des Françaises et des Français dans les institutions politiques s’érode, leur attachement aux valeurs démocratiques demeure très solide. Contrastant avec un discours répandu, les recherches que nous avons menées avec 23 autres chercheurs mettent en évidence que les Français ne sont pas fatigués de la démocratie mais d’un système politique qui, à leurs yeux, ne fonctionne plus comme une démocratie.
Les enquêtes internationales sont sans ambiguïté. Selon la dernière vague de l’« Enquête sur les valeurs des Européens » (2018), plus de 90 % des Français considèrent la démocratie comme un bon régime politique. Un soutien comparable à celui observé dans la plupart des démocraties européennes, et largement devant le soutien à une alternative technocratique ou à un gouvernement autoritaire. De la même manière, une large majorité estime qu’il est essentiel de vivre dans un pays gouverné démocratiquement, avec une note moyenne de 8,6 sur une échelle allant de 1 pour « pas important du tout » à 10 pour « absolument important ».
Les Françaises et les Français sont nettement plus sévères quand il s’agit d’évaluer le fonctionnement de leur démocratie. Quand on leur demande à quel point la France est gouvernée démocratiquement, ils la situent à 6,4 sur une échelle où 1 indique « pas du tout démocratique » et 10 « complètement démocratique ». Cela conduit à un niveau de satisfaction dans la démocratie très modeste, de l’ordre de 5,2 selon l’« Enquête sociale européenne » de 2020. Le même décalage entre adhésion et insatisfaction démocratique apparaît dans la plupart des autres pays européens.
La crise actuelle ne traduit donc pas un rejet des valeurs démocratiques, mais une remise en cause d’un système institutionnel perçu comme n’étant plus en phase avec ces valeurs. Loin d’une fatigue démocratique « par le bas », c’est-à-dire parmi les citoyens, il s’agit plutôt d’une fatigue démocratique « par le haut », c’est-à-dire d’un processus dans lequel les pratiques de gouvernement contribuent à effriter la confiance des citoyens.
Le constat est désormais bien documenté dans la littérature comparative : les démocraties libérales s’affaissent moins sous l’effet d’une désaffection populaire ou d’un déficit de performances économiques et sociales que par des choix politiques, des logiques partisanes et des contournements institutionnels opérés par les élites au pouvoir. En France, plusieurs évolutions ont alimenté cette dynamique.
La centralisation extrême de la Ve République a progressivement transformé un exécutif fort en un exécutif hypertrophié, marginalisant le Parlement et affaiblissant les espaces de médiation censés coproduire la confiance démocratique : partis politiques, syndicats, corps intermédiaires… Les usages répétés de l’article 49.3, les négociations difficiles avec les partenaires sociaux ou encore les conventions citoyennes dont les recommandations ont été partiellement ou totalement écartées, ont renforcé l’idée que les dispositifs participatifs et délibératifs, supposés remédier aux dysfonctionnements de la démocratie électorale, restent largement symboliques.
Cette rigidification des pratiques de gouvernement s’est accompagnée d’une répression plus visible des mobilisations sociales. Des travaux récents, ainsi que la défenseure des droits, ont attiré l’attention sur la normalisation de dispositifs d’exception, l’extension du maintien de l’ordre judiciaire et administratif, et l’usage accru de qualifications pénales restrictives. De la gestion du mouvement des gilets jaunes à celle des mobilisations contre la réforme des retraites, la protestation, pourtant pilier historique de la vie politique française, s’est vue de plus en plus disqualifiée voire criminalisée. Ces évolutions ont aujourd’hui réduit la capacité de la société civile à influencer durablement l’agenda politique.
Face à la fermeture des canaux conventionnels, les aspirations démocratiques se déplacent vers des formes d’expression plus faiblement institutionnalisées : blocages, actions locales, pétitions, mobilisations numériques. Celles-ci traduisent un désir persistant de participation à la fabrique des choix publics.
Par ailleurs, les Françaises et Français sont maximalistes en matière de démocratie : ils adhèrent massivement aux piliers électoraux et constitutionnels du régime libéral, mais aussi à la dimension sociale de la démocratie, qui suppose l’égalité réelle et la protection contre l’arbitraire économique. On constate également un fort soutien à une souveraineté populaire plus directe, qui va de pair avec l’attrait pour des formes de démocratie sans intermédiaires. Les citoyens ordinaires tirés au sort ou les experts sont perçus comme capables de prendre des décisions rationnelles et rapides, transcendant les divisions politiques.
Les données du baromètre de la Commission nationale consultative des droits de l’homme (CNCDH) 2023 confirment ce soutien élevé aux réformes démocratiques. Le référendum recueille notamment une adhésion majoritaire, en particulier parmi les citoyens qui se sentent exclus de la représentation politique. Les électeurs du Rassemblement national, souvent décrits comme antidémocratiques, ne font pas exception à cette logique. Une part importante d’entre eux soutient des dispositifs de démocratie directe ou délibérative. Paradoxalement, ce parti qui valorise l’ordre et l’autorité ne trouve pas ses meilleurs soutiens chez les personnes en faveur d’un « dirigeant fort qui n’a à se préoccuper ni du Parlement ni des élections », mais chez celles qui souhaiteraient plutôt que « des citoyens tirés au sort décident ce qui leur paraît le meilleur pour le pays ». L’idée selon laquelle l’électorat de droite radicale populiste serait par principe hostile à la démocratie ne résiste pas à l’examen empirique.
Le décalage entre valeurs démocratiques et fonctionnement institutionnel s’enracine dans les inégalités sociales. La précarité économique, les faibles niveaux de revenus et de diplômes comme les discriminations raciales s’accompagnent d’un sentiment aigu de ne pas compter politiquement. Le score EPICES, qui mesure la précarité sociale individuelle, est fortement associé à l’abstention répétée. Les minorités racisées comme les classes populaires vivent la représentation comme distante, parfois hostile, et développent un rapport à la fois utilitaire et méfiant à la politique.
Les institutions de l’État social – école, logement, justice, services publics – constituent des lieux centraux où les citoyens font l’expérience concrète et émotionnelle de la démocratie. Or, sous l’effet de contraintes budgétaires et de réformes structurelles de long terme, ces institutions ont vu leur capacité protectrice se recomposer ; ce qui alimente un sentiment d’abandon et d’injustice. Sans un socle minimal de justice sociale, l’égalité politique formelle et l’État de droit peinent à produire de la légitimité durable.
La France est-elle alors en voie de basculer dans l’autocratisation ? En comparaison européenne, l’attachement à la démocratie est élevé. La participation record aux législatives anticipées de 2024 – plus de 66 %, soit près de vingt points de plus qu’en 2022 – rappelle aussi que les citoyens peuvent se mobiliser lorsque l’enjeu est perçu comme décisif. Enfin, il faut voir dans l’attrait des Français pour différentes formes de démocratie le signe d’une culture démocratique mature et exigeante, qui entend combiner pluralisme, efficacité, inclusion et capacité décisionnelle. Cela représente une opportunité pour l’action publique pour réinventer les règles du jeu démocratique en mêlant plusieurs façons de décider.
Dans ces conditions, la réponse aux turbulences actuelles ne peut se limiter à des ajustements techniques. Elle suppose une refondation du lien politique.
Les assemblées citoyennes dotées de pouvoirs réels, les référendums d’initiative citoyenne encadrés, les budgets participatifs décisionnels ou les dispositifs délibératifs sur les politiques complexes sont des instruments éprouvés et bénéficiant, on l’a vu, d’un soutien populaire significatif.
En définitive, la France se trouve à un carrefour. Une voie mène à la poursuite de la centralisation technocratique, à la déresponsabilisation des élites et à la tentation illibérale. L’autre ouvre sur un nouvel horizon démocratique, où la participation citoyenne produit de véritables décisions.
Le choix appartient moins aux citoyens, dont l’attachement aux valeurs démocratiques ne faiblit pas, qu’aux responsables politiques, aujourd’hui appelés à réformer un système perçu comme verrouillé. Les Français ne sont pas fatigués de la démocratie. Ils sont fatigués d’une démocratie inachevée, car vécue comme défaillante et confisquée.
Cet article est tiré de l'ouvrage « French Democracy in Distress. Challenges and Opportunities in French Politics » (Palgrave Macmillan, 2025), sous la direction de Nonna Mayer et Frédéric Gonthier. Une conférence autour de cette publication est organisée à Sciences Po le jeudi 29 janvier 2026 à partir de 17h.
Frédéric Gonthier a reçu des financements du programme Horizon Europe n°1010952237: TRUEDEM—Trust in European Democracies.
Nonna Mayer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.01.2026 à 15:04
Nicolas Bareït, Maître de conférences HDR en droit privé et sciences criminelles, Université de Pau et des pays de l’Adour (UPPA)

Agatha Christie, souvent surnommée la reine du crime, demeure l’autrice de fiction la plus vendue au monde : plus de 2 milliards d’exemplaires de ses livres ont été écoulés depuis leur première publication. Ses intrigues captivantes – de Ils étaient dix au Crime de l’Orient-Express – ont été traduites dans plus de 100 langues, plaçant Christie non seulement au sommet du genre policier mais aussi parmi les auteurs les plus lus de tous les temps. Mais l’habileté littéraire dissimule un autre aspect de son œuvre et de sa personnalité : Agatha Christie était aussi, dans ses fictions, la reine de la répression.
Pourquoi (re)lire Agatha Christie ? Pour prendre conscience du fonds idéologique de son œuvre. Pour saisir ce qui peut échapper à la (première) lecture, le lecteur étant implacablement pris et entraîné par la mécanique de l’intrigue policière, tournant les pages vers la résolution finale tant attendue. Les énigmes policières, qui pourraient sembler n’être que des constructions abstraites suspendues dans le vide, des casse-têtes brillants mais sans enjeux concrets, des jeux pour divertir l’esprit, portent, en leur sein ou dans le décor fictionnel dans lequel elles s’inscrivent, un discours sur la société. Lire le Meurtre de Roger Ackroyd pour la prouesse littéraire, oui, bien sûr, il le faut. Mais le relire aussi pour y percevoir « l’arrière-fable », selon une expression du philosophe Michel Foucault, et décrypter les messages ainsi adressés au lecteur, à son insu souvent.
Les romans policiers à énigme ne sont donc pas des produits littéraires jetables, dont la relecture serait du temps perdu. Bien au contraire : délivré de l’emprise de l’intrigue, le lecteur y gagne une nouvelle intelligence du texte. Il peut prendre le temps de discerner certains fils dans la trame policière qui disent quelque chose de la philosophie ou de la politique de l’auteur.
Alors, relisez Agatha Christie. Les rééditions infinies de ses textes vous y encouragent. Relisez-la en usant d’une clé de lecture tout à fait efficace pour avoir accès à sa vision du monde : les représentations de la justice pénale. Tous ces romans et nouvelles sont, en effet, porteurs d’une philosophie répressive singulière. Une philosophie répressive, c’est-à-dire une manière de concevoir les fonctions sociales de la peine.
Il est plusieurs conceptions possibles de la sanction pénale, qui peuvent d’ailleurs coexister. La peine peut tout d’abord être la réponse violente à l’infraction, le prix à payer par le criminel pour le crime qu’il a commis – le prix du sang. Il s’agit alors de justice rétributive : l’harmonie du monde est rétablie dès lors que le mal infligé à la victime est compensé par le mal subi par l’auteur du crime. La peine peut ensuite être un moyen d’empêcher un nouveau passage à l’acte, de dissuader les potentiels récidivistes. La justice pénale est, dans ce cas, utilitariste et elle se fonde sur l’idée que les individus peuvent être corrigés, améliorés. Enfin, la peine peut perdre son nom et devenir une « mesure » de justice restaurative : l’État est laissé de côté, l’objectif est dès lors de permettre à l’auteur et à la victime de l’infraction de trouver ensemble, par le dialogue, une issue satisfaisante à leur conflit.
Qu’en est-il chez Agatha Christie ? Dans son œuvre, la justice pénale est résolument rétributive. Elle est même, par certains de ses aspects, réactionnaire. Ne vous fiez pas trop aux aimables photographies présentant la romancière dans son bureau en inoffensive grand-mère. Tous ses récits à énigme enseignent que la justice humaine est inefficace, que les procédures légales tournent à vide, que les procès ne permettent pas d’aboutir à la vérité. Ce sont des agents d’une justice supérieure, surnaturelle, qui triomphent chez elle : le silencieux et mélancolique Harley Quinn, l’avocat des morts, messager de l’au-delà. Mais aussi Hercule Poirot – personnage à la vanité assumée et délicieusement comique, méthodique jusqu’à l’obsession, qui se prend pour Dieu le Père et qui finira sa carrière en assassin. Enfin Miss Marple, à l’apparence bienveillante, mais redoutablement lucide et plus perfide qu’il n’y paraît, incarnation de la déesse grecque de la vengeance Némésis. Némésis et non Thémis, la déesse de la justice.
Pour Agatha Christie, la vengeance est une forme de justice, et c’en est la forme la plus efficace. En effet, selon elle, le meurtre appelle la mort du meurtrier. Pas de place pour le pardon, ni pour la correction des comportements. Non, elle est très claire, elle l’écrit noir sur blanc dans son Autobiographie : les criminels doivent soit être exécutés, soit accepter d’être des cobayes pour la science, « la marque de Caïn enfin effacée de leur front ». Elle écrit ceci non pas en 1930 mais en 1977.
Toutes les morts se valent d’ailleurs. Que le criminel se suicide, qu’il succombe lors d’un accident ou qu’il soit exécuté sur le gibet, toutes ces issues sont satisfaisantes pour l’écrivain, dès lors que le prix du sang est payé.
Notre sensibilité européenne actuelle sera peut-être heurtée, mais l’évidence s’impose : Agatha Christie défend la peine de mort, c’est la seule peine qui lui semble juste. Il est d’ailleurs intéressant de relever qu’à chaque réforme adoptée en Angleterre en faveur de l’abolition de la peine capitale, Agatha Christie a fait connaître sa désapprobation dans ses récits de fiction. Relisez le Train de 16 h 50, relisez le Crime d’Halloween. Dès 1930, elle faisait dire à Miss Marple :
« Les scrupules humanitaristes modernes à propos de la peine capitale m’exaspèrent. »
Le monde littéraire d’Agatha Christie est un monde ordonné, un monde harmonieux, une bibliothèque où chaque ouvrage est à sa place. Le cadavre qui y surgit doit être évacué, les taches de sang effacées, la vérité dévoilée et le meurtrier châtié. Et peu importe le temps qui passe : la prescription de l’action publique n’existe pas dans l’œuvre d’Agatha Christie (elle n’existait pas non plus en droit anglais à l’époque où elle écrivait). Némésis possède une mémoire d’éléphant. C’est pourquoi Hercule Poirot peut enquêter seize ans après les faits dans Cinq petits cochons. Idem pour Miss Marple qui intervient dix-huit ans après l’affaire, dans la Dernière Énigme.
Réordonner le monde dérangé par le meurtre passe aussi par un moyen plus doux : le mariage. Innombrables sont les romans d’Agatha Christie dans lesquels l’intrigue policière se double d’une intrigue amoureuse trouvant son dénouement dans un mariage ou dans un projet de mariage. Hercule Poirot n’est pas qu’un détective, c’est aussi un entremetteur, un facilitateur de fiançailles. Or, réunir des amants, c’est, de fait, rétablir l’ordre du monde : l’infraction a sectionné le lien social, le mariage le retisse. Si, comme dans les contes de fées, le héros se marie à la fin d’un roman d’Agatha Christie, ce n’est pas par goût frivole du happy end, mais c’est encore pour traduire une philosophie pénale qui a été distillée dans l’esprit de millions de lecteurs, en sourdine.
Relire Agatha Christie, c’est finalement se donner les moyens de prendre conscience qu’un texte littéraire – même un texte relevant de la littérature populaire – est porteur d’un discours philosophique, social ou politique. Relire Agatha Christie, c’est également comprendre qu’il est possible d’aimer un auteur, sans nécessairement adhérer aux valeurs qu’il diffuse.
Nicolas Bareït ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.01.2026 à 14:29
Ludovic Slimak, Archéologue, penseur et chercheur au CNRS, Université de Toulouse
Today, as Greenland once again becomes a strategic prize, history seems poised to repeat itself. Staying with the Polar Inuit means refusing to speak of territory while erasing those who inhabit it.
On 16 June 1951 Jean Malaurie was travelling by dog sled along the north-west coast of Greenland. He had set out alone, almost on a whim, with a modest grant from the French National Centre for Scientific research (CNRS), officially to study periglacial landscapes. In reality, this encounter with peoples whose relationship with the world followed an entirely different logic would shape a singular destiny.
That day, after many months among the Inuit, at the critical moment of the spring thaw, Malaurie was travelling with a few hunters. He was exhausted, filthy and emaciated. One of the Inuit touched his shoulder: “Takou, look.” A thick yellow cloud was rising in the sky. Through his binoculars, Malaurie first thought it was a mirage:
“A city of hangars and tents, of metal sheets and aluminium, dazzling in the sunlight, amid smoke and dust… Three months earlier, the valley had been calm and empty of people. I had pitched my tent there, on a clear summer day, in a flowering, untouched tundra.”
The breath of this new city, he would later write, “would never let us go.” Giant excavators hacked at the ground, trucks poured debris into the sea, aircraft circled overhead. Malaurie was hurled from the Stone Age into the Atomic Age. He had just discovered the secret American base of Thule, codenamed Operation Blue Jay.
Behind this innocuous name lay a colossal logistical operation. The United States feared a Soviet nuclear attack via the polar route. In a single summer, some 120 ships and 12,000 men were deployed to a bay that had previously known only the silent glide of kayaks. Greenland’s population at the time numbered barely 23,000 people. In just 104 days, on permanently frozen ground, a technological city capable of hosting giant B-36 bombers carrying nuclear warheads emerged. More than 1,200 kilometres north of the Arctic Circle, and in almost total secrecy, the United States built one of the largest military bases ever constructed outside its continental territory. A defence agreement was signed with Denmark in the spring of 1951, but Operation Blue Jay was already underway: the American decision had been taken in 1950.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Malaurie immediately grasped that the sheer scale of the operation amounted, in effect, to an annexation of the Inuit world. A system founded on speed, machinery and accumulation had violently and blindly entered a space governed by tradition, cyclical time, hunting and waiting.
The blue jay is a loud, aggressive, fiercely territorial bird. Thule lies halfway between Washington and Moscow along the polar route. In the era of intercontinental hypersonic missiles, once Soviet and now Russian, it is this same geography that still underpins the argument of “vital necessity” invoked by Donald Trump in his calls to annex Greenland.
The most tragic immediate outcome of Operation Blue Jay was not military, but human. In 1953, to secure the perimeter of the base and its radar installations, authorities decided to relocate the entire local Inughuit population to Qaanaaq, roughly 100 kilometres further north. The displacement was swift, forced and carried out without consultation, severing the organic bond between this people and their ancestral hunting territories. A “root people” was uprooted to make way for an airstrip.
It is this brutal tipping point that Malaurie identifies as the moment when traditional Inuit societies began to collapse. In these societies, hunting is not merely a survival technique but an organising principle of the social world. The Inuit universe is an economy of meaning, made of relationships, gestures and transmission through the generations that confer recognition, role and place in relation to each individual. This intimate coherence, which constitutes the strength of these societies, also renders them acutely vulnerable when an external system suddenly destroys their territorial and symbolic foundations.
Today, Greenlandic society is largely sedentary and urbanised. More than a third of its 56,500 inhabitants live in Nuuk, the capital, and nearly the entire population now resides in permanent coastal towns and settlements. Housing reflects this abrupt transition. In the larger towns, many people live in concrete apartment blocks built in the 1960s and 1970s, often deteriorating and overcrowded. The economy is heavily dependent on industrial fishing geared toward export. Subsistence hunting and fishing are still commonplace. Modern rifles, GPS devices, snowmobiles and satellite connections now work hand in hand with old habits. Hunting remains a marker of identity, but it no longer shapes either the economy or intergenerational transmission.
The fallout on a human level from this shift is massive. Greenland today has one of the highest suicide rates in the world, particularly among young Inuit men. Contemporary social indicators, suicide rates, alcoholism, domestic violence, are widely documented. Many studies link them to the speed of social transformation, forced sedentarization and the breakdown of traditional systems of transmission.
The logic underpinning Thule reached a point of no return on 21 January 1968. During a continuous nuclear alert mission, a US Air Force B-52G bomber under the Chrome Dome programme, crashed into the sea ice some ten kilometres from Thule. It was carrying four thermonuclear bombs. The conventional explosives designed to initiate the nuclear reaction detonated on impact. There was no nuclear explosion, but the blast scattered plutonium, uranium, americium and tritium over a vast area.
In the days that followed, Washington and Copenhagen launched Project Crested Ice, a large-scale recovery and decontamination operation ahead of the spring thaw. Around 1,500 Danish workers were mobilised to scrape the ice and collect contaminated snow. Decades later, many of them initiated legal proceedings, claiming they had worked without adequate information or protection. These cases continued until 2018–2019 and resulted only in limited political compensation, without any legal recognition of responsibility. No comprehensive epidemiological study has ever been conducted among the local Inuit populations.
Now renamed “Pituffik Space Base”, the former Thule base is one of the major strategic nodes of the US military apparatus. Integrated into the US Space Force, it plays a central role in missile warning and space surveillance in the Arctic, under maximum security conditions. It is not a relic of the Cold War, but an active pivot of contemporary geopolitics.
In The Last Kings of Thule (1953), Malaurie shows that indigenous peoples have never had a place at the heart of Western strategic thinking. Amid the great manoeuvres of the world, Inuit existence becomes as peripheral as that of seals or butterflies.
Donald Trump’s statements do not herald a new world. They seek to generalise a system that has been in place in Greenland for seventy-five years. Yet the position of one man cannot absolve us of our collective responsibilities. To hear today that Greenland “belongs” to Denmark and therefore falls under NATO, without even mentioning the Inuit, is to repeat an old colonial gesture: conceiving territories by erasing those who inhabit them.
The Inuit remain invisible and unheard. Our societies continue to imagine themselves as adults facing infantilised, indigenous populations. Their knowledge, values and ways of being are relegated to secondary variables. Difference does not fit within the categories that our societies know how to handle.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Following Jean Malaurie, my own research approaches humanity through its margins. Whether studying hunter-gatherer societies or what remains of Neanderthals once stripped of our projections, the “Other” remains the blind spot for our perceptions. We fail to see how entire worlds collapse when difference ceases to be thinkable.
Malaurie ended his first chapter on Thule with these words:
“Nothing was planned to imagine the future with any sense of elevation.”
What must be feared above all is not the sudden disappearance of a people, but their silent and radical relegation within a world that speaks about them without ever seeing or hearing them.
Ludovic Slimak ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
20.01.2026 à 11:34
Bruno Laurioux, Professeur émerite, Université de Tours

De l’intérêt de limiter sa consommation de viande, voire de s’en priver, au bénéfice de sa santé. C’est un des arguments avancés par celles et ceux qui promeuvent le végétarisme. Mais savez-vous que cette question, ô combien d’actualité, divise les spécialistes depuis… le Moyen Âge ? C’est ce que nous raconte Bruno Laurioux, professeur émérite à l’université de Tours et président de l’Institut européen d’histoire et des cultures de l’alimentation dans Une histoire de la diététique. D’Hippocrate au Nutri-Score (éditions du CNRS, 2025).
Dans la longue histoire du végétarisme, trois arguments principaux ont été avancés pour justifier le refus – ou le rejet – de la viande. Le plus ancien est d’ordre éthique ; on le retrouve chez certains néo-pythagoriciens de l’Antiquité tardive, qui stigmatisent la violence faite à l’animal lorsqu’on le met à mort pour le consommer. L’argument le plus récent – il date du XXe siècle – est de nature environnementale et pointe les impacts très négatifs de l’élevage intensif, en termes de rejet de gaz à effet de serre ou de prélèvement des eaux.
Mais, on l’oublie souvent, l’une des motivations de ceux qui se privent totalement de viande peut être le souci de leur santé. Entretenue par les crises sanitaires à répétition qui touchent le secteur de la production animale depuis le déclenchement de l’encéphalopathie spongiforme bovine (ESB, surnommée communément « maladie de la vache folle ») à la fin des années 1990, puis ravivée par la mise en évidence des effets cancérogènes d’une consommation soutenue de viande rouge, une méfiance certaine envers la viande s’est installée dans notre paysage.
À lire aussi : Pour promouvoir l’alimentation végétale, l’argument santé serait plus efficace que l’argument écologique
Or, cette ligne de contestation de la consommation carnée a été également utilisée dans un passé parfois lointain, qui va du Moyen Âge au XXe siècle. C’est ce que nous décrivons dans Une histoire de la diététique. D’Hippocrate au Nutri-Score.
Le traité De esu carnium (en français, Sur la consommation des viandes) a été composé entre 1302 et 1305 par l’un des plus grands médecins du temps, le Catalan Arnaud de Villeneuve ; la version originale intégrale de cet ouvrage intégrale étant De esu carnium d’Arnaldus de Villanova, éd. Dianne M. Bazell, Barcelone (Arnaldi de Villanova Opera medica Omnia, XI), 1999).
Professeur renommé à l’université de Montpellier, très bon connaisseur des textes médicaux traduits récemment de l’arabe, Arnaud de Villeneuve met ses talents de praticien au service du roi d’Aragon comme du pape. Il prend ici la défense des Chartreux ; cet ordre monastique rigoriste, fondé par saint Bruno, est accusé de laisser mourir ses membres malades, en leur refusant absolument l’usage de la viande. Or, la possibilité d’en manger avait été ouverte, précisément pour les malades, par la règle bénédictine, la plus répandue en Occident.
De manière générale, l’interdiction de la viande des animaux terrestres et aériens, qui constituait le cœur du carême pour les fidèles et s’imposait aux moines à perpétuité, s’était notablement assouplie. Et ceci sous l’effet du système de représentation dominant dans la société laïque qui valorisait la consommation carnée ; un système face auquel les petites communautés de Chartreux apparaissaient comme des pôles de résistance.
Contre les détracteurs des Chartreux qui les présentent comme cruels ou dénués de toute humanité en ne permettant pas la viande aux malades en grand danger de mort, Arnaud de Villeneuve veut prouver qu’on agit plus efficacement en leur administrant des médicaments et que les mets végétaux ne présentent aucun danger supplémentaire par rapport aux mets carnés – bien au contraire. Il pose ainsi une série d’arguments médicaux tirés des auteurs de référence qu’il maîtrise à merveille.
D’abord, démontre-t-il, prescrire de la viande ne sert à rien quand le malade a juste besoin de médicaments. Ensuite, la chaleur supplémentaire que procure la graisse contenue dans la viande, invoquée par certains détracteurs des Chartreux, n’apporte rien aux malades et peut même être très nuisible à leur guérison.
Troisième argument : la viande restaure certes les muscles mais non la force vitale tout entière ; si le sang « épais et glutineux » qu’elle engendre peut certes aider le corps au quotidien, le vin et les jaunes d’œuf (qui font partie du régime monastique ordinaire), parce qu’ils sont « légers et subtils », se révèlent, juge-t-il, bien plus utiles pour restaurer l’ensemble de ses fonctions physiques et cognitives. (La « prescription » de vin à des malades peut surprendre aujourd’hui, à raison. Mais à l’époque, leur donner du vin, donc de l’alcool, ne fait pas débat, ndlr).
Le médecin catalan, qui se pique aussi de théologie, rappelle au passage que la Bible ne présente jamais la viande comme une nourriture saine ni nécessaire. Et il constate que les Chartreux, même s’ils se privent totalement de viande, vivent fort vieux, atteignant couramment 80 ans, à l’instar des patriarches des premiers âges du monde, où la viande n’était pas encore d’usage.
La conclusion s’impose : la consommation de viande n’est nullement une nécessité en cas de maladie et, par conséquent, s’en priver ne constitue pas un danger ; ceux qui prétendent nécessaire l’usage de la viande ont en réalité mal compris ses effets sur l’alimentation. Conclusion forte, qui intéressa les lecteurs mais n’eut guère d’impact sur les pratiques. Le De esu carnium fut souvent copié et parfois cité mais n’empêcha pas le vaste courant favorable à la viande de se développer et d’emporter tout sur son passage.
Pourtant le plaidoyer anti-viande ressurgit au début du XVIIIe siècle, sous la plume du bouillant Philippe Hecquet. Ce « self-made-man », devenu médecin du prince de Condé et doyen de la faculté parisienne, manifeste ses talents de polémiste en s’attaquant aux libertés que des fidèles toujours plus nombreux ont pris avec les obligations du carême. Et, scandale majeur pour le rigoureux janséniste qu’il est, sur les conseils mêmes de leur médecin traitant !
Car le contexte a bien changé depuis Arnaud de Villeneuve. Le carême s’est retrouvé au cœur de la contestation que la Réforme protestante a menée contre bien des dogmes et des pratiques catholiques non attestés dans l’Écriture. Avec le siècle des Lumières s’amorce un mouvement encore plus profond dans la société d’Ancien Régime, celui d’une déchristianisation progressive. S’ensuit une forte augmentation de la vente de viande, qui, durant le carême, est traditionnellement détenue par l’Hôtel-Dieu, en vertu des dispenses accordées aux malades.
C’est contre cette évolution que s’élève Hecquet, lorsqu’il publie en 1709 son Traité des dispenses du carême.
Il entend notamment y établir « par l’histoire, par l’analyse et par l’observation », la « convenance » que les aliments maigres entretiennent « avec la santé ». Au bout de quelque 73 chapitres, Hecquet a réussi l’exploit de démontrer à la fois
« que le Carême n’a rien de si extraordinaire » ni de « trop austère » et « que les fruits, les grains et les légumes sont », contrairement à la viande, « les aliments les plus à naturels à l’homme ».
Pour cela, il dresse le profil diététique d’un grand nombre de produits végétaux.
La conclusion qu’il en tire est sans appel :
« Il est vrai de dire que le maigre est plus naturel à l’homme que le gras, qu’il fait moins de maux, et guérit plus de maladies. »
C’est un renversement complet du système de valeur diététique qui est ici proposé, avec l’affirmation d’une absolue supériorité médicale des céréales, fruits et légumes.
Le traité de Philippe Hecquet connait un retentissement immédiat. Mais il indispose fort la plupart des collègues. Dans l’ombre, l’un d’entre eux fourbit ses armes en vue d’un ouvrage qui va en prendre le contrepied. Pour ce Nicolas Andry, l’abstinence de viande n’est ni plus ni moins que « l’écueil de la santé ». Or, Hecquet affirme exactement le contraire, en voyant dans l’antériorité du régime végétal mentionnée dans la Bible la preuve de sa supériorité sur le régime carné : Dieu n’a-t-il pas ainsi manifesté sa préférence ?
D’autre part, tout à sa volonté de combattre les dispenses abusives de carême, Hecquet a déniché, dans les statistiques sur les consommations carnées de Paris, les preuves d’un fâcheux relâchement des pratiques d’abstinence. Ce faisant, il touche les puissants intérêts professionnels des bouchers comme ceux des médecins. Il semble aussi franchir une ligne rouge aux yeux de l’Église, en faisant de la privation de viande non plus une pénitence mais un choix, semblant revenir à d’anciennes hérésies.
C’en est trop. Andry réfute point par point les arguments de Hecquet dans les deux volumes de son Traité des dispenses de Carême parus en 1713. L’une de ses affirmations les plus fortes se fonde sur un retournement de son raisonnement : c’est précisément parce que les aliments de carême nourrissent mal que l’Église en a prescrit l’usage, afin de ne pas satisfaire complètement les besoins du corps. En 1714, l’intervention du plus grand médecin du temps, Jean Astruc, qui affirme clairement la supériorité nutritive du gras sur le maigre, marque la défaite du végétarisme médical. Tout au moins en France.
Car, outre-Manche, le courant végétarien qui se développe à partir du XIXe siècle s’appuie sur des arguments médicaux, auxquels une figure comme Anna Klingsford donnera la forme d’un axiome :
« Non seulement les substances végétales renferment tous les éléments nécessaires à la nutrition et à la production de force et de chaleur, mais […] même elles en contiennent plus que les substances animales. »
Paradoxalement, c’est dans la citadelle du carnisme qu’était devenue la faculté de Paris qu’elle soutiendra sa thèse en 1880.
Bruno Laurioux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.01.2026 à 16:30
Firouzeh Nahavandi, Professeure émérite, Université Libre de Bruxelles (ULB)
In Iran, protestors and especially militants are being subjected to an extremely violent crackdown with shooting aimed at their eyes. Blinding the enemy who dares to dispute the powers that be, is the latest act of repression to go down in the country’s long history.
Over the course of the Iranian dissident action in recent years, and during the nationwide Women, Life, Freedom movement in 2022 the frequency of eye injuries inflicted upon protestors has come under public scrutiny. Women, young people and students, often passers-by even, have literally lost an eye, or their – eyesight – from buckshot or close-range projectiles. A tactic by security forces that we are now witnessing again: lawyer and 2003 Peace Nobel laureate Shirin Ebadi estimated on 9 January that “at least 400 people have been admitted to hospital in Tehran with firearm-related eye injuries since protests kicked off at the start of the year.
Such brutal use of force reveals far more than just police slip-ups. These acts are part of a political rhetoric that is echoed throughout Iran’s long history, in which aiming for the eyes symbolically signifies stripping someone of their personal, political capital.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
In ancient Iranian political culture, power and the eyes are inextricably linked. I see, therefore I know; I see, therefore, I judge; I see, therefore I govern. This concept runs throughout Iran’s literary and political realms. For instance, in the Shahnameh (Book of Kings) by Ferdowsi (10th Century), blindness constitutes a narrative marker of political and cosmic decline: heralding the loss of farr (divine glory), the principle of the legitimisation of power as a durable, symbolic disqualification of the exercise of sovereignty. Being blinded is synonymous with being fallen.
In the Shahnameh, the passage where Rustam blinds Esfandiar with an arrow is an edifying scene for Iran’s political realm: by targeting the eyes, the tale overtly associates the loss of vision with the disqualification of power and an end to all grounds for claiming sovereignty.
Historically, blindness was used as a political neutralising weapon. It was a way of eliminating a rival – prince or dignitary – without spilling blood, which was considered sacrilegious where the elite was concerned. Blind people weren’t executed, they were eradicated from the political arena.
The Shah of Persia Abbas the Great (who ruled from 1588 until his death in 1629) blinded several of his sons and grandsons whom he suspected of plotting against him or opposing succession to the throne.
In 1742, Nader Shah ordered for his son, then heir to the throne Reza Qoli Mirza to be blinded, an emblematic act of political silencing practices in Persia.
The Islamic Republic does not lay claim to blinding as punishment, but the massive repetition of eye injuries during contemporary repression reveals a symbolic continuity.
Once rare, targeted and admitted to, the use of blinding is now widespread, denied by the authorities, carried out using weapons termed "non-lethal” and rarely sanctioned.
Yet its political role of neutralising without killing, strike the body to deter and prevent further dissent still remains comparable.
In contemporary Iran, the eyes have become a political weapon. Demonstrators film, document and diffuse what they see. Images circulate, reach the borders and weaken the government’s narrative. When the eyes are hit, you can’t see or show others, putting a stop to filming, identifying and witnessing.
The target isn’t just the individual’s point of view; it’s the broader vision that connects the streets of Iran with international public opinion.
Unlike the act of blinding in ancient times that was reserved for the male elite, nowadays eye-related violence mainly is targeted at women and young people. The female gaze, independent, freed from all ideological control, for the world to see becomes politically intolerable for a regime founded on dictating the body and what should be seen.
The ongoing repression following on from mass protest action that kicked off in late December 2025, intensified after a nationwide Internet blackout, blatantly sought to reduce exposure of the acts of violence inflicted on protestors.
Independent medical reports and witness accounts described hospitals as being overwhelmed with casualties – specifically eye-related – along with a rise in crowd-control involving firearms with real bullets, documented in several Iranian provinces. These injuries confirm that the body and particularly, the ability to see and report, are still the main target of repressive rule.
Beyond the figures, women’s first-hand accounts tell a different tale of these contemporary practices. While Iranian society has witnessed women spearheading activist movements since Mahsa Jina Amini’s killing in 2022 – some of whom were deliberately blinded during protests –, such injuries symbolise both crackdown efforts to cancel out the independent female gaze posing a political threat to the establishment; and the resistance of these injured, yet defiant women bearing mutilated faces, who are living proof of Iranian repression.
History isn’t confined to a distant past of political neutralisation: it is impregnated by women of today’s personal bodily experiences, where eye trauma can be interpreted as exploitative violence and a sign of a political struggle that revolves around the field of vision.
The Islamic Republic may have broken away from the monarchy’s sacredness, but the ancient principle by which the body is perceived as capital that holds personal power, is still intact. While monarchs resorted to blinding their subjects in order to protect their dynasties, security forces use mutilation to ensure its survival.
This strategy produces a paradoxical effect. In Persia, blinding was used as a weapon of political destruction in ancient times. Today, it makes the regime’s brutality visible for all to see. As mutilated faces are in circulation, victims become symbols and the eyes they have lost become a testimony to Iran’s profound crisis of democratic legitimacy.
History doesn’t repeat itself but it lives on through gestures. By shooting at the eyes, the Iranian government revives the old rule book for domination: take away an individual’s ability to see and you politically eliminate them.
Firouzeh Nahavandi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.01.2026 à 16:27
Magali Trelohan, Enseignante-chercheuse, comportements de consommations, sociaux et environnementaux, EM Normandie

Près de la moitié des Européens et des Européennes sont propriétaires d’un animal de compagnie. Logiquement, des offres touristiques pet-friendly émergent partout sur le Vieux Continent. Mais en quoi consistent ces nouvelles offres ? Que disent-elles de nos sociétés ? Réponse avec les témoignages de propriétaires voyageant avec leurs chiens.
En Europe en 2022, 46 % des habitants, soit 91 millions des foyers, possèdent au moins un animal. Et voyager avec son chien n’est plus une exception. Pour de nombreux propriétaires, l’animal fait partie intégrante de la famille, y compris pendant les vacances. Cette évolution a favorisé l’essor d’une offre touristique dite pet-friendly, particulièrement visible dans l’hôtellerie et les locations de courte durée.
Derrière ces offres séduisantes se cache une réalité bien plus contrastée : il existe des décalages forts entre discours marketing et expériences vécues par les clients. Accepter les animaux ne signifie pas nécessairement répondre aux attentes de leurs maîtres, ni aux besoins de l’animal lui-même. C’est ce que nous soulignons dans l’étude menée auprès de propriétaires de chiens, conduite par Axelle Boulet, étudiante à l’EM Normandie.
Nos entretiens révèlent une relation très investie émotionnellement entre les maîtres et leur chien. Cette centralité de l’animal dans la sphère familiale est bien documentée. Ces études scientifiques soulignent que les chiens sont de plus en plus perçus comme des membres à part entière du foyer, influençant directement les décisions de loisirs et de vacances, mais aussi les attentes vis-à-vis des services touristiques.
« On le considère comme un membre de la famille. Concrètement, nous allons chez des amis, on prend le chien et on prépare son sac ! », explique Emma, l’une des personnes interviewée.
Cette relation structure le choix des vacances. Une recherche en marketing souligne que voyager avec son animal répond à la fois à un attachement affectif et à la volonté d’éviter la culpabilité ou l’inconfort liés à la séparation.
« On l’emmène, car, pour l’instant, on n’est pas prêts à partir sans elle », confie Chantal, propriétaire d’un chien.
Les discours des propriétaires d’animaux font ressortir plusieurs niveaux d’exigences comme la sécurité, le confort et le prix.
La sécurité avant tout
Les propriétaires recherchent avant tout un espace qui permette au chien d’évoluer sans danger. L’absence de clôture peut transformer un séjour en source de stress, voire de déception. Nelly, propriétaire de deux chiens, raconte :
« Il y avait 15 000 m2 de terrain, mais la clôture n’était pas bien fermée. On a dû garder les chiens en laisse. Ça a été une grosse déception. »
La sécurité est pensée à la fois pour l’animal et pour les autres : éviter les fugues, les accidents, les conflits de voisinage. Sans cet élément, l’hébergement est tout simplement disqualifié.
Confort du chien
Les propriétaires apprécient les attentions matérielles – paniers, gamelles, plaids – mais celles-ci restent secondaires. Beaucoup préfèrent apporter leurs propres équipements afin que le chien conserve ses repères. Chantal explique :
« La gamelle, non. J’emmène ses affaires à elle. Quand on arrive quelque part et qu’on met son panier par terre, tout de suite elle se couche là. »
Pouvoir laisser son chien seul dans le logement, circuler librement, ne pas avoir à constamment négocier sa présence sont autant d’éléments qui conditionnent l’expérience globale du séjour.
Suppléments financiers
Les suppléments financiers cristallisent les tensions, surtout lorsqu’ils ne correspondent à aucun service concret. Chantal résume :
« On annonce un prix, plus la caution pour animal, plus le ménage pour animal… Donnez-moi un prix total et puis on n’en parle plus. »
De nombreux participants dénoncent l’écart entre l’étiquette pet-friendly et les conditions réelles d’accueil. Louise, propriétaire d’un chien, témoigne :
« Il y a beaucoup d’endroits où on me dit OK, mais sous la table, on ne veut pas le voir. Tu vois dans leur regard qu’il ne faut pas qu’il dérange. »
Le terme pet-friendly recouvre des réalités très hétérogènes, allant de la simple tolérance de l’animal à une véritable intégration de sa présence dans l’expérience touristique. Alors, à quoi ressemblerait un pet-friendly idéal ?
Au-delà des compromis imposés par l’offre existante, les entretiens proposent une représentation très claire de ce que serait un accueil pleinement assumé.
Dans l’idéal, le chien n’est ni toléré ni suspect, il est accueilli comme un hôte légitime. Samira indique : « Un hôtel pet-friendly, c’est un hôtel où le chien a accès au lit et au canapé. » Les expériences vécues à l’étranger servent souvent de point de comparaison. Mireille, propriétaire de trois chiens, raconte :
« En Italie, les chiens sont admis dans les restaurants, dans les salons de thé, dans les transports. C’est fantastique. »
Certaines personnes interviewées évoquent des infrastructures spécifiques, comme les piscines pour chiens, les espaces de toilettage ou les zones de baignade. Ces dispositifs restent rares, mais incarnent un pet-friendly pensé pour le bien-être animal.
Dans cette représentation idéale, le séjour n’est plus une succession de contraintes à gérer, il devient une expérience partagée. Les propriétaires sont conscients que cet idéal est encore marginal. Mais il constitue une référence implicite pour évaluer l’offre existante. Une propriétaire interviewée, Mireille, imagine son idéal :
« Je ferais une garderie pour chiens, comme une garderie d’enfants, pour que les maîtres puissent aller visiter tranquillement. »
À travers la question du pet-friendly, c’est une transformation plus large du tourisme qui s’opère. Le voyage est de plus en plus pensé pour un binôme humain-animal, aux besoins étroitement liés. Dans ce contexte, accepter les chiens ne peut plus se limiter à une simple mention dans une annonce. C’est la cohérence entre discours, pratiques et conditions d’accueil qui fait la différence.
Cette évolution pose la question de la cohabitation avec les voyageurs qui ne souhaitent pas partager les espaces touristiques avec des animaux. Pour les professionnels, l’enjeu est particulièrement délicat : composer avec des attentes parfois divergentes, sans dégrader ni l’expérience des propriétaires d’animaux ni celle des autres clients.
Cet article a été co-rédigé avec Axelle Boulet dans le cadre de son mémoire de fin d’études à l’EM Normandie.
Magali Trelohan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.01.2026 à 16:25
Pauline Teixeira, Docteur en biologie cellulaire, Université d’Angers
Arnaud Chevrollier, Professeur des Universités Biologie Médicale, Biotechnologie, Université d’Angers
Solenn Plouzennec, Doctorante, Université d’Angers

Explorer l’intérieur de nos cellules et leurs compartiments, tout en identifiant chaque protéine pour les cartographier, préciser leurs interactions et déchiffrer de nouveaux mécanismes biologiques… c’est désormais à notre portée grâce au développement de microscopes de super-résolution. Grâce à ces nouvelles techniques, les mitochondries, composants clés des cellules impliqués dans de nombreuses pathologies, révèlent une partie de leurs mystères.
Les mitochondries sont principalement connues pour être les centrales énergétiques de nos cellules, car elles y sont responsables de la production d’énergie et de chaleur. Elles participent également à la synthèse de nombreuses molécules et assurent un contrôle crucial sur la vie et la mort des cellules. Récemment, des microscopes ultrasophistiqués ont permis de mettre à jour l’incroyable vie active des mitochondries, qui se déplacent, fusionnent entre elles et se séparent.
Ces progrès sont cruciaux car les mitochondries sont impliquées dans de nombreuses atteintes neurodégénératives, maladies cardio-vasculaires et cancers. Comprendre comment les mitochondries endommagées contribuent au processus d’une maladie est essentiel pour le développement de traitements.
Dans la plupart des cellules et des tissus, les mitochondries ont la forme de tubes, plus ou moins longs. Les mitochondries s’adaptent à la taille et aux besoins énergétiques des cellules, ainsi dans les larges cellules énergivores, il peut y avoir plus de 200 000 mitochondries par cellules tandis que dans d’autres cellules, il y aurait moins de 100 mitochondries. En fonction de l’organe d’origine de la cellule, les mitochondries se répartissent dans la cellule et forment de grands réseaux. Elles changent également sans cesse de formes et leurs attachements avec les autres structures de la cellule.
Dès les années 1950, les données de microscopies électroniques ont révélé la structure de ces petits tubes et précisé leur organisation membranaire. Leur membrane externe est doublée d’une membrane interne, qui s’invagine et forme des poches à l’intérieur des mitochondries. Ces poches sont appelées crêtes et sont le lieu de la synthèse d’énergie.
Pour bien comprendre la fonction des mitochondries, il faut donc s’intéresser à leur structure, leur dynamique et leur distribution. Un axe important de travaux scientifiques porte sur cette relation structure-fonction afin de découvrir de nouveaux moyens de protéger la morphologie mitochondriale et de développer des stratégies thérapeutiques pour lutter contre les maladies mitochondriales ou les atteintes neurodégénératives.
Si la microscopie électronique permet d’obtenir des vues extrêmement détaillées des mitochondries, son utilisation ne permet pas de rendre compte de la complexité de leur organisation au sein des cellules, ni de leur nature dynamique. En effet, ce type de microscopie se limite à des images cellulaires figées dans le temps. C’est ici qu’intervient la microscopie de fluorescence, un domaine en pleine effervescence qui permet de capturer des images ou des vidéos.
La microscopie de fluorescence repose sur le principe d’excitation et d’émission contrôlées de photons, particules composant la lumière, par des molécules présentes dans les cellules. Contrairement aux microscopes à fond clair, qui sont les microscopes les plus simples, comme ceux utilisés en cours de sciences, et où l’image est générée à partir des signaux collectés après le passage de la lumière à travers l’échantillon, les microscopes à fluorescence collectent les signaux lumineux qui proviennent de l’objet biologique lui-même, comme des petites ampoules que l’on allumerait au cœur de la cellule.
Le développement de l’informatique et des capteurs de caméra sensibles et rapides ont également rendu possible le suivi des signaux dans le temps, et la quantification des mouvements de chaque compartiment des mitochondries.
Pour aller plus loin que ces observations déjà fascinantes de réseaux de mitochondries, la microscopie de fluorescence ne suffit pas. En effet, en microscopie optique, les objets plus petits qu’une certaine taille, environ 200-300 nanomètres radialement et 500-700 nanomètres axialement, ne peuvent pas être distingués. En effet, selon un principe physique, la diffraction de la lumière, soit la déviation des rayons lumineux, fait qu’un émetteur unique apparaît comme une tache sur la caméra – on parle de figure de diffraction, et plus précisément ici de « fonction d’étalement du point ».
Cette limitation entrave l’observation précise de structures complexes telles que les mitochondries du fait de leur taille qui est similaire à la limite de diffraction.
La microscopie de fluorescence à super-résolution (microSR) a changé la donne dans le domaine de la recherche biologique depuis les années 2000. Grâce à cette technologie, les scientifiques peuvent pénétrer dans le monde nanoscopique et observer en temps réel les structures complexes et les interactions des composants cellulaires. La microscopie de fluorescence à super-résolution englobe quatre techniques principales, dont l’une a été récompensée par le prix Nobel de chimie en 2014.
Chacune de ces techniques s’attaque à la limite de diffraction d’une manière unique, permettant de séparer des points situés à moins de 200 nanomètres. Cette avancée permet aux chercheurs d’atteindre des résolutions spatiales de quelques nanomètres, dévoilant ainsi les détails les plus fins des structures cellulaires comme jamais auparavant. Restreints il y a encore peu de temps à quelques laboratoires prestigieux dans le monde, ces équipements se démocratisent et se déploient dans les plates-formes de microscopie.
Nous avons utilisé un type de microscopie de fluorescence à super-résolution, la microscopie de localisation de molécules uniques, qui nous a permis d’identifier les protéines sur les membranes des mitochondries et de les cartographier.
Avec un autre type de microscopie de fluorescence à super-résolution, nous avons visualisé le contour des crêtes, retrouvant ainsi le visuel connu d’une image de microscopie électronique… à ceci près qu’aucun traitement chimique liée à la fixation de l’échantillon n’est venu perturber l’organisation de ces fines membranes et fragiles petites poches. Ceci permet de découvrir la complexité interne des mitochondries et l’hétérogénéité de ses structures, afin de corréler la morphologie des mitochondries à leur activité ou à la présence de défaut génétique.
Ces images donnent accès à deux échelles de temps, c’est-à-dire deux niveaux de cinétique. D’une part, sur quelques minutes durant lesquelles nous pouvons observer, nous voyons que les mitochondries se déplacent, changent de forme, fusionnent entre elles ou se séparent.
D’autre part, toujours avec la microscopie de super résolution, nous pouvons observer sur quelques secondes, toute l’ondulation et le remodelage des structures internes des mitochondries nécessaires à la production d’énergie.
Ainsi, on découvre que les mitochondries ne sont pas de simples centrales énergétiques cellulaires mais des organites dynamiques possédant de nombreuses particularités nanoscopiques. La microscopie de super résolution permet d’envisager une meilleure compréhension de comment les mitochondries endommagées contribuent au processus de nombreuses maladies, ce qui est essentiel pour le développement de traitements.
Arnaud Chevrollier a reçu des financements de l'Université d'Angers, AFM-téléthon
Pauline Teixeira et Solenn Plouzennec ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.
19.01.2026 à 16:24
Sarah Lawson, PhD Candidate in Ancient Linguistics, School of Theology, Faculty of Arts and Education, Charles Sturt University

Derrière ses histoires pleines d’humour et de tendresse, la série australienne Bluey cache des références culturelles et philosophiques bien plus profondes qu’il n’y paraît. En s’inspirant de récits bouddhistes, chrétiens ou taoïstes, certains épisodes proposent aux enfants – et à leurs parents – une manière accessible de réfléchir à la souffrance, à l’attente, à la perte ou à l’acceptation.
Bluey est une série intelligente qui puise dans toutes sortes d’inspirations pour ses histoires pleines de charme, y compris religieuses. Ma recherche récemment publiée examine ce que la série dit de la religion, et de la religion du jeu, qui sert de principe directeur à leur vie (NDLT : Bluey raconte la vie d’une famille de chiens anthropomorphes qui explorent le monde par le jeu.)
Trois épisodes en particulier montrent la diversité des religions dans l’Australie contemporaine et nous aident à réfléchir à la diversité et à la profondeur de la culture de ce pays.
Ces épisodes transmettent, de manière accessible et réfléchie, aux enfants et aux parents des leçons concises issues de religions bien réelles. Ils récompensent la curiosité et un regard réflexif sur les histoires, en encourageant les parents à s’investir plus profondément dans les programmes préférés de leurs enfants.
Voici donc ce que trois épisodes de Bluey disent de la religion, et les leçons qu’ils offrent aux enfants de toutes les religions, comme à ceux qui n’en ont aucune.
L’épisode « Bumpy et le vieux lévrier sage » est une reprise à peine voilée de la parabole bouddhiste de Kisa Gotami et des graines de moutarde (mais avec les fameuses graines de moutarde remplacées par des sous-vêtements violets !).
Dans l’épisode, Bluey et Bandit réalisent une vidéo racontant une histoire pour remonter le moral de Bingo, hospitalisée. Dans cette histoire, une femme (Barnicus) a un chiot appelé Bumpy, qui tombe gravement malade. Elle l’emmène voir le vieux lévrier sage pour demander de l’aide. Celui-ci est représenté assis en position du lotus, vêtu d’une robe faite de serviettes et coiffé d’une couronne de fleurs.
Le vieux lévrier sage lui demande une paire de sous-vêtements violets provenant de quelqu’un qui n’a jamais été malade. Comme Barnicus ne trouve personne qui n’ait jamais été malade, elle comprend que le sage cherchait à lui apprendre que tout le monde tombe malade un jour ou l’autre. La maladie fait simplement partie de la vie, et Bingo se sent réconfortée de ne pas être seule.
Dans la parabole originale des graines de moutarde, qui remonte au Ve siècle avant notre ère, Kisa Gotami est une mère dont le fils unique meurt. Lorsqu’elle se tourne vers le Bouddha pour obtenir de l’aide, celui-ci lui demande de récupérer des graines de moutarde auprès de familles où il n’y a jamais eu de décès. En cherchant à accomplir cette tâche impossible, Kisa Gotami comprend que la mort et la souffrance sont inévitables.
En réinterprétant ce récit religieux avec une touche d’humour et des enjeux atténués, l’épisode permet aux enfants d’apprendre un enseignement fondamental du bouddhisme. La maladie et la souffrance sont terribles, mais le fait de savoir que tout le monde y est confronté un jour peut nous réconforter et nous aider à relâcher notre attachement, ou notre besoin d’un bonheur et d’un bien-être permanents.
L’épisode « Pâques » fait écho à certains thèmes du récit chrétien associé à cette fête. Bluey et Bingo craignent que le lapin de Pâques les ait oubliées. Chilli et Bandit leur rappellent la promesse de ce dernier : il reviendra à coup sûr le dimanche de Pâques.
Mais ne trouvant pas les œufs en chocolat, elles s’inquiètent, en particulier quand le jeu exige du courage ou une forme de souffrance (mettre les pieds dans les toilettes de Papa). Elles se demandent alors si elles ne risquent pas d’être oubliées.
On peut y voir un parallèle avec la manière dont la Bible donne à voir la crainte des disciples de Jésus au lendemain de sa mort, pensant que Dieu les avait oubliés malgré la promesse qu’il leur avait déjà faite de revenir après trois jours. Cet enseignement reflète l’inquiétude que beaucoup de personnes ressentent : celle d’être peut-être trop insignifiantes ou trop pécheresses pour que Dieu se soucie d’elles.
L’épisode se termine lorsque Bluey et Bingo font rouler un ballon de gymnastique (la pierre) pour dégager une cavité sous le bureau (le tombeau) et découvrent que le lapin de Pâques ne les a pas oubliées : il a pensé à elles, s’est soucié de leur sort et est bien revenu pour leur offrir de beaux œufs en chocolat (la vie éternelle).
À travers cette relecture décalée d’un récit religieux, les enfants sont encouragés à penser qu’ils sont aimés et à faire confiance aux promesses qui leur sont faites, même lorsqu’ils ont l’impression d’être petits, oubliables ou désobéissants.
Dans « Le panneau », la maîtresse de Bluey, Calypso, lit une fable issue à l’origine du texte taoïste Huainanzi, datant du IIe siècle avant notre ère. En français, cette fable est souvent appelée « Le paysan et le cheval blanc ».
Le récit enchaîne une série d’événements qui arrivent à un vieil homme, et, après chacun d’eux, ses voisins commentent les faits, estimant qu’il s’agit de chance ou de malchance. Le vieil homme répond toujours « On verra », dans l’attitude du wú wéi.). Dans la conception taoïste du wú wéi appliquée à la fortune, toutes choses se valent, et ce n’est que le jugement humain (ou, en l’occurrence, canin) qui qualifie un événement de bon ou de mauvais. Ainsi, la seule réponse appropriée face à un événement marquant est le « non-agir » ou la sérénité, jusqu’à ce que le passage du temps en révèle le véritable sens.
Au départ, Bluey comprend mal le message et pense que Calypso veut dire que tout finira forcément par s’arranger. Mais à la fin de l’épisode, elle apprend à adopter l’attitude du wú wéi de manière positive. Elle reste calme, voire sereine, face à la perspective de quitter son quartier bien-aimé.
À travers ce récit religieux, les enfants apprennent qu’une approche douce et fluide de la vie, qui n’impose pas ses propres désirs au monde, permet d’éviter des souffrances inutiles et de trouver la paix et l’acceptation.
Sarah Lawson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.01.2026 à 16:12
Martina Linnenluecke, Professor at UTS Business School; Centre for Climate Risk and Resilience, University of Technology Sydney
Carl Rhodes, Professor of Business and Society, University of Technology Sydney

Devenue une industrie de plusieurs milliards de dollars, l’édition académique adopte des mécanismes proches de ceux des géants du numérique. Revues commerciales, frais de publication et indicateurs de performance redessinent en profondeur le paysage de la recherche.
Lorsque l’écrivain Cory Doctorow a introduit le terme « enshittification » ou « merdification » en bon français en 2023, il a mis des mots sur un phénomène que de nombreux utilisateurs avaient déjà constaté dans leur vie quotidienne. Les plateformes de réseaux sociaux, les sites de commerce en ligne et les moteurs de recherche qu’ils utilisaient s’étaient visiblement dégradés en qualité. Beaucoup de ces sites se mettaient à privilégier les contenus provenant des annonceurs et d’autres tiers. Le profit était devenu l’objectif principal.
Doctorow décrit ce déclin comme une spirale mortelle : les plateformes en ligne offrent d’abord de la valeur à leurs utilisateurs, avant de déplacer progressivement leur attention vers l’extraction de valeur, sans grand souci des conséquences.
Mais nos recherches récentes, publiées dans Organization, montrent que l’enshittification ne se limite pas au monde en ligne. Elle est désormais visible dans l’édition académique et se déploie en cinq étapes. Les mêmes forces qui vident les plateformes numériques de leur substance façonnent la manière dont une grande partie de la recherche est produite, évaluée et publiée.
L’édition académique a connu une croissance importante ces dernières années. Entre 2016 et 2022, le nombre d’articles indexés dans les principales bases de données est passé de 1,92 million à 2,82 millions. Le secteur aurait généré plus de 16 milliards d’euros par an.
À ce titre, l’édition académique rivalise avec les industries de la musique et du cinéma. Certains éditeurs affichent des marges bénéficiaires comparables à celles de géants de la tech, comme Microsoft et Google.
Cette expansion s’est accompagnée de signes d’enshittification. L’essor des grandes revues en libre accès et des revues prédatrices privilégie le profit au détriment de l’intégrité scientifique. Cela a entraîné une explosion des publications de faible qualité. Nombre d’entre elles se présentent comme des contributions à des « numéros spéciaux ».
Ces tendances font écho à la dégradation observée sur les plateformes en ligne, où la valeur pour les utilisateurs est sacrifiée au profit du gain financier. Ces parallèles nous ont conduits à enquêter sur les forces qui transforment la communication scientifique.
Depuis les années 1980, l’édition académique a connu une marchandisation progressive. Elle est désormais façonnée par la rentabilité, la concurrence et les indicateurs de performance. Les universités ont adopté des pratiques de gestion inspirées du marché et s’appuient de plus en plus sur des indicateurs de performance pour évaluer leur personnel.
La science s’achète et se vend. Elle se trouve de plus en plus modelée par les financements venus du privé et par une logique managériale. Les chercheurs ont qualifié ce tournant – illustré par l’édition académique commerciale – de « capitalisme académique ». Il influence les recherches menées, leur évaluation et l’évolution des carrières.
Le mouvement « open access » visait à l’origine à rendre le savoir plus largement accessible. Cependant, de grands éditeurs, dont Wiley, Elsevier et Springer Nature, y ont vu un moyen de faire peser leurs coûts de production sur les auteurs – tout en générant des revenus supplémentaires.
Les éditeurs ont instauré des frais de traitement des articles, élargi leurs services et lancé de nouveaux titres afin de capter des parts de marché. Lorsque la revue très prestigieuse Nature a annoncé son option « open access » en 2021, celle-ci s’accompagnait de frais pouvant atteindre 9 500 euros par article pour les auteurs.
Le passage aux « frais de traitement des articles » a suscité des inquiétudes quant au déclin de la qualité et de l’intégrité de la recherche. À l’autre extrémité du spectre, on trouve des revues prédatrices qui imitent les véritables revues en libre accès, mais facturent des frais sans proposer ni évaluation par les pairs ni encadrement éditorial.
Ces plateformes prédatrices publient des travaux de faible qualité et utilisent souvent des appellations trompeuses pour paraître crédibles. Avec environ 15 000 revues de ce type en activité, l’édition prédatrice est devenue une industrie majeure et contribue à l’enshittification de l’édition académique.
Ces dynamiques renforcent – et sont renforcées par – la culture bien ancrée du « publish or perish » dans le monde académique.
À partir de ces tendances, nous avons identifié une spirale descendante en cinq étapes dans l’enshittification de l’édition académique.
La marchandisation de la recherche déplace la valeur du mérite intellectuel vers la commercialisation.
La prolifération des revues en modèle « Pay-to-Publish » (« payer pour publier ») s’étend et touche aussi bien les revues d’élite que les revues prédatrices.
Un déclin de la qualité et de l’intégrité s’ensuit, lorsque les revues, guidées par le profit, compromettent l’évaluation par les pairs et la supervision éditoriale.
Le volume même des publications rend difficile l’identification des travaux faisant autorité. Des revues frauduleuses diffusent des articles canulars et des contenus piratés.
L’enshittification s’installe. Le système académique est submergé par la quantité, déformé par des logiques de profit et dépouillé de sa finalité première : faire progresser le savoir.
Nos recherches constituent un avertissement face à l’enshittification. Il s’agit d’un problème systémique qui menace la valeur et le développement de l’édition académique. Le monde universitaire est de plus en plus guidé par des indicateurs. En conséquence, la qualité de la recherche est jugée davantage à l’aune du lieu de publication qu’à celle de sa valeur intrinsèque.
Mais pourquoi les utilisateurs (et les universitaires) ne se détournent-ils pas tout simplement de cette expérience « enshittifiée » ? La réponse est la même que pour de nombreuses plateformes en ligne : l’absence d’alternatives crédibles rend le départ difficile, même lorsque la qualité se dégrade.
Enrayer cette tendance demande d’agir et de créer des alternatives. Celles-ci passent notamment par une réévaluation des critères d’évaluation, une moindre dépendance aux éditeurs commerciaux et une plus grande équité mondiale dans la recherche.
Certaines alternatives prometteuses existent déjà. Les modèles d’édition coopératifs, les archives institutionnelles et des initiatives politiques telles que la Coalition for Advancing Research Assessment plaident tous en faveur d’évaluations plus larges et plus pertinentes de l’impact scientifique.
Refaire de l’édition académique un bien public nécessitera un retour à des modèles à but non lucratif et à des systèmes de libre accès durables. La qualité, l’accessibilité et l’intégrité doivent primer sur le profit. Un changement est indispensable pour protéger la finalité essentielle de la recherche académique : faire progresser les connaissances dans l’intérêt public.
Martina Linnenluecke reçoit des financements de l’Australian Research Council (ARC) ainsi que de l’Australian Investment and Securities Commission (ASIC) pour le projet « Climate Related Financial Disclosure - External Capacity Building ».
Carl Rhodes ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.01.2026 à 16:07
Odile Paulus, Maître de conférences en gestion publiant (EM Strasbourg), Université de Strasbourg
Caroline Merdinger-Rumpler, Maîtresse de conférences en Leadership, Management d'équipe et Management des Organisations de Santé, Université de Strasbourg
Julien de Freyman, Professeur associé, South Champagne Business School (Y Schools) – UGEI
Sonia Boussaguet, Neoma Business School
On ne peut progresser sans se tromper. Comment dès lors inviter les étudiants à ne plus craindre l’erreur mais à la voir comme une opportunité d’acquérir de nouvelles compétences ? Exemple à travers un dispositif d’apprentissage par l’action.
Dans un système classique de cours magistraux, l’enseignant est considéré comme dépositaire d’un savoir à transmettre, et le résultat de cette transmission est évalué par des contrôles de connaissances réguliers. L’erreur y est encore souvent appréhendée par les élèves comme un échec plutôt que comme un tremplin vers l’apprentissage.
Or on ne peut progresser sans se tromper. Se pose alors la question de proposer aux étudiants des cadres les incitant à prendre des risques, à oser agir, se tromper et en tirer des apprentissages.
Nous avons pu observer la mise en œuvre de ce type de démarche dans un dispositif pédagogique expérientiel à l’EM Strasbourg, au sein de l’Université de Strasbourg, au fil de 4 promotions successives. Au total, 40 étudiants s’y sont engagés durant leurs trois années de bachelor en conduisant des projets entrepreneuriaux ou des missions pour des organisations.
C’est en se retrouvant ainsi mis en situation, sur le terrain, qu’ils se rendent compte de leur manque de compétences et vont lire, rencontrer des experts et partager leurs apprentissages avec d’autres étudiants pour être capables de surmonter les défis qui se présentent à eux.
Les compétences ainsi développées leur permettent d’alimenter le portfolio nécessaire à leur diplomation sans suivre de cours et en apprenant de leurs actions. Cette pédagogie « Team Academy » a été créée il y a plus de vingt-cinq ans à l’Université des sciences appliquées de Jyväskylä en Finlande.
Tout au long de leur formation, les apprenants sont encadrés par une équipe d’enseignants coachs formés à cette pédagogie et chargés de garantir un cadre bienveillant et sécurisant. Les étudiants sont invités à vivre ainsi dans une boucle d’apprentissage où alternent l’action et la réflexivité permettant de lier les actions, les lectures et les rencontres d’experts.
Dans cette dynamique, nier sa responsabilité au moment d’expliquer une erreur, en invoquant des causes externes ou non contrôlables (comme « C’est la faute des autres » ou « L’environnement n’est pas favorable »), peut engendrer des comportements indésirables, alors que reconnaître sa responsabilité favorise des postures permettant d’atteindre un résultat concret et d’apprendre. C’est ce que nous avons constaté : lorsque les étudiants parlent de leurs erreurs, ils le font en disant « je » ou « nous » : s’attribuer une part de la responsabilité apparaît comme un préalable pour apprendre.
Cependant, les étudiants relèvent le caractère douloureux de l’erreur qui « fait mal au cœur » et « peut rapidement faire peur ». Une fois comprise et acceptée, celle-ci semble prendre une coloration plus « positive » et constructive. Ils la perçoivent comme un « challenge » à relever. Le concept d’erreur devient à leurs yeux inhérent à l’action, à mesure que les trois ans de formation se déroulent.
Ainsi, plongés dans une culture de valorisation de l’erreur, les étudiants relatent :
« Il n’y a pas eu d’erreurs, il n’y a eu que des apprentissages [et des] occasions de progresser. »
En partant de leurs erreurs, les étudiants considèrent avoir acquis des compétences tant au niveau des « soft skills » (persévérance pour mener à bien un projet entrepreneurial ; régulation des émotions (pour « passer outre et avancer ») que des « hard skills » (meilleure maîtrise de « la gestion de projet »).
La culture de l’erreur apprenante vécue dans leur formation les conduit aussi à revisiter leur conception de la réussite entrepreneuriale de façon plus réaliste :
« Un entrepreneur qui réussit aujourd’hui dans son business, c’est un entrepreneur qui a osé se planter, qui a osé arrêter […] pour moi, c’est vraiment inspirant […] [de] savoir quelles sont les erreurs qu’ils ont faites, pour ne pas les refaire. »
Pour leur emploi après leur formation, certains étudiants rêvent d’un environnement de travail valorisant une culture similaire, mais ils s’interrogent sur le décalage possible entre leur univers d’études et le monde professionnel : « Ce n’est pas la réalité. On est tellement dans une bulle. On est dans notre monde… l’erreur est acceptée. Dans d’autres boîtes, l’erreur… Il faut quand même faire attention. »
Les étudiants se sont appuyés sur les deux rôles qu’un apprenant engagé dans un dispositif d’apprentissage par l’expérience peut investir :
dans leur rôle d’apprenants, ils choisissent d’interpréter l’erreur comme une opportunité d’apprendre. Les étudiants cherchent à développer des compétences personnelles en dédramatisant l’objectif de réussite du projet ;
dans leur rôle d’acteurs, ils parviennent à interpréter l’erreur comme un défi à relever.
Ces deux stratégies permettent de diminuer l’intensité émotionnelle associée aux erreurs pour, dans le premier rôle, se focaliser sur l’acquisition de compétences nouvelles et, dans le second, rechercher des solutions au problème.
Cette forme d’apprentissage par l’erreur exige un travail de déconstruction de la culture de la réussite et de la performance, dont le résultat est en grande partie dépendant de l’intensité des efforts consentis par les étudiants.
Pour les pédagogues souhaitant introduire un apprentissage par l’erreur, notre recherche met en lumière la nécessité d’organiser un espace résolument bienveillant pour partager les questionnements, les difficultés et les erreurs, et de l’inscrire dans un temps suffisamment long pour modifier les représentations et les comportements.
Olga Bourachnikova, chercheuse et entrepreneuse, a participé à la rédaction de cet article avec Odile Paulus, maîtresse de conférences en gestion à l’EM Strasbourg, Sonia Boussaguet, professeure associée à la Neoma Business School, Julien de Freyman, professeur associé à la South Champagne Business School et Caroline Merdinger-Rumpler, maîtresse de conférences en management des organisations de santé à l’EM Strasbourg.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.01.2026 à 16:06
Alexandre Hassanin, Maître de Conférences (HDR) à Sorbonne Université, ISYEB - Institut de Systématique, Evolution, Biodiversité (CNRS, MNHN, SU, EPHE, UA), Muséum national d’histoire naturelle (MNHN)
Antoine Gessain, Médecin, virologue, responsable de l'unité Épidémiologie et Physiopathologie des Virus Oncogènes (EPVO), Institut Pasteur

Le mpox (parfois encore appelé « variole du singe ») est une zoonose, autrement dit une maladie se transmettant de l’animal à l’humain, et inversement. Après un minutieux travail d’enquête, les scientifiques ont identifié les principaux suspects soupçonnés d’abriter le virus. Une découverte qui permet non seulement de mieux comprendre l’émergence de la maladie, mais aussi l’évolution du virus.
Ces dernières années, la maladie due au virus mpox (anciennement appelée « monkeypox », ou « variole du singe » en français) a beaucoup fait parler d’elle. Elle a en effet été à l’origine d’une émergence mondiale en 2022 qui avait alors touché 75 pays. En 2024, plusieurs pays d’Afrique centrale ont connu une recrudescence du nombre de cas ainsi que l’émergence d’une nouvelle souche virale. À ces deux occasions, l’Organisation mondiale de la santé (OMS) avait déclaré que la maladie était une « urgence de santé publique de portée internationale ». Si la maladie ne constitue plus, à l’heure actuelle, une telle urgence (l’OMS a levé sa dernière alerte en septembre 2025), elle continue à circuler, en particulier dans les zones où elle est endémique.
Depuis plusieurs années, les scientifiques mènent des investigations pour y trouver son réservoir naturel, autrement dit l’animal qui abrite le virus sans tomber gravement malade, et à partir duquel d’autres espèces peuvent se contaminer. La maladie à mpox est en effet une zoonose, autrement dit une maladie infectieuse qui passe de l’animal à l’être humain.
Certains suspects ont particulièrement retenu leur attention : les écureuils arboricoles appartenant au genre Funisciurus. Mais lesquels, exactement ? Pour le savoir, les spécialistes de la classification animale (aussi appelée « systématique ») ont croisé études du phénotype (l’apparence des animaux) et analyses de leur ADN. Ce qu’ils ont découvert éclaire non seulement l’histoire de ces écureuils, mais aussi celle du virus.
Le virus à l’origine de la maladie monkeypox (mpox) (littéralement « variole du singe », autre appellation de cette pathologie) tient son nom de sa découverte en 1958 chez des macaques de laboratoire originaires d’Asie. Toutefois, dans les années 1970, les scientifiques ont compris que ce virus n’avait en réalité aucun lien avec l’Asie. C’est en effet à cette époque que sont décrits les premiers cas humains dans des villages des forêts d’Afrique centrale (bassin du Congo) et d’Afrique de l’Ouest (forêts de Haute et de Basse Guinée).
Les symptômes associés à la maladie incluent fièvre, céphalées (maux de tête), lymphadénopathies (augmentation de taille des ganglions lymphatiques) et douleurs musculaires. Ils s’accompagnent d’une éruption cutanée plus ou moins étendue sous forme de macules (taches sur la peau), de papules (lésions dermatologiques), qui évoluent en vésicules et pustules.
Depuis quelques années, le virus monkeypox inquiète l’OMS, car le nombre de cas est en constante augmentation avec des taux de létalité pouvant atteindre 12 % dans le cas des formes virales originaires d’Afrique centrale.
Une première épidémie majeure a eu lieu en 2022 et 2023 avec plus de 100 000 cas répertoriés dans le monde. Elle a essentiellement affecté la communauté homosexuelle masculine. On sait désormais qu’elle a débuté au Nigeria, en Afrique de l’Ouest, vers 2017. Le taux de létalité durant cette pandémie a été estimé à 0,1 %.
Une deuxième épidémie majeure sévit actuellement en Afrique. Elle s’est déclarée en 2023 au Sud-Kivu à l’est de la République démocratique du Congo (RDC) et s’est ensuite répandue dans d’autres pays voisins, cette fois-ci principalement par transmission hétérosexuelle. On comptait jusqu’à des centaines de cas par semaine, le taux de létalité (globalement estimé à 4 %) pouvant atteindre jusqu’à 11 % chez les enfants de moins de 5 ans.
La transmission interhumaine du virus monkeypox se fait essentiellement par contact cutané avec des lésions contenant du liquide infecté par des particules virales. Des contacts avec des muqueuses peuvent aussi être infectants. Toutefois, l’être humain n’est pas le seul à être infecté par le virus monkeypox : celui-ci a été trouvé également chez plusieurs autres espèces de mammifères, principalement des primates et des rongeurs.
L’origine animale des cas index (le cas index est le premier cas humain d’une chaîne de transmission ou d’une épidémie) reste néanmoins peu documentée. Il est toutefois acquis que des mammifères sauvages des forêts tropicales humides sont en cause dans le passage du virus à l’être humain.
Que sait-on au juste des hôtes qui servent de réservoir au mpox, autrement dit des mammifères chez lesquels le virus évolue, se diversifie et à partir desquels une transmission peut se faire à d’autres mammifères dont l’être humain ?
Il est très probable que, dans la nature, la transmission entre espèces animales se fasse aussi par contact cutané avec des lésions infectées de l’hôte réservoir (autrement dit l’animal qui héberge le virus, mais ne tombe que peu ou pas malade) vers les hôtes receveurs. Chez l’être humain, ce cas de figure pourrait survenir par exemple lors de la chasse, au cours du portage ou du dépeçage des animaux, etc.
Depuis les années 1980, les écureuils arboricoles du genre Funisciurus sont régulièrement cités dans la littérature scientifique en tant que réservoir du virus monkeypox. Ce genre d’écureuils inclut une dizaine d’espèces, dont la plupart vivent exclusivement dans les forêts tropicales humides d’Afrique.
Mesurant de 15 à 20 centimètres, (hors queue, dont la longueur est équivalente à celle de leur corps), ces petits écureuils arboricoles tirent leur nom usuel
– « écureuil à cordes », ou « rope squirrels » en anglais – de leur agilité à grimper le long de branches et de lianes aussi fines que des cordes. Leur autre appellation, « écureuils rayés africains » (« African stripe squirrels ») fait référence aux rayures présentes sur leurs flancs.
Omnivores, ils se nourrissent principalement de fruits et de graines, mais leur régime alimentaire comprend aussi des tiges et des pousses ainsi que des insectes. Diurnes, ils dorment dans des nids sphériques similaires à ceux de l’écureuil européen, le plus souvent construits avec des feuilles, des fibres et des brindilles dans les fourches des branches, ou parfois dans les trous des arbres, au sol ou dans des terriers.
Comme beaucoup d’autres mammifères des forêts, ils sont chassés par les êtres humains, essentiellement par les enfants. Cela pourrait expliquer le fait que de nombreux cas index soient de jeunes garçons qui grimpent dans les arbres pour les piéger.
Le mpox a en effet été isolé chez un écureuil de l’espèce Funisciurus anerythrus en RDC en 1986. Plusieurs autres équipes l’ont depuis retrouvé chez d’autres écureuils de la même espèce collectés en Afrique centrale, et des anticorps dirigés contre lui ont aussi été détectés dans le sang de ces animaux (preuve d’un contact avec le virus), et cela avec des prévalences supérieures à 50 % (c’est-à-dire chez plus de la moitié des animaux collectés).
Par ailleurs, la niche écologique (autrement dit l’habitat préférentiel) de l’écureuil F. anerythrus est celle qui correspond le mieux avec la distribution géographique du virus monkeypox.
Tous ces éléments suggèrent que l’espèce F. anerythrus est le principal hôte réservoir du virus monkeypox en Afrique centrale.
Très récemment, une étude a révélé qu’une autre espèce appartenant au genre Funisciurus était à l’origine d’une épidémie de monkeypox qui s’est propagée au sein d’une colonie de singes verts mangabeys (Cercocebus atys), en Côte d’Ivoire.
Selon les auteurs qui ont décrit ce cas dans la littérature scientifique, les primates auraient été contaminés à la suite d’un contact avec des écureuils de l’espèce Funisciurus pyrropus, la seule du genre Funisciurus actuellement décrite dans les forêts ivoiriennes et dans celles des pays avoisinants. Selon certaines observations, ces écureuils feraient partie, au moins occasionnellement, du régime alimentaire des mangabeys.
Cependant, les travaux de systématique (la science de la classification des espèces) que nous avons menés ont révélé que le coupable n’avait pas été correctement identifié.
Lors d’une précédente étude, nous avions en effet comparé la niche écologique (l’habitat préférentiel) du virus mpox à celle de chacun des mammifères qui potentiellement pouvaient constituer son réservoir (pour lesquels le virus ou des anticorps dirigés contre ce virus avaient été mentionnés dans la littérature). Ces comparaisons nous ont permis de fournir un classement des réservoirs les plus probables.
Les quatre premiers de ce classement étaient tous des rongeurs arboricoles et deux d’entre appartenaient au genre Funisciurus : le premier étant Funisciurus anerythrus et le troisième étant Funisciurus pyrropus. Nos analyses des niches écologiques ont aussi révélé que les distributions géographiques de ces deux espèces fournies par l’Union internationale pour la conservation de la nature (IUCN) étaient erronées. Cela nous a amenés à entreprendre une étude plus approfondie sur la systématique de ces écureuils.
En étudiant les spécimens naturalisés de Funisciurus conservés dans différents muséums d’histoire naturelle, dont le Musée royal d’Afrique centrale de Tervuren (Belgique), le Muséum national d’histoire naturelle de Paris (France) et le Field Museum de Chicago (États-Unis d’Amérique), nous avons fait une découverte intéressante.
L’examen des pelages des spécimens de collection a révélé que les deux groupes de F. pyrropus (présents en Afrique centrale et en Afrique de l’Ouest) ont une coloration de pelage distincte. Ceux d’Afrique centrale ont les flancs contrastés avec un dos gris foncé/brun et un ventre blanc pur. Les spécimens d’Afrique de l’Ouest ont quant à eux un dos gris foncé/brun séparé du ventre blanc par une large bande rougeâtre/orange, qui se prolonge sur les membres antérieurs et postérieurs.
Ce constat nous a conduits à émettre l’hypothèse que les écureuils Funisciurus vivant en Côte d’Ivoire n’appartenaient pas à l’espèce F. pyrropus, mais à une autre espèce.
Pour confirmer ces observations, nous avons analysé les séquences ADN correspondant aux différents spécimens présents dans les collections des muséums. Les résultats ont révélé que, en Afrique de l’Ouest (notamment au Bénin, en Côte d’Ivoire, au Ghana, au Liberia et en Guinée), les écureuils appartenaient bien à une autre espèce que F. pyrropus, précédemment nommée Funisciurus leucostigma par le zoologiste néerlandais Coenraad Jacob Temminck en 1853. Cette dernière espèce est endémique à l’Afrique de l’Ouest, ce qui signifie qu’elle ne vit que dans cette région. En revanche, les deux espèces F. anerythrus et F. pyrropus sont uniquement présentes en Afrique centrale (notamment en RDC, au Gabon et au Burundi).
Comme nous allons le voir, cette distinction a des implications en matière de compréhension de la façon dont le virus mpox a coévolué avec ses réservoirs écureuils.
Ces résultats de systématique animale peuvent sembler, de prime abord, anodins. Ils permettent pourtant de mieux comprendre l’évolution du virus monkeypox.
On sait en effet qu’il existe deux groupes distincts de virus mpox (on parle de « clade viral ») : les virus appartenant au clade I (lui-même subdivisé en sous-clades Ia et Ib) et les virus du clade II (subdivisé en sous-clades IIa et IIb, ce dernier ayant été à l’origine de la flambée mondiale de 2022).
Selon l’OMS, le clade I semble avoir un taux de létalité plus important que le clade II). Toutefois, la mortalité dépend également de divers autres facteurs tels que la qualité de la prise en charge, l’état de santé du patient et son âge (elle est particulièrement élevée chez les enfants âgés de moins de 5 ans dans les régions d’endémie).
Ces deux groupes sont présents dans deux régions distinctes, de part et d’autre du fleuve Sanaga au Cameroun : les virus du clade I circulent en Afrique centrale (des cas index de la maladie ont été détectés en RDC, en République du Congo, en République centrafricaine, au Gabon et au sud du Cameroun), tandis que les virus du clade II sont présents en Afrique de l’Ouest (on a répertorié des cas index en Côte d’Ivoire, au Liberia, en Sierra Leone, au Nigeria et à l’ouest du Cameroun).
Il semblerait que le fleuve Sanaga, en tant que barrière géographique empêchant la dispersion des écureuils, ait joué un rôle clé dans l’émergence de deux clades viraux. Pour le comprendre, il faut s’intéresser aux écureuils : nos analyses ont non seulement démontré que F. anerythrus et F. leucostigma sont des espèces sœurs, mais aussi que la distribution des virus du clade I en Afrique centrale correspond à celle de la niche écologique de l’espèce F. anerythrus et que la distribution des virus du clade II en Afrique de l’Ouest correspond quant à elle à la niche écologique de l’espèce F. leucostigma.
Nos résultats suggèrent que les populations ancestrales des deux espèces d’écureuil se sont retrouvées isolées de chaque côté du fleuve Sanaga voici plusieurs centaines de milliers d’années, ce qui a conduit à leur divergence génétique et phénotypique, menant ainsi à la naissance de deux espèces distinctes, F. anerythrus et F. leucostigma.
On peut raisonnablement envisager que le franchissement du fleuve a pu être favorisé par son niveau plus bas lors d’une période glaciaire du pléistocène, ou bien que la Sanaga a été contournée à une époque où des forêts denses recouvraient les savanes au nord-est du fleuve.
Cette séparation des écureuils a mené à l’isolement de deux souches virales, l’une incluant l’ancêtre du clade I et ses descendants en Afrique centrale et l’autre regroupant l’ancêtre du clade II et ses descendants en Afrique de l’Ouest.
Autrement dit, la séparation des clades viraux I et II est concomitante de l’événement de spéciation ayant conduit à l’isolement des espèces F. anerythrus et F. leucostigma de part et d’autre du fleuve Sanaga.
Il s’agit là d’un bel exemple suggérant une coévolution entre le virus et son hôte réservoir. L’évolution naturelle des virus étant dépendante de leur hôte réservoir, elle est limitée géographiquement par la capacité de dispersion des animaux qui les hébergent.
Évidemment, cette règle n’est pas immuable. Lorsque la barrière d’espèce est franchie, notamment lorsqu’un virus passe à l’être humain, ce dernier peut, à plus ou moins long terme, devenir lui-même hôte réservoir. Cela peut entraîner des changements importants dans la dynamique évolutive du virus.
Les fleuves ne constituent plus, depuis longtemps, des barrières aux déplacements de notre espèce, lesquels peuvent donner aux virus de nombreuses opportunités de se diffuser bien au-delà de leurs territoires initiaux…
Alexandre Hassanin a reçu des financements de l'Agence Nationale de la Recherche (Afripox project. ANR 2019 CE-35), de la Fondation d'entreprise SCOR pour la Science et de l'Union Européenne dans le cadre du projet ZOOSURSY (CAN° 700002203).
Antoine Gessain a reçu des financements de l'Agence Nationale de la Recherche (Afripox project. ANR 2019 CE-35), de la Fondation d'entreprise SCOR pour la Science et de l'Union Européenne dans le cadre du projet ZOOSURSY (CAN° 700002203).
19.01.2026 à 16:06
Haoues Alout, chargé de recherche, Inrae
Longtemps présenté comme un exemple spectaculaire d’adaptation rapide à l’urbanisation, le « moustique du métro de Londres » n’est en réalité pas né dans les tunnels londoniens, comme on le pensait jusqu’ici. Une nouvelle étude retrace ses origines et montre qu’elles sont bien plus anciennes que ce que l’on imaginait. Elles remonteraient à plus de mille ans, en lien avec le développement des sociétés agricoles.
Et si le « moustique du métro de Londres », surtout connu pour ses piqûres sur les populations réfugiées à Londres dans les sous-sols de la ville pendant la Seconde Guerre mondiale, n’était en réalité pas né dans les tunnels londoniens ? C’est ce que révèle une étude que nous avons récemment publiée avec des collègues.
Nos résultats montrent que les caractéristiques « urbaines » de ce moustique, que l’on pensait s’être adapté à la vie souterraine il y a un peu plus d’un siècle, remontent en fait à plus de mille ans.
Le moustique Culex pipiens molestus, qui diffère de son cousin Culex pipiens pipiens dans la mesure où le premier pique surtout des humains, et le second surtout des oiseaux, est probablement né dans la vallée du Nil ou au Moyen-Orient, en lien avec le développement des premières sociétés agricoles humaines.
À lire aussi : Combien de temps un moustique peut-il survivre sans piquer un humain ?
Cette découverte jette une lumière nouvelle sur l’évolution des moustiques. Depuis plusieurs décennies, une hypothèse présentait en effet le moustique commun (Culex pipiens) comme un exemple spectaculaire d’adaptation rapide à l’urbanisation.
Selon cette théorie, une forme particulière de ce moustique, appelée Culex pipiens molestus, se serait adaptée à la vie urbaine en un peu plus de cent ans seulement, à partir de sa forme jumelle Culex pipiens pipiens. Là où celle-ci préfère piquer les oiseaux, s’accoupler dans des espaces ouverts et « hiberner » pendant l’hiver, la forme molestus aurait évolué en une forme quasi distincte, capable de vivre dans les souterrains et de piquer l’humain et d’autres mammifères, de s’accoupler dans des souterrains et de rester actif toute l’année.
Cette adaptation spectaculaire du « moustique du métro de Londres » était devenue un cas d’école, figurant dans de nombreux manuels d’écologie et d’évolution. L’idée sous-jacente était que l’urbanisation des villes pouvait sélectionner à grande vitesse de nouvelles espèces et en quelque sorte « accélérer » l’évolution.
Mais notre étude vient montrer que cette belle histoire, aussi séduisante soit-elle, est fausse.
Notre consortium international de chercheurs PipPop a ainsi publié dans la revue Science une étude qui démystifie cette hypothèse. En séquençant le génome de plus de 350 moustiques, contemporains et historiques, issus de 77 populations d’Europe, d’Afrique du Nord et d’Asie occidentale, nous avons reconstitué leur histoire évolutive.
En définitive, les caractéristiques qui font de Culex pipiens molestus un moustique si adapté à la vie urbaine ne sont pas apparues dans le métro londonien, mais bien plus tôt, il y a plus de mille ans, vraisemblablement dans la vallée du Nil ou au Moyen-Orient. Ce résultat remet en question ce qui était considéré comme un exemple clé de l’évolution urbaine rapide. Au final, il s’agirait d’une adaptation plus lente, associée au développement de sociétés humaines anciennes.
Autrement dit, ce moustique était déjà « urbain » (au sens : étroitement associé aux humains) bien avant l’ère industrielle. Les premières sociétés agricoles, avec leurs villages denses, leurs systèmes d’irrigation et leurs réserves d’eau, lui ont offert un terrain de jeu idéal pour son adaptation.
À lire aussi : Comment les moustiques nous piquent (et les conséquences)
Le moustique Culex pipiens n’est pas juste une curiosité scientifique : il joue un rôle majeur dans la transmission de virus comme ceux du Nil occidental ou d’Usutu. Ces derniers circulent surtout chez les oiseaux mais peuvent aussi être transmis aux humains et aux mammifères.
La forme Culex pipiens pipiens, qui pique les oiseaux, est principalement responsable de la transmission du virus dans l’avifaune, tandis que Culex pipiens molestus est vu comme responsable de la transmission aux humains et aux mammifères.
Lorsque les deux se croisent et s’hybrident, ils pourraient donner naissance à des moustiques au régime mixte, capables de « faire le pont » entre oiseaux et humains et de nous transmettre des virus dits zoonotiques.
De fait, nos analyses confirment que les deux formes s’hybrident davantage dans les villes densément peuplées, augmentant le risque de transmission de ces virus. Autrement dit la densité humaine augmente les occasions de rencontre entre les deux formes de moustiques – et potentiellement la probabilité de produire des moustiques capables de piquer à la fois les oiseaux et les humains.
Comprendre quand et où ces deux formes se croisent et comment leurs gènes se mélangent est donc crucial pour anticiper les risques d’épidémie.
L’histoire du « moustique du métro de Londres » a eu un immense succès parce qu’elle incarne en une image frappante tout ce que l’on redoute et admire dans l’adaptation rapide des espèces à nos environnements. Par exemple, une adaptation très rapide face à l’augmentation de la pollution et de l’artificialisation des habitats, souvent mobilisée dans les imaginaires, de science-fiction en particulier.
Mais la réalité est tout autre : les moustiques de nos villes modernes ne sont pas une nouveauté née dans le métro londonien. En revanche, le développement urbain a offert une nouvelle scène à un acteur déjà préparé par des millénaires de cohabitation avec les humains dans les premières sociétés agricoles du Moyen-Orient et de la Méditerranée. Le fruit de cette évolution a ensuite pu être « recyclé » dans les villes contemporaines.
On parle alors d’ « exaptation », c’est-à-dire qu’un trait préexistant dans un contexte donné (ici les premières villes du Moyen-Orient) devient avantageux dans un autre contexte (les villes du nord de l’Europe). Les circuits sensoriels et métaboliques qui pilotent la recherche d’hôtes à piquer, la prise de repas sanguin et la reproduction avaient déjà été remodelés par l’histoire ancienne des sociétés agricoles de la Méditerranée et du Moyen-Orient, avant d’être « réutilisés » dans le contexte urbain moderne au nord de l’Europe.
Nos systèmes d’irrigation antiques, nos premières villes et nos habitudes de stockage de l’eau ont donc posé les bases génétiques qui permettent aujourd’hui à certains moustiques de prospérer dans les galeries de métro ou les sous-sols d’immeubles de nos grandes villes.
Cette découverte change la donne. En retraçant l’histoire de la forme urbaine du moustique commun Culex pipiens, l’étude invite à changer de regard sur l’évolution urbaine : ce n’est pas seulement une adaptation rapide déclenchée par l’urbanisation intensive des villes, mais un long processus qui relie notre développement technique et social et celle des autres espèces.
Comprendre ces dynamiques est crucial : non seulement pour la science, mais aussi pour anticiper les risques sanitaires et mieux cohabiter avec les autres espèces. Et vous, saviez-vous que le moustique qui vous pique la nuit avait une histoire évolutive aussi ancienne ?
Haoues Alout a reçu des financements de l'ANR et de l'ANSES ainsi que de l'Union Européenne.
19.01.2026 à 16:06
Sandrine Rui, Sociologue, Université de Bordeaux
Le Sénat débat à compter du 20 janvier des deux lois sur la fin de vie adoptées en mai dernier par l’Assemblée nationale. En première lecture, les députés avaient pu s’appuyer sur les conclusions de la Convention citoyenne instituée sur ce même sujet, de décembre 2022 à avril 2023, dont l’objectif était d’éclairer le législateur. Retour sur la plus-value de ce dispositif de démocratie participative.
Le Sénat s’apprête à examiner les textes sur la fin de vie adoptés en mai dernier par l’Assemblée nationale. En première lecture, les députés s’étaient alors prononcés pour renforcer les soins palliatifs et, de façon inédite, pour un droit à l’aide à mourir. Ils avaient globalement suivi les conclusions de la Convention citoyenne sur la fin de vie (CCFV) qui s’était déroulée de décembre 2022 à avril 2023 à la suite de la saisine de la première ministre Élisabeth Borne.
En tant que membre du comité de gouvernance de cette Convention citoyenne sur la fin de vie, sollicitée au titre de mes travaux sur la démocratie participative, je voudrais rappeler les caractéristiques de cette convention et insister sur ce qui a fait sa plus-value.
Les conventions citoyennes comptent parmi les dispositifs participatifs qui se sont installés en quelques décennies dans le paysage de la démocratie représentative. Elles sont constituées par un panel de citoyens tirés au sort pour représenter la diversité de la population. Ces derniers sont invités à délibérer et à rendre un avis sur une question d’intérêt général. Ces expériences se multiplient à différentes échelles dans de nombreux pays (Irlande, Belgique, Espagne, Chili, Islande…).
En France, la Convention citoyenne pour le climat (2019-2020) a été la première du genre à l’échelle nationale, suivi par la Convention citoyenne sur la fin de vie (2022-2023) et, plus récemment, la Convention citoyenne sur les temps de l’enfant (2025).
À lire aussi : Comment rendre les Conventions citoyennes pour le climat encore plus démocratiques ?
Comme d’autres innovations démocratiques, les conventions citoyennes font l’objet de débats. Au regard favorable des uns – ces assemblées sont perçues comme une « bonne chose » par 67 % des Français – répond le scepticisme des autres : sont notamment incriminées la légitimité douteuse des citoyens tirés au sort, la possible instrumentalisation politique d’un dispositif sans garantie juridique ou encore la vanité d’un exercice coûteux sans portée décisionnelle.
Si la Convention citoyenne sur la fin de vie n’échappe pas pleinement à la règle, il reste qu’elle a été jugée « réussie », notamment par les évaluateurs du Centre de recherche pour l’étude et l’observation des conditions de vie (Crédoc), missionnés par le Conseil économique social et environnemental (Cese), comme par les quatre garants internationaux chargés de veiller à la qualité du processus délibératif. Et ce, alors même que le devenir de ses propositions était incertain.
La CCFV s’est déroulée au fil de neuf week-ends, de décembre 2022 à avril 2023, à Paris, au siège du Conseil économique social et environnemental (Cese), qui en était l’organisateur.
Les 184 membres de la Convention tirés au sort et panélisés selon six critères (genre, âge, région, catégorie socio-professionnelle, niveau de diplômes, types d’unités urbaines) avaient pour mandat de contribuer au débat national en répondant à la question suivante :
« Le cadre d’accompagnement de la fin de vie est-il adapté à toutes les situations rencontrées ou des changements devraient-ils être introduits ? »
Le rôle des conventionnels n’était pas d’écrire la loi mais bien, le cas échéant, d’éclairer le législateur.
À lire aussi : « Aide à mourir », euthanasie, suicide assisté… Dix points de vigilance éthique à considérer
L’un des défis pour les organisateurs est de « cadrer » la délibération « sans l’orienter ». Comme le souligne le chercheur Hervé Pourtois, il s’agit de trouver le bon équilibre entre l’exigence de régulation formelle et la préservation de l’autonomie citoyenne.
Dans ce cadre, les conventionnels se sont informés – par des lectures, des auditions, des visites d’unités de soins palliatifs… Ils ont travaillé en petits groupes ; ils ont délibéré en hémicycle ; ils ont voté. Tout du long, ils se sont appuyés sur les expertises et sur les témoignages de près de 70 intervenants. Parfois versés sous forme contradictoire, à l’instar du débat entre Claire Fourcade, présidente de la Société française d’accompagnement et de soins palliatifs (SFASP), et Jonathan Denis, président de l’Association pour le droit de mourir dans la dignité (ADMD), incarnant deux positions opposées et structurantes du débat public relatif à l’aide à mourir.
In fine, la Convention s’est prononcée à une quasi-unanimité en faveur du renforcement des « soins palliatifs pour toutes et tous et partout », et, pour une large majorité, en faveur de l’ouverture d’un droit à « l’aide active à mourir » (75,6 % des votants contre 23,2 %), proposant divers modèles – selon que l’euthanasie et le suicide assisté étaient défendus ensemble, au choix, ou de façon exclusive – assortis de critères et conditions.
Sans faire du consensus un horizon obligé, la convention a été capable de travailler les dissensus. Certains ont pu entrer en délibération convaincus ; d’autres étaient tiraillés par des dilemmes moraux et éthiques. Interrogés par les chercheurs-observateurs sur leurs opinions préalables à l’égard d’une ouverture d’un droit à une aide à mourir, 69 % disaient y être favorables, 7,8 % y étaient défavorables, quand 23,3 % sont entrés dans la convention sans avis tranché ou sans y avoir jamais réfléchi.
À lire aussi : Avec John Dewey, penser la démocratie comme « enquête » collective
Mais tous ont travaillé à se construire une opinion éclairée. Au fil des sessions, celles et ceux qui n’avaient pas d’avis ont pu prendre position : à l’issue du processus, les répondants au questionnaire des chercheurs n’étaient plus que 4,5 % à ne pas savoir comment se prononcer, quand 63,5 % d’entre eux disaient avoir stabilisé leur avis après la phase de délibération. L’enquête des chercheurs comme l’évaluation du Crédoc révèlent que certains des participants disent avoir changé d’avis une fois (33 % et 24 %), parfois deux fois (13 et 11,5 %) et jusqu’à plus de deux fois pour 7 % ou 8 % d’entre eux.
En dépit de leurs différences et désaccords, les conventionnels se sont livrés à des débats exemplaires. L’universalité du sujet a favorisé l’engagement et l’inclusion des membres, comme leur sentiment de légitimité à se prononcer : parce que « nous mourrons tous », les citoyens ont pu, selon leurs mots, s’envisager comme également « concernés », « experts » et « légitimes ».
La fin de vie est aussi de ces rares enjeux de délibération publique qui permettent d’assumer tant l’expression de la raison que celle de l’émotion. Cette diversité des registres a facilité l’empathie et le respect mutuel, comme l’écoute et la « réceptivité » des conventionnels. Ces aptitudes, généralement moins valorisées que la capacité à prendre la parole, sont pourtant nécessaires à l’échange démocratique, comme le soulignent les politistes Pascale Devette et Jonathan Durand Falco.
Enfin, mêlant « l’intime et le collectif », le sujet a été exploré depuis des considérations personnelles, et selon ses dimensions sociales et politiques : l’enjeu de la délibération est bien de bâtir une position argumentée sur ce qui serait juste et utile pour la société.
Invités par les chercheurs à indiquer sur une échelle de 0 à 10 le point de vue qu’ils avaient privilégié pour prendre position, près d’un répondant sur deux (48,7 %) a affecté le plus haut score à « ce que la société doit aux personnes en fin de vie de façon générale » (25,5 % privilégiant ce qu’ils souhaiteraient que l’on fasse pour leurs proches, 19,3 % pour eux-mêmes).
Les participants de toute convention citoyenne appréhendent, comme le dit l’un d’eux, que le « travail collectif ne débouche sur rien et n’ait qu’une fonction d’affichage de participation citoyenne ».
La portée de la Convention citoyenne sur la fin de vie semble d’emblée assez visible, même s’il convient de s’armer de patience. En mars 2024, un projet de loi a été présenté par l’exécutif aux 184 lors d’une séance dite de redevabilité, avant qu’il ne soit soumis au débat parlementaire.
Sans être le strict calque de la position majoritaire de la Convention citoyenne sur la fin de vie, les lois adoptées par les députés en mai peuvent être envisagées, en suivant la juriste Marie Sissoko Noblot comme « une greffe réussie ». Tant la position très consensuelle en faveur du renforcement des soins palliatifs que l’aspiration à l’ouverture d’un droit à l’aide à mourir, dans des conditions strictement définies, ont été retenues par l’Assemblée nationale.
Cet exemple illustre le fait qu’une convention citoyenne peut s’articuler aux mécanismes parlementaires et jouer un rôle pré-législatif, ce que défendent Jean-Michel Fourniau et Hélène Landemore, spécialistes de la démocratie participative.
Pour mesurer la portée définitive de cette Convention citoyenne, il faudra cependant attendre l’issue du processus parlementaire. Si le renforcement des soins palliatifs fait consensus, on sait déjà que l’aide à mourir suscite d’importantes réticences au Sénat. Les parlementaires se montreront-ils à la hauteur des débats de la Convention citoyenne ?
Sandrine Rui a été membre du comité de gouvernance de la Convention citoyenne sur la fin de vie, et plus récemment garante de la Convention citoyenne sur les temps de l’enfant.
19.01.2026 à 13:46
Thérèse Rebière, Professeur des Universités en économie, Conservatoire national des arts et métiers (CNAM)
Isabelle Lebon, Professeur de Sciences Economiques, directrice adjointe de la Maison de la Recherche en Sciences Humaines, Université de Caen Normandie
Derrière les annonces tonitruantes sur les « prix qui baissent énormément » et « les emplois et les usines » qui « vont revenir en force », la réalité de l’économie états-unienne un an après l’investiture de Donald Trump n’est pas si flamboyante.
Alors que le président Trump se félicite de son bilan annuel, et assure sortir l’économie des États-Unis du désastre hérité de son prédécesseur tout en promettant que le meilleur est à venir, la réalité est bien plus contrastée. Qu’il s’agisse du marché du travail ou des prix à la consommation, quel bilan économique peut-on véritablement faire de cette première année de mandat ?
Les investissements concentrés dans le domaine de l’intelligence artificielle (IA) et les bons résultats de Wall Street ne semblent pas bénéficier à l’emploi. L’augmentation chaotique des droits de douane s’est traduite par une forte incertitude qui provoque l’attentisme des entreprises et inquiète les consommateurs, alors même que la vie n’est pas moins chère qu’avant. Et plusieurs des secteurs d’activités mis en avant par Donald Trump au cours de sa campagne (manufacturier, pétro-gazier et agricole) sont à la peine.
Après un pic à 9 % sur un an en juin 2022, l’inflation a été – avec l’immigration – au cœur de la campagne présidentielle de 2024. Les électeurs américains ont été sensibles à la promesse du candidat Trump de faire baisser les prix. Beaucoup s’interrogent désormais.
Après un an de mandat, le président s’est attribué le mérite de quelques baisses ponctuelles, comme sur le prix des œufs ou de l’essence, sans que ces baisses ne puissent lui être clairement attribuées.
Plus généralement, non seulement les prix n’ont pas baissé fin 2025, mais l’inflation (2,7 %), toujours supérieure à l’objectif de 2 % de la Réserve fédérale (Fed), est comparable à celle de fin 2024 (2,9 %). Elle est même nettement plus élevée pour certains postes de dépenses énergétiques qui impactent fortement les plus modestes, comme l’électricité qui augmente de 6,7 % entre décembre 2024 et décembre 2025.
Le 2 avril 2025, jour proclamé « Liberation Day », Donald Trump annonce les droits de douane les plus élevés imposés par les États-Unis à leurs partenaires commerciaux depuis les années 1930.
À lire aussi : Après l’échec des droits de douane de Trump 1, pourquoi cela serait-il un succès sous Trump 2 ?
Il en retarde l’application quelques jours plus tard face à la chute de la Bourse et à la hausse des taux sur la dette fédérale. Initialement, ce report exclut la Chine qui s’est lancée dans un bras de fer avec les États-Unis, chaque pays répliquant aux hausses de droits de douane de l’autre par de nouvelles hausses. Cette surenchère avec Pékin et les déclarations chaotiques sur les négociations avec d’autres partenaires créent un climat très incertain et entraînent, plusieurs mois durant, un fort attentisme des entreprises américaines en matière d’investissements et de création de nouveaux emplois.
Alors que le président affirmait que le choc tarifaire serait absorbé par les pays étrangers, la plupart des économistes prévoyaient que son poids pèserait sur les entreprises et les consommateurs américains. Même si les faits semblent plutôt leur donner raison, le bilan des droits de douane sur 2025 n’est pas simple à dresser.
Tout d’abord, les importateurs américains se sont empressés de constituer des stocks avant l’application des droits de douane, ce qui a accru les importations en début d’année, puis les a réduits les mois suivants. Mais, d’autres facteurs ont pu contribuer à la baisse spectaculaire du déficit commercial observée fin 2025 : la baisse du dollar relativement à d’autres monnaies, dont l’euro, a amélioré la compétitivité des produits américains ; et la baisse des prix du transport maritime a diminué le coût des produits entrant aux États-Unis.
Ensuite, il est difficile de mesurer les droits de douane effectivement appliqués en 2025 en raison des reports, des négociations bilatérales, des exemptions notamment sur des produits relevant de l’accord de libre-échange entre États-Unis, Mexique et Canada (ACEUM), ou d’autres exemptions ponctuelles sur divers produits essentiels aux consommateurs ou aux entreprises. Un document de travail du National Bureau of Economic Research (NBER) publié par deux économistes américains montre que les droits de douane moyens effectivement appliqués étaient de 14,1 % fin septembre 2025, soit environ la moitié de ceux annoncés par l’administration (27,4 %).
L’un des principaux arguments de Trump pour augmenter les droits de douane était de sauver le secteur manufacturier américain et les emplois qui y sont liés. Pourtant, ces mesures n’ont pas suffi à enrayer les baisses d’emplois qui s’opèrent dans ce secteur depuis 2023. En 2025, le secteur a perdu autour de 58 000 emplois.
Dans le secteur pétro-gazier cher au président, le taux de chômage a bondi de 1,9 % en novembre 2024 à 9 % un an plus tard. En réalité, l’emploi dans ce secteur est très dépendant de sa rentabilité, qui elle-même dépend des cours mondiaux du pétrole. Autour de 60 à 70 dollars (51 à 60 euros) le baril, la rentabilité de l’extraction des pétroles de schiste est à peine garantie. Or, en novembre 2025, le baril de West Texas Intermediate (WTI, le pétrole de référence sur le marché américain) s’établissait à 60 dollars, du fait de l’augmentation de la production aux États-Unis et plus encore au sein de l’Opep, ce qui a modéré les cours du pétrole. En la matière, les objectifs de Trump sont contradictoires : d’un côté, les prix bas du pétrole réduisent les prix à la pompe pour les consommateurs, mais, de l’autre, ils limitent la réalisation de nouveaux forages parmi les plus coûteux.
Le secteur agricole, important dans beaucoup d’États républicains, pâtit de la guerre commerciale – c’est en particulier le cas des producteurs de soja boycottés par la Chine. Dans le même temps, le secteur voit sa rentabilité affectée par l’augmentation du coût du travail et les difficultés de recrutement liées au durcissement de la politique migratoire alors que l’agriculture est particulièrement dépendante de travailleurs d’origine étrangère (70 %) dont beaucoup sont en situation irrégulière (environ 40 %). En réponse aux difficultés du secteur, Trump a annoncé 12 milliards de dollars (soit 10,3 milliards d’euros) d’aides directes aux agriculteurs, dont 11 milliards de dollars (soit 9,4 milliards d’euros) consacrés aux grandes cultures (soja, maïs, blé, coton, riz, etc.).
Les droits de douane avaient non seulement pour but de sauver l’industrie américaine, mais ils devaient également conduire à l’implantation d’usines supplémentaires et à la création des emplois associés, en supposant que nombre d’entreprises feraient le choix de venir ou de revenir produire aux États-Unis pour y échapper. Il est trop tôt pour juger des résultats de cette politique.
Certes, le site web de la Maison Blanche communique sur un boom massif d’investissements qui s’établiraient à 9 600 milliards de dollars (8 200 milliards d’euros). Cependant, selon une étude Bloomberg, les véritables promesses d’investissements seraient moindres (7 000 milliards de dollars, soit 6 020 milliards d’euros), dont une partie correspond à des projets déjà existants, et d’autres à des engagements flous ou non contraignants. En fait, 2 900 milliards de dollars (2 494 milliards d’euros) de ces investissements se concentreraient sur le secteur de l’IA et la construction de data centers peu générateurs d’emplois.
Malgré les trois baisses du taux de la Fed opérées en 2025 pour soutenir l’activité économique, le marché du travail montre des signes préoccupants.
Tout d’abord, le taux de chômage a augmenté de 0,4 points de pourcentage, atteignant 4,4 % en fin d’année. La baisse de l’emploi fédéral (277 000 postes détruits, soit environ 10 % des effectifs fédéraux, agences indépendantes incluses) à la suite des coupes décidées par le « département » de l’efficacité gouvernementale (DOGE), piloté par Elon Musk, n’explique qu’une partie de la hausse du chômage.
Ensuite, les jeunes entrants sont particulièrement affectés, notamment par le développement de l’IA. Le taux de chômage des 16-19 ans s’est accru de plus de 3 points de pourcentage, atteignant les 15,7 %. Enfin, les temps partiels subis ont explosé (+ 980 000).
La consommation des ménages s’est maintenue en 2025 à un niveau comparable à celui de 2024, ce qui a largement contribué à porter l’activité économique, et notamment la reprise des deuxième et troisième trimestres après la contraction du produit intérieur brut (PIB) au premier trimestre. Pourtant, l’indice de confiance des consommateurs établi par l’Université du Michigan a chuté de près de 28,5 % sur l’année, traduisant l’inquiétude croissante d’une partie des Américains face à la situation économique, une défiance qui s’est traduite par plusieurs revers électoraux emblématiques pour le camp républicain.
De nombreux citoyens, des plus modestes aux classes moyennes, dont beaucoup ont voté Trump en 2024, s’inquiètent désormais. Alors que l’inflation continue de grever leur pouvoir d’achat, les réductions d’impôt pérennisées par la loi de finance pour 2026, « The Big Beautiful Bill Act », bénéficient avant tout aux plus riches tout en durcissant les conditions d’accès au programme d’aide alimentaire (SNAP) et au programme de santé public Medicaid, qui couvre les frais médicaux des personnes à faibles revenus, soit un Américain sur cinq.
De même, la non-prolongation par le Congrès des subventions à l’assurance santé dite Obamacare fait exploser le prix de l’adhésion à un système de santé pour plus de 20 millions d’Américains début 2026.
Pour éviter que la grogne ne s’installe dans son électorat, Donald Trump met en avant la baisse des prix à venir des médicaments au terme des accords qu’il a passés avec les grands groupes pharmaceutiques, et la perspective de distribuer des chèques de 2 000 dollars (1 720 euros) à une grande partie des ménages américains à partir des 190 milliards de dollars (163 milliards d’euros) de recettes supplémentaires générées par la hausse des droits de douane, oubliant un peu vite que c’est le Congrès et non l’exécutif qui a la main sur les dépenses.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.01.2026 à 11:09
Rani J. Dang, Maîtresse de conférences HDR; Vice-Présidente Entrepreneuriat Université Côte d'Azur; Direction UniCA Entreprendre, Université Côte d’Azur
Ulrike Mayrhofer, Professeur des Universités à l'IAE Nice et Directrice du Laboratoire GRM, Université Côte d’Azur
Pour rester dans la compétition mondiale et viser les transitions en cours, les start-up « deep tech » ont un rôle clé. Porteuses de technologie d’avant-garde, ces entreprises doivent relever de nouveaux défis. Les méthodes classiques d’accompagnement d’entreprises émergentes ne suffisent pas toujours. Car celles-ci doivent aussi « inventer » leur écosystème, avant d’atteindre le client final.
Le plan Deeptech de 2019 visait à stimuler la création de start-up « deep tech », ces entreprises construites sur les résultats de la recherche scientifique. Ces objectifs sont largement repris dans le plan France 2030.
Cependant, la réussite commerciale de ce type d’entreprise, bâtie sur des bases scientifiques solides, reste un défi d’ampleur. Car le succès commercial ne dépend pas que de la technologie… mais aussi de l’adoption de cette dernière par un écosystème, souvent invisible jusque-là. L’étude de cas Caeli Energie, qui conçoit une climatisation bas carbone, montre que le succès d’une rupture technologique dépend avant tout de son adoption par des partenaires intermédiaires bien plus que par le client final.
À lire aussi : Les start-ups « deep tech » : une réponse aux enjeux du XXIᵉ siècle ?
Les projets « deep tech » apportent une forte valeur ajoutée et présentent un caractère très différenciant, de par l’utilisation de technologies de rupture généralement protégées par la propriété intellectuelle et par un développement opéré en lien étroit avec la recherche. En relevant les défis contemporains, les « deep tech » investissent des domaines peu explorés et repoussent les frontières de l’innovation.
Malgré les efforts déployés, de nombreuses « deep tech » n’atteignent jamais leur marché. Non pas en raison d’une innovation déficiente, mais parce qu’elles sont confrontées à un triple défi. En effet, elles doivent développer simultanément leur organisation, une nouvelle technologie, mais aussi un marché qui, par définition, n’existe pas encore. Cette situation rend les approches classiques de l’entrepreneuriat inadaptées. Il est difficile, voire impossible, de tester la proposition de valeur quand les clients ne disposent pas des connaissances pour appréhender et adopter l’innovation.
Les approches dominantes en innovation partent d’une vision ciblée sur le client, où la réussite dépend de la valeur perçue par le client. L’approche écosystémique définie et développée par Ron Adner constitue un cadre analytique pertinent pour comprendre comment les entrepreneurs peuvent appréhender les risques de l’écosystème en considérant la chaîne de relations et les interdépendances dont dépend la mise sur le marché d’une innovation.
Comme explicité dans l’article « Revisiter l’innovation par l’approche écosystémique », ce principe montre ses limites notamment dans le cas des innovations de rupture. C’est pourquoi les « deep tech » sont plus sujettes aux risques écosystémiques que les autres start-up. Entre l’innovateur et son client, une multitude d’acteurs se dresse et conditionne l’adoption : distributeurs, installateurs, prescripteurs, régulateurs, mais aussi les producteurs de technologies complémentaires… Si l’un d’eux fait défaut ou n’est pas disposé à adapter ses pratiques, l’innovation n’atteint pas le client quand bien même ce dernier serait enthousiaste.
Pour comprendre comment les « deep tech » naviguent dans ces environnements incertains, nous avons étudié Caeli Energie, une start-up qui conçoit une climatisation bas carbone fonctionnant sans gaz frigorigène, avec une consommation énergétique de trois à cinq fois inférieure à un climatiseur classique. Sa technologie repose sur un évapo-échangeur breveté, issu d’années de recherche. Pourtant, pour arriver jusqu’au consommateur, Caeli Energie doit convaincre les acteurs de son écosystème complexe :
les distributeurs, qui référencent le produit ;
les installateurs, prescripteurs clés qui doivent comprendre le fonctionnement du produit et accepter de sortir de leurs routines ;
les promoteurs, qui intègrent la nouvelle solution dans leurs projets immobiliers ;
les régulateurs, du fait des normes et contraintes techniques.
Il existe donc un risque d’intégration, soit la capacité de l’innovation à s’insérer dans les routines, compétences et infrastructures existantes.
Notre étude montre que les « deep tech » consacrent l’essentiel des efforts à la maîtrise du risque d’exécution : finance, technologie, industrialisation. Mais sous-estiment deux risques majeurs :
un risque d’interdépendance : l’innovation dépend-elle d’autres technologies ? d’un contexte réglementaire spécifique ? d’un équipement complémentaire ? Pour Caeli Energie, ce risque est modéré, car le système fonctionne de manière autonome. Mais pour de nombreuses « deep tech » (santé, quantique, hydrogène…), ce risque peut prendre des proportions significatives.
un risque d’intégration : l’innovation impose-t-elle de nouvelles routines aux partenaires ? de nouvelles compétences ? de nouveaux modèles économiques ?
Si un installateur ne comprend pas le produit, si un distributeur ne sait pas le promouvoir, si un acteur refuse d’adapter son processus, alors l’innovation n’atteint jamais son client.
Trois recommandations émergent de notre étude :
(1) Cartographier l’écosystème : identifier tous les acteurs avant le client final y compris ceux qui ne sont pas acheteurs, mais dont le rôle est déterminant ;
(2) Analyser les risques écosystémiques : les risques d’exécution, mais surtout d’interdépendance et d’intégration, et construire des stratégies pour les maîtriser ;
(3) Construire une proposition de valeur pour chaque acteur et pas seulement pour le client final.
L’histoire de Caeli Energie illustre une vérité que l’on observe dans toute innovation de rupture. La réussite ne dépend pas de la seule technologie, mais de la capacité à orchestrer son adoption par un écosystème.
À l’heure où l’action publique mise sur la « deep tech », comprendre cette dynamique est incontournable. Si la France veut réussir son pari d’une industrie innovante et souveraine, elle doit outiller ses entrepreneurs pour mieux naviguer dans ces environnements incertains.
Cet article a été co-écrit avec Florent Genoux, délégué Innovation Grenoble Alpes, Bpifrance.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.
19.01.2026 à 11:09
Pauline Brunner, Maître de conférences en sciences de gestion et du management, Université de Strasbourg
Véronique Schaeffer, Professeure - Université de Strasbourg

Une recherche dresse la typologie des étudiants-entrepreneurs français, bénéficiant du programme Pépite France. Tantôt pro-business, tantôt pro-environnement ou pro-social, homme ou femme, très diplômé ou peu diplômé, six profils se distinguent : les business entrepreneurs, les entrepreneurs sociaux, les entrepreneurs environnementaux, les entrepreneurs durables, les aspirants entrepreneurs et les entrepreneurs académiques.
Depuis 2021, le statut national d’étudiant-entrepreneur (SNEE), mis en place par le ministère de l’enseignement supérieur et de la recherche, permet aux étudiants et jeunes diplômés d’aménager leur emploi du temps, de substituer leur stage ou mémoire par un projet entrepreneurial et d’être accompagné.
L’étudiant fondateur de start-up purement « business » fait figure de proue, mais, de plus en plus, des entrepreneurs motivés par l’envie d’agir pour la société et la planète émergent. Selon le réseau Pépite France qui coordonne ces entrepreneurs, 69 % de l’ensemble des entreprises créées par les étudiants ont une finalité sociale et environnementale.
Notre recherche menée auprès de 210 étudiants-entrepreneurs inscrits dans le programme national Pépite France, entre 2014 et 2021, dresse une typologie de ces étudiants en fonction de l’orientation économique, sociale et environnementale de leurs projets. Six profils se distinguent : les business entrepreneurs, les entrepreneurs sociaux, les entrepreneurs environnementaux, les entrepreneurs durables, les aspirants entrepreneurs et les entrepreneurs académiques.
Qui sont ces entrepreneurs ? Quelles sont leurs aspirations ? Et pour quels résultats ?
Les business entrepreneurs (20 % de l’échantillon)
Essentiellement des hommes, étudiant dans un master scientifique, ils participent à plusieurs programmes d’accompagnement entrepreneurial et engagent des projets fondés sur des technologies numériques. Leur objectif : développer un projet rentable.
Les entrepreneurs sociaux (19 % de l’échantillon)
Animés par des valeurs fortes et sensibles aux questions de société, les entrepreneurs dits sociaux se caractérisent par leur motivation à répondre à des besoins sociaux non résolus dans la société. Majoritairement des femmes de niveau master, issues des sciences humaines, ces entrepreneuses sont actives dans le domaine de la santé et du bien-être.
Les entrepreneurs environnementaux (14 % de l’échantillon)
Les entrepreneurs dits environnementaux cherchent à promouvoir le bien-être écologique. Plutôt des hommes de 23 à 26 ans, en master scientifique, leur objectif est de contribuer à trouver des solutions innovantes dans les secteurs de l’agriculture, l’alimentation ou l’énergie.
Les entrepreneurs durables (11 % de l’échantillon)
La notion d’entrepreneur durable met en avant un entrepreneuriat fondé sur la « triple performance » sociale, environnementale et économique. Leurs projets sont plutôt liés à l’agriculture et prennent la forme d’activités d’achat-revente.
Les aspirants entrepreneurs (29 % de l’échantillon)
Ces étudiants en licence plutôt jeunes, masculins, s’inscrivent généralement pour la première fois dans un programme d’accompagnement. Leurs projets, encore embryonnaires, concernent plutôt la culture ou les arts. Leur objectif : développer et tester leurs compétences.
Les entrepreneurs académiques (4 % de l’échantillon)
Plus âgés, doctorants ou docteurs, ils développent des projets innovants pour trouver des applications concrètes à leurs recherches.
Pourquoi une telle diversité ? Les résultats de l’étude suggèrent que plusieurs facteurs entrent en jeu.
Le genre
Les femmes sont fortement représentées dans les projets sociaux (85 % contre 35 % de l’échantillon total), mais moins dans les projets purement économiques (7 % contre 35 % de l’échantillon total) ou environnementaux (17 % contre 35 % de l’échantillon total), soulignant l’influence des valeurs et des expériences vécues dans l’orientation des projets.
Les sciences humaines nourrissent plutôt les projets sociaux (33 % contre 13 % de l’échantillon total) tandis que les sciences dites « dures » nourrissent les projets purement business (65 % contre 46 % de l’échantillon total) et les projets environnementaux (73 % contre 46 % de l’échantillon total).
Les projets liés à l’agriculture sont plus souvent durables (46 % contre 18 % de l’échantillon total) ou environnementaux (57 % contre 18 % de l’échantillon total) tandis que les applications numériques se retrouvent surtout dans les projets sociaux ou purement économiques.
Les trajectoires personnelles sont importantes. L’entrepreneuriat étudiant ne se réduit pas à une logique unique : il reflète une pluralité de motivations, de parcours et d’ambitions.
La génération actuelle d’étudiants est souvent décrite comme particulièrement sensible aux grands enjeux de société. Notre étude va dans ce sens. Une part importante des jeunes interrogés souhaite contribuer au changement, au-delà de la seule réussite économique. Mais l’enthousiasme ne suffit pas. Sans accompagnement adapté, beaucoup de ces projets risquent de rester à l’état d’idées prometteuses.
Le défi est double : donner aux étudiants les compétences pour développer leurs projets et créer un écosystème qui valorise les initiatives à impact.
Un des enjeux pour les universités et pour les pouvoirs publics est de soutenir cette diversité, sans la réduire à un modèle unique. Les étudiants sont nombreux à entreprendre autrement, et l’entrepreneuriat étudiant est devenu un laboratoire prometteur de la transition vers une société plus responsable.
Pauline Brunner est membre de l'Université de Strasbourg, du réseau de recherche en entrepreneuriat Grand-Est R2E, et du laboratoire LabEx Entreprendre de l'Université de Montpellier. Elle a reçu des financements de l'Idex Université de Strasbourg.
Véronique Schaeffer est membre de l'Université de Strasbourg et du réseau recherche en entrepreneuriat du Grand Est R2E. Elle a reçu des financements de l'Idex Université de Strasbourg et de la Région Grand-Est.
19.01.2026 à 11:09
George Kassar, Full-time Faculty, Research Associate, Ascencia Business School

Nous sommes bel et bien en janvier. Le mois du blanc est surtout celui du grand théâtre des entretiens d’évaluation individuelle de performance dans bien des entreprises. Alors, comment les cadrer au mieux pour distinguer les salariés qui se mettent en scène de ceux qui créent réellement de la valeur, mais sous-estiment leur capacités ?
L’entretien annuel de performance est devenu un passage obligé dans la plupart des organisations. Il ne s’agit pas d’une simple discussion informelle, mais d’un moment qui pèse sur les primes, les promotions ou les opportunités de carrière. Très différent des entretiens de parcours professionnels qui sont une obligation légale, les salariés y voient un verdict sur leur année ; les managers doivent trancher, classer, justifier. La pression est forte des deux côtés de la table.
Dans ce contexte tendu, le collaborateur entre, armé de son powerpoint mental avec ses objectifs atteints, ses initiatives personnelles ou son leadership exemplaire. Le manager, lui, soucieux de préserver l’éthique dans ce processus, coche des cases, écoute poliment et note des mots-clés : confiance, dynamisme, vision, etc. Tout semble sérieux, objectif, quantifié. En réalité, la scène tient parfois plus du théâtre qu’une vraie application scientifique de la gestion de la performance.
De ce fait, ces entretiens, pourtant censés évaluer les résultats concrets, finissent souvent par mesurer autre chose, celle de la capacité à se vendre. Ce glissement ne serait qu’un détail s’il n’avait pas de conséquences bien réelles sur la motivation et la rétention des « talents ».
Durant le mois de janvier, un paradoxe managérial devient presque une tradition. Ceux qui maîtrisent tout juste leur sujet arrivent sûrs d’eux, brandissant leurs « grandes réussites » et occupent l’espace. Les vrais compétents, eux, minimisent leurs exploits, soulignent ce qui reste à améliorer… et passent sous le radar. Résultat : on récompense ceux qui parlent le plus fort, pas forcément ceux qui contribuent le plus. On s’étonne ensuite de voir les meilleurs partir.
Le phénomène a un nom : l’effet Dunning-Kruger. Décrit dès 1999 par les psychologues David Dunning et Justin Kruger, il désigne la tendance des moins compétents à surestimer leurs capacités tandis que les plus compétents se montrent plus prudents dans leur jugement.
Les études contemporaines confirment que ce biais ne s’arrête pas à la salle de classe, au laboratoire ou même sur le champ. Transposé au bureau, ce syndrome donne une situation paradoxale : plus on est limité, plus on risque de se croire excellent, plus on est bon, plus on doute et plus on voit ce qui pourrait être mieux.
Si le manager ne s’appuie que sur le discours tenu pendant l’entretien, sans preuves solides, il a toutes les chances de se laisser influencer par cette confiance parfois mal placée. L’aisance orale, la capacité à « vendre » un projet ou à reformuler ses tâches en succès stratégiques deviennent des critères implicites d’évaluation.
Cette surestimation omniprésente pourrait entraîner de graves atteintes au bon jugement professionnel. Elle déforme la perception des compétences réelles et favorisent une culture d’apparence plutôt qu’une culture de résultats.
Les vrais performants, souvent modestes, finissent par comprendre que la reconnaissance interne ne récompense pas les résultats et l’impact de leur travail, mais le récit qu’on en fait et la capacité à se mettre en scène.
Ces derniers peuvent ressentir un décalage entre ce qu’ils apportent réellement et ce que l’organisation valorise. Leur engagement s’érode, leur créativité aussi. Ce qui est un facteur bien documenté de démotivation et de départ.
Le plus ironique ? Ceux qui doutent d’eux-mêmes sont souvent ceux qu’on aimerait garder. Les études sur la métacognition montrent que la capacité à se remettre en question est un signe de compétence. À l’inverse, les plus sûrs n’évoluent pas. Persuadés d’avoir déjà tout compris, ils s’enferment dans leur propre suffisance durable.
L’entreprise perd, dans le silence, celles et ceux qui faisaient avancer les projets les plus exigeants et les plus sensibles. Elle garde ceux qui savent surtout parler de leurs succès.
La bonne nouvelle est qu’il est possible de corriger cette dérive. Les pistes sont connues mais rarement appliquées.
Tout commence par un bon cadre pour la mise en place de l’évaluation de la performance. Une formation adaptée aux managers, évaluateurs et collaborateurs est encouragée, avec un système de revue fréquente de la performance, un dispositif de mesure clairement défini et un groupe d’évaluateurs multiples.
À lire aussi : Parler salaires, un tabou en France ? Vraiment ?
Il est important de fonder les évaluations sur des faits en revenant à des concepts fondamentaux tels que le management by objectives (MBO). L’enjeu : définir des objectifs clairs, mesurables, ambitieux mais réalistes, suivi à l’aide d’indicateurs alignés sur l’impact réel, avec une stratégie de mesure fondée sur les données pour évaluer des résultats concrets, et pas seulement le récit de la personne évaluée.
L’avis d’un seul manager ne devrait pas suffire à juger la performance d’une personne qui travaille en équipe. Il faut regarder sa contribution au collectif.
Les dispositifs de « feed-back à 360° » permettent de diversifier les retours
– collègues, clients, revues de projets, etc. Quand plusieurs personnes confirment la contribution d’un collaborateur discret, il devient plus difficile de l’ignorer. À l’inverse, un profil très visible mais peu fiable sera plus vite repéré.
Il est important de garder à l’esprit que la gestion de la performance est un processus social. Les recherches montrent que le feed-back formel, donné lors de l’entretien annuel, est bien plus efficace lorsqu’il est soutenu par un feed-back informel et des échanges réguliers. Ces discussions spontanées renforcent la confiance et créent le contexte nécessaire pour que l’évaluation finale soit juste, non biaisée, acceptée et réellement utile.
Il est essentiel de former les managers à mieux reconnaître et anticiper les biais cognitifs, en particulier ceux du jugement, dont le fameux décalage entre confiance affichée et compétence réelle. Comprendre que l’assurance n’est pas une preuve en soi, et que la prudence peut être le signe d’une réelle expertise, change la manière de conduire un entretien.
Tant que les entreprises confondront assurance et compétence, elles continueront à promouvoir les plus confiants et à perdre, peu à peu, leurs meilleurs éléments.
Dans un marché où les talents ont le choix, ce biais n’est pas qu’un détail psychologique : mais un véritable risque stratégique. Après tout, ceux qui parlent le plus fort ne sont pas toujours ceux qu’il faudrait écouter !
George Kassar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.
19.01.2026 à 11:09
Ricardo Azambuja, Professeur associé en management, EDHEC Business School
Gazi Islam, Associate Professor, People Organizations and Society, Grenoble École de Management (GEM)
C’est une dimension souterraine du travail des managers : établir des frontières dans l’organisation et décider de ce qui peut ou non circuler. Pourtant, la prise en compte de cette dimension amène à revoir complètement leur rôle réel et leurs missions.
Le travail des cadres consiste en grande partie à travailler au-delà des « frontières » organisationnelles, hiérarchiques, et même symboliques. Pour mettre en œuvre une stratégie et communiquer les besoins et le savoir-faire des employés, les cadres doivent composer avec ces frontières, représentant et traduisant les expériences de différents acteurs, y compris eux-mêmes.
Les chercheurs s’intéressent de plus en plus à ces frontières – contestées ou admises – que les cadres respectent, contournent et, en fin de compte, remodèlent activement pour remplir leur rôle.
Dans un récent article, nous tentons de nuancer et d’enrichir ces analyses en posant la question suivante : comment les cadres intermédiaires utilisent-ils le travail sur les frontières pour façonner leurs actions quotidiennes ? Notre observation principale est que ce travail ne se contente pas de renforcer ou d’affaiblir les frontières, que ce soit en termes d’ancienneté, d’expertise ou de hiérarchie, mais les configure de manière sélective afin de les rendre plus ou moins visibles et/ou poreuses.
Les études sur les cadres intermédiaires ont mis en évidence leur position hybride et leur capacité à naviguer habilement entre les ambiguïtés et les malentendus, ainsi que les différences entre divers groupes.
À lire aussi : Télétravail : Managers intermédiaires, jeunes… ces salariés ravis de l'assouplissement des règles
L’idée de travailler les frontières attire de plus en plus l’attention des chercheurs, en particulier lorsque ces frontières sont en mutation ou contestées. Dans de telles situations, elles ne peuvent être considérées comme acquises et deviennent un élément du rôle professionnel. Cependant, ces frontières professionnelles ont généralement été étudiées sous l’angle de leur renforcement ou de leur renversement dans le but de protéger les groupes ou de permettre leur collaboration.
Afin de mieux comprendre le travail de gestion des frontières, nous avons examiné de manière ethnographique un cabinet d’audit brésilien via des observations et des entretiens afin de comprendre l’expérience quotidienne et les motivations des managers.
Nous avons observé que la création de frontières est une activité hautement politique, constituant une source importante d’action managériale, car les cadres intermédiaires sont en mesure de filtrer et de traduire les idées de la hiérarchie et d’établir des espaces à partir desquels l’action est possible.
Ils peuvent « fermer ou ouvrir » ces espaces de manière à consolider leur position et à influencer l’organisation « depuis le milieu ». Ils peuvent promouvoir de manière sélective les interactions sociales et les identifications entre différentes unités ou différents rangs, ou inversement, éloigner les acteurs les uns des autres.
Nous avons identifié quatre stratégies relatives aux frontières :
La technique des « frontières barricades » – Les barricades sont des frontières faciles à voir et difficiles à franchir. Les cadres intermédiaires les ont érigées pour mettre en évidence et légitimer leurs propres positions, se posant ainsi en gardiens indispensables des pratiques organisationnelles. Se positionnant comme les porte-paroles de la direction auprès de leurs employés et inversement, ils mettent l’accent sur l’autonomie et l’autorité. En allant jusqu’à adopter des pratiques propres à leurs services, ils les rendent indéchiffrables pour les autres, créant ainsi des sphères d’action parallèles où ils peuvent exercer un contrôle unique.
La mise en place des « frontières façades » – Les façades donnent l’impression de frontières solides, mais qui sont en réalité poreuses et inconsistantes. Les cadres intermédiaires s’engagent dans un travail de façade lorsqu’ils souhaitent marquer symboliquement les différences entre des groupes qui, dans la pratique, collaborent et ont des échanges continus. Cela leur permet de réguler les échanges à des moments clés et de maintenir un équilibre entre autonomie et travail en réseau. Ici, les cadres peuvent exercer de facto leur pouvoir sans remettre en cause les hiérarchies organisationnelles établies, une stratégie qui leur offre une certaine flexibilité opérationnelle.
Le travail sur des « frontières taboues » – Les frontières taboues sont celles qui ne doivent pas être mentionnées, bien qu’elles soient opérantes. Le travail managerial sur cette frontière existe principalement entre pairs, où cultiver un esprit de collégialité et de coopération exige de fermer les yeux sur les différences de pouvoir établies ou sur les intérêts divergents. Alors que les façades impliquent de rendre publiques les différences tout en établissant des liens, les frontières taboues maintiennent des différences cachées tout en conservant une apparence d’unité. Une grande partie de ce qui est « tabou » concerne la concurrence pour des ressources rares ou le statut entre managers. Dans ce cas, rendre cette concurrence visible peut compromettre la capacité à s’appuyer les uns sur les autres pour obtenir des ressources et des compétences essentielles.
La gestion des « frontières fantômes » – Les frontières fantômes, les plus insaisissables, ont une existence éthérée et peuvent être franchies, mais elles hantent le travail quotidien de manière « spectrale ». À la différence d’une situation d’absence de frontières, les managers ignorent ou contournent de manière sélective les frontières formelles afin d’établir des liens où « le faire malgré tout » est considéré comme faisant partie de l’établissement de relations. De cette manière, les frontières fantômes impliquent une présence dans l’absence : la connaissance de leur franchissement fait partie du fonctionnement interactionnel du franchissement.
Dans l’ensemble, les managers ne se contentent pas de créer ou de détruire des frontières, mais ils travaillent sur la composition des frontières elles-mêmes, les rendant visibles ou invisibles et modifient la mesure dans laquelle elles peuvent être franchies… et par qui.
Cela donne une image du travail des cadres intermédiaires comme fondement de la constitution de l’organisation elle-même, car les pratiques d’« enfermement et d’exclusion » des cadres constituent un travail d’organisation continu, distinct et moins visible que l’élaboration de stratégies par la direction. Travailler sur les frontières implique également que la vie quotidienne des cadres est essentielle pour comprendre le fonctionnement des organisations et la manière dont les stratégies sont mises en œuvre.
Notre article suggère que les futurs programmes de recherche devraient se concentrer sur la manière dont les pratiques quotidiennes de travail sur les frontières façonnent les espaces d’action au sein de l’organisation, ce qui a donc de fortes implications « politiques ». Nous notons toutefois que ces pratiques sont perçues comme une forme de travail des cadres non reconnue, et qu’elles sont souvent subjectivement épuisantes.
En effet, en modifiant les frontières qui définissent les rayons d’action des autres – et d’eux-mêmes – les cadres intermédiaires changent effectivement leur propre identité dans leur vie quotidienne, et ces pratiques peuvent entraîner une confusion et un fardeau personnel. Le travail de délimitation fait des managers ce que les managers font des frontières, et l’organisation qui en résulte n’est pas toujours prévisible à l’avance.
Notre étude suggère donc que nous devrions accorder davantage d’attention non seulement à la manière dont les managers existent au sein des organisations, dont ils créent eux-mêmes des formes d’organisation, mais aussi dont ils se construisent à travers leur action sur ces organisations.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.