LePartisan - 83 vues
MEDIAS REVUES BLOGS
URL du flux RSS

▸ les 50 dernières parutions

27.01.2026 à 16:24

Illectronisme : les difficultés des jeunes face au numérique

Jimmy Bordarie, Docteur, Maitre de conférences, Université de Tours
Audrey Damiens, Maître de conférences en droit privé, Université de Tours
Si l’on qualifie souvent les jeunes de « digital natives », ils ne disposent pas toujours des compétences numériques nécessaires au quotidien pour communiquer, s’informer, protéger leur vie privée…
Texte intégral (1856 mots)

La vitesse à laquelle le numérique évolue soulève des questions éthiques. Mais disposons-nous des connaissances nécessaires pour les affronter ? Une partie non négligeable de la population, parmi laquelle un certain nombre de jeunes, se trouverait en situation d’illectronisme.


Moins d’un étudiant sur deux disposerait des compétences numériques attendues en fin de licence, selon une étude de l’Observatoire Pix, relayée fin 2025 par différents médias nationaux. Ces résultats mettent en avant ce qu’on peut appeler l’illectronisme chez les jeunes, loin du cliché des digital natives souvent associé à cette génération née à l’ère des réseaux sociaux.

Formé par la contraction d’illettrisme et d’électronique, l’illectronisme – certains auteurs parlent d’e-lettrisme – fait référence à l’état d’une personne qui ne maitrise pas les compétences nécessaires à l’utilisation et à la création des ressources numériques.


À lire aussi : « L’envers des mots » : Illectronisme


Selon l’Insee, cela correspond à la situation dans laquelle une personne n’a pas utilisé Internet dans les trois derniers mois, soit par incapacité, soit pour des raisons matérielles ou ne possède pas les compétences numériques de base. L’illectronisme est parfois évoqué comme relevant de la fracture numérique informationnelle.

L’illectronisme : repérage et prévalence

Pour évaluer le niveau de connaissances dont on dispose sur le plan numérique, il faut considérer cinq domaines de compétences :

  • la recherche d’information en ligne (sur des produits, services ou la vérification des sources, etc.) ;

  • la communication électronique (envoyer ou recevoir des e-mails, etc.) ;

  • l’usage de logiciels (traitement de texte, etc.) ;

  • la protection de la vie privée en ligne (refuser les cookies, restreindre l’accès à sa position géographique, etc.) ;

  • la résolution de problèmes sur Internet (accéder à son compte bancaire par Internet, suivre des cours en ligne, etc.).

Certaines personnes maîtrisent une partie d’entre eux, d’autres n’en maîtrisent aucun. Pour repérer l’illectronisme, il faut différencier l’illectronisme total et l’illectronisme partiel.

Selon l’Insee, l’illectronisme total concerne environ 15,4 % des Français de plus de 15 ans, ce qui correspond à environ 8 millions de personnes. Cela concerne soit celles qui n’ont pas utilisé Internet dans les trois derniers mois (90,3 % des 8 millions), soit celles qui n’ont pas les compétences numériques de base – c’est-à-dire qu’elles obtiennent 0/2 dans au moins 4 des 5 domaines de compétences (10,7 % des 8 millions).

L’illectronisme partiel correspond aux personnes qui n’ont pas certaines compétences de base, ce qui concerne environ 30 % des personnes de plus de 15 ans. Notons par ailleurs que 20,5 % des internautes en général n’ont pas la compétence de base de protection de la vie privée, alors même que cette compétence concerne tout le monde, et ce dans une période où toute information est susceptible d’être monnayée, utilisée, voire détournée (« fake news », deepfakes, etc.).

L’âge, un facteur clé dans l’usage des technologies ?

Des facteurs sociodémographiques existent, à commencer par l’âge. Les personnes les plus âgées sont les plus touchées par l’illectronisme total (60 % des plus de 75 ans, contre 2 % des 15-24 ans). Pour autant, 19 % des 15-24 ans ont des compétences faibles.

D’autres variables ont une influence importante. Le niveau d’éducation par exemple peut être déterminant : les personnes sans diplôme ou titulaires d’un certificat d’études primaires ont 7 fois plus de risque d’être en situation d’illectronisme qu’une personne ayant un niveau bac+3 ou plus. Le niveau socio-économique également : les personnes vivant dans un foyer parmi les 20 % plus modestes ont 6,6 fois plus de risque d’être touchées par l’illectronisme qu’une personne vivant dans un ménage parmi les 20 % plus aisés.

« Illectronisme, cette inégalité face au numérique » (C dans l’air, avril 2023).

Lorsque l’on s’intéresse en particulier aux 15-24 ans, des données viennent relativiser le mythe du jeune qui maîtriserait le numérique. Si les jeunes n’ont jamais été aussi connectés, le baromètre de l’Observatoire Pix appelle à la vigilance.

À l’entrée à l’université, 40 % des étudiants sont en deçà du niveau attendu, et en sortie de licence, 52 % des étudiants ne maîtrisent pas les usages numériques nécessaires à leur poursuite d’études ou à leur insertion sur le marché du travail. Parmi les compétences soulevant des difficultés : vérifier la fiabilité d’une information en ligne ou connaître ses droits en matière de protection des données.

Quels freins à l’acquisition des compétences numériques ?

De nombreux freins, notamment psychologiques, pourraient expliquer ces constats. Sur le plan individuel, le fait de (ne pas) se sentir capable (Bandura parle de sentiment d’auto-efficacité) est un déterminant majeur. Cela influence la motivation à utiliser les outils numériques et la performance lors de leur usage et, plus globalement, la motivation scolaire.

En outre, l’anxiété vis-à-vis du numérique et le technostress (concept relatif au stress induit par le numérique) influencent également le rapport au numérique des adolescents, notamment en fonction du genre.

Sur le plan collectif, les représentations et les stéréotypes peuvent conduire à une stigmatisation de certains jeunes dits offline (utilisant pas ou peu les outils numériques). Ils peuvent générer une menace du stéréotype (c’est-à-dire une altération des performances lorsque l’on est victime d’un stéréotype en situation d’évaluation ou de jugement), influençant notamment les trajectoires en études d’informatique en fonction du genre.

Des enjeux juridiques et environnementaux à comprendre

Maîtriser les outils numériques, c’est aussi avoir conscience et connaissance des enjeux juridiques et environnementaux.

Sur le plan juridique, c’est comprendre par exemple les réglementations européennes ou les règles relatives au droit à la vie privée, au partage des informations en ligne et à la désinformation, au cyberharcèlement, au télétravail ou encore au droit à la déconnexion.

Sur le plan environnemental, c’est savoir que le numérique représente 4,4 % de l’empreinte carbone de la France, 11,3 % de la consommation électrique en 2022, avec une prévision, en l’état, d’une augmentation de 80 % à l’horizon 2050 selon l’ADEME ; que la consommation d’énergie des data centers a augmenté de 11 % en un an, et leur consommation d’eau pour le refroidissement des circuits a augmenté de 19 % entre 2022 et 2023. Notons par ailleurs que ces données sont antérieures à la démocratisation de l’usage des intelligences artificielles génératives.

La vitesse à laquelle le numérique évolue (le développement des intelligences artificielles génératives en étant une manifestation) soulève des questions éthiques. Nous avons tenté de répondre à certaines d’entre elles dans le Bon Usage du numérique. Comment s’en servir, pour soi et pour les autres (Ellipses, 2025). Il s’agit désormais pour chacun et chacune d’entre nous de prendre conscience de tous ces enjeux, de développer une littératie numérique, autrement dit de nous éduquer aux médias et au numérique.

Et si vous souhaitez faire un bilan de vos propres compétences, vous pouvez vous tester à l’aide de l’outil mis à disposition par Pix.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

27.01.2026 à 16:22

Restaurer la confiance au niveau local : un enjeu économique et démocratique national

Yann Algan, Doyen de l'Ecole d'Affaires Publiques et Professeur d'économie à Sciences Po , HEC Paris Business School
La confiance dans la politique n’a pas complètement disparu. Elle s’est réfugiée là où l’action publique est visible, compréhensible et incarnée : dans les communes.
Texte intégral (1810 mots)

Le malaise français ne relève pas seulement de la défiance envers les politiques ou les institutions, mais d’une promesse trahie de l’économie, lorsque les efforts consentis n’améliorent plus les conditions de vie. Toutefois, la confiance n’a pas disparu, elle s’est relocalisée là où l’action publique est visible, incarnée et compréhensible.

Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».


La défiance est devenue l’un des traits dominants de la société française contemporaine. Les enquêtes d’opinion successives, notamment Fractures françaises 2025, décrivent une société pessimiste, inquiète quant à son avenir et profondément divisée. Mais cette défiance ne se manifeste pas de manière uniforme. Elle s’enracine dans des expériences concrètes, situées dans des territoires précis, là où se vivent au quotidien les transformations économiques et sociales. Dès lors, restaurer la confiance au niveau local ne relève pas seulement d’un impératif démocratique ou symbolique : c’est aussi un enjeu économique majeur à l’échelle nationale.

Le mouvement des « gilets jaunes », apparu à l’automne 2018, a joué à cet égard un rôle de révélateur. Parti d’une contestation fiscale liée à la hausse des taxes sur les carburants, il a rapidement mis au jour une crise plus profonde, mêlant conditions de vie, organisation territoriale et perte de confiance. Loin d’être un simple épisode conjoncturel, il a mis en lumière une réalité trop souvent sous-estimée par l’analyse macroéconomique : l’économie, tout comme la démocratie, est d’abord vécue localement, et c’est à ce niveau que se forgent l’adhésion ou le rejet des politiques publiques.


À lire aussi : Malbouffe et désertification – quelles recettes pour repenser l’attractivité des centres-villes ?


Une crise de confiance enracinée dans les territoires

L’analyse développée dans les Origines du populisme (Seuil, 2019) montre que le mouvement des gilets jaunes ne peut être compris ni comme une simple révolte des « perdants » de la mondialisation, ni comme un phénomène idéologiquement homogène. Nos données révèlent un profil social et territorial précis : ouvriers, employés, retraités modestes, ménages situés sous le revenu médian, vivant majoritairement dans des villes petites ou intermédiaires, souvent en périphérie des grandes métropoles.

Le symbole du rond-point est à cet égard particulièrement éclairant. Il incarne à la fois la dépendance à la voiture, la dispersion de l’habitat, l’éloignement des services publics et la disparition progressive des lieux traditionnels de sociabilité. Dans ces territoires, la vie quotidienne repose sur des arbitrages contraints : temps de transport élevé, coûts fixes incompressibles, accès limité aux services essentiels. La contestation fiscale n’a fait que cristalliser un malaise déjà ancien.

Ce malaise s’accompagne d’un effondrement de la confiance, tant interpersonnelle qu’institutionnelle. Les soutiens les plus déterminés aux gilets jaunes se situent dans le quadrant combinant faible sentiment d’avoir « réussi sa vie » et faible confiance envers autrui. La défiance à l’égard des institutions est massive : près de huit sur dix déclarent ne pas faire confiance au gouvernement, et la méfiance s’étend à l’Union européenne et aux corps intermédiaires. Cette défiance généralisée explique en grande partie l’incapacité du mouvement à se transformer en projet politique structuré : la colère est collective, mais la confiance nécessaire à la construction de compromis fait défaut.

Quand l’économie ne tient plus sa promesse

L’un des enseignements centraux des Origines du populisme est que cette crise de confiance ne relève pas uniquement d’un choc économique ponctuel, mais d’une rupture de la promesse implicite de l’économie. Pendant plusieurs décennies, l’effort, le travail et la mobilité sociale constituaient un horizon partagé : s’adapter, travailler davantage, accepter les transformations devait permettre de vivre mieux et d’offrir à ses enfants des perspectives supérieures.

Or, dans de nombreux territoires, cette promesse s’est progressivement érodée. Une part importante des gilets jaunes a suivi le modèle dominant des décennies précédentes : accéder à la propriété en zone périurbaine pour des raisons de coût, organiser sa vie autour de la voiture, s’inscrire dans une trajectoire d’ascension sociale modeste mais réelle. Ce modèle s’est retourné contre eux, rendant la mobilité plus coûteuse, les services plus éloignés et les marges de manœuvre quotidiennes de plus en plus étroites.

La colère exprimée ne traduit donc pas un rejet abstrait de l’économie de marché ou de la mondialisation, mais un sentiment de promesse trahie. Lorsque les efforts consentis ne produisent plus d’amélioration tangible des conditions de vie, la confiance dans le système économique et dans ceux qui le gouvernent s’effondre. Ce mécanisme est renforcé par la concentration spatiale de la richesse. Voir la prospérité se concentrer dans quelques grandes métropoles, sans diffusion perceptible vers les territoires environnants, nourrit un sentiment d’injustice plus puissant encore que la baisse du revenu lui-même.

Cette dynamique éclaire la difficulté à conduire les grandes transitions contemporaines, en particulier la transition écologique. Demander des efforts supplémentaires à des populations qui ont déjà le sentiment de ne pas bénéficier des fruits de la croissance est politiquement et économiquement risqué. L’épisode des gilets jaunes l’a montré avec force : une mesure écologiquement justifiée et économiquement rationnelle peut devenir explosive lorsqu’elle heurte un quotidien déjà fragilisé.

De la crise territoriale à l’enjeu économique national

Ces constats rejoignent étroitement les analyses de la note « Territoires, bien-être et politiques publiques » du Conseil d’analyse économique (CAE). Ce dernier y montre que le mécontentement social s’explique moins par les seuls indicateurs économiques classiques que par un ensemble de facteurs liés à la qualité de la vie locale (accès aux services publics, commerces de proximité, lieux de sociabilité, conditions de mobilité).

Certaines politiques publiques ont privilégié l’efficacité économique globale – concentration de l’activité, métropolisation, spécialisation territoriale – sans toujours prendre en compte leurs effets sur le bien-être local. Or, lorsque les gains se concentrent spatialement et que les coûts d’ajustement pèsent ailleurs, la défiance s’installe.

Vie-publique, 2025.

À l’échelle nationale, cette fragmentation territoriale a un coût économique réel. Elle fragilise le consentement à l’impôt, complique la mise en œuvre des réformes et nourrit une instabilité sociale qui pèse sur l’investissement et la croissance. Une économie peut afficher de bonnes performances agrégées tout en devenant socialement et politiquement vulnérable.

La commune, dernier réservoir de confiance

Dans ce paysage de défiance généralisée, un fait mérite une attention particulière : la confiance accordée aux maires demeure élevée. Les enquêtes récentes du Cevipof menées avec Ipsos montrent que le maire reste la figure politique bénéficiant du plus haut niveau de confiance. Cette confiance repose moins sur la proximité affective que sur des critères simples et exigeants : honnêteté, capacité à tenir ses engagements, sens de l’intérêt général.

Ce constat est central pour la question économique. Il montre que la confiance n’a pas disparu ; elle s’est relocalisée. Là où l’action publique est visible, incarnée et compréhensible, le lien de confiance subsiste. Ce lien facilite la coordination des acteurs locaux, l’acceptation des projets d’aménagement et la mise en œuvre des transitions nécessaires.

Restaurer la confiance locale : une stratégie économique

S’appuyant sur ce diagnostic, le CAE plaide pour une réorientation des politiques territoriales autour d’un objectif central : le bien-être local, et non la seule performance économique agrégée. Cela implique de mieux intégrer des indicateurs de qualité de vie dans l’évaluation des politiques publiques, de renforcer les services de proximité et de considérer certains équipements – santé, mobilité, sociabilité – comme de véritables infrastructures de confiance.

Donner aux collectivités locales, et en particulier aux communes, les moyens d’agir est également essentiel. Sans visibilité financière ni capacité d’adaptation, les promesses locales risquent de se transformer en déceptions supplémentaires, alimentant à nouveau la défiance.

Restaurer la confiance au niveau local n’est ni un supplément d’âme ni une politique périphérique. Les gilets jaunes ont montré ce qui se produit lorsque le bien-être local se dégrade et que la promesse économique ne tient plus : la contestation devient la seule forme d’expression disponible. À l’inverse, une économie capable de s’appuyer sur des territoires vivants, dotés de services accessibles et d’institutions locales crédibles, est une économie plus résiliente, plus inclusive et plus durable. Investir dans la confiance locale, c’est créer les conditions sociales et politiques de la prospérité nationale.


Cet article est publié en partenariat avec Mermoz, la revue du Cercle des économistes dont le numéro 9 a pour thème « Territoires abandon ou rebond ? ».

The Conversation

Yann Algan ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.01.2026 à 16:21

La psychanalyse peut-elle nous aider à comprendre la série « Pluribus » ?

Maxime Parola, Doctorant en Art, Université Côte d’Azur
Sous couvert de parler d’un autre monde, la science-fiction nous invite à réfléchir à notre sort. À ce titre, « Pluribus » nous confronte aux grandes questions de l’humanité.
Texte intégral (2095 mots)
Carol, une misanthrope contrainte de sauver l’humanité. Apple TV

Thriller psychologique teintée de comédie noire, la série Pluribus explore la perte de l’individualité. Sous ses airs d’utopie, le monde sans conflit mis en scène par Vince Gilligan devient terrifiant, car il efface tout ce qui fait le propre de l’humain : le manque, la colère et le libre arbitre.


Attention, si vous n’avez pas vu la première saison de Pluribus, cet article en divulgâche l’intrigue.

Pluribus fait l’unanimité tant du côté des spectateurs que de la critique. Il y est question d’une thématique classique en science-fiction : une entité extraterrestre transforme la population mondiale en une conscience unique (on peut penser à Terre et Fondation, d’Asimov, à l’Invasion des profanateurs de sépultures, de Don Siegel et même à un épisode de la série d’animation Rick et Morty).

Précisons d’emblée le point de départ du récit : un virus d’origine extraterrestre se propage sur Terre, mais, contrairement aux pandémies habituelles, il rend les gens parfaitement heureux, calmes et connectés à une sorte de conscience collective harmonieuse. Carol Sturka (jouée par Rhea Seehorn), une romancière cynique et névrosée, découvre qu’elle est l’une des rares personnes immunisées. Elle se retrouve alors dans la position paradoxale de devoir « sauver l’humanité du bonheur ».

Certes, le psychanalyste Jacques Lacan explique qu’il y a une forme de « goujaterie » à vouloir psychologiser les personnages d’une fiction, et a fortiori leur auteur. Mais il reste possible de proposer une « interprétation ». C’est ce que nous allons essayer de faire ici, à partir de trois questions que la série nous pose en filigrane.

Être moi, qu’est-ce que ça veut dire ?

« Soyez vous-même, les autres sont déjà pris. » Cette citation (probablement fausse) d’Oscar Wilde pose avec humour la question d’une individualité qui nous est finalement imposée par la condition humaine. Pluribus nous place dans un cas où cette individualité n’est non seulement plus une obligation, mais une exception.

La série nous montre deux catégories d’individu, ceux qui ont été contaminés et forment maintenant une conscience collective unique (appelons-les « eux ») ; et les 11 personnages immunisés, qui sont restés eux-mêmes, groupe auquel appartient l’héroïne de la série, Carol, autrice désabusée de romances de science-fiction à succès.

Tout au long de la série, le groupe majoritaire prétend que sa situation nouvelle est bien meilleure que celle d’avant. Si le souvenir spécifique d’un individu reste conservé (un personnage peut raconter qui il était avant), sa personnalité est détruite, pour rejoindre la personnalité unique et bienveillante de la conscience collective.

Le philosophe Paul Ricœur déduit de la psychanalyse freudienne que l’inconscient est le vrai lieu de la subjectivité. C’est-à-dire que l’inconscient n’est pas le négatif de la conscience ou un fourre-tout de ce qui n’est pas conscient, mais le lieu originel où se forme l’identité. Ce qui fait que je suis moi et pas un autre, ça n’est pas ma personnalité, mais bien mon inconscient. Si l’on suit ce précepte, il ne peut y avoir de subjectivité sans inconscient et nous devons donc nous demander si le groupe « eux » a un inconscient pour comprendre ce que signifie de rejoindre la conscience collective.

Il semble évident que, pour le groupe contaminé, il n’y a pas d’inconscient individuel, qui serait propre à chaque individu. Mais existe-t-il chez « eux » un inconscient collectif, comme il existe une conscience collective ?

Si l’on retrouve bien l’expression d’émotions, telles que la joie (omniprésente ad nauseam) et la peur, ou même l’expression de besoins biologiques, y compris l’impératif de contaminer l’autre, il n’y a rien dans le comportement du groupe contaminé qui fasse penser à du désir, par exemple. C’est-à-dire qu’il n’y a jamais chez « eux » l’expression d’un manque. Or, notre subjectivité découle du fait que nous sommes des sujets divisés par le langage, c’est-à-dire que le fait de parler nous permet de mettre à distance le monde en le symbolisant. Mais du fait de cette distance, il reste un manque impossible à combler : nous ne sommes pas fusionnés avec le monde, quelque chose reste extérieur à nous.

On peut supposer que cette entité n’habite pas sa langue comme nous habitons la nôtre. Les mots, pour « eux », sont juste l’outil technique d’une expression alors que, pour nous, ils structurent le rapport au monde.

Devenir « eux », ça n’est pas juste se diluer dans un grand tout ou recevoir toute l’humanité en soi, c’est passer d’un rapport au monde structuré par un manque absolu à la possibilité d’être un tout sans extérieur à soi-même. Nous sommes tout, donc nous ne sommes plus.

Aimer, qu’est-ce que ça veut dire ?

Au fil des épisodes, Carol – qui perd sa compagne au cours du premier épisode – se lie à Zosia, une femme qui appartient au groupe contaminé, et finit par développer une relation amoureuse avec elle. Mais est-ce réellement de l’amour ? Lacan nous dit dans une phrase célèbre que « l’amour, c’est donner ce qu’on n’a pas à quelqu’un qui n’en veut pas ».

Essayons de comprendre cette phrase.

« L’amour, c’est donner ce qu’on n’a pas » : ce que veut dire Lacan, c’est que l’amour, ça n’est pas offrir des fleurs ou un objet, c’est d’abord et avant tout offrir un manque. C’est présenter à l’autre son incomplétude et donc lui laisser une place puisque nous ne sommes pas comblés.

« À quelqu’un qui n’en veut pas » : nous présentons notre incomplétude, certes, nous laissons à l’autre une place, certes, mais ce manque que nous lui offrons ne répond pas à son manque à lui. Pour la psychanalyse, l’amour, ça n’est pas combler le désir de l’autre mais tisser avec l’autre le lien du manque.

Dans Pluribus, le manque de Carol est largement mis en scène au travers de sa souffrance et de sa misanthropie. Nous pouvons le voir à travers la façon dont elle vit son deuil mais aussi dans son impossibilité à assumer publiquement sa sexualité. « Eux » semblent l’accepter telle qu’elle est et vouloir combler son manque. Pour autant, est-ce vraiment de l’amour ?

Si l’on reste attaché à la théorie lacanienne, « eux » doivent avoir un manque fondamental à offrir. Or, si nous pouvons en avoir l’illusion en même temps que Carol, nous nous rendons compte en définitive que le manque qu’ils mettent en avant (Carol n’est pas fusionnée) n’est pas un manque au sens d’un sujet divisé par le langage, car ce manque-là ne peut jamais être comblé. Nous pourrions considérer leur manque comme fondamental si après avoir fusionné tout l’univers, ils se rendaient compte que ça ne suffisait pas à les satisfaire.

Si « eux » ne ressentent pas de manque au sens du manque fondamental que ressent Carol, alors l’amour que Carol pense ressentir est un malentendu. Et l’on retombe sur la phrase de Lacan citée plus haut. Carol donne ce qu’elle n’a pas, c’est-à-dire son manque, à quelqu’un qu’elle ne pense pas pouvoir satisfaire. L’erreur de Carol porte sur ce dernier point : le don de Carol pourrait tout à fait les satisfaire ! Mais ça n’est donc pas de l’amour au sens où l’entend Lacan.

Qu’est-ce que le bien ?

Dans la série, « eux » incarnent une forme de bienveillance poussée à son extrême (ils préfèrent mourir de faim que de tuer), mais ne comprennent pas en quoi manger des cadavres humains reconditionnés en brique de lait représente une violence symbolique insupportable pour Carol. De leur point de vue, ils incarnent une morale universelle dans un monde où toute forme de violence aurait disparu.

Une morale tellement universelle qu’elle peut se passer du consentement des gens. C’est ainsi qu’ils envahissent la Terre sans préavis et n’ont aucun scrupule à contraindre Carol à devenir l’une des leurs, mais « pour son bien ».

Lacan aborde cette question d’une morale universelle dans un texte classique intitulé « « Kant avec Sade ». Il y commente le propos de Kant qui cherche à concevoir une morale parfaite, c’est-à-dire reposant sur une pure logique dénuée de tout sentiment subjectif. Lacan souligne que cette morale sans désir va à l’encontre de celui qui la porte et constitue donc une forme de masochisme. Lacan explique qu’une loi universelle, en niant le sujet qui la porte, devient son persécuteur, sous forme d’une injonction impossible à satisfaire. C’est ce que l’on voit dans la série quand la morale incite les contaminés à se laisser mourir de faim.

Dans ce même texte, Lacan explique que la morale de Sade est l’application logique des principes kantiens. Chez Sade, le bourreau doit aussi agir sans sentiment, en ne visant que la jouissance de sa toute-puissance, ce qui est tout à fait compatible avec la structure d’une morale kantienne.

Donc Kant pose les principes d’une loi pour elle-même, toute-puissante et sans sujet ; et Sade met concrètement en application ce principe en proposant une doctrine où la toute-puissance du bourreau est une fin en soi.

On retrouve la même logique dans la morale du groupe fusionné. Leur souverain bien repose sur une fusion totale et ils sont, comme le dit un personnage, poussés par cet impératif biologique. Aucun désir ni sujet n’intervient ici, si ce n’est une morale universelle qui s’impose comme seul discours de vérité.

Finalement, Lacan proposera dans le le Séminaire, Livre VII une « éthique du désir » pouvant se substituer à la morale universelle. L’idée n’est alors plus de chercher le bien de tous, mais d’être fidèle à son désir, quitte à en assumer la tragédie. Cela rejoint la dernière scène de la première saison de la série où Carol, fidèle à sa volonté de ne pas fusionner, préfère apparemment déclencher une guerre nucléaire. Allant au bout de son désir, elle assume les conséquences tragiques de son choix.

The Conversation

Maxime Parola ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

27.01.2026 à 15:46

Biomass could play a key role in Canada’s transition to a carbon-neutral economy

Normand Mousseau, Directeur de l’Institut de l’énergie Trottier, Polytechnique Montréal et Professeur de physique, Université de Montréal
Roberta Dagher, Professionnelle de recherche, Institut de l'énergie Trottier de Polytechnique Montréal, Polytechnique Montréal
Canada needs to move towards a carbon-neutral economy, and the biomass sectors have a key role to play in this transition.
Texte intégral (1467 mots)

Record forest fires, under-utilized agricultural residues like straw and husks and struggling sawmills have left Canada with an abundance of undervalued biomass. If carefully and strategically managed, this resource could become a powerful ally in the fight against climate change.

Canada’s biomass sectors are facing significant uncertainty because of political and natural disruptions. The forestry sector was hit last year by new American tariffs announced by the Donald Trump administration on Canadian forest products, bringing the total duties imposed on Canadian lumber to 45 per cent.

The agricultural and agri-food sector is also particularly vulnerable, since it exports more than 70 per cent of its main crops.

In addition to facing these political uncertainties, biomass sectors are increasingly experiencing the effects of climate disasters. In 2025, fires had burned 8.3 million hectares of Canadian forests by Sept. 30, making it Canada’s second-worst wildfire season on record. With climate change, extreme weather events like wildfires and droughts are likely to become more frequent and intense.

Change is accelerating and risks are mounting. For industries and communities that rely on biomass, this is the moment to define a long-term role in the climate transition.

Biomass resources

Canada needs to move towards a carbon-neutral economy, and the biomass sectors have a key role to play in this transition.

The availability of diverse biomass resources in Canada’s forests and agricultural lands, combined with new technologies to convert them into bioproducts and bioenergy, makes biomass a potential solution for reducing carbon emissions in several sectors, including industry, construction and all modes of transport (road, marine, rail and air).

Biomass can be part of climate change mitigation strategies. Used properly, it can replace fossil fuels and products, and help store carbon in different ways: in sustainable materials made from wood or agricultural residues, in the form of biochar that traps carbon in the soil or through bioenergy with carbon capture and storage (BECCS), which prevents carbon released during energy production from entering the atmosphere.

Several recent projects have demonstrated that interest in biomass feedstocks is high in many industries. In 2025, Canada’s first industrial-scale biochar plant was inaugurated in Québec, while the Strathcona refinery in Alberta will become Canada’s largest facility for renewable diesel.

The potential role of biomass becomes clear in the pathways now being modelled to achieve Canada’s climate goals. These analyses show that if a significant portion of available biomass were used differently, it would be possible to sequester up to 94 million tonnes of CO₂ equivalent per year through BECCS and biochar.

These results underscore the need for Canada to carefully plan new project developments and judiciously allocate biomass between its traditional and emerging uses.

Best uses for biomass

As we explain in a recent study, several factors influence the potential of biomass to reduce emissions, including the type of ecosystem where it’s harvested, the efficiency of its conversion, the fuels used and the products it replaces in the sectors concerned.

In other words, the climate benefits of biomass are not automatic: they depend on the choices that are made at each stage of the value chain. For example, if the processing or transport of resources requires a lot of fossil energy, or if the final product displaces a low-emission alternative, the climate benefit may be marginal or even negative.

Using biomass effectively requires understanding what resources will be available under climate change and their true potential to cut emissions. That potential depends not only on technological efficiency, but also on the cultural, environmental and economic realities of communities.

Still no long-term vision

Decision-makers must avoid working in isolation and take into account the collateral effects of resource allocation. Practices in biomass sectors, whether in forestry or agriculture, evolve slowly. Forests, in particular, follow long growth and harvesting cycles, so the choices made today will influence emissions for decades to come.

Yet, despite the importance of its resources, Canada has no strategy or vision for the role biomass will play in the transition to carbon neutrality by 2050.

Canada has developed several bioeconomy frameworks, including the Renewed Forest Bioeconomy Framework (2022) and the Canadian Bioeconomy Strategy (2019). However, there is still no comprehensive strategy that defines the role biomass will play in achieving a carbon-neutral future, either in energy-related or non-energy-related sectors.


À lire aussi : Océans : les poissons, un puits de carbone invisible menacé par la pêche et le changement climatique


Canada can draw inspiration from its own Canadian Hydrogen Strategy to develop a similar strategy for biomass, based on integrated modelling of its potential in different sectors of the Canadian economy. There is an urgent need to adopt a realistic approach based on analyses at multiple scales — from regional to national — rather than on isolated sectoral targets.

Many players in the sector are stressing the urgent need to adopt a clear national strategy for the bioeconomy in order to provide more predictability to biomass industries in Canada. In an article in Canadian Biomass Magazine, Jeff Passmore (founder and president of Scaling Up) says he’s been waiting for Canada to develop a concrete national strategy for the bioeconomy.

Another article in Bioenterprise in 2023 argued that “one of the key areas needed to build the future of biomass in Canada is a solid, long-term national bioeconomy strategy, supported by industry and governments.”

Finally, a call to action from Bioindustrial Innovation Canada recommends revising the national bioeconomy strategy by setting measurable targets for interdepartmental and intersectoral co-ordination, with a clear road map for collaboration between industry and the public sector.

Biomass cannot be managed blindly. Its impacts vary depending on the region and uses. For future projects to truly contribute to Canada’s climate goals, a coherent national vision is needed now.

The Conversation

In connection with the work reported in this article, Normand Mousseau received funding from Environment and Climate Change Canada, the Trottier Family Foundation (through its support for the activities of the Institut d'Énergie Trottier) and the Transition Accelerator, a non-profit organization with the mandate to support energy transition in various economic sectors. The organizations that funded this text or the reports on which it is based were not given any right to review the analyses and conclusions. The authors are solely responsible for these.

The Institut de l'Énergie Trottier (IET) at Polytechnique Montréal was created thanks to a generous donation from the Trottier Family Foundation. Its mission covers research, training and the dissemination of information related to the challenges of decarbonizing energy systems. To support the research mandate of the Carbon Neutrality Advisory Group, the IET's biomass project was carried out with financial support from the Government of Canada. Funding was provided by the Climate Action and Awareness Fund of the Environmental Damages Fund, administered by Environment and Climate Change Canada. The organizations that funded this report were not given any say in the analyses and conclusions. The authors are solely responsible for these. Roberta Dagher works at the IEG in support of the Transition Accelerator. Roberta Dagher does not work for, advise, own shares in, or receive funding from any organization that could benefit from this article.

27.01.2026 à 13:59

Accord UE-Inde : les deux géants tracent leur voie, loin des pressions de l’ère Trump

Catherine Bros, Professeur des universités en économie, Université de Tours - LEO, Université de Tours
Daniel Mirza, Professeur d'Université, Université de Tours
À l’occasion de la signature de l’accord entre l’Inde et l’Union européenne, décryptages en chiffre des relations commerciales entre le Vieux Continent et New Delhi.
Texte intégral (1796 mots)

La présence d’Ursula von der Leyen en Inde est l’occasion de concrétiser un projet d’accord commercial lancé en 2007 entre l’Union européenne et le pays le plus peuplé du monde. Loin de constituer une réaction aux tarifs douaniers de Donald Trump, ce partenariat repose sur un objectif de long terme: tracer une voie autonome ensemble. Pour comprendre cet accord, retour sur les relations commerciales entre le Vieux Continent et New Delhi.


La visite d’Ursula von der Leyen, présidente de la Commission européenne, en Inde vient clôturer une série de déplacements en 2025 de dirigeants européens dans ce pays devenu un partenaire convoité à la suite des inquiétudes issues de la prééminence chinoise dans le commerce mondial. À cette occasion est annoncée la conclusion d’un accord de libre-échange négocié depuis 2007 entre l’Union européenne (UE) et l’Inde.

Nous serions tentés, dans le tumulte actuel, de penser que cet accord est le fruit d’une réaction à la politique tarifaire hargneuse des États-Unis, qui ferait de l’Europe un succédané des États-Unis aux yeux de l’Inde et vice versa. Ce serait tout à fait inexact.

Le rappel de la longue gestation de cet accord suffit à montrer qu’il est fondé sur une politique de long terme. Les négociations ont été lancées en 2007, puis suspendues pendant neuf ans – des désaccords sur le degré de libéralisation et le traitement de secteurs sensibles freinaient aussi bien les Indiens que les Européens. Elles ont repris vigueur en 2022, au moment où le monde, et en particulier l’UE, a pris soudainement conscience de sa dépendance à la Chine.

Car l’Inde est le pays le plus peuplé du monde avec 1 471 179 309 d’habitants au 26 janvier 2026, et la quatrième puissance économique mondiale depuis ce début d’année. Ensemble, l’Inde et l’UE représentent 25 % du produit intérieur brut (PIB) mondial et un tiers du commerce international.

Tandis que l’UE est le deuxième marché commercial pour l’Inde, en absorbant 8 % des ventes indiennes à l’étranger en 2025, juste derrière les États-Unis qui en captent près de 13 %, à l’inverse, l’Inde reste un partenaire commercial modeste pour l’UE. Seulement 2 % des exportations européennes lui sont destinées, ce qui place le pays au 10ᵉ rang des clients de l’UE.

Alors, que cherchent l’UE et l’Inde dans cet accord ? Et, concrètement, quelles relations commerciales cet accord vise-t-il à faire évoluer entre les deux blocs ?

Accord de long terme, timing politique

Cet accord commercial s’inscrit dans une vision stratégique de long terme, dont l’accélération a été catalysée par les dynamiques de reconfiguration du commerce mondial depuis la pandémie de Covid-19. Au cœur de cette dynamique, une volonté commune de réduire les dépendances vis-à-vis de la Chine. En 2025, près de 18 % du marché indien et plus de 23 % du marché européen de biens importés proviennent de Chine.

Ainsi, cet accord n’est pas une recherche opportuniste de nouveaux débouchés face à la fermeture relative du marché des États-Unis, mais bien un choix structurant dont la concrétisation à ce moment précis répond, elle, à une logique éminemment politique.

Sous l’administration Trump, tant l’Inde que l’UE subissent les contrecoups d’une politique commerciale agressive, une remise en cause unilatérale des équilibres commerciaux établis. En signant, dans ce contexte, l’accord de libre-échange, l’Inde comme l’UE entendent tracer une voie autonome.

Un marché intérieur indien difficile d’accès

Au moment de la reprise des discussions, en 2022, le taux de croissance de l’économie de l’Inde frisait les 7 %, et sa population venait de dépasser celle de la Chine. En 2024-2025, malgré un niveau de revenus encore modeste, la consommation finale était dynamique, avec une croissance aux alentours de 4 %.

L’Inde a longtemps fait preuve d’une certaine circonspection vis-à-vis du commerce mondial. Elle a pratiqué, bien avant Trump, une politique de droits de douane élevés : 18 % de taxes en moyenne applicable aux marchandises originaires de pays membres de l’Organisation mondiale du commerce (OMC) en 2021, rendant son marché intérieur relativement difficile d’accès.

Son retrait du commerce mondial a été marqué entre 2014 et 2020. Comme l’illustre le graphique ci-dessous, l’ouverture de son économie, mesurée par le poids des échanges commerciaux (exportations plus importations) dans son PIB, a diminué durant cette période. Cette tendance reflète une réduction de son activité économique à l’international par rapport à son dynamisme interne.

Attirer des investissements en Inde

À partir de 2014, le gouvernement indien a mis en place des programmes, comme le Make in India, visant à attirer les investissements directs étrangers (IDE).

Dans cet objectif, le gouvernement a mis en place des politiques de levée des restrictions sur les IDE, de facilitation administrative et d’investissement dans les infrastructures, dont la défaillance a longtemps été pointée du doigt comme un frein à l’investissement.


À lire aussi : Inde : vers un cauchemar démographique ?


Car l’Inde a un besoin aigu de développer son secteur manufacturier pour ne pas voir son dividende démographique lui échapper, et être en mesure de créer des emplois à un rythme aussi soutenu que la croissance de sa population active.

L’UE, deuxième fournisseur de l’Inde

Dans cet article, nous nous appuyons sur les données du Global Trade Tracker qui compile en temps réel les informations douanières publiées par les administrations compétentes de chaque pays.

L’UE représente un partenaire commercial essentiel pour l’Inde. C’est son deuxième fournisseur, juste derrière la Chine et devant les États-Unis. Entre 2011 et 2025, les importations indiennes en provenance de l’UE sont restées stables, oscillant entre 10 % et 12 %, dépassant systématiquement celle des États-Unis, 8 à 9 % sur les cinq dernières années.

Parmi les produits les plus exportés par l’UE et les États-Unis vers l’Inde, on trouve des produits métalliques à recycler – fer, acier, aluminium –, des avions et des pièces détachées, ou encore des gammes de médicaments. L’UE se distingue des États-Unis par ses exportations de machines-outils, d’appareils de mesure, de véhicules de tourisme et de produits chimiques.

Un autre point clé est la plus grande diversité des exportations européennes comparées aux exportations américaines. Les 25 produits européens les plus exportés vers l’Inde représentent un tiers de ses exportations totales, contre 58 % côté états-unien. Avec cette concentration moindre, l’accord avec l’UE diffusera une baisse des coûts et des prix dans l’économie indienne.

Lente érosion des parts de marché de l’UE depuis 2010

Depuis la fin de la décennie 2010, l’UE a vu s’éroder ses parts de marché dans le monde, en particulier dans les pays en développement. Celles-ci sont passées de 18 % en 2018 à près 15 % en 2025, soit une perte de 20 % de parts du marché mondial. Cette perte concerne la majorité de ses produits, au profit principalement de la Chine.

Même les 100 produits les plus exportés par l’UE vers le reste du monde – avions, véhicules de tourisme haut de gamme, boîtes de vitesse, turboréacteurs, certains médicaments et vaccins, ou encore articles de parfumerie – ont subi une baisse de leurs parts de marché, pour des raisons pas encore bien identifiées par les économistes. Cela a profité à des pays disposant de technologies comparables, telles que les États-Unis ou d’autres membres de l’OCDE.

De surcroît, la pandémie du Covid-19 a accéléré cette dégradation de la position européenne. Ce recul n’est pas sans lien avec la réactivation des négociations qui a conduit à cet accord.

Contrer les gifles et les coups de canif de Donald Trump

Quand l’administration Trump a annoncé sa première salve de taxes en avril 2025, l’Inde, qui pensait qu’elle serait épargnée par rapport à ses voisins sud-asiatiques, a pris une gifle avec l’imposition de droits de douane de 25 %, agrémentée d’un autre 25 % si elle persistait à se fournir en pétrole auprès de la Russie.

Cette ingérence a profondément heurté l’Inde, tant son gouvernement que son opinion publique, alors que le pays tentait de s’affirmer comme un acteur diplomatique majeur, libre de toute allégeance et maître de ses choix en politique étrangère.

Pour l’UE, la tentative d’acquisition du Groenland par les États-Unis n’est que le dernier épisode d’une longue série de coups de canif dans la relation transatlantique.

Cet accord entend montrer une voie singulière entre l’Union européenne et l’Inde, loin des turbulences répétées engendrées par l’administration Trump, et démontrer que le monde ne se limite pas à l’influence, et aux caprices, de la politique des États-Unis.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

27.01.2026 à 12:51

« Binge drinking » : ce n’est pas seulement « combien » on boit, c’est aussi « combien de fois » - et le cerveau trinque

Mickael Naassila, Professeur de physiologie, Directeur du Groupe de Recherche sur l'Alcool & les Pharmacodépendances GRAP - INSERM UMR 1247, Université de Picardie Jules Verne (UPJV)
Margot Debris, Docteur en neurosciences, Université de Picardie Jules Verne (UPJV)
Olivier Pierrefiche, Professeur des universités en Neurosciences, Université de Picardie Jules Verne (UPJV)
Le « binge drinking » n’est pas qu’une question de quantité d’alcool. La fréquence des épisodes d’alcoolisation joue un rôle clé dans les effets sur le cerveau, en affectant notamment la plasticité d’une zone cruciale pour la mémorisation.
Texte intégral (3652 mots)

Les conséquences du binge drinking ne sont pas seulement liées à la quantité d’alcool ingérée. Des travaux de recherche expérimentaux menés sur des rongeurs suggèrent que la fréquence des épisodes d’alcoolisation importante altère la plasticité cérébrale, qui plus est de façon différente selon le sexe. Des résultats qui expliqueraient pourquoi, chez les jeunes, des déficits mnésiques peuvent apparaître dès les premiers épisodes de binge drinking.


Les conséquences délétères du binge drinking, pratique qui consiste à boire une grande quantité d’alcool en un temps très court, sont souvent pensées comme résultant du volume d’alcool ingurgité en une seule occasion.

Or, nos travaux suggèrent qu’un paramètre clé à prendre en compte est le « schéma » de consommation. En effet, la répétition d’épisodes de binge drinking perturbe des mécanismes cellulaires essentiels à l’apprentissage et à la mémoire. Bonnes nouvelles, cependant : certaines altérations semblent réversibles lorsque les épisodes cessent, et des pistes thérapeutiques commencent à émerger.

Le « binge drinking », fréquent et pas anodin

En France, les enquêtes montrent que les comportements de consommation d’alcool chez les jeunes évoluent : la proportion de ceux qui ne boivent pas augmente depuis quelques années. Cependant, des profils à risque persistent, notamment dans certains contextes : formation professionnelle en apprentissage, sortie du système scolaire, précarité…

Pourquoi s’y intéresser ? Parce que l’adolescence et le début de l’âge adulte sont des périodes clés du développement cérébral. À ces âges, le cerveau continue de se remodeler, au moment même où se construisent des compétences essentielles, telles que mémoire, prise de décision, contrôle du comportement, toutes indispensables à la réussite scolaire, professionnelle et sociale.

Un comportement, et non un simple « écart »

On qualifie de binge drinking le fait de consommer rapidement et massivement de l’alcool : boire environ 6 à 7 verres d’alcool en deux heures, ce qui entraîne une alcoolémieAlcoolémie
taux d’alcool par litre de sang ou par litre d’air expiré.
d’environ 1 à 1,5 gramme d’alcool par litre de sang. Certains jeunes atteignent même deux à trois fois ce niveau, ce que l’on qualifie de binge drinking extrême ou à haute intensité.

Surtout, le binge drinking n’est pas un événement isolé. Il s’inscrit dans un pattern de consommation caractérisé par :

  • la vitesse de consommation ;
  • l’intensité des épisodes ;
  • l’alternance entre ivresses et périodes d’abstinence ;
  • et, point crucial, la fréquence des épisodes.

Dans un article de conceptualisation du binge drinking publié récemment, nous avons proposé, plutôt que de se focaliser sur la seule quantité d’alcool consommée, d’analyser conjointement ces différentes dimensions.

En effet, une de nos études menées chez des jeunes a révélé que la fréquence des ivresses contribue fortement à définir la sévérité du comportement de binge drinking. De manière convergente, des travaux français ont montré que le binge drinking fréquent (deux fois par mois et plus, entre 18 et 25 ans) triple le risque de développer une alcoolodépendance après 25 ans, comparativement à l’absence de pratique ou à une pratique occasionnelle.

Depuis plusieurs années, notre équipe explore les effets du binge drinking sur le cerveau et la cognition, chez l’animal comme chez l’humain. Nos travaux ont contribué à élucider les mécanismes cellulaires à l’origine de ces comportements, dont les conséquences peuvent s’avérer particulièrement délétères.

Des effets qui varient selon le sexe

Chez l’animal, nous avons démontré que, dès les premiers épisodes, le binge drinking altère la plasticité synaptique dans l’hippocampe, une région du cerveau essentielle pour la mémoire et l’apprentissage, notamment via des récepteurs impliqués dans les mécanismes de plasticité synaptique : (les récepteurs NMDA).

Nos travaux menés chez le rat ont révélé que la vulnérabilité à ces effets diffère selon le sexe. En effet, les différences entre les sexes ne tiennent pas seulement aux quantités d’alcool consommées, mais aussi au contexte hormonal. Nous avons notamment mis en évidence une interaction entre l’alcool et les œstrogènesŒstrogènes
les œstrogènes sont des hormones féminines qui jouent un rôle clé dans le développement sexuel et la reproduction.
au niveau de l’hippocampe.

Concrètement, à l’adolescence, les œstrogènes potentialisent les effets de l’alcool sur le cerveau : lorsque leurs niveaux sont élevés, l’alcool perturbe plus fortement les mécanismes de la mémoire chez les rats femelles que chez les rats mâles. Ainsi, chez les rates adolescentes, l’alcool altère la plasticité synaptique uniquement lorsqu’il est consommé pendant les périodes de pic d’œstrogènes, autrement dit durant le proœstrus (qui est l’équivalent de la phase préovulatoire chez la femme).

En outre, lorsque l’on administre aux animaux de l’estradiol, un puissant œstrogène, en même temps que l’alcool, les mêmes altérations apparaissent, y compris chez les mâles ou chez des femelles prépubères normalement peu exposées aux œstrogènes.

Cette interaction entre alcool et œstrogènes crée ainsi une fenêtre de vulnérabilité spécifique, à un moment où le cerveau est encore en pleine maturation.

Une prise de décision altérée, même entre les épisodes

Le binge drinking perturbe également la prise de décision et le fonctionnement d’un système clé du cerveau impliqué dans la motivation, l’apprentissage par la récompense et l’évaluation des conséquences des actions (le système dopaminergique striatal). Cette situation peut entretenir un cercle vicieux, une prise de décision altérée favorisant la répétition des ivresses.

Nous avons constaté que le binge drinking altère la prise de décision principalement chez les mâles, qui deviennent moins capables de faire des choix avantageux. Chez les femelles, il augmente surtout l’impulsivité et modifie le fonctionnement du système dopaminergique, sans altération majeure de la décision elle-même.

Soulignons que ces déficits de prise de décision sont observés en période d’abstinence (24 heures après la dernière consommation), ce qui indique que ce problème ne se limite pas aux périodes durant lesquelles les effets de l’alcool sont aigus : il peut persister entre les épisodes de binge drinking.

Dans nos études cliniques (menées chez l’être humain, donc), nous avons observé chez les jeunes binge drinkers des perturbations spécifiques de la mémoire verbale, touchant l’encodage, le stockage et la récupération des informations. Concrètement, ces perturbations pourraient se traduire par des difficultés à retenir un cours ou à restituer spontanément des informations apprises. Elles sont aussi observées en dehors des épisodes d’ivresse, en période d’abstinence, ce qui indique que l’altération de la mémoire persiste là aussi entre deux épisodes de binge drinking.

Le binge drinking et la mémoire.

Tous ces résultats convergent vers une idée simple : le binge drinking n’est pas un « dérapage » ponctuel, mais un mode de consommation susceptible de laisser des traces neurobiologiques mesurables et d’affecter des comportements essentiels de la vie des jeunes.

Les résultats de notre dernière étude vont dans ce sens, puisqu’ils indiquent que la fréquence des épisodes de binge drinking change la signature cérébrale des atteintes des mécanismes cellulaires de la mémoire.

« Binge drinking » et mémoire : la fréquence change la donne

La question peut paraître simple en apparence, mais elle était jusqu’ici restée sans réponse : le temps qui sépare deux épisodes de binge drinking a-t-il un impact sur le cerveau ?

Basée sur un modèle expérimental où des rats adolescents sont exposés à deux fréquences différentes d’épisodes de binge drinking (espacés ou rapprochés), notre dernière étude révèle que les atteintes cérébrales dépendent du rythme des épisodes de binge drinking.

Schéma montrant l’impact d’une haute fréquence d’épisodes de binge drinking (en haut) et d’une basse fréquence (en bas) sur les mécanismes synaptiques dans l’aire CA1 de l’hippocampe jouant un rôle clé dans la mémoire. À droite, on observe qu’une haute fréquence augmente l’amplitude de la plasticité alors que la basse fréquence abolit la plasticité synaptique. Olivier Pierrefiche / Margot Debris, Fourni par l'auteur

Parmi les points à retenir, ces travaux démontrent que les altérations de certaines formes de plasticité de l’hippocampe dépendent de la fréquence des épisodes de binge drinking, avec des effets opposés.

Lorsque les épisodes sont rapprochés (haute fréquence), l’alcool bloque ou réduit fortement une forme clé de plasticité synaptique impliquée dans la mémoire, ce qui suggère une incapacité du cerveau à affaiblir certaines connexions synaptiques lorsque cela est nécessaire. À l’inverse, lorsque les épisodes sont plus espacés (basse fréquence), cette même plasticité est exagérée, c’est-à-dire plus intense que la normale.

Pour le dire autrement, à quantité d’alcool comparable, répéter les épisodes à des fréquences différentes modifie différemment le fonctionnement cérébral, en augmentant ou en abolissant la plasticité synaptique.

Des effets sur la mémoire et l’apprentissage qui restent à explorer

Ces deux situations sont potentiellement délétères pour l’apprentissage et la mémoire, car elles traduisent un déséquilibre des mécanismes qui permettent normalement au cerveau d’ajuster, de renforcer ou d’affaiblir les connexions neuronales en fonction de l’expérience.

Une plasticité réduite ou absente peut limiter la capacité à modifier des réseaux neuronaux existants, entravant l’acquisition de nouvelles informations. À l’inverse, une plasticité excessive peut rendre les traces mnésiques moins stables ou moins sélectives, favorisant des apprentissages moins précis ou plus labiles.

Toutefois, les conséquences cognitives exactes de ces altérations opposées restent encore à déterminer. L’étude montre clairement des modifications des mécanismes synaptiques clés de la mémoire, mais des travaux complémentaires sont nécessaires pour établir précisément comment ces déséquilibres se traduisent, à long terme, en termes de performances mnésiques et d’apprentissage.

Autre enseignement de ces travaux : l’arrêt des épisodes de binge drinking permet une récupération spontanée de ces perturbations en deux semaines environ, ce qui suggère l’existence d’une capacité de récupération fonctionnelle.

Enfin, ces recherches nous ont également permis d’explorer les possibilités de réparer les atteintes causées par les épisodes de binge drinking grâce à un traitement précoce original.

Les anti-inflammatoires, une piste à explorer

Notre étude montre qu’après une exposition répétée à des binge d’alcool, un traitement par un anti-inflammatoire (minocycline) (anti-inflammatoire) atténue les perturbations de plasticité induites par l’alcool.

Ce résultat s’inscrit dans un ensemble de travaux suggérant que le binge drinking déclenche une réponse neuro-inflammatoire précoce dans le cerveau, en particulier à l’adolescence. L’alcool active notamment les cellules immunitaires du cerveau (microglie) et augmente la production de médiateurs pro-inflammatoires (cytokines), susceptibles de perturber la transmission entre les neurones.

On sait que le binge drinking est particulièrement toxique pour le cerveau, car entraîne une mort neuronale et des atteintes de la substance blanche (les axones, les extensions des neurones). Ces atteintes sont relayées par des processus de neuro-inflammation.

« Binge drinking : quand le cerveau trinque ! »

Attention toutefois : ces résultats ne justifient pas à ce stade une utilisation clinique systématique de médicaments anti-inflammatoire. Leur intérêt potentiel se situerait plutôt en amont de l’addiction, dans une logique de prévention ou d’intervention précoce, par exemple chez des jeunes exposés à des épisodes répétés de binge drinking mais ne présentant pas encore d’addiction à l’alcool.

Par ailleurs, il est important de souligner que ces observations découlent de travaux précliniques, donc menés uniquement chez l’animal. Pour l’instant, les premiers essais de modulateurs neuro-inflammatoires menés chez des patients souffrant de troubles de l’usage d’alcool ont donné des résultats mitigés.

En effet, chez les personnes souffrant d’addiction installée, les mécanismes en jeu sont plus complexes et durables, et l’efficacité de stratégies anti-inflammatoires seules reste à démontrer dans des essais cliniques contrôlés.

Pourquoi est-ce important ?

Les repères de réduction des risques insistent déjà sur des limites hebdomadaires et sur le fait d’avoir des jours sans alcool.

Mais dans la vie réelle, que ce soit en médecine générale ou aux urgences par exemple, les épisodes de binge drinking sont parfois banalisés (« Ce n’est que le week-end »). Or, nos résultats soutiennent que la répétition pourrait être un facteur clé des atteintes neurocognitives : cela plaide pour un repérage systématique de la fréquence des épisodes et pour des interventions brèves ciblées. En consultation, les médecins doivent avoir conscience que demander « combien de fois ? » peut être aussi important que « quelle quantité ? »

Le fait que l’on constate une récupération de certaines atteintes de la transmission synaptique après l’arrêt peut se traduire facilement en un puissant message de santé publique : réduire la fréquence (ou interrompre la séquence d’épisodes) du binge drinking pourrait permettre au cerveau de recouvrer des fonctions essentielles d’apprentissage à l’adolescence. C’est un levier motivant, notamment pour les jeunes : on ne parle pas seulement de risques lointains, mais d’effets mesurables et potentiellement réversibles à court terme.

Enfin, ces travaux pourraient ouvrir des pistes thérapeutiques, cibler la neuro-inflammation, mais avec prudence, car leur efficacité chez l’humain dans le cadre du binge drinking ou de l’addiction à l’alcool n’est pas encore démontrée.

Ces résultats vont dans le sens des constats posés par des synthèses récentes qui soulignent que, chez les jeunes, des déficits mnésiques peuvent apparaître très tôt et impliquer des mécanismes de neuro-inflammation ou d’épigénétique.

Ils renforcent une idée structurante : en matière de binge drinking et de consommation d’alcool en général, il faut sortir d’une vision « dose totale = risque total ». Pour comprendre et prévenir, on doit intégrer le pattern, autrement dit le schéma de consommation, dont la fréquence des épisodes.

The Conversation

Mickael Naassila est Président de la Société Française d'Alcoologie et d'Addictologie (SF2A) et de la Société Européenne de Recherche Biomédicale sur l'Alcoolisme (ESBRA); Vice-président de la Fédération Française d'Addictologie (FFA) et vice-président junior de la Société Internationale de recherche Biomédicale sur l''Alcoolisme (ISBRA). Il est membre de l'institut de Psychiatrie, co-responsable du GDR de Psychiatrie-Addictions et responsable du Réseau Nationale de Recherche en Alcoologie. Il a reçu des financements de l'ANR, de l'IReSP/INCa Fonds de lutte contre les addictions. Il est membre sénior de l'IUF Institut Universitaire de France.

Margot Debris a reçu des financements du ministère français de l’Enseignement supérieur et de la Recherche dans le cadre de son doctorat. Elle est membre de l'ESBRA (European Society for Biomedical Research on Alcohol).

Olivier Pierrefiche est membre de l'ESBRA (European Society for Biomedical Research on Alcoholism) et de la Société française des Neurosciences.

27.01.2026 à 12:51

Polyarthrite rhumatoïde : en l’absence de traitement pour la guérir, de nouvelles pistes pour la prévenir

Kevin Deane, Professor of Medicine and Rheumatology, University of Colorado Anschutz Medical Campus
Des travaux de recherche récents pourraient permettre de mieux identifier les patients présentant un risque de polyarthrite rhumatoïde, pour pouvoir les prendre en charge avant que la maladie ne progresse.
Texte intégral (2657 mots)
Un massage doux peut aider à soulager les douleurs articulaires et les gonflements liés à la polyarthrite rhumatoïde. Toa55/iStock/Getty Images Plus

La polyarthrite rhumatoïde est une maladie inflammatoire auto-immune qui déforme douloureusement les articulations et handicape parfois lourdement les personnes qui en souffrent. Si les traitements se sont améliorés et permettent parfois une rémission, ils ne peuvent garantir une guérison. Pour cette raison, une partie des recherches s’oriente vers la prévention.


Plus de 18 millions de personnes dans le monde souffrent de polyarthrite rhumatoïde, dont près de 1,5 million d’Américains (et environ 320 000 Français, NdT).

Il s’agit d’une forme de rhumatisme inflammatoire d’origine auto-immune : le système immunitaire s’attaque aux articulations, provoquant une inflammation importante. Celle-ci peut entraîner douleurs, raideurs et gonflements articulaires ; de nombreux patients décrivent aussi une fatigue marquée et une sensation pseudo-grippale.

En l’absence de traitement, la maladie peut entraîner de lourds dommages aux articulations. Mais même lorsqu’elle est prise en charge, elle peut progresser et être à l’origine de handicaps significatifs. Préparer les repas, s’occuper d’enfants, s’habiller… Accomplir les gestes du quotidien peut devenir très difficile, en particulier lorsque la polyarthrite rhumatoïde revêt une forme très active, ou quand elle atteint un stade avancé.

Jusqu’ici, la prise en charge intervenait généralement après l’apparition des symptômes. Or un corpus croissant de données suggère qu’il est possible d’identifier la maladie plus tôt – et laisse même espérer pouvoir peut-être, à terme, la prévenir.

En tant que médecin-chercheur spécialiste de la polyarthrite rhumatoïde, j’ai mené un essai clinique visant à évaluer des traitements ciblant cette affection. Selon moi, ces travaux constituent un pas de plus vers une médecine capable d’identifier les personnes à risque de polyarthrite rhumatoïde avant que la maladie ne se déclare, dans l’optique de leur proposer des stratégies pour en retarder l’apparition, voire l’empêcher. J’espère que ces recherches conduiront dans les années à venir à améliorer la prise en charge de cette affection.

Dépister la maladie avant qu’elle ne cause des dommages

Aujourd’hui, lorsqu’une personne consulte pour des douleurs articulaires ou parce qu’elle manifeste des symptômes évoquant un possible problème auto-immun, elle passe un examen clinique qui consiste notamment à inspecter ses articulations afin de détecter tout gonflement. Il s’agit là de la base du diagnostic, lequel est ensuite confirmé par des analyses sanguines visant à mettre en évidence la présence de marqueurs particuliers, appelés auto-anticorps.

Si tous les patients ne présentent pas de telles anomalies biologiques, il faut savoir que jusqu’à 80 % d’entre eux possèdent dans leur organisme deux auto-anticorps : le facteur rhumatoïde et les anticorps anti-peptides cycliques citrullinés (anti-CCP).

Au-delà des douleurs articulaires, la polyarthrite rhumatoïde affecte l’ensemble du système immunitaire (vidéo en anglais).

Plusieurs études ont par ailleurs confirmé que la polyarthrite rhumatoïde se développe en passant initialement par une phase préclinique. Durant cette période, certains marqueurs biologiques, tels que le facteur rhumatoïde et les anti-CCP, deviennent détectables dans le sang, alors même que les articulations ne sont pas encore atteintes par le gonflement caractéristique de la maladie. Leur présence indique qu’une réaction auto-immune est en cours, même si l’organisme fonctionne encore correctement : durant cette phase préclinique, une personne à risque peut ne ressentir absolument aucun symptôme.

En pratique, maintenant que les chercheurs ont identifié ce stade préclinique, il devient envisageable pour les praticiens de repérer les personnes à risque avant que ne se déclenche l’inflammation articulaire, en s’appuyant sur la présence de certains marqueurs biologiques, tels que les auto-anticorps, ainsi que sur certains signes cliniques évocateurs, tels qu’une raideur articulaire matinale qui se prolonge.

Précisons que, pour l’instant, la capacité à prédire le risque d’évolution de cette phase préclinique vers une polyarthrite rhumatoïde fait encore l’objet de recherches. Cependant, les spécialistes de la polyarthrite rhumatoïde tendent vers la mise en place d’approches permettant d’évaluer ledit risque au cours de visites médicales de routine (à la façon dont la mesure du cholestérol renseigne sur le risque cardiovasculaire).

Explorer le stade préclinique de la polyarthrite rhumatoïde

Grâce aux progrès réalisés en matière de prédiction, les chercheurs peuvent désormais s’atteler à identifier les traitements les plus à même de retarder ou d’empêcher l’apparition de la polyarthrite rhumatoïde.

Des essais cliniques impliquant des personnes positives aux anti-CCP ou présentant d’autres facteurs de risque (tels que des douleurs articulaires et une inflammation infraclinique, c’est-à-dire détectée par des techniques d’imagerie comme l’IRM) ont notamment été menés.

À ce jour, la plupart de ces travaux ont visé à évaluer l’efficacité en matière de prévention de médicaments immunomodulateurs déjà utilisés dans la prise en charge de la maladie une fois celle-ci déclarée. On peut citer par exemple le méthotrexate, l’hydroxychloroquine ou le rituximab. Pourquoi tous ces médicaments présenteraient-ils un intérêt en prévention ? Selon les chercheurs, leur administration sur une courte durée pourrait induire une « réinitialisation » durable du système immunitaire, et ainsi empêcher l’évolution vers la maladie.

Deux études ont en particulier démontré qu’un médicament immunosuppresseur, l’abatacept, était capable de retarder le déclenchement de la polyarthrite rhumatoïde, et ce, même après l’arrêt du traitement.

Bien que pour l’instant, aucune de ces molécules n’a encore reçu d’autorisation dans un contexte de prévention de la polyarthrite rhumatoïde, ces travaux laissent espérer que les chercheurs finiront par identifier la molécule adéquate – ainsi que la dose et la durée optimales de traitement.

Il reste cependant encore plusieurs obstacles à franchir avant que les traitements préventifs ne deviennent la norme. La première difficulté concerne le manque de connaissances concernant la biologie de la phase préclinique, liée au fait que jusqu’à très récemment, la plupart des études portaient essentiellement sur des patients atteints de polyarthrite rhumatoïde déclarée. Les personnes à risque étaient ignorées.

Désormais, il est possible grâce à certains marqueurs sanguins, tels que les anti-CCP, de les identifier plus aisément. De ce fait, un nombre croissant d’études porte aujourd’hui sur des personnes positives aux anti-CCP, éclairant d’une lumière nouvelle les mécanismes biologiques qui sous-tendent le développement de la maladie.

On sait par exemple désormais que le stade préclinique s’accompagne de multiples anomalies : altérations de la régulation de certaines cellules immunitaires, présence d’auto-anticorps, ou encore inflammation systémique. Les chercheurs espèrent maintenant identifier des moyens permettant de cibler ces dérèglements avant que les articulations des patients ne commencent à se déformer.

Les chercheurs ont aussi découvert que les anomalies du système immunitaire observées durant la phase préclinique de la maladie pourraient provenir d’autres endroits du corps que des articulations. Ainsi, selon l’hypothèse des origines muqueuses, les problèmes auto-immuns initiaux résulteraient d’une inflammation des surfaces muqueuses, telles que les gencives, les poumons et l’intestin). Les articulations ne seraient atteintes que plus tard, au cours de la progression de la maladie.

Cette hypothèse, si elle devait être confirmée, expliquerait pourquoi la maladie parodontale, l’emphysème ou d’autres atteintes pulmonaires, ainsi que l’exposition au tabac ou aux fumées d’incendies de forêt sont associées à un risque accru de développer une polyarthrite rhumatoïde. Elle pourrait également expliquer pourquoi certaines bactéries ont aussi été associées à la maladie. Il ne s’agit cependant pour l’instant que d’une hypothèse, et des recherches pour la confirmer (ou l’infirmer) devront être encore menées. De futurs essais cliniques impliquant des approches ciblant les processus muqueux pourraient notamment aider à préciser la nature des mécanismes potentiellement à l’origine de ces observations.

nurse draws blood from patient with outstretched arm
À terme, le dépistage de biomarqueurs de la polyarthrite rhumatoïde pourrait se faire en routine. Toutefois, à l’heure actuelle, les professionnels de santé rencontrent encore souvent des difficultés lorsqu’il s’agit d’identifier parmi leurs patients ceux qui présentent un risque de développer la maladie. MoMo Productions/DigitalVision via Getty Images

Affiner les prédictions

Même si la présence de biomarqueurs, tels que les anti-CCP, est fortement prédictive du risque de développer une polyarthrite rhumatoïde, en matière de diagnostic, les professionnels de santé se heurtent à une difficulté persistante : certaines personnes positives pour lesdits biomarqueurs ne développeront jamais la maladie.

Selon les études, seuls 20 % à 30 % environ des individus positifs aux anti-CCP développent une polyarthrite rhumatoïde dans les deux à cinq ans qui suivent les analyses ; cependant, la combinaison de la présence de ces biomarqueurs avec d’autres facteurs de risque permet d’identifier les personnes qui présentent un risque supérieur à 50 % de développer la maladie dans l’année qui suit le résultat.

Cette incertitude complique le recrutement pour mener les essais cliniques destinés à évaluer les méthodes de prévention : si l’on ne sait pas précisément qui développera la maladie, il devient difficile de démontrer que les interventions mises en place l’empêchent réellement de survenir…

Jusqu’à présent, les chercheurs ont tenté de recruter pour les essais cliniques des personnes ayant consulté pour des symptômes précoces de la maladie, sans toutefois présenter de gonflements articulaires. Si cette approche s’est révélée efficace, un nombre beaucoup plus important de personnes à risque passent probablement sous les radars des scientifiques, n’ayant pas encore sollicité de soins. Tant que le dépistage systématique des marqueurs sanguins ne sera pas mis en place, les chercheurs devront continuer à s’appuyer sur des réseaux internationaux les plus vastes possibles, afin de recruter – après tests d’identification de facteurs de risque, tels que les auto-anticorps – les candidats destinés à intégrer les essais cliniques de prévention.

Certes, il reste encore beaucoup de travail à accomplir. Toutefois, les avancées actuelles nous rapprochent un peu plus chaque jour du moment où la prévention deviendra enfin une composante de la prise en charge de routine de la polyarthrite rhumatoïde.

The Conversation

Le Dr Deane a reçu des subventions de la Fondation contre l'arthrite, des Instituts nationaux de la santé, de Boehringer Ingelheim, de Gilead et de ThermoFisher, et a participé à des comités consultatifs auprès de Werfen, Boehringer Ingelheim, AllInBio et Lilly. Le Dr Deane fait également partie de groupes de travail sur la prédiction de la polyarthrite rhumatoïde, parrainés par l'American College of Rheumatology et l'European Alliance of Associations for Rheumatology.

26.01.2026 à 16:35

La dictature du prolétariat, vie et mort d’un projet politique

Yves Santamaria, Historien, Maître de conférence émérite, Sciences Po Grenoble - Université Grenoble Alpes
En février 1976, le Parti communiste français (PCF) abandonnait officiellement le projet de dictature du prolétariat. Quels sont l’histoire et le sens de ce concept ?
Texte intégral (2369 mots)
Affiche de propagande soviétique, Lénine au premier plan.

Il y a cinquante ans, en février 1976, le Parti communiste français (PCF) abandonnait officiellement le projet de « dictature du prolétariat ». Que recouvrait réellement cette notion dans la doctrine et la pratique communistes, et comment a-t-elle été interprétée au fil du temps ?


On peut distinguer chez les partisans de la dictature du prolétariat plusieurs versions se démarquant à des degrés divers de l’ordre démocratique libéral/représentatif.

Pour le leader bolchevik Lénine (1870-1924) :

« La dictature du prolétariat est une lutte opiniâtre, sanglante et non sanglante, violente et pacifique, militaire et économique, pédagogique et administrative, contre les forces et les traditions de la vieille société. »

Dans sa mouture la plus rassurante, le terme « dictature » est revendiqué en tant que système provisoire visant à écarter le chaos après la mise à bas de l’ordre ancien et s’oppose donc – selon une nomenclature antique – à la « tyrannie ». Elle se présente également, du fait de la référence prolétarienne, comme une alternative progressiste à la « dictature de la bourgeoisie »

Paternités

La paternité de la formule semble pouvoir être attribuée au socialiste français Auguste Blanqui (1805-1881). Croyant à la nécessité d’un petit groupe organisé de révolutionnaires, il se plaçait dans la continuité de figures, telles que Jean-Paul Marat (1743-1793) ou Gracchus Babeuf (1760-1797). Il s’agissait dans l’esprit de ces derniers de suspendre pour un temps – selon leur interprétation du modèle romain – les droits fondamentaux afin de briser la résistance des ennemis de la Révolution.

Karl Marx (1818-1883) recueille cet héritage en affichant sa volonté de le dépasser de façon dialectique. En fait, il récuse toute prétention d’une minorité à se substituer aux masses révolutionnaires. Selon la narration historique qu’il développe :

« La lutte des classes conduit nécessairement à la dictature du prolétariat [qui] elle-même ne constitue que la transition à l’abolition de toutes les classes et à une société sans classes. »

L’idée d’un accaparement éventuel du pouvoir est selon lui balayée vu que les communistes « ne forment pas un parti distinct opposé aux autres partis ouvriers » et « n’ont point d’intérêts qui les séparent de l’ensemble du prolétariat ».

Une postérité socialiste

Même si Marx n’a guère développé son idée, l’expression a connu une belle postérité dans les rangs socialistes. En France, le concept de « dictature du prolétariat » est notamment assumé par Jules Guesde (1845-1922) alors même que son courant tire profit de son insertion dans le jeu parlementaire. Souhaitant désamorcer la contradiction entre le slogan et la défense des valeurs républicaines, Jean Jaurès (1859-1914) préconise l’abandon de cette perspective. Sans pour autant renoncer à la violence ou au projet communiste, il franchit le pas en 1901 :

« Une minorité révolutionnaire, si intelligente, si énergique qu’elle soit, ne suffit pas, du moins dans les sociétés modernes, à accomplir la révolution. Il y faut le concours, l’adhésion de la majorité, de l’immense majorité. »

Pour autant, la « dictature du prolétariat » ne disparaîtra que progressivement de la rhétorique socialiste. À preuve, son usage par Léon Blum (1872-1950) à l’occasion de la fracture de la social-démocratie française consécutive à la révolution russe de 1917. Devant les militants réunis à Tours en décembre 1920, il affirme n’avoir peur « ni du mot ni de la chose » : le Parti socialiste est prêt à exercer sa dictature au nom du prolétariat en vertu, précise-t-il, « d’une fiction à laquelle nous acquiesçons tous ». Son refus d’adhérer à l’Internationale communiste repose sur son hostilité à l’organisation centralisée, hiérarchisée et militarisée des bolcheviks :

« Dictature d’un parti, oui, dictature d’une classe, oui, dictature de quelques individus, connus ou inconnus, cela, non. »

De la théorie à la pratique

Si la dictature du prolétariat autorisait l’exercice d’une violence sans bornes contre la « bourgeoisie », à compter de novembre 1917, son champ d’application allait connaître une inflation considérable.

Après les mesures adoptées par les bolcheviks russes contre les membres de l’appareil d’État et les couches possédantes, vint rapidement le tour de l’ensemble des diverses fractions politiques et sociologiques de la société. Ouvriers grévistes ou paysans rétifs face à l’extorsion de leur grain, tous les récalcitrants furent englobés sous l’appellation « contre-révolutionnaire » et à ce titre devenaient la cible d’un appareil répressif performant : dès le 23 novembre, tous les individus suspectés de sabotage, de spéculation et d’accaparement étaient susceptibles d’être arrêtés sur le champ comme « ennemis du peuple ».

Lenine et Staline à Gorki près de Moscou
Lénine et Staline à Gorki près de Moscou.

Après le renversement du tsarisme (mars 1917), le Gouvernement provisoire avait engagé un processus électoral devant déboucher sur la mise en place de nouvelles institutions. Défavorables aux bolcheviks, les résultats des élections à l’Assemblée constituante furent appréciés en ces termes par ceux qui, depuis mars 1918, se désignaient comme « communistes », notamment Lénine :

« Le prolétariat doit d’abord renverser la bourgeoisie et conquérir pour lui le pouvoir politique ; ce pouvoir politique, c’est-à-dire la dictature prolétarienne, il doit ensuite s’en servir comme d’un moyen pour s’attirer la sympathie de la majorité des travailleurs. »

En définitive, le pouvoir soviétique et la dictature du prolétariat constituaient aux yeux de Lénine et de ses camarades une forme plus élevée d’expression démocratique qu’un Parlement.

En foi de quoi, le 6 janvier 1918, les travaux de l’Assemblée sont interrompus manu militari par les bolcheviks. Seule la guerre civile peut alors ouvrir une issue à la crise. La « Terreur rouge » s’inscrit dès lors dans un processus d’une implacable « rationalité ». Elle représente désormais, aux yeux de ses promoteurs comme des anticommunistes de tous bords, la manifestation concrète de la dictature du prolétariat.

Après la victoire du Parti communiste, son secrétaire général Staline (1879-1953) inscrit en 1924 cette politique dans la durée :

« Il faut considérer la dictature du prolétariat, le passage du capitalisme au communisme, non comme une période éphémère d’actes et de décrets “éminemment révolutionnaires” mais comme toute une époque historique remplie de guerres civiles et de conflits extérieurs, d’un opiniâtre travail d’organisation et d’édification économique, d’offensives et de retraites, de victoires et de défaites. »

L’Espagne, banc d’essai de la « démocratie populaire »

Pour autant, le réalisme stalinien s’attachait à établir une distinction entre l’essentiel (la souveraineté et l’indépendance du Parti communiste) et les infinies conjonctures se dévoilant au cours de la « période historique ». C’est ainsi que, en 1936, dans le cadre de la guerre civile espagnole (1936-1939), se fit jour un autre modèle de transition adapté à la conjoncture locale : la « démocratie populaire ». Cette politique illustre le tournant advenu à la suite de la victoire de Hitler en 1933 : il s’agissait d’élargir les alliances avec les forces susceptibles de s’opposer au nazisme.

D’où la promotion « d’un type spécifique de république, avec une authentique démocratie populaire. Il ne s’agira pas encore d’un État soviétique, mais bien d’un État antifasciste, de gauche, auquel participera le secteur authentiquement de gauche de la bourgeoisie ». Staline ratifie cette ligne dans une lettre au socialiste espagnol Largo Caballero (1869-1946) dans laquelle il recommande pour l’Espagne une voie parlementaire au socialisme pour « empêcher que les ennemis de l’Espagne voient en elle une république communiste ». Telle fut également la stratégie développée après 1945 en Europe de l’Est.

La paille des mots…

En Extrême-Orient l’affirmation de la dictature du prolétariat revint rapidement au premier plan, sitôt assurée l’hégémonie du parti communiste vis-à-vis de ses concurrents, un temps présentés comme partenaires au sein de « fronts nationaux » visant le départ des Japonais ou des Européens. La taxinomie n’était d’ailleurs pas toujours fidèle à la formulation canonique. La constitution de la Corée du Nord définit ainsi le régime en place comme une « dictature de la démocratie du peuple ». Si la Chine post-maoïste recourt encore à la marque déposée « dictature du prolétariat », le Vietnam l’a jetée par-dessus bord en 1992. Mais après tout Staline l’avait déjà évacuée en 1936 dans une Constitution présentée par lui comme « la plus démocratique du monde », quelques mois avant le déclenchement de la grande terreur (700 000 assassinats…).

En Europe, l’expression fit brièvement l’actualité dans la seconde moitié des années 1970, au cours d’un intermède dit « eurocommuniste » où les partis communistes espagnol, français et italien affichèrent une prise de distance avec l’URSS. Dans une situation internationale marquée par l’extension maximale du système communiste (Sud-Vietnam, Angola, Mozambique, Éthiopie…), les trois PC furent alors écartelés entre leurs liens avec un communisme soviétique triomphant et des conjonctures jugées porteuses dans le cadre national : mort de Franco en Espagne, alliance avec les socialistes en France, rapprochement avec la démocratie chrétienne en Italie.

C’est de cette période que date, lors du XXIIe congrès du Parti communiste français (PCF) (février 1976), l’annonce unilatérale par son secrétaire général Georges Marchais (1920-1997) de l’abandon par le PCF de la notion de dictature du prolétariat. L’aspect emblématique de la déclaration n’échappa à personne : l’objectif figurait en 1919 parmi les 21 conditions de l’adhésion à l’Internationale communiste. Cette atteinte à l’identité du Parti fut partiellement compensée par diverses campagnes visant à flatter la clientèle populaire, telles que la dénonciation de la pornographie, de la drogue et de l’immigration incontrôlée. Elle fut insuffisante à éviter, dès l’année suivante, un décrochage électoral par rapport à un Parti socialiste en phase ascendante. Le désamour entre la France et son Parti communiste relevait d’un processus difficile à enrayer par la seule dédiabolisation. Et la querelle parut bientôt relever du sexe des anges devant un déclin bientôt précipité par l’effondrement du système soviétique.

The Conversation

Yves Santamaria ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 16:35

Tout comprendre à l’ICE, la police de l’immigration au cœur des polémiques aux États-Unis

Frédérique Sandretto, Adjunct assistant professor, Sciences Po
Abhorrée par les démocrates et les défenseurs des migrants, l’agence chargée des arrestations et expulsions de migrants clandestins reste soutenue par le pouvoir et la majeure partie de ses sympathisants.
Texte intégral (2876 mots)

Le Service de l’immigration et des douanes des États-Unis, ou ICE, est l’une des agences fédérales favorites de Donald Trump, qui en a très largement augmenté le budget alors même qu’il réduisait celui de bien d’autres administrations. Chargée avant tout d’arrêter et d’expulser les supposés millions de clandestins se trouvant sur le territoire national, elle recrute des milliers d’agents, qui sont rapidement formés et quasi immédiatement envoyés sur le terrain. Très critiquée pour ses méthodes violentes, l’organisation est plus que jamais sous le feu des projecteurs actuellement, après deux arrestations à Minneapolis (Minnesota) qui ont provoqué la mort des personnes interpellées. L’administration Trump fait bloc autour du Service, tandis que le Parti démocrate et de très nombreux simples citoyens la dénoncent et, souvent, réclament sa dissolution immédiate.


L’Immigration and Customs Enforcement (ICE), agence fédérale américaine chargée de l’application des lois sur l’immigration et les douanes, a été officiellement créée le 1er mars 2003, dans le cadre d’une vaste réorganisation gouvernementale consécutive aux attentats du 11 septembre 2001. Son instauration résulte directement du Homeland Security Act de 2002, signé par le président George W. Bush, qui visait à renforcer la sécurité intérieure des États-Unis en consolidant plusieurs agences fédérales sous l’égide du nouveau Département de la Sécurité intérieure (DHS).

L’ICE a absorbé les fonctions de l’ancien Immigration and Naturalization Service (INS) et de l’United States Customs Service, deux entités dissoutes pour permettre une gestion plus centralisée et plus efficace des questions migratoires et douanières, dans un contexte marqué par la lutte contre le terrorisme et la criminalité transnationale.

Sa création est donc indissociable des bouleversements politiques et sécuritaires provoqués par les attaques du 11 septembre 2001, qui ont conduit les autorités américaines à repenser en profondeur leur approche de la sécurité nationale, en intégrant notamment une dimension plus répressive et plus préventive à la gestion des flux migratoires et des échanges commerciaux. L’ICE a été conçue pour jouer un rôle clé dans cette stratégie, en combinant des pouvoirs civils et pénaux afin de mieux protéger le territoire national contre les menaces extérieures, qu’elles soient terroristes, criminelles ou liées à l’immigration illégale.

Explosion budgétaire sous la seconde présidence Trump

Sous Bush puis sous son successeur Barack Obama, l’agence se consacre essentiellement à la lutte contre le terrorisme et contre les gangs transnationaux, même si elle procède déjà à de nombreuses expulsions de sans-papiers. Ses capacités seront accrues lors du premier mandat Trump, et Joe Biden ne les réduira pas : lors de sa dernière année à la Maison Blanche, 274 000 personnes seront expulsées, soit un peu plus que lors de l’année la plus « productive » en la matière du premier mandat Trump. Mais c’est le retour de Donald Trump à la Maison Blanche en janvier 2025 qui marquera un véritable tournant majeur pour l’ICE, avec une augmentation spectaculaire de ses moyens financiers.

En juillet 2025, le Congrès, à majorité républicaine, a adopté la loi dite « One Big Beautiful Bill Act », qui a alloué environ 75 milliards de dollars (plus de 63 milliards d’euros) supplémentaires à l’ICE sur plusieurs années, dont une grande partie disponible jusqu’en 2029. Sur ce montant, 45 milliards (soit quelque 37,8 milliards d’euros) sont destinés à l’expansion massive des capacités de détention (visant potentiellement à la création de plus de 100 000 places supplémentaires), et environ 30 milliards (environ 25,2 milliards d’euros) à l’intensification des opérations d’arrestation, de traque et d’expulsion.

Ajoutés au budget annuel classique d’environ 10 milliards de dollars, environ 8,4 milliards d’euros, (maintien pour l’exercice fiscal 2026), ces fonds portent le budget effectif de l’agence à des niveaux inédits, souvent estimés autour de 28 milliards à 30 milliards de dollars (de 23,5 milliards à 25,2 milliards d’euros) par an en 2025-2026, soit près du triple du budget d’avant 2025.

Cette manne financière a permis de doubler les effectifs (passés à environ 22 000 agents aujourd’hui), d’offrir des primes d’embauche allant jusqu’à 50 000 dollars (plus de 42 000 euros) et de financer la plus grande opération d’expulsions de l’histoire américaine : plus de 300 000 personnes sur la seule année 2025 – comme promis par le président.

Post de l’ICE sur X, reprenant une esthétique bien connu de l’appel à s’engager (le dessin d’origine, montrant l’Oncle Sam invitant les jeunes Américains à rejoindre l’armée avec le slogan « I want you for U.S. Army » datait de 1917, en pleine Première Guerre mondiale). Le texte dit : « Pas de limite d’âge. Prime à la signature de 50 000 $. Défendre la patrie. Qu’attendez-vous ? Répondez à l’appel pour servir au sein de l’ICE. » @Icegov/X

Les critiques, qui viennent notamment de la part des élus démocrates au Congrès, dénoncent un « fonds sans garde-fous » favorisant une machine répressive sans précédent, tandis que les partisans de Trump y voient un outil indispensable pour « rendre l’Amérique sûre à nouveau ».

L’ICE et la crise de Minneapolis

Depuis le début du second mandat de Donald Trump, l’ICE s’est imposée comme l’une des institutions fédérales les plus sujettes à controverse, en raison notamment de pratiques opérationnelles fréquemment dénoncées pour leur caractère excessif, voire abusif.

Cette polarisation a atteint son paroxysme en janvier 2026, lorsque l’agence s’est retrouvée au centre d’une crise sociopolitique majeure à Minneapolis (Minnesota), ses agents ayant abattu deux personnes dans le courant de ce mois. Cette séquence, encore loin d’être achevée au moment où ces lignes sont écrites, a catalysé les tensions latentes, accumulées depuis plusieurs années, concernant tant les modalités d’intervention de l’ICE que la légitimité même de son mandat institutionnel.

Petit rappel des faits : le 7 janvier dernier, Renée Nicole Good, une mère de famille américaine de 37 ans, a été tuée par balles par un agent de l’ICE lors d’une opération de contrôle de l’immigration dans la métropole du Minnesota. Les circonstances de sa mort, rapidement appuyées par des vidéos tournées par des témoins diffusées sur les réseaux sociaux, ont révélé une scène d’une grande violence : alors que Good se trouvait dans son véhicule, garé en travers de la route depuis seulement quelques minutes, des agents de l'ICE lui intiment d'en sortir ; elle démarre alors pour partir, et touche très légèrement un agent, qui fait immédiatement usage de son arme à feu à bout portant, la touchant à quatre reprises, au bras, à la tête et à la poitrine.

Le 24 janvier 2026, dans la même ville, des agents de l'US Customs and Border Protection (USBP), agence relevant comme l'ICE du département de la sécurité intérieure et intervenant très régulièrement aux côtés des agents de l'ICE, tuaient Alex Pretti, un infirmier américain venu filmer une de leurs opérations. Pretti a reçu plusieurs balles dans le corps alors qu’il se trouvait au sol, immobilisé et ne présentant aucun danger, le pistolet qu’il portait – légalement – sur sa personne lui ayant été retiré, sans qu’il n’ait d’ailleurs cherché à s’en saisir.

L’impact de ces deux événements a été immédiat et profond, tant sur le plan local que national. Minneapolis, déjà marquée par la mort de George Floyd en 2020 et les mouvements de protestation contre les violences policières qui avaient suivi, est devenue une nouvelle fois l’épicentre d’une mobilisation citoyenne massive.

Dès le lendemain de la mort de Renée Good, des manifestations ont éclaté dans plusieurs villes américaines, dénonçant ce que les participants qualifiaient de « meurtre » et assimilant les actions de l’ICE à des pratiques « terroristes ». Les images des rassemblements, où des milliers de personnes brandissaient des pancartes et des photos de la victime, ont circulé massivement, tandis que des personnalités publiques, comme l’artiste Bruce Springsteen, ont publiquement exprimé leur indignation et leur soutien aux familles touchées.

Le maire de Minneapolis Jacob Frey ainsi que le gouverneur du Minnesota Tim Walz, tous deux démocrates (Walz était le colistier de Kamala Harris à la dernière présidentielle), ont rapidement condamné les actions de l’ICE, exigeant le retrait immédiat des agents fédéraux de leur État et dénonçant « le chaos, les perturbations et les traumatismes » infligés à la communauté locale. Ces prises de position ont mis en lumière les tensions persistantes entre les autorités locales, souvent démocrates et favorables à une approche plus humaniste de l’immigration, et le gouvernement fédéral, dont la politique migratoire s’est durcie sous l’administration Trump, spécialement depuis son retour au pouvoir en 2025.

La mort d’Alex Pretti a suscité les mêmes réactions, encore plus fortes peut-être du fait de la répétition à court terme, dans la même ville, d’une scène similaire à celle du décès de Renée Good : les protestations massives consécutives à la tragédie du 7 janvier n’avaient donc pas suffi à empêcher un bis repetita.

Sur le plan politique, l’affaire a également révélé les profondes divisions qui traversent la société américaine. Alors que des enquêtes fédérales et locales ont été ouvertes pour éclaircir les circonstances exactes de la mort de Renée Good, les réactions des responsables politiques ont été plus que contrastées.

Le vice-président J. D. Vance, par exemple, a rapidement soutenu la version des faits avancée par l’ICE à propos de la mort de Renée Good, selon laquelle la victime aurait tenté de faire obstruction à l’opération en cours, une affirmation infirmée par les vidéos et les témoignages indépendants. De même, Greg Bovino, l’un des principaux responsables de l’USBP, est allé jusqu’à affirmer que les agents ayant abattu Alex Pretti avaient agi en « légitime défense » et que l’infirmier avait eu pour objectif de « massacrer » des agents des forces de l’ordre. Quant à Donald Trump, il a dans les deux cas imputé la responsabilité des faits au « chaos » créé par les démocrates.

Dans le camp d’en face, la condamnation des méthodes de l’ICE et de l'USBP et du soutien systématique que leur offrent les responsables républicains, qu’il s’agisse de Trump, de Vance, ou encore de la secrétaire à la sécurité intérieure Kristi Noem, a été tout aussi unanime. De Bernie Sanders à Bill Clinton et Barack Obama, en passant par le leader des démocrates au Congrès Hakeem Jeffries, les leaders démocrates ont tous fait part de leur consternation et de leur dégoût, dans des termes très vifs.

L’ICE et au-delà : illustration d’une société plus polarisée que jamais

Cette polarisation des discours a alimenté une crise de confiance envers les institutions fédérales, déjà fragilisées par des années de controverses autour des pratiques de l’ICE.

En effet, les morts de Renée Good et d’Alex Pretti ont relancé le débat sur la légitimité même de l’ICE en tant qu’institution. Des appels à sa dissolution, portés par des mouvements militants et des élus locaux, se sont multipliés, tandis que des sondages réalisés dans les jours suivant l’incident ont révélé une désapprobation majoritaire de l’action de l’agence parmi la population américaine. Plus de 50 % des personnes interrogées ont jugé les méthodes de l’ICE « trop énergiques », et une majorité a exprimé une forte désapprobation de son fonctionnement, soulignant un fossé croissant entre les objectifs affichés de sécurité nationale et les réalités vécues par les communautés directement affectées par ses opérations.

En définitive, l’affaire de Minneapolis s’inscrit dans une trajectoire historique plus large. L’ICE, née dans le sillage des attentats du 11-Septembre, est devenue le symbole d’une approche sécuritaire de l’immigration, souvent au détriment des droits humains et de la cohésion sociale. Les événements de janvier 2026, en révélant les excès et les dangers d’une telle politique, ont non seulement ravivé les mémoires des violences passées, mais ont aussi posé avec une acuité nouvelle la question de l’équilibre entre sécurité et liberté dans une démocratie libérale.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 16:34

S’adapter ou périr : le retail face à une menace existentielle

Guillaume Do Vale, Professeur associé, IDRAC Business School
Isabelle Collin-Lachaud, Professeure des universités
Xavier Lecocq, Professeur de management stratégique, Université de Lille
Après l’âge d’or de la fin du XXᵉ siècle, le secteur de la distribution en France doit combiner diminution de son empreinte carbone, rentabilité économique et confiance des consommateurs.
Texte intégral (1861 mots)
L’entreprise de prêt-à-porter C&A a fermé 24 magasins en 2025 en France et licencié des centaines de salariés. ArturBogacki/Shutterstock

Le secteur français de la distribution est secoué par l’arrivée de plateformes telles que Temu et Shein, l’augmentation des droits de douane ou des plans de licenciements massifs. Après l’âge d’or à la fin du XXᵉ siècle, il doit combiner diminution de son empreinte carbone, rentabilité économique et confiance des consommateurs. Alors quels nouveaux modèles d’affaires pour rester viable ?


Les acteurs historiques de la distribution tels qu’Auchan, Boulanger, Carrefour, Décathlon, Fnac-Darty, Idkids ou Leroy Merlin, nés avec des magasins et convertis au numérique, sont dans une situation délicate. Ces entreprises traditionnelles doivent remettre en cause ce qu’elles ont mis des décennies à construire.

Elles cohabitent dorénavant avec des acteurs au modèle d’affaires décriés comme Shein ou Temu. Autres concurrents : les nouveaux acteurs au modèle d’affaires conçu dès l’origine sur des bases de la durabilité comme Asphalte dans le textile ou Le Fourgon dans l’alimentaire.

Le secteur de la distribution est particulièrement concerné par cette remise en question compte tenu du nombre d’emplois que ses entreprises représentent : 1,9 million d’emplois en France en 2025, ce qui en fait le premier secteur employeur.

Alors, comment répondre à des injonctions en apparence contradictoires ? Comment garantir une préservation du pouvoir d’achat tout en améliorant l’écoresponsabilité des produits ? Baisser l’empreinte-carbone des produits tout en préservant leur chiffre d’affaires ? Respecter les normes environnementales et sociales tout en apparaissant compétitifs face à des acteurs comme Shein ou Temu qui peuvent aisément contourner l’ensemble de ces normes ? Augmenter la qualité tout en proposant des prix attractifs ?

« Faire l’autruche » ou survivre

La littérature en management précise qu’une tension est paradoxale dès lors qu’elle est causée par des éléments contradictoires, mais interdépendants, qui sont intégrés dans les processus organisationnels. Par exemple, faire plus de chiffre d’affaires et moins d’empreinte carbone simultanément représente une tension paradoxale. Au regard de la complexité des prises de décisions, certains acteurs peuvent volontairement « faire l’autruche » en reportant des décisions essentielles.

Comme nous l’avons montré dans une recherche récente publiée dans la revue Journal of Retailing, l’évolution vers des modèles d’affaires durables peut souvent mener à une impression « d’indécidabilité » – qui ne peut être démontrée – de ses dirigeants. Ces nouveaux business model génèrent du capital économique, tout en maintenant ou régénérant le capital environnemental et social.

Nous avons étudié pendant sept ans trois distributeurs européens ayant choisi de mettre en œuvre un modèle d’affaires durable. Notre recherche met en lumière les trois étapes clés susceptibles de garantir la mise en œuvre de ces modèles économiques :

  • dépasser les tensions ;

  • engager les actionnaires et les dirigeants ;

  • travailler avec davantage de parties prenantes.

Dépasser les tensions

Avant de vouloir devenir une entreprise au modèle d’affaires durable, les organisations traditionnelles doivent accepter d’intégrer de multiples initiatives à petite échelle qui s’intègrent à leur modèle d’affaires original. Il s’agit par exemple de la proposition de produits de seconde vie et/ou de services de location. Carrefour s’est associé à l’entreprise Cash Converters pour installer des corners dédiés à l’occasion dans ses hypermarchés.

« Comme faire concorder cette évolution avec notre modèle historique depuis soixante-cinq ans ? Quand un produit neuf ramène plus au mètre carré que la circularité, pourquoi changer ? », témoigne un responsable seconde vie des produits d’une entreprise interviewée.


À lire aussi : Ressourceries, Emmaüs, Le Relais : les acteurs emblématiques de la seconde main menacés par la grande distribution


Ces initiatives génèrent des tensions, donnant parfois l’impression aux parties prenantes d’être des pansements, ou patchs, sur le modèle d’affaire initial.

« On réfléchit à supprimer des catégories de produits, mais si ça concerne trop le chiffre ou la rémunération des employés, ça ne va pas trop marcher. Nous devons chercher des arbitrages pour mettre la direction de l’entreprise face à cette contradiction », souligne un responsable stratégie offre d’une autre entreprise.

Engagement des actionnaires et des dirigeants

Seules certaines tensions peuvent être gérées par les managers dans leurs activités quotidiennes ou par l’équipe en charge de la responsabilité sociale et environnementale. D’autres vont subsister dans l’entreprise. Elles restent paradoxales tant que les dirigeants ne font pas des choix clairs, engageant l’entreprise vers une transformation profonde du modèle d’affaires.

La non-gestion de ces tensions paradoxales entraîne des critiques majeures, soit en interne par les collaborateurs, soit en externe par les consommateurs ou par les organisations non gouvernementales. Ces dernières peuvent remettre en cause certaines décisions, mais aussi l’absence de décisions dans un contexte d’urgence climatique.

« Si on communique sur la durabilité, on se fait taper dessus. Si on ne communique pas, on se fait taper dessus. Si on communique partiellement, on se fait taper dessus », rappelle un directeur général interviewé.

L’engagement formel des actionnaires et dirigeants apparaît comme essentiel. Les prises de décisions fortes en termes d’attribution des ressources – création de nouvelles fonctions comme le leader Planet – et les nouvelles mesures de la performance – pourcentage sur le chiffre d’affaires « durable », seconde vie, location ou réparation – sont nécessaires pour avancer vers la mise en œuvre d’un modèle d’affaires plus durable.

Travailler avec davantage d’acteurs

La mise en œuvre des principes de durabilité ne se fait à la seule échelle de l’organisation. Les distributeurs ont besoin dans une troisième étape de restructurer de manière importante leur écosystème. Ce dernier correspond à tous les acteurs avec lesquels l’entreprise choisit de collaborer plus ou moins directement.

Leroy Merlin a créé Home Index, un indicateur qui évalue l’impact environnemental et social d’un produit tout au long de son cycle de vie. marinissim/Shutterstock

Les actions à l’échelle de l’écosystème impliquent de renouveler les relations avec les parties prenantes historiques – consommateurs, fournisseurs, pouvoirs publics – et d’en initier de nouvelles avec de nouveaux acteurs – chercheurs, acteurs de l’économie sociale et solidaire, concurrents, citoyens. C'est ainsi que l’enseigne de bricolage Leroy Merlin, en lançant son Home Index, utilise son poids dans le secteur en proposant un indicateur d’impact clair pour les consommateurs.

The Conversation

Guillaume Do Vale est membre de de la chaire TREND(S) Transformation of Retailing Ecosystems & New market Dynamics for Sustainability.

Cette recherche a été menée dans le cadre de la chaire industrielle TREND(S) - Transformation of Retailing Ecosystems & New market Dynamics for Sustainability - dont elle est la fondatrice et directrice scientifique.

Xavier Lecocq est membre de la chaire TREND(S) - Transformation of Retailing Ecosystems & New market Dynamics for Sustainability.

26.01.2026 à 16:30

« Paresseux et complaisants » : des retraités suédois racontent comment la suppression de l’impôt sur la fortune a transformé leur pays

Miranda Sheild Johansson, Senior Research Fellow in Social Anthropology, UCL
Pour certains Suédois, la question n’est pas seulement de savoir si l’impôt sur la fortune fonctionne, mais aussi quel type de société ils ont perdu avec sa suppression.
Texte intégral (2143 mots)

Quels sont les impacts de la suppression d’un impôt au-delà des personnes et des agents économiques concernés ? Les Suédois ont aboli l’impôt sur la fortune en 2007. Ce faisant, c’est toute la vision de la société partagée jusque-là qui pourrait avoir été ébranlée. Car la fiscalité n’est pas qu’une affaire économique. Elle a aussi un rôle social, voire individuel.


Pendant une grande partie du XXe siècle, la Suède jouissait à juste titre de la réputation d’être l’un des pays les plus égalitaires d’Europe. Pourtant, au cours des deux dernières décennies, elle s’est transformée en ce que le journaliste et auteur Andreas Cervenka qualifie de « paradis pour les super-riches ».

Aujourd’hui, la Suède affiche l’un des ratios de milliardaires en dollars les plus élevés au monde et abrite de nombreuses start-up « licornes », valorisées à au moins un milliard de dollars américains (850 millions d’euros), dont la plateforme de paiement Klarna et le service de streaming audio Spotify

La suppression de l’impôt sur la fortune (förmögenhetsskatten) il y a vingt ans s’inscrit pleinement dans cette évolution, tout comme, la même année, l’instauration de généreuses déductions fiscales pour les travaux domestiques et la rénovation des logements. Vingt ans plus tard, le nombre de foyers suédois qui emploient du personnel de ménage est devenu l’un des signes révélateurs d’un pays de plus en plus fracturé socialement.

Dans le cadre de mes recherches anthropologiques sur les relations sociales que produisent les différents systèmes fiscaux, j’ai travaillé avec des retraités dans les banlieues sud de la capitale suédoise, Stockholm, afin de comprendre comment ils perçoivent la baisse du niveau de taxation au cours de leurs dernières années de vie.

Cette évolution s’est accompagnée d’un recul progressif de l’État-providence. Beaucoup des personnes que j’ai interrogées regrettent que la Suède n’ait plus de projet collectif visant à construire une société plus cohésive.

« Nous, les retraités, voyons la destruction de ce que nous avons bâti, de ce qui a commencé quand nous étions de très jeunes enfants », explique Kjerstin, 74 ans.

« Je suis née après la fin de la guerre et j’ai contribué à construire cette société tout au long de ma vie, avec mes concitoyens. Mais avec la baisse des impôts et le démantèlement de notre sécurité sociale… aujourd’hui, nous ne construisons plus rien ensemble. »

Le coefficient de Gini de la Suède, l’indicateur le plus couramment utilisé pour mesurer les inégalités, a atteint 0,3 ces dernières années (0 correspondant à une égalité totale et 1 à une inégalité totale), contre environ 0,2 dans les années 1980. L’Union européenne dans son ensemble se situe à 0,29. « Il y a désormais 42 milliardaires en Suède – c’est une hausse considérable », m’a confié Bengt, 70 ans.

« D’où viennent-ils ? Ce n’était pas un pays où l’on pouvait devenir aussi riche aussi facilement. »

Mais, comme d’autres retraités que j’ai rencontrés, Bengt reconnaît aussi la part de responsabilité de sa génération dans cette évolution.

« J’appartiens à une génération qui se souvient de la manière dont nous avons construit la Suède comme un État-providence, mais tellement de choses ont changé. Le problème, c’est que nous n’avons pas protesté. Nous n’avons pas réalisé que nous devenions ce pays de riches. »

À l’opposé de l’American Dream

L’impôt sur la fortune a été instauré en Suède en 1911. Son montant était alors calculé à partir d’une combinaison du patrimoine et des revenus. À la même période, les premières pierres de l’État-providence suédois étaient posées, notamment via l’introduction de la retraite publique en 1913.

Le terme utilisé pour désigner ce modèle, folkhemmet (« la maison du peuple »), renvoyait à l’idée d’un confort et d’une sécurité garantis à tous de manière égale. Il constituait, à bien des égards, l’exact opposé idéologique du rêve américain : non pas la recherche de l’exceptionnel, mais celle de niveaux de vie décents pour tous et de services universels.

Après la Seconde Guerre mondiale, l’impôt sur la fortune – désormais dissocié de l’impôt sur le revenu – a de nouveau été relevé par étapes, jusqu’à atteindre dans les années 1980 un niveau historiquement élevé, avec un taux marginal de 4 % pour les patrimoines les plus importants, même si la charge fiscale réelle reste difficile à établir en raison de règles d’exonération complexes. Malgré cela, les recettes totales générées par cet impôt sont restées relativement modestes. Rapportées au PIB annuel de la Suède, elles n’ont jamais dépassé 0,4 % sur l’ensemble de la période d’après-guerre.

À la fin des années 1980, les vents politiques commencent toutefois à tourner en Suède, dans le sillage d’un mouvement plus large de privatisation des services publics et de dérégulation des marchés financiers observé dans plusieurs pays européens, dont le Royaume-Uni sous Margaret Thatcher, ainsi qu’aux États-Unis.

L’un des reproches récurrents adressés à l’impôt sur la fortune en Suède était alors son caractère régressif : il taxait surtout le patrimoine des classes moyennes, principalement constitué de logements et d’actifs financiers, tout en épargnant les plus grandes fortunes, notamment celles détenues par des propriétaires de grands groupes ou des dirigeants occupant des postes élevés dans des entreprises cotées. Une autre critique tenace était que cet impôt encourageait l’optimisation fiscale, en particulier sous la forme de fuites de capitaux vers des paradis fiscaux offshore.

Si l’existence d’un impôt sur la fortune pouvait sembler incarner l’engagement du pays en faveur de l’égalité socioéconomique, les personnes que j’ai interrogées disent ne pas y avoir vraiment prêté attention avant son abolition en 2006 par le gouvernement de droite alors en place, après la suppression, un an plus tôt, des droits de succession par le précédent gouvernement social-démocrate.

« Quand l’impôt sur la fortune a été supprimé, raconte Marianne, 77 ans, je ne pensais pas que l’on faisait un cadeau aux millionnaires, parce que… nous n’avions pas de riches aristocrates possédant tout. La suppression de l’impôt sur la fortune et des droits de succession semblait être une mesure pratique, pas vraiment politique. »

Marianne, comme les autres retraités à qui j’ai parlé, racontent tous une histoire dans laquelle l’État-providence a été construit par un effort collectif, plutôt que comme un projet à la Robin des Bois consistant à prendre aux riches pour donner aux pauvres. Cette vision de l’État-providence suédois comme l’œuvre d’égaux, issus à l’origine d’une population majoritairement rurale et pauvre, a sans doute détourné ces retraités des questions liées à l’accumulation des richesses.

Si la Suède continue de taxer la propriété et différentes formes de revenus du capital, avec le recul, nombre de mes interlocuteurs âgés considèrent aujourd’hui que la suppression de l’impôt sur la fortune, intervenue « alors qu’ils en étaient les témoins directs », a constitué une étape décisive dans la transformation de la société suédoise, l’éloignant du modèle social-démocrate de l’État-providence pour l’orienter vers autre chose : un pays de milliardaires à la fragmentation sociale accrue.

« Je pense à mes enfants, à mes deux filles qui travaillent et ont de jeunes familles, m’a confié Jan, 72 ans. Quand elles étaient enfants, l’État-providence s’occupait d’elles : elles allaient dans de bonnes écoles, avaient accès au football, au théâtre, au dentiste…, mais aujourd’hui, je crains que la société ne se dégrade pour elles. »

Comme d’autres personnes interrogées, Jan exprime des regrets quant à son propre rôle dans cette évolution.

« Je pense maintenant que c’est en partie de ma faute, dit-il. Nous sommes devenus paresseux et complaisants, convaincus que l’État-providence suédois était solide, nous ne nous sommes pas inquiétés de la suppression de l’impôt sur la fortune, nous pensions que cela ne changerait rien… mais je crois que ça a changé beaucoup de choses. »

« Une société plus humaine »

Mes recherches suggèrent que les effets de l’existence – ou de l’absence – d’un impôt sur la fortune ne se limitent pas aux recettes fiscales ou à la redistribution des richesses. Ils ont des répercussions sociales plus larges et peuvent être constitutifs de la manière dont les individus se représentent la société.

À l’heure actuelle, seuls trois pays européens appliquent un véritable impôt sur la fortune : la Norvège, l’Espagne et la Suisse. Par ailleurs, la France, l’Italie, la Belgique et les Pays-Bas prélèvent des impôts sur le patrimoine ciblant certains actifs, sans toutefois taxer la richesse globale des individus.

En Suède du moins, la question aujourd’hui n’est pas seulement de savoir si l’impôt sur la fortune fonctionne ou non, mais aussi quel type de société il dessine : celle du folkhemmet, ou celle d’un paradis pour les riches.

« L’impôt allait de soi quand j’ai grandi dans les années 1950, se souvient Kjerstin. Je me rappelle avoir pensé, alors que j’étais en deuxième année de primaire, que je serais toujours prise en charge, que je n’aurais jamais à m’inquiéter. »

Revenant sur le sentiment que la vie en Suède est aujourd’hui très différente, elle ajoute :

« Désormais, les gens ne veulent plus payer d’impôts – parfois même moi, je n’ai plus envie d’en payer. Tout le monde réfléchit à ce qu’il reçoit en retour et à la manière de s’enrichir, au lieu de penser à construire quelque chose ensemble. »

« Je ne pense pas qu’on puisse dire : “Je paie tant d’impôts, donc je devrais récupérer exactement la même chose.” Il faut plutôt prendre en compte le fait que l’on vit dans une société plus humaine, où chacun sait, dès le CE1, qu’il sera pris en charge. »


Les noms des personnes interrogées ont été modifiés.

The Conversation

Miranda Sheild Johansson a reçu des financements de UK Research And Innovation.

26.01.2026 à 16:30

« Les Sept Cadrans » : la série Netflix transforme le huis clos campagnard d’Agatha Christie en une réflexion sur la guerre

Catherine Wynne, Associate Dean for Research and Enterprise, Faculty of Arts, Social Sciences and Education, University of Hull
Sous ses airs de divertissement élégant, la nouvelle adaptation Netflix des « Sept Cadrans » révèle une Agatha Christie plus politique qu’on ne le croit.
Texte intégral (1426 mots)
Le rôle de Bundle, tenu dans la série par Mia McKenna-Bruce, rappelle celui d’Adler dans *Un mystère en Bohème*, de Sir Arthur Conan Doyle. Simon Ridgway/Netflix

Netflix revisite les Sept Cadrans en déplaçant le regard : l’intrigue policière devient un prisme pour interroger la guerre, l’ordre social et l’impensé impérial de la Grande-Bretagne des années 1920. Une relecture ambitieuse qui montre combien Agatha Christie reste une autrice de son temps – et du nôtre.


Nous sommes en 1925 et l’action se déroule à Chimneys, la demeure aristocratique anglaise de la famille Caterham. Mais Lady Caterham (Helena Bonham Carter), désargentée, a été contrainte de la louer à l’industriel Sir Oswald Coote (Mark Lewis Jones).

À l’intérieur, la réception bat son plein. Misanthrope et réduite au rôle de simple invitée chez elle, Lady Caterham glisse à sa fille, Lady Eileen « Bundle » Brent (Mia McKenna Bruce), que l’assemblée réunit « l’industrie, l’aristocratie et la diplomatie (le Foreign Office).

Les Sept Cadrans, d’Agatha Christie, publié en 1929, est aujourd’hui adapté en une minisérie Netflix de trois épisodes, écrite par Chris Chibnall et réalisée par Chris Sweeney. Cette nouvelle version s’appuie sur l’énigme des sept cadrans non seulement pour divertir, mais aussi pour interroger le monde politique et impérial que les romans de Christie laissent souvent en arrière-plan.

Au cours de la réception, de jeunes fonctionnaires du Foreign Office jouent un tour à l’un de leurs collègues en disposant huit réveils dans sa chambre, programmés pour sonner à 11 h 15 le lendemain matin. La raison ? Leur camarade est réputé pour faire la grasse matinée.

Lorsqu’un des réveils disparaît, avant d’être retrouvé par Bundle sur la pelouse, tandis que les sept autres sont soigneusement disposés sur la cheminée de la chambre, la jeune femme est perplexe. Et puis on découvre un mort – évidemment.

Malgré l’idée que la victime aurait été fragilisée par le stress lié à son travail – écho contemporain à la hausse rapide des troubles de santé mentale chez les jeunes hommes –, Bundle rejette la thèse du suicide. Sa certitude se renforce lorsqu’elle tombe plus tard sur un autre jeune homme mort, dont les derniers mots sont « sept cadrans ». Mais à quoi fait-il réellement référence ? Bundle entend bien le découvrir.

La bande-annonce de la série.

En suivant une silhouette qu’elle ne parvient pas à identifier, elle se retrouve à Scotland Yard, face à l’inspecteur Battle (Martin Freeman, habitué des enquêtes pour avoir incarné Watson dans la série Sherlock de la BBC). Bundle fait écho à Irene Adler, héroïne d’Arthur Conan Doyle dans Un scandale en Bohême (1891). Dans la nouvelle, Adler suit Holmes déguisé jusqu’à Baker Street et devient la seule personne à avoir jamais réussi à le déjouer.

À l’image d’Adler, l’intrépide Bundle s’impose comme une figure féministe avant l’heure. McKenna Bruce est remarquable, habitant le rôle avec une assurance éclatante. Dans le roman de Christie, Bundle est incapable de tenir en place. Dans la série, elle saute par la fenêtre d’un étage de Chimneys pour échapper à une demande en mariage formulée par un député ennuyeux et plus âgé, George Lomax (Alex Macqueen), et atterrit dans le jardin, où Kettle examine des indices. Son choix est fait.

Ce que Netflix ajoute à l’œuvre originale de Christie

La série adopte une forme de thriller plus directe que dans le roman de Christie. Dans l’introduction à l’édition anglaise de 2026 de référence, dotée d’une nouvelle couverture et d’un nouveau design signés Netflix, Val McDermid avance que Christie évolue sur le terrain du pastiche de thriller, en détournant les thrillers virils à la John Buchan qui dominaient les années 1910 et 1920. Elle se rapproche aussi de Jane Austen par son regard ironique sur l’aristocratie, les nouveaux riches et les jeunes hommes et femmes désœuvrés.

La série fait écho à la critique des structures sociales rigides des années 1920, dont Agatha Christie est coutumière. Lady Caterham, incarnée par Helena Bonham Carter, remarque que Lady Coote ne devrait pas remercier les domestiques ; Sir Oswald Coote affirme, lui, que la distinction sociale peut s’acheter. Mais la série va plus loin encore. Christie évitait toute référence directe à la Première Guerre mondiale, écrivant dans la décennie qui a suivi sa fin. Pendant le conflit, elle avait travaillé à la distribution de médicaments pour le Voluntary Aid Detachment de la Croix-Rouge britannique à Torquay, où elle a acquis sa connaissance des poisons. À l’inverse, dans la série, la guerre est pleinement intégrée à l’intrigue.

Bundle a perdu son frère pendant le conflit, et le lien qui l’unit aux jeunes hommes du Foreign Office est une camaraderie forgée par la guerre. Ce sont, d’une certaine manière, des survivants. La vie, dit-elle, est « bien trop courte ». Son frère disparu, Tommy, servait aux côtés de Gerry Wade (Corey Mylchreest), du Foreign Office, qui a rapatrié son corps.

Au point culminant de la série, Lady Caterham, interprétée avec une force saisissante par Helena Bonham Carter, décrit la guerre comme un « abattoir », dénué de toute « gloire ». À la manière de Miss Havisham, elle vit recluse dans une maison où un seau recueille l’eau qui goutte d’un toit qui fuit et où le valet n’est même plus payé. Et, comme le découvre Bundle – conformément aux codes du thriller – personne n’est réellement ce qu’il paraît être.

Mais la dénonciation la plus glaçante des empires européens et des structures sociales qui les soutiennent est portée par le Dr Cyril Matip (Nyasha Hatendi), brillant inventeur camerounais que Lomax tente d’attirer au service de la Grande-Bretagne en l’invitant dans sa demeure de campagne.

Lorsque Lomax organise une chasse au faisan pour divertir son invité, Matip refuse d’y prendre part : il a vu ce que les armes peuvent faire. Pendant ce temps, le regard de Bundle s’attarde sur un faisan abattu dans l’herbe. À table, Matip décrit les ravages de la guerre et la défiance qu’elle a fait naître chez lui à l’égard des Européens. Il a vu comment « des Africains ont combattu d’autres Africains pour des Européens blancs ».

En hommage à l’œuvre la plus célèbre de Christie, le Crime de l’Orient-Express, le dénouement se joue à bord d’un train. Mais tout n’est pas encore terminé. Le dernier secret – celui des Sept Cadrans – reste à révéler. Les Sept Cadrans d’Agatha Christie actualise l’œuvre de l’autrice, et le fait avec brio.

The Conversation

Catherine Wynne ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 15:01

Dialogue autour du microbiote : comment la mère et le bébé communiquent à travers le lait maternel

Ignacio López-Goñi, Catedrático de Microbiología. Miembro de la Sociedad Española de Microbiología (SEM), Universidad de Navarra
Le lait maternel n’est pas seulement un aliment : c’est un langage biologique qui évolue avec le bébé. Il permet à la mère d’adapter sa composition en fonction des besoins du nourrisson.
Texte intégral (1699 mots)
L’allaitement n’est plus considéré comme un processus unidirectionnel de nutrition, mais comme un système de communication en temps réel entre deux organismes interdépendants. Natalia Deriabina/Shutterstock

Le lait maternel n’est pas seulement un aliment : c’est un langage biologique qui évolue avec le bébé. Deux études publiées dans des revues scientifiques de premier plan décrivent comment il participe à l’enrichissement du microbiote intestinal du nourrisson et permet d’instaurer un véritable dialogue biologique entre la mère et l’enfant pour répondre aux besoins de ce dernier.


Au cours des premières semaines et des premiers mois de sa vie, le bébé entame l’un des processus biologiques les plus importants de son développement : la constitution de son microbiote intestinal. Cet ensemble de microorganismes participe non seulement à la digestion des nutriments. Il joue également un rôle clé dans la maturation du système immunitaire, la régulation du métabolisme et la protection contre les agents pathogènes au cours des premières années de vie.


À lire aussi : Le colostrum, premier lait maternel : bénéfices, méconnaissance et croyances


Dans ce contexte, le lait maternel s’avère être bien plus qu’un simple aliment : c’est un écosystème vivant, dynamique et complexe qui s’adapte aux besoins du nourrisson. Il apporte de l’énergie, des vitamines et des minéraux, mais aussi des composants bioactifs essentiels, comme des anticorps, des cellules immunitaires, des oligosaccharides (un groupe de sucres complexes et divers) et des microorganismes vivants.

Parce que le lait maternel est loin d’être stérile : il abrite des centaines d’espèces bactériennes qui contribuent activement à l’établissement du microbiome intestinal du bébé (sachant que le microbiome correspond à l’ensemble des génomes des microbes qui constituent le microbiote présent dans ou sur un organisme vivant, ndlr).

Les bactéries dont le bébé hérite par le lait maternel

Chez de nombreux nouveau-nés, en particulier pendant les premiers mois de vie, le lait maternel constitue la principale, voire parfois la seule source de microorganismes intestinaux. Il contient principalement des bactéries des genres Staphylococcus et Streptococcus, ainsi que d’autres, issues des genres Lactobacillus, Bifidobacterium, Veillonella ou Escherichia.

Une étude récente a analysé des échantillons de lait maternel et de selles de nourrissons provenant de 195 couples mère-bébé aux États-Unis pendant les six premiers mois suivants la naissance. Les résultats ont montré que le lait et l’intestin des bébés âgés d’un mois étaient dominés par des bifidobactéries, en particulier Bifidobacterium longum, Bifidobacterium breve et Bifidobacterium bifidum. Des bactéries associées à la peau maternelle, comme Staphylococcus epidermidis et Cutibacterium acnes, ainsi que des espèces liées à la cavité buccale, à l’image de Streptococcus salivarius, ont également été détectées dans le lait. D’autres bactéries telles que Escherichia coli, Bacteroides fragilis, Phocaeiola vulgatus et Phocaeiola dorei étaient également présentes dans l’intestin du bébé, ainsi que des microorganismes typiques de la bouche, comme Veillonella.


À lire aussi : Des milliers de virus issus du microbiote dans les selles de bébés


Cette recherche a identifié jusqu’à douze souches bactériennes communes au lait maternel et aux selles du nourrisson. L’espèce la plus fréquente était Bifidobacterium longum, suivie de Bifidobacterium infantis, Staphylococcus epidermidis, Bifidobacterium breve et Streptococcus salivarius. D’autre part, les bébés nourris exclusivement au lait maternel présentaient une plus grande abondance de bifidobactéries intestinales que ceux pour qui l’allaitement exclusif avait été interrompu avant l’âge de six mois, ce qui suggère que l’allaitement prolongé favorise la persistance et l’expansion de ces bactéries.


À lire aussi : Alimentation du bébé : à quel âge commencer la diversification ?


Cependant, la présence de ces microorganismes dans le lait ne garantit pas à elle seule leur implantation dans l’intestin du bébé. Des facteurs comme le microbiote préexistant, la génétique de l’hôte ou la disponibilité des nutriments influencent le succès de la colonisation, ce qui suggère que sont à l’œuvre des mécanismes plus complexes qu’un simple transfert microbien.

L’échange de bactéries entre la mère et le nourrisson est plus intense au cours du premier mois de vie et diminue avec le temps. De plus, les enfants nés par voie basse présentent une plus grande persistance des souches partagées que ceux nés par césarienne, dont le microbiome intestinal a tendance à être plus diversifié mais moins stable.

Enfin, il a également été observé que la mère et le bébé partageaient des bactéries typiquement buccales, telles que Rothia mucilaginosa et Streptococcus salivarius. Cela suggère que certaines espèces pourraient d’abord coloniser la cavité buccale du nourrisson avant d’atteindre son intestin, ou que le bébé lui-même contribue à la colonisation microbienne du lait peu après sa naissance.

Un dialogue bidirectionnel

Au-delà du transfert de bactéries, le lait maternel module activement le microbiome infantile grâce à d’autres composants. Les oligosaccharides, par exemple, favorisent sélectivement la croissance de bactéries bénéfiques, telles que Bifidobacterium, Bifidobacterium, Bacteroides et Akkermansia. En ce sens, le lait agit simultanément comme un probiotique (il apporte des microorganismes vivants) et un prébiotique (il fournit des éléments alimentaires utilisés par les bactéries).

Une deuxième étude, menée auprès de 152 couples mères-enfants au Burkina Faso, a analysé dans le temps des échantillons de selles maternelles, de lait et de selles infantiles, durant la grossesse et jusqu’à six mois après l’accouchement. Ce travail de recherche a montré que la richesse microbienne de l’intestin du bébé est très faible par rapport à celle de la mère, tandis que le microbiote du lait présente une grande variabilité entre les femmes et constitue une véritable « signature microbienne » individuelle.

Ses résultats ont révélé une corrélation entre le microbiote intestinal du bébé et la composition du lait maternel. Il est intéressant de noter que les nourrissons présentant une plus grande diversité bactérienne intestinale avaient des mères dont le lait contenait des niveaux plus élevés de macronutriments, de minéraux, de vitamines du groupe B et une grande variété de métabolites. En particulier, les oligosaccharides du lait variaient en fonction du microbiote du bébé au cours des premiers mois de vie. La composition de l’aliment n’est donc pas toujours la même, mais change pendant la période d’allaitement, en fonction du microbiote du bébé.

Cela suggère que le lait maternel influence non seulement le microbiome du nourrisson, mais qu’il y réagit également. Parmi les mécanismes possibles, on peut citer les signaux provenant des métabolites bactériens du bébé, le transfert de bactéries buccales pendant la succion ou les réponses immunitaires maternelles induites par le microbiote infantile.

L’allaitement comme système de communication biologique

Dans l’ensemble, ces études démontrent que la relation entre la mère et le bébé pendant l’allaitement est profondément bidirectionnelle. Le microbiote intestinal et lacté maternel, ainsi que les oligosaccharides, les nutriments et les métabolites du lait, s’adaptent de manière dynamique au développement et à l’état du microbiome de l’enfant.

L’allaitement n’est plus considéré comme un processus unidirectionnel de nutrition, mais comme un système de communication en temps réel entre deux organismes interdépendants. Le lait maternel n’est pas seulement un aliment : c’est un langage biologique qui évolue avec le bébé et qui permet à la mère d’adapter finement sa composition aux besoins de développement de l’enfant.


La version originale de cet article a été publiée sur microBIO, le blog de l’auteur.


The Conversation

Ignacio López-Goñi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 15:01

Chez le poulain, le lien maternel est un moteur du développement social et cérébral – nouvelle étude

Mathilde Valenchon, Chercheuse en Ethologie, Inrae
David Barrière, Chargé de recherche, Centre national de la recherche scientifique (CNRS)
Une nouvelle étude montre comment la présence prolongée de la mère façonne le développement comportemental, physiologique et cérébral des poulains.
Texte intégral (1629 mots)
Les interactions entre les poulains et leurs mères ont des implications sur leur comportement, sur leur physiologie et sur leur développement cérébral. © UMR PRC INRAE-CNRS-Université de Tours, M. E. Le Bachelier de la Rivière., Fourni par l'auteur

Une nouvelle étude montre comment la présence prolongée de la mère façonne le développement comportemental, physiologique et cérébral des poulains.


Chez les mammifères sociaux, les relations sociales jouent un rôle déterminant dans le développement. On sait depuis longtemps que la période autour de la naissance est cruciale, lorsque le nouveau-né dépend entièrement de son ou de ses parent(s) pour se nourrir et se protéger. En revanche, ce qui se joue après, lorsque le jeune n’est plus physiquement dépendant de sa mère mais continue de vivre à ses côtés, reste encore mal compris.

Dans une étude récente publiée dans Nature Communications, nous avons exploré chez le cheval cette période souvent négligée du développement. Nos résultats montrent que la présence prolongée de la mère façonne à la fois le cerveau, le comportement
– social en particulier – et la physiologie des poulains.

Pourquoi s’intéresser à l’« enfance » chez le cheval ?

Le cheval est un modèle particulièrement pertinent pour étudier le rôle du lien parental sur le développement des jeunes. Comme chez l’humain, les mères donnent généralement naissance à un seul petit à la fois, procurent des soins parentaux prolongés et établissent un lien mère-jeune fort sur le plan affectif, individualisé et durable.

Dans des conditions naturelles, les poulains restent avec leur groupe familial, et donc avec leur mère, jusqu’à l’âge de 2 ou 3 ans. En revanche, en élevage ou chez les particuliers, la séparation est le plus souvent décidée par l’humain et intervient bien plus tôt, autour de 6 mois. Ce contraste offre une occasion unique d’étudier l’impact de la présence maternelle sur le développement au-delà de la période néonatale.

Comment étudier de rôle d’une présence maternelle prolongée chez le cheval ?

Pour isoler l’effet de la présence maternelle, nous avons suivi 24 poulains de l’âge de 6 à 13 mois. Cette période peut être assimilée à celle de l’enfance chez l’être humain. En effet, durant cette période, les poulains ressemblent déjà physiquement à de petits adultes, apparaissent autonomes dans leurs déplacements et consomment très majoritairement des aliments solides, tout en étant encore sexuellement immatures. En d’autres termes, leur survie immédiate ne dépend plus directement de la mère.

Dans notre étude, tous les poulains vivaient ensemble dans un contexte social riche, avec d’autres jeunes et des adultes. La seule différence concernait la présence ou non de leurs mères respectives à partir de l’âge de 6 mois : ainsi, 12 poulains sont restés avec leur mère tandis que 12 autres en ont été séparés, comme c’est fréquemment le cas en élevage.

Durant les sept mois qui ont suivi, nous avons étudié le développement de ces poulains. En éthologie, les comportements sont étudiés de façon quantitative. Nous avons suivi le développement comportemental des poulains à l’aide d’observations et de tests comportementaux standardisés, puis analysé statistiquement ces données pour comparer leurs trajectoires développementales. Ces données ont été complétées par des mesures physiologiques régulières (par exemple, la prise de poids, les concentrations hormonales) et par une approche d’imagerie par résonance magnétique (IRM) pour visualiser les différences fonctionnelles et morphologiques entre nos deux groupes de poulains de manière non invasive.


À lire aussi : Les chevaux nous reconnaissent-ils ?


La présence de la mère favorise l’émergence des compétences sociales

Les résultats issus de nos observations répétées dans le temps montrent que les poulains bénéficiant de la présence de leur mère interagissaient davantage avec leurs congénères, notamment à travers des comportements positifs, comme le jeu ou le toilettage mutuel, que les poulains séparés de leurs mères. Ils se montraient aussi plus explorateurs et plus à l’aise face à des situations sociales nouvelles, suggérant une plus grande sociabilité.

Autre résultat intéressant, les poulains bénéficiant de la présence de leur mère passaient moins de temps à manger mais prenaient plus de poids, suggérant une croissance plus efficace.

Le lien maternel, moteur du développement du cerveau

Pour aller plus loin, nous avons combiné ces observations comportementales avec une approche encore rare chez les animaux d’élevage : l’imagerie médicale. Ici nous avons utilisé des techniques d’IRM, permettant d’observer le fonctionnement et l’organisation du cerveau vivant, sans douleur. Ainsi, nous avons pu caractériser le développement cérébral de nos poulains.

« Comprendre l’IRM en deux minutes ». Source : Institut du cerveau — Paris Brain Institute.

Cette approche nous a permis d’identifier, pour la première fois chez le cheval, un réseau cérébral appelé le réseau du mode par défaut. Bien connu chez l’humain et identifié chez une poignée d’autres espèces animales, ce réseau serait impliqué dans l’intégration des pensées introspectives, la perception de soi et des autres. Chez les poulains ayant bénéficié d’une présence maternelle prolongée, ce réseau était plus développé, faisant écho aux meilleures compétences sociales que nous avons observées.

En outre, nous avons observé des différences morphologiques dans une région fortement impliquée dans la régulation physiologique, l’hypothalamus, en lien avec les différences physiologiques et de comportement alimentaire mises en évidence.

Une phase clé du développement aux effets multidimensionnels

Pris dans leur ensemble, nos résultats soulignent l’importance de cette phase du développement, encore peu étudiée chez l’animal, située entre la petite enfance et l’adolescence.

Ils suggèrent que la présence maternelle prolongée induit un développement comportemental, cérébral et physiologique plus harmonieux, qui pourrait contribuer à équiper les jeunes pour leur vie adulte future, notamment dans le domaine de compétences sociales.

Quelles implications pour l’élevage… et au-delà ?

Notre travail ne permet pas de définir une règle universelle sur l’âge idéal de séparation chez le cheval. Il montre en revanche que la séparation précoce a des conséquences mesurables, bien au-delà de la seule question alimentaire.

Lorsque les conditions le permettent, garder plus longtemps le poulain avec sa mère pourrait donc constituer un levier simple et favorable au développement du jeune. Cependant, d’autres études sont nécessaires pour évaluer l’impact de ces pratiques sur les mères et les capacités de récupération des poulains après la séparation, par exemple.

Avec grande prudence, ces résultats font aussi écho à ce que l’on observe chez d’autres mammifères sociaux, y compris l’humain : le rôle du parent ou de la/du soignant·e (« caregiver ») comme médiateur entre le jeune et son environnement social et physique pourrait être un mécanisme largement partagé. Le cheval offre ainsi un modèle précieux pour mieux comprendre comment les premières relations sociales façonnent durablement le cerveau et le comportement.

The Conversation

Cette étude a été financée grâce à une bourse européenne HORIZON 2020 Marie Skłodowska-Curie Actions (MSCA) (ref: 101033271, MSCA European Individual Fellowship, https://doi.org/10.3030/101033271) et au Conseil Scientifique de l'Institut Français du Cheval et de l’Equitation (IFCE) (ref: DEVELOPPEMENTPOULAIN).

David Barrière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 14:58

Victoire démocrate à Miami : signe annonciateur d’un essoufflement du trumpisme ou épiphénomène ?

Jonathan Leblanc, Doctorant au centre d’histoire culturelle des sociétés contemporaines (CHCSC), Université de Versailles Saint-Quentin-en-Yvelines (UVSQ) – Université Paris-Saclay
Si la victoire démocrate à Miami suggère une poussée électorale, le cas très spécifique de la ville et de la Floride tempère les lectures nationales.
Texte intégral (2224 mots)

L’élection d’une candidate démocrate à la mairie de Miami, ville acquise au Parti républicain depuis presque trente ans, a été saluée par les poids lourds du Parti démocrate, qui veulent y voir la preuve que leur formation a le vent en poupe en vue des midterms de novembre prochain. À y regarder de plus près, la grande ville de Floride constitue en réalité un cas très particulier, et il est risqué de tirer des enseignements nationaux de son scrutin local.


En décembre dernier, Eileen Higgins a été élue maire de Miami. Ce résultat est historique à plusieurs égards : elle sera la première femme à diriger la ville et la première démocrate depuis vingt-huit ans. Surtout, elle a remporté la victoire dans un comté (Miami-Dade, où se trouve la municipalité de Miami) et un État (la Floride) souvent considérés comme des bastions du trumpisme.

Officiellement non partisane, l’élection municipale aurait pu passer inaperçue. Mais Eileen Higgins a revendiqué son étiquette démocrate durant son affrontement avec Emilio Gonzalez, candidat soutenu par Donald Trump. Dans un contexte marqué par des succès démocrates récents en Virginie et au New Jersey, cette victoire a ravivé l’idée d’un possible regain de popularité du parti. Elle invite pourtant à une lecture plus nuancée, notamment à travers le prisme de l’analyse du vote hispanique et des spécificités de la Floride.

« La Gringa » face à un candidat hispanique

Bien implantée localement, Higgins, 61 ans, est surnommée « la Gringa », un terme parfois péjoratif en espagnol pour désigner les Américains blancs, mais employé ici de manière presque affectueuse. Une étiquette qu’elle assume pleinement, comme elle l’a confié à l’Associated Press :

« Cela aide simplement les gens à comprendre qui je suis, et vous savez quoi ? Je suis une gringa, alors qu’est-ce que je vais faire, le nier ? »

Non hispanique, cette ingénieure de formation, ancienne directrice au Belize du Peace Corps (une agence publique états-unienne destinée à soutenir les pays en développement), parle pourtant un excellent espagnol. Cela a sans doute joué en sa faveur dans un comté où 70 % de la population est hispanique et environ 35 % est d’origine cubaine. Elle est ainsi parvenue à s’imposer face à un adversaire républicain d’origine cubaine.

Une campagne municipale fortement nationalisée

Si Higgins est une figure locale, sa campagne a rapidement pris une dimension nationale. Elle a bénéficié du soutien de plusieurs poids lourds démocrates : Rahm Emanuel, ancien maire de Chicago et ex-chef de cabinet de Barack Obama ; Pete Buttigieg, secrétaire aux transports dans l’administration Biden et candidat aux primaires démocrates de 2020 ; ainsi que Ruben Gallego, élu de l’Arizona et représentant d’une nouvelle génération de leaders latino-américains du parti.

En face, Emilio Gonzalez disposait lui aussi d’un profil national affirmé : cet ancien colonel de l’US Air Force est proche de la Maison Blanche sous la présidence de Trump (il a notamment cofondé le mouvement Veterans for Trump et occupe aujourd’hui un poste au sein de l’America First Policy Institute, un think tank aligné sur les orientations MAGA). En plus du soutien du président, Gonzalez a reçu celui de Ron DeSantis, gouverneur républicain de l’État, et du sénateur texan Ted Cruz.

Cette nationalisation s’est traduite dans les discours. Higgins n’a pas évité les lignes de fracture, déclarant notamment à propos de Donald Trump : « Lui et moi avons des visions très différentes de la manière dont nous devrions traiter nos habitants, dont beaucoup sont des immigrés », et allant jusqu’à qualifier la politique migratoire de l’administration Trump d’« inhumaine et cruelle ».

Miami-Dade : du bastion démocrate au symbole trumpiste

Pendant des décennies, le comté de Miami-Dade a constitué un pilier démocrate en Floride, votant « bleu » à chaque présidentielle depuis 1988, avec un point culminant en 2016, lorsque Hillary Clinton s’y est imposée avec près de 30 points d’avance. Mais l’écart s’est progressivement réduit. En 2020, Joe Biden ne s’y imposait plus que de justesse (53 %) avant que Donald Trump ne fasse basculer le comté en 2024 avec environ 55 % des voix.

Résultats des scrutins présidentiels de 2000 à 2024. Fourni par l'auteur

Ce basculement s’explique notamment par la mobilisation en faveur de Trump d’une partie des membres des communautés hispaniques – spécialement les communautés cubaine, vénézuélienne et nicaraguayenne – sensibles à sa rhétorique antisocialiste. En liant la politique étrangère, l’immigration et l’identité politique, les républicains (Republican Party) ont construit un récit particulièrement efficace à Miami. Guillermo Grenier, professeur à la Florida International University et spécialiste de la communauté cubaine, résume ainsi cette dynamique :

« Ce message résonne davantage dans le sud de la Floride. C’est comme crier dans une église : l’écho est immédiat. Cela continue d’attiser les passions chez les électeurs cubains. »

Face à cette évolution, les démocrates ont progressivement réduit leurs investissements en Floride, un État jugé trop coûteux et difficile à reconquérir, choisissant de les redéployer ailleurs. Une forme de reddition stratégique critiquée par certains responsables locaux du parti, qui dénoncent, par la voix de Jimmy Torres Vélez, vice-président du National Puerto Rican Agenda (NPRA, une alliance non partisane regroupant des organisations, des élus, des leaders communautaires et des bénévoles de la diaspora portoricaine aux États-Unis), un cercle vicieux :

« C’est une mentalité étrange qui consiste à dire : “J’investis seulement si je gagne.” Mais si vous n’investissez pas, vous ne pouvez pas gagner. Abandonner la Floride ne fait que renforcer la dynamique adverse. »

Le pragmatisme des électeurs

L’élection municipale de Miami montre toutefois les limites de ce cadrage idéologique face aux réalités du quotidien. La campagne a en effet été dominée par les sujets de l’inflation, du coût de la vie, du logement et des assurances. En 2024, Miami affichait la plus forte inflation interannuelle parmi les grandes métropoles américaines.

La flambée des prix immobiliers, accentuée depuis la pandémie, qui a vu de nombreux Américains aisés s’installer à Miami, influencés par les lois laxistes de confinement en vigueur en Floride, pèse lourdement sur les ménages : près de la moitié d’entre eux consacrent une part excessive de leurs revenus au logement. À cela s’ajoute le coût des assurances, particulièrement élevé dans une région exposée aux ouragans et aux inondations, où les primes peuvent représenter près de 19 % d’une mensualité hypothécaire, contre environ 10 % à l’échelle nationale.

Même les produits du quotidien sont devenus des marqueurs politiques. La hausse du prix du café, symbole culturel fort pour les communautés hispaniques, notamment la communauté cubaine, illustre concrètement la dégradation du pouvoir d’achat, alimentée en partie par les droits de douane qu’a promulgués l’administration Trump.

Dans ce contexte, les démocrates ont mis en avant la responsabilité des républicains, qui contrôlent l’ensemble des leviers du pouvoir en Floride comme au niveau fédéral. « Le résultat de ce soir est un nouveau signal d’alarme pour les républicains, montrant que les électeurs en ont assez de politiques déconnectées de la réalité et qui font grimper les coûts », a déclaré Ken Martin, le président du Comité national démocrate.

Enfin, les politiques migratoires restrictives adoptées en Floride ont suscité des inquiétudes concrètes. Leurs effets sur l’économie locale, sur les familles aux statuts mixtes et sur certains secteurs clés ont renforcé une logique de vote pragmatique, centrée sur les conséquences immédiates plus que sur les grands récits idéologiques.

Une victoire symbolique, des enseignements à manier avec prudence

Les succès récents des démocrates ont ravivé l’idée d’un possible regain du parti dans certains territoires jugés difficiles. L’élection de Miami nourrit cette lecture, mais elle appelle à la prudence. Tout d’abord, il s’agit d’une grande ville, et les grandes métropoles des États-Unis ont historiquement tendance à favoriser les démocrates. En ce sens, ce scrutin peut constituer un piège, donnant l’illusion d’un basculement plus large alors que le reste de l’État, plus rural et suburbain, demeure majoritairement républicain.

À ces dynamiques internes s’ajoute une variable incertaine : la politique étrangère, notamment les récents développements au Venezuela, dont l’enlèvement de Nicolas Maduro. À Miami, où les communautés vénézuélienne, cubaine et nicaraguayenne, toutes traditionnellement « antisocialistes », jouent un rôle central, il reste difficile de mesurer l’impact réel que ces événements auront sur les comportements électoraux.

L’enseignement principal du scrutin reste la volatilité de l’électorat hispanique, très pragmatique. Même dans la ville de Miami, longtemps considérée comme un bastion républicain, des signes d’érosion apparaissent, en partie à cause de la hausse des prix quotidiens. Comme l’a résumé la représentante républicaine Maria Elvira Salazar :

« Le vote hispanique n’est pas acquis. Les Hispaniques ont épousé Donald Trump, mais ils ne font que “fréquenter” le Parti républicain. »

À Miami comme ailleurs, cet électorat reste mouvant, attentif aux enjeux concrets, et loin d’être définitivement acquis à un camp.

The Conversation

Jonathan Leblanc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 14:58

L’agriculture verticale peut-elle nourrir les villes ? Comment dépasser le mirage technologique

Marie Asma Ben-Othmen, Enseignante-chercheuse en Economie de l'environnement & Agroéconomie, Responsable du Master of Science Urban Agriculture & Green Cities, UniLaSalle
La promesse de produire bio, local, en intérieur, hors sols et dans des milieux totalement contrôlés est séduisante. Mais les défis sont nombreux pour que cela soit viable et durable.
Texte intégral (1520 mots)

L’agriculture verticale a longtemps été présentée comme une solution miracle pour nourrir les mégapoles tout en réduisant leur empreinte environnementale. Mais derrière les promesses high-tech, la réalité est contrastée. Entre des succès spectaculaires en Asie et des faillites retentissantes en Europe et aux États-Unis, le modèle cherche encore sa voie.


L’agriculture verticale repose sur une idée simple : produire en intérieur et hors-sol, dans des milieux totalement contrôlés, y compris la lumière, la température, l’humidité et les nutriments, sur de vastes étagères en hauteur, au cœur des villes. À première vue, ses avantages paraissent irrésistibles. Sans pesticides, ce mode de culture consomme jusqu’à 90 % d’eau en moins grâce au recyclage – notamment l’hydroponie – et peut fonctionner 365 jours par an, avec un rendement élevé, sans dépendre des caprices du climat. Il offre ainsi la promesse d’une production fraîche et locale, directement connectée aux circuits courts.

Cet horizon a suscité un engouement mondial. Le Japon, avec la société Spread, a automatisé la production de salades indoor sur de vastes étagères, dans des univers aseptisés, à l’échelle industrielle. Singapour a inscrit les fermes verticales au cœur de son objectif « 30 by 30 », visant à couvrir localement 30 % de ses besoins alimentaires d’ici à 2030. Les pays du Golfe, comme les Émirats arabes unis et le Koweït, confrontés à la rareté des terres arables, y voient un outil stratégique alors que, aux États-Unis, des start-up ont levé des centaines de millions de dollars sur la base d’une vision d’un futur alimentaire ultratechnologique. Mais des échecs cuisants mettent aussi en évidence les limites du modèle, qui peu à peu tente de se réinventer pour y répondre.

Les ingrédients du succès

Les fermes verticales qui fonctionnent vraiment partagent un point commun : elles naissent dans des contextes où elles répondent à un besoin structurel. Dans les régions où la terre est rare, chère ou aride, la production en hauteur – ou à la verticale – répond efficacement aux contraintes géographiques.

À Singapour ou à Dubaï, par exemple, l’État joue un rôle déterminant en soutenant financièrement les infrastructures, en réduisant les risques d’investissement et en intégrant ces technologies dans les stratégies alimentaires nationales.

La réussite de ces modèles tient aussi à leur insertion dans les dynamiques locales. En effet, à Dubaï, les fermes verticales ne se contentent pas de produire, mais contribuent également à la sécurité alimentaire, à la formation technique, à l’emploi qualifié et à la sensibilisation des citoyens.

L’île-ville de Singapour s’appuie par ailleurs sur des technologies hydroponiques et aéroponiques avancées, avec des tours agricoles intégrés au bâti urbain. Ceci illustre l’adaptation de l’agriculture aux contraintes foncières et urbaines. Les progrès technologiques, notamment l’éclairage LED à haut rendement, l’automatisation poussée et l’IA permettant d’optimiser la croissance des plantes, améliorent la performance des modèles les mieux conçus.

Malgré des défis (coûts énergétiques, fragilité économique), ces fermes continuent aujourd’hui d’être considérées comme un « modèle d’avenir » pour des villes-États densément peuplées, ce qui montre que l’initiative s’inscrit dans une politique de long terme plutôt qu’à titre de simple effet de mode.

Coût, énergie et dépendance au capital-risque

Malgré ces succès, de nombreux projets ont échoué et révélé les fragilités d’un modèle bien moins robuste qu’il y paraît.

Le premier obstacle est énergétique. Éclairer, climatiser et faire fonctionner une installation entièrement contrôlée demande une quantité importante d’électricité, ce qui rend l’activité coûteuse et parfois peu écologique lorsque l’énergie n’est pas décarbonée.

Le second obstacle est économique : les marges sur les herbes aromatiques ou les salades sont faibles, et le modèle dépend souvent du capital-risque plutôt que de revenus stables. C’est ce qui a précipité les difficultés d’Infarm en Europe et d’AeroFarms aux États-Unis.

Certaines fermes se sont également retrouvées déconnectées des besoins alimentaires locaux, produisant des volumes ou des produits qui ne répondaient pas aux attentes des territoires. Le modèle, mal ancré localement, devient alors vulnérable à la moindre fluctuation des marchés financiers ou énergétiques.

De nouveaux modèles en développement

Face à ces limites, une nouvelle génération de projets émerge, cherchant à combiner technologie, intégration et demande urbaine au moyen de modèles de microfermes verticales adossées à des supermarchés, garantissant la fraîcheur, la visibilité et une réduction des coûts logistiques.

D’autres initiatives explorent les synergies énergétiques, en couplant production alimentaire et récupération de chaleur de data centers, en développant des serres photovoltaïques ou en utilisant des réseaux de chaleur urbains.

Les fermes verticales évoluent aussi vers des fonctions plus pédagogiques et démonstratives : même après sa faillite, une partie du modèle Infarm continue d’inspirer des fermes urbaines où la production sert autant à sensibiliser les citoyens qu’à fournir des produits frais. Ces approches hybrides témoignent d’une maturité croissante du secteur, qui privilégie moins la production de masse que la pertinence territoriale.

Vers une agriculture verticale plus durable ?

Pour devenir un levier crédible de la transition alimentaire, l’agriculture verticale doit clarifier sa finalité. Produire davantage ne suffit pas : il s’agit de contribuer à la résilience alimentaire des villes, d’offrir une complémentarité avec les agricultures urbaines plus « horizontales », telles que les toits productifs, les ceintures maraîchères ou les jardins partagés, et de s’inscrire dans les politiques alimentaires territoriales.

En particulier, les projets alimentaires territoriaux (PAT) peuvent, par leur ambition, fédérer les différents acteurs du territoire autour de l’alimentation. Ils jouent un rôle clé pour intégrer ces dispositifs de manière cohérente, en les articulant avec les enjeux de nutrition, d’accessibilité, de distribution et d’éducation. L’agriculture verticale ne deviendra durable que si elle est pensée dans une logique systémique, sobre sur le plan énergétique, ancrée localement et compatible avec les objectifs climatiques.

Loin d’être la panacée, elle est en revanche un laboratoire d’innovation. Là où elle réussit, c’est parce qu’elle s’inscrit dans une vision systémique de la transition alimentaire, combinant technologie, gouvernance territoriale et sobriété énergétique. Son avenir dépendra moins de la hauteur des tours que de la manière dont elle s’imbrique dans les territoires et contribue à renforcer la capacité des villes à se nourrir face aux crises climatiques et géopolitiques.

The Conversation

Marie Asma Ben-Othmen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 12:17

La solitude des étudiants décrocheurs : quelques mois de formation et déjà face à l’échec

Sandra Gaviria, Professeure de sociologie, Université Le Havre Normandie
Le début des études supérieures n’est pas seulement un cap vers l’autonomie, cela peut être aussi une période de vulnérabilité, surtout si les choix d’orientation sont décevants.
Texte intégral (1661 mots)

Le début des études supérieures n’est pas seulement un cap vers l’autonomie, cela peut être aussi une période de vulnérabilité, surtout lorsque les jeunes découvrent que les choix d’orientation faits en terminale ne correspondent pas à leurs attentes réelles. Se réorienter reste une épreuve, pour eux comme pour leurs familles. Explications.


Trois ans après leur première inscription en licence en 2020-2021, seuls 55 % des bacheliers sont encore en licence. Autrement dit, près d’un jeune sur deux connaît, à un moment de son cursus, une interruption, un réajustement de parcours ou une situation d’échec. Durant cette période, les sentiments éprouvés comme les solutions envisagées tendent à s’individualiser : chacun affronte seul ses doutes, ses inquiétudes et la recherche de voies possibles pour rebondir.

Au bout de quelques mois, les désillusions émergent, la solitude dans le logement ou dans l’établissement peut devenir pesante. Chaque année, en fin de premier semestre, « les décrocheurs », ces étudiants qui découvrent que la formation obtenue via Parcoursup ne correspond pas à leurs attentes ou qui ne se sentent pas bien dans leur vie étudiante, refont surface. Les notes, les partiels et les premiers bilans les obligent à se rendre à l’évidence.

Les établissements mettent en place de nouvelles initiatives pour essayer d’y remédier. Plusieurs travaux ont montré que ce phénomène ne peut être réduit à un simple échec scolaire, d’autres facteurs étant en jeu. En effet, il s’agit d’un phénomène souvent multicausal, où plusieurs éléments se conjuguent au cours de ces premiers mois d’études.

Des démarches de réorientation complexes

Pour une partie de ces jeunes femmes et de ces jeunes hommes commence alors la longue et souvent complexe démarche de réorientation. D’autres entrent dans une période d’attente indéterminée, sans véritable projet, dans l’espoir diffus de trouver leur voie, leur place ou simplement une direction. Cela s’accompagne du sentiment de « ne servir à rien », l’impression de ne pas avoir une place dans ce monde. Marie, 20 ans, explique son ressenti après trois mois passés à Sciences Po :

« J’ai eu tout le temps de me rendre compte que les cours ne m’intéressaient pas autant que ce que je pensais et, en plus, qu’il n’y avait pas la vie étudiante ou les associations à côté pour compenser. En janvier, j’ai décidé d’arrêter les cours à Sciences Po et, à ce moment-là, ce n’était pas très marrant. C’était, je pense, un début de dépression, où j’avais l’impression que rien n’avait de sens, ni les études ni la société. »

Pour certains jeunes, ces doutes s’ajoutent à des contextes personnels déjà fragiles, marqués par des problèmes familiaux, des difficultés matérielles, des histoires personnelles difficiles ou un mal-être antérieur qui empêche d’avancer dans les études. C’est aussi le moment où des fragilités du passé peuvent refaire surface. Carine, inscrite en sciences du langage, aujourd’hui infirmière, l’explique :

« Alors, moi, j’avais demandé les écoles d’infirmière dès la fin du bac, sauf que j’étais sur liste d’attente, et je ne me voyais pas faire autre chose que ça… J’avais une inscription à l’université, sauf que moi, je suis dyslexique et dysorthographique, du coup, je savais que j’allais décrocher tout de suite… Enfin, après, ça dépend des endroits, mais je savais qu’il y aurait eu trop de monde et que ça n’allait pas le faire au niveau de mon apprentissage. »

Le difficile repérage des jeunes en difficulté

Si le phénomène du décrochage est visible et comptabilisé statistiquement, les solutions restent encore limitées pour ces jeunes qui sortent du cadre des études après seulement quelques mois. Lorsqu’ils abandonnent leurs études supérieures, les parcours deviennent difficilement lisibles. Certains s’engagent dans un service civique, d’autres se retrouvent dans la catégorie des « NEET » (« not in employment education or training », « ni en emploi, ni en formation, ni en études »).

Cette répartition entre différentes catégories statistiques ne permet pas un réel suivi des trajectoires. Le repérage de ces jeunes reste difficile, en particulier lorsqu’ils ne sollicitent aucun dispositif d’accompagnement public. Certains peuvent se réorienter, mais devront « rattraper » le travail du premier semestre au second semestre. Les dispositifs sont souvent complexes à mobiliser, peu visibles, ou trop tardifs pour répondre à cette période de vide existentiel et de sentiment d’échec.


À lire aussi : Choix d’études, orientation professionnelle : « Donnons aux jeunes le droit de se tromper »


À l’incertitude vécue par les étudiants s’en ajoute une autre, plus silencieuse, qui touche leurs parents. Après une année de terminale éprouvante, marquée par la pression du bac – où leurs enfants avaient eu le sentiment de « jouer leur vie » à chaque épreuve, les choix imposés par Parcoursup et la crainte de l’échec, ils se retrouvent face à leurs enfants en souffrance, qui doutent de leur vie et d’eux-mêmes.

Commence un temps où chacun tente de savoir s’il faut encourager la poursuite des études, accompagner un changement de filière ou financer (pour ceux qui le peuvent) une année dans l’attente d’un nouveau projet.

Des différences de ressources sociales

Les enquêtes soulignent la diversité des trajectoires de ces jeunes et mettent en évidence le rôle du milieu social dans la probabilité de décrocher ou, au contraire, de poursuivre des études supérieures. Les ressources familiales, les histoires personnelles et la capacité à se projeter dans l’avenir façonnent des parcours profondément différents.

Il y a une individualisation dans la recherche des solutions. Pour ceux qui sont dotés de ressources économiques et culturelles suffisantes, des alternatives sont envisagées : une prépa privée, une école hors Parcoursup. Trouver la bonne option devient un parcours assez solitaire, où les ressources relationnelles et économiques sont mobilisées pour commencer la chasse aux informations. Ainsi, ces jeunes accompagnés par leurs familles concoctent des recettes variées où interviennent de multiples professionnels, tels que psys, coachs en orientation…

Pour les autres, issus de milieux moins bien dotés, la situation est plus difficile. Les jeunes risquent de se retrouver sans solution claire, oscillant entre petits boulots précaires (le temps de trouver ce qu’ils veulent faire), longues périodes d’attente et, pour une minorité, l’accompagnement des structures du service public.

Un manque de lisibilité des dispositifs

Nous observons la difficulté de tous les parents face à l’impossibilité pour leurs enfants de réaliser leurs projets. Certains n’ont pas les compétences ni les moyens pour les accompagner, d’autres pas d’idées ou de connaissance des dispositifs. Les jeunes, de leur côté, ont aussi des souffrances communes telles que se sentir « en dehors du tapis roulant », à l’arrêt dans la course collective et étant en « retard » par rapport aux autres.

L’analyse de l’abandon après ces premiers mois dans l’enseignement supérieur met en lumière le manque de lisibilité des dispositifs d’accompagnement des jeunes qui n’ont pas trouvé leur voie ou n’ont pas pu accéder à leurs vœux. Pour une partie d’entre eux, cette période restera celle d’un simple ajustement. Pour d’autres, elle marque la première rupture d’un parcours plus long et irrégulier. Cette période entraîne, parfois, une accentuation de leurs dépendances – alcool, drogues, jeux vidéo – et de l’incertitude sur le long terme.

Le début des études supérieures n’est pas seulement le début de l’autonomie, mais aussi un temps de vulnérabilité sous-estimé. Le sentiment d’échec face aux études cristallise l’ensemble des insécurités des jeunes et les plonge dans l’impression d’être seuls face au monde. Ils ont le sentiment que les autres avancent tandis qu’eux restent à l’arrêt, sans possibilité de se projeter, uniquement traversés par des questions : qu’est-ce que j’aime ? Qu’est-ce que je peux faire ? Comment puis-je réussir ?

The Conversation

Sandra Gaviria ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 11:14

Les performances RSE des entreprises françaises nourries par la recherche de résilience

Hugues Poissonnier, Professeur d'économie et de management, Directeur de la Recherche de l’IRIMA, Membre de la Chaire Mindfulness, Bien-Etre au travail et Paix Economique, Grenoble École de Management (GEM)
La permacrise avec laquelle les entreprises doivent composer les incite à redoubler d’efforts en matière de RSE, véritable moyen de réduire certains risques.
Texte intégral (1708 mots)

Les pratiques en matière de responsabilité sociétale des entreprises françaises progressent. En particulier, les efforts en direction des fournisseurs. Les plus critiques trouveront qu’au regard de l’urgence des objectifs, cela va trop lentement. Les plus optimistes noteront que les choses bougent dans le bon sens.


Publiée en octobre 2025, la sixième édition de l’étude réalisée par le médiateur des entreprises et la plateforme de notation Eco Vadis, intégrant en plus de la photographie habituelle une analyse dynamique fondée sur cinq années de données (2020-2024), témoigne pour l’essentiel de la poursuite des tendances observées à l’occasion des éditions précédentes (tous les deux ans depuis 2015).

Concernant la France, l’échantillon utilisé pour l’étude était constitué de toutes les entreprises françaises de 25 salariés et plus, évaluées par EcoVadis. Soit pour cette nouvelle édition : 9 372 entreprises françaises étudiées sur cinq ans, dont 5 576 avec une évaluation RSE en 2024. Au-delà de la taille de l’échantillon, constituant l’un des principaux atouts de l’étude, la méthodologie, validée depuis une dizaine d’années, repose sur des analyses statistiques poussées permettant de faire émerger des enseignements clairs et précis sur plusieurs dimensions (nationalités et tailles d’entreprises, axes principaux de la RSE…).

De réels progrès

Un certain nombre de progrès sont ainsi clairement identifiés sur chacune des grandes dimensions appréhendées par l’étude, tant au niveau international que dans le cas précis des entreprises françaises : environnement, social et droits humains, éthique, et achats responsables. Des disparités sont bien sûr observées entre pays et grands ensembles (OCDE, BICS…).

Si les fameux « Nordics » (Finlande, Suède, Norvège, Danemark et Islande), dont les performances remarquables avaient justifié la création d’une catégorie particulière lors de la précédente étude, sont toujours bien classés et assez largement en avance par rapport aux autres pays (avec un score moyen de 60,2 à comparer à ceux de l’Union européenne, de l’OCDE et des BICS (groupe Brésil, Inde, Chine et Afrique du Sud), respectivement de 57,8, 55,8 et 46,1), les grandes économies que sont la Chine et les États-Unis obtiennent, à travers leurs entreprises, des performances demeurant modestes, avec des scores respectivement de 45,2 et 50,1.


À lire aussi : Société à mission et « B Corp » : quelles conditions de succès ?


Le score des entreprises françaises apparaît, à la lumière des résultats présentés ci-dessus, une nouvelle fois particulièrement remarquable, s’établissant à 60,4, en hausse de 2,8 points par rapport à 2022. Avec ce score, la France se hisse à la troisième place du classement par pays, derrière la Finlande et la Suède, mais devant la Norvège.

Des progrès plus ou moins marqués selon les grandes dimensions de la RSE

Bien sûr, le rythme des progrès réalisés n’est pas le même sur chaque dimension. Un focus sur les performances des entreprises françaises permet notamment de mesurer une progression de 3,7 points depuis 2022 sur la dimension « environnement » (pour un score de 62,0), permettant à la France de prendre la quatrième place du classement sur cette dimension. Avec son score de 63,5 (et une progression de 2,9 points) sur la dimension « social et droits humains », la France conserve, grâce aux politiques et pratiques mises en œuvre par ses entreprises, la deuxième place sur cet axe. Avec un score de 50,8 et une progression de 2,7 points par rapport à 2022, nos entreprises offrent à la France la troisième place du classement sur l’axe « achats responsables ». Enfin, l’« éthique » reste le domaine sur lequel le classement est le moins favorable à la France avec une sixième place obtenue grâce à une note de 54,6 (et une progression de 0,9 point).

Au-delà de ces classements globaux, les performances enregistrées par tailles d’entreprises fournissent d’intéressants constats. Les PME et ETI françaises (25-999 salariés) « surperforment » par rapport aux grandes entreprises, mais aussi par rapport aux progressions de leurs pairs dans d’autres pays (avec une première place atteinte à la fois sur l’axe social et des droits humains et sur l’axe des achats responsables). Ceci témoigne de la diffusion d’une culture RSE dans toute l’économie et non dans les seules grandes entreprises ayant sans doute davantage de moyens à y consacrer.

Les PME premières pour les achats responsables

Sur le score thématique brut, les performances mesurées en matière d’achats responsables des entreprises françaises demeurent en retrait par rapport aux autres dimensions évaluées (avec un score global de 50,8 en progrès de 2,7 points depuis 2022 sur cet axe). Les progrès sont ici massivement le fait des grandes entreprises (gain de 7,3 points pour un score de 58,3), même si les PME et ETI, avec des scores moindres, obtiennent la première place mondiale sur cette catégorie de taille. Ces chiffres témoignent du rôle des achats en tant que « nouvelle frontière », au sens américain du terme, comme nous l’évoquions en janvier 2022 sur le Cercle les Échos.

La véritable montée en maturité en matière de RSE passe désormais principalement par cet axe essentiel consistant à étendre les bonnes pratiques à toute la chaîne de fournisseurs. Il est particulièrement intéressant de noter l’engagement des entreprises françaises en matière de réalisation et de mobilisation d’une cartographie des risques RSE liés aux achats (l’une des dix actions considérées comme essentielles pour un programme d’achats responsables performant). Ainsi, 54 % des grandes entreprises françaises disposaient en 2024 d’une cartographie des risques, contre seulement 47 % des entreprises de même taille dans l’UE, 38 % dans l’OCDE et 20 % chez les BICS.

Ceci témoigne clairement d’une vision très « défensive », alimentée par la volonté de se prémunir, plus qu’ailleurs, des risques en tout genre (géopolitiques, économiques, financiers…) auxquels nos entreprises sont désormais exposées.

Dynamique de progrès

Bien qu’il soit toujours possible de regretter une trop grande lenteur face à l’importance des enjeux, la dynamique de progrès, observée depuis la première étude de 2015, demeure réelle.

Si, sur la période considérée, les valeurs des dirigeants ont peu évolué, le renforcement des contraintes légales (devoir de vigilance, CSRD, CS3D…) a incontestablement joué un rôle très important dans les progrès accomplis par les entreprises françaises sur les quatre grandes dimensions, et, en particulier sur l’axe achats responsables.

Au-delà, ce sont sans doute les intérêts économiques bien compris qui ont le plus contribué aux progrès. De plus en plus, les dirigeants et décideurs sont conscients de la pertinence économique et financière de la RSE et des achats responsables. Il n’existe, en effet, bien souvent pas d’investissement aussi rentable, à long comme à plus court terme, que ceux qui consistent à mieux se comporter, de façon générale, vis-à-vis des parties prenantes au sens large. Ceci est particulièrement vrai en période de crise, et a fortiori face aux difficultés posées par la polycrise et, a fortiori, par la permacrise.

BPI, 2025.

La recherche de résilience requiert la possibilité de s’appuyer sur un écosystème économique robuste et des relations de qualité avec clients, fournisseurs et concurrents, des relations renforcées par les efforts accomplis en matière de RSE. Cet enseignement rejoint d’ailleurs les conclusions de la troisième édition du Baromètre achats responsables « RSE : la parole aux fournisseurs ! », récemment publiée par l’Observatoire de la responsabilité sociétale des entreprises (ORSE), PwC et Bpifrance. Ce dernier met ainsi en lumière plusieurs constats clés, dont l’attente forte de collaboration des fournisseurs qui aspirent à faire évoluer la relation client-fournisseur vers un véritable partenariat durable.

Dans ce contexte, il est particulièrement intéressant de constater que les difficultés diverses rencontrées ces dernières années par nos entreprises, loin de décourager leurs efforts en matière de RSE, les incitent plutôt à persévérer. L’effet de mode est clairement dépassé et les motivations assumées, même si le chemin reste long et les progrès potentiels importants.

The Conversation

Hugues Poissonnier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 11:13

Les Français prudents envers les entreprises à mission, contrairement aux Italiens et aux Espagnols

Monica Riviere, Associate Professor of Management, INSEEC Grande École
Les entreprises à mission séduisent de plus en plus partout en Europe. En France, contrairement à l’Italie et à l’Espagne, leur attractivité dépend moins du label que de preuves concrètes.
Texte intégral (1371 mots)
Les Français et les Françaises affichent une plus grande prudence vis-à-vis des promesses faites par les entreprises, et expriment une attente forte à l’égard de la capacité de ces dernières à transformer leurs engagements en impact réel. Kues/Shutterstock

Società Benefit en Italie, Sociedad de Beneficio e Interés Común en Espagne, société à mission en France, cette qualité juridique séduit de plus en plus de pays en Europe. Contrairement à leurs voisins transalpins et ibériques, confiants dans ces entreprises durables, les Français et Françaises restent méfiants. Pourquoi ? Réponses en graphiques.


Depuis la loi Pacte en 2019, la France promeut activement les sociétés à mission, ces entreprises qui s’engagent à poursuivre un ou plusieurs objectifs sociaux ou environnementaux dans le cadre de l’exercice de leurs activités.

Lorsqu’on interroge les actifs français, la confiance dans la capacité réelle des sociétés à mission de produire un impact sociétal reste plus fragile qu’en Italie ou en Espagne. Ces trois pays de l’Union européenne ont adopté un cadre juridique spécifique pour les entreprises à finalité sociétale. Par exemple, l’Italie compte 5 161 entreprises au 30 juin 2025, la France 2 300 entreprises aujourd’hui.

En France, le concept même de raison d’être (purpose, en anglais) a parfois été critiqué pour être détourné en outil de communication plutôt qu’en engagement réel. Notre étude quantitative, menée auprès de plus de 1 200 actifs en France, en Italie et en Espagne, met en évidence des différences de manière dont ces entreprises sont perçues dans ces trois pays européens.

Scepticisme français

Ces pays présentent des démarches institutionnelles comparables en faveur des entreprises engagées, mais se distinguent par le rythme et l’ampleur de l’adoption de ces statuts. Le graphique ci-dessous s’appuie sur les données recueillies par questionnaire dans les trois pays.

Il met en évidence un contraste clair. Si la sensibilité environnementale est comparable, la confiance dans l’impact réel des entreprises à mission est plus faible en France.

L’Italie, qui a introduit la qualité juridique de Società Benefit dès 2015, affiche les niveaux de confiance les plus élevés tandis que l’Espagne, où le statut de Sociedad de Beneficio e Interés Común a été introduit en 2022, occupe une position intermédiaire.

Ce résultat suggère que le scepticisme français ne traduit pas un moindre attachement aux enjeux sociaux ou environnementaux. Il renvoie davantage à une évaluation plus prudente des promesses affichées par les entreprises, et à une attente plus forte quant à leur capacité à transformer leurs engagements en impact réel.

« D’accord, il y a une raison d’être, mais certaines activités associées au luxe ou à des usages fortement carbonés peuvent-elles être perçues comme compatibles avec une image exemplaire ? », témoigne une personne interrogée.

Ni rejet ni naïveté

L’exigence des Français ne se limite pas aux jugements abstraits sur l’impact des entreprises : elle se manifeste concrètement dans leur attractivité comme employeurs. Le graphique ci-dessous met en évidence des différences marquées, la France se distinguant par une attractivité plus faible des entreprises à mission.

Par contraste, certaines études menées en Italie suggèrent que l’engagement social et environnemental des entreprises joue un rôle plus direct dans l’attractivité perçue.

Rôle clé des expériences passées de RSE

Cette spécificité française s’éclaire lorsque l’on intègre dans l’analyse le rôle des expériences passées de RSE dans l’attractivité des entreprises à mission.

Lorsque les individus ont été confrontés à des démarches de RSE jugées crédibles et cohérentes avec les pratiques réelles de l’entreprise, leur confiance envers les entreprises à mission augmente nettement. À l’inverse, des expériences perçues comme opportunistes ou principalement déclaratives alimentent une défiance durable.

Cette exigence accrue s’inscrit dans un contexte marqué par plusieurs décennies de discours sur la RSE au cours desquelles les salariés ont développé une capacité critique plus affirmée face aux engagements affichés.

Quelles implications pour les acteurs économiques et politiques ?

Pour les entreprises à mission, ces résultats rappellent que le cadre juridique constitue un point de départ, non une garantie de crédibilité.

En France, la confiance se construit dans la durée, par la concordance entre discours et actions. En ce sens, la qualité juridique d’entreprise à mission ne doit pas être adoptée à titre expérimental. Lorsqu’elle est adoptée sans la capacité réelle d’en assumer les exigences, elle devient contre-productive non seulement pour l’entreprise elle-même, mais aussi en affaiblissant l’attractivité des entreprises à mission et en sapant la crédibilité du dispositif dans son ensemble.

Pour les pouvoirs publics, ces résultats soulignent l’importance des dispositifs de vérification des entreprises à mission, en particulier le rôle des organismes tiers indépendants (OTI), qui encadrent strictement les engagements tout en formulant des attentes particulièrement élevées.

En Italie, la logique est différente. La crédibilité des engagements repose sur un contrôle institutionnel, assuré par l’Autorità Garante della Concorrenza e del Mercato (AGCM) qui veille à la conformité des déclarations des entreprises, en sanctionnant des pratiques jugées trompeuses.

Ces configurations différentes suggèrent que la confiance ne dépend pas seulement de l’existence de mécanismes de vérification, mais aussi de leur lisibilité et de la manière dont ils sont perçus. Mieux rendre visibles et compréhensibles ces dispositifs – qu’ils soient fondés sur la vérification indépendante ou sur le contrôle institutionnel – pourrait renforcer la crédibilité des engagements et encourager l’ensemble des entreprises à ancrer leurs actions dans des pratiques concrètes et durables.

The Conversation

Monica Riviere ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

26.01.2026 à 11:13

Comment les censeurs des conseils d’administration sont un moyen de contourner la loi

Etienne Redor, Responsable du département finance, Audencia
Magnus Blomkvist, Associate professor of finance, EDHEC Business School
Le censeur est un membre de conseil d’administration sans droit de vote ni responsabilité légale, mais qui participe aux débats. Pourquoi sa multiplication ces dernières années ?
Texte intégral (1617 mots)
Le censeur n'est pas soumis aux contraintes règlementaires de limite d'âge, de quota de genre ou du nombre de ses membres. EverettCollection/Shutterstock

Au sein des entreprises françaises, un censeur est un membre du conseil d’administration sans droit de vote ni responsabilité légale, mais qui participe aux débats. Pourquoi sa multiplication ces dernières années ? Quelles stratégies des entreprises derrière cette nouvelle tendance ?


L’imaginaire collectif tend à voir le conseil d’administration (CA) d’une entreprise comme un groupe d’administrateurs qui votent, conseillent le directeur général et assument une lourde responsabilité juridique. En réalité, dans 25 % des grandes sociétés cotées françaises, une personne supplémentaire siège à la table, qui ressemble à un administrateur et s’exprime comme tel, mais qui n’en est pas officiellement un : le censeur.

Les censeurs assistent aux conseils d’administration, accèdent aux mêmes informations que les administrateurs et peuvent influencer les décisions en coulisses. Leur rôle est à la fois informationnel et lié au contrôle. Ils peuvent fournir de l’information et des conseils lors des réunions du conseil d’administration, mais également transmettre de l’information aux parties prenantes qu’ils représentent.

Pourtant, ils n’ont ni droit de vote ni responsabilité légale et échappent aux règles de gouvernance, comme la limite d’âge ou le genres. Résultat : les entreprises recrutent ou gardent les profils qu’elles veulent, tout en respectant les règles existantes.

Pourquoi les grandes entreprises françaises cotées ont-elles de plus en plus recours à cette pratique ? Sur quels aspects cette « innovation » est-elle problématique ou au contraire bénéfique ?

Notre étude, la première du genre, s’appuie sur des milliers de rapports annuels d’entreprises appartenant au SBF120 (2010–2022) et tente d’apporter un éclairage nouveau au rôle de censeur.

Un « dispositif » populaire

En 2010, 17 % des grandes entreprises françaises avaient un censeur au sein de leur conseil d’administration ; en 2022, elles étaient 22 % et 25 % en 2024.

Les censeurs ont la possibilité d’assister à toutes les réunions, de recevoir les mêmes informations que les administrateurs, de poser des questions, de contester la direction, et ils exercent souvent une influence majeure en coulisses.

La différence avec les autres administrateurs ? Ils n’ont ni droit de vote, ni obligation fiduciaire, ni responsabilité juridique personnelle en cas de problème. Plus important encore, ils sont ignorés par toutes les règles de gouvernance, y compris le Code Afep-Medef de gouvernance d’entreprise et le Code de commerce français.

Ils ne sont pas pris en compte dans le calcul de la taille maximale du conseil d’administration, du ratio d’indépendance ou du quota obligatoire de 40 % de femmes ni dans la limite d’âge qui s’applique à eux. En bref, les entreprises peuvent conserver les membres qu’elles souhaitent au sein du conseil d’administration, tandis que le conseil officiel semble parfaitement conforme sur le papier.

Trois raisons du recours aux censeurs

Nous avons cherché à répondre à la question suivante : pourquoi les censeurs sont-ils devenus si populaires dans les entreprises françaises cotées en bourse ? Notre étude est la première à traiter cette question à grande échelle en recueillant des données sur cette pratique et en expliquant pourquoi elle s’est autant répandue.

Un nombre limité d’administrateurs potentiels

Recruter les meilleurs profils reste difficile pour certaines entreprises. Les petites entreprises cotées en bourse ou celles qui sont récentes ont du mal à convaincre des cadres supérieurs d’accepter un poste d’administrateur à part entière. Pourquoi ? Parce que cela demande un investissement en temps considérable et comporte un risque personnel réel.

Ces mêmes cadres acceptent souvent volontiers un poste de censeur ; ils ont la même influence, mais cela comporte beaucoup moins d’inconvénients. Les données montrent clairement que les entreprises plus petites, plus récentes et moins bien connectées sont nettement plus susceptibles d’avoir des censeurs au sein de leur conseil d’administration.

Aucune restriction légale

Le rôle de censeur au sein du conseil d’administration est un excellent outil pour gérer les contraintes réglementaires. La France impose des limites strictes ; les conseils d’administration ne peuvent compter plus de 18 membres ; pas plus d’un tiers des administrateurs ne peuvent être âgés de plus de 70 ans ; les administrateurs perdent leur statut « indépendant » après douze ans d’exercice et au moins 40 % d’entre eux doivent être des femmes.

Lorsqu’un administrateur apprécié atteint la limite d’âge, perd son « indépendance », ou que le conseil d’administration a déjà atteint la limite de taille, ou encore que l’entreprise a besoin d’un homme supplémentaire sans enfreindre le quota de genre, la solution la plus simple est de faire de cette personne (ou d’un nouveau membre) un censeur.

Rampe de lancement pour de futurs administrateurs

Le poste de censeur est un mécanisme idéal pour « essayer avant de nommer définitivement ». Les conseils d’administration français sont en grande majorité échelonnés, de sorte que chaque administrateur est engagé pour une durée de trois à six ans. Choisir la mauvaise personne coûte cher et peut être pénalisant.

Le fait d’accueillir d’abord quelqu’un en tant que censeur permet au conseil d’administration d’observer comment le candidat se prépare, comment il réfléchit sous pression et comment il interagit avec la direction. Le candidat acquiert une véritable expérience du conseil d’administration sans en assumer la responsabilité.

Environ 25 % des censeurs sont ensuite promus au poste d’administrateur à part entière, et ceux qui le sont, sont généralement plus jeunes et moins expérimentés, ce qui correspond exactement au profil que l’on attendrait pour une période d’essai.

Encadrer cette pratique

Notre étude souligne que le recours aux censeurs peut être considéré sous deux angles différents.

Ce rôle va clairement à l’encontre de l’esprit des quotas de genre, des règles d’indépendance et des limites d’âge, raison pour laquelle les régulateurs français et les sociétés de conseil en vote par procuration, tels que les entreprises ISS et Glass-Lewis, font pression pour le restreindre ou le supprimer. Ces acteurs défendent les intérêts des actionnaires et les meilleures pratiques en matière de gouvernance d’entreprise. Si une entreprise propose un mécanisme allant à l’encontre de la bonne gouvernance, ils s’y opposent.

D’un autre côté, la suppression totale du rôle de censeur nuirait à la capacité des petites entreprises d’attirer des talents et rendrait plus difficile la succession harmonieuse des administrateurs.

Nous recommandons une réforme équilibrée :

  • compter les censeurs dans le calcul des quotas afin de mettre fin aux abus les plus évidents ;

  • exiger un vote des actionnaires pour leur nomination ;

  • ajouter des limites de mandat ;

  • renforcer la transparence ;

  • et maintenir l’absence de responsabilité afin que le poste reste attractif pour les personnes hautement qualifiées.

Car le censeur est l’une des innovations les plus créatives et les plus efficaces en matière de gouvernance de ces deux dernières décennies. Elle souligne que lorsque les régulateurs multiplient les règles, les entreprises sophistiquées trouvent toujours le moyen de conserver les personnes dont elles ont besoin au sein de leur conseil d’administration. Le censeur au conseil d’administration est la réponse polie mais ferme du monde des affaires à une forme de sur-réglementation.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

26.01.2026 à 11:13

Violences au travail : de multiples formes pour un même fléau

Régis Martineau, Phd. en Management, ICN Business School
Plusieurs formes de violence peuvent se manifester dans les entreprises et dans toutes les organisations. Il importe de distinguer les formes « chaudes » des formes « froides ».
Texte intégral (1671 mots)
Il existe plusieurs formes de violence dans les organisations. Nous distinguons les formes « chaudes » des « froides ». Volodymyr Tverdokhlib/Shutterstock

À quoi pensez-vous spontanément quand vous entendez parler de violences au travail ? La question mérite d’être posée, tant les manifestations de ce phénomène sont nombreuses et parfois invisibles. Pour lutter contre toutes les formes de violence, mieux vaut être armé pour les reconnaître. Tentative de classification de ces dernières.


Le retentissant procès France Telecom ou le non moins remarqué scandale Orpea nous ont rappelé que la souffrance au travail peut prendre des formes étonnamment violentes, et qu’elle peut frapper tout le monde (les salariés, les managers et jusqu’aux clients eux-mêmes, comme dans le cas Orpea).

Plutôt que le nier ou le minimiser, il faut donc clarifier ce phénomène de violence au travail, pour peut-être savoir mieux l’éviter. Cette violence au travail, qui est souvent réduite au seul harcèlement moral, prend des formes très variées.

Il faut tout d’abord distinguer la violence chaude de la violence froide. La première est plus visible et manifeste, elle est celle qui frappe avec soudaineté et fracas – coups, insultes, rejets, etc. La seconde, plus insidieuse, est celle qui blesse progressivement sans que l’on s’en rende vraiment compte.


À lire aussi : Et si le BDSM enseignait aux managers à mieux respecter leurs équipes ?


Violences physiques

La première forme de violence, sans doute la plus ancienne, est la violence physique. Dans nos organisations modernes occidentales, elle a certes quasiment disparu, mais elle existe toujours dans certaines usines qui fournissent des multinationales, à l’instar de celles révélées par le scandale Foxconn au Bangladesh ou des logistiques transnationales qui pratiquent l’esclavage moderne. Pour autant, on aurait tort de croire que la violence physique s’arrête aux portes de l’Occident.

Le scandale Orpea a révélé que le système de réduction drastique des coûts aboutissait assez directement à des maltraitances physiques sur les résidents : sanglage sur les lits, soins insuffisants, dénutrition, etc. On note aussi que, parfois, l’usage de la force existe encore dans certaines « institutions totales », comme les prisons ou les camps de réfugiés.

Quand la quête de performance vire au harcèlement

Mais la violence chaude prend le plus souvent une forme plus psychologique, avec le harcèlement moral. Sous sa forme chaude, le harcèlement moral prend la forme d’humiliations, d’agressions verbales, de vexations, ou encore d’intimidations. Cette forme est de plus en plus condamnée par la loi (articles L1152-1 à L1152-6 du Code du travail).

Il faut cependant noter qu’elle est, malgré tout, parfois encore considérée comme « productive » et motivante dans certaines cultures organisationnelles en quête d’excellence (conservatoires de musique élitistes, comme le montre le film Whiplash), dans la haute cuisine, ou encore dans le mannequinat.

Enfin, on peut aussi voir se déployer, dans certaines situations de crise ou d’urgence, ce que l’on peut appeler une violence symbolique chaude. Elle arrive, par exemple, lors de restructurations et de changements imposés de manière descendante et brutale. Ces moments de crise sont vécus de manière particulièrement violente par des individus qui se voient dépossédés soudainement de leur identité métier, de leur culture, de leurs liens sociaux, de leurs routines, et de leur espace de travail. Ce fut le cas à France Telecom, dont les membres durent subir des changements rapides (plan Next, plan Time to Move) et des licenciements massifs (objectif de départ de 22 000 personnes) pour sauver l’entreprise d’un péril financier.

Ces formes chaudes frappent avec soudaineté et sont visibles et manifestes, et donc sans doute plus facilement condamnables par la loi. Mais il n’est pas certain qu’elles causent davantage de souffrances que les formes froides de violences, plus insidieuses et invisibles.

Les formes froides de violence au travail

On ne pense pas toujours, tout d’abord, à la violence physique froide, qui pourtant affecte directement les corps. Ici, je fais référence aux dommages corporels causés par la manière dont le travail est organisé – pénibilité, accidents du travail, cadences excessives, etc. Bien sûr, on pense au taylorisme, système dont l’essence même est d’asservir les corps aux cadences de la machine.

Là encore, on aurait tort de penser que celle-ci n’existe plus que dans les Temps modernes, révolus, de Charlie Chaplin. Il y a toujours des métiers par nature pénibles – éboueurs, aides à domicile, etc. –, et il existe toujours des cadences élevées dans certaines activités. Par exemple, des cas de chauffeurs-livreurs managés par des applications incités à enfreindre la prudence sur la route ont été révélés.

Harcèlement insidieux

Le harcèlement moral prend aussi une forme froide. C’est une violence psychologique, plus insidieuse, dont les victimes n’ont pas toujours conscience. Cela regroupe un ensemble de « techniques » variées, mais qui se ressemblent finalement assez : la placardisation, la mise en bulle, l’emprise, en passant par la stigmatisation de certaines catégories de personnes (les « boulets », les « bois morts » ou dead woods en anglais…).

Indirectement, il y a aussi le déni de violence, qui consiste à nier ou à minimiser la violence ressentie par un salarié (cas des caissières, des infirmières ou des agents d’accueil insuffisamment soutenus face à des clients violents).

France TV, 2025.

La violence de l’euphémisme

Enfin, la violence symbolique froide est la plus invisible et insidieuse. Elle est causée par une forme de rhétorique managériale qui tend à euphémiser ou à nier la réalité organisationnelle, souvent conflictuelle. Elle adopte un langage managérial qui se présente comme la seule alternative possible face à la concurrence et aux marchés.

Il y a aussi, dans un autre registre, les outils de gestion, qui, sous couvert de neutralité et de rationalité, masquent des idéologies et des cadres coercitifs, auxquels les individus sont sommés de se conformer. Par exemple, un entretien d’évaluation professionnel où des indicateurs dans un tableau de bord vont mettre l’accent sur certains aspects du métier ou de l’activité qui ne correspondent pas forcément à ce que le salarié estime comme important. Il lui faudra pourtant se plier à ce cadre remettant parfois en cause radicalement ses valeurs ou son identité professionnelle.

Organisation pathologique et leadership toxique

Ce panorama (non exhaustif) des violences au travail invite à nous interroger sur les organisations pathologiques et les styles de leadership toxiques qui favorisent leur émergence. Cela invite aussi à anticiper les nouvelles formes de violences numériques au travail, et l’on peut déjà entrevoir un lien entre souffrance et intelligence artificielle (surveillance intrusive, stigmatisations automatisées, etc.).

Cependant, en reconnaissant ces formes de violences, il ne s’agit pas de rendre responsables les managers, qui en sont souvent les premières victimes. Le management peut tout autant être empathique, bienveillant et source de bien-être. Au contraire, il s’agit plutôt d’encourager les managers à mieux identifier la violence au travail pour mieux l’empêcher.

The Conversation

Régis Martineau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

25.01.2026 à 18:17

Ce que les consultations citoyennes et le jet de soupe sur « la Joconde » ont en commun

Chiara Armeni, Professeure de droit de l'environnement, Université Libre de Bruxelles (ULB)
Maria Lee, Professor of Law and co-director of the Centre for Law and Environment, UCL
Les mobilisations pour le climat prennent des formes très diverses. Mais qu’elles soient légales ou non, elles relèvent toutes d’un même édifice juridique.
Texte intégral (2172 mots)

Les manifestations et actions de désobéissance civile pour le climat sont de plus en plus réprimées, et souvent perçues comme incompatibles avec les consultations publiques, le mode classique de participation aux décisions environnementales. Pourtant, les deux relèvent du même édifice juridique environnemental.


Au cours des dernières années, les manifestations exigeant – souvent de façon créative – que les États et les entreprises agissent contre le changement climatique se sont multipliées dans de nombreux pays européens, suscitant souvent une forte répression.

À première vue, il n’y a pas nécessairement de lien direct entre, d’une part, ces actions de protestation et, d’autre part, la pratique moins médiatisée, plus routinière – et certainement moins risquée – de la consultation publique sur des sujets tels que la mise en place d’un parc d’énergie renouvelable ou la destruction d’un espace vert local. Et pourtant, ces consultations publiques, les manifestations et la désobéissance civile sont plus liées qu’on pourrait le croire. De fait, les unes comme les autres font partie du même édifice juridique environnemental.

La participation publique aux questions environnementales, un salon parisien du XVIIIᵉ siècle

Dans notre dernier article, nous explorons les liens entre consultation, protestation et désobéissance civile en matière environnementale. Nous suggérons que la participation politique se constitue comme un continuum de trois pratiques interdépendantes : la participation à des processus juridiques formels, tels que les consultations publiques sur les décisions d’aménagement du territoire (concernant des projets très divers, ayant trait aussi bien à l’énergie renouvelable qu’au logement ou au traitement des déchets) ; les manifestations de rue, telles que les marches « Friday for Future » ; et les pratiques de désobéissance civile conçues pour maximiser les perturbations ou attirer l’attention en enfreignant les règles, telles que les barrages routiers des militants pour le climat ou la dégradation du verre protégeant le tableau le plus célèbre du monde.

Ces trois types d’activités coexistent dans l’espace civique, c’est-à-dire « la couche entre l’État, les entreprises et la famille dans laquelle les citoyens s’organisent, débattent et agissent ». Et lorsque les organisations, les débats et les actions concernent l’environnement, notre espace civique devient un espace civique environnemental.

Nous pouvons appréhender la participation comme un salon parisien du XVIIIe siècle, caractérisé par une enfilade, « une succession de pièces dont les portes sont alignées le long d’un axe où [« l »]es invités découvraient une série d’espaces soigneusement aménagés par les propriétaires et conçus comme une composition en plusieurs mouvements ».

À l’instar d’un salon parisien, les différentes formes de participation au sein de l’espace civique environnemental sont reliées au sein d’un même espace, mais les différentes pièces ont des caractéristiques juridiques et des implications différentes pour les visiteurs.

Les trois salles de participation et le rôle du droit

S’appuyant sur les travaux de Brian Wynne relatifs à la participation « invitée » et « non invitée » et les développant, nos trois salles de participation comprennent la participation invitée, la participation non invitée et – ajoutons-nous – la participation interdite.

Les citoyens peuvent être invités dans une salle ; ils peuvent explorer légalement une autre salle sans invitation formelle ; et ils peuvent décider d’entrer illégalement dans la salle suivante, même si l’entrée leur est interdite.

Dans la première salle, les citoyens sont invités à participer, exerçant pleinement leur droit de débattre et d’exprimer leurs opinions sur une décision. Ce droit est juridiquement protégé, conformément notamment à la Convention d’Aarhus (1998), un traité international clé qui protège l’accès des citoyens et des ONG à l’information, la participation du public et l’accès à la justice en matière d’environnement. L’Union européenne et ses États membres, ainsi que le Royaume-Uni, sont parties à la Convention d’Aarhus et sont donc légalement tenus à s’y conformer. La participation au sein de cette chambre peut consister à être consultés (« invités ») sur une décision relative à une activité spécifique (par exemple, l’octroi d’un permis d’environnement pour l’extension d’un aéroport, ou sur un plan, un programme ou une politique en matière environnementale, notamment en ce qui concerne les activités pouvant être autorisées dans une certaine zone).

Les citoyens ne sont pas expressément invités à entrer dans la deuxième pièce de l’enfilade, mais le droit protège la participation non invitée – à savoir, en l’occurrence, la protestation – en tant qu’exercice légitime des droits humains, en particulier les droits à la liberté d’expression et de réunion pacifique protégés par les articles 10 et 11 de la Convention européenne des droits de l’homme ; ainsi que par d’autres accords internationaux.

La troisième salle est fermée par le droit, qui interdit certaines formes de participation, rendant les manifestations illégales et les actions civiles désobéissantes. On y retrouve un éventail de pratiques allant de l’organisation de manifestations spontanées, non déclarées à l’avance, devant des lieux de prise de décision politique pour protester contre le report et le détricotage d’une loi environnementale (comme la loi européenne contre la déforestation), jusqu’à des actions spectaculaires de désobéissance civile telles que l’interruption d’une étape du Tour de France ou le jet de soupe sur la Joconde.

Le continuum de la participation en Europe

En tant que spécialistes du droit de l’environnement, nous avons travaillé ensemble et séparément pendant plusieurs années, principalement sur la participation sur invitation, sur ce qui se passe dans la première salle. Même si cela ne se traduisait pas toujours par une véritable inclusion, la valeur de la participation du public dans la prise de décision environnementale était plus ou moins admise, et il n’était certainement pas nécessaire de défendre la prise de décision démocratique à partir des principes fondamentaux.

Ce n’est plus le cas aujourd’hui. Les droits et les protections procédurales nécessaires à la participation sur invitation sont remis en cause par des mouvements populistes situés aux deux extrémités du spectre politique qui pensent déjà connaître la bonne réponse : d’un côté, ceux qui contestent l’existence ou la gravité du changement climatique, de l’autre, le populisme climatique qui estime que l’urgence climatique justifie de s’affranchir des temporalités et des procédures démocratiques.

En même temps, l’urgence de nos diverses crises environnementales peut détourner les anciens partisans de la participation citoyenne vers des processus dirigés par des experts qui voient les réponses dans des solutions techniques plutôt que dans le débat démocratique. Prise entre les populistes et les technocrates, la valeur de l’engagement citoyen – des décisions mieux informés et plus solides sur le plan politique – est oubliée.

L’espace réservé à la participation invitée, ouvert à tous et à toutes les opinions, est de moins en moins bien entretenu et protégé. Mais le salon de l’espace civique va au-delà de ces occasions ordinaires, bien qu’importantes, pour les citoyens de s’engager auprès du pouvoir.

Nos recherches ouvrent les portes de l’enfilade et explorent le continuum entre la participation invitée, non invitée et interdite à travers l’Europe. Nous examinons le rôle joué par le droit (par exemple le droit environnemental, public, routier, pénal) dans la détermination de la possibilité pour les citoyens d’entrer dans l’une des salles de participation et de quelle manière. Nous avons constaté, conformément aux signaux d’alarme internationaux et européens, que l’évolution des règles juridiques qui façonne l’espace civique environnemental en Europe démontre une « tendance répressive » croissante.

Cette répression se manifeste par une combinaison de réformes législatives qui criminalisent les pratiques des manifestants, telles que les barrages routiers ou le verrouillage (« lock-in »), ainsi que par un durcissement des pratiques policières, judiciaires et pénales, telles que le recours accru à la force, augmentation des arrestations et alourdissement des peines.

Ces réformes sont accompagnées par une multitude d’autres pratiques intimidantes allant des poursuites stratégiques des grandes compagnies pétrolières contre les ONG environnementales, comme dans le cas de Energy Transfer contre Greenpeace (souvent appelées « poursuites-bâillons ») à la surveillance des manifestants.

La répression pousse les citoyens vers la troisième salle. Ici, le droit punit très sévèrement ceux qui ont réussi à y entrer et à exprimer leur désaccord, comme les condamnations à des peines d’emprisonnement inédites pour les activistes de Just Stop Oil au Royaume-Uni. Le droit restreint simultanément la portée de la participation invitée, interdit ce qui était auparavant non invité mais légal, et augmente le coût personnel de la désobéissance civile interdite (mais pacifique).

Toute la maison compte

Nous ne sommes pas les premières à affirmer que la consultation des citoyens et les manifestations de rue peuvent constituer une forme de participation politique, ou que l’espace public se réduit dans toute l’Europe.

Nous sommes convaincues que l’espace civique se trouve dans la routine quotidienne et banale qui consiste à s’adresser au pouvoir, ainsi que dans des moments clés telles que les élections. Et qu’il se trouve aussi dans la théâtralité des pratiques de protestation, même si elles sont criminalisées, ainsi que dans les institutions sobres de la délibération démocratique, comme la Convention citoyenne pour le climat en France. Mais la tendance transnationale à limiter simultanément ces approches très différentes de la participation politique souligne la profondeur du rétrécissement de l’espace public environnemental.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

25.01.2026 à 18:15

Les secrets des entreprises japonaises pour embarquer leurs salariés grâce au principe du « ba » (場)

Mélia Arras-Djabi, Maîtresse de conférences en management et GRH, IAE Paris – Sorbonne Business School
Kerstin Kuyken, Professeure, Université du Québec à Montréal (UQAM)
Sakura Shimada, Enseignante-chercheuse, MCF en sciences de gestion, Conservatoire national des arts et métiers (CNAM)
Au Japon, intégrer durablement un salarié ne consiste pas seulement à lui transmettre du savoir, mais à lui faire une place au sein d’un « nous ». Explication avec le principe du « ba ».
Texte intégral (1776 mots)
Les nouveaux salariés sont encouragés à apprendre en observant et en imitant leurs aînés. Une expression décrit cette réalité : « Apprendre en regardant le dos des _senpai_. » Metamorworks/Shutterstock

La réussite de l’intégration au Japon n’apparaît dans aucun manuel de gestion des ressources humaines. Tout se joue dans le ba, un espace-temps relationnel où la nouvelle recrue apprend l’implicite, où l’apprentissage se fait au contact direct des équipes dans et en dehors du lieu de travail. Plongée dans les coulisses de cette immersion pas comme les autres.


Dans de nombreuses organisations, le processus d’intégration est structuré par des dispositifs d’onboarding mettant principalement l’accent sur la formation formelle, la transmission explicite des règles du métier et la diffusion d’informations relatives au fonctionnement des différents services.

Cette manière de concevoir l’intégration n’a rien d’évident ni de généralisable. Elle reflète des choix organisationnels et culturels particuliers. Les entreprises japonaises offrent, à cet égard, un contrepoint éclairant, en s’appuyant sur des formes de socialisation plus informelles, relationnelles et situées.

Notre étude récente met en lumière trois caractéristiques clés pour comprendre les pratiques d’intégration japonaises : leur nature tacite, leur déploiement hors situation de travail et leur organisation au plus près des équipes, sans pilotage centralisé. Bien que distinctes, ces pratiques s’articulent autour du ba, cet espace-temps relationnel au sein duquel les nouveaux arrivants apprennent progressivement leur métier à travers les interactions, l’observation et le partage du quotidien.

Le ba (場), l’espace-temps de relations émergentes

Pour une nouvelle recrue dans une entreprise japonaise, s’intégrer ne signifie pas seulement apprendre un poste ou acquérir des compétences. Il s’agit avant tout de trouver sa place au sein d’une équipe, avec ses habitudes, ses relations et ses contraintes propres. Cette manière de concevoir l’intégration repose sur un concept culturel japonais central, le ba (場), défini comme un « espace-temps de relations émergentes ».

Dans l’entreprise, le ba le plus important est le genba (現場), le lieu réel où le travail se fait. C’est là que se construit la compréhension du travail réel et que se transmettent les manières de faire. Le genba est l’unité de base où se déroule la socialisation. Cela explique pourquoi l’intégration au Japon est si décentralisée. Plutôt que de suivre un programme en ressources humaines unique et standardisé, l’intégration se fait au sein de la microculture de l’équipe. Pour une nouvelle recrue, l’objectif est de « se fondre dans le lieu » (genba ni tokekomu).

« Se fondre dans le lieu (littéralement “se dissoudre dans le ba”). […] Se fondre dans l’équipe de travail, oui, et être proactif, je pense que c’est la meilleure façon de progresser », rappelle une manager interviewée.

Cet accent mis sur l’harmonie entre l’individu et le contexte collectif est peut-être la différence la plus fondamentale avec les approches occidentales. Ces dernières tendent davantage à se concentrer sur le rôle, les objectifs et les compétences de l’individu, souvent détachés de son environnement immédiat. Cette forte décentralisation permet un ajustement fin aux réalités locales du travail, mais peut aussi conduire à des expériences d’intégration très contrastées selon les équipes.

« Apprendre en regardant le dos des senpai (先輩) »

Dans les grandes entreprises en Occident, l’apprentissage d’un nouveau poste passe souvent par des formations structurées et une documentation détaillée. A contrario, au cœur de l’approche japonaise se trouve la relation senpai–kohai (senior-junior), où le senpai (先輩), qu’il soit officiellement désigné comme tuteur ou non, sert de repère au quotidien pour le nouveau venu.

L’apprentissage auprès du senpai est avant tout tacite. Les nouvelles recrues sont encouragées à apprendre en observant attentivement et en imitant leurs aînés. Cette philosophie est résumée par l’expression « apprendre en regardant le dos des senpai », ou senpai no senaka wo mite oboeru.

Cette méthode repose sur l’idée d’une appropriation des savoir-faire par immersion et par observation, désignée par l’expression japonaise shigoto wo nusumu – littéralement, « voler le travail ». Ici, le terme « voler » décrit une démarche proactive où le nouvel employé s’approprie les connaissances par l’observation active.

« J’ai appris le travail en le suivant, en regardant comment il (le « senpai ») faisait », témoigne un salarié qualité junior.

Cette approche repose sur l’idée que les savoirs du métier sont indissociables des situations de travail ; ils se construisent par l’immersion, l’observation et l’ajustement progressif au contexte, plutôt que par une transmission formalisée et détachée de l’activité. Si ce mode d’apprentissage favorise une compréhension fine du travail réel, il rend l’intégration dépendante de la qualité des relations et de la stabilité dans l’équipe, ainsi que de la disponibilité des senpai.

Se connaître en dehors du bureau

Les relations professionnelles prennent une dimension quasi institutionnelle au Japon avec la pratique de « nomunication ». Ce mot-valise, combinant le verbe japonais nomu (boire) et le mot anglais communication, désigne les réunions informelles autour d’un verre, appelées nomi-kai.

Ces réunions ne sont pas de simples sorties entre collègues, elles jouent un rôle important dans l’intégration, en permettant de construire une confiance mutuelle et une compréhension partagée des non-dits, indispensables dans une culture où la communication s’appuie sur l’implicite plutôt que sur des échanges explicites.

Dans ces contextes détendus, les barrières hiérarchiques et formelles s’abaissent. C’est l’occasion de construire des relations plus profondes, de comprendre l’histoire non officielle du service et, pour les kohai (le junior), de faire part des éventuelles difficultés qu’ils rencontrent.

« On parle de “nomunication”. On sympathise en parlant de tout et de rien en mangeant ; on développe de bonnes relations, et puis ça facilite le travail », rappelle une chargée de publicité senior interviewée.

Ces formes de sociabilité professionnelle témoignent d’une porosité historiquement marquée entre sphère professionnelle et sphère personnelle dans de nombreuses organisations japonaises.

Comprendre le contexte institutionnel japonais et ses évolutions

Les pratiques d’intégration observées dans les entreprises japonaises s’inscrivent dans un cadre institutionnel spécifique et… en évolution. La formation initiale des Japonais et Japonaises y est largement généraliste, et le lien entre diplôme et poste occupé reste relativement faible.


À lire aussi : Cesser sa profession : le rôle de la mémoire dans la fin de la vie professionnelle


Le modèle d’emploi de longue durée, longtemps dominant, a favorisé des carrières internes marquées par la mobilité et la polyvalence, plutôt que par une spécialisation immédiate. L’intégration n’est alors pas pensée comme une étape brève, mais comme un processus progressif, étalé dans le temps, au plus près du terrain.

Des enquêtes indiquent une évolution des attentes des travailleurs en matière d’équilibre entre vie professionnelle et vie privée, pouvant venir entraver les pratiques de socialisation hors travail.

Repenser l’intégration au-delà des manuels

Selon le modèle japonais, intégrer durablement un nouveau collaborateur, c’est avant tout lui faire une place au sein d’un « nous ». Même évolutive, cette vision japonaise invite à interroger nos propres standards d’intégration.

Aller au-delà du « kit d’accueil »

L’intégration ne se joue pas seulement au niveau du siège, des modules en e-learning ou des journées d’onboarding. Elle dépend fortement de ce qui se passe dans l’équipe, dans le quotidien du travail, dans la manière dont on montre et laisse découvrir les coulisses du métier.

Reconnaître le rôle clé des situations informelles

Les moments informels jouent un rôle décisif sur le fonctionnement des collectifs, la prise de décision et la transmission des savoirs et savoir-faire clés. La question n’est pas de les multiplier à tout prix, mais de les penser comme des espaces de socialisation à part entière.

Travailler l’implicite

L’étude rappelle que beaucoup de règles du jeu sont implicites. Une bonne socialisation suppose, sinon de rendre explicite ces attendus, d’inviter des tuteurs/mentors à acculturer les nouvelles recrues à cette part invisible des kits d’intégration et des modules de formation formels.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

25.01.2026 à 18:15

Qu’est-ce qui remplit les salles de concerts ? La nostalgie, pardi !

Joan Le Goff, Professeur des universités en sciences de gestion, Université Paris-Est Créteil Val de Marne (UPEC)
Marc Bidan, Professeur des Universités en Management des systèmes d’information - Nantes Université, Auteurs historiques The Conversation France
Sylvie Michel, Maîtresse de Conférences, HDR en Sciences de gestion, Université de Bordeaux
Il s’agit ici de décrypter et analyser le marché de la nostalgie musicale et ses originales et spectaculaires déclinaisons (hommage, « tribute », « cover »…).
Texte intégral (2053 mots)
Le spectacle « One night of Queen » vise à faire revivre au public le mythique concert de Queen à Wembley, en 1986. Youtube/capture d’écran.

Sur les scènes françaises, les tournées « best of » ou les « tribute bands » occupent le terrain, remplissent les salles et structurent un véritable marché de la « nostalgie live ». Portés par une demande de réconfort émotionnel et de communion mémorielle, ces spectacles du passé remixés au présent interrogent. Comment comprendre un tel engouement pour ces pastiches et jusqu’où cette économie de la copie peut-elle prospérer sans trop étouffer la création ?


Une semaine ordinaire en France permet d’aller voir « One Night of Queen » (le plus célèbre tribute band de Queen) le 20 janvier à Paris, « Covertramp » (hommage à Supertramp), le 24 janvier à Reims et « Cloudbusting » (tribute à Kate Bush) le même jour à Paris. D’autres préféreront « Génération Céline » (Céline Dion) à Aix-en-Provence, le 21 janvier, « Balavoine, ma bataille » à Nantes (23 janvier) ou « Soul Cages Trio » (un hommage jazzy à Sting), le 28 janvier à Paris. Il y en a pour tous les goûts ! Le défilé de ces groupes qui rendent hommage à un artiste est ininterrompu sur les scènes françaises et les salles ne désemplissent pas.

Notre recherche sur cette tendance nostalgique du spectacle vivant a conduit à distinguer trois registres différents, tout aussi couronnés de succès.

D’abord, les tournées « best of » où les artistes rejouent leur propre catalogue : les Rolling Stones (tournée Sixty, 2022) enchaînent 14 concerts en Europe devant plus de 750 000 spectateurs pour environ 120 millions de dollars (102,2 millions d’euros) de revenus, complétés par un merchandising intensif qui donne lieu, en moyenne, à deux achats à 40 euros par spectateur. La célébration d’albums iconiques renforce le mécanisme à l’image de U2 et de son LP emblématique The Joshua Tree avec ses 2,7 millions de spectateurs sur une cinquantaine de dates. En France, les chiffres illustrent la robustesse et le caractère massif de cette demande, qu’incarne par exemple Étienne Daho porté par ses 50 concerts pour environ 300 000 billets vendus. Dans cet ensemble, on peut inclure des groupes qui persévèrent à jouer leur catalogue et à se produire sur scène, alors même qu’aucun des membres fondateurs n’est encore présent, à l’instar de Dr Feelgood !

Ensuite, les concerts de reprises réalisés par des artistes déjà identifiés, qui utilisent des standards pour élargir l’audience et sécuriser la billetterie. L’exemple central est la tournée associée à l’album Imposteur de Julien Doré daté de 2024, fondée sur des reprises et présentée comme un succès majeur correspondant à plus de 500 000 billets sur environ 60 dates, dont la majorité vendue avant le lancement.

Poussée à son paroxysme, cette logique mène des artistes à s’approprier non pas quelques chansons, mais tout le répertoire d’un autre, plus connu et suffisamment fédérateur pour remplir des salles. C’est le cas de la chanteuse américaine minimaliste Cat Power qui, en 2022, a sorti un album reprenant un concert entier de Bob Dylan, celui de 1966 à Manchester. Elle ne se contente pas de chanter ses chansons : elle recrée l’ambiance, l’ordre des morceaux, l’intensité de l’époque. C’est une façon de rendre hommage, mais aussi d’augmenter sensiblement son audience personnelle, alors que la carrière de Cat Power connaissait un creux. Le succès est tel que la chanteuse a élargi le répertoire, en se focalisant toujours sur le Dylan première période et les titres qu’il refuse obstinément de jouer sur scène.

Enfin, il apparaît que le phénomène le plus structurant est celui des « groupes hommage » (tribute bands), qui reproduisent le répertoire
– et souvent l’esthétique – d’un groupe mythique. Il met en lumière la professionnalisation des artistes via des tourneurs spécialisés. En France, une entreprise, comme Richard Walter Productions, revendique à elle seule environ 700 000 entrées payantes en 2025 aux hommages à plusieurs artistes ou groupes qualifiés souvent de « mythiques », tels que Queen, ABBA, Pink Floyd, Genesis, etc. Sur ce segment spécifique des tribute bands, le marché mondial était évalué en 2018 entre 500 millions et 750 millions de dollars (soit entre 425 millions et 638,9 millions d’euros) et reste en forte croissance.

Alors que les tournées best of sont appelées à disparaître avec la mise à la retraite inévitable des groupes phares de la fin du XXᵉ siècle et qu’un artiste qui ne fait que des reprises risque d’y perdre son identité, les tribute bands constituent la tendance majeure de l’expression de la nostalgie sur scène.

Une salle, deux ambiances : un atout majeur pour tous les artistes

Le public qui se rend aux concerts de simili-Queen ou de faux Beatles correspond à deux catégories de consommateurs, aux logiques d’achat assez différentes. La première est constituée de fans « historiques », plus âgés et plus aisés, recherchant l’authenticité (musicale, visuelle, narrative) et dépensant davantage en produits dérivés. Les tribute bands qui s’adressent à cette frange fanatique du public font dans le haut de gamme, avec des shows à la qualité musicale très travaillée, aux costumes, décors et effets visuels reproduisant scrupuleusement les spectacles connus des adeptes présents dans la salle.

La seconde est plus orientée « grand public ». Elle est attirée par la dimension festive et intergénérationnelle, et par des prix plus accessibles : des tribute bands proposent des billets autour de 30–40 €, quand certains concerts de stars atteignent des niveaux nettement supérieurs. C’est le cas pour U2 (autour de 300 euros, contre 30 euros pour son cover band 4U2) comme ce le fut pour Beyoncé au Stade de France… avec des places à plus de 600 euros !

L’inflation du prix des places de concert alimente mécaniquement la demande de substituts crédibles. Cela s’est avéré flagrant lors de la reformation du groupe Oasis : le manque de billets et la spéculation à la hausse des enchères (officielles ou non) ont entraîné un report du public vers des groupes comme Definitely Oasis, à moins de 20 livres sterling (23 euros environ) l’entrée.

Si les tarifs des tribute bands augmentent d’environ 15 % lorsque l’artiste original est décédé, il y a aussi des effets d’entraînement avec les artistes toujours en activité : quand l’original repart en tournée, la promotion bénéficie indirectement aux copies tandis que la rareté et la concentration des dates dans les grandes villes laissent des territoires entiers accessibles aux tribute bands, sans cannibaliser frontalement les tournées des stars dont ils s’inspirent.

La nostalgie musicale, un réconfort émotionnel attesté

Pourquoi cette tristesse douce-amère qui se mêle à la quête d’expériences révolues est-elle tant recherchée par les fans qui communient lors de shows passéistes ? L’explication n’est pas seulement économique.

La nostalgie est un mécanisme de réconfort émotionnel, de réduction du stress et de renforcement du sentiment d’appartenance, particulièrement recherché en périodes d’incertitude (crises sanitaires, géopolitiques, climatiques). Ces résultats scientifiques qui attestent des effets positifs du sentiment de nostalgie montrent aussi que la musique s’avère justement le meilleur moyen de générer ces réactions analgésiques et apaisantes.

En outre, le concert nostalgique fonctionne comme une « communion mémorielle » : on y revit une époque, on y transmet (parents/enfants), et l’on y partage une identité culturelle. Cet aspect positif de la nostalgie n’a pas échappé au marketing, qui s’en est largement emparé : packaging rétro, rééditions, retours de marques et d’objets…

La lassitude peut-elle gagner le public ?

Cette exploitation intensive de la nostalgie live n’est pas sans risque. D’une part, si les tribute bands se calquent sur les logiques inflationnistes des concerts originaux, le public acceptera-t-il de payer très cher pour une copie, même (presque) parfaite ? C’est loin d’être acquis et pourtant c’est le mouvement constaté par les professionnels. D’autre part, la saturation est de plus en plus probable. Les gains potentiels attirent de nouveaux entrants, au risque d’une baisse de qualité et d’une fatigue du public. Sans compter qu’une industrie trop centrée sur l’hommage peut freiner la création et la rupture, alors même que la musique est aussi un laboratoire d’innovation.

À l’heure où le numéro 1 des ventes d’album en Angleterre est Wish You Were Here des Pink Floyd, sorti en septembre 1975, la nostalgie musicale live en tant que spectacle vivant innovant apparaît comme un marché robuste, structuré et technologiquement dopé (notamment par les hologrammes et par l’intelligence artificielle). Il est tiré par une demande de réconfort et par des modèles économiques efficaces fondés sur une billetterie et un merchandising habile. Toutefois, sa durabilité dépendra de sa capacité à éviter l’inflation mimétique, la saturation qualitative et le basculement vers une « nostalgie de substitution » qui étoufferait l’émergence des nouveautés.

À moins que le « mashup 100 % live » vienne au contraire réinventer la nostalgie et la marier avec le présent comme le proposent des groupes, comme Analog Society dont le succès récent est tout à fait rafraîchissant.

The Conversation

Pour cette recherche, Joan Le Goff a bénéficié d'un financement du Centre national de la musique.

Marc Bidan a reçu, pour cette recherche, un financement en provenance du centre national de la musique (CNM Lab)

Pour cette recherche, Sylvie Michel a bénéficié d'un financement en provenance du Centre national de la musique.

24.01.2026 à 18:13

« Chemsex » : quand l’excès tente de faire taire la douleur

Laure Westphal, Psychologue clinicienne, Docteure en psychopathologie, Enseignante, Chercheuse associée, Sciences Po
Le « chemsex », qui consiste à prendre de la 3-MMC et autres drogues de synthèse type GHB, GLB ou poppers pendant les relations sexuelles, fait courir des risques pour la santé physique et psychique.
Texte intégral (1967 mots)

Les personnes qui pratiquent le « chemsex », en consommant de la 3-MMC et d’autres drogues de synthèse (GHB, GLB, poppers…) pendant les relations sexuelles, prennent des risques pour leur santé physique et leur intégrité psychique. Mais grâce à un accompagnement dans des services de soins, au sein de groupes d’entraide et/ou avec des proches, ils peuvent revenir à une vie pacifiée.


La pratique du « chemsex » connaît un essor exponentiel ces dernières années. Les usagers s’exposent à des dommages psychiques et corporels. Les demandeurs de soins font apparaître une souffrance d’origines variées, parfois traumatiques.

À la psychothérapie doit se conjuguer la prévention.

Le « chemsex », qu’est-ce que c’est ?

Des événements médiatisés ont révélé une pratique déjà bien connue des soignants. Le « chemsex » est la contraction de chemical (« produit chimique », en anglais) et de sex, et correspond à l’usage de cathinones dans des relations sexuelles, souvent pratiquées à plusieurs, avec des inconnus. Les cathinones sont des produits de synthèse, aux propriétés stimulantes, entactogènes – elles amplifient les sensations physiques –, et empathogènes – l’intimité est facilitée.

Souvent, le néophyte le découvre au décours d’une soirée festive, et fait l’expérience d’un plaisir intense, sans limites physiologiques (la fatigue ou la faim). La 3-MMC (3-MéthylMéthCathinone) est la cathinone la plus fréquemment citée dans nos consultations. Elle peut être consommée avec d’autres drogues de synthèse, du GHB, du GBL, ou du poppers. Dans ce nouveau « paradis artificiel », les participants exacerbent leur sensorialité, au sein d’un groupe d’anonymes, conçu comme « safe ».

À l’usage, ces derniers recourent à des applications géolocalisées de type Grindr qui potentialisent leur rencontre un peu partout et instantanément. Les « chemsexeurs » diversifient les modes de prises : en sniff, en plug (par voie rectale), ou en slam (par voie intraveineuse). Slam, signifiant « claquer », a l’effet le plus puissant. Les produits sont faciles d’accès : le darknet (réseau Internet clandestin, ndlr) livre à domicile. La durée des « plans » augmente au gré de l’appétence au produit, de plusieurs heures à plusieurs jours.

Surdosage, arrêts respiratoires et autres risques

Les usagers prennent des risques, par exemple des G-hole, c’est-à-dire des comas liés à du surdosage, des arrêts respiratoires ou encore des oublis de leur PrEP (prophylaxie préexposition), quand ils suivent ce traitement antirétroviral utilisé par des personnes séronégatives exposées au risque de VIH.

Souvent, les chemsexeurs rapportent d’abord le plaisir d’expérimenter une émancipation extatique. Ils la requalifient d’autothérapeutique, lorsque des revers leur apparaissent comme le résultat de ce qu’ils voulaient oublier : des blessures psychiques plus ou moins profondes.

Avec la pratique, ils perdent l’intérêt pour la sexualité sans cathinones, et même avec : seule l’appétence au produit demeure. Certains finissent par consommer seuls chez eux. Ils régressent dans un repli mortifère.

Une automédication dangereuse

Certains chemsexeurs lui attribuent une fonction ordalique. Lorsqu’ils nous sollicitent, ils se remémorent des carences affectives, des violences psychologiques, comme le rejet familial et/ou intériorisé de leur orientation sexuelle ou de leur identité. D’autres, ou parfois les mêmes, y réactualisent des traumas liés à des violences physiques, ou sexuelles. À des degrés divers, ils s’absentent d’eux-mêmes, accentuent leur état dissociatif, dans des relations anonymes avec des psychotropes. La toxicomanie crée parfois une emprise qui libère d’une autre.

Lorsqu’ils ont été abusés jeunes, c’est souvent par quelqu’un ayant eu un ascendant sur eux, quelqu’un qu’ils admiraient et qui les a trahis. Relégués au rang d’objet, ils se sont fait extorquer leur intimité.


À lire aussi : Violences sexuelles : de nouveaux enjeux de santé mentale pour les psy


Ils se sont construits en déshumanisant le plaisir sexuel. Ils se sont asservis à un excès après l’autre pour forcer l’oubli. Certains déplorent s’assujettir à une société de consommation, ou se « chosifier » les uns les autres, comme s’ils donnaient consistance à une injonction néolibérale de performance.

Clivés, ils entretiennent à leur insu des carences affectives. Cela en a amené certains à aimer des personnes les faisant souffrir. Leur enjeu devient de différencier le fait d’aimer, du fait d’aimer souffrir. Enlisés dans la confusion, ils retournent contre eux la violence qu’ils ont subie par une compulsion aux passages à l’acte. Les plus « avancés » s’isolent, se délaissent. Ils s’octroient des états modifiés de conscience pour édulcorer des reviviscences traumatiques, qui leur reviennent lors de leurs descentes.

Traduire en mots les abus qu’ils ont subis les aide à distinguer ce qui relève de leur choix ou de leur instrumentalisation par une contrainte de répétition. S’ils identifient leurs traumas, ils peuvent retrouver l’origine de leur destructivité qu’ils cherchaient sans succès à fuir, et l’intégrer dans leur vie selon d’autres modalités.

Psychothérapie, prévention, contexte sociétal

Quel que soit le degré d’engagement dans le chemsex, il est essentiel avec les demandeurs de soins de réintégrer ce qu’ils vivent dans la réalité commune, de lever leurs clivages, et d’éviter à leurs excès de constituer des traumas secondaires. Entrer dans l’espace thérapeutique, leur permet de reconnaître à un autre la capacité d’entendre les éléments épars de leur histoire. Ils la pensent et pansent les blessures. Les plus démunis d’ancrage ont pour enjeu préalable de se réinscrire dans une relation humanisante, d’y éprouver la détresse auprès d’un autre secourable avec qui interroger l’avenir : pour qui ne s’abandonneraient-ils pas ?

C’est d’un appui bienveillant dont ils ont besoin d’abord pour résorber leur effraction psychique, se réconcilier avec eux-mêmes et élaborer les enjeux tragiques de leur relation à l’amour. Certains ne savent plus comment aimer, ou s’ils en sont capables. Pour d’autres, cela n’a jamais été une expérience hédoniste.

Après s’être expulsés de la vie de la cité, ils reviennent à la vie ordinaire dans un état de grande fragilité. Leur vie affective progresse dans des services de soins, des groupes d’entraide, de proches, qu’ils considèrent comme leur nouvelle famille.

Ce passage est structurant pour leur prise de parole, complémentairement à celle qu’ils déploient auprès du clinicien. Ce dernier les soutient dans leur démarche créatrice ou sublimatoire qu’ils ouvrent souvent spontanément : la reconversion professionnelle, la reprise d’études, l’expression artistique de leur sensibilité. Ils changent de vie pour participer autrement à celle de la cité.

Certes les cathinones se sophistiquent régulièrement et changent de nom pour défier la législation. Mais cela n’est pas aux usagers d’endosser cette responsabilité. La leur est de demander de l’aide. Il y a quelques années, c’est seulement à un stade avancé, qu’ils nous sollicitaient. Aujourd’hui, les campagnes de prévention et le fait de côtoyer les plus expérimentés les rendent alertes plus tôt. La prise en charge s’est diversifiée et démocratisée.

Les chemsexeurs, des témoins d’un mal-être psychique plus gobal ?

À l’heure où l’usage de drogue refait l’objet de représentations régressives dans un climat politique répressif, les usagers continuent de nécessiter des lieux de soin « safe ». Si l’on n’en tient pas compte, on participe à entraver ou à retarder leurs accès aux soins. En craignant d’être discrédités, ils peuvent préférer nier les violences et les revivre alors à l’identique comme une torture sans fin. Pour la proportion d’usagers ayant subi des violences sexuelles, ils peuvent continuer de se meurtrir en prenant sur eux la responsabilité de leur victimisation préalable. Déposer une plainte, thérapeutique, est structurant : le patient relance dans la thérapie le désir de se respecter.

À l’heure où le mal-être psychique des jeunes gens est criant, où l’appétence aux sites « porno », parfois « trash », est perçu comme un refuge, il paraît essentiel d’éclairer et de prévenir le malaise dont les usagers de chemsex témoignent eux aussi. Le cumul de carences, de traumatismes d’enfance et/ou de traitements discriminatoires nécessite des soins humanisants, étayants, par des professionnels soutenus.

Préférer à l’agir le récit de soi, s’ouvrir à l’altérité et aux relations affectives et se réinscrire dans le collectif leur est généralement possible lorsqu’ils ont appris ou réappris à s’aimer eux-mêmes.

The Conversation

Laure Westphal ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

24.01.2026 à 18:12

Pourquoi mon filtre antispam fonctionne-t-il si mal ?

Antony Dalmiere, Ph.D Student - Processus cognitifs dans les attaques d'ingénieries sociales, INSA Toulouse; Centre national de la recherche scientifique (CNRS)
Les hackeurs développent toujours de nouvelles astuces pour noyer le poisson et franchir les filtres antispam.
Texte intégral (1221 mots)

Comment les spams passent-ils au travers des multiples couches de protection annoncées comme presque infranchissables par les entreprises et par les chercheurs en cybersécurité ?


Les escroqueries existent depuis fort longtemps, du remède miracle vendu par un charlatan aux courriers dans la boîte aux lettres nous promettant monts et merveilles plus ou moins fantasques. Mais le Web a rendu ces canaux moins intéressants pour les arnaqueurs.

Les e-mails de spam et le « phishing » (hameçonnage) se comptent aujourd’hui en millions d’e-mails par an et ont été la porte d’entrée pour des incidents majeurs, comme les fuites d’e-mails internes d’Emmanuel Macron lors de sa campagne présidentielle en 2017, mais aussi le vol de 81 millions de dollars (plus de 69 millions d’euros) à la banque du Bangladesh en 2016.

Il est difficile de quantifier les effets de ces arnaques à l’échelle globale, mais le FBI a recensé des plaintes s’élevant à 2,9 milliards de dollars (soit 2,47 milliards d’euros) en 2023 pour une seule catégorie de ce type d’attaques – les pertes dues aux attaques par e-mail en général sont sûrement beaucoup plus élevées.

Bien sûr, la situation n’est pas récente, et les entreprises proposant des boîtes de messagerie investissent depuis longtemps dans des filtres antispam à la pointe de la technologie et parfois très coûteux. De même pour la recherche académique, dont les détecteurs atteignent des précisions supérieures à 99 % depuis plusieurs années ! Dans les faits pourtant, les signalements de phishing ont bondi de 23 % en 2024.

Pourquoi, malgré ces filtres, recevons-nous chaque jour des e-mails nous demandant si notre compte CPF contient 200 euros, ou bien nous informant que nous aurions gagné 100 000 euros ?

Plusieurs techniques superposables

Il faut d’abord comprendre que les e-mails ne sont pas si différents des courriers classiques dans leur fonctionnement. Quand vous envoyez un e-mail, il arrive à un premier serveur, puis il est relayé de serveur en serveur jusqu’à arriver au destinataire. À chaque étape, le message est susceptible d’être bloqué, car, dans cette chaîne de transmission, la plupart des serveurs sont équipés de bloqueurs.

Dans le cadre de ma thèse, j’ai réalisé une étude empirique qui nous a permis d’analyser plus de 380 e-mails de spams et de phishing ayant franchi les filtres mis en place. Nous avons ainsi analysé une dizaine de techniques exploitées dans des proportions très différentes.

La plus répandue de ces techniques est incroyablement ingénieuse et consiste à dessiner le texte sur une image incluse dans l’e-mail plutôt que de l’écrire directement dans le corps du message. L’intérêt est de créer une différence de contenu entre ce que voit l’utilisateur et ce que voient les bloqueurs de spams et de phishing. En effet, l’utilisateur ne fait pas la différence entre « cliquez ici » écrit dans l’e-mail ou « cliquez ici » dessiné avec la même police d’écriture que l’ordinateur. Pourtant, du point de vue des bloqueurs automatisés, cela fait une grosse différence, car, quand le message est dessiné, identifier le texte présent dans l’image demande une analyse très coûteuse… que les bloqueurs ne peuvent souvent pas se permettre de réaliser.

Une autre technique, plus ancienne, observée dans d’autres contextes et recyclée pour franchir les bloqueurs, est l’utilisation de lettres qui sont jumelles dans leur apparence pour l’œil humain mais radicalement différentes. Prenons par exemple un mail essayant de vous faire cliquer sur un lien téléchargeant un virus sur votre téléphone. Un hackeur débutant pourrait envoyer un mail malicieux demandant de cliquer ici. Ce qui serait vu du point de vue de votre ordinateur par 99 108 105 113 117 101 114. Cette suite de nombres est bien évidemment surveillée de près et suspectée par tous les bloqueurs de la chaîne de transmission. Maintenant, un hackeur chevronné, pour contourner le problème, remplacera le l minuscule par un i majuscule (I). De votre point de vue, cela ressemblera à cIiquer ici – avec plus ou moins de réussite en fonction de la police d’écriture. Mais du point de vue de l’ordinateur, cela change tout, car ça devient : 99 76 105 113 117 101 114. Les bloqueurs n’ont jamais vu cette version-là et donc laissent passer le message.

Tromper les filtres à spams basés sur l’IA

Parmi toutes les techniques que nous avons observées, certaines sont plus avancées que d’autres. Contre les bloqueurs de nouvelle génération, les hackers ont mis au point des techniques spécialisées dans la neutralisation des intelligences artificielles (IA) défensives.

Un exemple observé dans notre étude est l’ajout dans l’e-mail de pages Wikipédia écrites en blanc sur blanc. Ces pages sont complètement hors contexte et portent sur des sujets, tels que l’hémoglobine ou les agrumes, alors que l’e-mail demande d’envoyer des bitcoins. Ce texte, invisible pour l’utilisateur, sert à perturber les détecteurs basés sur des systèmes d’intelligence artificielle en faisant une « attaque adversariale » (montrer une grande quantité de texte anodin, en plus du message frauduleux, de telle sorte que le modèle de détection n’est plus capable de déterminer s’il s’agit d’un e-mail dangereux ou pas).

Et le pire est que la plupart des e-mails contiennent plusieurs de ces techniques pour augmenter leurs chances d’être acceptés par les bloqueurs ! Nous avons dénombré en moyenne 1,7 technique d’obfuscation par e-mails, avec la plupart des e-mails comportant au moins une technique d’obfuscation.


Cet article est le fruit d’un travail collectif entre le Laboratoire de recherche spécialisé dans l’analyse et l’architecture des systèmes (LAAS-CNRS) et le Laboratoire d’études et de recherches appliquées en sciences sociales (LERASS). Je tiens à remercier Guillaume Auriol, Pascal Marchand et Vincent Nicomette pour leur soutien et leurs corrections.

The Conversation

Antony Dalmiere a reçu des financements de l'Université de Toulouse et de l'Institut en Cybersécurité d'Occitanie.

23.01.2026 à 12:24

Le « Board of Peace » pour Gaza de Donald Trump : diplomatie de façade et remise en cause de l’ordre international

Elizabeth Sheppard Sellam, Responsable du programme « Politiques et relations internationales » à la faculté de langues étrangères, Université de Tours
Le très hétéroclite Conseil de la paix est largement constitué d’États autoritaires et placé sous l’autorité directe de Washington.
Texte intégral (2401 mots)

Le Conseil de la paix que Donald Trump vient d’instituer correspond pleinement à sa vision de la diplomatie : celle-ci est transactionnelle et fluide, non contrainte par les règles complexes de l’Organisation des Nations unies et du droit international, et repose avant tout sur des relations personnelles et des intérêts immédiats, bien plus que sur des valeurs.


Présenté dans le contexte de la guerre à Gaza comme une initiative « historique » destinée à accompagner la négociation d’un cessez-le-feu durable et à structurer l’après-guerre à Gaza, le Board of Peace voulu par Donald Trump a été officiellement lancé ce 22 janvier, à Davos, en marge du Forum économique mondial, lors d’une cérémonie de signature largement médiatisée.

Derrière cette mise en scène, une question s’impose : le Board est-il un véritable instrument de négociation politique, ou avant tout un objet trumpien de communication et de personnalisation du pouvoir, conçu en concurrence avec les cadres multilatéraux existants ? À ce stade, il apparaît surtout comme l’expression d’une diplomatie transactionnelle, profondément individualisée et potentiellement déstabilisatrice pour l’ordre international.

Une initiative floue et transactionnelle

Derrière l’affichage diplomatique, c’est une logique de communication politique qui domine. Le lancement à Davos a surtout mis en scène un dispositif centré sur Trump, sans cadre juridique clair ni mandat précis, laissant planer la plus grande ambiguïté sur sa nature : institution internationale, forum informel ou structure privée adossée à la Maison Blanche ?

La vision de la paix sur laquelle s’appuie ce projet est avant tout marchande. À Davos, Trump parle, à propos de Gaza, de reconstruction et de valorisation territoriale dans un langage de promoteur immobilier, son propos étant illustré par la diffusion dans la salle d’images fabriquées par l’IA, présentant une Gaza rutilante.

La paix devient un projet économique, et l’accès au Board une transaction. Certes, l’adhésion au Board of Peace est, en soi, gratuite : aucun État n’est tenu de payer pour en être membre, y compris des pays relativement pauvres comme le Bélarus ou l’Ouzbékistan. En revanche, les États qui souhaiteraient obtenir un siège permanent devront verser une contribution financière. Le dispositif ne dispose d’aucun calendrier ni de mécanismes de décision ou de mise en œuvre des accords. En réalité, il relève davantage d’un instrument symbolique que d’un véritable processus de résolution des conflits. Si bien qu’il a pu être qualifié de « club privé pour diriger le monde », fondé sur l’affichage politique et la personnalisation du pouvoir.

Ce dispositif ne cherche pas à réformer les institutions existantes, mais à leur substituer une diplomatie parallèle, détachée du droit international et dominée par l’autorité personnelle du président américain. Il installe une logique ouvertement transactionnelle, où la participation repose sur l’échange d’intérêts : reconnaissance contre loyauté, accès contre financement, visibilité contre alignement stratégique.

Une remise en cause directe de l’ordre international existant

Le Board prétend promouvoir la paix tout en réunissant des acteurs qui ne partagent ni normes démocratiques ni principes juridiques communs. À ce stade, sur près de soixante États invités par l’administration Trump, environ 35 pays ont accepté de participer au Board of Peace.

Parmi eux figurent plusieurs régimes autoritaires ou illibéraux, tels que l’Azerbaïdjan, le Bélarus, l’Arabie saoudite, l’Ouzbékistan ou encore le Vietnam, ce qui interroge directement la cohérence politique et normative de cette initiative. La Russie de Vladimir Poutine, bien qu’officiellement invitée, n’a pas encore confirmé son adhésion, le Kremlin affirmant devoir en « clarifier les modalités ».

Cette configuration renforce l’ambiguïté du dispositif : l’adhésion, nous l’avons dit, est gratuite, mais l’accès à un siège permanent repose sur une contribution financière dite volontaire d’un milliard de dollars, ce qui donne au Conseil l’allure d’un assemblage diplomatique hétéroclite fondé sur des logiques transactionnelles plus que sur des principes communs. Il donne l’image d’un cercle où la légitimité se mesure moins aux valeurs qu’à l’utilité politique. Trump s’y impose comme arbitre central, concentrant la reconnaissance diplomatique et faisant de la paix un capital politique.

Ce fonctionnement prolonge une évolution déjà engagée par les États-Unis, marquée par une réticence croissante à s’inscrire dans des cadres juridiques contraignants.

Le Board n’ouvre donc pas une rupture ; il accélère une dynamique d’érosion. Il fait primer la décision politique immédiate sur la régulation collective et fragmente la gouvernance mondiale, désormais fondée sur des dispositifs informels et personnels.

L’Europe face au Board : méfiance, refus et lucidité stratégique

Des alliés majeurs des États-Unis comme l’Australie, le Japon ou la Corée du Sud n’ont pas confirmé leur participation, tandis que le Canada a été placé dans une situation encore plus singulière, son invitation ayant été unilatéralement retirée par Donald Trump, révélant le caractère à la fois politique et arbitraire de la composition du Board of Peace.

En Europe, l’initiative suscite d’emblée une méfiance marquée, et dans plusieurs cas un refus assumé d’y participer. La France, l’Allemagne, les Pays-Bas, la Belgique, l’Espagne, la Suède et la Norvège ont exprimé leurs réserves face à un dispositif dont la légitimité politique et juridique apparaît incertaine. Ce n’est pas un désaccord tactique, mais un désaccord de principe : participer reviendrait à cautionner une structure qui contourne les institutions internationales existantes, sans cadre juridique clair ni articulation avec le droit international.

Pour les Européens, le Board apparaît comme un facteur de déstabilisation plus que comme un outil de pacification. Il légitime l’idée que les grandes crises peuvent être traitées en dehors de toute architecture collective, alors que la diplomatie européenne repose précisément sur l’inverse : la centralité du droit, la primauté du multilatéralisme et la recherche de compromis institutionnalisés.

L’incompatibilité est aussi idéologique. Le Board incarne une diplomatie transactionnelle, peu sensible aux normes juridiques et aux valeurs démocratiques, là où l’UE continue de revendiquer une action extérieure fondée sur des principes. L’enjeu dépasse ainsi Gaza pour toucher à la définition même de ce qui constitue une action internationale légitime.

Enfin, le Board s’impose comme un marqueur supplémentaire de la fracture transatlantique. Il révèle une divergence croissante entre Washington, qui privilégie des formats ad hoc et personnalisés, et les Européens, attachés à une architecture collective, imparfaite mais structurante.

Le Board et Israël : attentes, désillusions et instrumentalisation politique

Pour Israël, l’initiative touche au cœur de ses intérêts sécuritaires. Dans le contexte de la guerre à Gaza, l’attente demeure celle d’un leadership américain capable de structurer l’après-conflit. Jérusalem ne peut donc ignorer un dispositif porté par Washington, même imparfait.

La méfiance est cependant apparue immédiatement. L’annonce de la composition du Board, qui inclut notamment la Turquie et le Qatar, a suscité de fortes réserves, du fait de l’hostilité politique croissante d’Ankara envers Israël, et des liens que Doha entretient avec le Hamas. Le bureau de Benyamin Nétanyahou a rappelé que la démarche n’avait pas été coordonnée avec Jérusalem… avant qu’Israël accepte finalement d’y participer, faute de pouvoir rester en dehors d’un processus directement piloté par l’administration américaine. Cette séquence illustre une constante de la diplomatie israélienne : Israël est directement concerné, il ne peut pas dire non, mais avance avec prudence structurelle.

La centralité accordée à Steve Witkoff comme émissaire principal est d’autant plus controversée que, selon plusieurs responsables israéliens, il aurait pesé pour empêcher une frappe américaine contre l’Iran mi-janvier, ce qui alimente une forte défiance à son égard, d’autant plus qu’il siège au cœur de l’Executive Board du Board of Peace, instance restreinte appelée à concentrer l’essentiel du pouvoir décisionnel.

Steve Witkoff agit comme l’émissaire personnel de Donald Trump bien au-delà du Board of Peace : c’est lui qui a conduit les échanges directs avec le ministre iranien des affaires étrangères et qui a été au cœur des négociations menées à Doha, notamment sur Gaza. Sa présence dans l’Executive Board du Board of Peace renvoie donc moins à un rôle symbolique qu’à une position de pouvoir réel, cet organe restreint concentrant l’essentiel de l’impulsion politique et du contrôle opérationnel de l’initiative. Cela fait de Witkoff à la fois un négociateur de terrain et l’un des pivots décisionnels du dispositif, ce qui explique l’ampleur des critiques qu’il suscite, notamment en Israël.

La question polarise en tout cas le débat israélien, entre acceptation pragmatique et rejet d’un mécanisme perçu comme dangereux par les ministres israéliens d’extrême droite, parce qu’il implique des acteurs qu’ils estiment hostiles ou complaisants envers le Hamas et qu’il s’oppose à leur objectif de contrôle direct et durable de Gaza au nom de la sécurité d’Israël.

Le Board devient ainsi le symbole de la tension permanente entre la dépendance stratégique d’Israël envers Washington et sa défiance face à une diplomatie trop fondée sur les liens personnels pour constituer un cadre fiable de long terme.

Du côté palestinien, la réaction est plus nuancée qu’on ne le dit souvent : l’Autorité palestinienne a accueilli l’initiative avec prudence mais sans hostilité frontale, y voyant une possible ouverture diplomatique, tandis que d’autres acteurs palestiniens dénoncent un dispositif conçu dans un cadre avant tout américano-israélien et ne leur offrant pas de garanties politiques réelles. En parallèle, des pays qui se présentent traditionnellement comme des défenseurs de la cause palestinienne – comme l’Égypte, l’Indonésie ou l’Arabie saoudite – mais qui sont aussi, pour certains, en paix avec Israël ou engagés dans des processus de normalisation, justifient leur participation au Board of Peace par un discours de pragmatisme diplomatique : mieux vaut siéger à la table des discussions pour peser sur la reconstruction de Gaza et l’après-guerre que rester en dehors d’un processus piloté par Washington.

Une rupture profonde

« Une fois que ce conseil sera complètement formé, nous pourrons faire à peu près tout ce que nous voulons ». Cette phrase prononcée par Trump à Davos résume le Board of Peace. Elle ne parle pas de paix, mais de pouvoir : une diplomatie fondée sur la maîtrise, la transaction et la personnalisation de l’action internationale.

Ce qui devait constituer le socle d’un processus durable au Moyen-Orient s’est transformé en un exercice de mise en scène, où l’ego présidentiel, l’argent et les projets portés par Witkoff ou Jared Kushner, gendre du président et businessman très actif dans la région, prennent le pas sur toute logique de négociation réelle. La paix n’y apparaît plus comme un objectif politique, mais comme un actif et un instrument de valorisation.

Plus qu’un projet de paix, le Board révèle une rupture profonde : celle d’un ordre international où la règle cède devant la transaction, où l’institution recule face à la personnalisation, et où la diplomatie devient un espace de démonstration de puissance plus qu’un lieu de construction du compromis.

The Conversation

Elizabeth Sheppard Sellam ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.01.2026 à 12:08

Donald Trump ou pas, le Groenland, futur pivot logistique arctique

Gilles Paché, Professeur des Universités en Sciences de Gestion, Aix-Marseille Université (AMU)
Le Groenland n’est pas seulement un territoire gorgé de ressources naturelles. Il se positionne comme un nœud stratégique majeur pour les chaînes d’approvisionnement mondiales.
Texte intégral (2753 mots)

Loin d’être seulement un territoire gorgé de ressources naturelles attisant toutes les convoitises, le Groenland se place comme un nœud stratégique majeur pour les chaînes d’approvisionnement mondiales. Une telle réalité reste encore trop souvent méconnue.


Depuis la réélection de Donald Trump, le Groenland occupe une place grandissante dans les débats politiques, souvent réduit dans les médias à une question de captation de ressources naturelles. Terres rares, uranium, hydrocarbures ou eau douce sont fréquemment présentés comme les motivations principales de l’intérêt renouvelé du président des États-Unis et, plus largement, des grandes puissances pour ce territoire arctique. Bien que fondée sur des enjeux réels, une telle lecture que l’on qualifiera d’extractive tend à simplifier la nature des tensions actuelles dans la mesure où elle masque une transformation plus profonde des équilibres mondiaux.

Le Groenland apparaît en effet moins comme un simple réservoir de ressources naturelles que comme un espace clé de circulation et de projection des flux dans un contexte de profonde reconfiguration des échanges. Les chaînes d’approvisionnement mondiales, longtemps structurées autour de routes méridionales, sont aujourd’hui fragilisées par les crises géopolitiques et la saturation des infrastructures existantes. D’où une interrogation récurrente : l’Arctique n’émerge-t-il pas comme un nouvel horizon logistique rendu progressivement accessible par le recul de la banquise ? Le Groenland, par sa position centrale entre l’Amérique du Nord, l’Europe et l’Asie, deviendrait alors un élément clé de la recomposition en cours, bien au-delà de la seule question des ressources.

De nouvelles routes maritimes arctiques

Le commerce maritime mondial repose historiquement sur quelques grandes routes structurantes : le canal de Suez (Égypte), le canal de Panama, le détroit de Malacca (Thaïlande, Indonésie, Malaisie) ou encore le cap de Bonne-Espérance (Afrique du Sud). Ces passages sont à la fois vitaux et très vulnérables, comme l’a montré l’ensablement du porte-conteneurs Ever Given en mars 2021 dans le canal de Suez. De ce point de vue, l’Arctique apparaît de plus en plus comme une alternative crédible. En effet, la réduction de la banquise estivale, fruit du réchauffement climatique, ouvre progressivement trois axes majeurs :


À lire aussi : Les ressources du Groenland, entre protection de l’environnement et tentation du profit


Même si les routes indiquées sur la carte 1 ne sont pas encore accessibles toute l’année, leur fenêtre de navigabilité s’allonge et leur fiabilité augmente. L’intérêt logistique est considérable puisqu’un trajet maritime entre l’Asie de l’Est et l’Europe du Nord peut être raccourci de 30 à 40 % par rapport à un trajet par le canal de Suez, réduisant à la fois le temps de transport, la consommation de carburant et les émissions polluantes.

Carte 1. Nouvelles routes maritimes ouvertes grâce à la fonte des glaces

« La Dépêche », 15 janvier 2026., Fourni par l'auteur

Pour les chaînes d’approvisionnement mondiales, dont les délais et les coûts sont des variables critiques, ces gains sont loin d’être négligeables. Le Groenland ne constitue pas ici seulement un lieu de transit passif. Sa position géographique en fait au contraire une zone idéale pour des fonctions de soutien en matière d’escales techniques, de ravitaillement et d’assistance aux navires, mais aussi d’opérations de recherche et de sauvetage.

Il convient toutefois de nuancer l’enthousiasme qui gagne certains observateurs quant à l’émergence d’une nouvelle géographie des flux. Les routes arctiques, actuelles et à venir, restent soumises à des conditions extrêmes (météo imprévisible, dérive des glaces, ou encore manque de cartographie précise). La logistique arctique est donc plus complexe, plus risquée et plus coûteuse en infrastructures que la logistique des chaînes mondiales d’approvisionnement mise en œuvre depuis le début des années 1980. C’est précisément pour répondre à ces contraintes que le Groenland gagne en importance : en servant de base avancée pour la coordination et l’intervention, il devrait contribuer à la viabilité économique de nouvelles routes.

La logistique, un instrument de puissance

Dans le monde contemporain, nul doute que la logistique n’est plus un simple outil technique au service des échanges de biens et services. Elle est devenue clairement un instrument de puissance, au même titre que la maîtrise de ressources énergétiques et des technologies, notamment d’intelligence artificielle. Contrôler des routes et des nœuds critiques, c’est influencer les flux économiques et, par extension, les rapports de force internationaux. Or, le Groenland, territoire autonome rattaché au Danemark, se trouve de facto intégré aux structures occidentales, notamment via l’Otan. Il est ainsi un élément clé de l’architecture sécuritaire de l’Atlantique Nord et de l’Arctique.

Depuis la fin de la Seconde Guerre mondiale, les États-Unis considèrent le Groenland comme un maillon essentiel de leur sécurité. La base spatiale de Pituffik (base aérienne de Thulé, jusqu’en 2023), construite en 1951, et aujourd’hui intégrée au dispositif de défense antimissile et de surveillance états-unien, illustre cette vision géostratégique que la carte 2 permet de mieux visualiser.

Au-delà de sa fonction militaire, la base de Pituffik joue également un rôle logistique majeur dans le suivi des flux maritimes de l’Arctique. Compte tenu du contexte de rivalités accrues avec la Russie et de méfiance vis-à-vis des ambitions chinoises, l’administration Trump cherche à renforcer sa présence et ses partenariats dans la région. La logistique, entendue comme capacité à soutenir et protéger des flux, en constitue un élément clé.

Carte 2. Les États-Unis sous la menace des missiles balistiques russes

« Ouest-France/Lignes de Défense », 7 janvier 2026., Fourni par l'auteur

La Russie dispose du plus long littoral arctique et a investi massivement dans des infrastructures portuaires, des brise-glaces et des bases militaires le long de la route du Nord-Est. Pour Moscou, cette route est à la fois un atout économique et un levier géopolitique. Concernant la Chine, bien que non riveraine, elle se définit depuis 2018 comme un « État proche de l’Arctique » et intègre la région dans son initiative des nouvelles Routes de la Soie. À ce titre, ses investissements potentiels dans les ports et les câbles sous-marins suscitent une vigilance accrue des pays occidentaux. Dans un contexte de montée en puissance des stratégies arctiques russe et chinoise, le Groenland apparaît ainsi comme un point de cristallisation des enjeux logistiques et sécuritaires occidentaux.

Un multiplicateur de puissance

Loin d’être un simple territoire périphérique, le Groenland concentre en effet des fonctions essentielles de surveillance et de protection des infrastructures critiques structurant les chaînes d’approvisionnement mondiales. Routes maritimes émergentes, ports en développement, câbles de communication sous-marins et capacités satellitaires y convergent. Leur sécurisation conditionne non seulement la fluidité des échanges, mais aussi la résilience des systèmes militaires, numériques et énergétiques occidentaux. Dès lors, le Groenland s’impose comme un véritable « multiplicateur » de puissance : y contrôler l’accès et le soutien logistique confère un avantage stratégique décisif dans tout l’Arctique. Une telle centralité illustre l’imbrication croissante entre logistique et stratégie dans les rivalités entre puissances.

Le développement de la logistique arctique repose avant toute chose sur les infrastructures. Le Groenland possède un potentiel important pour l’accueil de ports en eau profonde capables de recevoir des navires de grande taille. Un accord signé en septembre 2025 entre le Danemark et le gouvernement groenlandais prévoit ainsi la construction d’un deep‑water port à Qaqortoq, dans le sud du territoire. Ce type de port joue un rôle de plate-forme multimodale, reliant transport maritime et aérien et, à terme, des réseaux numériques avancés. Il permettra de consolider, redistribuer ou rediriger les flux entre l’Amérique du Nord, l’Europe et l’Asie, en particulier pour les marchandises à forte valeur ajoutée ou sensibles aux délais.

Un futur hub logistique majeur

Au-delà des ports, la logistique moderne repose sur une gamme étendue de services : stockage stratégique, maintenance des flottes, gestion des carburants, traitement des données de navigation. Le Groenland pourrait accueillir des bases spécialisées dans le soutien, réduisant la dépendance à des infrastructures éloignées, situées plus au sud. Ajoutons que le climat froid, souvent perçu comme un handicap, constitue également un avantage concurrentiel pour l’implantation de data centers. Le refroidissement naturel réduit les coûts énergétiques (de 40 à 80 % de la consommation totale), tout en renforçant la résilience des infrastructures numériques.

Il serait toutefois illusoire de comparer en l’état le Groenland à des hubs logistiques matures tels que Singapour ou Rotterdam, traitant respectivement des centaines de millions de tonnes de marchandises par an. Avec une population d’environ 56 000 habitants, le territoire est confronté à des contraintes structurelles majeures : aucune route interurbaine ni voie ferrée, des infrastructures conçues pour de faibles volumes et une dépendance presque exclusive au transport aérien et maritime.

France Culture 2026.

De telles limites réduisent l’attractivité des routes arctiques pour le trafic commercial de grande échelle et exigent des investissements considérables afin d’accroître la capacité logistique locale. À moyen et long terme, le Groenland pourrait cependant se positionner comme un nœud logistique complémentaire
– plutôt que concurrent – des grands hubs mondiaux
.

Héritages et perspectives

Les axes logistiques ont toujours façonné le pouvoir des États. Des Routes de la Soie aux canaux de Suez et de Panama, la maîtrise des flux a déterminé les fortunes économiques et la capacité de projection militaire. Dans cette lignée, le Groenland pourrait incarner un jalon stratégique analogue pour le XXIe siècle. Son positionnement géographique central, combiné à des infrastructures adaptées, en fait un pivot capable d’influencer non seulement le commerce arctique mais aussi les chaînes d’approvisionnement mondiales. La logistique y devient ainsi un vecteur de puissance, révélant comment la maîtrise des circulations matérielles et numériques redessine la hiérarchie des États dans un monde multipolaire.

Au-delà de la géographie et de l’économie, le Groenland illustre l’imbrication croissante entre technologie, environnement et stratégie. Les défis du climat arctique obligent à innover en matière d’infrastructures et de sécurité, tandis que l’histoire contemporaine rappelle que le contrôle de points névralgiques produit des effets durables sur l’équilibre global des échanges.

En ce sens, le Groenland ne peut être réduit à un territoire dont les riches ressources sont à portée de main, mais un laboratoire de la puissance logistique où sécurité, commerce et innovation convergent. À n’en point douter, son rôle futur devrait résonner comme une preuve supplémentaire que les flux – et ceux qui les organisent – façonnent en profondeur le nouvel ordre mondial.

The Conversation

Gilles Paché ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

23.01.2026 à 12:07

La « méthode Lecornu » a-t-elle échoué ?

Thomas Ehrhard, Maitre de conférences, Université Paris-Panthéon-Assas
Sébastien Lecornu utilise finalement le 49-3 pour son budget, ce qu’il avait exclu. Il ne s’agit pas tant d’un échec de sa « méthode » que d’un vice originel lors de la formation du gouvernement.
Texte intégral (1933 mots)

Deux motions de censure ont été déposées, le vendredi 23 janvier, en réponse à l’utilisation de l’article 49-3 par Sébastien Lecornu sur la partie recettes du budget. La promesse du premier ministre de ne pas faire usage de cet outil constitutionnel en négociant des compromis avec les groupes parlementaires a été rompue. Pourtant, il ne s’agit pas tant d’un échec de méthode que d’une conséquence d’un vice originel concernant la formation du gouvernement.


Malgré les promesses et les sentiments d’un premier ministre « un peu amer » d’avoir perdu le « pari », d’après ses propres mots, la tentation d’y voir un « échec de la « méthode Lecornu » est grande avec le retour du « 49-3 » sur la scène politique.

Cependant, les trois mois d’examen parlementaire ne soldent pas un échec de méthode, mais bien la conséquence logique d’un vice originel concernant la formation du gouvernement.

Deux raisons qui expliquent cet échec

D’abord, le gouvernement est mal né avec un processus de nomination et de renomination improbable, ne s’appuyant sur aucune majorité gouvernementale, aucune majorité parlementaire, et aucune majorité partisane. Or, ce triptyque détermine la logique institutionnelle majoritaire du régime parlementaire de la Ve République.

Ensuite, conséquemment, le gouvernement aurait dû, comme dans les autres régimes parlementaires lorsqu’aucun parti ne dispose à lui seul d’un nombre de sièges majoritaire à la chambre basse, essayer de s’appuyer sur une coalition. Il n’en a rien été.


À lire aussi : Vu de l’étranger : comment choisir un premier ministre face à une Assemblée divisée ?


Or, en France comme à l’étranger, les compromis ne résultent pas de débats parlementaires dans lesquels des orateurs se convaincraient au terme d’argumentations faisant changer d’avis ceux qui les écoutent. Les compromis se font a priori, avant la nomination du gouvernement, et précisément en contractualisant les réformes, leurs contenus, et leur calendrier. Tous les autres pays (Allemagne, Belgique, Espagne, Pays-Bas, etc.) fonctionnent ainsi. Dans le contexte actuel, l’erreur initiale vient donc de la manière dont le premier ministre a été nommé, plaçant le gouvernement dans une position de faiblesse définitive.

Il n’existe pas de « méthode Lecornu »

Cet épisode budgétaire n’est donc qu’une énième péripétie dérisoire et prévisible, mais qui permet de comprendre certains des dérèglements et des lacunes de la vie politique et institutionnelle française.

Premièrement, il n’existe pas de « méthode Lecornu » : le gouvernement n’a ni dirigé les débats, ni gouverné le contenu du texte dont tous les acteurs disent avoir obtenu gains de cause (sauf LFI et RN), ni eu les moyens de l’ingéniosité du gouvernement Barnier qui s’est appuyé sur le Sénat pour être majoritaire en commission mixte paritaire. Au contraire, il a subi le calendrier, malgré ses tentatives répétées de dramatisation, subi les rivalités inter et intra-partisanes, malgré ses tentatives de dépolitiser le budget « pour la France ». Il a subi, enfin, les jeux parlementaires, malgré son étrange renoncement à l’article 49 alinéa 3 de la Constitution. Difficile d’y voir une nouvelle méthode de gouvernement, tant il s’agit là d’un acte d’impuissance.

Deuxièmement, un gouvernement ne peut pas dépendre d’un consentement renouvelé quotidiennement (« Gouverner, c’est prévoir ») et rempli de lignes rouges des députés et partis. Cela, dans un contexte majoritaire ou non, à un ou plusieurs partis. Les contrats de coalition servent justement à anticiper le contenu de la partition gouvernementale, et laissent au quotidien l’exécution de ce contrat. Ils sont négociés durement, pendant plusieurs mois, allongeant d’autant la période entre les résultats législatifs et la nomination du gouvernement : 18 mois en Belgique (2010), de 7 à 9 mois aux Pays-Bas (2017, 2021), 6 mois en Allemagne (2017), 4 mois en Espagne (2023). Cela n’est pas un problème démocratique mais la prise en compte de la fragmentation parlementaire à minorités multiples. Cela rappelle l’idée élémentaire selon laquelle, dans un régime parlementaire, le gouvernement doit être doté d’une légitimité avant de gouverner et d’exercer sa responsabilité.

Les véritables responsables

Plus largement, cet épisode donne à voir les autres acteurs. Reconnaissons ainsi à Sébastien Lecornu que cette erreur n’est pas la sienne et qu’il importe finalement peu. Qui porte la responsabilité ?

  • Le président de la République et ses conseillers (ceux-là mêmes qui lui ont soufflé l’idée de dissoudre l’Assemblée nationale) portent la responsabilité de cette erreur. Elle remonte au lendemain des législatives de juillet 2024. Depuis lors, trois premiers ministres se sont succédé, tous nommés selon des calculs politiciens reposant sur des capacités supposées à obtenir l’abstention de LFI ou du RN, puis du PS ou de LR, en cas de motions de censure. Comme dans tous les autres régimes parlementaires, le chef du parti ayant remporté le plus de sièges aurait dû être appelé à tenter de former un gouvernement, puis en cas d’échec, le deuxième, etc. Un premier ministre n’aurait donc dû être nommé qu’après avoir construit une coalition au programme de gouvernement contractualisé, démontrant, de fait, une assise suffisante à l’Assemblée nationale.

  • Le Parlement, pris au piège par le gouvernement qui a tenté de le responsabiliser pour cacher son impuissance, dans une inversion malvenue des rôles, n’est pas devenu le gouvernement.

  • L’Assemblée nationale a confirmé que sa capacité à légiférer était compromise (contrairement à ce qu’ont pu affirmer certains commentateurs à propos d’un nouvel « âge d’or » du parlementarisme). On peut expliquer cette incapacité par la subordination de l’Assemblée en tant qu’institution mais aussi par son déclassement politique, lié au manque de poids politique des nouveaux députés depuis 2017.

  • Le Sénat a montré ses limites constitutionnelles. Autrement dit, la Seconde Chambre, doublement exclue des influences politiques et institutionnelles, n’a pas pu peser sur l’examen du projet de loi de finances et a donc travaillé vainement.

Quels enseignements en tirer ?

Cet épisode apporte des enseignements, de plus en plus flagrants depuis juillet 2024.

1) L’arithmétique de l’Assemblée nationale expose une double impasse. D’une part, le président de la République ne dispose plus d’une majorité parlementaire pour gouverner comme il l’a fait entre 2017 et 2022 : c’est la fin du « présidentialisme majoritaire » qui caractérisait jusqu’alors la Ve République. Mais, d’autre part, aucune majorité alternative ne s’est constituée autour du premier ministre, contrairement aux périodes de cohabitation (1986-1988, 1993-1995, 1997-2002), pour opérer un « retour au texte » de la Constitution – c’est-à-dire une lecture où le premier ministre gouverne effectivement.

Dès lors, toute discussion sur l’inadaptation supposée des règles de l’examen parlementaire des projets de loi de finances est malvenue. Elles attribuent les échecs du gouvernement et de l’Assemblée aux règles de procédure – comme l’a suggéré la présidente de l’Assemblée nationale Braun-Pivet – alors que les causes sont ailleurs. Le changement de procédure n’aurait pas conduit à un résultat différent. Les propositions de réformes (comme celles du Haut-Commissariat au plan) écartent le poids du contexte politique et, pis, relèvent d’une vision techniciste et d’un solutionnisme normatif dépassé.

2) Ni présidentialisme ni « retour au texte » de la Constitution : nous assistons à la fin des modèles connus de la Ve République. Dans ce contexte, les institutions ne sont « bien faites » pour personne (François Mitterrand déclarait en juillet 1981 : « Les institutions n’étaient pas faites à mon intention. Mais, elles sont bien faites pour moi. ») Un changement de texte (qui serait le 26ᵉ…) ou un nouveau mode de scrutin ne changerait ni les votes des Français, ni le populisme, ni le déclin des partis de gouvernement, ni les acteurs politiques. Le contexte de fragmentation appelle un nouveau modèle reposant sur la formation d’un gouvernement de coalition comme à l’étranger – ce que permet le texte de la Constitution aux lectures multiples.

3) Reste aux acteurs politiques à le penser et le mettre en œuvre. Mais, au regard des atermoiements du président de la République depuis 2022, des députés qui ont intériorisé leur incompétence à légiférer (comme l’illustrent les motions de rejet préalable de mai et juin 2025 utilisées pour contourner le débat à l’Assemblée nationale par des majorités de circonstance pourtant favorables aux textes), et des partis et candidats tournés vers la prochaine élection présidentielle comme sous la IVe République vers la prochaine crise institutionnelle, il n’est pas certain qu’ils y arrivent.

La séquence ouverte en 2017 a disrupté le système politique, sans construire. S’appuyant sur les institutions et le fait majoritaire jusqu’en 2022, Emmanuel Macron n’a pas su, depuis, instaurer un mode de fonctionnement adapté à l’absence de majorité. Faute d’avoir pensé un gouvernement par coalition négociée, le pouvoir exécutif s’épuise à chercher des majorités de circonstance et à attendre du Parlement ce qu’il ne peut pas faire. Tant que cette leçon ne sera pas tirée, il n’y aura pas de méthode – Lecornu ou autre. Les institutions en sortent abîmées ; LFI et RN : 25 sièges en 2017, 198 depuis 2024. In fine, la question n’est peut-être plus de savoir qui gouvernera, mais s’il sera encore possible de gouverner.

The Conversation

Thomas Ehrhard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.01.2026 à 17:24

Quand les morts quittent les cimetières : nouvelles pratiques funéraires en pleine nature

Pascaline Thiollière, architecte (M'Arch), enseignante et chercheuse sur les ambiances et approches sensibles des espaces habités, Ecole d'architecture de Grenoble (ENSAG)
On assiste en France, à travers la dispersion des cendres des défunts, à une émancipation créative face à la tradition contraignante de la tombe et du cimetière.
Texte intégral (2049 mots)
Une dispersion de cendres à Courtrai, en Belgique, dans le cimetière conçu par B. Secchi. Fourni par l'auteur

À bas bruit et hors de portée du marché du funéraire se développent des pratiques qui déplacent les morts et leur mémoire à l’extérieur des cimetières dans des espaces bien réels, au plus près des valeurs et des façons de vivre dont témoignaient les défunts de leur vivant.


Lorsque les espaces et les pratiques funéraires sont évoquées dans les médias ou dans le débat public français, c’est souvent aux approches des fêtes de la Toussaint, pour relater des évolutions en cours dans la gestion des funérailles et des cimetières, et pour mettre en lumière des services, objets, techniques ou technologies dites innovantes. Il était ces dernières années beaucoup question de l’écologisation des lieux et techniques funéraires (cimetière écologique, humusation/terramation, décarbonation des produits funéraires) et de la digitalisation du recueillement et de la mémoire (deadbots, gestion post-mortem des volontés et des données numériques, cimetières et mémoriaux virtuels, télétransmission des cérémonies). Mais discrètement, d’autres pratiques voient le jour.

Avec la crémation devenue majoritaire dans de nombreux territoires français, la dispersion des cendres dite « en pleine nature » se révèle très importante dans les souhaits et de plus en plus dans les faits. Pourtant, beaucoup méconnaissent le cadre légal et pratique de son application. Cet article dévoile les premiers éléments d’une enquête en cours sur ces pratiques discrètes qui témoignent d’une émancipation créative face à la tradition contraignante de la tombe et du cimetière.

Des cimetières de moins en moins fréquentés

Le cimetière paroissial du Moyen Âge qui plaçait la communauté des morts au plus près de l’église et de ses reliques, dans la promesse de son salut et de sa résurrection, était un espace multifonctionnel et central de la vie et de la ville.

Le cimetière de la modernité matérialiste et hygiéniste est déplacé dans les faubourgs, puis dans les périphéries de la ville et se marginalise petit à petit des fonctions urbaines. Il devient, comme le dit Foucault, « l’autre ville, où chaque famille possède sa noire demeure », puis s’efface dans l’étalement urbain du XXᵉ siècle.

À l’intérieur des murs d’enceinte qui deviennent souvent de simples clôtures, les aménagements pour gagner de la place se rationalisent, le mobilier d’un marché funéraire en voie d’industrialisation et de mondialisation se standardisent. Les morts y sont rangés pour des durées de concessions écourtées au fil des décennies, sous la pression d’une mortalité en hausse (génération des baby-boomers) et de la saturation de nombreux cimetières urbains.

Dans les enquêtes régulières sur « Les Français et les obsèques » du Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc), les Français montrent peu d’affection envers leurs cimetières qu’ils jugent trop souvent démesurés, froids et impersonnels. Alors qu’ils étaient encore 50 % en 2005, seulement un tiers des Français de plus de 40 ans continuent vingt ans plus tard à les fréquenter systématiquement à la Toussaint. Pour les Français de moins de 40 ans, ils sont encore moins souvent des lieux de sens et d’attachement.

Cette désaffection des cimetières, pour beaucoup synonymes d’enfermement tant matériel que mental, explique en partie l’essor de la crémation et de la dispersion des cendres. Les dimensions économiques et écologiques de ces options funéraires viennent renforcer cette tendance et s’exprime par la volonté de ne pas être un poids pour ses descendants (coût et soin des tombes) et/ou pour la planète (bilan carbone important de l’inhumation avec caveau et/ou monuments), et illustre la proposition de garder l’espace pour les vivants et le vivant.

La crémation gagne du terrain

La crémation était répandue en Europe avant sa christianisation et a même été conservée marginalement en périodes médiévales dans certaines cultures d’Europe du Nord. Elle se pratiquait sur des bûchers à foyer ouvert. Sa pratique, telle que nous la connaissons aujourd’hui en foyer fermé, a été rendue possible par la technique et l’essor du four industriel au XIXᵉ siècle, et par la plaidoirie des crématistes depuis la Révolution française jusqu’à la fin du XXᵉ siècle où la pratique va définitivement s’instituer.

Si les fragments calcinés étaient conservés communément dans des urnes, c’est avec l’apparition d’une autre technique industrielle dans le crématorium que la dispersion a pu être imaginée : la crémulation, c’est-à-dire la pulvérisation des fragments sortant du four, permettant d’obtenir une matière plus fine et moins volumineuse. Cette matière aseptisée par le feu et homogénéisée par le crémulateur peut alors rejoindre d’autres destinations que les urnes et le cimetière.

En 1976, un nouveau texte de loi insiste sur le fait que les cendres doivent être pulvérisées afin que des ossements ne puissent y subsister, effaçant ainsi ce qu’il restait de la forme d’un corps. Cette nouvelle matérialité peut alors se fondre discrètement dans nos lieux familiers, les morts se retrouvent inscrits dans nos paysages privilégiés, et leur souvenir cohabiter avec les activités récréatives et contemplatives qui prennent place dans les espaces naturels non aménagés.

Dispersions, disséminations

Alors que de nombreux Français pensent cette pratique interdite, son cadre légal et la notion de « pleine nature » ont été précisés en 2008 et en 2009. Ce cadre relativement souple permet de disperser les cendres en de nombreux espaces publics (sauf sur la voie publique) à distance des habitations et zones aménagées (parcs naturels, forêts, rivières, mers éloignées des côtes), plus difficilement dans des espaces privés avec la contrainte d’obtenir l’accord du propriétaire d’un droit d’accès perpétuel, ce qui peut poser des difficultés au moment des ventes de biens.

La « pleine nature » correspond aujourd’hui à une proportion d’un quart à un tiers des destinations des cendres des défunts crématisés. À travers un appel à témoignages anonymes en ligne ouvert dans le cadre d’une recherche en cours depuis 2023, une cinquantaine de micro-récits de dispersion ont été rassemblés et constituent un premier corpus pour appréhender ces pratiques discrètes et peu documentées. Ces récits inédits révèlent l’émergence de nouvelles manières de rendre hommage aux défunts et de donner du sens à la mort et à la vie dans des mondes contemporains en crise.

Le milieu du funéraire et de l’accompagnement du deuil se montre réservé face à cette pratique donnant lieu à des sépultures labiles en proie aux éléments, sans traces tangibles identifiant les défunts et sans garantie de se transmettre au fil des générations, parfois difficilement accessibles, isolant ces morts des autres morts.

Faisant écho de craintes parfois avérées de rendre les deuils plus difficiles, les professionnels doivent pourtant reconnaître que malgré ces nouvelles contraintes et en en connaissant les impacts, une grande majorité de ceux qui ont opté pour la dispersion des cendres de leurs proches reconduiraient le choix de la dispersion. Celui-ci procure en effet pour beaucoup le sentiment de satisfaction d’une promesse tenue, car ces destinations en pleine nature sont le souhait des vivants et se déroulent par là même souvent sans conflit au sein de l’entourage des défunts, dans une ambiance de sérénité, d’un chagrin joyeux, dans les plis de paysages et de territoires intimes aux défunts et à leurs proches.

De manière assez naturelle découlent de ces gestes et territoires de dispersion des prises pour imaginer des suites, des revisites, des retrouvailles sous forme de balades discrètement ritualisées, de pique-niques et baignades mémorielles, des façons de reconfigurer et d’entretenir les liens avec les défunts dans ces territoires familiers.

La diversité des lieux, des configurations sensibles et des éléments en jeu dans les dispersions renouvelle les possibles en termes de gestes et d’actes d’hommage envers les défunts, lors de la dispersion comme après, imbriquant la mémoire du mort dans des souvenirs de moments de vie partagés.

Les mises en gestes de la dispersion partiellement décrites dans les témoignages et rejouées dans le collectif de chercheurs pour en révéler des parts implicites montrent aussi des moments de flottement, des maladresses, des surprises et des improvisations qui se dénouent souvent avec des rires. Ce sont autant de marges dans lesquelles peuvent s’engouffrer des marques de la singularité des personnes en jeu, manœuvrer avec audace les acteurs pour s’approprier ces moments importants et en faire des lieux d’individuation, un premier pas actif sur le chemin du deuil.

Avec la dispersion des cendres, le lieu de nos morts n'est plus l'espace autre, l’autre ville des noires demeures, mais l‘espace même qui accueille nos moments de vie, là où nos beaux souvenirs avec eux font gage d’éternité. La suite de l’enquête permettra d’affiner les contours et les potentialités de ces pratiques.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Pascaline Thiollière ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.01.2026 à 16:08

En France, tenir ses promesses électorales ne rapporte rien

Isabelle Guinaudeau, Chargée de recherches CNRS, Sciences Po
Emiliano Grossman, Professeur en Science politique, directeur du CDSP, Sciences Po
Une analyse des mandats présidentiels entre 1995 et 2022 montre que le respect – ou non – des promesses de campagne n’a aucun impact mesurable sur la popularité des présidents français.
Texte intégral (2469 mots)

À chaque élection présidentielle, des promesses sont faites, suscitant l’espoir des citoyens, avant qu’ils ne soient déçus. Or l’analyse des mandats présidentiels entre 1995 et 2022 montre que le respect (ou le non-respect) des promesses de campagne n’a aucun impact mesurable sur la popularité des présidents. La dynamique espoir-déception est systématique. Comment expliquer ce phénomène ?


Dans une démocratie représentative, on s’attend à ce que les citoyens évaluent leurs dirigeants au moins en partie au regard du degré de réalisation de leurs promesses électorales. Cette idée, au cœur de la théorie du mandat démocratique, suppose que les citoyens approuvent davantage les gouvernants qui tiennent parole. Ce mécanisme doit à la fois inciter les élus à respecter leurs engagements et assurer que les élections orientent réellement l’action publique.

Mais en France, il semble grippé : la cote des présidents suit une courbe descendante quasi mécanique, insensible à la mise en œuvre de leurs promesses de campagne. Notre analyse des mandats présidentiels entre 1995 et 2022, croisant données de popularité mensuelle et suivi de 921 promesses électorales, révèle que la réalisation des engagements ne produit aucun effet mesurable sur l’approbation publique.

Une popularité insensible aux promesses tenues

Les exécutifs se tiennent mieux à leur programme que beaucoup ne le pensent : le taux de réalisation (partielle ou complète) atteint près de 60 % en moyenne sur les cinq derniers mandats présidentiels. Emmanuel Macron, lors de son premier quinquennat, affiche un taux de réalisation supérieur à 70 %. François Hollande, Jacques Chirac (deuxième mandat) et Lionel Jospin (premier ministre en cohabitation) suivent de près. Nicolas Sarkozy affiche un taux de réalisation de 54 %, plus faible mais significatif, malgré une crise économique majeure. Jacques Chirac se démarque lors de son premier mandat par une proportion de promesses tenues comparativement faible (30 %). Ce faible taux reflète, d’une part, un désengagement rapide vis-à-vis de sa campagne sur la fracture sociale pour déployer une politique de rigueur budgétaire et, d’autre part, la période de cohabitation qui a fortement limité la capacité d’action du président.

Projet Partipol, Fourni par l'auteur

Ces bilans non négligeables ne se traduisent pas dans les sondages : nos analyses ne mettent en évidence aucun effet statistiquement significatif des promesses réalisées sur la popularité présidentielle. Les courbes de popularité font plutôt ressortir une dynamique bien connue : une phase de « lune de miel » postélectorale, suivie d’un déclin régulier, parfois ponctué d’un léger rebond en fin de mandat.

Ce phénomène, appelé « cost of ruling » (ou « coût de gouverner »), reflète une usure du pouvoir que ni les promesses tenues ni les réformes menées à bien ne parviennent à enrayer.

Projet Partipol, Executive Approval Project, Fourni par l'auteur

Pourquoi tenir parole ne paie pas

Plusieurs facteurs expliquent ce décalage. D’abord, une certaine méconnaissance des programmes électoraux. Peu d’électeurs les lisent dans le détail ; moins encore suivent précisément leur mise en œuvre.

Les engagements les plus visibles – ceux qui marquent la campagne par leur degré d’ambition – ne sont pas les plus faciles à réaliser. Les promesses tenues, souvent d’ampleur moindre, passent souvent inaperçues, noyées dans le flot de l’actualité ou éclipsées par les polémiques.

La couverture médiatique accentue cette asymétrie. Les promesses rompues font la une, les promesses tenues n’attirent guère l’attention. Les conflits, les revers et les scandales sont plus vendeurs que le travail gouvernemental au long cours sur les promesses de campagne. Cette focalisation sur les échecs alimente une perception négative du pouvoir, même lorsque celui-ci agit conformément à ses engagements.

À cela s’ajoute la manière dont les citoyens interprètent l’action gouvernementale. Tous ne réagissent pas de la même façon à la réalisation d’une promesse. D’une part, les biais cognitifs jouent un rôle majeur : chacun lit l’actualité politique au prisme de ses préférences partisanes, de sa confiance dans les institutions ou de son humeur générale. Les soutiens de l’exécutif en place seront plus disposés à porter ses réalisations à son crédit.

D’autre part, les citoyens n’adhèrent pas tous à la même vision du mandat démocratique. Pour certains, l’élection donne mandat à l’exécutif pour tenir ses promesses ; pour d’autres, ces mesures peuvent rester intrinsèquement contestables, d’autant plus dans un système majoritaire où une partie des voix relève du vote « utile » ou de barrage plutôt que de l’adhésion.

Une promesse tenue suscitera donc souvent l’approbation des partisans, mais crispera les opposants. Ces réactions opposées annulent tout effet net sur la popularité.

Une hyperprésidentialisation contre-productive

Le cas français est particulièrement révélateur. La Ve République confère au président des pouvoirs beaucoup plus forts que dans d’autres régimes. Élu au suffrage universel direct, il concentre les attentes, incarne l’État, définit l’agenda et la ligne gouvernementale. Cette concentration du pouvoir est censée clarifier les responsabilités et lui donner la capacité de mettre en œuvre son programme. Mais elle se retourne contre lui en le rendant responsable de tout ce qui cristallise les insatisfactions et en démultipliant le cost of ruling.

Cette dynamique s’atténue en période de cohabitation, comme entre 1997 et 2002. Le président partage alors le pouvoir avec un premier ministre issu d’une autre majorité, ce qui brouille les responsabilités. Hors cohabitation, le président est seul en première ligne, cible de toutes les critiques et les insatisfactions et son capital politique s’épuise rapidement. En concentrant les attentes autant que les critiques, l’hyperprésidentialisation finit par miner la capacité d’action du président là où elle devait la renforcer.

Un mandat sous tension, un modèle aux abois ?

Cette déconnexion entre promesses et popularité met à mal le modèle du « mandat » démocratique. La présidentielle concentre des attentes immenses : les candidats sont incités à incarner des visions d’alternance très ambitieuses et à promettre des transformations profondes. Sur le papier, cette élection devrait leur donner la légitimité nécessaire pour mettre en œuvre ce programme une fois au pouvoir.

Mais en pratique, ce mandat est fragile. Le capital politique tiré de l’élection s’érode très vite une fois passée la « lune de miel », réduisant les marges de manœuvre de l’exécutif et limitant sa fenêtre pour imprimer sa marque. Cela incite à se précipiter pour faire passer le plus rapidement possible un maximum de réformes, au risque de sembler passer en force. Mais l’exécutif peine à convertir l’élection en capacité durable d’action : ses réalisations n’alimentent ni sa popularité ni le sentiment qu’ont les électeurs d’être représentés. Que les promesses soient tenues ou non, beaucoup ont le sentiment de ne pas avoir été entendus.

Projet Partipol, Fourni par l'auteur

Dans un paysage politique de plus en plus fragmenté et instable, il devient de plus en plus difficile de mettre en œuvre son programme (les promesses sont rarement réalisées au-delà de la deuxième année de mandat) et la frustration suscitée au regard des espoirs nourris par chaque élection présidentielle risque de se renforcer encore. Restaurer le lien entre élections, promesses et action publique suppose de sortir d’un modèle où le président est censé tout promettre, tout décider et tout assumer seul.

Il est temps de réfléchir à une forme de gouvernement plus collégial, où les responsabilités sont partagées et où un spectre plus inclusif de sensibilités peut s’exprimer. Une telle évolution permettrait non seulement de mieux répartir le crédit des accomplissements – les promesses tenues –, mais aussi le prix des défaites, dont l’inévitable coût de gouverner.


Cet article est tiré de l'ouvrage «French Democracy in Distress. Challenges and Opportunities in French Politics» (Palgrave Macmillan, 2025), sous la direction de Nonna Mayer et Frédéric Gonthier. Une conférence autour de cette publication est organisée à Sciences Po le jeudi 29 janvier 2026 à partir de 17h.

The Conversation

Isabelle Guinaudeau a reçu des financements de l'Agence nationale de la recherche (Projet ANR- 13-JSH1-0002-01, PARTIPOL, 2014-2018).

Emiliano Grossman ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.01.2026 à 16:00

En Iran, la République islamique, le Bazar et la Mosquée : un ménage à trois impossible ?

Djamchid Assadi, Professeur associé au département « Digital Management », Burgundy School of Business
En rompant l’équilibre qui a longtemps existé entre la religion et le commerce, la République islamique d’Iran a semé les graines de la crise actuelle.
Texte intégral (2855 mots)

Longtemps, les milieux d’affaires et religieux ont été, les uns comme les autres, des piliers du système iranien. Mais dès les années 1940, le clergé se politise et prend de plus en plus d’importance. L’avènement de la République islamique en 1979 entérine et accélère nettement ce processus : la Mosquée prend alors le pas sur le Bazar, réduit à un rôle subalterne. La défection observée dernièrement du Bazar vis-à-vis du pouvoir s’explique par des éléments conjoncturels ; mais, structurellement, elle était en germe depuis des décennies.


Pourquoi un allié historique, longtemps pilier d’un régime autoritaire, s’en désiste-t-il et contribue-t-il à sa fragilisation, voire à sa chute ?

Depuis Tocqueville jusqu’aux travaux contemporains sur les « piliers du pouvoir », une constante traverse l’histoire politique moderne : la stabilité d’un régime dépend moins de l’adhésion diffuse des foules que de l’obéissance de ses corps intermédiaires organisés. Lorsque ces soutiens cessent d’obéir, le pouvoir entre dans une zone de vulnérabilité structurelle.

Ce mécanisme s’observe dans des contextes variés, comme la rupture des forces armées portugaises avec le régime de Caetano en 1974, le désengagement des élites franquistes après 1975 : le basculement ne procède pas d’une mobilisation populaire isolée, mais de la désolidarisation d’acteurs institutionnels jusque-là intégrés à l’ordre autoritaire.

Le Grand Bazar de Téhéran illustre précisément ce mécanisme. Sa fermeture lors du soulèvement de janvier 2026 ne constitue ni l’origine ni le moteur principal de la contestation, mais son symptôme institutionnel le plus lisible. Elle signale le retrait d’un acteur longtemps arrimé à la jurisprudence religieuse – moins par conviction que parce qu’elle offrait un cadre normatif stable à ses échanges économiques. Si le mouvement iranien est national, porté par des groupes sociaux, professionnels et générationnels multiples, chacun mû par des motifs distincts, le désistement du bazar conserve une singularité claire : celle d’un acteur qui cesse d’assurer sa fonction d’amortisseur institutionnel entre société et pouvoir.

Pour en saisir la portée, il faut revenir à la mutualité séculaire entre le Bazar et la Mosquée. Cette relation ne reposait ni sur une fusion idéologique ni sur une subordination politique, mais sur une complémentarité fonctionnelle : le religieux garantissait les normes et arbitrages assurant la prévisibilité des échanges ; le marchand finançait le clergé et garantissait son indépendance vis-à-vis du pouvoir central. Cette autonomie réciproque constituait l’un des fondements de la stabilité sociale iranienne.

La révolution islamique de 1979 rompt cet équilibre. En assujettissant la Mosquée pour monopoliser le sacré, le nouveau pouvoir transforme une institution autonome en instrument de règne. La relation cesse d’être horizontale et devient médiatisée par un État idéologique. La grève de janvier 2026 ne peut donc être réduite à une réaction conjoncturelle à la cherté de la vie – même si celle-ci joue un rôle déclencheur. Elle révèle une rupture plus profonde, inscrite dans la longue durée, née de la transformation du rapport entre religion, économie et pouvoir depuis 1979.

Le Bazar et la Mosquée : une relation ancienne, fonctionnelle et non fusionnelle

La relation séculaire entre le Bazar et la Mosquée repose sur une division fonctionnelle du travail social. Avant toute politisation du clergé, cette relation est avant tout professionnelle. La jurisprudence islamique chiite (fiqh) agit depuis toujours, surtout depuis la dynastie des Safavides (1501-1722), comme un véritable « code de commerce » : elle encadre les contrats, arbitre les litiges et garantit la sécurité des échanges (Lambton, 1969). La Mosquée fonctionne ainsi comme un tiers de confiance indépendant, extérieur à l’État, assurant la prévisibilité de l’ordre marchand.

Les travaux empiriques de Keshavarzian (2009) confirment que cette relation repose sur des réseaux horizontaux de confiance et de coordination sociale, produits en dehors des structures étatiques, et non sur une loyauté idéologique. L’islam chiite non politisé valorise historiquement l’activité marchande, faisant du commerce une pratique socialement légitime et moralement encadrée. Cette alliance économico-religieuse constitue un fait sociologique structurant de longue durée (Abrahamian, 1982), dans lequel la religion ne gouverne pas l’économie mais en stabilise les règles.

Cette mutualité s’exprime politiquement dès le XIXe siècle. Lors de la crise du tabac (1891–1892), Bazar et Mosquée s’unissent contre une concession accordée par le pouvoir. La révolte du tabac, déclenchée en 1891 sous le règne de Nasser al-Din Chah, était une protestation massive contre la concession accordée par le gouvernement iranien à un ressortissant britannique pour le monopole du tabac. Cette mesure, perçue comme une violation de l’intérêt national et une intrusion étrangère, a été fortement dénoncée par le clergé chiite et les intellectuels, marquant un tournant dans la mobilisation politique moderne de l’Iran. Cette opposition ciblée à l’arbitraire étatique – plutôt qu’un projet théocratique (Keddie, 1966) – a jeté les bases d’un mouvement nationaliste sans ambitions politiques religieuses qui changera de cap plus tard pour soutenir la Révolution iranienne de 1979.

Le même schéma se retrouve durant la Révolution constitutionnelle (1905–1911), lorsque les grands commerçants financent les bast (sit-in de protestation) et les hijrat (exils protestataires, consistant généralement à quitter une ville pour exercer une pression politique) afin de soutenir l’instauration d’une mashrouteh – un État constitutionnel limitant le pouvoir monarchique, non un État islamique (Afary, 1996).

Le grand bazar de Téhéran en 1907. Wikimedia

La modernisation des années 1920–1930 ne rompt pas immédiatement cet équilibre. Reza Shah (fondateur de la monarchie Pahlavi, à la tête du pays de 1925 à 1941) transforme progressivement le droit commercial religieux en droit civil, en extrayant les principes juridiques modernes du fiqh sans rupture frontale avec les institutions religieuses (Banani, 1961). Les sphères demeurent distinctes : le Bazar conserve sa fonction économique, la Mosquée son rôle normatif et social.

C’est précisément cette architecture fonctionnelle, fondée sur la séparation des rôles et l’autonomie réciproque, qui commence à se fissurer à partir des années 1940, et plus encore dans les années 1960, lorsqu’une partie du clergé se politise et remet en cause sa fonction traditionnelle de médiation.

L’émergence du clergé radical et la politisation de la mosquée

La politisation de la Mosquée marque une rupture décisive dans l’histoire des relations entre religion, commerce et pouvoir en Iran. Elle met fin à la fonction du clergé comme tiers normatif indépendant et ouvre la voie à une instrumentalisation politique du religieux. Deux figures structurent ce basculement.

La première est Navab Safavi (1924–1956), fondateur des Fadaian·e Islam (« les Sacrifiés de l’islam » ou « les Fidèles prêts au sacrifice pour l’islam »). En prônant l’application coercitive de la charia et en légitimant l’assassinat politique, Navab Safai rompt avec le rôle historique du clergé chiite comme arbitre moral et juridique. Bien que marginal et rapidement réprimé, ce courant inaugure une conception militante et autoritaire du religieux, qui influencera durablement l’islamisme politique iranien (Rahnema, 1998).

La deuxième figure, l’ayatollah Ruhollah Khomeini, procède à une rupture structurelle. À partir de 1963, son opposition aux réformes de la « Révolution blanche » (un vaste programme de modernisation lancé par Mohammad Reza Chah, comprenant la réforme agraire, l’alphabétisation de masse, l’émancipation juridique des femmes, etc.) transforme la Mosquée en acteur politique central. Le clergé cesse alors d’être un garant des normes sociales et économiques ; il devient un instrument de mobilisation politique, puis, après 1979, un pilier constitutif de l’État idéologique.

Cette politisation rencontre un écho auprès d’une fraction du bazar dans un contexte de transformation rapide de l’économie iranienne. Durant les années 1960, la croissance atteint en moyenne 9 à 10 % par an, portée par la substitution des importations et l’industrialisation (Amuzegar, 1977). Ce processus marginalise les bazaris spécialisés dans le commerce extérieur, alimentant un mécontentement économique qui se mue en radicalisation politique partielle.

C’est dans ce contexte qu’émerge le Motalefeh (Parti de la coalition islamique), réseau de bazaris islamisés, qui joue un rôle clé dans la mobilisation révolutionnaire de 1978–1979 (Bakhash, 1984). Toutefois, cette alliance ne traduit pas un ralliement durable du bazar comme corps social. Le Motalefeh se transforme rapidement en élite intégrée à l’appareil d’État, utilisant son identité bazari pour administrer et contrôler le bazar plutôt que pour le représenter.

La politisation du religieux désorganise ainsi les réseaux traditionnels. La confiance horizontale fondée sur le fiqh est remplacée par une loyauté idéologique surveillée, médiatisée par l’État. En sortant la religion du domaine de la croyance volontaire et de la médiation sociale, le régime affaiblit sa capacité à structurer durablement les relations économiques, préparant les conditions du désistement ultérieur du bazar.

Les limites de l’État rentier clientéliste (1979–2026)

Le régime islamique issu de la révolution de 1979 opère une double transformation structurante. D’une part, il place le clergé et la mosquée sous l’autorité du velayat·e faqih – le principe de « tutelle du juriste‑théologien », qui confère au guide suprême un pouvoir politique et religieux supérieur à toutes les autres institutions ; d’autre part, il étatiste une large part du secteur privé, redistribuant entreprises, licences et monopoles d’import-export à ses fidèles. Les frères Asgaroladi incarnent ce capitalisme de connivence adossé à l’État révolutionnaire. Issus du bazar traditionnel, ils deviennent des hommes d’affaires ultra‑puissants grâce à leur proximité avec le régime, obtenant monopoles, licences et positions clés dans les fondations para‑étatiques – une illustration emblématique du capitalisme de connivence né après 1979.

Cette mutation rompt l’équilibre historique : la Mosquée perd son autonomie institutionnelle, tandis que le Bazar devient un bénéficiaire rentier dépendant de l’État. Tant que la rente pétrolière permet de financer ce clientélisme, le système fonctionne de manière précaire mais durable.

Toutefois, ce modèle ne repose jamais sur une représentation collective du Bazar. Le régime privilégie des relations personnelles et sélectives, substituant au profit marchand l’accès à des licences d’importation. Ce mécanisme devient fatal lorsque les sanctions internationales privent l’État de devises. Exclu des circuits financiers internationaux, le régime perd son principal levier de contrôle économique.

L’économie entre alors dans une spirale inflationniste : inflation supérieure à 42 %, effondrement du rial, chute rapide du pouvoir d’achat. Pour les bazaris, dont l’activité repose sur l’anticipation, cette instabilité rend le calcul économique impossible. Comme l’avait montré Hayek (1945), la désorganisation du système des prix détruit la rationalité des décisions économiques.

Cette crise s’accompagne d’une fragmentation institutionnelle entretenue : division des chambres de commerce, bureaucratisation du clergé, marginalisation des mosquées comme instances d’arbitrage. La rupture de janvier 2026 résulte ainsi d’une double faillite : celle d’un État rentier incapable de tenir ses promesses, et celle d’une Mosquée assujettie ayant cessé de jouer son rôle historique.

Le désistement des alliés stratégiques

Le cas iranien montre que le désistement d’un allié stratégique ne relève ni d’un sursaut moral ni d’une rupture idéologique soudaine, mais de l’effondrement progressif des mécanismes institutionnels qui rendaient l’obéissance rationnelle.

En janvier 2026, le Grand Bazar ne se retire pas seulement d’un État en crise économique. Il se désengage d’un ordre politique qui a détruit les conditions mêmes de la loyauté. En assujettissant la Mosquée, la République islamique a rompu la mutualité fonctionnelle entre religion et économie, privant le bazar des cadres normatifs stables indispensables à son activité.

Ce désistement ne traduit pas un rejet de la foi, mais le refus d’une religion devenue autoritaire, bureaucratisée et imprévisible. En neutralisant les corps intermédiaires qui assuraient la coordination sociale, l’État a remplacé la confiance horizontale par une loyauté contrainte, tolérée tant qu’elle restait matériellement soutenable.

Comme l’avait montré Raymond Aron, un régime autoritaire devient vulnérable lorsqu’il perd l’obéissance de ses soutiens structurants. Le désistement du Bazar révèle ainsi une fragilisation systémique. Lorsque l’État détruit simultanément la prévisibilité économique et les institutions sociales qui rendaient l’obéissance rationnelle, il ouvre une zone d’incertitude historique dont l’issue dépend moins de la rue que de la capacité – ou non – à reconstruire une alternative institutionnelle crédible.

The Conversation

Djamchid Assadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

22.01.2026 à 15:59

Apprendre à varier son alimentation : écouter les émotions des enfants, un enjeu central

Aurélie Maurice, Maîtresse de conférences en Sciences de l'Éducation et de la Formation, Université Sorbonne Paris Nord
S’alimenter est un acte complexe, croisant psychologie, culture et physiologie. Que nous dit la recherche sur la façon d’aider les enfants au quotidien à élargir leur répertoire alimentaire ?
Texte intégral (1436 mots)

Se nourrir est un acte complexe, croisant psychologie, culture et physiologie. Dès lors, comment s’y prendre, en tant que parent ou éducateur, pour aider les enfants à former leur goût et élargir leur répertoire alimentaire ? La recherche donne quelques pistes pour mieux tenir compte de la place des émotions dans le rapport à la nourriture.


L’éducation à l’alimentation des jeunes est au cœur des politiques publiques : elle est l’un des objectifs du Programme national nutrition santé (PNNS) et l’un des axes du Programme national pour l’alimentation (PNA). De plus, un Vademecum sur l’éducation à l’alimentation et au goût a récemment émané de l’éducation nationale. Plusieurs membres de l’Assemblée nationale organisent aussi depuis quelques années des « états généraux » sur le sujet.

Les derniers états généraux d’octobre 2025 ont conduit à une proposition de loi d’expérimentation pour l’instauration d’un enseignement d’éducation à l’alimentation obligatoire à l’école.


À lire aussi : Comment peut-on repenser l’éducation à l’alimentation ?


Alors que l’éducation à l’alimentation s’est longtemps heurtée à des limites, notamment face aux inégalités sociales de santé, de nouvelles approches apparaissent : citons l’approche tridimensionnelle qui intègre les dimensions « nutritionnelle », « psycho-sensorielle et comportementale » et « socio-environnementale ». L’approche hédonique, elle, privilégie le plaisir alimentaire avec trois leviers d’actions : l’exposition sensorielle répétée aux aliments, les interactions sociales lors des prises alimentaires et les croyances sur les aliments.

Si ces démarches mettent en avant l’importance des émotions, comment, concrètement, les prendre en compte au quotidien, lors de repas ou de séances de découverte, que l’on soit parent, acteur ou actrice de l’éducation ?

Veiller au contexte des repas

S’alimenter est un acte complexe, car multidimensionnel : physiologie, sociabilité, identité culturelle et psychologie s’entremêlent. S’alimenter, c’est aussi ressentir toute une palette d’émotions : la joie, le dégoût, la peur… Celles-ci sont pour l’instant peu prises en compte globalement dans les séances d’éducation à l’alimentation. C’est le cas néanmoins dans l’éducation au goût, qui cherche à reconnecter les jeunes avec leurs sens.

Marie Jaunet, Sylvie Delaroche-Houot et moi-même avons mené une revue de la littérature scientifique afin d’explorer comment les émotions peuvent être mobilisées dans le champ de l’éducation à l’alimentation et quels en sont les bénéfices. Cette revue a été effectuée sur 30 articles publiés entre 2005 et 2022, dont 90 % en anglais, provenant principalement d’Amérique du Nord et d’Europe occidentale.

Cette revue montre que les émotions des jeunes sont bel et bien à prendre en compte, et ce, pour plusieurs raisons. Tout d’abord, il apparaît que la composition nutritionnelle des aliments a un impact sur ces émotions. Un repas suffisamment varié et correspondant bien aux besoins nutritionnels des enfants diminuerait les émotions négatives, comme la tristesse ou l’anxiété.

Ensuite, l’importance d’être attentif à ses cinq sens quand on se nourrit est soulignée, notamment, par des études sur l’alimentation consciente chez les enfants. Créer un environnement positif pendant les repas, c’est-à-dire faire du moment du repas un moment joyeux, ludique et apaisant, favorise une prise alimentaire diversifiée et en quantité suffisante de la part des enfants. Cette attention portée à la qualité de l’ambiance des repas est d’autant plus bénéfique qu’elle est travaillée tant à la maison qu’à l’école.

En obligeant les enfants à finir leurs assiettes, ou en se servant de l’alimentation comme d’une récompense ou d’un élément de chantage, certains parents peuvent favoriser le développement d’une « alimentation émotionnelle » chez leurs enfants. Cela peut conduire à un surpoids à moyen et long terme.

Favoriser l’empathie

Un groupe d’experts est arrivé à une classification des styles éducatifs parentaux sur l’alimentation qui en distingue trois types : coercitif (fondé sur la pression, les menaces et les récompenses), structuré (donnant des règles qui encadrent les prises alimentaires) et favorisant l’autonomie (donnant les clés à l’enfant pour qu’il fasse ses propres choix, dans un climat d’amour inconditionnel).

Ces trois grandes catégories conduisent à des états émotionnels très différents, allant de la peur à la joie, et à des pratiques alimentaires enfantines très contrastées (se cacher pour manger des aliments interdits, se restreindre de manière autonome).

Le repas familial peut être un moment propice au partage et à l’écoute des émotions de l’enfant. Aux États-Unis apparaît depuis plusieurs décennies un terme, « parent responsiveness », qui pourrait être traduit par « réactivité parentale », à savoir une attitude empathique des parents, apportant une réponse adaptée aux émotions exprimées par leurs enfants et aux besoins sous-jacents.

Plusieurs chercheurs ont proposé d’adapter ce concept à l’alimentation, et parlent de « responsive feeding » ou « réactivité alimentaire ». Il s’agit de soigner le temps du repas, d’en faire un moment pendant lequel l’enfant se sent à l’aise et en confiance. Le parent cherche à être attentif aux sensations de faim et de satiété de son enfant, à lui répondre rapidement, de façon appropriée, en fonction de l’émotion qu’il exprime et de son stade de développement.

Enfin, les articles étudiés dans la revue de littérature font état de plusieurs outils conçus pour aider les enfants à s’exprimer autour de l’alimentation et à nommer leurs émotions.

Cette revue montre qu’il faut prendre en compte les différentes dimensions de l’acte alimentaire, tel que l’environnement dans lequel l’aliment est consommé. Un climat bienveillant et joyeux apparaît plus propice aux nouvelles expériences gustatives, alors que, si l’enfant se sent contraint, voire angoissé, les conditions ne sont pas réunies pour qu’il découvre de nouveaux aliments ou accepte de manger des légumes, par exemple.

La politique publique des mille premiers jours de l’enfant recommande des activités conjointes parents/enfant, sources d’émotions positives dans lesquelles l’alimentation a toute sa place. Il apparaît donc que la formation tant des parents que des enseignants, des personnels du périscolaire et des autres professionnels éducateurs est essentielle pour développer la capacité d’autorégulation et d’ouverture des jeunes dans leur alimentation.


Le projet Enfants Récepteurs et Messagers pour l'Éducation à la Santé – ERMES est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Aurélie Maurice a reçu des financements de l'ANR et de l'ARS Ile-de-France pour le projet ERMES qu'elle coordonne.

22.01.2026 à 15:56

Les « actions cachées » : quand des régions du cerveau liées à la motricité s’activent… alors qu’on ne bouge pas

Carol Madden-Lombardi, Chargée de recherche, Université Bourgogne Europe
Florent Lebon, Professeur des Universités en Neurosciences cognitives et comportementales, Université Claude Bernard Lyon 1
Dans les « actions cachées », des régions cérébrales liées à la motricité sont engagées alors qu’on reste immobile. Ce qui pourrait ouvrir des perspectives dans le sport ou la rééducation après blessure.
Texte intégral (1504 mots)

Les « actions cachées » engagent des régions cérébrales liées à la motricité alors qu’on reste immobile. Cette plasticité des neurones, qui renforce les liens entre le cerveau et les muscles, n’a pas encore livré tous ses secrets. Mais ces processus cognitifs pourraient, dans le futur, se révéler précieux pour optimiser des gestes sportifs ou encore favoriser la rééducation après une blessure.


En bout de piste, un sauteur en longueur se prépare pour son dernier essai. La médaille est en jeu. Avant de s’élancer, il répète mentalement sa course d’élan, les premières foulées, l’accélération, l’impulsion et la réception dans le sable. Il rouvre les yeux, et c’est parti !

Une jeune joueuse de volley-ball assiste à un match de son équipe préférée. Elle observe la posture des joueuses en attaque et en défense, la manière dont elles se déplacent. Elle comprend la tactique annoncée et s’attend à ce que son équipe marque. Elle apprend en observant !

L’être humain possède l’extraordinaire capacité d’imaginer ses propres mouvements, de comprendre les actions d’autrui par la simple observation, ou encore de communiquer et transmettre ses actions par l’écriture et la lecture.

Activation du cerveau sans bouger

Tous ces processus cognitifs engagent des régions cérébrales liées à la motricité, alors même que l’on ne bouge pas. Ils peuvent être identifiés sous le terme d’« actions cachées ». Même si on est immobile, certaines parties de notre cerveau, normalement actives pendant nos actions, le sont également pendant les actions cachées, telles que l’imagerie motrice, l’observation d’action ou encore le langage d’action.

L’imagerie motrice correspond au fait de se représenter mentalement, de façon consciente, un mouvement, sans l’exécuter physiquement. Les modalités basées sur les sens permettent de se représenter une action. Les deux principales sont le visuel (« se voir » en train de faire l’action) et le kinesthésique (« ressentir » les sensations associées au mouvement). L’observation d’action, elle, consiste à sélectionner les informations pertinentes d’une action en train de se réaliser, et d’en comprendre les intentions.

Enfin, dans ce contexte, le langage d’action fait référence à la lecture, silencieuse ou non, de verbes évoquant une action, tels que « serrer », « prendre », « sauter ». Ces verbes isolés peuvent être enrichis par un contexte (« je vois une orange sur la table, je la prends ») afin d’activer d’autant plus le système moteur lié à cette action.

Les outils technologiques actuels nous permettent de « voir » à l’intérieur de notre cerveau. On parle alors d’imagerie par résonance magnétique (IRM) ou de stimulation magnétique transcrânienne (TMS).

La découverte des neurones miroirs

Rappelons qu’une grande étape dans la compréhension des actions cachées a été la découverte des neurones miroirs. Une équipe italienne, menée par Rizzolatti, a enregistrée dans le cerveau de singes, l’activité de neurones qui déchargeaient non seulement lorsque le singe exécutait une action de préhension d’un objet, mais aussi lorsqu’il observait l’expérimentateur saisir cet objet – une découverte accidentelle mais révolutionnaire.

Les actions cachées activent ainsi un réseau complexe au sein du cerveau, montrant l’interaction entre plusieurs régions, telles que le cortex moteur primaire (de là où partent nos commandes motrices), le cortex occipital (là où sont traitées les informations visuelles) ou encore le cortex pariétal (là où sont traitées les informations sensorielles).

La majorité des personnes peuvent ainsi recréer mentalement leur dernier lieu de vacances au soleil, avec plus ou moins de détails, et s’imaginer courir sur la plage (pour exception, voir l’article sur l’aphantasie).

On dit alors que les processus cognitifs associés à nos actions sont incarnés dans notre cerveau (théories de la cognition incarnée). Il n’est pas nécessaire de bouger pour activer le réseau de la motricité. La simulation mentale nous permettrait de planifier nos propres actions, de comprendre les actions d’autrui, de juger les conséquences des actions ou encore de comprendre plus facilement un récit impliquant des actions.

Même si cette simulation n’est pas explicite (c’est-à-dire qu’on ne crée pas volontairement d’images dans notre tête, et on n’en est peut-être même pas conscient), elle optimiserait notre imagerie et la compréhension des actions (par l’observation et le langage).

Des actions cachées pour renforcer les liens entre cerveau et muscles

Ces différents types d’actions cachées peuvent être utilisées de manière très pratique pour apprendre un nouveau morceau de musique, optimiser son geste sportif ou encore récupérer à la suite d’une blessure ou d’une pathologie, sans risquer d’accident ni de fatigue.

Une des études pionnières est celle de Yue et Cole, en 1992. Par le simple fait d’imaginer des contractions de la main, tel un entraînement à raison de quatre séances par semaine pendant quatre semaines, les participants ont réussi à augmenter leur force de 22 %. La plasticité cérébrale rentre en jeu pour renforcer les réseaux neuronaux normalement impliqués dans l’action. Plus je répète mentalement, plus j’entraîne mon cerveau : je renforce les liens entre le cerveau et les muscles.

Des perspectives pour, demain, favoriser l’apprentissage ou la rééducation

Se représenter mentalement des mouvements peut également améliorer d’autres capacités, comportementale ou cognitive. Une récente étude montre qu’imaginer des actions simples (écrire, lancer, remplir une tasse, etc.) peut améliorer la performance à des tâches de compréhension du langage, en facilitation l’accès lexico-sémantique.

À l’heure actuelle, les chercheurs s’attachent à mieux comprendre les liens entre les différents types d’actions cachées et à optimiser leur utilisation. Dans des études encore en cours, ils testent, par exemple, la combinaison de ces actions cachées dans le but de favoriser d’autant plus l’apprentissage et la rééducation. Il est possible de combiner l’observation d’un adversaire au tennis et d’imaginer le coup approprié pour gagner le point. Ou bien il est envisageable de lire des verbes d’actions avant d’imaginer un mouvement de force pour en booster les effets.

L’enjeu est alors de trouver le bon dosage entre les différentes pratiques, pour éviter la fatigue mentale, tout en observant des effets positifs.

Il est à noter que ces différents types d’actions cachées restent distincts. Ils restent encore des zones d’ombre pour comprendre leur interaction potentielle et favoriser ainsi leur utilisation seule ou combinée.

Le cerveau a encore des choses à nous dévoiler.


Les projets « Interaction entre Langage et Imagerie motrice pour améliorer l’apprentissage moteur et la compréhension du langage » – LAMI – (ANR-22-CE28-0026) et « Explorer les marqueurs neuronaux et fonctionnels des actions cachées à travers le prisme de la phantasie » – COVACT – (ANR-25-CE28-5517) sont soutenus par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. Elle a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Carol Madden-Lombardi a reçu des financements pour des projets sur ce thème de recherche par l’Agence nationale de la recherche.

Florent Lebon a reçu des financements de l'agence nationale de la recherche.

22.01.2026 à 15:56

Face aux attaques contre la science, l’importance d’inscrire la liberté académique dans la Constitution belge

Édouard Delruelle, Professeur de Philosophie politique, Université de Liège
L’inscription de la liberté académique dans la Constitution belge permettrait d’ouvrir un débat démocratique sur l’avenir de la recherche et de l’université.
Texte intégral (2527 mots)

Dans le cadre de notre émission consacrée à la défense de la liberté académique, diffusée vendredi 23 janvier, nous publions cet article initialement paru dans le Quinzième jour, le quadrimestriel de l’Université de Liège. Édouard Delruelle y développe un plaidoyer en faveur de l’inscription de la liberté académique dans la Constitution belge comme une étape pour ouvrir un débat démocratique sur le sujet.


En septembre dernier, l’Université de Berkeley, temple historique de la liberté de pensée, a accepté de livrer à l’administration Trump une liste d’étudiants et de professeurs suspectés d’« antisémitisme » en raison de leur engagement en faveur de la cause palestinienne.

Dans cette liste figure la philosophe Judith Butler, docteure honoris causa de l’université de Liège. Qui aurait imaginé, il y a un an à peine, que les universités les plus performantes et les plus prestigieuses au monde seraient l’objet d’attaques aussi violentes de la part du pouvoir politique, et qu’elles céderaient si prestement à ses intimidations et injonctions ? Que des programmes de recherche essentiels pour l’avenir de l’humanité dans les domaines de la santé ou du climat seraient démantelés ? Que les chercheurs en sciences humaines et sociales devraient bannir de leur vocabulaire des termes tels que diversité, égalité, inclusion ?

Conversation avec Stéphanie Balme (CERI), le 23 janvier 2026.

En Belgique, des coupes et des inquiétudes

Pourtant, nous avions tort de penser que ces atteintes brutales à la liberté académique ne pouvaient avoir cours que dans les régimes autoritaires. Cela fait plusieurs années que l’Academic Freedom Index enregistre une dégradation de la liberté académique en Europe. Intrusion du management dans la gouvernance universitaire, culture de la « post-vérité » sur les réseaux sociaux, ciblage d’intellectuels critiques par l’extrême droite, stigmatisation d’un prétendu « wokisme » que propageraient les études de genre, décoloniales ou LGBTQIA+ : ces offensives ne sont pas neuves, et elles touchent aussi la Belgique.

Mais un coup d’accélérateur a indéniablement été donné en 2025, avec les coupes budgétaires dans la recherche décidées par le gouvernement de la Fédération Wallonie-Bruxelles, une réforme drastique des retraites des Académiques, avant d’autres mesures annoncées sur le précompte chercheur ou le statut de fonctionnaire. Les mouvements Stand Up for Science au niveau mondial, ou « Université en Colère » chez nous, témoignent de l’inquiétude de la communauté universitaire face aux menaces qui pèsent sur la liberté académique.

De nombreuses menaces

Ces menaces sont multiples. On peut schématiquement en identifier quatre :

  1. les menaces politiques provenant de gouvernements et de mouvements politiques déterminés à contrôler idéologiquement la production et la diffusion des connaissances ;

  2. celles que font peser sur la science la logique économique de marché
    – rentabilité, compétitivité, privatisation de la recherche, avec comme conséquences, entre autres, la précarisation grandissante des chercheurs et le découplage de l’excellence scientifique et de la liberté académique ;

  3. l’emprise des technologies du numérique et leur l’impact sur la propriété intellectuelle, l’autonomie pédagogique, l’esprit critique ou la créativité (fake news, IA mobilisée à des fins de propagande, intrusion des réseaux sociaux dans les débats académiques, etc.) ;

  4. la propagation d’un « sciento-populisme » au sein d’une opinion publique de plus en plus polarisée et critique à l’égard des élites (intellectuelles, judiciaires, journalistiques, etc.).

Ces menaces se conjuguent le plus souvent : la censure politique d’un Trump s’exerce par la pression économique, la Tech numérique délégitime la science auprès des internautes, les impératifs financiers justifient la mise au ban des savoirs critiques. Aucun domaine de recherche n’est épargné : les sciences humaines et sociales sont attaquées en raison de leur prétendue dangerosité idéologique ou de leur inutilité économique présumée mais les STEM (sciences, technologie, ingénierie, mathématiques) sont aussi menacées d’être instrumentalisées comme simples vecteurs de puissance géopolitique, comme c’est déjà le cas en Russie ou en Chine.

La recherche en plein « warscape »

La recherche scientifique évolue dorénavant dans un « warscape », c’est-à-dire un espace traversé par la violence politique, sociale et économique, et où les rapports de pouvoir et de savoir sont complètement reconfigurés. Trois modalités de ces rapports se dégagent :

  1. la guerre contre la science menée par ceux qui veulent la destruction de l’autonomie des universités et de la libre recherche (en même temps que celle de la démocratie) ;

  2. la guerre dans la science, du fait des fractures au sein de la communauté universitaire elle-même autour de questions controversées telles que le colonialisme, le conflit israélo-palestinien, le transgenrisme, etc. ;

  3. la science face à la guerre, qui soulève la question des collaborations « à risques », notamment avec l’industrie de l’armement ou avec des partenaires internationaux potentiellement impliqués dans des violations du droit humanitaire – question très polarisante, comme l’a montré à l’ULiège la polémique autour de la chaire Thalès.

Une culture citoyenne

C’est dans cette perspective que la liberté académique, j’en suis convaincu, doit être défendue et protégée, non par corporatisme, mais parce qu’elle est la condition de tout développement scientifique comme de tout État de droit et de toute démocratie.

Telle est aussi la conclusion du remarquable rapport publié récemment par Sophie Balme pour France Universités, qui propose une “stratégie globale” de renforcement de la liberté académique en 65 propositions. Comment créer une véritable culture professionnelle, politique et surtout citoyenne autour de la liberté de recherche et d’enseignement ? Une culture citoyenne surtout, car l’une des raisons pour lesquelles Trump peut attaquer si brutalement les universités est l’hostilité d’une grande partie de l’opinion publique américaine à l’égard d’un monde universitaire jugé arrogant, coupé des réalités et entretenant un système de reproduction sociale financièrement inaccessible au plus grand nombre. Nous devons éviter de nous retrouver dans cette situation.

La première des 65 propositions de Sophie Balme est d’inscrire la liberté académique dans la Constitution française. Pourquoi pas aussi en Belgique, qui suivrait ainsi l’exemple de l’Italie ou de l’Allemagne (dont on sait quelles tragédies historiques ont été à l’origine de leurs constitutions d’après-guerre) ? Ouvrons le débat.

Ouvrir un débat démocratique

Certains constitutionnalistes objecteront que si la liberté académique ne figure pas formellement dans le texte constitutionnel, elle est néanmoins explicitement reconnue par la jurisprudence de la Cour constitutionnelle et de la Cour européenne des droits de l’Homme, et qu’elle est en outre consacrée par la Charte des droits fondamentaux de l’Union européenne, un texte qui est au sommet de la pyramide normative et d’application directe dans notre droit national. D’un point de vue juridique, ma proposition serait comme un coup d’épée dans l’eau. On répondra toutefois que presque toutes les libertés fondamentales sont dupliquées aux deux niveaux normatifs, européen et national, ce qui renforce leur effectivité juridique et leur portée symbolique.

Mais surtout, le processus politique de révision de la Constitution qu’il faudra parcourir serait l’occasion d’une large mobilisation du monde académique et, espérons-le, de la société civile, et d’un débat démocratique autour de la liberté de recherche et d’enseignement. Ce débat obligerait les partis politiques à se positionner et à en tirer les conséquences sur les plans programmatique et législatif. Et il représenterait une belle opportunité de solidarité et d’échange entre acteurs et actrices de la recherche au nord et au sud du pays.

Une liberté spécifique et complexe

Ce débat serait surtout l’occasion de s’interroger sur la spécificité et la complexité de la liberté académique. Spécificité par rapport à la liberté d’expression, dont jouit tout citoyen et qui l’autorise à dire ce qu’il veut (hors des atteintes à la loi), y compris des choses idiotes et insignifiantes – ce dont un grand nombre ne se prive pas. Tandis que la liberté académique est un outil au service d’une finalité qui dépasse son bénéficiaire : la recherche de la vérité sans contraintes (une belle définition du philosophe Paul Ricœur sa « Préface » à Conceptions de l’université de J. Drèze et J. Debelle. Une finalité qui nous impose des devoirs (à commencer par celui de nous soumettre au jugement de nos pairs).

Complexité ensuite de la liberté académique, qui est multidimensionnelle, comme en témoignent les cinq critères utilisés par l’Academic Freedom Index : la liberté de recherche et d’enseignement, la liberté de collaborer, d’échanger et de diffuser les données et les connaissances, l’autonomie institutionnelle des universités, l’intégrité du campus à l’égard des forces de l’ordre mais aussi des groupes militants violents et enfin la liberté d’expression académique et culturelle, y compris sur des questions politiques ou sociétales.

De vrais enjeux se posent quant aux limites de chacune de ces libertés, et aux tensions qui peuvent exister entre elles, en particulier entre la liberté académique individuelle et l’autonomie des universités. Car pour garantir celle-là, celles-ci ne doivent-elles pas s’astreindre à une certaine « réserve institutionnelle » (un terme plus approprié que « neutralité ») sur les questions politiques ? Je le crois ; mais cette « réserve » est-elle encore de mise face à des violations caractérisées du droit international et du droit humanitaire ? C’est toute la complexité du débat autour des collaborations avec les universités israéliennes…

Résistance, nuance, responsabilité

Comment faire de nos universités des espaces à la fois ouverts sur le monde et préservés de la violence qu’il engendre ? Des espaces de résistance à l’obscurantisme abyssal qui gangrène nos sociétés, de nuance contre les simplismes idéologiques, de responsabilité à l’égard des immenses défis environnementaux, sociaux, géopolitiques dont dépend l’avenir de l’humanité ? Ce qui arrive aujourd’hui au monde de la recherche doit faire réfléchir chacun d’entre nous sur son ethos académique, sur le mode de subjectivation qu’implique un exercice sans réserve mais responsable de la liberté académique. Mais cette réflexion doit aussi être collective, autour d’un objectif mobilisateur. C’est ce que je propose.

La liberté académique dans la Constitution, ce n’est donc pas figer dans le marbre une vérité révélée, mais au contraire ouvrir le débat sur une liberté essentielle mais menacée, qui regarde tant les acteurs de la recherche que les citoyens qui en sont les destinataires finaux. Ce n’est pas non plus cantonner le débat au niveau belge, mais créer l’opportunité d’un mouvement à l’échelon européen, afin que la recherche y préserve son autonomie à l’heure où, en Chine et aux États-Unis (et ailleurs), elle est désormais sous contrôle politique. Sophie Balme propose ici aussi des pistes d’action pour l’Union européenne, en termes d’investissements mais aussi d’outils concrets de mesure et de promotion de la liberté académique. Et bien sûr, nous devons continuer à manifester notre solidarité envers les chercheurs inquiétés ou opprimés partout dans le monde.

Pour atteindre ces objectifs, je suggère une double stratégie, par « en haut » et par « en bas ». D’un côté, un engagement des rectrices et des recteurs du nord et du sud (via le CREF – Conseil des rectrices et recteurs francophones – et le VLIR – Vlaamse interuniversitaire raad), en nouant aussi des alliances par-delà les frontières. L’ULiège pourrait être le moteur d’un tel engagement, par la voix de la rectrice Anne-Sophie Nyssen. De l’autre côté, une mobilisation de nous tous, acteurs et actrices de la recherche, envers le monde politique et la société civile – une mobilisation qui prendrait la forme de pétitions, de colloques, de forums, mais aussi de production de savoirs qui manquent cruellement dans le domaine francophone (Notons malgré tout l’Observatoire des atteintes à la liberté académique).

En tous cas, il est grand temps d’agir si nous ne voulons pas plier demain, à notre tour, devant les apprentis Trump qui pullulent autour de nous.

The Conversation

Édouard Delruelle a reçu des financements du FNRS (Belgique) et de l'Université de Liège

22.01.2026 à 15:55

L’aide au développement sert aussi à sécuriser les chaînes d’approvisionnement des pays riches

Basak Bayramoglu, Directrice de recherche, Inrae
Jean-François Jacques, Professeur des Universités, Université Gustave Eiffel
Julie Lochard, Professeure des Universités en Économie, Université Paris-Est Créteil Val de Marne (UPEC)
Les pays riches attribuent plus d’aide au développement aux pays fournisseurs de biens intermédiaires qu’à d’autres pays, aux besoins similaires.
Texte intégral (1556 mots)

En théorie, le montant de l’aide au développement versé à tel ou tel pays ne devrait pas dépendre de sa contribution aux chaînes de valeur mondiales. Dans les faits, pourtant, on observe que les pays donateurs ont tendance à privilégier, quand ils aident financièrement des pays pauvres, ceux qui sont utiles à leur propre production…


Pourquoi certains pays reçoivent-ils davantage d’aide au développement que d’autres alors que leurs besoins sont comparables ? Les chercheurs s’interrogent sur cette question depuis des décennies. Nous savons déjà que les motivations des donateurs ne sont pas uniquement altruistes : elles incluent des considérations diplomatiques ou commerciales par exemple.

Dans un article récent, nous montrons que les chaînes de valeur mondiales — ces réseaux internationaux où les biens sont produits en plusieurs étapes dans différents pays — créent de nouvelles interdépendances entre pays et influencent l’allocation de l’aide.

Aide au développement bien ordonnée…

Depuis les années 1990, la production mondiale s’est largement fragmentée : composants électroniques, pièces automobiles, produits agricoles transformés… une multitude d’étapes de production sont désormais dispersées entre plusieurs pays. Les échanges liés à cette organisation de la production mondiale en chaînes de valeur représentent environ 50 % du commerce mondial.

Notre analyse empirique montre que les pays donateurs accordent davantage d’aide aux pays qui fournissent des biens intermédiaires utilisés dans leur production destinée à l’exportation. Autrement dit, l’aide n’est pas uniquement destinée aux pays dont les besoins sont les plus importants : elle se dirige aussi vers ceux qui occupent des positions clés dans les chaînes de valeur mondiales.

Les exportations des pays récipiendaires de l’aide jouent un rôle particulièrement important dans les secteurs caractérisés par des biens intermédiaires différenciés, difficiles à substituer : équipements électriques et machines, transport et pièces automobiles, industrie agroalimentaire. Les pays produisant ce type de biens reçoivent davantage d’aide, toutes choses égales par ailleurs. Ce résultat complète d’autres recherches montrant que les réserves en pétrole des pays récipiendaires influencent également l’allocation de l’aide.

Le poids des entreprises des pays donateurs

Nous observons aussi une hétérogénéité importante entre pays donateurs déjà mise en avant dans d’autres travaux : les grands pays exportateurs (France, Allemagne, Japon, Royaume-Uni, États-Unis, notamment) semblent allouer l’aide de manière plus stratégique, tandis que les pays considérés traditionnellement comme plus « altruistes » (Pays-Bas, Danemark, Suède…) semblent moins sensibles au fait que le pays récipiendaire soit exportateur de biens intermédiaires spécifiques.

Calculs des auteurs. Ce graphique représente l’effet de la valeur ajoutée provenant des biens intermédiaires des pays récipiendaires (Foreign Value Added, FVA) sur le montant d’aide bilatérale pour chaque pays donateur (moyennes et intervalles de confiance à 95 %). Cliquer pour zoomer. Fourni par l'auteur

Pour comprendre ces résultats, nous proposons une explication théorique.

Le pays donateur, situé en aval de la chaîne de valeur, dépend d’un intrant produit dans un pays receveur, situé en amont. En transférant — sous forme d’aide — des ressources financières qui font l’objet de négociations, il incite le pays receveur à réduire ses tarifs douaniers d’importations de biens intermédiaires, ce qui diminue le coût final de son intrant produit et exporté vers le pays donateur.

L’aide agirait ainsi comme un levier discret de réduction des coûts de production pour les entreprises du pays donateur. L’influence des entreprises dans l’allocation de l’aide est également révélée ces dernières années par des enquêtes journalistiques.

Un processus qui creuse les inégalités entre pays pauvres

Ce travail montre que l’aide au développement apparaît, au moins en partie, comme un moyen permettant aux pays donateurs de garantir un accès à des biens intermédiaires stratégiques en soutenant les pays situés en amont des chaînes de production. Ce constat interroge la manière dont l’aide est allouée si l’on souhaite éviter que les pays les plus pauvres ne soient doublement exclus : des chaînes de valeur mondiales et des flux d’aide.

Nos résultats ont des implications politiques importantes.

Premièrement, le développement des chaînes de valeur mondiales peut exacerber la fragmentation de l’aide en concentrant les financements vers les pays déjà intégrés dans ces chaînes. Or, malgré plusieurs initiatives internationales comme la Déclaration de Paris sur l’efficacité de l’aide au développement adoptée par l’OCDE en 2005, cette fragmentation persiste. Une étude de la Banque mondiale montre que l’augmentation des engagements d’aide au développement en termes réels entre 2000 et 2019 s’est accompagnée d’une multiplication du nombre de donateurs et d’agences d’aide, rendant la coordination de l’allocation de l’aide plus complexe.

Deuxièmement, orienter prioritairement l’aide vers les pays liés aux chaînes de valeur mondiales peut nuire au développement des pays les moins avancés, dont l’intégration dans les réseaux de production mondiaux reste limitée. Or, l’intégration aux chaînes de valeur stimule la croissance : une étude de la Banque mondiale indique qu’une augmentation de 1 % de participation entraîne en moyenne plus de 1 % de hausse du revenu par habitant. Mais si l’aide se concentre sur les pays déjà bien intégrés, elle risque de creuser davantage l’écart entre les « gagnants » et les laissés-pour-compte de la mondialisation. Or, les déclarations récentes de l’administration américaine qui limiteraient l’aide au développement à 17 pays prioritaires choisis par les États-Unis (« excluant certains pays en proie à de graves crises humanitaires, tels que l’Afghanistan et le Yémen ») ne font que renforcer ces inquiétudes.

The Conversation

Basak Bayramoglu est membre de la Chaire Énergie et Prospérité, sous l'égide de La Fondation du Risque.

Jean-François Jacques et Julie Lochard ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

22.01.2026 à 12:29

En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes

Sonia Henry, Chercheuse, Université de Lorraine
Dans l’Est de la France, à Uckange, un projet expérimental décontamine des sols pollués aux hydrocarbures et aux éléments traces métalliques grâce à l’association de plantes et de microorganismes.
Texte intégral (2895 mots)
Le tabouret bleu (_Noccaea caerulescens_) est une plante capable d’extraire du zinc, du cadmium et du nickel des sols. Madeleine Dugois, CC BY-NC-SA

La phytoremédiation est une technique de dépollution naturelle fondée sur l’utilisation de plantes pour gérer différents polluants présents dans les sols. Prometteuse, mais encore expérimentale, cette méthode est testée sous plusieurs modalités par des scientifiques à Uckange, en Moselle, sur la friche d’une ancienne usine sidérurgique.


À l’échelle de l’Europe, 62 % des sols sont aujourd’hui considérés comme dégradés, selon l’Observatoire européen des sols – EUSO. L’enjeu est de taille : les sols, que nous avons longtemps réduits à un rôle de simple support, jouent en réalité de très nombreuses fonctions pour le vivant. Celles-ci sont traduites en services écosystémiques rendus à l’humain : fourniture d’aliments, de fibres, de combustibles, pollinisation, régulation du climat ou encore la purification de l’eau, etc.

Ces biens et services, que nos sols dégradés ne fournissent plus correctement, engendrent notamment une baisse de la production agricole et de la qualité des aliments et de l’eau. Parmi les causes de cette dégradation figurent en bonne place les pollutions d’origine anthropique. Par exemple, l’utilisation de produits phytosanitaires, d’hydrocarbures (stations-service) ou encore pollutions industrielles.

Les polluants peuvent engendrer des problématiques de santé publique et tendent à se propager dans l’environnement, dans les sols, mais aussi, sous certaines conditions, vers les eaux et dans la chaîne alimentaire. Leur élimination est donc cruciale. Pour agir au niveau du sol, il existe trois grandes catégories de traitements : physiques, chimiques et biologiques. La sélection s’opère en fonction de différents paramètres, comme l’hétérogénéité et les teneurs en contaminants, l’étendue de la pollution, l’encombrement du site, les contraintes de temps, le bilan carbone de l’opération ou encore l’acceptabilité du projet par les riverains.

De plus en plus de projets de recherche explorent les traitements biologiques fondés sur la phytoremédiation : la dépollution par des plantes.

C’est notamment le cas à Uckange, en Moselle, où un ancien site sidérurgique est devenu un laboratoire à ciel ouvert permettant de tester ces méthodes, à travers une initiative portée par la Communauté d’agglomération du Val de Fensch en partenariat avec l’Université de Lorraine, l’Inrae et le Groupement d’intérêt scientifique requalification des territoires dégradés : interdisciplinarité et innovation (Gifsi).

Les vertus de la phytoremédiation

Commençons par expliquer ce que l’on entend par « phytoremédiation ».

Mécanismes d’absorption des métaux lourds par les plantes grâce à la phytoremédiation. Bieby Voijant Tangahu et al, CC BY

Il s’agit de sélectionner des végétaux appropriés qui vont, via leurs systèmes racinaires et parfois leurs parties aériennes, permettre de dégrader les polluants organiques (phyto et/ou rhizodégradation), d’extraire les polluants minéraux (phytoextraction), de les stabiliser dans les sols afin d’éviter une mobilité et/ou une biodisponibilité (phytostabilisation) ou même de les volatiliser pour certains d’entre eux (phytovolatilisation).

Le choix des espèces végétales va dépendre, entre autres, des caractéristiques physico-chimiques du sol (potentiel agronomique, contaminant ciblé et teneur), du climat et de leurs capacités à être maîtrisées (non envahissante). Pour ce projet, leurs potentiels de valorisation à la suite de l’action de dépollution ont également été pris en compte.

Le miscanthus géant aide la dégradation de certains hydrocarbures dans les sols. geograph.org.uk, CC BY-NC-SA

Certaines plantes sont par ailleurs particulièrement intéressantes pour leur capacité à dépolluer le sol de plusieurs éléments à la fois : le tabouret bleu (Noccaea caerulescens), par exemple, peut extraire d’importantes quantités de zinc, mais aussi de cadmium et de nickel.

Le miscanthus géant (Miscanthus x giganteus) stimule, quant à lui, la microflore du sol pour dégrader les hydrocarbures totaux ou les hydrocarbures aromatiques polycycliques.

L’association de la luzerne (Medicago sativa) à la fétuque élevée (Festuca arundinacea) permet en parallèle, grâce à la microflore du sol, l’élimination de plusieurs molécules de polychlorobiphényles


À lire aussi : La phytoremédiation : quand les plantes dépolluent les sols


La friche d’Uckange, laboratoire à ciel ouvert

Le parc U4, à Uckange, est un ancien site sidérurgique multicontaminé. Il est également classé à l’inventaire supplémentaire des monuments historiques.

Depuis quelques années, une initiative baptisée les jardins de transformation – accessible au public lors de visites guidées – a pour objectif de tester différentes modalités de phytoremédiation. Sur deux hectares de ce site qui en compte douze – les scientifiques explorent la dépollution par les plantes, en association avec des microorganismes présents dans les sols et qui participent également à ce processus de décontamination.

L’usine d’Uckange et son quatrième haut fourneau sont désormais un monument historique qui peut être visité par le grand public. Benjism89, CC BY-NC-SA

Quand cela était possible, une première phase d’essai en laboratoire a été menée avant l’implantation sur site. Il s’agissait d’expérimentations sous conditions contrôlées (température, humidité, luminosité avec des cycles jour-nuit). L’objectif était de sélectionner les espèces végétales potentielles candidates à un usage pour la phytoremédiation. Après la validation de cette phase en laboratoire, des essais en conditions réelles ont été mis en place.

Depuis 2022, différentes modalités de phytoremédiation sont testées au travers des jardins de transformation. Ce site, qui est contaminé à la fois en éléments traces métalliques (cuivre, zinc, nickel, chrome…) et en polluants organiques (hydrocarbures totaux, hydrocarbures aromatiques polycycliques), accueille, pour le moment, 7 modalités, toutes en co-culture.

Par exemple, des jardins-forêts ont été installés sur trois parcelles du site, représentant environ 750 m2. Une vingtaine d’espèces végétales comestibles de différentes strates (arbres, arbustes, herbacées, légumes racines, lianes) ont été installées afin de tester la capacité de ces associations végétales à dépolluer les sols. De quoi récolter des informations précieuses à l’avenir sur l’éventuel transfert des polluants du sol vers les parties comestibles de ces plantes, qui n’a pas encore été étudié.

Les espèces végétales présentes naturellement sur le site sont également suivies afin de comprendre le mode de recolonisation de ces espaces dégradés et estimer l’implication des 200 plantes identifiées dans l’amélioration de la qualité des sols et la dépollution.


À lire aussi : Peut-on rendre la forêt « nourricière » ? La proposition du jardin-forêt


Associer plantes d’extraction et de dégradation

Une autre originalité du projet est d’associer, pour la première fois, des procédés de phytoextraction et de phyto/rhizodégradation. Jusqu’à présent, seule une espèce végétale capable de traiter un contaminant était mise en place sur un sol. Ici, nous misons sur des co-cultures de végétaux. L’enjeu est d’améliorer l’efficacité de dépollution, mais aussi les fonctions du sol (qualité agronomique, biodiversité, stockage carbone).

L’innovation réside, ici, dans l’association de Miscanthus x giganteus, qui favorise la dégradation des molécules organiques, avec des espèces de la famille des Brassicaceae capables d’extraire les éléments traces métalliques.

Pour chacune des phases et pour tester l’efficience des processus en conditions réelles, des analyses sur le sol, en amont et après les cycles de cultures, sont réalisées dans le but d’évaluer :

  • la diminution des teneurs en contaminants,

  • l’amélioration de la qualité agronomique,

  • et l’augmentation de la biodiversité microbienne.

La biomasse végétale produite sur site est également caractérisée afin d’estimer son application dans les processus de dépollution (notamment la phytoextraction) et d’évaluer la possibilité de valorisation de cette matière première produite sur site dégradé.

Les premiers résultats seront publiés dans les prochains mois.

Bénéfices collatéraux de la phytoremédiation

Notre approche va au-delà de la remédiation des sols : la présence de ces différents organismes vivants aura d’autres effets bénéfiques.

Ces multiples espèces permettent d’améliorer la qualité des sols. En effet, cela augmente sa teneur en matière organique et fournit davantage d’éléments nutritifs, en améliorant l’efficacité du recyclage dans les cycles biogéochimiques. Cela participe aussi à la modification de la structure du sol et à la réduction de l’érosion, et in fini à l’amélioration des rendements et de la qualité des biomasses produites. On peut également noter l’augmentation de la taille des communautés microbienne et de la diversité des microorganismes.

Ceci a déjà été démontré en système agricole, l’idée est désormais de déterminer si les mêmes effets seront détectés sur des sols dégradés. Cette démarche participe également à la lutte contre le changement climatique car elle améliore le stockage du carbone par les sols, ainsi qu’à la régulation des ravageurs et à la pollinisation des cultures sur site, par l’augmentation de la biodiversité animale.

En outre, ce laboratoire à ciel ouvert permet non seulement de tester différentes modalités de phytoremédiation sans être soumis à des contraintes de temps, mais aussi d’obtenir, grâce à ses surfaces importantes, suffisamment de biomasse végétale pour vérifier la possibilité de valoriser les plantes cultivées pour d’autres usages (par exemple, paillage, compost, production d’énergie, produits biosourcés…), une fois leur action dépolluante terminée.

The Conversation

Sonia Henry a reçu des financements de la Communauté d'Agglomération du Val de Fensch et de l'Institut Carnot Icéel

22.01.2026 à 12:16

Comment dépolluer les friches industrielles face à la défiance des habitants ?

Cecile Bazart, Maîtresse de conférences, Université de Montpellier
Marjorie Tendero, Associate Professor in economics, ESSCA School of Management
Entre incertitudes techniques, mémoire collective et manque de confiance, la dépollution des friches industrielles ne suffit pas toujours à lever les peurs des habitants.
Texte intégral (2086 mots)

Près de huit Français sur dix vivent à proximité d’une friche polluée. Malgré les opérations de dépollution, les politiques de reconversion et l’objectif zéro artificialisation nette (ZAN), plusieurs milliers de sites restent à l’abandon. Entre incertitudes techniques, coûts de dépollution cachés et mémoire collective, la confiance des habitants reste difficile à restaurer.


Vous vivez peut-être, sans le savoir, à proximité d’une friche polluée : c’est le cas de près de huit Français sur dix. Malgré les politiques de reconversion engagées ces dernières années, notamment dans le cadre de France Relance (2020-2022) et des dispositifs mis en place par l’Agence de la transition écologique (Ademe), ces friches existent toujours. Selon les données de l’inventaire national Cartofriches, plus de 9 000 friches sont encore en attente de projets de reconversion en France en 2026.

Anciennes usines, décharges, casernes militaires, zones portuaires ou ferroviaires, mais aussi hôpitaux, écoles ou équipements de services… Les friches sont, par nature, très diverses. Elles sont majoritairement héritées de notre passé industriel. Mais certaines concernent des activités de services actuelles qui ont été implantées sur d’anciens terrains industriels déjà contaminés, comme l’illustre l’ancien site Kodak à Vincennes (Val-de-Marne).

Rue des vignerons à Vincennes (Val-de-Marne), l’usine Pathé fabrique en 1902 des supports et émulsions chimiques pour le cinéma et la photographie. Elle deviendra plus tard l’usine Kodak.

Au-delà de leur emprise physique, certaines friches ont marqué durablement les territoires et les mémoires collectives. Certains noms sont aujourd’hui associés à des pollutions persistantes, voire à des crises sociales, comme Métaleurop, Péchiney, Florange ou encore AZF.

Ces sites abandonnés, bâtis ou non, mais nécessitant des travaux avant toute réutilisation font l’objet de transformations variées : logements, jardins, bureaux, centres commerciaux ou espaces culturels, à l’instar de la friche de la Belle-de-Mai dans le 3ᵉ arrondissement de Marseille. À l’heure où la France s’est engagée vers l’objectif zéro artificialisation nette (ZAN), la reconversion des friches est un enjeu majeur pour les territoires afin de limiter l’étalement urbain et promouvoir l’attractivité des territoires.

Pourtant, malgré les opérations de dépollution, beaucoup peinent à retrouver un usage. Pourquoi ? Parce que dépolluer un sol ne suffit pas à effacer un passé ni à restaurer la confiance des habitants.

Dépolluer : une étape indispensable mais complexe

Avant d’être réaménagée, une friche polluée fait l’objet de diagnostics des sols qui débouchent le plus souvent sur l’élaboration d’un plan de gestion. Ce document définit les mesures nécessaires pour rendre le site compatible avec l’usage envisagé : excavations des terres polluées, confinement sous des dalles ou des enrobés, gestion des eaux, surveillance dans le temps, ou encore restrictions d’usage.

Son contenu dépend de l’usage futur. Transformer une friche en entrepôt logistique n’implique pas les mêmes exigences que la création d’une école. Plus l’usage est dit « sensible » et plus les exigences sanitaires sont élevées. En France, la dépollution ne vise donc pas à un retour à un sol totalement exempt de pollution. Elle repose sur un arbitrage entre pollution résiduelle, exposition potentielle et usages futurs.

À cela s’ajoute une réalité souvent sous-estimée : le coût de la dépollution est très variable et est rarement connu avec précision dès le départ.

Selon les caractéristiques du site, les polluants, leur profondeur et les usages envisagés, les coûts peuvent devenir exponentiels. En cas de découvertes fortuites (amiante caché dans des remblais ou concentrations en métaux lourds plus élevées que prévu), le plan de gestion est modifié. Autrement dit, dépolluer est souvent simple sur le papier, mais beaucoup plus incertain dans la réalité, avec potentiellement des coûts cachés.


À lire aussi : En Moselle, on dépollue les sols d’une friche sidérurgique grâce aux plantes


Le stigmate, angle mort de la reconversion

Cette incertitude technique n’est pas sans effet sur la perception des habitants, qui voient parfois ressurgir au fil des travaux les traces d’un passé que l’on pensait maîtriser. Même après des travaux conformes aux normes, de nombreuses friches peinent à attirer habitants, usagers ou investisseurs.

C’est ce que l’on appelle « l’effet de stigmate ». Un site reste associé à son passé, à des pollutions médiatisées ou à des crises sanitaires et sociales qui ont marqué les esprits.

Autrement dit le passé continue de se conjuguer au présent. Le sol est assaini, mais la mémoire collective, elle, ne l’est pas. Pour filer la métaphore, la friche devient un présent imparfait : juridiquement réhabilitée, mais symboliquement suspecte. Ce stigmate a des effets concrets : inoccupations ou sous-utilisations prolongées et oppositions locales, par exemple.

Pour objectiver cette défiance, nous avons mené une enquête auprès de 803 habitants vivant à proximité d’une friche polluée, répartis dans 503 communes françaises. Les résultats sont sans appel : près de 80 % des personnes interrogées se déclarent insatisfaites de la manière dont sont gérées et reconverties les friches polluées en France.

Cette insatisfaction est plus forte parmi les personnes percevant les sols comme fortement contaminés ayant déjà été confrontées à des situations de pollution ou exprimant une faible confiance dans les actions de l’État. Elles se déclarent également plus réticentes à utiliser ou à investir les sites une fois réhabilités.


À lire aussi : Comment redonner une nouvelle vie aux friches industrielles en ville ?


Un décalage entre gestion technique et perceptions

Ces résultats révèlent un décalage entre la gestion technique des friches et la manière dont elles sont perçues par les habitants. Sur le plan réglementaire, un site peut être déclaré compatible avec l’usage prévu, mais sur le plan social, il peut rester perçu comme risqué.

Plusieurs mécanismes expliquent ce décalage.

  • Le premier tient à l’invisibilité de la pollution des sols. Contrairement à un bâtiment délabré, un sol dépollué ne se voit pas, ce qui peut alimenter le doute.

  • La mémoire collective joue également un rôle central. Les friches polluées sont souvent associées à un passé industriel lourd, parfois marqué par des scandales sanitaires ou des crises sociales qui laissent des traces durables dans les représentations.

  • Enfin, le manque d’information peut renforcer la suspicion. Les notions de pollution résiduelle ou de plan de gestion peuvent en effet être difficiles à appréhender pour les non-spécialistes. Or, lorsqu’une pollution n’est pas totalement supprimée, le message peut être mal compris et perçu comme un danger dissimulé.

Ainsi, même si les solutions techniques sont solides, le stigmate persiste. Pourtant, sans confiance des populations, point de reconversion durable.

Ces résultats soulignent un point essentiel : la reconversion des friches polluées ne repose pas uniquement sur la qualité des travaux de dépollution. Elle dépend tout autant de la capacité à instaurer un climat de confiance. Cela suppose une information claire, transparente et accessible, expliquant non seulement ce qui a été fait, mais aussi ce qui reste en place et pourquoi. Cela implique d’associer les riverains aux projets, en amont, afin qu’ils ne découvrent pas les transformations une fois les décisions prises. Enfin, cela nécessite de reconnaître le poids du passé et de la mémoire locale, plutôt que de chercher à l’effacer.

Dans un contexte de zéro artificialisation nette (ZAN), les friches polluées constituent une opportunité foncière. Mais sans prise en compte des dimensions sociales et symboliques, les solutions techniques, aussi performantes soient-elles, risquent fort de rester insuffisantes. Dépolluer les sols est indispensable. Instaurer ou restaurer la confiance des habitants l’est tout autant.


À lire aussi : Sur les terrils miniers du Nord-Pas-de-Calais, la naissance d’une niche écologique inédite


The Conversation

L'enquête détaillée dans l'article a été financée par l'Université de Montpellier.

Marjorie Tendero a reçu un co-financement de sa thèse en sciences économiques par l'ADEME et la Région Pays de la Loire (2014-2017).

22.01.2026 à 11:09

L’eau invisible des chaînes de valeur mondialisées

Simon Porcher, Professeur, Université Paris Dauphine – PSL
L’eau est omniprésente dans les échanges de biens et de services. Elle est pourtant la grande oubliée des régulations environnementales mondiales. Des pistes émergent pour y remédier. Avec quelle efficacité ?
Texte intégral (1744 mots)

C’est le maillon caché de la mondialisation : quand on échange des biens et des services, on transfère aussi de l’eau douce d’un pays à l’autre. Pourtant, la gestion de l’eau reste locale, quand sa consommation est devenue mondiale. Des solutions émergent.


L’eau douce, pourtant indispensable à toute activité humaine, reste souvent absente des débats sur la mondialisation, comme si sa disponibilité allait de soi. Pourtant, sans eau, il n’y a ni alimentation, ni industrie, ni énergie, ni numérique. Nos vies, même dématérialisées, reposent sur l’utilisation de l’eau, qui refroidit, nettoie, chauffe. L’eau est l’intrant invisible de notre économie. Un chiffre résume son importance : 88 % de l’eau prélevée dans le monde sert à produire des biens ou des services.

L’eau circule déjà d’un continent à l’autre, non pas dans des canalisations, mais à travers les chaînes de valeur mondialisées, dans les produits alimentaires ou les habits que nous consommons et dans toutes nos infrastructures. Cette « eau virtuelle » irrigue la mondialisation, mais reste largement ignorée des décisions économiques et politiques. Résultat : l’eau est mobilisée comme si elle était une ressource infinie, au service d’une économie qui privilégie la performance immédiate au détriment des écosystèmes et des populations.

Les flux d’eau cachés dans notre assiette

Le concept d’eau virtuelle, inventé au début des années 1990 par le géographe Tony Allan, permet de mesurer l’eau incorporée dans les produits que nous consommons. Par exemple, il faut 15 000 litres d’eau pour produire un kilogramme de bœuf, 4 000 litres pour un kilogramme de pistaches et 1 000 itres pour un kilogramme de maïs.

Chaque petit déjeuner devient un voyage autour du monde : le café du matin vient de Colombie ou du Brésil, arrosé par les pluies tropicales ; le carré de chocolat noir qui l’accompagne est fabriqué à partir de cacao équatorien ; l’avocat du Pérou vient d’un champ irrigué. Seuls le blé et le sel de la baguette de pain, et la poule qui a pondu l’œuf viennent de France. Nos choix alimentaires connectent les bassins d’eau du monde entier, souvent à notre insu.


À lire aussi : L’eau, la grande oubliée du label bio ?


Afin de mesurer le volume ainsi utilisé indirectement, Arjen Hoekstra a élaboré en 2002 le concept d’« empreinte eau ». Celle-ci correspond au volume total d’eau utilisé pour produire les biens et les services que nous consommons. Elle peut être calculée pour un pays ou pour un consommateur. Par exemple, l’empreinte eau d’un Français est supérieure à 4 000 litres par jour et 90 % de cette quantité proviennent de son alimentation.

L’eau dans les chaînes de valeur mondialisées

Cette approche par l’assiette, et plus généralement par le produit final, révèle les transferts massifs d’eau entre pays, souvent invisibles dans les échanges commerciaux.

L’industrie textile illustre parfaitement cette réalité. De la culture du coton à la teinture et au lavage, chaque vêtement consomme des milliers de litres d’eau. Les fleuves Amou-Daria et Syr-Daria, qui prennent leur source au Tadjikistan et au Kirghizistan, ont été détournés par les pays en aval pour irriguer du coton. Cette irrigation massive a réduit leur flux au point d’assécher la mer d’Aral (Asie centrale). Là-bas, la baisse de la quantité d’eau entraîne des problèmes sanitaires et de dégradation des conditions d’existence. Les procédés industriels génèrent des rejets polluants, mal traités, contaminant rivières, sols et nappes. Les pays producteurs de textile paient le prix écologique de nos vêtements à bas coût.

Cet exemple illustre un problème plus large. La mondialisation des flux d’eau virtuelle révèle un vide institutionnel majeur. L’économie est globale, mais la gestion de l’eau reste locale. Cette disjonction favorise le dumping hydrique et environnemental. Les règles du commerce mondial invisibilisent les impacts réels sur les populations et les écosystèmes. Les chaînes de production éclatées permettent aux entreprises de profiter des ressources des pays fragiles, sans compensations ni reconnaissance des impacts sociaux et écologiques.

Des inégalités accentuées

L’exploitation intensive de l’eau n’est pas seulement un problème environnemental ; c’est un enjeu social et politique. Les populations des pays producteurs subissent la raréfaction de l’eau, la pollution des nappes et les risques sanitaires. Les inégalités s’accentuent : ce sont les plus vulnérables qui supportent les coûts, et les plus riches qui récoltent les bénéfices.

Au-delà de l’opposition entre le Nord et le Sud, c’est la domination des logiques de marché qui pose problème. Les multinationales choisissent leurs sites de production selon le coût de l’eau et la faiblesse des normes, renforçant un modèle où la ressource devient une variable d’ajustement économique plutôt qu’un bien commun. Les États, souvent dépassés, adoptent ces normes pour rester compétitifs, laissant peu de place à des alternatives locales ou écologiques.

Vers une reconnaissance de l’eau comme une ressource commune globale

La gouvernance de l’eau demeure aujourd’hui largement fragmentée à l’échelle mondiale. Contrairement au changement climatique, qui bénéficie d’un cadre multilatéral de référence malgré ses limites, l’eau n’est pas reconnue comme une ressource commune globale dotée de règles et de normes contraignantes pour les acteurs économiques.

Cette situation limite la capacité de régulation des usages et des impacts. En l’absence d’un étiquetage systématique de l’empreinte eau des produits, la consommation d’eau liée aux biens et aux services échangés reste en grande partie invisibles. Alors même que l’empreinte eau d’un produit peut varier fortement selon les systèmes de production et les intrants mobilisés, cette invisibilité contribue à une faible responsabilisation de l’ensemble des acteurs. Dans un contexte de dépassement des limites planétaires relatives à l’eau, la disponibilité et la transparence des informations relatives à l’empreinte eau des produits et des services constituent un enjeu central de gouvernance.

Par ailleurs, les usages de l’eau reflètent de fortes inégalités géographiques : les pays industrialisés concentrent une part importante des consommations d’eau indirectes à travers les importations de produits agricoles et industriels, tandis que les pressions hydriques se manifestent principalement dans les pays producteurs. Dans ce contexte, les politiques commerciales et de coopération internationale sont des leviers potentiels de régulation indirecte des impacts hydriques. La jurisprudence de l’Organisation mondiale du commerce (OMC) a reconnu la possibilité pour un État de restreindre l’accès à son marché sur la base de procédés et de méthodes de production. Demain peut-être prendra-t-on en compte les impacts environnementaux localisés, tels que le stress hydrique, dans la régulation des échanges internationaux.

France 24, 2024.

Internaliser la contrainte ?

Du côté des entreprises, la prise en compte des risques hydriques progresse mais demeure hétérogène. Elle repose largement sur des démarches volontaires, souvent intégrées à des stratégies de responsabilité sociale sans caractère contraignant. Mais certaines multinationales commencent toutefois à internaliser ces enjeux.

Michelin a par exemple mis en place un prix fictif de l’eau en interne pour orienter ses usines à investir dans des systèmes d’économie et de réutilisation de l’eau. À Gravanches et à Troyes, l’amélioration des processus de refroidissement devrait diminuer les prélèvements de plus de 60 %.

Néanmoins, ces initiatives restent principalement concentrées sur les sites de production directe, alors que l’essentiel des consommations d’eau associées aux produits se situe en amont, le long des chaînes de valeur, où se concentre également une part importante des risques hydriques. L’analyse de l’empreinte eau sur l’ensemble des chaînes d’approvisionnement apparaît dès lors comme un outil central pour identifier et gérer les risques hydriques liés à leurs investissements.

L’eau n’est pas seulement un enjeu environnemental, c’est un facteur structurant de la production économique, du commerce international et de la souveraineté. Le décalage entre la nature localisée des ressources hydriques et l’organisation mondialisée des chaînes de valeur constitue l’un des défis majeurs de la gouvernance contemporaine de l’eau.


Cet article fait partie du dossier « La gestion à l’épreuve du réel » réalisé par Dauphine Éclairages, le média scientifique en ligne de l’Université Paris Dauphine – PSL.

The Conversation

Simon Porcher co-dirige l’Institut d'économie de l’eau, soutenu par des mécènes. Ceux-ci n’ont joué aucun rôle dans le choix de l’angle, la rédaction ou les conclusions ; cette tribune n’engage que son auteur.

21.01.2026 à 16:44

Transition énergétique : développer les bioénergies, oui mais avec quelles biomasses ?

Fabrice Beline, Directeur de Recherche, Inrae
Présentées comme un levier de la transition, mais très gourmandes en ressources agricoles, les bioénergies doivent voir leur place et les enjeux qu’elles soulèvent entrer dans le débat public.
Texte intégral (2250 mots)

En matière de transition énergétique, les débats sur la production et la consommation électrique tendent à occuper le devant de la scène politico-médiatique et à occulter le rôle des bioénergies. Ces dernières font pourtant partie intégrante de la programmation énergétique du pays. Leur production peut avoir des impacts majeurs tant sur les modes de production agricole que sur nos habitudes alimentaires.


Dans les prospectives énergétiques telles que la stratégie nationale bas carbone (SNBC), les scénarios négaWatt ou encore ceux de l’Agence de la transition écologique Ademe… les bioénergies sont régulièrement présentées comme un levier incontournable de la transition, en complément de l’électrification du système énergétique.

Pour rappel, ces énergies, qui peuvent être de différentes natures (chaleur, électricité, carburant…), se distinguent des autres par leur provenance. Elles sont issues de gisements de biomasses tels que le bois, les végétaux et résidus associés, les déchets et les effluents organiques.

L’électrification met en scène de nombreuses controverses politiques et sociétales dans le débat public et médiatique. Par exemple : compétition entre renouvelable et nucléaire, arrêt des moteurs thermiques… À l’inverse, les discussions sur les bioénergies se cantonnent encore aux milieux scientifiques et académiques.

Pourtant, leur déploiement implique des évolutions importantes. Et ceci à la fois dans les modes de production agricole et les habitudes alimentaires, en tout cas si nous le voulons durable.

Il est donc essentiel que le sujet bénéficie d’une meilleure visibilité et d’une plus grande appropriation par la société pour que puissent naître des politiques publiques cohérentes.

Les bioénergies, levier de la transition énergétique

La transition énergétique, qui consiste à réduire drastiquement le recours aux énergies fossiles, est centrale dans la lutte contre le changement climatique. À l’horizon 2050, elle s’appuie sur deux piliers :

  • d’une part l’augmentation de la production d’électricité « bas carbone », associée à une forte électrification des usages, notamment pour la mobilité.

  • de l’autre, une hausse conséquente de la production de bioénergies pour compléter l’offre électrique, en particulier pour les usages difficilement « électrifiables » (par exemple dans l’industrie).

Actuellement, au niveau national, les bioénergies représentent de 150 à 170 térawattheures (TWh) par an, soit un peu plus de 10 % de l’énergie finale consommée. Ce chiffre concerne principalement la filière bois, à laquelle s’ajoutent les biocarburants et la filière biogaz. À l’horizon 2050, les prospectives énergétiques prévoient une consommation de plus de 300 de bioénergies, avec une forte croissance dans les secteurs du biométhane (injection du biogaz dans le réseau de gaz après épuration du biométhane) et, dans une moindre mesure, des biocarburants.

La programmation pluriannuelle de l’énergie n°3 (PPE3), qui est en cours de consultation, constitue la feuille de route de la France pour sa transition énergétique, avec des objectifs chiffrés. Pour la filière biométhane, la cible est fixée à 44 TWh/an dès l’horizon 2030 puis jusqu’à 80 TWh/an en 2035, contre une production actuelle de l’ordre de 12 TWh/an. Concernant les biocarburants, la PPE3 prévoit une légère augmentation pour atteindre 50 TWh/an en 2030-2035.


À lire aussi : Avenir énergétique de la France : le texte du gouvernement est-il à la hauteur des enjeux ?


La nécessité d’une biomasse « durable »

L’optimisme quant à nos capacités à cultiver de manière durable les biomasses nécessaires à la production de ces bioénergies n’est cependant plus de mise.

Alors que la deuxième Stratégie nationale bas carbone (SNBC) tablait sur une production de 370 TWh/an de bioénergies en 2050, la nouvelle version SNBC 3 revoit ce chiffre à la baisse à 305 TWh/an. En mai 2025, le rapport des académies d’agriculture et des technologies réduisait ce chiffre à 250 TWh/an.

L’évolution à la baisse de ces chiffres met en lumière l’inadéquation entre les besoins de biomasse pour la transition énergétique, telle qu’elle est actuellement envisagée, et les capacités de production du système agricole actuel.

En novembre 2023, le Secrétariat général à la planification écologique lançait l’alerte, à travers cette formule relayée par le Monde :

« Il y a un problème de bouclage sur la biomasse. »

Ces questionnements ont donné lieu à des échanges entre le ministère de l’agriculture et de la souveraineté alimentaire et l’Inrae autour des enjeux agronomiques, techniques et économiques d’une mobilisation accrue des différents gisements de biomasse et de leur transformation en bioénergies. Ils ont confirmé les difficultés de faire correspondre les besoins pour la transition énergétique et la capacité de production.

Les flux de biomasse en France

Pour y voir plus clair sur les enjeux et les leviers disponibles, il convient d’analyser plus globalement les flux de biomasses agricoles à l’échelle nationale.

Environ 245 millions de tonnes de matière sèche (MtMS) sont produits chaque année pour des usages primaires (directs) et secondaires (indirects). Ces usages se répartissent comme suit :

  • Environ 100-110 MtMS sont mobilisés pour l’alimentation animale et finalement la production de denrées alimentaires telles que le lait, la viande, les œufs.

  • Quelque 70-80 MtMS/an retournent directement au sol (résidus de cultures, fourrages et prairies), auxquels s’ajoutent environ 30 MtMS/an de flux secondaires principalement issus de l’élevage sous forme d’effluents (lisier, fumier, digestat…).

  • Environ 50-55 MtMS/an sont utilisés directement pour la production de denrées alimentaires humaines (dont plus de la moitié est exportée).

  • Et 9 MtMS/an servent à la production d’énergie (biocarburant et biogaz) auxquels s’agrègent environ 9MtMS/an de flux secondaires provenant de l’élevage et de l’industrie agroalimentaire (lisier, fumier, biodéchets…).

Infographie des flux actuels de biomasse agricole (en MtMS). SGPE 2024

À échéance 2050, les besoins supplémentaires en biomasses pour les bioénergies s’établissent entre 30 et 60 MtMS/an.

Les dilemmes pour répondre à ces besoins accrus

Tous les acteurs s’accordent sur le fait qu’il n’est pas concevable de rediriger des ressources utilisables – et actuellement utilisées pour l’alimentation humaine – vers des usages énergétiques.

Il apparaît dès lors tentant de rediriger la biomasse qui retourne actuellement au sol. Pourtant, ces flux de biomasse sont essentiels à la santé, qualité et à la fertilité des sols. Ils participent à la lutte contre le changement climatique à travers leur contribution au stockage (ou à la limitation du déstockage) de carbone dans les sols.

Une autre piste, pour répondre à ces besoins croissants, serait d’augmenter la production primaire de biomasse à travers le développement et la récolte de cultures intermédiaires appelées « cultures intermédiaires à vocation énergétique » (CIVE). Celles-ci sont cultivées entre deux cultures principales.

Toutefois, une telle production supplémentaire de biomasse implique l’utilisation de ressources supplémentaires (nutriments, eau, produits phytosanitaires). Elle tend aussi à accroître les risques de transferts de pollution vers la biosphère.

Mobiliser trop fortement ces leviers pourrait donc s’avérer contreproductif. Les alertes s’accumulent à ce sujet. Ces leviers sont donc à actionner avec parcimonie.

Une autre piste, conceptualisée dans plusieurs scénarios de transition, serait de rediriger une partie de la biomasse actuellement utilisée pour nourrir les animaux d’élevage vers la production énergétique.

Ceci impliquerait à la fois une diminution des cheptels et une extensification des élevages afin de préserver leurs services écosystémiques rendus, tout en minimisant leur consommation de biomasse. Cela répondrait à l’enjeu de réduction des émissions de gaz à effet de serre de l’agriculture et serait donc le plus cohérent pour affronter les enjeux écologiques.

Ce scénario requiert toutefois des changements d’envergure dans nos habitudes alimentaires, avec une réduction de notre consommation de produits animaux pour éviter une augmentation des importations.

Vers des politiques publiques coordonnées et cohérentes ?

Après deux ans de retard et de blocages dans les ministères, la stratégie nationale pour l’alimentation, la nutrition et le climat ne semble malheureusement pas à la hauteur de cette problématique. En témoigne l’absence d’objectif chiffré sur la réduction de la consommation de produits animaux, voire la disparition du terme de réduction dans les dernières versions.

De même, les lois récentes d’orientation agricole et Duplomb renforcent l’orientation productiviste de l’agriculture, tout en minimisant les enjeux de transition. Ceci va à l’encontre (au moins partiellement) des orientations nécessaires pour la transition énergétique et la SNBC 3, sans parler des antagonismes avec la stratégie nationale biodiversité.

La France ne manque donc pas de stratégies, mais d’une cohérence globale entre elles. C’est bien cela qui conduit à un découragement des responsables de l’élaboration et la mise en œuvre des politiques publiques et à une adhésion insuffisante des citoyens à ces stratégies.

Il y a donc urgence à développer une vision et des politiques publiques intersectorielles cohérentes et complémentaires englobant l’énergie, l’agriculture, l’environnement, l’alimentation et la santé.

The Conversation

Fabrice Beline a reçu des financements de l’Ademe (projet ABMC) et de GRDF (projet MethaEau).

21.01.2026 à 16:23

Derrière le sans-abrisme, la face cachée du mal-logement

Pascale Dietrich, Chargée de recherche, Ined (Institut national d'études démographiques)
Marie Loison-Leruste, Maîtresse de conférences en sociologie, Université Sorbonne Paris Nord
À l'occasion de la Nuit de la solidarité, le 22 janvier, opération citoyenne de recensement des personnes sans-abri, il est utile de rappeler que d’autres formes moins visibles de précarité résidentielle existent.
Texte intégral (2154 mots)

Ce 22 janvier, une Nuit de la solidarité est organisée à Paris et dans d’autres villes françaises – une forme d’opération citoyenne de décompte des personnes dormant dans la rue. Celle-ci ne doit pas occulter ce que les travaux de recherche montrent depuis une quarantaine d’années : à la figure bien connue du sans-abri s’ajoutent d’autres formes moins visibles de précarité résidentielle et de mal-logement.


Aujourd’hui, de plus en plus de personnes sont exclues du logement ordinaire. Les derniers chiffres dont on dispose datent de 2012 et indiquent que le nombre de personnes sans domicile a augmenté de 50 % entre 2001 et 2012 : à cette date, 81 000 adultes, accompagnés de 31 000 enfants étaient sans domicile dans les agglomérations d’au moins 20 000 habitants de France hexagonale. L’enquête Sans Domicile menée par l’Insee en 2025 est en cours d’exploitation et permettra d’actualiser ces chiffres, mais tout laisse penser que la situation s’est encore dégradée, comme en témoignent nos observations de terrain.

D’après l’Insee, une personne est considérée comme sans domicile si elle a dormi la nuit précédente dans un lieu non prévu pour l’habitation (elle est alors « sans-abri »), ou si elle est prise en charge par un organisme fournissant « un hébergement gratuit ou à faible participation » (hôtel ou logement payé par une association, chambre ou dortoir dans un hébergement collectif, etc.). Ainsi, le sans-abrisme est-il la forme extrême du sans-domicilisme qui s’inscrit lui-même dans la myriade des formes du mal-logement.

Au-delà de ces personnes sans domicile, d’autres vivent dans des caravanes installées dans des campings, dans des squats, chez des tiers, des camions aménagés, des logements insalubres, etc., autant de situations résidentielles précaires qui échappent aux radars de la société et sont peu relayées dans les médias.

Ainsi, la Fondation pour le logement des défavorisés estime dans son rapport de 2025 que près de 4 millions de personnes sont touchées en France par toutes ces formes de mal-logement, la plupart des indicateurs de mal-logement s’étant dégradés.

« Crise du logement : Ces Français contraints de vivre au camping » – Reportage #Cdanslair, 31 janvier 2024.

À la figure bien connue du sans-abri dormant dans la rue s’ajoutent donc d’autres formes moins repérables de précarité résidentielle.

À l’approche de la Nuit de la solidarité organisée chaque année à Paris et dans d’autres villes françaises, il n’est pas inutile de rappeler ce que soulignent les travaux de recherche sur le sujet depuis une quarantaine d’années : le sans-abrisme n’est que la partie émergée de l’iceberg.

Si les opérations de décompte des personnes vivant dans des lieux non prévus pour l’habitation, et notamment la rue, sont importantes pour sensibiliser les citoyennes et citoyens, elles ne permettent d’obtenir que des estimations très approximatives du sans-abrisme et masquent une problématique plus vaste qui ne se réduit pas à ces situations extrêmes, comme on peut le lire dans ce rapport (pp. 42-52).

Les visages cachés de l’exclusion du logement

À la figure ancienne et un peu caricaturale du clochard – un homme seul, blanc, sans emploi et marginalisé – s’ajoutent d’autres visages : travailleurs et travailleuses précaires, femmes, parfois accompagnées d’enfants, personnes âgées percevant de petites retraites, personnes discriminées en raison de leur orientation sexuelle, étudiantes et étudiants, jeunes sortant de l’Aide sociale à l’enfance ou encore populations issues de l’immigration…

Ces différents types de personnes ont toujours été plus ou moins présentes parmi les populations en difficulté, mais l’augmentation générale de la précarité et la pénurie de logements accessibles les ont encore fragilisées. Plus de 2,7 millions de ménages étaient en attente d’un logement social en 2024. Dans le même temps, seulement 259 000 logements ont été mis en chantier en 2024, dont 82 000 logements sociaux financés.

Si certaines figures du sans-abrisme sont extrêmement visibles, comme les migrantes et migrants dont les campements sont régulièrement montrés dans les médias, d’autres formes d’exclusion sont plus discrètes.

C’est le cas par exemple des personnes en emploi, victimes de l’élargissement de la crise du logement, qui se replient vers les structures d’hébergement institutionnel faute de pouvoir se loger malgré leurs revenus réguliers.

En 2012, près d’un quart des sans-domicile occupaient un emploi. Ce phénomène fait peu de bruit alors même que ces personnes occupent souvent des métiers essentiels au fonctionnement de la société.

De même, les femmes sans domicile sont moins repérables dans l’espace public que leurs homologues masculins, car elles ne ressemblent pas à la figure classique du sans-domicile fixe (SDF). Quand elles y sont présentes, elles ne s’y installent pas et sont beaucoup plus mobiles par crainte d’y subir des violences : elles sont donc très largement sous-estimées dans les opérations de décompte.


À lire aussi : Femmes SDF : de plus en plus nombreuses et pourtant invisibles


Les enquêtes « Sans domicile » montrent qu’entre 2001 et 2012, le nombre de femmes francophones sans domicile a augmenté de 45 %, passant de 17 150 en 2001 à 24 930 femmes en 2012.

Solutions court-termistes

Face à cette précarité résidentielle croissante, quelles solutions apportent les pouvoirs publics ?

L’augmentation du financement de l’hébergement d’urgence qui procure un abri temporaire dans des haltes de nuit ou à l’hôtel apporte certes une solution rapide aux sans-abri qui, du point de vue des édiles, nuisent à l’image des villes, mais ne résout en rien les problèmes de ces personnes.


À lire aussi : Où dormir quand on n’a pas de domicile ?


Reléguant les plus précaires aux marges des villes ou dans des hébergements sans intimité où il est impossible de s’installer dans la durée, ces politiques court-termistes, focalisées sur l’urgence sociale, se doublent de formes de répression (expulsion, arrêtés anti-mendicité, mobiliers urbains inhospitaliers) qui contribuent à la précarisation et à l’invisibilisation des populations étiquetées comme « indésirables ».

L’augmentation massive des expulsions avec le concours de la force publique en 2024, l’hébergement des sans-domicile dans des hôtels de plus en plus éloignés des centres des agglomérations et peu accessibles en transports en commun, ou le déplacement des sans-abri de Paris pendant les Jeux olympiques de 2024 en témoignent.

Prises en charge discontinues

Des changements politiques profonds sont pourtant nécessaires pour résoudre la question de l’exclusion du logement en s’attaquant à ses causes structurelles. Une politique ambitieuse de production et de promotion du logement social à bas niveaux de loyers est indispensable pour permettre aux ménages modestes de se loger sans passer par le long parcours de l’hébergement institutionnel.

La prévention des expulsions doit également être favorisée, de même que la régulation des prix du marché immobilier.

Il est aussi nécessaire d’assurer une meilleure continuité de la prise en charge dans les diverses institutions d’aide. Les populations particulièrement fragiles, qui cumulent les difficultés, connaissent des séjours précoces en institutions, répétés et multiples, de l’aide sociale à l’enfance (en 2012, 23 % des utilisateurs des services d’aide aux sans-domicile nés en France avaient été placés dans leur enfance, alors que cette proportion était seulement de l’ordre de 2 % à 3 % dans la population générale) aux dispositifs d’insertion par le travail, en passant dans certains cas par l’hôpital psychiatrique, les cures de désintoxication ou la prison.

Or, ces prises en charge souvent discontinues n’apportent pas de solutions durables en termes de logement, d’emploi ou de santé. Elles alimentent par ailleurs un sentiment de rejet qui favorise le non-recours au droit : les personnes sont éligibles à des prestations sociales et à des aides mais ne les sollicitent pas ou plus.

Pour ces personnes les plus désocialisées, la politique du logement d’abord (« Housing first ») ou « Chez soi d’abord » en France), qui consiste à donner accès au logement sans condition et à proposer un accompagnement social et sanitaire, donne des résultats probants mais, faute de logements disponibles, elle n’est pas suffisamment mise en œuvre.

Appréhender le problème dans sa globalité

Il faut enfin s’attaquer aux politiques migratoires qui produisent le sans-domicilisme. Les politiques publiques en matière d’accueil des étrangers étant de plus en plus restrictives et les dispositifs spécifiques saturés, migrantes et migrants se retrouvent sans solution de logement. La part d’étrangers parmi la population sans-domicile a ainsi fortement augmenté, passant de 38 % en 2001 à 53 % en 2012.

Résoudre la question de l’exclusion liée au logement en France comme dans de nombreux pays passe autant par des réformes de la politique du logement que par des actions dans le secteur social, de l’emploi et de la politique migratoire. Le sans-domicilisme est un révélateur des inégalités sociales croissantes dans la société et des processus d’exclusion qui la traversent. Trouver une solution à ce problème majeur, nécessite plus que jamais de l’appréhender dans sa globalité, sans se limiter à ses symptômes les plus visibles.


Pascale Dietrich-Ragon et Marie Loison-Leruste ont codirigé l’ouvrage la Face cachée du mal-logement. Enquête en marge du logement ordinaire, paru aux éditions de l’Ined en septembre 2025.

The Conversation

Marie Loison-Leruste est membre de l'association Au Tambour!.

Pascale Dietrich ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.01.2026 à 16:20

Sergueï Karaganov est-il vraiment l’architecte de la politique étrangère du Kremlin ?

Maxime Daniélou, Doctorant en études slaves et chargé de cours à l’université Paris-Nanterre, Université Paris Nanterre
Présenté comme l’homme qui murmure à l’oreille de Poutine, le très médiatique Sergueï Karaganov est moins un concepteur de la politique russe qu’un énième porte-voix de la propagande du Kremlin.
Texte intégral (2213 mots)
Le 7 juin 2024, avant la séance plénière du Forum économique international de Saint-Pétersbourg, dont il est le modérateur, Sergueï Karaganov discute avec Vladimir Poutine. Kirill Morozov/Roscongress, site officiel de la présidence russe

Spécialiste reconnu des relations internationales depuis plusieurs décennies, fondateur de think tanks influents et d’une grande revue consacrée aux affaires diplomatiques, Sergueï Karaganov s’est dernièrement fait remarquer par des propos plus que musclés, promettant notamment à ceux qui s’opposeraient à la Russie, à commencer par les pays de l’Union européenne, une destruction totale. On aurait toutefois tort de voir en lui l’un des artisans de la politique étrangère de Moscou : il s’agit plutôt d’un habile « entrepreneur idéologique », qui sert le pouvoir en lui proposant un habillage conceptuel et en lançant des messages destinés à raffermir, dans l’opinion occidentale, l’idée selon laquelle le Kremlin est déterminé à aller, le cas échéant, jusqu’à la guerre nucléaire.


Les prises de position de l’universitaire russe Sergueï Karaganov font l’objet d’une attention croissante dans l’espace médiatique français et international depuis le début de l’invasion de l’Ukraine par la Russie en février 2022. Récemment, des articles et des émissions télévisées lui ont attribué une influence déterminante sur la politique étrangère russe, allant jusqu’à le qualifier de « nouvel architecte de la politique étrangère du Kremlin » ou de « cerveau géopolitique de Vladimir Poutine », le plus souvent sans autre justification que sa proximité supposée avec le président russe.

Cette situation rappelle un phénomène déjà observé avec le philosophe ultranationaliste Alexandre Douguine, lui-aussi régulièrement présenté comme le « cerveau de Poutine » depuis le début des années 2000, en dépit des démentis répétés de plusieurs chercheurs spécialistes de la Russie.

Dans le cas de Douguine comme dans celui de Karaganov, attribuer une telle influence sur le chef du Kremlin sans fondement empirique solide contribue à obscurcir la compréhension des dynamiques à l’œuvre dans le processus de prise de décision en matière de politique étrangère dans la Russie contemporaine. Ces exagérations offrent par ailleurs une exposition médiatique bienvenue à ces entrepreneurs idéologiques. Si ni l’un ni l’autre n’ont jamais confirmé le rôle qui leur est parfois prêté au sommet de l’État, ils profitent de la visibilité et de l’autorité symbolique que cette image leur confère dans une logique de promotion personnelle et de diffusion de leurs idées, en Russie comme à l’étranger.

Afin de dépasser les interprétations excessives, il est nécessaire de s’interroger sur la place réelle qu’occupe Sergueï Karaganov dans l’environnement politique et idéologique russe. Revenir sur son parcours, ses réseaux et les idées qu’il défend permet de relativiser l’idée d’une influence directe sur les décisions du Kremlin, et de mieux comprendre les raisons de sa soudaine surexposition médiatique.

Un réseau puissant en formation dès la chute de l’URSS

En janvier 1992, moins d’un mois après la chute de l’URSS, Sergueï Karaganov (né en 1952), expert des États-Unis au sein de l’Académie des sciences soviétique, fonde l’un des premiers think tanks russes indépendants, le Conseil pour la politique étrangère et de défense (SVOP selon le sigle russe). En raison de la faiblesse des institutions qui caractérise la décennie 1990 en Russie, le SVOP, qui réunit hommes d’affaires, diplomates et militaires, parvient à exercer une influence certaine sur la politique nationale et permet à son directeur de se doter d’un réseau puissant.

Les dynamiques de centralisation et de renforcement de l’État, ainsi que le renouvellement des élites qui accompagne l’arrivée de Vladimir Poutine à la présidence en 2000, entraînent le déclin irréversible du SVOP et obligent Karaganov à se renouveler. En 2002, il fonde l’influente revue de politique étrangère Russia in Global Affairs, avant d’être nommé à la tête de la faculté de politique internationale de la Haute École d’économie, l’une des plus prestigieuses universités du pays, quatre ans plus tard.

Son implication dans la création du club de discussion Valdaï en 2004, qui s’impose progressivement comme un des principaux think tanks de l’ère Poutine, lui permet de se garantir un canal de communication avec l’administration présidentielle, institution centrale de la Russie poutinienne, qui est la seule à même de pouvoir faire circuler ses idées jusqu’au sommet de l’État.

Un entrepreneur idéologique

La politologue Marlène Laruelle, qui a récemment publié un ouvrage sur la construction idéologique de l’État russe, souligne que cette dernière est en constante évolution et repose sur un corpus dont la production est le plus souvent externe à l’État. Elle propose la notion d’« entrepreneur idéologique » pour désigner les acteurs situés en dehors des institutions étatiques qui entrent en concurrence pour capter l’attention de l’administration présidentielle et du gouvernement, afin d’accéder aux ressources et à la reconnaissance qui y sont associées.

Sergueï Karaganov s’inscrit pleinement dans cette catégorie, puisqu’il utilise son réseau et les organisations qu’il a fondées pour développer puis promouvoir ses idées et récits auprès des décideurs russes, dans l’espoir d’en tirer des bénéfices symboliques et matériels.

Capture d’écran de la page d’accueil du site Internet de Sergueï Karaganov. karaganov.ru

Depuis le début des années 2010, Karaganov a ainsi réussi à s’imposer comme l’un des principaux fournisseurs conceptuels du « tournant russe vers l’Asie ». Plusieurs notions qu’il a développées, comme la « Grande Eurasie » ou, plus récemment, « la Majorité mondiale », ont été intégrées dans le discours officiel, aidant les dirigeants à justifier et à promouvoir la réorientation stratégique et économique de la Russie vers la Chine et ses autres partenaires non-occidentaux.

Rien ne permet en revanche de lui attribuer une quelconque influence sur la définition de l’agenda ni sur les choix concrets de politique étrangère : en la matière, le processus de prise de décision semble cloisonné au président et à son entourage le plus proche, dont Karaganov ne fait assurément pas partie.

Pourquoi toute cette attention aujourd’hui et quelle utilité pour le Kremlin ?

Tout au long de sa carrière, Sergueï Karaganov a bénéficié d’une exposition médiatique en adéquation avec son statut d’expert reconnu en relations internationales. Depuis le début de la guerre en Ukraine, cette exposition a toutefois changé d’échelle, élargissant nettement son audience. Karaganov a su tirer parti du contexte de radicalisation de l’espace public, dans lequel les experts sont incités à afficher leur soutien à la guerre, voire à surenchérir par rapport à la ligne officielle, afin de se distinguer et d’augmenter leur visibilité.

À partir de l’été 2023, il s’est illustré par ses appels répétés en faveur d’une baisse du seuil d’emploi de l’arme atomique et de « frappes nucléaires limitées » contre plusieurs capitales européennes. Ces prises de position, très controversées, y compris au sein de la communauté académique russe, l’ont propulsé au premier plan du débat public. Elles ont très probablement pesé dans sa désignation comme modérateur de la séance plénière du Forum économique international de Saint-Pétersbourg, le 7 juin 2024.

Cette position hautement symbolique lui a permis de dialoguer avec Vladimir Poutine en direct devant les caméras du monde entier. Lors de cet échange, le président russe a déclaré lire les textes de Karaganov, ce qui a alimenté les spéculations quant à l’influence de ce dernier sur la politique étrangère du pays. Cet épisode a également accru ses sollicitations par les médias, jusqu’à son intervention en direct sur la première chaîne de télévision russe, le 5 décembre dernier, largement reprise et traduite à l’étranger pour ses déclarations particulièrement belliqueuses envers l’Europe.

Du point de vue du Kremlin, Karaganov constitue une voix radicale supplémentaire permettant de durcir le discours sans impliquer directement le sommet de l’État. Il joue ainsi le rôle d’un épouvantail utile, à l’image de l’ancien président Dmitri Medvedev, dont les déclarations provocatrices s’inscrivent dans une stratégie de guerre psychologique contre l’Occident. Cette délégation du discours le plus extrême permet au pouvoir de préserver une posture officielle apparaissant comme ouverte à la négociation, tout en laissant circuler des messages plus agressifs par des canaux indirects.

Ainsi, invité du podcast de Tucker Carlson au mois de janvier 2026 dans un contexte de tensions inédites dans les relations transatlantiques dont le Kremlin entend profiter, Sergueï Karaganov a pu s’adresser à l’Amérique trumpiste par l’un de ses canaux favoris. Espérant sans doute être entendu jusque dans le Bureau ovale, il est allé toujours plus loin dans la surenchère, rappelant que « l’Europe est la source de tous les maux » et qu’elle serait « rayée de la carte de l’humanité » en cas d’assassinat de Vladimir Poutine…

The Conversation

Maxime Daniélou ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.01.2026 à 16:20

Comment le djihadisme s’est métamorphosé

Myriam Benraad, Chercheure spécialiste de l'Irak, professeure en relations internationales, enseignante sur le Moyen-Orient, Institut catholique de Paris (ICP)
Le djihadisme dans sa forme proto-étatique telle que Daech a tenté de l’imposer a connu de lourds revers. Mais cette notion complexe reste d’une grande actualité.
Texte intégral (1940 mots)

Idéologie doublée d’une militance globale, le djihadisme a connu un recul après la débâcle de l’organisation État islamique sur le théâtre syro-irakien, dont les combattants ne sont pas parvenus à se réimposer, Al-Qaida ayant aussi perdu de son écho. Le monde est témoin d’un épuisement du phénomène et d’une mise en déroute de ses structures, en Europe et en France par exemple, terres vers lesquelles un terrorisme de masse a cessé de s’exporter. Mais n’est-il pas plus judicieux d’évoquer une « métamorphose » du djihad, au sens de la modification progressive et inachevée de ses formes et de sa nature ? Dans son nouvel ouvrage Jihad : la métamorphose d’une menace, la politiste et professeure en relations internationales Myriam Benraad sonde un ensemble d’idées reçues sur cette mouvance hétéroclite.


Les plus méfiants rétorqueront que des développements dramatiques comme l’attentat de la plage de Bondi à caractère antisémite en décembre 2025, la chute de Kaboul aux mains des talibans en 2021, le changement de régime en Syrie en décembre 2024 à la faveur de djihadistes endurcis, ou encore l’expansion de cette mouvance dans les États du Sahel, l’assassinat de Samuel Paty en 2020 et celui de Dominique Bernard trois ans plus tard démontrent que le djihadisme reste un système de pensée actif et meurtrier. L’affirmation n’est pas dénuée de fondement.

Mais évoquer un épuisement ne revient pas à conclure à la déchéance définitive des idées et des hommes. Comme mouvement et dispositif, le djihadisme s’inscrit dans la durée. À plusieurs reprises, il a surmonté ses revers et l’élimination de ses chefs. Une survivance illustrée en 2023 lorsque, dans le contexte de la relance des hostilités au Proche-Orient après les attaques du Hamas en Israël le 7 octobre, a ressurgi une « Lettre à l’Amérique » signée par Oussama Ben Laden en 2001 en justification des attentats du 11 septembre et incitant les musulmans à « venger le peuple palestinien » contre les États-Unis, Israël et leurs alliés.

Il y a, d’une part, une dégradation manifeste des groupes et de leur commandement, de leur cause et de leurs capacités. On peut juger, d’autre part, qu’une actualité géopolitique extrêmement lourde, de la pandémie de Covid-19 à la guerre en Ukraine et à la conflagration dans la bande de Gaza, a contribué à reléguer la menace au second plan.

Le traitement médiatique n’a plus rien à voir avec la frénésie informationnelle qui avait marqué la période antérieure. Quoique le traumatisme suscité par des vagues d’attaques sanglantes n’ait jamais complètement guéri, le temps a commencé à faire son œuvre, lentement. Peu de citoyens craignent une répétition des actions qui ont meurtri la France en 2015 et 2016. Aucun Français ne s’attend plus à la commission d’une attaque comparable à celle du Bataclan.

Mais comme le suggère l’idée de métamorphose, se transformer ne signifie pas avoir disparu. Le djihad, abordé comme un acte guerrier violent, n’est certes plus aussi puissant qu’auparavant et a vu son potentiel d’enrôlement s’amoindrir. Il n’y a pas eu non plus d’internationalisation djihadiste de la question palestinienne et pas de nouveaux flots de militants à destination du Moyen-Orient depuis la dernière guerre israélo-palestinienne.

Au même moment, le djihadisme est opérationnel sur d’autres terrains. Même minoritaire, il agit dans des pays comme la Syrie, la Libye, le Yémen, où les guerres civiles ont laissé de lourdes séquelles et continuent de procurer aux djihadistes des espaces pour sévir. Dans nos sociétés, des profils d’individus vulnérables aux idées de cette mouvance sont identifiés et mis hors d’état de nuire régulièrement. Enfin, du fait de leur promesse d’endurance et de rétribution, les djihadistes clament haut et fort leur détermination à survivre et continuer de frapper.

Rappelons que le djihad n’est pas réductible à la guerre, en dépit de la violence qui demeure la principale expression du djihadisme contemporain. Au-delà des stéréotypes et clichés, il est impératif de se saisir de la pluralité des significations de ce mot et d’opérer une distinction claire entre ses interprétations théologiques et manifestations historiques, d’un côté, et ses acceptions idéologiques récentes, de l’autre. En effet, le djihad n’est pas le djihadisme malgré la confusion fréquemment opérée entre ces deux termes.

Nier la lourdeur de leurs connotations négatives n’est pas non plus la meilleure des manières de dépasser les préjugés courants, ni d’apporter des éléments de réponse sur un sujet qui reste d’actualité même s’il n’occupe plus les grands titres.

Si l’on excepte le poids de certaines dérives médiatiques et politiques, le djihad est un objet pluri­dimensionnel. La mouvance djihadiste initialement constituée par des Sayyid Qutb, Abdallah Azzam et Oussama Ben Laden n’en a pas épuisé toutes les formes et les structures, et encore moins l’influence. Or ce caractère hétéroclite est difficilement démontrable dans un contexte trop souvent marqué par les polémiques et controverses, notamment en France où les tueries de l’année 2015 continuent de résonner au niveau sociétal.

Dix ans plus tard, les commémorations des attentats du 13 novembre ont montré en quoi la mémoire traumatique de l’ultraviolence est omniprésente et combien le besoin d’une justice restaurative importe pour les victimes, directes ou indirectes. On perçoit bien à cet égard la nécessité d’un retour aux sources, arabes et médiévales, en vue de lever le voile sur les zones d’ombre persistantes. Certes, l’approche belliqueuse du djihad élaborée par les djihadistes sied à leurs convictions, mais elle fausse en large part le sens de l’islam.

Cet extrait est issu de Jihad. La métamorphose d’une menace, de Myriam Benraad, qui vient de paraître aux éditions Le Cavalier bleu.

Dans de nombreux commentaires, on observe aussi que l’Histoire est la grande absente. Les djihadistes ont imposé leur lecture idéologique des circonstances d’expansion de cette religion, qu’ils assimilent à une conquête militaire. En réalité, cette expansion a été plus dispersée dans le temps, pluriforme et multifactorielle. Elle est également plus riche que les descriptions qui en sont faites ici et là. Les bouleversements des dernières décennies ne sauraient occulter que l’islam a accouché d’une civilisation qui était autrefois majestueuse et orientée vers le progrès.

Les djihadistes sont d’ailleurs loin d’être unis dans la vision qu’ils entretiennent de ce passé et des moyens de le restituer. Le « califat » un temps revendiqué par l’État islamique procédait d’une réinvention de la tradition islamique et s’est symptomatiquement vu rejeté par une majorité de musulmans. Cette logique de fragmentation du champ djihadiste a cours, dans les faits, depuis les années 1990 et les djihads afghan, algérien, bosniaque et tchétchène. Puis les clivages entre mouvements se sont renforcés avec les guerres d’Irak, de Libye et de Syrie, pour ne citer que ces crises.

Un socle partagé n’en définit pas moins le djihadisme, pétri de mythes et d’un puissant imaginaire. Depuis le 11 septembre 2001, une majorité de militants s’est ainsi ralliée à la notion d’une croisade supposément conduite par l’Occident et ses alliés contre l’islam et ses fidèles, croisade à laquelle devrait répondre un djihad globalisé. Cette représentation binaire et manichéenne explique l’intolérance absolue des djihadistes et leur rejet de toute différence, y compris religieuse parmi leurs coreligionnaires qu’ils prétendent représenter et défendre.

Quelles sont au fond les causes du djihadisme ? Prétendre apporter une réponse linéaire et exclusive relève du leurre car il n’existe aucun système d’interprétation fixe. À l’identique, les parcours des djihadistes pris individuellement rendent compte de l’absence d’un profil-type, tandis que radicalisation et déradicalisation se doivent d’être examinées à la lumière d’expériences tangibles. Pour l’heure, le djihadisme poursuit sa métamorphose, moins délétère que par le passé, mais le chemin sera long, dans le monde musulman comme dans nos sociétés, avant de prétendre l’avoir vaincu.

The Conversation

Myriam Benraad ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.01.2026 à 16:19

Quel textile choisir pour avoir chaud tout en limitant l’impact environnemental ?

Coralie Thieulin, Enseignant chercheur en physique à l'ECE, docteure en biophysique, ECE Paris
La quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, respectueux de l’environnement, confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.
Texte intégral (2773 mots)

Au cœur de l’hiver, la quête du pull-over parfait peut parfois sembler bien compliquée. Trouver un textile chaud, qui n’endommage pas l’environnement, qui soit confortable… Les critères s’accumulent. Tâchons d’y voir plus clair.


Avoir chaud en hiver tout en limitant son impact environnemental peut sembler un défi. Chercher à avoir des vêtements nous protégeant au mieux du froid est certes un levier efficace pour réduire sa consommation d’énergie, comme le montrent des initiatives telles que le mouvement Slow Heat et d’autres expérimentations récentes.

Toutefois, cette démarche se heurte à une contradiction de taille : le secteur textile reste parmi les plus polluants au monde, avec des émissions de gaz à effet de serre importantes et une contribution notable aux microplastiques marins.

Alors, quelles matières tiennent vraiment chaud tout en respectant davantage l’environnement ? Si les fibres naturelles sont souvent mises en avant pour leur bonne isolation et leur fin de vie plus respectueuse de l’environnement, leur impact réel dépend largement de la manière dont elles sont produites et utilisées. Pour y voir plus clair, commençons par comprendre ce qui fait qu’un textile tient chaud.

La fabrication du textile tout aussi importante que la fibre

La capacité d’un textile à tenir chaud dépend moins de la fibre utilisée que de l’air qu’elle parvient à enfermer. En restant immobile dans de minuscules espaces au cœur du tissu, cet air limite les échanges de chaleur, un peu comme dans une couette ou un double vitrage. Plus un tissu est épais, duveteux ou poreux, plus il limite les échanges de chaleur.

Cette capacité dépend beaucoup de la structure des fibres et de la manière dont le textile est fabriqué. Les fibres frisées ou ondulées comme la laine de mouton créent des poches où l’air reste piégé. D’autres fibres comme l’alpaga (un camélidé des Andes proche du lama) ou le duvet synthétique sont partiellement creuses, augmentant encore la capacité isolante. De même, les tricots et mailles, plus lâches, isolent mieux que les tissages serrés. Ainsi, la chaleur d’un vêtement dépend autant de sa construction que de sa matière.

Des alpagas juvéniles à Nuñoa, au Chili.
Des alpagas juvéniles à Nuñoa, au Chili. Elwinlhq/Wikimedia, CC BY

C’est sur ces mêmes principes physiques que reposent les fibres synthétiques. En effet, le polyester, l’acrylique, le polaire imitent en partie la laine par leur structure volumineuse et leur capacité à emprisonner de l’air, soit grâce à des fibres frisées, soit grâce à des fibres creuses ou texturées.

Ainsi, ces textiles offrent une bonne isolation thermique, sont légers et sèchent rapidement, ce qui les rend très populaires pour le sport et l’outdoor. En revanche, leur faible respirabilité intrinsèque et leur capacité limitée à absorber l’humidité peuvent favoriser la transpiration et la sensation d’humidité lors d’efforts prolongés. D’autre part, contrairement aux fibres naturelles, ces matériaux sont inflammables, un aspect souvent négligé, mais qui constitue un enjeu réel de sécurité.

Elles ont également un coût environnemental élevé. Issues du pétrole, non biodégradables et fortement consommatrices d’énergie, ces fibres libèrent à chaque lavage des microfibres plastiques dans l’eau, contribuant à la pollution marine. On estime qu’entre 16 % et 35 % des microplastiques marins proviennent de ces textiles, soit de 200 000 à 500 000 tonnes par an. Ces impacts surpassent largement ceux des fibres naturelles, ce qui constitue un vrai défi pour une mode plus durable.

Les bénéfices de la laine de mouton mérinos et de l’alpaga

Face à ces limites, les fibres naturelles apparaissent donc souvent comme des alternatives intéressantes, à commencer par la laine de mouton, longtemps considérée comme une référence en matière d’isolation thermique.

La laine possède en effet une structure complexe et écailleuse : chaque fibre est frisée et forme de multiples micro-poches d’air, réduisant ainsi la perte de chaleur corporelle. Même lorsqu’elle absorbe un peu d’humidité, l’air reste piégé dans sa structure, ce qui lui permet de continuer à isoler efficacement. Cette organisation particulière explique aussi pourquoi la laine est respirante et capable de réguler l’humidité sans donner une sensation de froid. Cependant, ces mêmes fibres peuvent parfois provoquer une sensation de « grattage » pour certaines personnes : plus les fibres sont épaisses, plus elles stimulent les récepteurs de la peau et provoquent des picotements. Il s’agit d’un phénomène purement sensoriel, et non d’une allergie.

Fibre de laine mérinos au microscope. CSIRO, CC BY

Parmi les différents types de laines, la laine de mouton mérinos, issue d’une race d’ovin originaire d’Espagne se distingue par la finesse de ses fibres, nettement plus fines que celles de la laine classique (de 11 à 24 microns pour le mérinos et de 25 à 40 microns pour la laine classique) . Cette caractéristique réduit fortement les sensations d’irritation au contact de la peau et améliore le confort.

Elle favorise également la formation de nombreuses micro-poches d’air isolantes, tout en maintenant une excellente respirabilité. Ces qualités expliquent son usage croissant dans les sous-couches et vêtements techniques, aussi bien pour le sport que pour le quotidien.

Pour autant, la laine n’est pas exempte d’impact environnemental. Bien qu’elle soit renouvelable et biodégradable, son élevage contribue aux émissions de gaz à effet de serre, principalement via le méthane produit par les moutons et la gestion des pâturages. On estime qu’entre 15 et 35 kg de CO₂ équivalent sont émis pour produire 1 kg de laine brute, et qu’environ 10 000 litres d’eau sont nécessaires, selon le mode d’élevage. Le bien-être animal et les pratiques agricoles, comme le mulesing ou l’intensification des pâturages, jouent également un rôle déterminant dans l’empreinte globale de cette fibre.

D’autres fibres animales, comme l’alpaga, suscitent un intérêt croissant en raison de propriétés thermiques comparables, voire supérieures, associées à un meilleur confort. Les fibres d’alpaga sont en effet partiellement creuses, ce qui leur permet de piéger efficacement l’air et de limiter les pertes de chaleur, tout en restant légères. Contrairement à certaines laines plus grossières, elles ne grattent pas, ce qui les rend agréables à porter directement sur la peau.

Elles sont également plus longues et plus fines que la laine classique, avec une bonne capacité de régulation de l’humidité et un séchage plus rapide. Ces caractéristiques expliquent l’essor de l’alpaga dans les vêtements techniques comme dans les pièces haut de gamme, des sous-couches aux manteaux. Sur le plan environnemental, l’alpaga présente aussi certains avantages. En effet, l’élevage d’alpagas exerce généralement une pression moindre sur les écosystèmes : animaux plus légers, consommation alimentaire plus faible, émissions de méthane réduites et dégradation limitée des sols comparativement à l’élevage ovin. Là encore, la durabilité dépend largement du respect de systèmes extensifs et adaptés aux milieux locaux.

Le succès des fibres synthétiques

Malgré les nombreux atouts de ces textiles naturels, les fibres synthétiques restent donc très utilisées, notamment pour leurs performances techniques. Mais leur succès est aussi lié à des facteurs économiques et pratiques : elles sont généralement moins coûteuses, très abondantes dans le commerce, et faciles à transformer en vêtements de masse. Ces aspects rendent le synthétique accessible et pratique pour une large partie des consommateurs, ce qui explique en partie sa prédominance dans l’industrie textile, indépendamment des préférences individuelles.

Polaire, duvet synthétique ou fibres techniques offrent une isolation thermique efficace, tout en étant légères et rapides à sécher, des qualités particulièrement recherchées dans les vêtements de sport et d’outdoor. La conductivité thermique est une mesure de la capacité d’un matériau à conduire la chaleur : plus cette valeur est faible, moins la chaleur passe facilement à travers le matériau, ce qui signifie une meilleure capacité à retenir la chaleur dans un textile donné.

Des mesures de conductivité thermique montrent par exemple que certains isolants synthétiques comme la polaire présentent des valeurs très basses (0,035-0,05 watt par mètre-kelvin (W/m·K)), indiquant une excellente capacité à retenir la chaleur. Pour comparaison, la laine, lorsqu’elle est compacte ou densifiée, peut atteindre 0,16 W/m·K, mais dans les textiles isolants volumineux, elle reste faible (0,033–0,045 W/m·K).

Toutefois, l’origine fossile, la non-biodégradabilité, la libération de microplastiques et un recyclage encore très limité font des textiles synthétiques des matériaux à fort impact environnemental.

Le pull en laine qui gratte, un préjugé qui colle à la peau

À l’inverse, si les fibres naturelles sont parfois boudées, ce n’est pas toujours pour des raisons environnementales, mais souvent pour des questions de confort. Une personne ayant déjà porté un vêtement en fibres naturelles qui lui a paru inconfortable ou irritant peut développer un rejet global de ces fibres, au profit du synthétique, même lorsque des alternatives plus douces existent.

Or, des solutions sont disponibles : privilégier des fibres fines comme la laine mérinos, l’alpaga ou le cachemire, recourir à des traitements mécaniques ou enzymatiques pour adoucir les fibres, ou encore combiner différentes fibres naturelles. Le choix doit aussi tenir compte de l’usage du vêtement et de son contact direct avec la peau.

En pratique, choisir un textile chaud et moins polluant relève donc d’un compromis, qui dépend autant de la matière que de l’usage. Une sous-couche portée à même la peau bénéficiera de fibres fines et respirantes, comme la laine mérinos, tandis qu’une couche intermédiaire privilégiera l’isolation et un vêtement extérieur la protection contre l’humidité et le vent.

Enfin, plutôt que de rechercher une matière « parfaite », il est essentiel de raisonner en cycle de vie. Sa durabilité (combien de temps il est porté), sa réparabilité, la fréquence et la manière de le laver, ainsi que sa fin de vie (recyclage, réutilisation, compostage pour les fibres naturelles) influencent largement son impact environnemental total. Un vêtement bien entretenu et durable peut avoir un impact bien moindre qu’un textile « écologique », mais rapidement jeté.

Au final, les matières textiles les plus chaudes et les moins polluantes sont majoritairement naturelles, mais aucune n’est totalement exempte d’impact. La laine mérinos et l’alpaga offrent aujourd’hui un compromis intéressant entre chaleur, confort et fin de vie environnementale. Le rejet des fibres naturelles pour des raisons de grattage mérite d’être nuancé : la qualité et la finesse des fibres font toute la différence. Mieux informer sur ces aspects pourrait encourager des choix plus durables. En textile comme ailleurs, le meilleur choix reste souvent celui que l’on garde longtemps.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

21.01.2026 à 16:16

L’ennui n’est pas seulement acceptable chez les enfants, il est bénéfique

Margaret Murray, Associate Professor of Public Communication and Culture Studies, University of Michigan-Dearborn
L’ennui fait partie intégrante d’une vie équilibrée. En en faisant l’expérience, les enfants peuvent apprendre à se fixer des objectifs et à élaborer des projets.
Texte intégral (1775 mots)
Chez l’enfant, l’ennui encourage l’autonomie. Idzard Schiphof/Unsplash, CC BY-NC

L’ennui est souvent perçu comme un mal à éviter à tout prix chez les enfants. Pourtant, loin d’être inutile, il joue un rôle clé dans leur développement, en favorisant l’autonomie, la créativité et l’apprentissage de la gestion du temps.


L’ennui fait partie intégrante de la vie, à travers les époques et partout dans le monde. Et pour cause : il remplit une fonction utile, en poussant les individus à se fixer de nouveaux objectifs et à relever de nouveaux défis.

Je suis professeure et je travaille sur les questions de communication et de culture. J’écris actuellement un livre sur la parentalité contemporaine, et j’ai constaté que de nombreux parents cherchent à éviter à leurs enfants l’expérience de l’ennui. Ils peuvent le percevoir comme une émotion négative qu’ils ne souhaitent pas voir leurs enfants traverser. Ou bien ils les orientent vers des activités qu’ils jugent plus productives.

Les raisons qui poussent les parents à vouloir éviter l’ennui à leurs enfants sont multiples. Beaucoup de parents sont très pris par leur travail et par les préoccupations financières ; les contraintes liées à la garde des enfants et de la gestion du quotidien pèsent lourdement sur eux. Proposer un jeu, un programme télévisé ou une activité créative à la maison permet souvent de gagner un peu de tranquillité : les parents peuvent ainsi travailler sans être interrompus ou préparer le dîner sans entendre leurs enfants se plaindre de s’ennuyer.

À cela s’ajoute parfois une forte attente de réussite. Certains parents ressentent une pression pour que leurs enfants excellent, qu’il s’agisse d’intégrer un établissement sélectif, de briller dans le sport ou de devenir de très bons musiciens.

Les parents peuvent aussi ressentir une forte pression autour de la réussite de leurs enfants, qu’il s’agisse d’intégrer un établissement sélectif, de réussir dans le sport ou d’exceller dans la pratique musicale.

Quant aux enfants, ils consacrent aujourd’hui moins de temps à jouer librement dehors et davantage à des activités organisées qu’il y a quelques décennies. La généralisation des écrans a par ailleurs rendu l’évitement de l’ennui plus facile que jamais.

Pendant la pandémie, beaucoup de parents ont ainsi eu recours aux écrans pour occuper leurs enfants pendant leurs heures de travail. Plus récemment, certains disent ressentir une pression sociale les poussant à utiliser les écrans pour que leurs enfants restent calmes dans les lieux publics.

En somme, si les parents ont de multiples raisons de vouloir tenir l’ennui à distance, il vaut la peine de s’interroger sur ce que l’ennui peut aussi apporter avant de chercher à l’éliminer complètement.

Les bienfaits de l’ennui

Même s’il est désagréable sur le moment, l’ennui est un atout pour le développement personnel. Il agit comme un signal indiquant qu’un changement est nécessaire, qu’il s’agisse de modifier son environnement, son activité ou les personnes qui nous entourent. Les psychologues ont montré que l’expérience de l’ennui peut favoriser l’émergence de nouveaux objectifs et encourager l’exploration de nouvelles activités.

Professeur à Harvard spécialisé dans le leadership public et associatif, Arthur Brooks, a montré que l’ennui est indispensable au temps de réflexion. Ces moments de creux ouvrent un espace pour se poser les grandes questions de l’existence et donner du sens à ce que l’on vit. Des enfants rarement confrontés à l’ennui peuvent devenir des adultes qui peinent à y faire face. L’ennui agit aussi comme un stimulant pour le cerveau, en nourrissant la curiosité naturelle des enfants et en favorisant leur créativité.

Apprendre à composer avec l’ennui et, plus largement, avec les émotions négatives, constitue une compétence essentielle dans la vie. Lorsque les enfants apprennent à gérer leur temps par eux-mêmes, cela peut les aider à développer leurs fonctions exécutives, c’est-à-dire la capacité à se fixer des objectifs et à élaborer des plans.

Les bénéfices de l’ennui se comprennent aussi du point de vue de l’évolution. L’ennui est extrêmement répandu : il touche tous les âges, tous les genres et toutes les cultures, et les adolescents y sont particulièrement sujets. Or la sélection naturelle tend à favoriser les traits qui confèrent un avantage. Si l’ennui est aussi universel, il est peu probable qu’il persiste sans offrir, d’une manière ou d’une autre, des bénéfices.

Mieux vaut pour les parents éviter de considérer l’ennui comme une difficulté qu’ils doivent résoudre eux-mêmes pour leurs enfants. Les psychologues ont en effet observé que les étudiants dont les parents s’impliquent de manière excessive présentent davantage de symptômes dépressifs.

D’autres recherches indiquent également que les jeunes enfants à qui l’on donnait des écrans pour les apaiser se révèlent, plus tard, moins capables de réguler leurs émotions.

L’ennui est inconfortable

La tolérance à l’ennui est une compétence que beaucoup d’enfants rechignent à acquérir ou n’ont tout simplement pas l’occasion de développer. Et même chez les adultes, nombreux sont ceux qui préféreraient s’infliger une décharge électrique plutôt que de rester livrés à l’ennui.

Apprendre à faire avec l’ennui demande de l’entraînement. Il est préférable de commencer par de courtes périodes, puis d’allonger progressivement ces moments de temps non structuré. Parmi les conseils aux parents figurent celui d’encourager les enfants à sortir, celui de leur proposer un nouveau jeu ou une recette à tester, ou tout simplement celui de se reposer. Laisser une place à l’ennui implique aussi d’accepter qu’il y ait des moments où, concrètement, il ne se passe rien de particulier.

Les plus jeunes peuvent avoir besoin qu’on leur donne des idées sur ce qu’ils peuvent faire lorsqu’ils s’ennuient. Les parents n’ont pas à jouer avec eux à chaque fois que l’ennui surgit, mais proposer quelques pistes peut être utile. Pour les tout-petits, cinq minutes d’ennui constituent déjà un bon début.

Pour les enfants plus âgés, les encourager à trouver eux-mêmes comment faire face à l’ennui est particulièrement valorisant. Il est important de leur rappeler que cela fait partie de la vie, même si c’est parfois désagréable à vivre.

Avec le temps, ça devient plus facile

Les enfants ont une grande capacité d’adaptation. À force d’être confrontés à de petits moments d’ennui, les enfants se lassent moins vite par la suite. Les études montrent d’ailleurs que le fait d’expérimenter régulièrement l’ennui rend la vie globalement moins monotone.

Renoncer à l’idée qu’il faut sans cesse divertir les enfants peut aussi contribuer à alléger la charge mentale des parents. Aux États-Unis, environ 41 % d’entre eux déclaraient en 2024 être « tellement stressés qu’ils n’arrivent plus à fonctionner », et 48 % disaient que « la plupart des jours, leur niveau de stress est totalement écrasant », selon un rapport du médecin-chef des États-Unis.

Donc, la prochaine fois qu’un enfant se plaint en disant « Je m’ennuie », inutile de culpabiliser ou de s’énerver. L’ennui est une composante saine de la vie : il encourage l’autonomie, pousse à découvrir de nouveaux centres d’intérêt et à relever de nouveaux défis.

Faire comprendre aux enfants que ce n’est pas seulement tolérable mais bénéfique les aide à mieux l’accepter.

The Conversation

Margaret Murray ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

50 / 50

 

  GÉNÉRALISTES
Ballast
Fakir
Interstices
Issues
Korii
Lava
La revue des médias
Time [Fr]
Mouais
Multitudes
Positivr
Regards
Slate
Smolny
Socialter
UPMagazine
Le Zéphyr
 
  Idées ‧ Politique ‧ A à F
Accattone
À Contretemps
Alter-éditions
Contre-Attaque
Contretemps
CQFD
Comptoir (Le)
Déferlante (La)
Esprit
Frustration
 
  Idées ‧ Politique ‧ i à z
L'Intimiste
Jef Klak
Lignes de Crêtes
NonFiction
Nouveaux Cahiers du Socialisme
Période
 
  ARTS
L'Autre Quotidien
Villa Albertine
 
  THINK-TANKS
Fondation Copernic
Institut La Boétie
Institut Rousseau
 
  TECH
Dans les algorithmes
Framablog
Gigawatts.fr
Goodtech.info
Quadrature du Net
 
  INTERNATIONAL
Alencontre
Alterinfos
AlterQuebec
CETRI
ESSF
Inprecor
Journal des Alternatives
Guitinews
 
  MULTILINGUES
Kedistan
Quatrième Internationale
Viewpoint Magazine
+972 mag
 
  PODCASTS
Arrêt sur Images
Le Diplo
LSD
Thinkerview
🌞