

Ă lâintersection de la psychologie, du numĂ©rique et de la gouvernance publique, Ă©merge une nouvelle forme de pilotage sociĂ©tal : la gouvernance comportementale. Sâappuyant sur les sciences cognitives, les nudges (ou incitations douces), les systĂšmes de rĂ©compense sociale et la modulation algorithmique des droits, ce modĂšle vise Ă orienter les comportements individuels sans contrainte directe, mais avec une efficacitĂ© redoutable.
Promue par des institutions internationales comme lâOCDE, la Banque mondiale et le Forum Ă©conomique mondial (WEF), cette ingĂ©nierie sociale post-moderne transforme la gouvernance en un systĂšme de conditionnement comportemental intĂ©grĂ©, oĂč la libertĂ© devient lâillusion dâun choix prĂ©-programmĂ©.

ThĂ©orisĂ©s par lâĂ©conomiste Richard Thaler, les nudges reposent sur lâidĂ©e dâinfluencer les dĂ©cisions sans recourir Ă la loi ni Ă la sanction. Ils sont utilisĂ©s dans de nombreux domaines : santĂ©, fiscalitĂ©, environnement, consommation.
Mais leur gĂ©nĂ©ralisation dans les politiques publiques, appuyĂ©e par les unitĂ©s comportementales gouvernementales (comme le Behavioural Insights Team au Royaume-Uni), marque une dĂ©rive : le citoyen nâest plus informĂ© ni responsabilisĂ©, mais guidĂ© subtilement vers le « bon comportement », selon des critĂšres dĂ©finis par une technocratie hors-sol.

Le modÚle chinois de crédit social a montré comment un systÚme de récompense/punition algorithmique peut modeler les comportements de millions de personnes. En Occident, des formes plus discrÚtes émergent : bonus pour les comportements écoresponsables, accÚs facilité à certains services pour les bons payeurs ou les bons citoyens numériques.
Ces mĂ©canismes de rĂ©putation numĂ©rique, prĂ©sentĂ©s comme innovants, normalisent une logique oĂč la conformitĂ© aux normes dominantes devient une condition de participation Ă la vie sociale. Ils instaurent une verticalitĂ© morale codĂ©e dans des algorithmes opaques, qui Ă©chappent Ă tout dĂ©bat public.

ParallĂšlement Ă la rĂ©compense, les dispositifs de gouvernance comportementale reposent sur lâexclusion algorithmique des profils jugĂ©s « non conformes ». Quâil sâagisse de refus de prĂȘt bancaire, de blocage dâun accĂšs Ă un service public, ou de dĂ©sactivation dâun compte pour dĂ©sinformation supposĂ©e, le citoyen peut se voir exclu sans dĂ©cision humaine explicite.
Ce pouvoir de sanction dĂ©lĂ©guĂ© Ă la machine crĂ©e une zone grise dâirresponsabilitĂ© institutionnelle, oĂč lâindividu nâa ni recours clair, ni possibilitĂ© de contestation effective. Le danger est dâautant plus grand que ces exclusions sont souvent justifiĂ©es au nom du bien commun, de la santĂ© publique ou de la transition Ă©cologique.

Le WEF promeut ouvertement la transformation des Ătats en « plateformes de donnĂ©es » capables dâorienter les comportements par des outils prĂ©dictifs et incitatifs. Dans ses publications sur la « quatriĂšme rĂ©volution industrielle », il dĂ©fend une vision de la sociĂ©tĂ© optimisĂ©e par les donnĂ©es, oĂč les prĂ©fĂ©rences individuelles sont corrigĂ©es par des algorithmes intelligents au service de la durabilitĂ©.
Cette approche technocratique efface la frontiÚre entre gouverner et manipuler. Elle réduit le citoyen à une variable comportementale, à moduler selon des objectifs définis par des élites politico-industrielles échappant au contrÎle démocratique.

La montĂ©e en puissance de la gouvernance comportementale algorithmique constitue une rupture silencieuse mais profonde. En contournant le dĂ©bat, la dĂ©libĂ©ration et la loi, elle impose une gestion psychologique des masses au service dâobjectifs globaux prĂ©sentĂ©s comme indiscutables.
Cette nouvelle forme de gouvernementalitĂ© nâest ni neutre, ni anodine. Elle reconfigure le rapport au pouvoir, Ă la libertĂ©, et au consentement. Il est donc urgent de poser des limites claires Ă lâusage de ces technologies, et de dĂ©fendre une conception exigeante de la citoyennetĂ©, fondĂ©e non sur lâadhĂ©sion passive, mais sur la conscience critique et la participation politique rĂ©elle.
Refuser cette dĂ©rive, ce nâest pas rejeter le progrĂšs, câest empĂȘcher quâil ne devienne lâalibi dâun contrĂŽle social algorithmisĂ©.