Ce que l’IA et les sciences comportementales nous obligent à repenser : pourquoi le problème n’est pas l’adhésion, mais la conception du changement ?
Pendant une décennie, la santé numérique a progressé sous une hypothèse implicite : mieux informer, mieux personnaliser, mieux designer suffirait à changer durablement les comportements de santé. Applications de suivi, nudges digitaux, coaching algorithmique : l’outillage s’est considérablement sophistiqué. Les résultats, eux, restent structurellement inégaux. Fin 2024, le taux de rétention à 30 jours des applications santé et fitness plafonnait autour de 3 à 4 %.
Deux publications récentes invitent à un changement de paradigme radical :
- une perspective publiée dans Nature Communications Psychology sur l’intégration réelle de la psychologie de la précarité dans les politiques comportementales ;
- un document de référence sur l’usage de l’IA comportementale en santé et en assurance.
Leur point commun est clair : le principal angle mort du changement comportemental n’est pas technologique, mais structurel.
Le comportement n’est pas un choix isolé — et l’IA comportementale ne le corrige pas magiquement
L’article de Nature rappelle un point encore insuffisamment intégré dans les dispositifs numériques : les comportements santé sont profondément conditionnés par la charge cognitive liée au contexte socio-économique.
La psychologie cognitive et comportementale montre depuis longtemps que :
- la précarité (financière, sociale, temporelle) réduit la bande passante cognitive ;
- cette réduction affecte la planification, la projection dans le futur et l’auto-régulation ;
- elle rend structurellement plus coûteuse, sur le plan mental, l’adoption de nouveaux comportements.
La précarité agit ainsi comme un bruit cognitif permanent, caractérisé par :
- une réduction de l’horizon temporel ;
- des arbitrages dominés par l’urgence ;
- une fatigue décisionnelle chronique.
Dans ce cadre, demander davantage d’efforts — suivi, auto-mesure, engagement contractuel — revient souvent à ajouter une charge supplémentaire à des individus déjà saturés cognitivement. Le problème n’est donc pas l’absence de motivation, mais l’asymétrie entre l’effort demandé et la capacité réelle à le fournir dans un contexte donné.
Cette lecture est cruciale pour la santé numérique : elle invalide l’idée selon laquelle la personnalisation algorithmique suffirait à compenser des contraintes structurelles. Proposer plus de choix, plus de notifications ou plus de « responsabilisation » n’est pas neutre ; cela peut au contraire dégrader la capacité à agir, même avec des outils bien conçus.
Implication clé pour les professionnels : un dispositif numérique performant sur le plan UX peut rester structurellement inefficace — voire contre-productif — s’il ignore les contraintes cognitives du contexte de vie des populations ciblées.
IA comportementale : de quoi parle-t-on exactement ?
Le terme « IA comportementale » est souvent utilisé de manière floue. Dans la littérature académique, il renvoie pourtant à un périmètre précis.
L’IA comportementale désigne l’usage de systèmes algorithmiques pour concevoir, tester, comparer et déployer des interventions visant à modifier des comportements, en s’appuyant explicitement sur des théories comportementales validées.
Elle ne se limite pas :
- à la prédiction (risque, abandon, non-adhésion),
- ni à la personnalisation marketing,
- ni aux nudges automatisés.
Les travaux récents en économie comportementale, psychologie clinique et sciences sociales computationnelles montrent que l’apport principal de l’IA est ailleurs : la capacité à standardiser, à grande échelle, des protocoles comportementaux rigoureux, jusqu’ici difficiles à déployer avec des humains.
Le document de référence sur l’usage de l’IA comportementale en santé démontre que des conversations menées par des modèles de langage peuvent :
- délivrer fidèlement différents protocoles comportementaux (motivationnels, persuasifs, hybrides) ;
- comparer leurs effets de manière causale ;
- identifier les « ingrédients actifs » du changement (motivation, perception des coûts, passage à l’action).
Il s’agit d’une rupture méthodologique majeure : l’IA devient un instrument expérimental, et non plus seulement un outil d’exécution.
Puissance d’exécution, faiblesse d’intention
Ces travaux mettent en lumière un décalage central :
l’IA excelle à optimiser l’exécution — timing, canal, message — mais reste largement aveugle à l’intention réelle derrière les comportements observés.
Les modèles prédictifs peuvent :
- détecter des ruptures d’adhésion ;
- anticiper des abandons de parcours ;
- ajuster finement les stimuli.
Mais ils ne répondent pas à une question fondamentale : le comportement observé est-il modifiable sans transformer le contexte qui le produit ?
C’est un point critique pour les assureurs, les systèmes de prévention et les professionnels de santé publique. L’IA tend à individualiser des problèmes structurels, sous couvert d’hyper-personnalisation.
Motivation ≠ comportement : ce que l’IA comportementale révèle
Un résultat clé de ces travaux va à l’encontre de nombreux dogmes. Les interventions qui augmentent le plus la motivation ne sont pas nécessairement celles qui produisent le plus de changements observables.
À l’inverse, certaines approches plus directives — pourtant longtemps critiquées au nom de la « réactance psychologique » — se révèlent plus efficaces lorsqu’elles :
- réduisent l’ambiguïté ;
- proposent des stratégies concrètes ;
- traduisent l’intention en action immédiatement faisable.
Ce constat rejoint une idée centrale en sciences du comportement : le goulot d’étranglement n’est pas l’intention, mais la transformation de l’intention en action dans un environnement réel.
C’est précisément ce que la majorité des solutions de santé numérique échouent à adresser.
Le vrai levier n’est pas le nudge, mais la réduction de charge
La contribution la plus forte de l’article de Nature est sans doute celle-ci : les politiques comportementales — et par extension les dispositifs numériques — devraient viser moins l’incitation que la simplification radicale.
Concrètement, cela implique :
- réduire le nombre de décisions nécessaires pour adopter un comportement sain ;
- automatiser ce qui peut l’être sans perte de contrôle ;
- concevoir des parcours où ne pas agir demande plus d’effort qu’agir.
Ce déplacement est majeur. Il transforme le rôle de la santé numérique : on ne cherche plus à motiver davantage, mais à exiger moins.
La performance d’un dispositif se mesure alors à sa capacité à fonctionner pour ceux qui disposent du moins de bande passante cognitive.
Le signal faible mais constant : la rétention des apps santé
Les chiffres de rétention (3–4 % à 30 jours) sont souvent interprétés comme un problème d’engagement. Ils constituent en réalité un signal comportemental massif.
Les applications demandent fréquemment aux utilisateurs de :
- s’engager avant de se sentir capables (violation du principe d’auto-efficacité) ;
- mesurer avant de comprendre leurs motivations intrinsèques ;
- attendre trop longtemps avant de percevoir un bénéfice tangible.
Lorsque la récompense est lointaine, abstraite ou conditionnée à un effort soutenu, le décrochage n’est pas un échec individuel. C’est un résultat attendu.
Les sciences du comportement montrent que, dans les premiers jours, ce qui compte n’est pas la discipline, mais la perception de :
- capacité (« je peux y arriver »),
- réassurance (« ce que je fais fonctionne »),
- orientation (« je comprends le lien entre mes actions et mes objectifs »).
Or, très peu de produits de santé numérique sont conçus pour produire un gain subjectivement significatif dans les sept premiers jours.
Panorama européen : où en est-on réellement ?
Contrairement aux discours, l’IA comportementale reste quasi exclusivement académique en Europe.
On observe :
- des travaux structurants au Royaume-Uni (Behavioural Insights Team, universités) ;
- une forte production académique en Allemagne, aux Pays-Bas et dans les pays nordiques ;
- des expérimentations en assurance santé en Suisse et en Scandinavie, souvent très encadrées.
À ce stade :
- aucun acteur public ou privé français n’opère explicitement de l’IA comportementale ;
- les usages restent cantonnés à la prévention, à l’information et à l’éducation.
La France dispose d’une culture solide de santé publique, mais le comportement y est encore traité comme une conséquence de la connaissance, et non comme un phénomène à concevoir.
Le cas français : prévention ≠ changement comportemental
Les politiques françaises de prévention reposent largement sur :
- l’éducation à la santé ;
- l’information ;
- la responsabilisation individuelle.
Ces approches sont nécessaires, mais elles ne sont pas comportementales au sens strict. Elles reposent implicitement sur la séquence : savoir → vouloir → faire.
Or, toute la littérature comportementale montre que la séquence dominante est souvent : savoir → vouloir → ne pas faire.
L’IA comportementale ne vise pas à mieux expliquer, mais à réduire la distance entre intention et action, en agissant sur :
- la friction ;
- le timing ;
- la perception immédiate de progrès.
Ce décalage explique pourquoi la France est technologiquement avancée en e-santé, mais encore peu outillée pour produire du changement comportemental réel.
Ce que cela implique pour les acteurs de santé
- Arrêter de confondre innovation et sophistication
Plus d’IA ≠ plus d’impact comportemental. - Former à la lecture critique des dispositifs digitaux
Qui supporte réellement l’effort de changement ? - Déplacer la focale du “changement individuel” vers la “conception des contraintes”
C’est là que se joue désormais l’efficacité.
La rétention ne viendra ni de nudges plus agressifs ni de dashboards plus riches.
Elle viendra de dispositifs qui :
- réduisent la charge ;
- construisent la confiance très tôt ;
- rendent le progrès tangible avant qu’il soit durable.
Conclusion
L’IA comportementale ne révèle pas un déficit de volonté chez les individus. Elle révèle un déficit de conception dans nos dispositifs.
Le véritable enjeu pour la santé numérique n’est pas de demander aux usagers de faire plus d’efforts, mais de concevoir des environnements dans lesquels le changement coûte moins que le statu quo.
C’est probablement là que se jouera, dans les prochaines années, la différence entre prévention déclarative et impact réel.
Sources
Haushofer, J., & Shapiro, J. (2025). Behavioural public policy should take the psychology of poverty into account.
Communications Psychology, 3, Article 366.https://www.nature.com/articles/s44271-025-00366-8
Artificial Intelligence and Behavioral Interventions in Health and Insurance, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC12502125/
Evaluating Behavioral Interventions at Scale with AI, 2026
Lire aussi l’article : De la théorie des incitations et gamification aux preuves récentes : ce que les acteurs de la santé numérique doivent retenir







