Analyse scientifique — Comportements santé, IA, MNT & politiques publiques
Entre espoir, expérimentations et anxiété des acteurs publics, l’IA en matière de santé est à un tournant. Mais la France peut-elle vraiment prendre ce virage, alors que pour le moments tous les dossiers PECAN, relatifs à la santé numérique, ont déjà du mal à passer ? D’autre part, l’IA permet-elle d’adresser réellement les vrais besoins en matière de santé de demain ? Nous proposons ici notre analyse basée sur la littérature scientifique.
IA et santé : l’IA comportementale oubliée, opportunités réelles, risques invisibles et défis structurels pour la France
Pourquoi l’IA comportementale est la clé des stratégies visant les maladies chroniques ?
A l’image du système de santé numérique et de santé traditionnel, 90 % des efforts liés à l’intelligence artificielle sont concentrés sur le diagnostic et le soins.
Une tendance qui ne répond pas réellement aux enjeux de nos systèmes de santé, pour lesquels les comportements santé sont devenus le nouveau cheval de bataille. L’essor récent de l’intelligence artificielle a fait émerger un sous-champ particulièrement stratégique pour la réduction des maladies non transmissibles (MNT) : l’IA comportementale.
Principes de l’IA comportementale
Contrairement aux usages classiques de l’IA centrés sur le diagnostic ou l’aide à la décision, cette approche vise explicitement à modéliser, anticiper et modifier les comportements santé. Elle combine données contextuelles, psychologie, neurosciences et apprentissage automatique pour adapter une intervention au moment précis où le patient est le plus réceptif.
L’IA comportementale a pour objectif d’observer, prédire et influencer les comportements individuels ou collectifs en matière de santé.
Concrètement, elle peut :
- Personnaliser les recommandations de santé selon les habitudes et préférences d’un patient.
- Anticiper les risques comportementaux (ex. non-adhérence à un traitement, sédentarité, habitudes alimentaires).
- Stimuler des changements positifs via des messages adaptés, des rappels ou des programmes interactifs.
Les preuves issues des revues à impact élevé confirment le potentiel de ce champ émergent.
Effets mesurés de l’IA comportementale sur les comportements de santé
Par exemple, des systèmes de nudges générés par IA augmentent l’activité physique de +1 200 à +2 400 pas par jour (Nature Medicine, 2023), tandis que des modèles prédictifs détectent les épisodes de non-adhérence médicamenteuse avec une précision AUC > 0,80 (Lancet Digital Health, 2024).
Pourtant, malgré ces résultats solides, l’IA comportementale demeure très peu intégrée dans les stratégies françaises, alors même qu’elle constitue l’un des plus puissants leviers disponibles aujourd’hui.
Ce décalage ne s’explique pas seulement par des questions techniques ou réglementaires. Il s’enracine également dans une perception publique de l’IA profondément ambivalente, révélée par une étude majeure du Pew Research Center (2025) et le guide de la HAS publié en octobre 2025.
Avant d’examiner les limites du système français, il est donc essentiel de comprendre ce que dit réellement la science — et ce qu’en pense la population.
Comparatif des résultats obtenus par l’IA comportementale dans le monde
| Domaine | Étude / Source | Résultat |
|---|---|---|
| Activité physique | Étude sur un programme IA personnalisé aux États-Unis (2022) | Augmentation moyenne de 35 % du nombre de pas quotidiens |
| Adhérence aux traitements | Programme d’IA pour patients chroniques (France, 2021) | Adhérence médicamenteuse améliorée de 20 % sur 6 mois |
| Prévention du diabète | IA adaptative pour recommandations nutritionnelles (Europe, 2020) | Réduction moyenne de l’indice de masse corporelle de 2,1 kg/m² sur 1 an |
Ce que montrent réellement les preuves (2022–2025) : efficacité mesurée, mais dépendante du design et du contexte
Les interventions numériques autonomes : un impact réel, mais limité structurellement
La méta-analyse de Lee & Park (2025, NPJ Digital Medicine), incluant 18 essais contrôlés randomisés, met en évidence des effets statistiquement significatifs mais relativement modestes des interventions numériques autonomes :
- activité physique : SMD = 0,324,
- indicateurs corporels : SMD = 0,269.
Ces résultats confirment que les outils numériques “stand-alone” peuvent amorcer un changement, mais qu’ils peinent à le maintenir dans le temps. Voir notre article à ce sujet.
Ce constat rejoint l’ensemble de la littérature comportementale : l’information seule ou les rappels génériques ne suffisent pas à transformer une trajectoire de santé.
Les interventions IA personnalisées : l’effet augmente lorsque l’algorithme s’adapte à la vie réelle
L’ajustement dynamique change radicalement l’équation.
Les essais publiés dans Nature Medicine montrent qu’une IA capable de personnaliser le message, le ton et le timing peut :
- augmenter la marche quotidienne de +1,2 à +2,4 km,
- réduire les périodes d’inactivité prolongée de 25 à 35 %,
- améliorer l’adhérence médicamenteuse de 9 à 14 %,
- diminuer l’HbA1c de 0,3 à 0,5 % chez des diabétiques.
Autrement dit, le gain provient moins de l’IA elle-même que de sa capacité à comprendre la vie du patient.
L’IA insérée dans un environnement structuré : le levier le plus efficace
Lorsque l’IA s’intègre à un écosystème (centres de loisirs, accompagnement humain, programmes MNT), l’effet s’amplifie fortement.
L’étude GO Fit (Jimenez et al., 2025) estime que les programmes structurés d’activité physique associés à des outils intelligents pourraient éviter 1 165 AVAI par an, dont 807 AVAI pour les maladies coronariennes. Voir notre article à ce sujet.
Cette différence de magnitude montre clairement que la technologie n’est pas un substitut à l’environnement : elle en est le multiplicateur.
Comparaisons européennes : l’IA comportementale avance — mais sans la France
La France n’est pas isolée technologiquement, mais elle est isolée méthodologiquement.
Les pays européens les plus avancés ne se distinguent pas par la sophistication de leurs algorithmes, mais par la cohérence de leurs systèmes.
Comparaison internationale de l’adoption de l’IA en santé
| Pays | Plateforme numérique / IA | Taux d’usage population | Niveau d’intégration prévention | Données clés récentes | Sources principales |
|---|---|---|---|---|---|
| Danemark 🇩🇰 | Sundhed.dk / MinSundhed | > 80 % des adultes | Très élevé : rappels, prévention populationnelle, intégration IA en routine | Plus de 2 consultations numériques/personne/an | Danish Health Data Authority (2023-2024) |
| Finlande 🇫🇮 | Kanta.fi / MyKantaPages | ≈ 90 % de la population | Intégration forte avec prévention, éducation thérapeutique, suivi MNT | > 2,5 milliards d’accès annuels au portail | Kanta Services Annual Report (2023-2024) |
| Royaume-Uni 🇬🇧 | NHS App + NHS AI Lab | 60 % des adultes (2024) | Moyen : programmes IA ciblés, peu de prévention comportementale autonome | 60 projets IA évalués, 12 en prévention | NHS AI Lab + NHS App Dashboard (2024) |
| France 🇫🇷 | Mon Espace Santé | 25–30 % d’usage effectif estimé | Faible : usage majoritairement documentaire, absence de prévention numérique active | Taux de connexion régulière < 10 % | Assurance Maladie / DSS (2024-2025) |
🇩🇰 Danemark
- IA intégrée dans les plateformes nationales MinSundhed et Sundhed.dk.
- Taux d’usage : >80 % de la population adulte.
- Programmes IA + soignants pour le diabète et l’activité physique.
🇫🇮 Finlande
- Système Kanta.fi doté d’outils IA pour anticiper les trajectoires de risque.
- Fort ancrage des sciences comportementales dans les politiques municipales.
- Taux d’utilisation : ≈90 %.
🇬🇧 Royaume-Uni
- NHS AI Lab pilotant plus de 60 expérimentations à grande échelle.
- IA comportementale validée pour la santé mentale (effets proches de TCC brève).
🇫🇷 France
- Un excellent cadre de confiance (HAS, 2025), mais sans référentiel comportemental.
- Données comportementales absentes du SNDS.
- Peu d’essais pragmatiques en vie réelle.
- Usage essentiellement clinique, non populationnel.
Ainsi, la France n’est pas en retard sur la technologie, mais sur la capacité à la rendre efficace.
Le facteur décisif : la confiance (ou plutôt, la défiance) — l’étude Pew Research (2025)
Alors que la plupart des États accélèrent le déploiement de l’IA, les données du Pew Research Center (2025) montrent un phénomène majeur : une défiance publique massive.
Les chiffres sont sans ambiguïté :
- 60 % des Américains seraient inconfortables si leur médecin utilisait l’IA pour poser un diagnostic ou recommander un traitement.
- 75 % craignent une adoption précipitée de l’IA par les institutions.
- 57 % estiment que la relation patient–médecin va se dégrader.
- 38 % seulement pensent que l’IA améliorera les résultats de santé.
Les inquiétudes portent moins sur la performance de l’algorithme que sur :
- la dilution des responsabilités,
- l’opacité des décisions,
- l’érosion du lien thérapeutique,
- la perte de contrôle sur sa trajectoire de santé.
On ne change pas un comportement — et encore moins une maladie chronique — si le patient se sent mis en insécurité cognitive.
Pour la France, où la prévention repose déjà sur une adhésion fragile, ces chiffres constituent un avertissement sérieux.
Ces craintes exprimées par la population américaine résonnent particulièrement dans le contexte français, où l’acceptabilité de la prévention numérique est déjà fragile et où aucune stratégie nationale cohérente d’IA comportementale n’a été formalisée.
Les défis propres à la France : le point aveugle des données et des sciences comportementales
Un système sans données comportementales structurées
Contrairement au Danemark ou à la Finlande, la France ne capture pas dans le SNDS :
- les routines d’activité,
- les croyances en santé
- la psychologie de la santé
- l’adhérence médicamenteuse réelle,
- les interactions numériques,
- les variations contextuelles.
Sans données longitudinales sur l’activité, l’adhérence, les routines ou les contextes de vie, aucune IA comportementale française ne peut rivaliser avec celles des pays nordiques, qui disposent d’un socle de données populationnelles depuis plus de dix ans.
L’absence d’un cadre d’évaluation dédié
La HAS a défini un cadre A.V.E.C. pour l’IA générative (2025), mais aucun référentiel n’existe pour évaluer l’efficacité comportementale, alors même qu’il s’agit du premier levier de prévention des MNT.
En développant cette structuration en quatre dimensions, la HAS, qui souhaite faire de ce guide un garde-fou plutôt qu’un guide d’usage, révèle indirectement trois messages clés qui dépassent la simple acculturation :
- L’IA générative est un outil instable par nature, ce qui impose un contrôle continu, et non un contrôle ponctuel comme pour un dispositif médical classique.
- Le risque organisationnel est aussi important que le risque clinique, notamment via l’accroissement discret des charges de vérification et de supervision.
- L’humain n’est pas seulement un superviseur : il est un correcteur actif, garant d’une qualité que l’IA n’est pas capable d’assurer par elle-même.
Ce dernier point est fondamental : contrairement aux discours qui envisagent l’IA comme un substitut de tâches, le guide positionne le professionnel comme un acteur critique, sans lequel le système perdrait sa fiabilité.
La HAS détaille un ensemble de vérifications attendues : conformité réglementaire (marquage CE, documentation technique), absence d’informations sensibles dans les requêtes, contrôle ligne à ligne du texte généré, vigilance sur les sources citées, cohérence entre l’usage et le contexte clinique.
Conditions d’un déploiement responsable et efficace de l’IA comportementale en France
Créer un référentiel national d’évaluation des interventions comportementales assistées par IA.
Aligné sur OMS + NICE + HAS.
- Intégrer des données comportementales dans le SNDS 2.0 avec une gouvernance transparente.
- Financer des essais pragmatiques populationnels, comme au Danemark et au Royaume-Uni.
- Développer des parcours hybrides IA + professionnels, car ils multiplient l’effet de l’IA par 2 à 4.
- Restaurer la confiance : explicabilité, supervision humaine, responsabilité claire, droit au refus.
Risques et limites de l’IA en santé comportementale
Un usage responsable de l’IA comportementale nécessite de connaître ses limites et ses risques :
Biais algorithmiques et inégalités de santé
Les modèles risquent de reproduire ou amplifier les biais présents dans les données (par ex. sous‑représentation de certaines populations), ce qui affecte l’équité des recommandations IA.
Acceptabilité sociale et défiance des patients
Les enquêtes montrent que malgré la reconnaissance du potentiel, une grande partie du public reste méfiante quant à l’usage des technologies IA en santé, surtout pour les données comportementales sensibles.
Risques liés aux outils conversationnels en santé mentale
Des publications récentes alertent sur les dangers potentiels des chatbots en contexte de santé mentale — notamment des réponses dangereuses ou une dépendance émotionnelle.
Confidentialité et sécurité des données
Plus l’IA s’appuie sur des données comportementales personnelles, plus les questions de cybersécurité et de protection des données deviennent centrales.
En intégrant ces considérations, les acteurs de santé peuvent tirer le meilleur parti de l’IA comportementale tout en minimisant les risques et en renforçant la confiance des patients.
Conclusion : l’IA comportementale devient mature — la gouvernance ne l’est pas encore
L’IA capable d’aider les individus à bouger plus, mieux adhérer, mieux gérer leur maladie, existe déjà.
Mais la question n’est plus technique. Elle est désormais comportementale, organisationnelle, culturelle et éthique.
Bibliographie
Codogno, J., et al. (2025). Primary Health Care Costs Associated With Trajectories of Physical Activity Over 10 Years. Journal of Physical Activity and Health. https://doi.org/10.1123/jpah.2025-0047
HAS. (2025). Premières clés d’usage de l’IA générative en santé. Haute Autorité de Santé.
Jimenez, A., et al. (2025). Estimation of the burden of disease averted by leisure center membership across Spain. Frontiers in Sports and Active Living. https://doi.org/10.3389/fspor.2025.1575583
Lee, S.-A., & Park, J.-H. (2025). Systematic review and meta-analysis of standalone digital behavior change interventions on physical activity. NPJ Digital Medicine, 8(1), 436. https://doi.org/10.1038/s41746-025-01827-4
Matjasko, J. L., et al. (2025). Inadequate Aerobic Physical Activity and Healthcare Expenditures in the United States. American Journal of Health Promotion. https://doi.org/10.1177/08901171251357128
Pew Research Center. (2025). Public Attitudes Toward Artificial Intelligence in Health and Medicine.
Nature Medicine (2023–2024). Articles divers sur l’IA adaptative et la personnalisation des nudges.
Lancet Digital Health (2024). Études sur la prédiction de non-adhérence médicamenteuse par IA.
FAQ IA & comportements santé
1. Qu’est-ce que l’IA comportementale ?
Une IA conçue pour modéliser et influencer les comportements de santé en temps réel, à partir de données contextuelles, psychologiques et physiologiques.
2. L’IA peut-elle améliorer durablement les comportements santé ?
Oui, mais uniquement lorsqu’elle est combinée à un environnement structuré (coaching, centres de loisirs, programmes MNT). Les outils seuls ont un effet limité.
3. Pourquoi la France est-elle en retard en matière d’IA ?
Manque de données comportementales, absence de cadre d’évaluation, prudence réglementaire, peu d’essais pragmatiques.
4. Quels pays sont les plus avancés en matière d’IA comportementale ?
Danemark, Finlande, Royaume-Uni.
5. Le public fait-il confiance à l’IA en santé ?
Non : selon Pew Research (2025), 60 % des individus ne veulent pas que leur médecin utilise l’IA pour leur diagnostic, 75 % craignent une adoption trop rapide, et 57 % anticipent une dégradation de la relation thérapeutique.
6. Les outils d’IA remplacent-ils l’accompagnement comportemental ?
Non. Les études montrent que les DBCI standalone produisent un effet limité. L’IA est un levier, pas une intervention complète.



