Titre : | Quelle inférence pour l’épidémiologie à l’heure des big data ? (2018) |
contenu dans : | |
Auteurs : | Falissard, Bruno |
Type de document : | Article de revue |
Dans : | Revue française des affaires sociales (2017/4, 01/12/2017) |
Article en page(s) : | p.127-132 |
Langues: | Français |
Mots-clés: | Revue française des affaires sociales |
Résumé : |
La médecine s’inscrit traditionnellement dans une épistémologie où domine une pensée biologique déterministe, c’est en tout cas ce qui ressort de la lecture du texte historique de Claude Bernard Introduction à la médecine expérimentale, ou de l’écoute des conférences données dans les grands congrès médicaux internationaux. L’épidémiologie a eu du mal à se construire dans un tel contexte. En effet, probabiliste par nature, cette discipline devait trouver un système d’inférence qui la rendrait compatible avec la pensée médicale. C’est le statisticien Fisher qui le lui a fourni au début du xxe siècle. Dans les publications épidémiologiques, les tests statistiques sont en effet les garants de ce que le chercheur a le droit d’affirmer ou pas, pour le meilleur et pour le pire.
Depuis quelques années, de nouveaux jeux de données de dimension hors norme sont apparus dans les laboratoires. Impensable il y a quelques décennies, les épidémiologistes ont ainsi maintenant à analyser des fichiers pouvant contenir plusieurs centaines de milliers de variables ou de sujets. Dans de tels cadres, les tests statistiques tels que proposés par Fisher ont du mal à garder leur pertinence. L’épidémiologie se trouve alors branlante sur ses fondations. Comment sortir de cette situation embarrassante ? Commençons par remonter un peu dans le temps. |
En ligne : | http://www.cairn.info/article.php?ID_ARTICLE=RFAS_174_0127 |