L’empirisme contre-attaque

  • L’empirisme contre-attaque
  • La chronique d' Yves Gingras

Avec l’avènement du « big data » fleurissent les intelligences artificielles conçues pour analyser ces données et prédire des comportements. Est-ce la fin des théories ?

 

1Depuis une quinzaine d’années on ne compte plus les affirmations enthousiastes à l’effet que les algorithmes, surtout ceux fondés sur l’apprentissage, permettent aux ordinateurs d’effectuer des tâches jusque-là réservées aux humains. Un engouement que l’on doit à l’existence de mégadonnées numériques représentant une variété de phénomènes et objets (images, textes, mesures scientifiques et médicales diverses), à une plus grande rapidité de calcul des ordinateurs et aux nouvelles méthodes informatiques et statistiques d’inférence et de traitement des données.

2On connaît l’essor des logiciels de traduction automatique, dont l’efficacité et la précision ont été grandement accrues par des algorithmes fondés sur l’apprentissage à partir de grands corpus de textes identiques traduits en plusieurs langues (ceux des Nations unies, par exemple). Ils produisent des traductions de qualité même sans connaître d’avance les règles syntaxiques et grammaticales de ces langues, les liens complexes identifiés entre elles par l’algorithme – représentés par des milliers de paramètres – étant le plus souvent suffisants pour générer un texte lisible de très bonne qualité.

3Certains esprits enthousiastes de ces prétendues « intelligences » artificielles semblent croire que la science n’aura bientôt plus vraiment besoin de théories pour donner sens aux données empiriques. C’est le discours sur « la fin des théories ». À partir d’une quantité massive de telles données, on pourra selon cette croyance trouver par induction des relations entre des variables abstraites tirées des corpus et faire, sur cette base, des prédictions sans se soucier d’élaborer des concepts pour expliquer ces phénomènes.

4Appliquée aux sciences de la nature comme la physique et la chimie, la méthode des algorithmes fondés sur l’apprentissage constituerait cependant, sur le plan épistémologique, une sorte de régression vers l’empirisme et l’induction. Empirisme, car le tout se fonde sur l’existence de millions ou milliards de « données » dans lesquelles on cherche des relations entre divers éléments. Une fois établies, ces relations permettraient de prédire par induction et extrapolation les cas futurs avec une certaine probabilité. Cela rappelle les ambitions des savants anglais qui, au cours des années 1830, pensaient trouver les lois régissant le champ magnétique terrestre simplement en accumulant des milliers de données sur sa direction et son intensité en de nombreux endroits sur terre et en mer grâce aux bateaux anglais qui sillonnaient le globe en direction des colonies de l’Empire britannique. Cette « croisade magnétique » n’a cependant rien donné et les « data » gisent encore dans les fonds d’archives.

5Comme le rappelait le mathématicien René Thom dans son ouvrage Prédire n’est pas expliquer, ces deux concepts sont différents et indépendants, car on peut prédire sans expliquer et expliquer sans prédire. Le propre de la science moderne est bien de vouloir rendre raison des phénomènes. Si l’on voulait abandonner cet objectif d’explication et s’en tenir à la prédiction, alors les ordinateurs modernes pourraient se contenter du modèle planétaire de Ptolémée, dans lequel les planètes tournent sur des épicycles dont le centre tourne autour des planètes, l’ajout d’épicycles sur des épicycles offrant après tout de très bonnes prédictions de la position des planètes vues de la Terre. Cela explique d’ailleurs que le modèle de Ptolémée ait été utilisé pendant plus de 1 500 ans. Il a fallu attendre Kepler et Newton pour vraiment expliquer – en formulant une théorie physique fondée sur l’attraction entre des planètes tournant autour du Soleil – ce que Ptolémée, et avant lui les scribes babyloniens, se contentaient de prédire.

Mis en ligne sur Cairn.info le 02/01/2023