⭕ Réponse à notre article du 9 janvier : L'IA nous rend-elle idiots ?

Pour une critique épistémologique des « World Models » en IA

Publié le 14/01/2026 | Par Thibault Le Carpentier
🎧
Écouter cet article (Audio IA)
⭕ Dans un long article que nous adresserons à nos Membres qui le demanderont, Thibault Le Carpentier propose une critique épistémologique* des « World Models » en intelligence artificielle, en les confrontant aux grandes traditions scientifiques et philosophiques. 

La thèse centrale est claire
: les world models portent une prétention excessive à représenter
directement le monde, ce qui les rend beaucoup plus fragiles sur le plan
épistémologique que les grands modèles de langage (LLM), pourtant
souvent accusés de superficialité. L’argument fondamental repose sur une
distinction cruciale : modéliser le monde n’est jamais équivalent à
accéder au monde lui-même. 

En s’appuyant sur Alfred Korzybski (“la carte n’est pas le territoire”),
l’auteur montre que les world models opèrent une double réduction
problématique : ils compressent d’abord les données sensorielles en
représentations latentes, puis traitent ces représentations comme si
elles constituaient le monde pertinent pour l’agent. Cette confusion
structurelle entre carte et territoire crée une illusion de maîtrise du
réel.

La critique est renforcée par la mésologie** d’Augustin Berque
: les world models réduisent le “milieu vécu” à un environnement
objectivé, universalisable, effaçant la co-construction entre l’être et
son monde. 
Là où le vivant se constitue en constituant son
milieu, les world models supposent un monde pré-donné, cartographiable
indépendamment de l’agent. 

Du point de vue des théories des systèmes complexes (von
Bertalanffy, Morin, Atlan), les world models apparaissent comme
réductionnistes : la compression latente élimine des éléments jugés
secondaires alors qu’ils peuvent être porteurs de propriétés émergentes,
de rétroactions ou de créativité issue du bruit. En cherchant à lisser
le monde pour le rendre prédictible, ils appauvrissent précisément ce
qui fait la richesse de la complexité réelle.

Sur le plan de la vérité scientifique, Karl Popper
est mobilisé pour montrer que les world models risquent une dérive non
falsifiable : leurs échecs peuvent toujours être expliqués par des
ajustements techniques (données, architecture, entraînement), sans
jamais remettre en cause l’hypothèse centrale. Les travaux de Thomas
Kuhn complètent cette critique en soulignant le caractère paradigmatique
et possiblement idéologique, de l’engouement pour les world models,
avec le risque de “pertes kuhniennes” sur des dimensions où les LLM
excellent (culture, normes, concepts, mémoire longue).

Les apports de Dreyfus, Varela et Simondon convergent vers une même idée
: l’intelligence n’est pas fondamentalement représentationnelle. Elle
est incarnée, située, énactive, issue d’un couplage dynamique avec le
monde. En voulant “avoir le monde à l’intérieur”, les world models
prolongent une erreur conceptuelle ancienne de l’IA, simplement
transposée en langage vectoriel. 

Enfin, relire Bachelard, Stengers ou Latour permettent
de montrer que les world models risquent de devenir de nouveaux
obstacles épistémologiques : leurs simulations cohérentes et
intuitivement convaincantes peuvent se naturaliser comme des
quasi-mondes, détournant la critique du réel vers la critique du modèle
lui-même. 

En miroir, le texte défend une position nuancée mais ferme : les LLM sont épistémologiquement plus robustes,
non parce qu’ils “comprennent mieux”, mais parce qu’ils assument leur
statut de cartes linguistiques. Ils travaillent sur des artefacts
culturels déjà saturés de sens, peuvent être évalués sur des tâches bien
définies, et s’inscrivent plus facilement dans une méthodologie
scientifique falsifiable. 

⭕ La conclusion élargit le débat
Nous
assistons à une inversion historique entre science et technique. La
vérité tend aujourd’hui à être définie par l’efficacité et la
performance plutôt que par la cohérence théorique. Ce conflit n’est pas
seulement intellectuel, mais structurel, opposant deux régimes de
légitimation de la connaissance. L’un basé sur la volonté de tendre vers
la vérité dans une quête continue, basée sur la raison, l’autre basé
sur l’utilitarisme comme finalité. 
L’IA ne serait-elle pas avant tout utile 
- aux investisseurs, cherchant des relais de croissance, 
- aux consultants cherchant de nouveaux champs de missions, 
- aux financiers cherchant un argument pour procéder à des licenciements
- aux acheteurs pour obtenir des remises ? 

Thibault Le Carpentier

* ÉpistémologieÉtude
critique des sciences, destinée à déterminer leur origine logique, leur
valeur et leur portée (théorie de la connaissance
** Mésologie*: Étude des milieux géographiques, l'étude de l'environnement étant l'écologie.

Si vous souhaitez recevoir cet article dans son intégralité, merci d'adresser une demande à : yves.sassi@gmail.com
← Retour aux analyses