lundi 5 novembre 2007

Modèles informationnels et réalité

Dans "Image and Logic" (Image and Logic. A Material Culture of Microphysics, Chicago and London University of Chicago Press, 1997), Peter Galison retrace le développement historique de la méthode de la simulation en physique moléculaire en étudiant l'usage matériel des images photographiques obtenues depuis le début du siècle précédent, et avant, grâce à des procédés qui nous semblent aujourd'hui bien primaires. Les fameuses "bubble chambers" et les phénomènes qui s'y déployaient sous l'oeil scrutateur des caméras, faisaient en sorte que l'on pouvait alors espérer préserver l'objectivité de la méthode contre les erreurs de mesure. Or, plus grandit l'ordre de la stricte phénoménalité, plus les problèmes de mesure, justement, grandirent parallèlement. Il aura fallu modéliser pour tenter de mieux comprendre ce qui se passait dans ces chambres de haute pression.

La modélisation est certes un aspect fondamental de la méthode scientifique. Depuis Descartes, la modélisation mathématique, quant à elle, aura été inscrite au coeur de la démarche scientifique. Mais s'ajoutent maintenant à la panoplie d'outils conceptuels des sciences, d'autres façons de modéliser, dont la simulation informatique fait désormais partie.

Mais le concept de modèle lui-même, comme le rappelait Mario Bunge (cf. BUNGE, Mario, Method, Model and Matter, Dordrecht : D. Reidel, 1973) peut être défini selon deux dimensions qui doivent à leur tour être distinguées. Du concept de modèle, en effet, il nous faut circoncrire un modèle d'objet et un modèle théorique. Cette distinction a pour fin, en sciences, nous dit Bunge, de marquer la relation entre l'objet ou le phénomène investigué et l'explication de la phénoménalité observée. Le modèle théorique est représentationnel, comme le modèle classique d'une molécule avec des boules et des bâtonnets, tandis que le modèle théorique est quant à lui causal. Le modèle d'un objet est donc moins complexe que le modèle théorique qui l'inclut, puisqu'il ne cherche pas à expliquer mais à décrire une structure en quelque sorte et en principe stabilisée pour les fins de l'observation de son comportement.

Mais est-ce que cette distinction tient encore de nos jours? La simulation informationnelle, largement utilsée en sciences physiques (cf. Galison, op. cit.), est de manière générale largement présentée comme une représentation fidèle d'une réalité ou d'une phénoménalité observable ou non. Est-ce bien le cas? L'usage de l'informatique permet-il de représenter un objet adéquatement (selon un système de paramètres bien établi, et une théorie de la mesure adéquate) et en même temps d'en proposer une théorie recevable?

Si les sciences naturelles, y compris la biologie, utilisent ce type d'outils, et ce, sans même que les scientifiques ne se soient vraiment prononcé, du moins à ma connaissance, sur le statut épistémologique de leur concept de modèle (afin d'en faire la théorie comme possible sémantique de ses usages); les sciences sociales et humaines, quant à elles, grâce à quelques illustres penseurs (p. ex.: Salmon, Simon), ont à leur disposition des thèses qui tentent de particulariser les usages des modèles et de la simulation dans ces sciences.

Or, voilà: je crois que le statut de ces thèses dans ces sciences participe... d'un modèle, d'ordre supérieur, de la scence, en tant que ce dernier postule la représentationnalité des phénomènes sociaux (et le problème, ici, n'est pas de savoir justifier paramètres et théorie de la mesure, lesquels sont fondamentalement statistiques, ce qui rend leur justification inutile en autant que l'on reconnaisse leur valeur propre aux usages méthodologiquement corrects de la méthode statistique); et en tant, en second lieu, qu'il postule la possible identité entre concept d'information et concept de connaissance (voir p.ex:
VON BAEYER, Hans Christian, Information: The New Language of Science, Cambridge (Mass.): Harvard University Press, 2004), cela permettant un passage non problématique entre une simulation et une théorie causale de la phénomanilité représentée à défaut d'être observée ou observable.


3 commentaires:

Anonyme a dit…

J'avoue que je t'ai perdu vers la fin (dernier paragraphe).

Feynman était d'avis qu'un modèle a une valeur scientifique dans la mesure où il peut être utilisé pour faire des prédictions. Est-ce l'équivalent d'un modèle causal? On peut sans doute dire qu'un modèle prédictif est causal?

Un modèle intéressant des phénomènes sociaux qui date de bien avant Turing est l'urne de Polya.

(Voir, par exemple, la brève discussion sur ce sujet incluse dans un de mes cours...
http://benhur.teluq.uqam.ca/SPIP/inf6460/article.php3?id_article=109
)

Ce modèle est un exemple, selon moi, d'un modèle utile dans la mesure où il permet de développer une intuition de certains processus sociaux qui sont difficiles à expliquer autrement. Par contre, il n'a qu'une faible valeur prédictive. On ne peut pas vraiment l'utiliser pour prédire l'évolution d'une société, même partiellement.

Jean Robillard, Ph.D. a dit…

Le problème fondamental de toute théorie des modèles est celui du représentationnalisme: à quelle(s) condition(s) peut-on dire qu'un modèle quel qu'il soit représente adéquatement un phénomème quelconque?

On sait qu'en logique et en mathématique, ce problème est relativement simple à résoudre: le logicien ou le mathématicien, dans le cadre de leurs discussions, utiliseront la langue naturelle pour introduire et spécifier le sens des formules du langage formel utilisé. La langue naturelle, en raison même de sa moindre précision comparativement aux langues formelles, servira de méta-langage ou de langue de sémantisation des énoncés logiques ou mathématiques. Évidemment, certains diront qu'il s'agit là que d'une convention pratique qui n'est utile qu'à proportion de l'état d'inachèvement des langues formelles. Or, là n'est pas la question.

Par ailleurs, un modèle informationnel est un modèle qui tente alors de représenter un phénomène quelconque grâce aux préceptes de la théorie de l'information; ou encore grâce à des règles de formation d'objets informatiques. Dans tous les cas, si ces modèles, qui, comme tout autre modèle, permettent d'inférer des conséquences quelconques, alors ce modèles seront causaux dans la mesure où la causalité est généralement définie comme une déduction stricte (ou implication matérielle en termes de logique): "si p, alors q"; la causalité probabiliste pose d'autres problèmes qui lui sont propres, mais grosso modo elle partage certains de ces traits de caractère avec la causalité classique. Cela pour dire que parce qu'à la base d'une forme de modélisation informationnelle, se trouve l'idée que l'on puisse représenter tout phénomène en lui prêtant a priori la caractéristique de se comporter selon les règles inférentielles qui auront été intégrées au programme d'exécution du modèle ou de celui de l'expérimentation virtuelle. L'on attribue ainsi aux règles en question le pouvoir de régulation des connaissances que le système permet de déduire. Or, au départ, l'on voulait représenter quelque chose, en faire une métaphore. D'où l'idée que le concept d'information, d'un point de vue très général, utilisé dans de telles procédures, doit être identifié à celui de connaissances: or, cela demeure une métonymie, au mieux.

L'urne de Polya, quant à elle, est un modèle probabiliste. Il n'est pas étonnant, à mon sens, que tu dises qu'il ne possède pas de grand pouvoir prédictif en sciences sociales. Ce n'est pas parce qu'il est probabiliste qu'il souffre de cette lacune; c'est plutôt 1) que s'il décrit adéquatement des situations simples, qui peuvent être ainsi représentées (ce n'est pas tous les phénomènes sociaux qui se prêtent à ce genre d'exercice), il lui est très difficile de représenter des situations où par exemple par définition la nature des décisions à prendre ou des actions à poser impliquent une paramétrisation plurinaire, encore pire s'il s'agit de paramètres indéterminés...; 2) il ne peut expliquer des comportements ou des processus sociaux parce que ceux-ci ne sont généralement pas des systèmes clos ou dont les principes qui en alimentent la rationalité sont réductibles à des règles limitées en nombre. (Pour circonvenir à ce problème-là, Newell et Simon ont développé le concept de "rationalité limitée", mais cela s'avère insatisfaisant d'un point de vue épistémologique car applicable uniquement à des cadres eux-mêmes limités à une théorie sociale faisant du modèle de l'équilibre des marchés le fondement de tout processus social).

Cela suffira peut-être pour l'instant.

Daniel Lemire a dit…

Oui. Je comprend maintenant mieux le sens de ton billet.

(La mécanique quantique est un exemple de modèle probabiliste qui fait des prédictions utiles.)