lundi 12 novembre 2007

Social cognition: some founding principles for analysing it

This presentation was made at the Canadian Society for Epistemology's annual symposium, at Université de Sherbrooke (Québec), on September 28, 2007.

The title asks a question. And the answer is "yes". See the slide show for a more complete answer... (Click on the title of this message.)

lundi 5 novembre 2007

Modèles informationnels et réalité

Dans "Image and Logic" (Image and Logic. A Material Culture of Microphysics, Chicago and London University of Chicago Press, 1997), Peter Galison retrace le développement historique de la méthode de la simulation en physique moléculaire en étudiant l'usage matériel des images photographiques obtenues depuis le début du siècle précédent, et avant, grâce à des procédés qui nous semblent aujourd'hui bien primaires. Les fameuses "bubble chambers" et les phénomènes qui s'y déployaient sous l'oeil scrutateur des caméras, faisaient en sorte que l'on pouvait alors espérer préserver l'objectivité de la méthode contre les erreurs de mesure. Or, plus grandit l'ordre de la stricte phénoménalité, plus les problèmes de mesure, justement, grandirent parallèlement. Il aura fallu modéliser pour tenter de mieux comprendre ce qui se passait dans ces chambres de haute pression.

La modélisation est certes un aspect fondamental de la méthode scientifique. Depuis Descartes, la modélisation mathématique, quant à elle, aura été inscrite au coeur de la démarche scientifique. Mais s'ajoutent maintenant à la panoplie d'outils conceptuels des sciences, d'autres façons de modéliser, dont la simulation informatique fait désormais partie.

Mais le concept de modèle lui-même, comme le rappelait Mario Bunge (cf. BUNGE, Mario, Method, Model and Matter, Dordrecht : D. Reidel, 1973) peut être défini selon deux dimensions qui doivent à leur tour être distinguées. Du concept de modèle, en effet, il nous faut circoncrire un modèle d'objet et un modèle théorique. Cette distinction a pour fin, en sciences, nous dit Bunge, de marquer la relation entre l'objet ou le phénomène investigué et l'explication de la phénoménalité observée. Le modèle théorique est représentationnel, comme le modèle classique d'une molécule avec des boules et des bâtonnets, tandis que le modèle théorique est quant à lui causal. Le modèle d'un objet est donc moins complexe que le modèle théorique qui l'inclut, puisqu'il ne cherche pas à expliquer mais à décrire une structure en quelque sorte et en principe stabilisée pour les fins de l'observation de son comportement.

Mais est-ce que cette distinction tient encore de nos jours? La simulation informationnelle, largement utilsée en sciences physiques (cf. Galison, op. cit.), est de manière générale largement présentée comme une représentation fidèle d'une réalité ou d'une phénoménalité observable ou non. Est-ce bien le cas? L'usage de l'informatique permet-il de représenter un objet adéquatement (selon un système de paramètres bien établi, et une théorie de la mesure adéquate) et en même temps d'en proposer une théorie recevable?

Si les sciences naturelles, y compris la biologie, utilisent ce type d'outils, et ce, sans même que les scientifiques ne se soient vraiment prononcé, du moins à ma connaissance, sur le statut épistémologique de leur concept de modèle (afin d'en faire la théorie comme possible sémantique de ses usages); les sciences sociales et humaines, quant à elles, grâce à quelques illustres penseurs (p. ex.: Salmon, Simon), ont à leur disposition des thèses qui tentent de particulariser les usages des modèles et de la simulation dans ces sciences.

Or, voilà: je crois que le statut de ces thèses dans ces sciences participe... d'un modèle, d'ordre supérieur, de la scence, en tant que ce dernier postule la représentationnalité des phénomènes sociaux (et le problème, ici, n'est pas de savoir justifier paramètres et théorie de la mesure, lesquels sont fondamentalement statistiques, ce qui rend leur justification inutile en autant que l'on reconnaisse leur valeur propre aux usages méthodologiquement corrects de la méthode statistique); et en tant, en second lieu, qu'il postule la possible identité entre concept d'information et concept de connaissance (voir p.ex:
VON BAEYER, Hans Christian, Information: The New Language of Science, Cambridge (Mass.): Harvard University Press, 2004), cela permettant un passage non problématique entre une simulation et une théorie causale de la phénomanilité représentée à défaut d'être observée ou observable.


jeudi 1 novembre 2007

Dialoguons ensemble...

Donnant suite à mon premier billet publié hier, Daniel Lemire fait une analyse fort intéressante du problème de la définition du concept de communication, appliqué cette fois au domaine de la transmission ou de l'échange d'information au strict sens technique du terme, entre ordinateurs. Il en conclut fort pertinemment que l'on ne saurait y appliquer une définition de la communication que si le sujet qui surveille et teste les propriétés communicantes du système informatique, fait partie du système; c'est-à-dire que si le sujet, en tant que lui-même lieu de transit de bits d'information, est intégré au processus communicationnel ayant cours entre les machines.

Cela me semble juste mais uniquement à deux conditions: a) que le test auquel Daniel soumet le système vise, comme il l'entend par ailleurs, à vérifier l'efficience du mécanisme observé, auquel l'observateur est associé; 2) que l'on considère que l'évaluation soit pour ainsi dire "extra-systémique", c'est-à-dire que l'analyse de l'efficience ne soit pas réalisable à l'intérieur des paramètres retenus our les fins de l'évaluation. Le test de Daniel Lemire est ainsi un test de Turing augmenté d'une capacité cognitive qui n'est pas attribuable au système observé mais qui soit propre à l'observateur.

Ce système cognitif, ces habiletés représentationnelles dépassent la seule capacité inférentielle de l'application des règles de calcul du système informatique observé.

Bien entendu, l'on pourrait gérer cette observation en accouplant un système observateur automatique mais celui-ci n'aurait pas, dans l'ensemble du système d'observation ainsi monté, un statut différent de celui d'un sujet observateur tel que proposé par Daniel.

Or, il manquera toujours à ce méta-système observateur automatique les qualités représentationnelles du sujet humain.

Je sais que bien des chercheurs planchent sur l'idée selon laquelle la cognition humaine ne serait pas différente des règles computationnelles dont on instruit les systèmes automatiques. Ceci, cependant, devra faire l'objet d'autres discussions.

Personnellement, je suis plutôt de l'avis de John Searle, voire de celui du couple Churchland, à cet égard. Et ce, parce que je suis un matérialiste radical qui croit que la sémantisation de l'expérience échappe à toute computationnalité; qu'il faille distinguer entre un modèle formel, informationnel, etc., de la cognition et la réalité concrète de celle-ci.

Autre débat.