mardi 8 juillet 2008

Gouvernance des universités, selon la droite néolibérale

De retour après de longs mois de silence, imposé par des tâches épuisantes, je reviens avec l'intention d'être plus régulier. Cela me sera plus facile compte tenu du fait que je suis en congé sabbatique...

Le lundi 30 juin de 2008, Le Devoir publiait un long article signé par MM. Yvan Allaire et Jean-Marie Toulouse, respectivement Président du Conseil de l’Institut sur la gouvernance des organisations privées et publiques, et Professeur à HEC-Montréal et président du Groupe de travail sur la gouvernance des universités. Contrairement à ce qu’y annoncent les auteurs d’entrée de jeu, cet article, en réalité, n’a pas pour objet une réflexion critique sur les enjeux de la gouvernance des universités et de l’UQAM en particulier : le dépôt du rapport du vérificateur général du Québec n’est qu’un prétexte.

En réalité, les auteurs, sans se citer, ne font essentiellement que reprendre des éléments déjà contenus dans le rapport de M. Toulouse, intitulé « Rapport de recherche sur la gouvernance des institutions universitaires » (http://www.igopp.ca/fr/Publications/17_Rapport%20de%20recherche%20sur%20la%20gouvernance%20des%20institutions%20universitaires.pdf), et remis à l’Institut présidé par M. Allaire; lequel institut, en passant, est affilié à HEC-Montréal où enseigne le professeur Toulouse. (Une bonne partie du contenu de ce rapport [chapitre 4] s’ensuit d’une enquête par entrevues individuelles dont la méthodologie pose de sérieux problèmes mais je n’en traiterai pas ici.)

Cela étant rappelé à titre de mise en contexte, il est sans doute intéressant de citer un passage éclairant du rapport quant aux visées de l’article paru ce lundi : « Le monde de 2007 n’est pas celui qu’ont connu les membres de la Commission Parent; c’est un monde qui met à rude épreuve l’approche québécoise. Les institutions universitaires n’arrivent plus à boucler leurs budgets et l’État éprouve des difficultés à financer adéquatement les services publics : le domaine de la santé gruge une part importante des fonds publics, l’éducation reçoit également une part importante, ce qui laisse peu de marge de manœuvre pour les autres domaines tels que l’économie, le travail et la main-d’œuvre (ce qui inclut les ressources pour prendre une place dans les marchés mondialisés), le transport, la justice, le bien-être social, les arts et la culture, etc. On voit poindre à l’horizon la nécessité de faire des choix, de prioriser et on ne peut pas penser que les sources actuelles de revenus des institutions universitaires vont échapper à cet examen. » (p. 21)

Cette citation pose un regard connu sur le monde actuel; le prisme au travers duquel ce regard pointe est celui, tout aussi bien connu, du néo-libéralisme. Ces fameux constats sur l’échec des modèles de gestion sociopolitique plus ou moins centralisés est un refrain que tient, tel un coda sans fin, le professeur Toulouse depuis plusieurs années.

L’article, revenons-y, s’inscrit dans cette veine du rapport. Les auteurs de l’article, en effet, y affirment, en citant le rapport du Vérificateur général du Québec : « Certains membres du Conseil de l’UQAM ont fait part de la difficulté à exercer leurs fonctions, allant même jusqu’à dire que, «s’ils avaient voulu s’opposer aux projets de l’UQAM, il leur aurait fallu être prêts à quitter leurs fonctions ». Or, dans son rapport précédemment cité, le professeur Toulouse écrit : « La question des rôles et fonctions du conseil d’administration est apparue très souvent dans les réflexions des personnes que nous avons interrogées. Mentionnons au départ que certaines personnes ont mis l’accent sur le fait que souvent le conseil d’administration se sent dans l’obligation d’approuver ce qui a été préparé par une instance de l’université. Pour décrire leurs réactions, elles disaient que leur rôle ressemblait à du « rubber stamping » et elles s’empressaient d’ajouter ne pas aimer ce rôle ou cette impression. » (pp.23-24)

Or, la question qui se pose n’est pas tant de savoir, dans premier temps, comment pallier à ce genre de situations – ce que et les auteurs de l’article, et celui du rapport Toulouse cependant font sans s’inquiéter – mais bien plutôt de savoir pourquoi de telles situations surviennent. Deuxièmement, il conviendrait sans doute de se demander pourquoi ces gens qui se sentent à ce point coincés et qui sont portés à renier leurs valeurs, en effet ne démissionnent pas des instances où ils siègent… Un conflit moral ressenti individuellement n’est pas généralement un motif à poursuivre une action à la source du conflit.

Si les auteurs se posaient ces questions, les solutions qu’ils proposent à ce qu’ils voient comme un problème (voir la précédente citation de la page 21 du Rapport Toulouse), seraient tout autres. Car les auteurs ne suggèrent qu’une voie : l’augmentation des membres externes du CA des universités, et en particulier de l’UQAM, par rapport aux membres internes. Évidemment, ces membres, comme le disent les auteurs de l’article, seraient choisis en vertu de leur expertise, leur compétence, etc. Or, ces critères de sélection ou de choix des membres des CA sont-ils suffisants à éliminer toute possibilité qu’ils se retrouvent eux aussi dans une situation où ils devraient éventuellement renoncer à leur libre arbitre et laisser la haute direction diriger comme elle l’entend ?

La thèse de MM Allaire et Toulouse est que ces critères suffisent. Car au contraire des administrateurs provenant de l’intérieur des universités qui, affirment-ils, ne peuvent faire autrement que suivre moutonnement leur direction – ce qui reste à démontrer mais ils ne le font pas – les membres de l’extérieur seraient mieux habilités à garder une distance salvatrice et bénéfique à l’institution. La thèse de ces messieurs de l’Institut des HEC est que le modèle de gestion universitaire doit, en vue d’obtenir de meilleurs résultats, copier celui des affaires, qu’ils posent en idéal à cet égard. Ce modèle, toutefois, repose quant à lui sur deux prémisses indémontrables : a) tout membre de conseil provenant de l’extérieur représente le marché et la volonté du marché ; b) un membre provenant de l’extérieur n’est pas lié aux intérêts de la haute direction. La première prémisse n’est autrement formulable qu’à partir de la théorie économique néoclassique de l’information détenue par un acteur économique à l’intérieur d’un marché en équilibre ; la seconde prémisse n’est formulable qu’à partir d’une théorie morale issue de la mouvance utilitariste telle qu’on la retrouve chez Bentham. Or, la première témoigne d’une vue de l’esprit, et la seconde d’un vœu pieux. La preuve en est que les administrateurs qui se plaignent d’en être réduits à la possibilité de démissionner de leur poste, ne le font pas : qui représentent-ils alors et quels intérêts poursuivent-ils ensuite ?

La vie académique et universitaire ne correspond pas, peu ou prou, à ce que connaissent les gens d’affaires de par leur pratique quotidienne. De plus, il est douteux que les gens d’affaires aient en majorité les connaissances nécessaires à une juste appréciation des enjeux de l’enseignement et de la recherche universitaires – sinon que leur facilité à tout traduire en termes de rendements à courte échéance ou encore celle avec laquelle ils évaluent l’opportunité (économique) que représente un tel siège à un conseil d’une institution : en général, ce sont les occasions d’affaires qui comptent, moins les enjeux académiques. Car la pratique des affaires impose la recherche de la rentabilisation des actions. Et le temps d’un administrateur, surtout s’il ne jouit d’aucune rémunération, doit être un jour profitable ; à l’individu, ou à l’entreprise qu’il représente. Les intérêts des administrateurs provenant du monde des affaires sont là : dans l’instrumentalisation de leur responsabilité. D’ailleurs, plusieurs d’entre eux sont recrutés non pas tant en vertu de l’expertise qu’ils détiennent mais en vertu de leur capacité à soutenir et à contribuer aux campagnes de financement des fondations universitaires. Cela demande des efforts qui devront tôt ou tard être rémunérées. Ainsi va la « logique » du marché : un siège au CA de l’Université a un prix.

Et cela met en place plusieurs conditions qui permettent ensuite de conclure des ententes non prescrites entre administrateurs et la haute direction. C’est d’ailleurs ce qu’a pressenti le Vérificateur général du Québec dans son rapport : comment expliquer autrement que les gens d’affaires qui siégeaient au CA de l’UQAM se soient tus à propos des contrats signés avec les consultants et autres entreprises ayant contracté avec l’UQAM, s’il était évident, malgré la pauvreté de l’information transmise, que ces contrats entraîneraient les difficultés que l’on sait ? Je ne dis pas qu’il y a eu collusion ; je n’en sais rien. Je dis seulement que ce silence et ce laisser faire des administrateurs externes fournissent peut-être des éléments de réflexion qui tendent à démontrer que la solution de MM Allaire et Toulouse en matière de gouvernance universitaire n’est pas applicable en pratique. L’idéologie n’est pas science – pour paraphraser Platon.

samedi 12 avril 2008

Penser le social en termes de complexité?

Même cette question-là, celle du titre, est sans doute mal posée. S’il faut à tout prix problématiser les objets de la réflexion de type sociologique (au sens très large du terme, et pour les besoins de la cause), est-il néanmoins pertinent de rattacher les concepts sociologiques à ceux de l’épistémologie dite de la « complexité »?

Outre le fait que ce type de rattachement conceptuel, en vogue dans les sciences sociales depuis qu’Edgard Morin publia sa « Méthode », mais dont on peut étudier l’archéologie dans les thèses des philosophes du positivisme logique et chez leurs successeurs – dont au premier chef revient l’honneur à ceux qui ont les premiers étudié l’effet du paradigme cybernéticien sur l’épistémologie (je pense à Crosson et a Sayre, en particulier), et aussi à Salmon qui en fit le premier la théorie (le concept de complexité épistémologique est lié à des thèses cybernéticiennes de la connaissance, donnant lieu, entre autres choses, aux théories neurocognitives et aux neurosciences) – l’on ne peut que constater que ce rattachement est hautement spéculatif.

Prenons l’exemple des théories de la sociocybernétique. Bel exemple, en effet, de cette conjonction épistémique. La théorie de Luhmann vient à l’esprit, bien entendu, compte tenu de la stature du penseur et de la large diffusion, maintenant, de ses idées. La complexité, en fait, s’y résume à ceci : puisque la société est un système communicationnel, il y est impossible, en raison même de la théorie de la communication et de l’information, d’en prévoir le comportement – ce qui est l’affirmation de l’indéterminisme informationnel, certes, mais affirmation posée comme un postulat a priori; et pour cause. Tout est question de l’usage du modèle informationnel qui y est fait.

Pour Luhmann, comme pour l’ensemble du mouvement sociocybernéticien, le modèle d’analyse sociologique est le même que celui de la théorie de la communication développée par Claude Shannon et publiée en 1949. Or ce que Luhmann en retient, ce n’est pas tant la formulation mathématique de la théorie, c’est le schéma dit de la «boîte noire» que Shannon pour sa part a repris de la thermodynamique; comme on le sait, ce schéma illustre le comportement des gaz dans un cylindre dont le contenu est inobservable. Puis, s’appuyant sur le concept d’entropie formalisé par le physicien Boltzmann, Shannon le traduit en termes de bits d’information transitant dans un canal quelconque.

Ce que fait la théorie shanonnienne de l’information et de la communication, c’est essentiellement de mettre en relief le concept d’incertitude imbriqué dans le calcul de l’entropie, afin d’illustrer comment un phénomène de communication non seulement lui ressemblait, mais trouvait là les fondements nécessaires à toute interprétation quelle qu’elle soit de ce qui se passe lorsqu’un signal quelconque, émis à partir d’une source déterminée, transite via un canal dont on sait seulement avec assurance qu’il est un lieu de transit stochastique, et aboutit à l’autre extrémité passablement réduit en force et en clarté, parce que réduit en nombre en raison du «bruit» s’insérant dans le canal à un moment donné du processus ; ce phénomène n’est explicable qu’en vertu d’une hypothèse ergodique stipulant que ce processus aléatoire ne produit d’événement connaissable qu’en vertu de la considération de la stabilité de la source à partir de laquelle a lieu le transit. La probabilité que la réception des signaux soit quantitativement équivalente à l’entrée et à la sortie du canal devient ainsi le résultat d’un calcul, le résultat étant que l’information y est ensuite définie comme la réduction de cette incertitude. Le niveau de grande généralité de cette théorie, mathématique rappelons-le, permit ensuite plusieurs adaptations et appropriations.

Cette théorie est donc généralement représentée par le schéma graphique simplifié de la «boîte noire», ce lieu de transit des bits d’information; elle est «noire» parce que, justement, ce qui s’y passe n’est pas accessible au regard d’un observateur.

(En ce qui concerne la théorie de l’information, les éléments qui effectuent le transit sont des bits d’information qui sont eux-mêmes des nombres composés d’un alphabet binaire (0, 1) et qui sont associés à d’autres symboles (intrants) d’une langue, comme les lettres de l’alphabet romain et les chiffres, ou encore tout symbole d’un langage formel quelconque telles la logique et les mathématiques, etc. Ces symboles sont traduits en octets et constituent le message. La théorie vise à mesurer le degré d’incertitude quant à l’information qui résultera du transit en calculant la différence probable entre les quantités à l’entrée et à la sortie.)


Le modèle informationnel de Shannon est toutefois plus complexe que ne le laisse supposer ce schéma de la boîte noire, qui en est une simplification répandue mais inexacte. En effet, dans son ouvrage, Shannon analyse la fonction de la transmission localisée dans un canal et le rôle qu’y joue le bruit; le concept de bruit étant défini comme toute forme de signal intervenant aléatoirement dans la transmission d’un message quelconque, augmentant ainsi le nombre et les types de signaux reçus, réduisant de facto la qualité de la réception du message. À la source d’origine d’un message s’ajoute celle de ce bruit. Il importe donc de prévoir un mécanisme de correction, ou d’autocorrection, du message lors de sa transmission; ce qui est l’objet du deuxième théorème de sa théorie.

Ce mécanisme d’autocorrection est capital pour la compréhension du modèle informationnel de la société formulé par Luhmann et les sociocybernéticiens. En effet, cette idée selon laquelle il est possible d’introduire un tel mécanisme dans tout processus communicationnel a été reprise puis développée sous la forme de technologies particulières dans les années 1950. La première de celles-ci aura été l’implémentation d’un tel mécanisme au radar dans l’aviation militaire, permettant alors l’autocorrection de la course des appareils et des missiles. Le concept de «cybernétique», forgé par le mathématicien et physicien Norbert Wiener, lequel aura conçu ces technologies et d’autres encore, était né . Le concept de «seconde cybernétique», auquel sont associés le nom et la théorie de Luhmann, met en scène ce principe d’autocorrection en tant que principe premier dans la théorie; ce principe a donné lieu à la théorie autopoïétique des systèmes complexes, sociaux et autres.

Ainsi, les bases conceptuelles d’une sociologie et d’une économie informationnelle et cybernéticienne étaient jetées. Et Luhmann pouvait dès lors concevoir sa théorie.

Celle-ci est donc directement inspirée de cette idée fondamentale en théorie de l’information, celle de l’autocorrection des processus communicationnels. Pour Luhmann, en effet, comme pour Wiener, au demeurant, la société est un ensemble complexe de traitement d’informations, subdivisé en sous-systèmes instruits de tâches spécifiques, et inscrit dans un processus autorégulateur fonctionnant selon les principes mêmes de la théorie de l’information. Il n’y a pas de place, dans cette théorie de la société, pour les acteurs sociaux, sinon que celle que Luhmann décrit comme étant des réceptacles d’information, des sources possibles mais non nécessaires au processus socio-communicationnel lui-même. De cette théorie se dégagent au moins deux thèses importantes : d’une part, les individus sont soumis au processus social des interactions communicationnelles, et n’ont pas véritablement la possibilité d’y exercer de libre-arbitre au sens où l’entend la sociologie et la philosophie issues du libéralisme et du républicanisme classiques et de la philosophie des Lumières : ils n’ont pas le statut d’agents sociaux; d’autre part, la société, en tant qu’elle est cet ensemble complexe de processus entre sous-systèmes articulés fonctionnellement comme des canaux de transmission d’information, est un système autoreproducteur , c’est-à-dire que la société n’évolue pas en raison des tensions internes que produiraient les oppositions entre groupes d’intérêts divergents (comme dans la tradition marxienne ou comme chez Habermas, par exemple), mais bien plutôt en raison de ses mécanismes de distribution de l’information disponible parmi les sous-systèmes qui la composent, faisant en sorte que toute transformation sociale est strictement limitée à ses structures informationnelles, et ses effets sont strictement limités à ce que Luhmann appelle le sous-système du sens qui est ce qui fonde une interprétation culturelle des processus sociaux. Le modèle sociétal de Luhmann est conservateur par définition.

Pour Luhmann, la société est une immense boîte noire, un système clos dont il affirme que le concept sera ce qui représentera le mieux la réalité sociale. La théorie sociale de Luhmann repose alors sur une approche constructiviste de la science sociale , mais d’un constructivisme qui fait apparaître la « chose sociale » par le biais des concepts théoriques, comme si cette chose venait à la réalité par le fait d’être conceptuellement décrite; et non en tenant pour acquis que le concept et le modèle sont représentatifs de la chose en question parce que la chose existe indépendamment du concept ou du modèle que l’on en fait. Bref, la théorie de Luhmann n’est pas une théorie réaliste; il s’agit avant tout d’une théorie qui s’apparente à une philosophie idéaliste de la «société», un concept qui chez lui renvoie à celui de «système».

L’exemple de la théorie de Luhmann est éloquent d’un défaut important des modèles sociologiques informationnels: ce sont des modèles théoriques sans modèles d’objets correspondants. Un «objet» informationnel, dans ce sens, n’existe pas sinon qu’en termes de processus communicationnels, lesquels ne peuvent être caractérisés que par l’intermédiaire de la théorie de la communication de Shannon. Or, cette dernière est elle-même une théorie générale et non un modèle d’objet particulier.

Alors, la question revient : est-il pertinent d’associer des concepts sociologiques à celui de complexité?

samedi 5 avril 2008

Philosophie : deux façons de voir la chose

Une entrevue d’Antoine Robitaille, journaliste au journal Le Devoir, parue aujourd’hui (en page B6), donne la parole à deux philosophes et chacun éditeur d’une revue de philosophie « populaire » (Médiane, du Québec, et Philosophie Magazine, de France). Les propos qui y sont rapportés sont intéressants à plusieurs égards. (Peut-être bien, qu’un jour, je soumettrai un texte à l’une ou l’autre de ces revues, peut-être même me soumettrai-je au jeu du « devoir de philo » qu’anime Le Devoir depuis quelques années.)

L’intérêt, toutefois, de cette entrevue ne réside pas nécessairement dans le contenu des propos des deux professeurs et éditeurs. Il réside plutôt, à mon sens, dans le fait qu’il y est soulevé une question qui revient sempiternellement hanter bien des philosophes depuis quelques années : à quoi sert la philosophie?

À cette question, un ancien professeur de philosophie de l’Université de Montréal, Gilles Lane, qui a été le traducteur du célèbre livre d’Austin How to do things with words, qui est devenu Quand dire c’est faire ( Paris : Seuil, 1970); Gilles Lane, donc, a publié À quoi bon la philosophie (Longueuil : Le Préambule, 1982 [2ième édition]), à une époque où la discipline commençait à connaître plusieurs chambardements intra-disciplinaires : de la certitude de la parole analysée en tant que seul objet philosophique à l’épreuve du test de la de la scientificité de la parole analysante. Cela correspond grosso modo à un moment de l’histoire récente de la philosophie, celui qui a vu émerger les neurosciences et une épistémologie empirique au sein desquelles la parole philosophique pût jouir du statut perdu depuis deux siècles et maintenant retrouvé de parole scientifique. À quoi bon la philosophie, alors? Mais de quelle philosophie parle-t-on?

La philosophie, obtenant lentement de nouveau le statut lui permettant de participer à la découverte de connaissances, et plus seulement à offrir des commentaires sur la connaissance ou sur le monde qui l’accueille et l’instrumentalise, a depuis été clivée en deux grands champs d’exercice : la philosophie professionnelle et la philosophie populaire. Les deux interlocuteurs du journaliste Robitaille, Christian Boissinot (Cégep F-X-Garneau de Québec, Alexandre Lacroix, Sciences Po de Paris), se font les défenseurs d’une posture philosophique mixte : eux-mêmes étant des professionnels de la chose philosophique, ils plaident en effet pour une popularisation de la philosophie. Pour faire image, l’idée est celle de la diffusion de la philosophie parmi un public avisé mais non professionnel, comme la mode qui se distille jusqu’au marchand de fripes, à partir des centres de diffusion de la haute couture parisienne ou milanaise (Voir BUCCI, A., Marketing della moda, Working papers, Milan : Domus Academy, 1986 ; et BADOT, Olivier, COVA, Bernard, Le néo-marketing, Paris : ESF Éditeur, 1992). Ce plaidoyer est inspiré d’un constat selon lequel la « demande » pour la philosophie croît, le besoin d’être formé par elle grandit, depuis deux décennies.

La philosophie servirait alors, dans la démarche de popularisation visée, à analyser et à interroger l’actualité d’un point philosophique censé l’éclairer. Tout cela est bel et bon. Je me réjouis que ces deux revues aient trouvé leur niche, leur lectorat, leur ton. (Il n’y aura jamais assez de philosophes dans notre monde.) Or, la réponse fournie, la thèse des deux professeurs et éditeurs, n’est sans doute pas ni originale, ni, au surplus, valable. Parce qu’elle est réductrice. Lane, dans le livre cité, écrivait plus élégamment (p. 112) : « Négativement, le rôle social du philosophe, ou son service à l’humanité, consisterait pour une plus grande part à faire remarquer le caractère purement factuel, inévitablement relatif (à tel ou tel désir factuel) de tout ‘arrêt’ à telle ou telle vision du monde, et, en fin de compte, de tout arrêt à quelque vision du monde que ce soit. Plus positivement, toutefois, il consisterait à pointer aux autres, tant bien que mal, vers l’occurrence possible de ce qui ferait que telle ou telle vision relativisée leur apparaîtrait tout à coup comme attendue d’eux, mais uniquement parce que ce serait ‘à travers’ celle-là que pourrait se produire, à un moment donné, la 'rencontre' personnellement valorisante et libératrice qu’ils attendaient eux-mêmes, et que toute illusion empêcherait, retarderait, ou priverait de sa plus grande vitalité. » Bref, le rôle social du philosophe serait d’exercer un esprit critique, le communiquer, et inspirer une réflexion critique chez les autres : péter des balounes ou crever des abcès, quoi! En dépit de l’élégance de cette citation, l’on reste sur notre faim puisqu’il y est redit ce que l’on sait depuis Platon.

Les philosophes sont en mal de reconnaissance sociale, enfants abandonnés qu’ils sont par leurs propres enfants que sont les sciences. Et, en même temps, on leur demande de jouer ce rôle socratique de l’accoucheur de consciences. Que des magazines de philosophie populaire veuillent développer des espaces de dialogue possibles, voilà qui est certes louable. Mais, d’un autre côté, je crains que l’horizon des questions soit tout de même limité à la demande (qui peut évoluer, bien entendu, comme chacun le sait qui soit sensible à l’analyse des marchés). Existe-t-il autrement dit la possibilité d’une transhumance entre la philosophie professionnelle et la philosophie populaire? La première peut-elle enrichir la seconde? Celle-ci peut-elle accueillir celle-là?

Peut-être. Mais cela exigerait beaucoup de travail de pédagogie de la part des philosophes populaires (dont certains font preuve, parfois avec un zèle trop appuyé toutefois, comme en témoignent tous ces livres écrits à l’adresse du fils, de la fille ou des petits-enfants de tel ou tel autre auteur, parus ces dernières années). Et il y a alors le risque que le résultat ne soit pas philosophique à proprement parler, que l’on verse dans le moule de l’opinion personnelle ou dans celui du journalisme prétentieux. Car la philosophie professionnelle n’est pas, du moins majoritairement, attachée aux questions d’actualité définie au sens journalistique ou événementiel du terme.

Mais cela est possible, comme le prouve le présent billet qui est une réponse à un événement. Je ne saurais juger du travail effectué par les revues en question dans l’article du Devoir. Seuls les propos tenus m’ont inspiré ces commentaires.

lundi 31 mars 2008

Erreur de jugement

Deux mois se sont écoulés depuis que j’ai publié un « message » sur ce site. Écrire est difficile, comme le remarquait Foucault, dans l’un de ses plus beaux textes, L’ordre du discours (Paris : Gallimard, 1971). J’étais occupé à terminer un chapitre pour la cinquième édition de Recherches sociales (sous la direction de Benoît Gauthier, PUQ), portant sur la théorie des modèles – dont traitait mon dernier texte publié ici, d’ailleurs.

Écrire est difficile. Et la difficulté ne consiste pas tant à trouver des sujets mais à en discourir de manière élégante, soit : avec quelque profondeur d’analyse, cohérence logique (élimination des contradictions, donc respect des règles d’inférence déductives), et si possible avec style (c’est-à-dire dans un premier temps en tout respect des règles grammaticales et en utilisant à bon escient les formes rhétoriques de l’organisation du discours; mais la notion de style est complexe car elle participe d’une normativité esthétique et praxiologique qui ne se donne pas de manière évidente).

Or, la philosophie et la science sont également régies par des règles méthodologiques qui, tout en étant normatives, cherchent à éliminer les « effets de style » au profit d’une standardisation du discours. Cette norme est bien établie et encadre l’application des critères d’évaluation des textes et des connaissances qu’ils communiquent.

Parfois, malgré tout, les auteurs font des erreurs : de raisonnement, de méthodologie, de jugement. Les deux premiers types sont aisément identifiables même si les erreurs de raisonnement sont parfois difficiles à identifier autrement que par un sentiment ou une intuition qui dicte que quelque chose ne va pas. Un syllogisme bâtard, comme quand, par exemple, l’on déduit une conclusion à partir de deux prémisses quantifiées existentiellement, est relativement simple à débusquer. Mais des formes d’inférence plus subtiles le sont moins.

L’erreur qui offre la plus grande résistance à la critique est l’erreur de jugement. Celle-ci se remarque généralement par ce que l’on pourrait appeler une distorsion de la perspective; quand par exemple, une hypothèse n’est pas discutée et qu’elle est adoptée sans plus de façon comme une évidence qui s’impose d’elle-même; ou encore quand le philosophe ou le scientifique introduisent dans leur analyse des notions qui sont exogènes aux modèles qu’ils testent ou qu’ils étudient.

C’est le cas d’un livre que je suis en train de lire : FLANAGAN, Owen, The really hard problem. Meaning in a material world (Cambridge: MIT Press, 2007). Je n’en ferai pas la synthèse ici et maintenant. Mais je dirai cependant que le problème avec ce livre, qui porte sur les fondements d’une éthique parascientifique (jusque là ça va bien, bien que je m’attendais à lire une thèse non du domaine éthique mais de sémantique pragmatiste), est que l’auteur, qui a beaucoup travaillé les neurosciences et en particulier les phénomènes de conscience, lesquels soulèvent depuis une dizaine d’années au moins un fort vent d’enthousiasme un peu délirant) tient pour acquis que toutes les fonctions neurologiques seront sous peu expliquées et qu’il sera donc possible d’assigner à tout phénomène neurologique une fonction biologique que Flaganan inscrit a priori dans l’ordre de l’évolutionnisme néodarwinien. L’éthique, qu’il voit comme une théorie de l’écologie humaine ayant pour objet les comportements et les valeurs témoignant de la tendance naturelle de l’Homme à l’épanouissement (laquelle est, reconnaît-il, entravée par les conditions matérielles de vie des communautés humaines – il compare bouddhisme et tradition philosophique issue de l’aristotélisme), se voit ainsi traduite en termes naturalistes mais d’un naturalisme dont toute téléologie n’a pas été évacuée, alors que, paradoxalement, il affirme le caractère non téléologique et au contraire stochastique du néodarwinisme.

Écrire est difficile. Flanagan devrait le savoir. Mais il a commis une grave erreur de jugement en écrivant son livre : tenir pour acquis, postuler la réduction de tout comportement humain à un effet de la relation entre un système cognitif et un environnement (dont les particularités ne sont pas, par ailleurs, clairement spécifiées).

mardi 22 janvier 2008

La science sociale et le modèle

Les modèles sont au cœur de toute méthode scientifique, quelle qu’en soit les postulats méthodologiques ou la philosophie des sciences. Parce que les sciences construisent des théories et des concepts qui visent à interpréter et comprendre le réel.

Mais il subsiste une difficulté supplémentaire, celle de l’évaluation des résultats d’une étude en sciences sociales. Cette difficulté est intrinsèquement liée à la question du statut épistémologique des modèles dans les sciences sociales.

Cette difficulté supplémentaire, définissons-là grâce à deux caractéristiques :

i) Premièrement, les événements ou les objets étudiés par les sciences sociales sont inscrits dans une durée : l’historicité des faits sociaux contribue à distinguer les sciences sociales des sciences naturelles; mais cela n’est certainement pas un critère absolu, dans la mesure où par exemple l’astronomie, la biologie, la paléontologie et la géologie sont des sciences naturelles qui doivent elles aussi tenir compte d’une histoire particulière à chacune et forcent donc les scientifiques qui les pratiquent à un effort de reconstruction des processus causaux ayant entraîné la formation des objets étudiés maintenant;

ii) Deuxièmement, les sciences sociales ne sont pas des sciences expérimentales à proprement parler, ce qui impose aux scientifiques qui les pratiquent de ne pas pouvoir reproduire expérimentalement leurs observations autant de fois qu’ils le souhaiteraient comme c’est le cas des scientifiques en chimie, physique, etc. (Cela est également le cas de certaines sciences telles que la géologie, etc.) En ce qui concerne toutefois les sciences sociales, ce n’est pas une question de dispositifs techniques inadéquats mais essentiellement une question liée à la nature même des objets, faits ou événements sociaux. (Nous y revenons plus bas .)

Ces deux caractéristiques augmentent la difficulté qu’éprouvent les sciences sociales à produire des explications causales, puisque bien souvent leurs objets ne sont pas directement observables. Il n’y a pas que la taille de ces objets qui soit en cause, mais également le fait qu’ils résultent d’un processus historique dont il est impossible de vérifier empiriquement les hypothèses qui l’introduisent dans l’analyse: car le passé n’est observable et étudiable que par le biais des signes et des traces documentaires qui en auront préservé l’actualité.

Voici par ailleurs un exemple du problème que représente la taille d’un phénomène social : en économie, le concept de marché est l’un de ces concepts qui peut être défini uniquement à partir de paramètres et de variables de type macro. Mais un marché réel, en tant que tel, n’est pas observable au sens empirique du terme. Il l’est indirectement, par le biais de données secondaires (p. ex. : somme estimée des ventes de produits, somme estimée du nombre de produits disponibles, somme estimée du nombre de consommateurs ou acheteurs, somme estimée de la valeur d’utilité accordée aux produits, période maximale de la « vie » du produit, etc.). Mais si l’économiste tente d’aller observer « sur le terrain » le comportement des consommateurs et leur attitude face aux produits concernés par son étude, alors il risque de ne rien observer qui soit de nature à l’informer sur les ordres de grandeur du marché qu’il étudie. Tout au mieux, se retrouvera-t-il dans la position de l’ethnologue observant les façons qu’ont tels ou tels groupes d’individus de se comporter entre eux dans des contextes précis. Les motifs à la décision de l’achat d’un produit et les mouvements ou flux économiques doivent être étudiés à grande échelle, et ce, même si la microéconomie se penche sur les aspects davantage psychologiques (la rationalité et la charge cognitive) de la décision d’un agent économique. Car même si le modèle individuel ou psychologique est promu sur le plan de l’analyse économique, il n’embrasse certainement pas tous les aspects collectifs de la consommation de biens résultant de la multiplication des décisions individuelles…

Ce problème de la taille est aussi lié à un processus socio-historique et explique, du moins en partie, pourquoi la modélisation devient presque inévitable en sciences sociales : l’information et les données disponibles, peu importe leur nature, et peu importe la méthode de cueillette et la philosophie des sciences sociales qui auront été adoptées, seront toujours parcellaires et incomplètes. Un modèle, en ce sens, agit au titre de doublure de la science sociale : un modèle y est comme un objet théorique qui n’a d’existence que théorique. Son statut épistémologique est celui d’un concept pénétrant la science sociale de l’extérieur et la traversant de part en part.

Quel réel, quelle explication, quelle preuve?

Le modèle en sciences sociales a ainsi le statut d’un concept quasi transcendantal. Théorique de par sa nature abstraite, il ne possède pas les caractères d’une théorie scientifique achevée. Loin s’en faut. Aucune science ne se résume d’ailleurs en l’un ou les modèles dont elle se sert. En ce sens, les sciences sociales ne sont pas différentes des sciences naturelles.

Or, par « quasi transcendantal », nous entendons quelque chose de très précis : un modèle est quasi transcendantal du fait d’être une construction théorique destinée à rendre compte d’un fait, objet ou événement social empirique quelconque, de manière schématique – c’est-à-dire d’un point de vue général –, en fonction des variables qu’il met en œuvre et qu’il relie au moyen des règles d’association qui président à leur manipulation (comme par exemple les analyses de corrélation ou de réduction linéaire en statistique).

Ainsi, le réel social étudié est un réel dont les caractéristiques sont organisées de telle manière que les liens et rapports de causalité entre un événement ou un fait social quelconque et le processus qui en est à l’origine, sont par définition hypothétiques.

Or, si ces rapports de causalité sont hypothétiques, la preuve de la validité du modèle et de l’analyse sociale qu’il inspire, doit être empiriquement ancrée. Une preuve, en mathématique par exemple, est une confirmation de l’usage approprié de règles et d’axiomes dans le raisonnement . En sciences sociales, par contre, la preuve de la validité des modèles est plus descriptive et varie selon le type de modèle utilisé. Nous verrons dans ce chapitre pourquoi et comment cela est possible. Mais notez dès à présent qu’un modèle, pour être explicatif, doit établir des liens de causalité entre les événements que l’on cherche à expliquer. La notion de causalité est en elle-même l’objet de nombreux débats que nous ne reprendrons pas ici. Du moins, pas pour l'instant.