Archives par étiquette : sciences humaines

Probabilités et statistique appliquées aux sciences sociales et humaines (par Thierry Foucart)

En réfléchissant à l’usage de méthodes quantitatives par certaines sciences sociales et humaines, Thierry Foucart1 met en place un problème en forme de chiasme : les spécialistes des sciences de la nature connaissent les propriétés des méthodes quantitatives mais ignorent la nature des objets des sciences sociales ; les spécialistes des sciences sociales ignorent les propriétés des méthodes statistiques qu’ils prétendent appliquer aux objets qu’ils connaissent. Souligner cet aveuglement croisé, c’est rappeler que l’usage de la raison n’est pas uniforme puisqu’on ne peut pas recourir indifféremment aux mêmes outils selon la nature des objets qu’on examine, c’est aussi inviter à distinguer la recherche d’un militantisme qui se prévaut trop souvent d’arguments pseudo-quantitatifs.

Sciences exactes et sciences sociales

Les sciences exactes et appliquées diffèrent des sciences sociales par la nature des réalités qu’elles observent (Feldman, 2001). Le langage est précis dans les premières : les “objets” sont des choses inertes dans le monde matériel, que l’on peut définir, manipuler et mesurer assez exactement, alors que, dans les secondes, ce sont des hommes dont le comportement, rationnel ou non, est par nature imprévisible et des concepts psychologiques, économiques et sociaux dont les définitions sont imprécises et variables dans le temps et dans l’espace.

Dès que les observations sont numériques ou numérisées, elles sont analysées par les mêmes méthodes mathématiques et informatiques. Les chimistes, physiciens, ingénieurs, agronomes etc. connaissent ces méthodes et les conditions nécessaires pour qu’elles donnent des informations fiables sur les données numériques analysées, mais ignorent les règles des sciences sociales nécessaires à l’interprétation des faits sociaux observés. Inversement, les sociologues, psychologues, historiens, etc. connaissent les conditions de la scientificité dans les sciences humaines et possèdent les capacités de décentration et d’objectivation et les références indispensables à leurs analyses, mais ignorent les fondements théoriques des méthodes mathématiques qu’ils appliquent dans leurs travaux, n’en connaissent guère les limites et dépassent souvent ces dernières sans s’en rendre compte.

Les probabilités

La théorie axiomatique des probabilités de Kolmogorov (1903-1987) donne un exemple typique de ces difficultés. La définition mathématique de la probabilité dans les programmes des classes préparatoires scientifiques, économiques et commerciales fixés par le ministère de l’Éducation nationale est celle du mathématicien russe Kolmogorov (1903-1987) : « Une probabilité P est une application définie sur une tribu A d’un ensemble Ω et à valeurs dans [ 0 ; 1 ], σ-additive et telle que P(Ω) = 1. »

Cette définition intègre les probabilités dans la théorie des ensembles et, plus précisément, dans la théorie de la mesure. Elle est d’un intérêt mathématique considérable. Par contre, son abstraction écarte toute référence intuitive au hasard. Elle permet, avec la rigueur des mathématiques, de démontrer des propriétés et des théorèmes utilisés dans la pratique, comme les convergences vers une loi de probabilité théorique et le théorème fondamental “central-limit”, mais elle n’est d’aucune utilité aux spécialistes des sciences sociales et humaines.

L’approche historique, “fréquentiste”, est celle des jeux de hasard. Elle est fondée sur l’expérimentation : en lançant un grand nombre de fois un dé à six faces, de façon indépendante, on calcule les proportions dans lesquelles les faces sont observées. Plus le nombre de lancers est élevé, plus chaque proportion se rapproche, de façon plus ou moins régulière, d’une limite. Cette constatation est confirmée par toutes les expériences menées rigoureusement.

On définit la probabilité de chaque face par la limite vers laquelle tendent les pourcentages d’observations de cette face lorsque le nombre de jets tend vers l’infini. Dans le cas d’un dé parfait, les faces ont la même probabilité égale à 1 / 6 au cours d’un tirage.

Présentée ainsi, la probabilité est une mesure quantitative du hasard considéré comme un phénomène naturel, physique, et les résultats qu’elle produit sont alors interprétables dans les sciences de l’homme et de la société. Mais cette démarche ne précise pas les conditions théoriques nécessaires pour que les méthodes théoriques soient applicables dans la réalité.

Des erreurs classiques d’interprétation

Supposons qu’au cours de 1 200 jets d’un dé parfait, on a observé 197 fois la face six (proportion 197 / 1200 = 0,1642). Si le lancer suivant donne un six, la proportion devient 198 / 1201 (=0,1648). Sinon, elle est égale à 197 / 1201 (0,1640). La différence entre ces deux proportions est égale à 1 / 1201 (=0,0008). Plus le nombre de jets est élevé, plus elle est faible puisque l’effectif augmente. On peut donc penser que cette proportion tend vers 1 / 6, mais ce n’est pas mathématiquement suffisant : l’existence d’une limite est une hypothèse nécessaire. Le philosophe David Hume (1711-1776) a perçu cette nécessité : « si nous n’admettons pas qu’il y a certaines causes pour faire retomber le dé, lui conserver sa forme dans sa chute, et le faire reposer sur une de ses faces, nous ne pouvons faire aucun calcul sur les lois du hasard » (Landemore, 2004). La constitution physique du dé doit être la même au cours de l’expérience et la seule cause du résultat du jet. Il y a donc deux conditions fondamentales lorsque l’on considère une suite de lancers du dé : l’indépendance des lancers et la stabilité de la constitution physique du dé.

Contrairement à ce que l’on croit souvent, la convergence des proportions n’implique pas celle des effectifs. Dans l’exemple numérique ci-dessous, la proportion p converge vers 1 / 6, lorsque n tend vers l’infini, mais l’écart entre l’effectif théorique moyen n / 6 et l’effectif observé n p tend vers l’infini puisque le terme √n tend vers l’infini.

Probabilité

Pourcentage

Différence des effectifs

1 / 6

p = 1 / 6 – √n / n

n / 6 – n p = √n

Limite
n

1 / 6

+ ∞

Tableau 1 : convergence des proportions, divergence des effectifs.

La méconnaissance de cette propriété est à l’origine d’erreurs classiques comme “la théorie des séries”. Cette “théorie” est fondée sur un raisonnement erroné qui consiste à dire que, si le six a été tiré plusieurs fois de suite, il a de fortes chances de l’être encore : cela signifie que l’on considère que la probabilité d’obtenir la face six augmente du fait des jets antérieurs, et donc que le dé a été modifié. Une autre “théorie des séries” est l’inverse de la précédente : la face six a moins de chances d’être tirée une fois de plus pour rétablir l’équilibre des effectifs. La première remet en cause l’hypothèse d’un équilibre parfait, la seconde suppose la convergence des effectifs.

Une autre erreur fréquente apparaît lorsque le nombre de jets est important. Un résultat de très faible probabilité devient probable dans une suite de tirages en grand nombre. Par exemple, la probabilité d’une série de six résultats successifs identiques en lançant un dé parfaitement équilibré a pour probabilité (1 / 6)5 (après le premier jet, les cinq suivants donnent le même résultat que le premier), soit 0,000128. La probabilité de ne pas observer cette série en lançant six fois le dé est donc :

p =1 – 0,000128 = 0,999871

La probabilité de ne jamais observer une série de six faces identiques en lançant dix mille fois le dé (ce qui fait 9995 séries de six lancers) est :

p9995 = 0,293

Celle de l’observer au moins une fois est donc égale à 0,707 : la présence d’une telle série dans un échantillon de taille 10 000 est très vraisemblable. Évidemment, plus le nombre de jets est élevé, plus la probabilité d’une présence d’une série de six jets donnant le même résultat est élevée. Détecter un résultat rare dans un grand nombre d’observations, des numéros des boules tirées du loto qui se suivent par exemple, ne remet pas en cause l’indépendance des tirages ni l’équilibre des boules.

D’une façon générale, dès que les données ne sont pas obtenues par des tirages indépendants et équiprobables, ce que l’on appelle en mathématiques « une suite de variables aléatoires indépendantes et de même loi », les probabilités ne peuvent être utilisées pour analyser les séries d’observations.

L’intervalle de confiance

Les sondages électoraux sont bien connus du grand public, Ils donnent des estimations des pourcentages obtenus par les candidats dont la précision dépend des échantillons d’électeurs observés.

Parmi les deux méthodes classiques possibles pour constituer un échantillon, l’une consiste à tirer les électeurs au hasard dans les listes électorales, de façon que chaque électeur ait la même probabilité d’être tiré indépendamment des autres (c’est l’indépendance et l’équiprobabilité), et l’autre à les choisir en respectant des quotas de façon que l’échantillon soit “représentatif” de l’électorat, c’est-à-dire que les proportions suivant un certain nombre de critères soient les mêmes dans la population et dans l’échantillon.

Dans le premier cas, les probabilités montrent que les répartitions d’électeurs dans l’échantillon suivant n’importe quel critère sont à peu près les mêmes que dans la population. L’échantillon est approximativement représentatif de la population. En particulier, les pourcentages de voix entre les candidats sont à peu près les mêmes dans l’échantillon et dans l’ensemble des électeurs.

Dans le second cas, la représentativité est assurée sur les critères choisis, en général le sexe, l’âge, la catégorie socio-professionnelle etc. Le choix de chaque électeur étant lié à ces critères, on en déduit que la répartition des voix entre les candidats est à peu près la même dans l’échantillon que dans la population.

Une des hypothèses du théorème “central limit” démontré dans la théorie des probabilités de Kolmogorov consiste à supposer que les données sont tirées au hasard de façon indépendante et équiprobable.  Ce théorème donne, pour chaque candidat, un intervalle contenant 95 % des valeurs possibles de son pourcentage réel dans l’ensemble des électeurs. La marge d’erreur est la différence entre le centre de l’intervalle et ses extrémités.

Cet intervalle est lui-même aléatoire et la probabilité qu’il contienne la valeur “certaine et inconnue” du pourcentage de voix d’un candidat dans l’ensemble des électeurs est de 95 %.

Cet intervalle n’existe pas si l’échantillon a été constitué par la méthode des quotas puisque l’hypothèse précédente n’est pas vérifiée. Évaluer la part du hasard dans les résultats numériques établis sur des données qui ne sont pas aléatoires est évidemment une erreur. L’argument qui consiste à dire qu’on peut le faire “comme si l’échantillon était aléatoire” est insuffisant, de même que calculer le carré du plus grand côté d’un triangle par la somme des carrés des deux autres (c’est le théorème de Pythagore) en faisant “comme s’il était rectangle” C’est la même erreur de logique. On ne peut appliquer un théorème que si les hypothèses nécessaires à sa conclusion sont vérifiées.

Cette erreur est présente dans tous les sondages préélectoraux utilisant la méthode des quotas. La réglementation impose en effet aux instituts de sondage de publier, avec les estimations des pourcentages de chaque candidat, la méthode utilisée pour constituer l’échantillon, le nombre de personnes interrogées et la marge d’erreur de ces estimations.

Elle ne se limite pas à l’exemple précédent. La comparaison de deux moyennes consiste approximativement à calculer l’intervalle de confiance de leur différence, et à considérer que cette différence est significative si ce dernier ne contient pas la valeur 0. Si les données ne sont pas aléatoires, on ne dispose d’aucune règle permettant de considérer que la différence observée est trop grande pour n’être que le résultat du hasard.

La corrélation entre deux facteurs

Lorsque l’on étudie l’effet d’un facteur sur un autre, par exemple celui de l’âge sur le revenu, on calcule le coefficient de corrélation sur des données observées et on le compare à la valeur 0 qu’il prendrait théoriquement en cas d’indépendance des deux facteurs. Dans ce cas, on peut déterminer une valeur maximale, un “seuil”, acceptable de ce coefficient, en fixant la probabilité, souvent 5 %, qu’elle soit dépassée en cas d’indépendance : si les deux facteurs sont indépendants, il est peu vraisemblable que leur coefficient de corrélation soit supérieur à ce seuil. Dans ce dernier cas, on dit qu’il est “statistiquement significatif”, et on en déduit que la relation n’est pas due seulement au simple hasard : les deux facteurs ne sont pas indépendants. C’est un raisonnement “presque par l’absurde”. Le risque de déclarer qu’ils ne sont pas indépendants alors qu’ils le sont est fixé à 5 %, mais on ne peut pas calculer la probabilité d’admettre qu’ils sont indépendants alors qu’ils ne le sont pas.

Les résultats de ce calcul sont utilisés par certaines revues scientifiques pour sélectionner les articles qu’elles publient. Elles commettent une autre erreur scientifique : « Plusieurs études ont ainsi montré que certaines revues académiques avaient tendance à un certain degré de publication sélective en ne retenant à la publication qu’un certain type d’études, notamment celles qui présentent des résultats statistiquement significatifs. Dès lors, une synthèse de la littérature qui s’appuierait uniquement sur les études publiées pourrait s’avérer biaisée en faveur d’études présentant des effets empiriques plus larges qu’ils ne sont réellement » (Laroche, 2007).

Cette procédure de sélection a deux conséquences importantes :

  • Si les observations sont tirées au hasard, elle peut conduire à rejeter des études très pertinentes qui ne mettent pas de relation en évidence, et à détecter des phénomènes qui ne sont dus qu’au hasard. Daniel Schwartz (1984) explique : « supposons qu’un phénomène [l’effet biochimique d’un médicament ] n’existe pas. Sur 100 expériences, on trouvera en moyenne 5 fois qu’il existe [l’effet placebo]. Si les chercheurs, ou les revues, ne considèrent, ne publient que les résultats positifs, on verra surgir une première publication, puis d’autres – de l’ordre de 4 – apparaissant comme des confirmations, entraînant la crédibilité, ce qui ne se serait pas produit si on avait publié les 100 résultats. » Ces revues présentent des résultats biaisés. C’est le “biais de publication”.
  • Si les observations ne sont pas tirées au hasard, le critère de sélection est statistiquement faux. Par suite, les travaux publiés sont fondés sur des analyses scientifiquement incorrectes, ce qui aggrave le biais de publication.
  • D’autres hypothèses statistiques que le tirage au hasard des données sont nécessaires pour que le raisonnement sur le coefficient de corrélation soit correct. Elles sont très rarement contrôlées dans la pratique.

Deux exemples

Deux études concernant l’apprentissage de la lecture, suivant deux pédagogies différentes (méthode syllabique et méthode mixte) ont été menées récemment par Dehaene (2013) et Goigoux (2013). Pour savoir quelle est la meilleure des deux méthodes pédagogiques, on compare leurs résultats sur deux échantillons d’élèves ayant appris à lire dans le premier échantillon par la méthode syllabique, dans le second par la méthode mixte. On effectue donc un test de comparaison des moyennes qui semble montrer que la meilleure approche est très vraisemblablement la première. Que va-t-on déduire de ces analyses ?

  • Les données n’ayant pas été tirées au hasard, le test n’est pas valide scientifiquement, et ne permet pas de dire que la première est plus efficace que le seconde sur l’ensemble des élèves de cours préparatoire.
  • Ce ne sont ni les mêmes élèves, ni les mêmes enseignants, et on ne peut en comparer les résultats que si l’on suppose que l’aptitude des premiers à apprendre et la compétence pédagogique des seconds sont les mêmes dans les deux échantillons.
  • Gentaz (2022) a critiqué sur d’autres points la méthodologie suivie, en particulier la mise à l’écart de certains résultats considérés, à tort selon lui, comme trop particuliers pour être vraisemblables (Cédelle, 2023).

Cette comparaison est plus celle des deux échantillons que celle des deux méthodes.

Ce genre d’erreur est très fréquent, surtout dans les méta-enquêtes qui consistent à analyser de façon globale une sélection d’articles traitant d’un même sujet. Dans celle que l’Inserm a effectuée pour comparer les efficacités des différentes psychothérapies (Inserm 2004), de nombreuses analyses statistiques sont effectuées pour comparer celle des techniques psychodynamiques (TP) d’une part à celle des techniques cognitivo-comportementalistes (TCC) d’autre part. Aucun des échantillons n’est tiré au hasard : les patients observés sont des étudiants volontaires, des patients parfois rémunérés, … et leurs effectifs sont souvent faibles.

Un autre problème apparaît immédiatement : les articles américains, très souvent d’orientation TCC, sont bien plus nombreux que les articles européens. Il y a ici un double biais de publication, le premier par la sélection opérée par les experts, et le second par l’orientation scientifique des revues qui ont publié les articles.

Certaines études utilisent un protocole “randomisé”. Les patients observés sont répartis au hasard dans trois groupes : le premier regroupe ceux qui suivent une thérapie comportementale (désensibilisation systématique), le second ceux qui suivent une thérapie psychodynamique, et le troisième ceux qui ne bénéficient que d’une pseudo-thérapie n’apportant qu’un soutien relationnel. Le hasard est donc introduit dans les données et on peut utiliser la statistique inférentielle pour comparer les résultats. Cependant, cette analyse ne montre que les résultats des psychothérapies sur les quarante-cinq étudiants observés, ce qui semble bien peu pour la comparaison des résultats. Ces résultats sont d’autant moins généralisables à l’ensemble de la population que l’échantillon n’est pas du tout représentatif, et que, comme dans le cas de l’apprentissage de la lecture, l’efficacité des thérapies dépend de la compétence des psychothérapeutes et des profils des patients.

Le dernier exemple est complètement différent des précédents. Il s’agit de l’ouvrage Visible learning (John Hattie, 2008), qui a rencontré un très grand succès auprès du public anglo-saxon et été très contesté peu après sa publication. C’est « une méta-méta-analyse de 800 méta-analyses portant sur plus de 50 000 études conduites sur 250 millions d’élèves ». Les critiques de nombreux scientifiques, statisticiens ou spécialistes des sciences de l’éducation, sont extrêmement sévères, et citent des calculs théoriques donnant des probabilités dont certaines peuvent être supérieures à 1 et d’autres inférieures à 0 (Bergeron Pierre-Jérôme, 2016). Ces erreurs mathématiques grossières n’ont pas empêché le succès mondial de cet essai, et une présentation très élogieuse du magazine Times Educational Supplement qui l’a présenté comme le « Saint-Graal de l’enseignement » sans mentionner ces erreurs que le journaliste n’avait donc pas vues.

C’est une situation très particulière de la démarche critique : la preuve statistique de l’efficacité de méthodes pédagogiques est complètement erronée, mais cela ne suffit pas pour invalider ces méthodes comme le montre l’avis très positif (semble-t-il) des enseignants. Les erreurs scientifiques n’empêchent pas l’intérêt des explications et interprétations contenues dans ce livre, mais simplement les privent de l’argumentation statistique.

Toutes ces études ne sont pas dépourvues d’intérêt. C’est l’utilisation qui en est faite par l’administration qui risque d’être dangereuse. L’application à chaque élève d’une règle collective établie de façon optimale sur un échantillon peut aboutir à une insatisfaction générale (Foucart, 2002). Imposer la “meilleure” solution collective à tous les enseignants et à tous les psychothérapeutes, c’est les empêcher de choisir la “meilleure” solution pour chacun de leurs élèves et patients. « Le législateur […] ne deviendra jamais capable, alors que ses prescriptions s’adressent à la totalité de ses sujets ensemble, d’attribuer avec exactitude à chacun d’eux individuellement ce qui convient. » (Platon)

La logique floue

La théorie des probabilités est une théorie mathématique qui donne des résultats théoriques “scientifiquement vrais” mais dont l’interprétation obéit à une logique “floue” puisqu’elle analyse des propriétés en fonction de la vraisemblance d’un résultat numérique établie sous certaines hypothèses.

Il y a donc une différence entre la logique des sciences exactes et celle des sciences sociales. La logique est binaire (“booléenne”) dans les sciences premières : une théorie est vraie ou fausse, une valeur numérique exacte ou pas, et floue dans les secondes : une théorie est vraisemblable ou non, une valeur est vraisemblable ou “presque impossible“.

En logique booléenne, l’implication entre deux faits est transitive : si A implique B, si B implique C, alors A implique C. Les implications sont certaines et se retournent : si A implique B, alors non B implique non A. En logique floue, on évalue la vraisemblance de l’implication en lui attribuant subjectivement une valeur comprise entre 0 et 1. Plus elle est proche de 1, plus elle est forte, et plus elle est proche de 0, plus elle est faible. Il n’existe pas de règle fixant une valeur séparant ces deux interprétations.

On ne peut appliquer que très approximativement le raisonnement presque par l’absurde, parce que la vraisemblance du contraire d’une hypothèse n’est pas mesurable.

Les implications sont incertaines et leur transitivité très discutable. C’est un modèle qui n’est pas fondé sur la théorie des probabilités, mais sur l’appréciation de la vraisemblance par le chercheur. C’est la procédure suivie par un juge qui décide de la culpabilité ou de l’innocence d’un accusé. Ce dernier est présumé innocent, de la même façon que deux facteurs sont présumés indépendants. La décision du juge résulte d’un débat et n’apporte aucune certitude sur la culpabilité de l’accusé. Un sociologue qui détecte un coefficient de corrélation significatif est dans une situation analogue à celle du juge. Les résultats statistiques n’apportent qu’une information incertaine sur le sujet analysé, même lorsque les analyses sont effectuées correctement, et ne sont que des éléments du débat. Lorsqu’ils sont fondés sur la théorie des probabilités, ils sont plus crédibles, mais n’évitent pas le doute.

Cette logique floue concerne aussi la transitivité de la corrélation. Croire que si A est fortement corrélé à B et B à C, alors A est corrélé à C est une erreur classique.

Voici un exemple numérique : les coefficients de corrélation entre X, Y et entre Y et Z sont égaux à 0,6. On démontre, par un calcul mathématique, que le coefficient de corrélation entre X et Z est compris entre 1 et -0,280. Ce calcul est indépendant du nombre d’observations, et le coefficient de corrélation entre X et Z peut être significativement négatif, c’est-à-dire que la relation entre X et Z peut être l’inverse de celle que l’on obtient en supposant la transitivité de la corrélation.

Lorsque plus de trois variables sont considérées, X, Y, T, Z par exemple, le calcul est encore plus compliqué, parce que le coefficient de corrélation entre X et Z varie dans un intervalle qui dépend de tous les autres coefficients, y compris du coefficient de corrélation entre Y et T (Foucart, 1991).

Vérité scientifique des sciences sociales

La différence de nature entre sciences exactes et sciences sociales implique une différence dans les concepts de vérité que l’on peut expliquer à partir du critère de scientificité de Popper. Pour ce dernier, une théorie est scientifique si elle est réfutable, c’est-à-dire si l’on peut la contrôler par une expérience réalisée dans les conditions prévues par la théorie. Une vérité scientifique est considérée comme vraie tant qu’aucune expérience ne l’a contredite.

Ce critère dénie cette scientificité à toutes les théories des sciences sociales fondées sur la modélisation et les probabilités qui consiste à simplifier les mécanismes sociaux pour mieux les comprendre : il existera toujours une expérience contredisant les résultats prévus de ces théories. La vérité scientifique dans les sciences sociales n’est pas de même nature que dans les sciences exactes.

La vérité “floue” dans les sciences sociales peut avoir comme conséquence l’existence de plusieurs interprétations d’un même fait économique, social, ou historique, toutes aussi rationnelles les unes que les autres. Il est difficile de comprendre que, partant des mêmes hypothèses et parfois des mêmes données, deux chercheurs en sciences de l’homme et de la société peuvent proposer des explications complètement différentes, éventuellement opposées, sans que l’on puisse les départager. Il y a quelques années, des statisticiens ont “montré” que certaines pièces de Molière étaient en réalité de Corneille comme l’avait affirmé Pierre Louÿs au début du XXe siècle. Des spécialistes de stylométrie ont choisi récemment d’autres critères de comparaison et affirment maintenant le contraire. Les deux démarches sont rationnelles, argumentées, validées par des experts et la seule conclusion possible, dans cette situation, est qu’on ne sait pas en l’état actuel de nos connaissances. Dans la morale de la fable Les médecins, La Fontaine se garde bien de dire qui avait raison, du médecin Tant-pis qui, soignant un malade, avait prévu sa mort, ou du médecin Tant-mieux qui affirmait qu’il l’aurait guéri. Il faut examiner de façon critique les arguments des uns et des autres avant toute décision, tout choix, et ne jamais espérer de certitude dès que le hasard se mêle des résultats.

« L’homme est donc si heureusement fabriqué qu’il n’a aucun principe juste du vrai et plusieurs excellents du faux » (Pascal, 1670).

Références bibliographiques

  • Bergeron, Pierre-Jérôme, 2016. « Comment faire de la pseudoscience avec des données réelles : une critique des arguments statistiques de John Hattie dans Visible Learning par un statisticien. », McGill Journal of Education / Revue des sciences de Mcgill, 51(2), 935–945.
  • Cédelle Luc, 2023, « Les neurosciences à l’école : leur véritable apport », et leurs limites, Le Monde du 5 janvier 2023.
  • Dehaene Stanislas., 2013, « Enseigner est une science », Lemonde.fr, 20 décembre [en ligne].
  • Feldman Jacqueline, 2001, « Pour continuer le débat sur la scientificité des sciences sociales », Revue européenne des sciences sociales, XXXIX-120, p.191-222.
  • Foucart Thierry, 1991, « Transitivité du produit scalaire », Revue de statistique appliquée, tome 39, no 3, p. 57-68.
  • Foucart Thierry, 2002, « L’argumentation statistique dans la politique sociale, Mathématiques et Sciences Humaines, n° 156, p. 33-42.
  • Gentaz Édouard, 2022, Les Neurosciences à l’école : leur véritable apport, Odile Jacob
  • Goigoux Roland., 2013, « Apprentissage de la lecture, opposer méthode syllabique et méthode globale est archaïque », Lemonde.fr, 31 décembre [en ligne].
  • Hattie John, 2009, Visible learning, Routledge 2 Park Square, Milton Park, Abingdon, Oxon OX14 4RN.
  • Inserm, 2004, Psychothérapies–Trois approches évaluées, https://presse.inserm.fr/wp-content/uploads/2017/01/2004_02_26_CP_ExpCol_Psychoterapies.pdf
  • Landemore Hélène, 2004, Hume, probabilité et choix raisonnable, PUF, Paris, p. 23-24.
  • Laroche Patrice., 2007, « L’exploration statistique du biais de publication », Journal de la Société Française de Statistique, tome 148, n◦4, p. 29-55.
  • Pascal Blaise, 1670, Pensées, Misère de l’homme, folio 379, La Pléiade, p. 1113.
  • Platon, Le Politique, La Pléiade, t. II, p. 401.
  • Schwartz Daniel, 1984, « Statistique et vérité », Journal de la société statistique de Paris, tome 125, no 2, p. 82.

1 – Thierry Foucart est agrégé de mathématiques et habilité à diriger des recherches. Il se consacre depuis sa retraite de l’Université à l’épistémologie dans les sciences humaines et sociales. 

Art, transgression, permissivité : sur un livre de N. Heinich

Commentaire du livre « Le Triple jeu de l’art contemporain »

Nathalie Heinich, lauréate du prix Pétrarque de l’essai 2017, a été récemment la cible d’une méprisable polémique de la part d’« intellectuels » lanceurs d’anathèmes fondés sur des ragots1. Indignée par tant de bassesse et de malhonnêteté, je remets en ligne un article (publié sur l’ancien site en 2006) consacré au livre Le Triple jeu de l’art contemporain.
Il s’agit d’un très bel ouvrage de sociologie de l’art qui engage une réflexion sur les rapports entre transgression, norme et liberté. C’est aussi un livre de philosophie morale et politique qui révèle la face inquiétante de la permissivité.

L’art contemporain, si on le considère du point de vue des comportements, se laisse décrire en termes de transgression, et cela sous trois angles : production transgressive des artistes, réactions du public, intégration par les experts – critiques et institutions. Le rapport entre artistes et prescripteurs y est décisif : il s’agit, non plus de dire « c’est de l’art », mais de le faire dire. Triple jeu dans lequel la transgression s’emballe de telle sorte que les frontières de l’art reculent de plus en plus et que l’on se demande finalement ce qui pourrait ne pas être de l’art.

Une telle description est possible ; elle est pertinente, susceptible non seulement de vérification mais aussi de variation et de falsification. Elle permet de comprendre un pan non négligeable de ce que nous appelons « art » par la construction et l’opposition de trois paradigmes – art classique, art moderne, art contemporain.

Mais cet éclairage sur l’art comme phénomène social laisse dans son sillage une traînée lumineuse – et peut-être sulfureuse – hors-sociologie : car ce livre est aussi une réflexion philosophique, non pas de philosophie de l’art, mais plutôt de philosophie morale. Il révèle en effet un syndrome contemporain dont la manifestation esthétique est l’un des symptômes : la remise en cause de toute norme, dès qu’elle devient prescription, s’érige elle-même en norme et témoigne de la quête désespérée de la loi.

 

Sociologie et philosophie : trois mauvais procès

Il convient d’abord d’éviter trois mauvais procès trop faciles à faire à cet ouvrage.

Sciences humaines et esthétique

Il ne s’agit pas d’une analyse de l’art contemporain à prétention esthétique, mais d’une analyse sociologique dont l’hypothèse est minimaliste. On touche ici au sérieux des sciences humaines : il faut appréhender ce qui, dans les comportements humains, relève d’une formalisation ou au moins d’une régularité, ce qui fait loi ou structure, ce qui n’est pas de l’ordre de la liberté.

Pourquoi parler de minimalisme ? Il s’agit de donner toute sa puissance à l’analyse sociologique, mais rien qu’à elle. Nathalie Heinich part d’un principe simple : elle analyse des postures (faits sociaux) accessibles par une description rigoureuse et susceptibles de variation expérimentale (on en donnera plus loin un exemple). Ainsi, là où une analyse à prétention substantialiste échoue à saisir des constantes, on conclurait mal en croyant qu’il y a désordre et qu’il faut alors s’en remettre au relativisme.

La double illusion de l’essentialisme et du relativisme repose sur un même faux positionnement : croire que l’art est fondamentalement lié à la question du jugement de goût, et faire de cette liaison un usage dogmatique, réificateur. Au fond, et ironiquement, la démarche est plus kantienne qu’il n’y paraît. C’est précisément en disposant les éléments d’une dialectique à la manière de la Critique de la raison pure (à ceci près qu’il s’agit d’une dialectique expérimentale et non pas transcendantale) que l’on peut prendre en défaut la vulgate philosophique inspirée de la Critique de la faculté de juger.

L’antithétique contemporaine est une antithétique du jugement sur la question « c’est de l’art ».

  • – Thèse : l’art est déterminable par une constante de type ontologique (l’art est nécessaire).
  • – Antithèse : il n’y a d’art que relativement à une extériorité sociale, historique, etc. (l’art est contingent).

Or les deux propositions sont fausses parce qu’elles sont secrètement articulées à une même croyance dans le jugement de goût, tantôt érigé en absolu (substantialisme), tantôt récusé comme impossible (relativisme). Alors apparaît la symétrie entre croyance naïve et croyance déçue : on constate une fois de plus que le scepticisme est un dogmatisme qui s’ignore. Le jugement sur le caractère artistique d’un objet ou d’un phénomène n’est pas fondé sur une constante ontologique ; il n’est pas non plus dispersé dans une contingence radicale, pourvu qu’on l’accroche, non plus à un jugement de goût exalté ou délaissé, mais à la question « que fait l’art ? ». C’est donc une pragmatique des jugements qui résout expérimentalement l’antinomie en la déplaçant sur une question de description sociologique.

« […] il n’existe pas de substantialité des goûts, ni quant à leur objet (l’art), ni quant à leurs sujets (les gens) : il n’existe que des postures, admiratives ou réactives, positives ou négatives, intégratrices ou oppositionnelles, à l’égard d’objets fluctuants, dans des contextes variables, de la part de sujets aux statuts divers. Mais ces postures sont, elles, suffisamment constantes, et portées par des valeurs suffisamment investies, pour donner prise à l’analyse sociologique : à condition du moins que celle-ci se détache d’un projet d’« explication » par des causes plus générales (milieu social ou propriétés esthétiques) au profit d’un projet d’« explicitation » des procédures d’investissement, d’argumentation et d’activation des valeurs. » (p. 61)

On comprend, au passage, la fascination et le malaise des philosophes à la lecture de ce livre, qui singe la philosophie, qui la révèle, qui la trahit en retenant sa démarche et en dénonçant ses objets…

Le concept d’art contemporain : un paradigme

Un second mauvais procès consiste à réduire le terme « contemporain » à une signification chronologique. Le terme « contemporain » ne désigne pas en effet une donnée brute relevant d’une périodisation purement empirique, d’un « déjà-là », mais au contraire, il se construit – c’est un concept qui définit une attitude, une position, un « paradigme ».

Il faut donc, non pas s’en tenir aux dates, mais lier et opposer le paradigme contemporain aux deux autres :

  • – le paradigme de l’art classique repose sur la figuration et se donne pour tâche de « rendre le réel » ;
  • – le paradigme de l’art moderne, toujours attaché au respect des matériaux traditionnels, repose plutôt sur l’intériorité de l’artiste ;
  • – le paradigme de l’art contemporain repose sur la transgression systématique des critères artistiques couramment admis.

En quoi cela le distingue-t-il du second paradigme qui lui aussi avait mis en place une série de transgressions ? L’auteur donne cette réponse dans un texte bref Pour en finir avec la querelle de l’art contemporain (Paris : L’Echoppe, 1999) :

La distinction avec l’art moderne est, en revanche, radicale, lorsque la transgression concerne non seulement les cadres esthétiques (« cadre » pouvant à l’occasion être pris au sens le plus littéral, comme avec Stella), mais aussi les cadres disciplinaires (avec les mélanges d’expressions plastiques, littéraires, théâtrales, musicales, cinématographiques), voire les cadres moraux et même juridiques.

La transgression est essentielle au paradigme contemporain, elle en est constitutive parce qu’elle y est systématique.

Le découpage en paradigmes, même s’il coïncide grosso modo avec des cadres chronologiques, est donc génétique ou catégoriel. Ce découpage permet aussi de revenir sur le premier mauvais procès : car ce qui s’affronte dans les antinomies, ce ne sont pas des goûts, mais bien des paradigmes. On peut donc conclure à une pluralité des façons de voir l’art ; on peut aussi rester fidèle à ses goûts à travers des attitudes différentes. Enfin, on peut et même on doit supposer que la question de la valeur esthétique reste indépendante des paradigmes eux-mêmes, lesquels sont des modalités accessibles à l’analyse des comportements. La confusion entre l’analyse esthétique et l’analyse sociologique est alors fermement dénoncée :

« […] faute de reconnaître l’existence de ces genres, on tend à confondre les critères génériques (qui déterminent l’appartenance à l’art moderne ou à l’art contemporain) et les critères évaluatifs (qui déterminent, à l’intérieur de chaque genre, la plus ou moins grande qualité des propositions artistiques). Ainsi, on tire argument du caractère transgressif d’une œuvre (critère générique) pour la considérer comme intéressante (chez les défenseurs de l’art contemporain) ou inintéressante (chez ses détracteurs) : ce qui évite aux uns comme aux autres d’expliciter les critères proprement esthétiques qui leur permettent de défendre ou de rejeter. » 

L’art contemporain n’est pas un « non-art »

Un troisième mauvais procès consisterait à dire : « faire de la transgression un critère de l’art contemporain, est-ce bien nouveau ? ». Ce serait confondre la démarche de l’auteur. avec une tendance critique de déploration, de méfiance ou d’hostilité envers l’art contemporain. Il est vrai que tout un courant critique, de J. Baudrillard à J.-P. Domecq, a parfaitement décelé l’importance de la transgression comme posture. Mais c’est encore une fois mal conclure, du fait qu’il s’agit d’une posture, au vide de son contenu et à son absence d’objet. C’est, observe l’auteur, remonter trop vite de l’effet – la déconstruction – à une cause imaginaire – une intention de destruction. Or les artistes ne se donnent nullement pour objet de faire du non-art en transgressant les frontières de l’art existantes, bien au contraire :

« Mais il ne s’agit pas pour les artistes de faire du « non-art », comme le croient souvent ceux qui, jugeant de l’extérieur, remontent trop vite de l’effet – la déconstruction – à la cause – une intention de destruction : il s’agit de faire de l’art avec ce qui n’est pas habituellement considéré comme tel. […] L’art contemporain n’obéit pas à une démarche iconoclaste qui viserait à détruire l’art (même si, aux yeux de certains, il y aboutit) : il obéit au contraire à une démarche « iconolâtre » (si l’on peut dire à propos d’œuvres qui font si souvent l’économie de l’image), adoratrice de l’art, consistant à tout lui accorder, à exiger son extension à la totalité du monde. Si les frontières de l’art bougent sous les coups que leur portent les artistes, c’est bien dans le sens d’un spectaculaire agrandissement de son territoire, toujours plus étendu, colonisant toujours plus loin de nouvelles zones de l’expérience – tel, augurent certains, l’Empire romain à son apogée, avant la chute. » (p. 171-172)

Ainsi reste ouverte, demeurant en deçà du champ sur lequel l’auteur travaille, la question de l’art au sens esthétique. Les paradigmes articulent bien des positions ; mais seule l’épreuve du temps peut donner à une œuvre un type de reconnaissance qui excède la seule reconnaissance sociale.

 

Le « triple jeu » et ses conséquences morales

Je propose à présent de suivre quelques-unes des analyses de Nathalie Heinich, choisies en fonction de leur prolongement philosophique, tout en conservant l’ordre de l’exposition suivi par le livre.

Du prologue, consacré aux questions de méthode, on a déjà beaucoup parlé, puisque la démarche y est en effet située dans une topique du partage entre sciences humaines et philosophie. L’auteur y expose aussi les exemples scientifiques dont elle s’inspire. Au-delà de Pierre Bourdieu (Les Règles de l’art), c’est à la sociologie des religions qu’il convient de remonter – déjà mobilisée dans un ouvrage antérieur La Gloire de Van Gogh. Essai d’anthropologie de l’admiration 1991. L’étude de « ce que fait l’art » peut en effet épouser les trois fonctions de ce que font les religions : innovation (analogie entre artistes et prophètes) ; médiation (analogie entre critiques et prêtres) ; adhésion/rejet (analogie entre public et fidèles/mécréants). Trois fonctions qui engagent le triple jeu – de la transgression par les artistes, des réactions du public, de l’intégration par les experts – mais à la différence des religions c’est la nature même de l’innovation qui emballe la machine dans une « partie de main chaude ». À faire de la transgression une prescription, on congédie le sens même de la transgression, tenue, pour rester fidèle à son propre impératif, à une perpétuelle surenchère…

C’est l’occasion d’une mise au point liée à la pertinence et à la valeur de l’analyse sociologique. En s’attaquant de manière minimaliste aux strictes modalités et aux stricts effets de la transgression, une telle analyse dénonce un certain nombre d’illusions liées à une interprétation trop forte de l’acte transgresseur. On en citera deux.

L’illusion de la liberté de l’artiste. Rien n’est plus contraint que l’attitude de l’artiste dans ce mouvement de pseudo-libération. Chercher à modifier les règles du jeu artistique, c’est certes le maîtriser, mais c’est aussi se conformer à un modèle. Alors que l’artiste classique pouvait copier une manière ou des objets, l’artiste contemporain copie une posture : l’impératif de singularité et d’originalité inaugure un nouvel académisme.

L’illusion de l’incohérence du public. Il est tentant mais vain de dire que les gens aiment n’importe quoi ou qu’ils sont prêts à brûler ce qu’ils ont adoré : l’infidélité à des objets peut fort bien s’expliquer par la fidélité à une attitude et la logique de l’avant-gardisme (faut-il dire du snobisme ?) enjoint une forme d’infidélité au nom d’une fidélité à soi-même.

 

Les formes de la transgression et leur falsification

Suit une revue raisonnée et illustrée des formes prises par la transgression, revue classée selon le type de frontière franchie. Parcourons-en quelques-unes.

Frontières de l’art. L’art contemporain s’évertue à brouiller systématiquement la démarcation entre le monde ordinaire et le monde de l’art, entre l’art et la vie, de sorte que « tout est art » (ex. de Rauschenberg et du « lit » 1955, fondation du groupe des « nouveaux réalistes » par Restany, appropriation du réel par le pop art, usage tautologique de la reproduction) ou que « tout le monde est artiste » (diverses formes d’implication du public). On procède aussi à des opérations d’élimination des contenus (le minimalisme, peinture monochrome, J.P. Raynaud) et des contenants (jeu sur les « marqueurs » de l’art : cadre, socle). Puis viennent les transgressions « au second degré », les transgressions de transgressions (Bazile ouvrant une « boîte de merde d’artiste » de Manzoni en 1989 ; hyperréalisme et « nouvelle figuration », Bad painting).

Frontières du musée : faire du « hors-musée » ou transformer le musée en espace ordinaire (land art, œuvres inaccessibles visibles d’avion, dispositifs interactionnels, mail art, diverses formes de « dématérialisation » : destruction de l’objet, identification de l’œuvre à la démarche de l’artiste, installations en cours).

Frontières de la morale et du droit : c’est le cas de certaines formes de body art où l’on risque sa vie, exemple de Michel Journiac qui fabrique du boudin avec son propre sang, ou encore les expositions d’objets volés, etc.

Frontières de l’authenticité et de l’originalité : invention d’une authenticité sans objet (être l’auteur d’un non-objet – ex de la « carte d’authenticité » de Manzoni), invention d’objets sans auteur – ex readymade produit par un autre que celui qui le signe), jeux sur la sincérité (déclarations d’inauthenticité, dépersonnalisation, copy art…).

C’est ici que Nathalie Heinich procède à une variation qui mérite qu’on s’y arrête pour des raisons épistémologiques. Une opinion répandue veut en effet que les sciences humaines soient impuissantes, pour des raisons de structure, à se donner des procédures de falsification de leurs hypothèses : on prétend en effet qu’elles ne sauraient mettre en place des prédictions. On fera d’abord remarquer que la prédiction en matière de sciences de la nature ne suppose nullement une temporalité séquentielle  – celle-ci n’étant bien souvent relative qu’au temps de la prise de connaissance2. La notion de prédiction peut donc s’entendre en termes synchroniques (on peut même prédire le passé comme c’est le cas en astrophysique), on peut citer aussi l’exemple trop négligé aujourd’hui de l’anthropologie structurale3.

Mais suivons l’auteur dans une démarche de prédiction synchronique où elle teste son hypothèse en construisant la possibilité d’une contre épreuve qui pourrait l’invalider et dont on peut contrôler l’existence sur le terrain observable.

On se souvient que la loi fondamentale qui règle les variétés de transgression est dans la fonction de reconnaissance: la transgression n’a de sens que si elle permet à l’artiste de rester dans le jeu, y compris et surtout en en brisant les règles – s’il peut faire dire aux prescripteurs pertinents « ceci est de l’art ». L’impératif d’originalité est donc un noyau dur de l’hypothèse. Si cet impératif peut trouver son application dans la maxime de la transgression, la maxime ne peut cependant pas être appliquée de telle sorte qu’elle ruine la loi qui installe son fonctionnement. On pourra donc, si l’hypothèse est valide, supposer que la transgression ne sera poussée que jusqu’au moment où elle pourrait s’abolir en indifférenciation et en indifférence sociale. Un scénario de test expérimental peut alors être imaginé : certaines configurations sont a priori exclues du fait qu’elles conduiraient à la ruine de l’objectif de reconnaissance sociale ; il suffit de les construire et de regarder si elles sont avérées.

Or, dans cette partie effrénée de main-chaude et de surenchère à la poursuite de l’originalité, il arrive nécessairement un moment où l’impératif d’originalité aboutit à faire de la non-originalité quelque chose d’original. Après avoir épuisé le cercle des transgressions possibles, les artistes sont inévitablement amenés à redécouvrir les vertus de la copie pure et simple, prise cette fois au second et au troisième degrés. Il finissent par inventer une manière originale de ne pas être original – on peut citer le cas du copy art de Tinguely. Mais un cas limite apparaît : le comble de la copie, de la non-originalité redécouverte, serait en effet de s’en prendre à la fois à la personnalisation de l’œuvre et à sa nouveauté. Ce serait de produire quelque chose d’impersonnel (comme l’a parfois fait Warhol), et aussi quelque chose qui a déjà été fait (comme le fait Aubertin en décidant de devenir peintre monochrome après Yves Klein). Peut-on trouver des réalisations qui satisfont ces deux conditions ? Si oui, alors l’hypothèse est falsifiée. Il se trouve que ces deux conditions ne sont jamais réunies – si on produit quelque chose d’impersonnel, il faut que ce soit nouveau c’est-à-dire remarquable; si on produit quelque chose de déjà vu, il faut que ce soit sous une signature originale c’est-à-dire digne d’être remarquée. La réunion des deux conditions « pousserait à son extrême limite la transgression de l’impératif d’originalité, mais aurait l’inconvénient de condamner l’intéressé à une totale obscurité » (p. 139), c’est pourquoi elle ne se produit jamais parce qu’elle contredirait la fonction de la transgression.

Cette revue abondamment illustrée conduit à une conclusion que l’on peut énoncer sous une forme restreinte : les frontières de l’art reculent sans cesse de façon structurelle. Mais elle peut s’énoncer aussi sous forme plus générale : l’art contemporain, de ce point de vue, est plus proche d’une iconolâtrie que d’un iconoclasme – l’adoration de l’art fait qu’il peut s’étendre partout et à tout ; il ne forme plus monde, mais s’étend à tout l’univers. J’y ajouterai une formulation philosophique en forme de problème. On peut se demander si cette abolition de la distinction entre le monde ordinaire et le monde de l’art, entre le réel ordinaire et un réel second, n’aboutit pas à un univers sans issue – qu’il s’agisse d’une logique de cauchemar ou d’une logique de rêve – duquel tout point de fuite est exclu. Ce jeu transgressif serait à lui-même sa propre dupe en produisant comme sa limite une absence de jeu : à force de vouloir se libérer, l’impératif de libération devient lui-même un étouffoir.

À ces formes de transgression s’articulent des formes de réaction du public, qui vont de l’indifférence à l’interrogation et au rejet – lequel peut être profane ou savant. Cette seconde partie est peut-être la moins excitante de l’ouvrage, du fait qu’elle répète parfois la première, notamment dans l’analyse des formes de vandalisme. On y rencontre sous d’autres formes le problème posé par la fusion entre l’art et le monde de la vie ordinaire – fusion prise à la lettre par les « récepteurs » et parfois plus ironiquement qu’on ne pourrait le supposer au premier abord. Ainsi cet exemple, rapporté et analysé par Thierry De Duve, d’un peintre en bâtiment canadien parodiant une œuvre de Barnett Newman intitulée Voice of Fire sous le titre Voice of Taxpayer ; ou celui d’une éponge ménagère oubliée dans une salle du Carré d’art à Nîmes et déclenchant la perplexité des conservateurs ; ou encore celui d’une installation vidéo jetée à la décharge par un jardinier lors d’une exposition à Bienne en 1980.

 

Un art assujetti à son propre impératif de transgression

Quant à la troisième partie, consacrée aux mécanismes d’intégration – qui une fois engagés emballent le moteur d’une transgression toujours plus poussée -, j’en retiendrai avant tout une idée décapante, qui va contre une doxa tenace.

Dans la course à la reconnaissance, les prescripteurs occupent évidemment une fonction clé. Or il se trouve que parmi ces prescripteurs – en position de dire « c’est de l’art » et d’être entendus – les plus efficaces, les plus pertinents, les plus puissants ne sont pas tant les critiques (tout de même assez bien placés) et les galeries d’art que les institutions publiques. On est renvoyé à la forme la plus exécrée de l’autorité, en l’occurrence l’autorité de la cité – osons les « gros mots » : l’autorité politique… C’est par le musée et la subvention publique que passe l’adoubement. La logique d’avant-garde, loin de se définir comme on serait tenté de le croire par une rébellion contre l’autorité et la commande publiques, en recherche au contraire la faveur (p. 274).

Cela rompt bien sûr, comme le souligne l’auteur, avec le schéma romantique de l’artiste en marge des salons officiels, mais je me permets de suggérer que la rupture est encore plus spectaculaire et intéressante avec le schéma classique. Si Richelieu avait bien pensé à reconnaître l’activité artistique, il ne poussait pas l’absolutisme jusqu’à considérer qu’il était en son pouvoir, par cette reconnaissance même, de faire exister l’art. Et la pratique de la commande publique par Louis XIV, si elle a entraîné des effets discriminants bien connus, n’a jamais prétendu s’exercer au-delà de cette frontière ontologique : le souverain, s’il avait le pouvoir de faire connaître l’existence de l’art et plus particulièrement celle de tel art plutôt que celle de tel autre ; celle de tel artiste plutôt que celle de tel autre, n’avait pas en revanche celui de faire exister l’art en lui-même, considéré alors comme toujours préexistant à l’autorité qui le couronne, du moins ontologiquement. La pensée de l’art à l’âge classique est nette sur ce point, et l’Art poétique de Boileau propose (dans ses derniers vers) un concept de la censure qui n’a de sens que négativement et a posteriori, en cela complètement symétrique du concept de génie (abordé par les premiers vers du poème). Or la censure / reconnaissance telle qu’elle est pratiquée par les institutions publiques contemporaines semble bien être l’inverse de celle dont parle Boileau : au lieu de s’exercer sur les défauts et a posteriori, elle se fonde sur des exigences positives et a priori parmi lesquelles figure en place décisive l’obligation de transgression.

On pourra ici reprendre l’exemple d’une œuvre figurative refusée par une commission chargée d’attribuer la manne de l’argent public, non pas au motif qu’elle est figurative, mais parce que l’artiste la présente « au premier degré » sans intention ironique de dérision et de transgression de formes préexistantes.

« C’est ainsi qu’un projet à base de portraits figuratifs, accueilli tout d’abord favorablement [par une commission d’experts], a été rejeté violemment par la commission dès lors que la confrontation du rapporteur avec la personne de l’artiste a fait apparaître l’absence de référence à l’art contemporain et d’intention parodique, disqualifiant l’ensemble du projet artistique comme inauthentique, voire frauduleux : l’artiste n’était authentique qu’au premier degré, croyant naïvement à l’intérêt de peindre des visages sur une toile, sans distance, sans malice ; mais il était inauthentique au second degré, faute de références explicites à la tradition parodique de l’art contemporain ; ainsi cette distance ironique, voire cynique, avec sa propre pratique, qui serait un défaut rédhibitoire en régime de singularité de premier degré (paradigme moderne), devient une indispensable qualité dans ce régime de singularité au second degré qu’est le paradigme contemporain. » [p. 299]

 

Conclusion : une inquiétante permissivité

Je prendrai appui sur cette remarque, qui oppose positivité et négativité, pour conclure sur ce qui me semble être le prolongement philosophique le plus intéressant de cet ouvrage, qui en fait aussi un livre de philosophie morale et politique. On y retrouve de manière nouvelle et inattendue une thèse classique notamment méditée par Hegel dans ses Principes de la philosophie du droit, mais plus récemment élucidée par la réflexion fondée sur la théorie freudienne : l’énonciation de la norme en termes positifs de prescription ou d’autorisation ou encore de permission est profondément contraire à la liberté ; il est plus libérateur d’interdire que d’autoriser. Sans interdit et sans rapport conflictuel et négatif à la loi, la liberté se retourne en fardeau.

Or on voit ici comment cette thèse se noue étroitement à la question de l’art, en tant que celui-ci pose le problème de l’existence d’un monde fictif, et comment par conséquent esthétique et morale s’entrecroisent. De même que l’abolition de toute limite entre monde ordinaire et monde fictif tend à l’extension infinie d’une hyperréalité qui rend tout point de fuite impossible et toute position critique inaccessible ou vaine, de même la transgression, dès qu’elle est traduite en prescription, efface la loi et tue l’effet de liberté qu’elle était censée produire. Nathalie Heinich propose en ce sens quelques pages très fortes sur ce qu’elle appelle « le paradoxe de la permissivité » (p. 338 et suiv.). Elle rejoint par là quelques réflexions actuelles – je pense surtout aux psychanalystes4 – sur un inquiétant phénomène contemporain d’aplanissement des différents mondes sans lesquels il n’y a pas de vie humaine, mondes fondés nécessairement sur des fonctions séparatrices. Ces mondes, qui rendent la vie respirable en même temps que pathétique, s’estompent sous les coups de boutoir de la permissivité et fusionnent en un univers indéfini, un bric-à-brac lisse où l’omniprésence du sexe abolit la sexualité, où l’omniprésence de l’humanitaire abolit l’humanité, où il est mal vu d’avoir une autre passion que celle des droits de l’homme et celle de la féroce charité (c’est-à-dire où l’on ne peut s’enthousiasmer que pour la réalité telle qu’elle est), où la génuflexion obligée envers le prochain récuse la reconnaissance critique du semblable, où la communauté abolit la cité, où la condition humaine se résorbe en machine neuronale, où la transparence des cœurs verrouille tout recul en le rendant suspect5. Le règne sans partage du permis, du positif, de la transparence, de l’univocité, rend les gens fous car il ne leur laisse d’autre choix que celui, impossible, de se libérer de leur propre liberté.

 

Notes

1 – Voir le détail et la réponse de Nathalie Heinich à ses détracteurs pétitionnaires : http://revuelimite.fr/tribune-nathalie-heinich-contre-la-meute.
Article de Libération sur le sujet http://www.liberation.fr/debats/2017/07/09/sociologie-et-homophobie-un-prix-et-une-discorde_1582689  

2 – Le Verrier prédit la présence de Neptune pour l’observateur, mais Neptune existait néanmoins avant cette prédiction . Ce serait une erreur, dit Pascal (préface au Traité du vide) « de croire que la vérité a commencé d’être au temps qu’elle a commencé d’être connue ».

3 –  Voir l’ouvrage de Françoise Héritier Les Deux sœurs et leur mère, Paris : O. Jacob, 1994 qui offre un choix exemplaire de procédures rigoureuses de falsification autour d’une hypothèse, et dont on s’étonne qu’il n’ait pas davantage retenu l’attention des historiens des sciences.

4 – Voir notamment Elisabeth Roudinesco Pourquoi la psychanalyse ? Paris : Fayard, 1999.

5 – Je m’appuie ici sur la lecture comparée des grands critiques du théâtre, notamment Nicole (Traité de la comédie), Bossuet (Maximes et réflexions sur la comédie) et bien sûr J.-J. Rousseau (Lettre à d’Alembert sur les spectacles). Voir l’article Bossuet, Nicole et Rousseau

© Catherine Kintzler, Mezetulle, 2006 et 2017.