|
|
| . |
|
||||||
| Histoire de la philosophie > La philosophie contemporaine > La philosohie analytique |
| La philosophie analytique du langage |
| La
philosophie
analytique du langage s'est constituée au tournant du XXe
siècle comme une tentative de traiter les problèmes philosophiques Ã
partir d'une analyse rigoureuse du langage. Elle repose sur l'idée que
nombre de difficultés traditionnelles (en métaphysique, en épistémologie
ou en logique) proviennent d'une mauvaise compréhension de la structure
linguistique ou de l'usage des mots. Plutôt que de spéculer directement
sur le monde, les philosophes analytiques proposent d'examiner les énoncés
par lesquels nous en parlons, en considérant que clarifier le langage
revient souvent à dissoudre les pseudo-problèmes.
Dans son ensemble, la philosophie analytique du langage se caractérise par un recours fréquent aux outils logiques, et une attention constante aux usages effectifs du langage. Elle ne constitue pas un système unifié, mais plutôt un ensemble de méthodes et de problématiques centrées sur l'analyse des conditions de signification, de vérité et de communication. Son évolution montre un déplacement progressif d'une conception formaliste vers une approche pragmatique et contextualiste, tout en conservant l'idée directrice selon laquelle comprendre le langage est une voie privilégiée pour éclairer les problèmes philosophiques. La notion de sens et de référence constitue l'un des pivots de cette approche. Introduite de manière systématique par Gottlob Frege, elle distingue entre le contenu cognitif d'une expression (ce qu'elle "veut dire") et l'objet auquel elle renvoie dans le monde. Cette distinction permet d'expliquer des phénomènes comme la valeur informative des identités (" l'étoile du matin est l'étoile du soir") ou encore les échecs de substitution dans des contextes dits opaques. Elle fonde une sémantique où comprendre une expression, ce n'est pas seulement connaître son référent, mais saisir la manière dont ce référent est donné. La théorie des descriptions définies, développée par Bertrand Russell, propose une analyse logique des énoncés comportant des expressions du type "le roi de France". Plutôt que de supposer que ces expressions réfèrent directement à des objets, Russell montre qu'elles peuvent être paraphrasées en structures quantifiées plus complexes. Cela permet de traiter des énoncés apparemment problématiques (comme ceux qui portent sur des entités inexistantes) sans postuler l'existence de référents fictifs. Cette approche illustre une méthode centrale de la philosophie analytique : dissoudre les problèmes en reformulant les énoncés dans une logique plus rigoureuse. La conception vériconditionnelle du sens affirme que comprendre une proposition revient à connaître les conditions dans lesquelles elle serait vraie ou fausse. Cette idée, héritée en partie du premier Ludwig Wittgenstein et développée dans diverses formes ultérieures, fait du concept de vérité un élément central de la signification. La sémantique devient alors une théorie des conditions de vérité, où l'analyse linguistique se rapproche de la logique formelle. Cette perspective a été formalisée notamment dans les travaux d'Alfred Tarski, qui propose une définition rigoureuse de la vérité pour les langages formalisés. La distinction entre langage objet et métalangage est également essentielle. Elle permet d'éviter des paradoxes comme celui du menteur en séparant le langage dans lequel on parle du monde de celui dans lequel on parle du langage lui-même. Cette hiérarchie des niveaux linguistiques est cruciale pour toute théorie formelle de la vérité et de la signification, et elle structure une grande partie des recherches en logique et en sémantique formelle. La critique de la distinction analytique/synthétique, formulée par W. V. O. Quine, remet en question l'idée qu'il existe des vérités fondées uniquement sur le sens des mots indépendamment de l'expérience. Selon Quine, nos énoncés forment un réseau interconnecté confronté globalement à l'expérience, et non un ensemble de propositions isolées. Ce holisme sémantique implique que la signification d'un terme dépend de sa place dans l'ensemble du langage et des théories auxquelles il appartient, ce qui rend problématique toute tentative de définition strictement locale du sens. La théorie des actes de langage introduit une dimension pragmatique dans l'analyse. Avec J. L. Austin puis John Searle, on distingue entre ce qui est dit (contenu propositionnel) et ce qui est fait en le disant (acte illocutoire). Un énoncé peut ainsi être une promesse, un ordre, une déclaration, indépendamment de sa structure grammaticale. Cette théorie met en évidence que la signification ne peut pas être entièrement comprise sans référence aux intentions du locuteur et aux conventions sociales qui régissent les interactions linguistiques. La notion de jeux de langage, développée par le second Ludwig Wittgenstein, insiste sur la diversité des usages linguistiques. Le langage n'est pas un système homogène régi par une essence unique, mais un ensemble de pratiques variées liées à des formes de vie. Le sens d'un mot est son usage dans le langage, et comprendre ce sens revient à maîtriser les règles implicites qui gouvernent son emploi. Cette approche s'oppose à toute tentative de réduction du langage à une structure logique unique. La distinction entre référence directe et descriptivisme est au cœur des débats contemporains, notamment avec les travaux de Saul Kripke. Contre l'idée que les noms propres sont équivalents à des descriptions définies, Kripke soutient qu'ils fonctionnent comme des désignateurs rigides : ils renvoient au même objet dans tous les mondes possibles où cet objet existe. Cette théorie introduit des notions modales dans la philosophie du langage et montre que certaines vérités nécessaires peuvent être connues a posteriori. La notion d'intension et d'extension permet de distinguer entre le contenu conceptuel d'un terme (son intension) et l'ensemble des objets auxquels il s'applique (son extension). Cette distinction est particulièrement importante dans les contextes modaux et les langages intensionalisés, où deux expressions peuvent avoir la même extension sans être interchangeables dans tous les contextes. Elle prolonge et systématise les intuitions issues de Frege et des développements ultérieurs en logique modale. Enfin, la question de l'indétermination de la traduction, également associée à W. V. O. Quine, met en lumière les limites de toute théorie du sens fondée sur des correspondances fixes entre mots et objets. Selon cette thèse, plusieurs traductions incompatibles peuvent être également compatibles avec l'ensemble des données comportementales disponibles. Cela suggère que la signification n'est pas une entité déterminée de manière unique, mais dépend de choix théoriques et interprétatifs. Jalons historiques.
Russell reprend l'héritage fregéen et l'infléchit dans une direction nouvelle. Profondément préoccupé par les entités problématiques que le langage ordinaire semble postuler (le roi actuel de France, le carré rond, la montagne d'or), il développe en 1905 sa célèbre théorie des descriptions définies, exposée dans l'article On Denoting. Une description comme "e roi actuel de France est chauve" ne doit pas être analysée comme attribuant une propriété à un individu existant : elle se décompose logiquement en une série de quantifications. Il existe quelque chose qui est roi de France, une seule chose l'est, et cette chose est chauve. La phrase est ainsi fausse, mais elle n'est pas dépourvue de sens, et elle n'impose pas l'existence d'une entité mystérieuse. C'est la méthode de l'analyse logique : dissoudre les apparences grammatiques trompeuses en formes logiques transparentes. Moore, contemporain
de Russell à Cambridge, apporte une sensibilité différente. Moins technicien,
plus attentif au sens commun, il pratique une philosophie du langage fondée
sur la clarification conceptuelle et la résistance aux paradoxes des idéalistes.
Sa défense du réalisme ordinaire, son attention aux nuances du discours
quotidien, préfigurent ce que l'on appellera plus tard la philosophie
du langage ordinaire. Mais c'est Russell et, bientôt, Wittgenstein qui
dominent la scène cambridgienne.
Le Cercle de Vienne s'empare du Tractatus avec un enthousiasme qui en déforme quelque peu l'esprit. Schlick, Carnap, Neurath et leurs collègues voient dans l'œuvre de Wittgenstein une confirmation de leur empirisme logique : seules les propositions vérifiables empiriquement ou analytiquement vraies ont un sens; la métaphysique traditionnelle est un ensemble de pseudo-propositions, dépourvues de signification cognitive. Le principe de vérifiabilité devient le couteau avec lequel on entend trancher entre le sens et le non-sens. Carnap radicalise cette position dans son article de 1932 "Dépassement de la métaphysique par l'analyse logique du langage" : les énoncés de Heidegger, par exemple, ne sont pas faux, ils sont littéralement vides de sens. Cette position, malgré son attrait polémique, se heurte rapidement à une difficulté : le principe de vérifiabilité lui-même ne semble pas vérifiable empiriquement. Les positivistes logiques passeront des décennies à le reformuler sans jamais trouver de version entièrement satisfaisante. Pendant ce temps, Wittgenstein lui-même commence à douter de son œuvre de jeunesse. De retour à Cambridge dans les années 1930 après une longue retraite, il développe une pensée radicalement différente, qui ne sera publiée qu'après sa mort sous le titre Recherches philosophiques (1953). La théorie picturale s'effondre : le langage n'est pas une image du monde, il est une multitude de pratiques sociales, de jeux de langage (Sprachspiele), chacun obéissant à ses propres règles, aucun n'étant plus fondamental que les autres. La signification d'un mot n'est pas un objet qu'il désigne ni une image mentale qu'il évoque : c'est son usage dans la pratique. "La signification d'un mot est son usage dans le langage". Cette formule inaugurale transforme complètement les données du problème. Comprendre un langage, ce n'est pas décoder des représentations; c'est maîtriser une forme de vie. Les Recherches introduisent aussi l'argument contre le langage privé, l'un des passages les plus commentés de toute la philosophie du XXe siècle. Wittgenstein montre qu'un langage dont les règles seraient purement privées (où chaque terme ne renverrait qu'à une sensation intérieure inaccessible aux autres) serait en réalité impossible. Car sans critère public de correction, rien ne distinguerait suivre une règle de croire seulement la suivre. Le langage est constitutif de la forme de vie sociale ; il ne peut pas être une affaire purement individuelle. Saul Kripke proposera en 1982 une lecture sceptique de cet argument : Wittgenstein n'apporterait pas une solution au paradoxe du suivi de règles, il montrerait seulement qu'une réponse sceptique communautaire (nous suivons une règle quand notre usage concorde avec celui de la communauté) est la seule réponse praticable. Cette interprétation, très contestée, déclenche une littérature colossale. La philosophie du langage ordinaire, qui s'épanouit à Oxford dans les années 1940 et 1950, s'inscrit dans le sillage du second Wittgenstein tout en développant ses propres méthodes. Gilbert Ryle publie en 1949 Le Concept d'esprit où il démonte ce qu'il appelle le "dogme du fantôme dans la machine" : la conception cartésienne de l'esprit comme substance séparée du corps repose sur une erreur catégorielle, une confusion entre des concepts appartenant à des niveaux logiques différents. John Langshaw Austin, peut-être le plus méticuleux de ce groupe, pratique une philosophie du langage fondée sur l'attention extrêmement patiente aux distinctions que le langage ordinaire a sécrétées au fil des siècles. Dans Quand dire c'est faire (How to Do Things with Words, 1962, publié posthumément), il élabore la théorie des actes de langage : toute énonciation accomplit quelque chose au-delà de la description d'un état de choses. Il distingue l'acte locutoire (dire quelque chose), l'acte illocutoire (faire quelque chose en le disant : promettre, ordonner, déclarer) et l'acte perlocutoire (produire un effet sur l'interlocuteur). Cette tripartition va structurer durablement la pragmatique linguistique. Paul Grice, lui aussi issu de l'école oxfordienne, inaugure dans les années 1960 et 1970 une théorie de la communication fondée sur la rationalité coopérative. Dans son article Logic and Conversation (1975), il pose le principe de coopération : les interlocuteurs contribuent aux échanges selon les buts et la direction que ceux-ci requièrent. De ce principe découlent quatre maximes (quantité, qualité, relation, manière) dont la violation délibérée et manifeste produit des implicatures conversationnelles : des contenus communiqués sans être littéralement dits. Quand quelqu'un dit "Pierre sait jouer du piano" en réponse à une question sur sa cuisine, l'implicature est claire : Pierre ne cuisine pas bien. La pragmatique gricéenne ouvre une brèche entre le sens linguistique et le sens communicationnel qui alimentera des décennies de recherche. De l'autre côté de l'Atlantique, la philosophie analytique du langage prend un tour différent sous l'influence de Willard Van Orman Quine. Dans Two Dogmas of Empiricism (1951), Quine s'attaque aux deux présupposés fondamentaux de l'empirisme logique : la distinction analytique/synthétique et le réductionnisme (l'idée que chaque énoncé peut être confronté séparément à l'expérience). Pour Quine, cette distinction n'est pas tenable : il n'existe pas de vérités purement analytiques, vraies indépendamment de tout fait, car les notions de synonymie et d'analyticité sont circulaires. Et les énoncés ne font pas face à l'expérience un par un mais en blocs, comme une toile de croyances (web of belief) dont les noeuds périphériques sont plus directement en contact avec l'expérience que les noeuds centraux, logique et mathématiques comprises. Cette thèse dite de holisme confirmationnel ou thèse Duhem-Quine ébranle le projet positiviste dans ses fondements. Quine va plus loin encore avec sa doctrine de l'indétermination de la traduction, exposée dans Le Mot et la Chose (Word and Object, 1960). Considérons un linguiste qui tente de traduire le langage d'une tribu inconnue à partir du seul comportement verbal observé. Quand un locuteur dit "gavagai" en voyant un lapin, le linguiste ne peut pas savoir si ce terme signifie "lapin", "partie de lapin non détachée", "stade temporel de lapin" ou toute autre hypothèse compatible avec le comportement observable. Il n'existe aucun fait objectif qui fixerait la bonne traduction : toute traduction est une hypothèse parmi d'autres, et plusieurs traductions incompatibles peuvent être également adéquates à tous les faits comportementaux. L'indétermination du sens est radicale. Cette position, souvent comparée au relativisme bien qu'elle en diffère, heurte l'intuition commune avec une force provocatrice. Donald Davidson, élève et interlocuteur privilégié de Quine, accepte certaines de ses conclusions tout en les retournant dans une direction différente. Dans Truth and Meaning (1967), il propose de construire une théorie du sens comme une théorie de la vérité au sens de Tarski : comprendre la signification d'une phrase, c'est savoir dans quelles conditions elle est vraie. Ce programme sémantique, dit programme davidsonnien, ne prétend pas réduire le sens à la vérité, mais utiliser les conditions de vérité comme véhicule de la signification. Davidson rejette aussi le schéma dualiste entre un schème conceptuel et un contenu (l'idée que des esprits ou des cultures différents peuvent organiser différemment une même réalité brute : il n'y a pas de réalité non conceptualisée à laquelle différents schèmes correspondraient diversement). Ce rejet du relativisme conceptuel le distingue nettement des lectures relativistes de Quine. Tandis que Davidson travaille à Cambridge et Princeton, une révolution s'opère en sémantique formelle sous l'impulsion de Richard Montague. Contre le second Wittgenstein et l'école du langage ordinaire, Montague soutient qu'il n'existe pas de différence de principe entre les langues naturelles et les langages formels : les premières sont susceptibles de recevoir une sémantique rigoureuse dans le cadre de la logique intensionnelle. Sa grammaire, développée entre 1968 et 1973, fonde la sémantique compositionnelle moderne : le sens d'une expression complexe est une fonction déterminée du sens de ses parties et de la manière dont elles se combinent. Ce principe de compositionnalité, souvent associé à Frege qui en avait déjà l'intuition, devient le credo de la sémantique formelle. Le débat sur la référence connaît un tournant décisif dans les années 1970 avec les travaux de Saul Kripke et Hilary Putnam. Contre la théorie descriptiviste héritée de Frege et Russell , selon laquelle un nom propre signifie la description que l'on associe à son porteur. Kripke défend dans La Logique des noms propres (Naming and Necessity, 1980, tiré de conférences de 1970) une théorie causale-historique de la référence. Un nom propre comme "Aristote" ne signifie pas "le philosophe grec qui fut le précepteur d'Alexandre et l'auteur de l'Éthique à Nicomaque" : il réfère directement à l'individu, grâce à une chaîne causale qui remonte à l'acte initial de baptême ou de désignation. Si toutes les descriptions associées à Aristote s'avéraient fausses, il n'en resterait pas moins que le nom réfère à cet individu particulier, et non à quiconque satisferait ces descriptions. Kripke introduit aussi la notion de désignateur rigide : un terme qui désigne le même individu dans tous les mondes possibles où cet individu existe. Les noms propres et les termes d'espèces naturelles ("eau", "or", "tigre") sont des désignateurs rigides. "Eau" désigne H2O dans tous les mondes possibles, même si dans certains mondes les habitants ignorent cette composition chimique. Hilary Putnam développe de son côté la thèse que la signification n'est pas dans la tête : deux individus psychologiquement identiques, dont l'un vit sur Terre et l'autre sur une Terre Jumelle où la substance qui ressemble à l'eau est XYZ, auront les mêmes états mentaux mais des significations différentes pour le mot "eau". La signification dépend de l'environnement externe, pas seulement des états internes du locuteur. L'externalisme sémantique est né. Ces positions soulèvent immédiatement un problème pour la philosophie de l'esprit : si le sens est externe, comment rend-on compte du rapport entre signification et contenu mental? Le débat entre internalisme et externalisme, qui traverse toute la philosophie du langage et de l'esprit des années 1980 et 1990, ne se conclut pas facilement. Tyler Burge radicalise encore l'externalisme avec ses expériences de pensée sur l'arthrite : un individu qui croit souffrir d'arthrite dans les muscles (alors que l'arthrite ne touche que les articulations) a des pensées différentes d'un individu vivant dans une communauté où "arthrite" désigne aussi les douleurs musculaires, et ce, même si leurs états cérébraux sont identiques. Dans les années 1980 et 1990, la pragmatique prend une place croissante. Les travaux de Dan Sperber et Deidre Wilson proposent avec leur théorie de la pertinence (1986) une alternative à la pragmatique gricéenne : la communication ne repose pas sur le respect de maximes conventionnelles, mais sur un seul principe cognitif : les êtres humains traitent de l'information de manière à maximiser la pertinence, c'est-à -dire l'effet cognitif obtenu pour le moindre coût de traitement. Ce cadre unificateur entend rendre compte de toutes les inférences pragmatiques (implicatures, ironie, métaphore, ostension) dans un seul mécanisme. John Searle, élève d'Austin, poursuit et systématise la théorie des actes de langage dans Les Actes de langage (1969) et Sens et expression (1979). Il distingue le sens littéral de l'énoncé et la force illocutoire, affine la taxinomie des actes illocutoires et examine les actes de langage indirects, cas où ce qui est dit est différent de ce qui est accompli, comme "Pouvez-vous me passer le sel?" qui est grammaticalement une question mais illocutoirement une requête. Searle développe aussi une théorie de l'intentionnalité qui ancre la philosophie du langage dans la philosophie de l'esprit : les actes de langage sont des expressions d'états intentionnels dont ils héritent les conditions de satisfaction. La fin du XXe siècle voit s'affronter deux grandes orientations. D'un côté, la sémantique formelle et la philosophie du langage de tradition logique (Montague, David Lewis, Robert Stalnaker, Scott Soames) qui travaillent sur les opérateurs modaux, les contextes, les attitudes propositionnelles et les énoncés indexicaux dans un cadre rigoureusement formel. De l'autre, la tradition pragmatique et cognitive ( Sperber et Wilson, mais aussi les philosophes du langage ordinaire tardifs et les théoriciens du discours) qui insistent sur le rôle du contexte, des intentions et de la cognition dans la constitution du sens. Le minimalisme sémantique (la thèse que les conditions de vérité sont déterminées par la seule sémantique, sans recours à la pragmatique) s'oppose au contextualisme, selon lequel le contexte pénètre la sémantique elle-même jusque dans les énoncés les plus simples. Jason Stanley et Zoltán Szabó représentent un courant qui tente de réconcilier ces tensions par une sensibilité précise à la structure syntaxique des langues naturelles : les phénomènes que les contextualistes attribuent à des processus pragmatiques libres seraient en réalité la réalisation de variables cachées dans la syntaxe. Ce programme de sémantique des variables cachées fait le pont entre la linguistique formelle et la philosophie du langage. Au tournant du XXIe siècle, François Recanati propose une distinction entre le contenu minimal d'une phrase (le sens littéral, indépendant du contexte) et le contenu exprimé (ce que la phrase dit dans un contexte donné), en soutenant que des processus pragmatiques primaires, non conscients, non inférentiels, façonnent ce contenu exprimé. Cette théorie du sens littéral et de la modulation contextuelle offre un cadre plus souple que la dichotomie rigide entre sémantique et pragmatique. La philosophie analytique du langage du XXIe siècle est traversée par des questionnements nouveaux. L'essor des sciences cognitives et des neurosciences amène certains philosophes (Paul and Patricia Churchland, mais aussi des théoriciens plus proches de la tradition analytique comme Mark Johnson et George Lakoff) à enraciner la sémantique dans la cognition incarnée et les structures métaphoriques de la pensée. La philosophie du langage social, explorée par Sally Haslanger et Rae Langton notamment, examine comment les mots forgent des réalités sociales, catégorisent, incluent ou excluent : comment le discours peut être performatif au sens fort, constituant des identités et des hiérarchies. Le discours de haine, la pornographie, les stéréotypes véhiculés par le langage deviennent des objets philosophiques légitimes dans la tradition analytique, qui s'enrichit ainsi d'une dimension politique et éthique longtemps absente. |
| . |
|
|
|
|||||||||||||||||||||||||||||||
|