.
-

Histoire de la philosophie > La philosophie contemporaine
La philosophie analytique
La philosophie analytique est une approche philosophique qui s'est développée principalement à partir du début du XXe siècle, émergeant d'une réflexion sur la nature du langage et des problèmes philosophiques liés à la logique. Cette approche, qui n'est pas un ensemble de doctrines unifiées, se déploie selon différentes perspectives. Elle a ses racines dans les travaux de philosophes tels que Bertrand Russell et G. E. Moore, et elle a été largement influencée par les développements de la logique symbolique et a eu, à son tour, une influence significative dans le monde anglophone où elle a contribué au développement de domaines interdisciplinaires tels que la philosophie du langage, la philosophie de l'esprit et la philosophie des sciences.

Les philosophes analytiques se concentrent sur l'analyse du langage, considérant que beaucoup de problèmes philosophiques résultent d'une confusion linguistique. Ils croient que de nombreux débats philosophiques peuvent être clarifiés en examinant attentivement la signification des termes utilisés. Ils mettent également l'accent sur la rigueur logique et l'utilisation de la logique symbolique pour résoudre des problèmes philosophiques. La clarté formelle est considérée comme essentielle pour parvenir à des conclusions philosophiques valables.

La philosophie analytique se montre sceptique à l'égard de la métaphysique spéculative, privilégiant plutôt une approche plus concrète et pragmatique pour aborder les problèmes philosophiques. Elle tend ainsi à adopter une approche empiriste, s'appuyant sur l'observation et l'expérience comme sources de connaissance. Elle favorise également  une approche réaliste, considérant que le monde extérieur existe de manière indépendante de notre pensée.

La genèse de la philosophie analytique.
Les précurseurs.
À la fin du XIXe siècle, une transformation profonde de la philosophie européenne s'amorce autour d'un déplacement méthodologique : au lieu de fonder la connaissance sur la psychologie ou l'introspection, certains penseurs cherchent à établir des structures objectives du sens, de la logique et de la pensée. Bernard Bolzano, Franz Brentano et Gottlob Frege jouent un rôle décisif dans cette mutation, chacun à partir d'un angle distinct, mais convergent vers ce qui deviendra la philosophie analytique, avec plusieurs thèses structurantes de la philosophie analytique : l'autonomie de la logique par rapport à la psychologie (Bolzano et Frege), l'analyse du contenu intentionnel et de la relation à l'objet (Brentano), et la centralité du langage comme moyen d'élucidation philosophique (Frege).

Chez Bolzano (1781-1848), l'élément déterminant est son antipsychologisme radical. Dans sa Wissenschaftslehre (Philosophie des sciences, 1837), il s'oppose explicitement à l'idée selon laquelle les lois logiques seraient dérivées des lois psychologiques de la pensée. Pour lui, la logique doit être une discipline normative et objective, indépendante des processus mentaux empiriques. Il introduit ainsi la notion de propositions en soi (Sätze an sich), qui existent indépendamment de leur formulation linguistique et de leur appréhension par un sujet. Ces entités abstraites permettent de penser la vérité comme quelque chose d'objectif : une proposition est vraie ou fausse indépendamment du fait qu'elle soit pensée ou connue. Cette thèse anticipe directement la distinction ultérieure entre contenu propositionnel et actes mentaux. Bolzano développe également une théorie de la conséquence logique fondée sur des relations d'inclusion de contenu, préfigurant des approches formelles de la validité. En séparant strictement logique et psychologie, il ouvre la voie à une conception formaliste et objective de la logique qui sera centrale dans la tradition analytique.

Brentano (1838-1917), quant à lui, adopte une démarche presque opposée en apparence, mais qui s'avère complémentaire. Dans sa Psychologie du point de vue empirique (1874), il cherche à fonder la philosophie sur une analyse rigoureuse de l'expérience mentale. Sa thèse fondamentale est celle de l'intentionnalité : tout phénomène psychique est caractérisé par le fait d'être "dirigé vers" un objet. Penser, juger, aimer ou percevoir implique toujours une référence à quelque chose, que cet objet existe réellement ou non. Cette propriété distingue radicalement les phénomènes psychiques des phénomènes physiques. Brentano inaugure ainsi une "psychologie descriptive" qui vise à décrire les structures essentielles de la conscience sans recourir à des explications causales ou naturalistes. Si cette approche semble psychologisante, elle a en réalité une portée structurale : l'intentionnalité devient un concept clé pour analyser le rapport entre langage, pensée et monde. Elle influencera profondément des figures comme Husserl, mais aussi, indirectement, la philosophie analytique via la problématique de la référence et du contenu mental. Brentano contribue ainsi à clarifier la structure des actes mentaux, ce qui permettra ensuite de distinguer plus nettement, chez les analytiques, entre l'acte de penser et le contenu pensé.

Avec Frege (1848-1925), on assiste à une systématisation rigoureuse de ces intuitions dans le cadre de la logique formelle et de la philosophie du langage. Son projet est explicitement antipsychologiste : dans les Fondements de l'arithmétique (1884) et surtout dans ses articles logiques, il combat l'idée que les lois logiques soient des généralisations empiriques sur la manière dont les humains pensent. Pour lui, la logique exprime des lois objectives de la vérité. Il introduit une innovation conceptuelle majeure avec la distinction entre sens (Sinn) et dénotation (Bedeutung). Le sens d'une expression est le mode de donation de son référent, tandis que la dénotation est l'objet lui-même. Cette distinction permet de résoudre des problèmes classiques d'identité et de référence, notamment dans les énoncés informatifs du type a = b. Deux expressions peuvent avoir la même dénotation tout en ayant des sens différents, ce qui explique leur valeur cognitive distincte. Frege élabore également le principe du contexte, selon lequel le sens d'un mot ne peut être compris qu'à l'intérieur d'une proposition complète. Cela marque un tournant décisif vers l'analyse logique du langage : la priorité n'est plus donnée aux termes isolés, mais à la structure propositionnelle. Enfin, son invention d'un langage formel, la notation conceptuelle (Begriffsschrift) pose les bases de la logique moderne, en introduisant une notation permettant de représenter explicitement les relations logiques et les quantificateurs.

Le tournant linguistique.
C'est Bertrand Russell (1872-1970) qui, avec G. E. Moore (1873-1958), opère la rupture fondatrice. Tous deux se rebellent au tournant du siècle contre l'idéalisme britannique dominant, celui de Bradley et de McTaggart, qui dissolvait la réalité dans les relations internes et noyait les objets particuliers dans l'Absolu.

Moore défend avec véhémence le sens commun et la réalité des choses ordinaires; Russell s'attaque au problème de la dénotation. Sa théorie des descriptions définies, publiée en 1905 dans l'article On Denoting, devient le modèle même de l'analyse philosophique : montrer qu'une expression grammaticalement simple cache une structure logique complexe, et que la forme de surface du langage trompe sur la forme réelle de la pensée. L'expression "le roi de France est chauve" n'affirme pas l'existence d'un roi de France (elle en fait l'hypothèse implicite, que l'on peut démystifier par la paraphrase logique). Ce procédé, l'analyse, devient la méthode canonique de la philosophie naissante.

Russell s'associe ensuite à Alfred North Whitehead (1861-1947) pour produire les Principia Mathematica (1910-1913), monument de logique formelle dont l'ambition est de dériver l'arithmétique entière à partir de principes purement logiques. Ce programme logiciste héritera des paradoxes que Russell avait lui-même découverts (le paradoxe de l'ensemble de tous les ensembles qui ne s'appartiennent pas à eux-mêmes) et que sa théorie des types tente de conjurer. Même inachevé dans ses prétentions, ce projet transforme durablement le paysage philosophique : la logique cesse d'être un ornement de la pensée pour en devenir l'épine dorsale.

Ludwig Wittgenstein (1889-1951), élève de Russell à partir de 1911, dépasse rapidement son maître en radicalité. Son Tractatus Logico-Philosophicus, rédigé pendant la Première Guerre mondiale et publié en 1921, est une oeuvre d'une densité extraordinaire, à la fois traité de logique, métaphysique du langage et mystique du silence. L'idée centrale en est la théorie figurative : une proposition est une image de la réalité, elle partage avec elle une forme logique. Ce qui peut être dit peut être dit clairement; ce qui ne peut pas être dit (l'éthique, l'esthéti que, le sens de la vie) doit être tu. La philosophie n'est pas une doctrine mais une activité de clarification; les propositions de la métaphysique traditionnelle ne sont pas fausses, elles sont sans sens, parce qu'elles prétendent dire ce que seul le langage peut montrer. 

Le Cercle de Vienne (positivisme logique).
Wittgenstein croit avoir résolu tous les problèmes philosophiques et abandonne la philosophie pendant une décennie. C'est pendant cette période que le Cercle de Vienne s'empare de son oeuvre pour en tirer des conséquences qu'il n'aurait peut-être pas approuvées. 

Moritz Schlick (1882-1936), Rudolf Carnap (1891-1970), Otto Neurath (1882-1945) et leurs collègues forment dans les années 1920 un groupe de scientifiques et de philosophes réunis par une même hostilité à la métaphysique et une même confiance dans la science. Leur positivisme logique articule deux héritages : la rigueur de la logique fregeano-russellienne et la tradition empiriste de Hume et Mach. 

Leur arme principale est le principe de vérifiabilité : une proposition n'a de sens cognitif que si elle est susceptible d'être confirmée ou infirmée par l'expérience. Les propositions de la métaphysique ("l'Absolu est au-delà du temps", "le Néant néantise") échouent à ce test et sont déclarées littéralement vides de sens, non pas fausses mais insignifiantes. Carnap publie en 1932 un article retentissant, Le dépassement de la métaphysique par l'analyse logique du langage, qui prend Heidegger pour cible principale et traite ses propositions comme des émissions sonores sans contenu cognitif. 

Le Cercle se préoccupe également du problème de l'unité de la science. Neurath  rêve d'une encyclopédie universelle où physique, biologie, psychologie et sciences sociales seraient unifiées dans un langage commun, celui de la physique. Ce physicalisme et ce réductionnisme constituent une face de l'empirisme logique qui sera bientôt attaquée de l'intérieur. Car le principe de vérifiabilité lui-même se révèle difficile à formuler sans se contredire : est-il lui-même vérifiable? Comment vérifier les lois universelles, toujours exposées à une réfutation future? Carl Hempel (1905-1997) et Carnap lui-même passeront des années à raffiner ces formulations, cherchant à articuler un critère de signification empirique qui ne soit ni trop strict ni trop lâche.

La montée du nazisme disperse le Cercle de Vienne. La plupart de ses membres émigrent aux États-Unis ou en Grande-Bretagne, où ils fécondent la philosophie de langue anglaise qui se développait parallèlement. 

L'âge classique (années 1930-1960)
Le second Wittgenstein.
Wittgenstein, pendant ce temps, a radicalement changé de position. Revenu à Cambridge dans les années 1930, il remet en question les présupposés mêmes du Tractatus. Ses Investigations philosophiques, publiées à titre posthume en 1953, constituent l'une des oeuvres philosophiques les plus originales du siècle. Il abandonne l'idée d'un langage idéal ou d'une forme logique cachée : le langage n'est pas une image de la réalité, c'est un ensemble de pratiques enracinées dans des formes de vie. Le sens d'une expression n'est pas sa référence ni sa représentation mais son usage dans la pratique. Les "jeux de langage" sont multiples, hétérogènes, et ne partagent aucune essence commune (seulement des "ressemblances de famille "). La philosophie n'a rien à expliquer ni à fonder : elle doit simplement dissoudre les problèmes, montrer que le philosophe a été capturé par une image, une métaphore prise trop au sérieux, un mot sorti de son contexte.

La question des règles occupe une place centrale dans ce second Wittgenstein. Comment suis-je capable de suivre une règle? Aucune formulation d'une règle ne peut déterminer à elle seule son application correcte : toujours une nouvelle interprétation est possible. La règle est suivie dans la pratique, dans la communauté, dans la forme de vie partagée. Saul Kripke, dans son interprétation controversée des années 1980, fera de cela un argument sceptique sur la signification elle-même (aucun fait ne détermine ce qu'une expression signifie) que les lecteurs de Wittgenstein continueront à débattre sans fin.

Philosophie du langage ordinaire à Oxford.
À Oxford, un groupe influencé par Moore mais aussi par le dernier Wittgenstein pratique ce qu'on appellera la philosophie du langage ordinaire. Gilbert Ryle (1900-1976), J. L. Austin (1911-1960), P. F. Strawson (1919-2006) développent l'idée que les erreurs philosophiques naissent de l'arrachement des expressions à leur usage naturel, et que la thérapie consiste à étudier attentivement comment les mots fonctionnent dans la vie quotidienne.

Ryle publie en 1949 The Concept of Mind, où il attaque frontalement le dualisme cartésien.Descartes, selon lui, a commis une "erreur catégorielle" en traitant l'esprit comme une entité substantielle, un "fantôme dans la machine". Les termes mentaux ne désignent pas des événements intérieurs mystérieux mais des dispositions comportementales : dire que quelqu'un comprend l'arithmétique, c'est dire qu'il est capable de certaines performances, pas qu'il héberge un état interne invisible. Ce behaviorisme logique influencera profondément la philosophie de l'esprit à venir, même s'il sera ensuite largement abandonné.

Austin, lui, s'intéresse aux actes de langage. Distinguant les énoncés constatifs (qui décrivent une réalité) des énoncés performatifs (qui accompissent une action en étant prononcés (" je promets", " je baptise"), puis généralisant dans sa théorie des actes illocutoires, il ouvre un domaine d'investigation entièrement nouveau sur ce que nous faisons quand nous parlons, au-delà du seul contenu propositionnel. Sa méthode, minutieuse, presque artisanale, consiste à inventorier les distinctions que le langage ordinaire opère dans un domaine (la perception, l'excuse, le savoir) avec l'hypothèse que ces distinctions ont survécu parce qu'elles correspondent à quelque chose de réel.

Les contributions de Quine et Goodman.
Aux États-Unis, la tradition analytique prend un tour différent sous l'influence de Willard Van Orman Quine (1908-2000), dont l'oeuvre va profondément réorienter la philosophie anglophone dans la seconde moitié du siècle. Quine attaque en 1951 deux dogmes de l'empirisme logique dans un article devenu classique. 

• La distinction analytique-synthétique est le premier dogme : les propositions analytiques, vraies en vertu du sens seul, n'existent pas selon lui, parce que la notion de synonymie sur laquelle elles reposent est elle-même indéfinissable sans circularité. 

• Le réductionnisme est le second dogme  : l'idée que chaque proposition peut être confrontée isolément à l'expérience. Quine lui substitue l'holisme : c'est l'ensemble de nos croyances qui affronte le tribunal de l'expérience, et quand un test échoue, nous pouvons choisir de réviser n'importe quel élément du système, y compris les lois de la logique si nécessaire.

La conséquence est que la philosophie et la science ne sont pas séparées par une frontière nette : la philosophie est une extension de la science, différente par son degré de généralité mais non par sa nature. Ce naturalisme philosophique sera l'un des traits dominants de la philosophie analytique américaine. Quine développe également la thèse de l'indétermination de la traduction : il n'existe pas de fait qui décide entre deux manuels de traduction incompatibles mais empiriquement équivalents, ce qui remet en question l'idée même que les phrases aient un contenu propositionnel déterminé.

Nelson Goodman (1906-1998), contemporain de Quine, apporte sa propre contribution déstabilisante avec le "nouveau problème de l'induction".Hume avait montré que l'induction ne peut pas être justifiée rationnellement; Goodman montre, à travers ce qu'il est convenu d'appeler le paradoxe de Goodman, que même si elle l'était, le problème de la projection reste entier. Considérons le prédicat "vleu", défini comme "vert si examiné avant 2049, bleu sinon". Toutes les émeraudes observées sont aussi vleues que vertes : pourquoi projeter "vert" plutôt que "vleu"? La réponse doit faire appel à la notion d'enracinement des prédicats dans nos pratiques passées. Le paradoxe de Goodman soulève ainsi des questions fondamentales sur la nature de l'induction, la définition des concepts, et la manière dont nous construisons nos connaissances à partir des observations. Il montre que la logique pure ne suffit pas à expliquer nos pratiques inductives, et qu'il faut prendre en compte des facteurs contextuels et linguistiques pour comprendre pourquoi certaines généralisations sont jugées plus valides que d'autres.

Développements post-wittgensteiniens et post-quiniens.
Le premier âge de la philosophie analytique de l'esprit.
La philosophie de l'esprit prend son essor comme discipline autonome dans les années 1960-1970. Le problème central est la relation entre les états mentaux et les états physiques du cerveau. Le behaviorisme logique de Ryle avait été réfuté : il paraît clair que les états mentaux ne sont pas de simples dispositions comportementales. La théorie de l'identité type-type (chaque type d'état mental est identique à un type d'état neurologique) est attaquée par Hilary Putnam (1926-2016) au nom de la réalisabilité multiple : la douleur pourrait être réalisée par des structures physiques très différentes chez les humains, les pieuvres ou les Martiens hypothétiques. Il propose le fonctionnalisme : les états mentaux sont définis par leur rôle fonctionnel, par leurs relations causales avec les entrées sensorielles, les autres états mentaux et les comportements de sortie. Ce qui importe pour définir la douleur, c'est le rôle qu'elle joue, pas la substance dans laquelle elle est réalisée.

Le fonctionnalisme devient la position dominante en philosophie de l'esprit et jette les bases conceptuelles de la science cognitive naissante. Mais il suscite immédiatement des objections. John Searle (1932-2025), avec son argument de la chambre chinoise (1980), attaque l'intelligence artificielle forte : un programme qui manipule des symboles selon des règles syntaxiques ne comprend pas, même s'il produit des sorties correctes, parce que la syntaxe seule ne suffit pas à engendrer la sémantique. 

Thomas Nagel (né en 1937), dans What Is It Like to Be a Bat? (1974), souligne que toute réduction physicaliste des états mentaux manque la dimension subjective de l'expérience, ce que c'est que d'être une chauve-souris, vu de l'intérieur. Frank Jackson formule le problème avec son expérience de pensée de Mary, la scientifique qui connaît tous les faits physiques sur la couleur mais n'a jamais vu le rouge : apprend-elle quelque chose de nouveau quand elle voit le rouge pour la première fois? Si oui, les faits physiques ne suffisent pas à épuiser la réalité mentale.

L'épistémologie analytique.
Pendant ce temps, l'épistémologie analytique connaît ses propres révolutions. Edmund Gettier (1927-2021), dans un article de trois pages publié en 1963, renverse la définition classique de la connaissance comme croyance vraie justifiée : ses contre-exemples montrent qu'on peut avoir une croyance vraie justifiée sans pour autant avoir de connaissance. Si je regarde une horloge arrêtée et vois qu'il est 15h00 (heure exacte par coïncidence) j'ai une croyance vraie et justifiée mais pas de connaissance. Ce "problème de Gettier" engendre une industrie philosophique de réponses : théories causales, fiabilistes, contextualistes, qui tentent chacune de saisir ce qui manquait dans la définition traditionnelle.

Alvin Goldman (1938-2024) développe l'épistémologie fiabiliste : une croyance est justifiée si elle est produite par un processus cognitif fiable. Cette approche naturaliste de la justification s'inscrit dans le mouvement plus large du tournant naturaliste en épistémologie, théorisé aussi par Quine qui voulait remplacer l'épistémologie traditionnelle, normative et a priori, par une étude empirique de la manière dont les êtres humains acquièrent leurs connaissances. Alvin Plantinga (né en 1932), depuis une position différente, développe l'épistémologie réformée et le concept de garantie (warrant) : ce qui distingue la connaissance de la simple croyance vraie est une propriété que les facultés cognitives proprement fonctionnelles confèrent à leurs produits.

Le renouveau de la philosophie du langage.
La philosophie du langage connaît dans les années 1960 et 1970 un renouveau spectaculaire avec les travaux de Saul Kripke et Hilary Putnam. 

Kripke (1940-2022), dans des conférences données à Princeton en 1970 et publiées sous le titre Naming and Necessity, bouleverse la théorie de la référence. Contre la théorie descriptiviste dominante depuis Frege et Russell (selon laquelle un nom propre désigne son référent via une description associée) Kripke soutient que les noms sont des désignateurs rigides : ils désignent le même individu dans tous les mondes possibles. "Aristote" ne signifie pas " le précepteur d'Alexandre"; il désigne directement un individu particulier, ancré dans une chaîne causale historique reliant les usages présents du nom à la désignation initiale. Les propositions d'identité entre noms propres, comme "Cicéron est Tullius", sont nécessairement vraies si vraies, mais connues a posteriori.

Cette distinction entre nécessité et apriorité, que Kant avait tacitement identifiées, ouvre un espace conceptuel nouveau. Kripke en tire des conséquences pour la philosophie de l'esprit : si "douleur" et " telle configuration neurologique" sont des désignateurs rigides, leur identité serait nécessaire si elle était vraie, mais elle ne semble pas nécessaire : on peut concevoir une douleur sans la configuration neuronale correspondante. L'identité psychophysique est donc douteuse.

Putnam, de son côté, développe l'externalisme sémantique : le sens ne se trouve pas dans la tête. Son expérience de pensée de la Terre Jumelle montre que deux individus peut-être intrinsèquement identiques (mêmes états mentaux, mêmes perceptions) peuvent parler de choses différentes si leur environnement diffère."Eau"  réfère à H2O sur Terre et à un autre composé sur Terre Jumelle, même si les locutrices ne savent rien de la chimie. Le contenu sémantique est partiellement déterminé par le monde et par la communauté linguistique, pas seulement par l'état interne du locuteur. Cette conclusion sera extraordinairement féconde pour la philosophie de l'esprit et la philosophie du langage, mais aussi profondément déstabilisante pour les théories internistes de la signification.

La philosophie morale analytique.
La philosophie morale analytique, longtemps reléguée au second rang par le primat accordé au langage et à la logique, reprend de la vigueur dans la seconde moitié du siècle. Le non-cognitivisme, qui dominait les décennies précédentes (avec A. J. Ayer (1910-1989) soutenant que les jugements moraux ne sont que des expressions d'attitudes émotionnelles, et R. M.Hare (1919-2002) qu'ils sont des prescriptions universalisables) est concurrencé par des tentatives de fonder une éthique substantielle. 

John Rawls (1921-2002) publie en 1971 A Theory of Justice, oeuvre monumentale qui renouvelle la philosophie politique libérale en s'appuyant sur la procédure du voile d'ignorance : les principes de justice sont ceux que des individus rationnels choisiraient s'ils ignoraient leur place dans la société. Ce contractualisme sophistiqué relance la philosophie politique analytique et suscite des réponses aussi importantes que celles de Robert Nozick (1938-2002), qui défend un libertarisme des droits individuels, et de Michael Sandel (né en 1953), qui attaque le libéralisme au nom d'une conception communautarienne des personnes.

Dans le même temps, Derek Parfit (1942-2017) étudie les implications de l'identité personnelle pour l'éthique. Si ce qui constitue l'identité d'une personne dans le temps est moins ferme et moins déterminé qu'on ne le croit (si la personne n'est pas une entité métaphysique distincte des états psychologiques qui la composent) alors notre manière de penser les obligations envers nos successeurs, le poids de l'intérêt personnel, et la distribution intergénérationnelle de la justice doit être profondément révisée. Reasons and Persons (1984) est l'une des oeuvres les plus rigoureuses et les plus troublantes de la philosophie morale analytique.

La philosophie analytique depuis les années 1990.
Métaphysique analytiques.
La fin du XXe siècle voit la philosophie analytique s'ouvrir à des questions et des méthodes qu'elle avait longtemps tenu à distance. La métaphysique revient en force, après avoir été déclarée sans sens par les positivistes : des philosophes comme David Lewis, Kit Fine, Peter van Inwagen et d'autres s'attaquent aux grandes questions sur l'existence, la modalité, la causalité, le temps, avec la rigueur logique de la tradition analytique. 

David Lewis (1941-2001) développe un réalisme modal audacieux : les mondes possibles ne sont pas des fictions ou des constructions abstraites mais des entités concrètes aussi réelles que le monde actuel. Cette position, paradoxale et inconfortable, permet d'analyser avec une grande précision les conditionnels contrefactuels, les propriétés, les propositions. Elle  reste une référence, moins pour être adoptée que pour servir d'étalon de rigueur : toute théorie des modalités doit dire pourquoi elle est meilleure, ou plus économique, ou moins contre-intuitive. Les positions concurrentes (l'actualisme modal de Robert Stalnaker, le combinatorialisme de David Armstrong, le fictionnalisme de Gideon Rosen) continuent de se raffiner en dialogue avec l'héritage lewisien.

La question de la composition méréologique (qu'est-ce qui fait qu'un ensemble de parties forme un tout?) mobilise des philosophes comme Peter van Inwagen (né en 1942), dont la réponse radicale dans Material Beings (1990) continue de structurer le débat : seuls les organismes vivants existent vraiment comme objets composites; les tables, les chaises, les rochers ne sont que des arrangements de simples. Theodor Sider explore les implications du quadridimensionnalisme : les objets persistants dans le temps ne sont pas des entités tridimensionnelles qui endurent en étant entièrement présentes à chaque instant, mais des vers quadridimensionnels dont les tranches temporelles sont aussi réelles que les parties spatiales. Ces positions peuvent sembler ésotériques, mais elles engagent des questions profondes sur la nature du changement, de l'identité et de la persistance.

Kit Fine (né en 1946), l'une des figures les plus originales de cette période, renouvelle la métaphysique en réhabilitant des concepts scolastiques longtemps négligés. Sa théorie de l'essence (distincte de la modalité au sens de Kripke) soutient que l'essence d'une chose est ce qui la fait être ce qu'elle est, non ce qui est nécessairement vrai d'elle : il est nécessaire que Socrate soit membre de l'ensemble singleton {Socrate}, mais cela ne fait pas partie de l'essence de Socrate; en revanche, cela fait partie de l'essence de l'ensemble {Socrate} de contenir Socrate. Cette distinction subtile ouvre une métaphysique fondée sur les dépendances essentielles plutôt que sur les relations modales brutes. Fine développe également une philosophie du temps qui ressuscite la distinction entre les faits temporels (tensed) et les faits atemporels (tenseless), et une ontologie de l'arbitraire conditionnel pour traiter les entités abstraites.

Jonathan Schaffer (né en 1970) introduit et popularise le néo-aristotélisme en métaphysique, articulé autour de la relation de fondation (grounding). L'idée est que la métaphysique ne s'intéresse pas seulement à ce qui existe, mais à ce qui est fondamental, à ce sur quoi il repose. L'être physique fonde l'être chimique, l'être chimique fonde le biologique, le biologique fonde le mental et le social. Cette notion de fondation, distincte de la causalité et de la survenance logique, permet d'articuler des relations d'explication métaphysique sans réductionnisme éliminativiste : le mental est fondé dans le physique sans être identique ou réductible au physique. Le concept se répand rapidement dans les années 2010 et structure de nombreux débats en ontologie, éthique, philosophie des mathématiques et philosophie de la science.

La philosophie de l'esprit renouvelée.
La philosophie de l'esprit reste l'un des domaines les plus actifs et les plus disputés. Les débats des décennies précédentes nourrissent la discussion sur le "problème difficile de la conscience", expression forgée par David Chalmers (né en 1966) dans les années 1990 pour désigner l'écart entre l'explication fonctionnelle et causale des états mentaux et la compréhension de l'expérience subjective elle-même. Chalmers défend un dualisme des propriétés : le monde physique est complet causalement, mais il n'est pas ontologiquement complet. Il y a des propriétés phénoménales irréductibles aux propriétés physiques.

Ce problème difficile de la conscience polarise les positions. D'un côté, les physicalistes cherchent à expliquer, réduire ou éliminer le qualitatif : Daniel Dennett (1942-2024), dans une position qu'il appelle le réalisme hétérophénoménologique, soutient que l'expérience subjective telle que nous la concevons naïvement est une illusion élaborée par le cerveau, et qu'une fois que nous aurons compris tous les mécanismes fonctionnels, il ne restera rien à expliquer. Son débat avec Chalmers est l'un des plus vifs et des plus illustratifs de la philosophie de l'esprit contemporaine : ils s'accordent sur les faits neuroscientifiques mais divergent radicalement sur ce que ces faits expliquent.

D'autres physicalistes cherchent des voies plus modestes. Le physicalisme des propriétés secondes de Philip Goff (né en 1978), ou sa position pan-psychiste, proposent que la conscience n'est pas un ajout mystérieux au monde physique mais une propriété fondamentale présente à tous les niveaux de la nature, y compris au niveau des particules élémentaires. Le panpsychisme, longtemps considéré comme une curiosité marginale, regagne une légitimité académique réelle dans les années 2010, non parce que ses défenseurs auraient trouvé une preuve mais parce que toutes les alternatives semblent également problématiques. Goff, Chalmers, Giulio Tononi (né en 1960) avec sa théorie de l'information intégrée, construisent des cadres conceptuels différents pour accueillir la conscience sans dualisme de substance.

La philosophie morale analytique.
La philosophie de l'action et la méta-éthique s'interpénètrent dans des débats sur le libre arbitre et la responsabilité morale qui prennent une acuité nouvelle avec les progrès des neurosciences. Les expériences de Benjamin Libet (1916-2007), montrant que l'activité cérébrale précède la conscience d'une intention d'agir, sont interprétées par certains comme une réfutation empirique du libre arbitre. Les philosophes analytiques répondent en général que cette interprétation repose sur une conception naïve de la volonté : ce n'est pas parce que l'intention consciente n'initie pas causalement le mouvement que nous ne sommes pas les auteurs de nos actions. La distinction entre compatibilisme et incompatibilisme structure le débat : les compatibilistes soutiennent que le libre arbitre est compatible avec le déterminisme parce qu'il ne requiert pas d'être la cause première de ses actions, mais simplement d'agir en réponse à des raisons de façon non contrainte. Les incompatibilistes acceptent que nous n'ayons pas le libre arbitre au sens robuste et tirent les conséquences pour la responsabilité morale et la pratique pénale.

La méta-éthique connaît un renouveau que l'on n'attendait peut-être pas. Après des décennies dominées par des positions non-cognitivistes ou expressivistes (les jugements moraux ne sont pas vrais ou faux mais expriment des attitudes) le réalisme moral regagne du terrain. Derek Parfit (1942-2017), dans son ultime et monumental On What Matters (2011), défend une forme de cognitivisme non-naturaliste et cherche à montrer la convergence des théories conséquentialiste, déontologique et scanlonnienne (ce qu'il appelle la thèse de la triple théorie). Sa conviction que la vérité morale est objectivement accessible à la raison, et que les grandes théories éthiques peuvent être réconciliées, est à la fois un geste systématique rare dans la tradition analytique et une déclaration de foi dans la capacité de la philosophie à progresser. T. M. Scanlon (né en 1940), avec son contractualisme moral exposé dans What We Owe to Each Other (1998) et développé ensuite, fournit une autre position cognitiviste : les jugements moraux peuvent être vrais ou faux, et leur vérité est liée à des principes qu'aucun individu ne pourrait raisonnablement rejeter.

L'expressivisme, cependant, se raffine plutôt qu'il ne disparaît. Simon Blackburn (né en 1944) développe le quasi-réalisme : le non-cognitiviste peut, par des étapes progressives, "gagner le droit" à tout ce que le réaliste affirme (la vérité des jugements moraux, leur rôle dans le raisonnement) sans postuler de propriétés morales objectives dans la réalité. Allan Gibbard (né en 1942), dans Wise Choices, Apt Feelings puis dans Thinking How to Live, développe l'expressivisme normatif autour du concept d'acte d'expression d'une norme : exprimer un jugement moral, c'est exprimer son adhésion à un système de normes. Ces raffinements font de l'expressivisme une position beaucoup plus sophistiquée que l'émotivisme brut d'Ayer.

La bioéthique et l'éthique médicale se développent comme domaines appliqués dont les questions refluent vers la philosophie fondamentale. L'euthanasie, l'avortement, l'amélioration cognitive et génétique, la justice dans l'allocation des soins, l'éthique de la recherche médicale sont des sujets qui imposent aux philosophes de préciser leurs concepts d'autonomie, de personne, de bien-être, de responsabilité. 

L'éthique animale et l'éthique environnementale, longtemps traitées comme des domaines mineurs, gagnent en importance philosophique. Peter Singer (né en 1946) développe et défend l'utilitarisme des préférences dans ses implications les plus radicales pour notre traitement des animaux non humains et pour les obligations envers les générations futures. La question de l'égale considération des intérêts (indépendamment de l'espèce) devient un enjeu philosophique et politique majeur. Les travaux de Christine Korsgaard (née en 1952), qui défend les droits des animaux depuis une perspective kantienne dans Fellow Creatures (2018), montrent que la philosophie morale analytique peut aborder ces questions depuis des positions métaéthiques très différentes et arriver à des conclusions convergentes.

Nouveaux visages de l'épistémologie analytique.
L'épistémologie formelle, à l'intersection de la philosophie et des mathématiques, se développe avec une vigueur remarquable. La théorie bayésienne de la confirmation (qui modélise la rationalité épistémique comme mise à jour des probabilités subjectives sur la base des preuves) fait l'objet d'un effort de raffinement considérable. Les questions autour de l'inférence à la meilleure explication, du paradoxe de la préface, du problème des anciens et nouveaux éléments de preuve, de la cohérence des croyances, sont traitées avec les outils de la théorie de la probabilité et de la logique formelle. Le désaccord épistémique entre pairs (faut-il modifier ses croyances quand un interlocuteur d'égale compétence arrive à une conclusion différente?)  est l'un des problèmes les plus discutés de la décennie 2010, avec des positions allant du conciliationnisme au maintien ferme. 

La philosophie analytique des sciences continue de se raffiner. Le débat entre réalisme scientifique (la science décrit aproximativement des entités réelles qui existent indépendamment de notre connaissance) et antiréalisme prend de nouvelles formes. L'antiréalisme de van Fraassen (né en 1941), l'empirisme constructif, avait soutenu dans les années 1980 que la science vise seulement à l'adéquation empirique, non à la vérité sur les entités inobservables. Les réponses réalistes s'affinent : Stathis Psillos (né en 1965) développe le réalisme semblable à la vérité, Anjan Chakravartty le semiréalisme (réalisme ontologique semi-), Peter Lipton (1954-2007) défend l'inférence à la meilleure explication comme moteur du progrès scientifique. La question de la sous-détermination des théories par les données (plusieurs théories incompatibles peuvent être empiriquement équivalentes) continue de nourrir des prises de position épistémologiques nuancées.

La philosophie de la physique, dans ces mêmes années, devient un domaine d'une intensité remarquable. Les interprétations de la mécanique quantique (interprétation de Copenhague, mondes multiples d'Everett, Bohm, GRW) sont examinées avec les outils de la philosophie analytique par des auteurs comme David Wallace, qui défend une version sophistiquée du réalisme des mondes multiples, ou Tim Maudlin (né en 1958), qui préfère un réalisme local et cherche à comprendre la non-localité quantique sans fantasme. La flèche du temps, la nature de l'espace-temps en physique relativiste et post-relativiste, la relation entre mécanique classique et mécanique quantique, la signification du principe de symétrie en physique fondamentale, questions situées à la frontière de la physique et de la philosophie, constituent l'un des domaines les plus stimulants de la philosophie analytique contemporaine.

Longtemps, l'épistémologie analytique s'était concentrée sur l'individu isolé face au monde : comment puis-je justifier mes croyances? Les années 2000 voient un intérêt croissant pour la dimension sociale de la connaissance. L'épistémologie sociale émerge ainsi comme sous-discipline à part entière. Alvin Goldman (1938-2024) développe une épistémologie sociale fiabiliste, examinant comment les institutions (médias, tribunaux, systèmes experts) contribuent ou nuisent à la production de croyances vraies dans les populations. 

Helen Longino (née en 1944), Miranda Fricker (née en 1966), Elizabeth Anderson (née en 1959) s'intéressent aux injustices épistémiques : les façons dont certains groupes sont systématiquement disqualifiés comme témoins ou comme producteurs de savoirs. Miranda Fricker, en particulier, forge le concept d'injustice testimoniale (le tort causé à quelqu'un lorsqu'on sous-estime sa crédibilité en raison d'un préjugé identitaire) et d'injustice herméneutique,  lorsqu'un groupe manque des ressources conceptuelles pour comprendre et communiquer ses propres expériences. Ces idées, publiées dans Epistemic Injustice (2007), connaissent une diffusion extraordinaire et stimulent un dialogue entre la philosophie analytique et les études critiques de genre ou de classe, dialogue qui était longtemps bloqué par les frontières disciplinaires et stylistiques.

La philosophie analytique au défi des mondes numériques.
La philosophie de la technologie, longtemps délaissée par la tradition analytique qui la considérait comme trop appliquée ou trop engagée, devient dans les années 2010 un domaine incontournable. L'essor des médias sociaux, des algorithmes de recommandation, de la surveillance numérique, des plateformes économiques pose des questions philosophiques urgentes : qu'est-ce que la vie privée dans un environnement numérique? Qui est responsable quand un algorithme produit des décisions discriminatoires? Quelles valeurs sont encodées dans les systèmes techniques et comment? Luciano Floridi (né en 1964) développe une philosophie de l'information dont les ambitions sont systématiques : l'information est un concept fondamental qui permet de repenser la réalité, la connaissance et l'éthique à l'ère numérique. Shannon Vallor s'intéresse aux vertus technologiques, aux dispositions que nous devons cultiver pour bien vivre avec et dans les technologies numériques.

L'éthique de l'intelligence artificielle (IA) s'impose comme sous-domaine à mesure que les systèmes d'apprentissage automatique deviennent omniprésents. Les problèmes de biais algorithmique, de transparence et d'explicabilité, de responsabilité dans les systèmes autonomes, d'alignment entre les valeurs humaines et les objectifs des systèmes d'IA (ces questions mobilisent des philosophes qui doivent à la fois comprendre les systèmes techniques et maîtriser les cadres éthiques traditionnels). Stuart Russell (né en 1962), chercheur en intelligence artificielle, propose une reformulation des fondements de l'IA à partir du principe d'incertitude sur les préférences humaines : une IA sage est une IA qui sait qu'elle ne sait pas exactement ce que nous voulons et qui agit prudemment en conséquence.

Enfin, la montée en puissance de l'intelligence artificielle générative depuis le début des années 2020 projette la philosophie analytique dans un nouveau territoire d'urgence. Les grandes questions qui avaient été posées abstraitement (la conscience des machines, l'alignement des valeurs, la nature du langage et de la compréhension, la responsabilité des systèmes autonomes) deviennent soudainement empiriquement pressantes. Les systèmes de traitement du langage à grande échelle soulèvent à nouveau les arguments de Searle sur la chambre chinoise, mais dans un contexte où les performances de ces systèmes défient les intuitions sur lesquelles l'argument reposait. Sont-ils de simples manipulateurs de symboles, ou quelque chose de plus s'est-il produit dans l'échelle et la complexité? La philosophie analytique entre dans ce débat avec ses outils (distinctions conceptuelles, analyse des arguments, clarification des enjeux) mais aussi avec une humilité nouvelle devant des phénomènes que personne n'avait vraiment anticipés.

Nick Bostrom (né en 1973) développe le transhumanisme comme position philosophique articulée : l'amélioration de l'être humain par des moyens technologiques n'est pas seulement permise mais peut constituer une obligation morale. Son ouvrage Superintelligence (2014), traitant des risques existentiels liés à l'intelligence artificielle, contribue à faire de la sécurité de l'IA un sujet de philosophie sérieuse, anticipant de façon frappante des débats qui deviendront centraux dans les années 2020.

Les autres orientations de la philosophie analytique actuelle.
Le contextualisme sémantique, selon lequel la signification de nombreuses expressions varie avec le contexte d'énonciation au-delà des indexicaux traditionnels comme "je" ou "ici", s'applique aux termes de connaissance, aux comparatifs, aux termes de goût. Keith DeRose (né en 1962) et Stewart Cohen soutiennent que "savoir" est un terme contextuel : ce qu'il faut pour que la phrase"Pierre sait que p" soit vraie dépend des standards épistémiques en vigueur dans le contexte de l'attributeur. John MacFarlane (né en 1967) développe une position encore plus radicale, le relativisme sémantique ou "relativisme d'assessment" : la vérité de certains énoncés est relative non au contexte d'énonciation mais au contexte d'évaluation, ce qui permet de rendre compte de la manière dont nous traitons les désaccords sur le goût comme de vrais désaccords sans postuler de faux objectivisme.

La philosophie de la logique et des mathématiques ne reste pas à l'écart de ce renouveau. Crispin Wright (né en 1942) et Bob Hale (1945-2017) défendent le néo-logicisme fregeanien, tentant de ressusciter le programme de Frege à partir du principe de Hume : le nombre d'objets F est égal au nombre d'objets G si et seulement si les F et les G peuvent être mis en correspondance biunivoque. Si ce principe est analytique, l'arithmétique pourrait être analytique également. Les objections de Frege à ses propres ambitions (le paradoxe de Russell) sont contournées par des restrictions soigneuses, mais le débat sur le caractère analytique ou épistémologiquement innocent du principe de Hume reste ouvert.Hartry Field (né en 1946), de son côté, maintient un nominalisme radical en mathématiques : les objets mathématiques n'existent pas, et les mathématiques sont utiles non parce qu'elles décrivent une réalité abstraite mais parce qu'elles constituent un raccourci commode pour des inférences nominalistiquement acceptables.

La philosophie politique analytique, stimulée par l'héritage de Rawls, se diversifie considérablement. Rawls lui-même publie en 1999 The Law of Peoples, étendant sa théorie de la justice à l'échelle internationale avec des conclusions qui déçoivent les cosmopolites : la justice globale ne requiert pas les mêmes inégalités que la justice domestique. Thomas Pogge (né en 1953) et Charles Beitz (né en 1949) défendent au contraire un cosmopolitisme qui applique des principes stricts de justice à l'échelle mondiale, et Pogge développe une thèse provocatrice : les institutions économiques internationales causent activement la pauvreté mondiale et rendent les nations riches complices d'une injustice structurelle.

La philosophie des discriminations phénotypique, de genre et de classe entre dans le canon analytique avec une légitimité croissante. Sally Haslanger (née en 1955) développe une approche analytique des catégories sociales, distinguant les catégories génétiques (définies par leur origine), les catégories manifestées (définies par leurs propriétés actuelles) et les catégories causalement efficaces (définies par leur rôle dans des structures sociales). Sa question caractéristique (que voulons-nous que "femme" signifie, compte tenu de nos objectifs politiques et analytiques?) illustre un révisionnisme conceptuel qui combine rigueur analytique et engagement normatif.Ãsta Sveinsdóttir (née en 1969), Charlotte Witt (née en 1951), ÃyÅŸe GündoÄŸdu contribuent à une philosophie analytique du genre et de la catégorisation selon la couleur de la peau qui prend au sérieux les apports de la pensée féministe et postcoloniale sans abandonner les standards d'argumentation analytiques.

Ajoutons qu'au cours des dernières années, la philosophie analytique a commencé à prendre conscience de ses propres angles morts historiques et géographiques. La domination du monde anglophone, la tendance à ignorer les traditions non-occidentales, les biais de genre dans les citations et les embauches sont des questions qui désormais traversent les congrès et les publications. Des initiatives comme le projet de métaphysique inclusive, ou les travaux de Jay Garfield (né en 1955) et Bryan Van Norden (né en 1962) plaident pour l'intégration de la philosophie asiatique dans les programmes, tentent de corriger ce provincialisme. La philosophie comparée analytique (confrontant les traditions indienne, chinoise ou africaine aux problèmes analytiques)  produit ainsi des travaux originaux qui enrichissent les deux côtés.

.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2024- 2026.- Reproduction interdite.