|
|
| . |
|
||||||
| Histoire de la philosophie > La philosophie contemporaine |
| La philosophie analytique |
| La
philosophie
analytique est une approche philosophique qui s'est développée principalement
à partir du début du XXe siècle, émergeant
d'une réflexion sur la nature du langage et
des problèmes philosophiques liés à la logique.
Cette approche, qui n'est pas un ensemble de doctrines unifiées, se déploie
selon différentes perspectives. Elle a ses racines dans les travaux de
philosophes tels que Bertrand Russell et G. E. Moore, et elle a été largement
influencée par les développements de la logique symbolique et a eu, Ã
son tour, une influence significative dans le monde anglophone où elle
a contribué au développement de domaines interdisciplinaires tels que
la philosophie du langage, la philosophie
de l'esprit et la philosophie des sciences.
Les philosophes analytiques se concentrent sur l'analyse du langage, considérant que beaucoup de problèmes philosophiques résultent d'une confusion linguistique. Ils croient que de nombreux débats philosophiques peuvent être clarifiés en examinant attentivement la signification des termes utilisés. Ils mettent également l'accent sur la rigueur logique et l'utilisation de la logique symbolique pour résoudre des problèmes philosophiques. La clarté formelle est considérée comme essentielle pour parvenir à des conclusions philosophiques valables. La philosophie analytique se montre sceptique à l'égard de la métaphysique spéculative, privilégiant plutôt une approche plus concrète et pragmatique pour aborder les problèmes philosophiques. Elle tend ainsi à adopter une approche empiriste, s'appuyant sur l'observation et l'expérience comme sources de connaissance. Elle favorise également une approche réaliste, considérant que le monde extérieur existe de manière indépendante de notre pensée. La genèse de
la philosophie analytique.
Chez Bolzano (1781-1848), l'élément déterminant est son antipsychologisme radical. Dans sa Wissenschaftslehre (Philosophie des sciences, 1837), il s'oppose explicitement à l'idée selon laquelle les lois logiques seraient dérivées des lois psychologiques de la pensée. Pour lui, la logique doit être une discipline normative et objective, indépendante des processus mentaux empiriques. Il introduit ainsi la notion de propositions en soi (Sätze an sich), qui existent indépendamment de leur formulation linguistique et de leur appréhension par un sujet. Ces entités abstraites permettent de penser la vérité comme quelque chose d'objectif : une proposition est vraie ou fausse indépendamment du fait qu'elle soit pensée ou connue. Cette thèse anticipe directement la distinction ultérieure entre contenu propositionnel et actes mentaux. Bolzano développe également une théorie de la conséquence logique fondée sur des relations d'inclusion de contenu, préfigurant des approches formelles de la validité. En séparant strictement logique et psychologie, il ouvre la voie à une conception formaliste et objective de la logique qui sera centrale dans la tradition analytique. Brentano (1838-1917), quant à lui, adopte une démarche presque opposée en apparence, mais qui s'avère complémentaire. Dans sa Psychologie du point de vue empirique (1874), il cherche à fonder la philosophie sur une analyse rigoureuse de l'expérience mentale. Sa thèse fondamentale est celle de l'intentionnalité : tout phénomène psychique est caractérisé par le fait d'être "dirigé vers" un objet. Penser, juger, aimer ou percevoir implique toujours une référence à quelque chose, que cet objet existe réellement ou non. Cette propriété distingue radicalement les phénomènes psychiques des phénomènes physiques. Brentano inaugure ainsi une "psychologie descriptive" qui vise à décrire les structures essentielles de la conscience sans recourir à des explications causales ou naturalistes. Si cette approche semble psychologisante, elle a en réalité une portée structurale : l'intentionnalité devient un concept clé pour analyser le rapport entre langage, pensée et monde. Elle influencera profondément des figures comme Husserl, mais aussi, indirectement, la philosophie analytique via la problématique de la référence et du contenu mental. Brentano contribue ainsi à clarifier la structure des actes mentaux, ce qui permettra ensuite de distinguer plus nettement, chez les analytiques, entre l'acte de penser et le contenu pensé. Avec Frege (1848-1925), on assiste à une systématisation rigoureuse de ces intuitions dans le cadre de la logique formelle et de la philosophie du langage. Son projet est explicitement antipsychologiste : dans les Fondements de l'arithmétique (1884) et surtout dans ses articles logiques, il combat l'idée que les lois logiques soient des généralisations empiriques sur la manière dont les humains pensent. Pour lui, la logique exprime des lois objectives de la vérité. Il introduit une innovation conceptuelle majeure avec la distinction entre sens (Sinn) et dénotation (Bedeutung). Le sens d'une expression est le mode de donation de son référent, tandis que la dénotation est l'objet lui-même. Cette distinction permet de résoudre des problèmes classiques d'identité et de référence, notamment dans les énoncés informatifs du type a = b. Deux expressions peuvent avoir la même dénotation tout en ayant des sens différents, ce qui explique leur valeur cognitive distincte. Frege élabore également le principe du contexte, selon lequel le sens d'un mot ne peut être compris qu'à l'intérieur d'une proposition complète. Cela marque un tournant décisif vers l'analyse logique du langage : la priorité n'est plus donnée aux termes isolés, mais à la structure propositionnelle. Enfin, son invention d'un langage formel, la notation conceptuelle (Begriffsschrift) pose les bases de la logique moderne, en introduisant une notation permettant de représenter explicitement les relations logiques et les quantificateurs. Le
tournant linguistique.
Moore défend avec véhémence le sens commun et la réalité des choses ordinaires; Russell s'attaque au problème de la dénotation. Sa théorie des descriptions définies, publiée en 1905 dans l'article On Denoting, devient le modèle même de l'analyse philosophique : montrer qu'une expression grammaticalement simple cache une structure logique complexe, et que la forme de surface du langage trompe sur la forme réelle de la pensée. L'expression "le roi de France est chauve" n'affirme pas l'existence d'un roi de France (elle en fait l'hypothèse implicite, que l'on peut démystifier par la paraphrase logique). Ce procédé, l'analyse, devient la méthode canonique de la philosophie naissante. Russell s'associe ensuite à Alfred North Whitehead (1861-1947) pour produire les Principia Mathematica (1910-1913), monument de logique formelle dont l'ambition est de dériver l'arithmétique entière à partir de principes purement logiques. Ce programme logiciste héritera des paradoxes que Russell avait lui-même découverts (le paradoxe de l'ensemble de tous les ensembles qui ne s'appartiennent pas à eux-mêmes) et que sa théorie des types tente de conjurer. Même inachevé dans ses prétentions, ce projet transforme durablement le paysage philosophique : la logique cesse d'être un ornement de la pensée pour en devenir l'épine dorsale. Ludwig Wittgenstein (1889-1951), élève de Russell à partir de 1911, dépasse rapidement son maître en radicalité. Son Tractatus Logico-Philosophicus, rédigé pendant la Première Guerre mondiale et publié en 1921, est une oeuvre d'une densité extraordinaire, à la fois traité de logique, métaphysique du langage et mystique du silence. L'idée centrale en est la théorie figurative : une proposition est une image de la réalité, elle partage avec elle une forme logique. Ce qui peut être dit peut être dit clairement; ce qui ne peut pas être dit (l'éthique, l'esthéti que, le sens de la vie) doit être tu. La philosophie n'est pas une doctrine mais une activité de clarification; les propositions de la métaphysique traditionnelle ne sont pas fausses, elles sont sans sens, parce qu'elles prétendent dire ce que seul le langage peut montrer. Le
Cercle de Vienne (positivisme logique).
Moritz Schlick (1882-1936), Rudolf Carnap (1891-1970), Otto Neurath (1882-1945) et leurs collègues forment dans les années 1920 un groupe de scientifiques et de philosophes réunis par une même hostilité à la métaphysique et une même confiance dans la science. Leur positivisme logique articule deux héritages : la rigueur de la logique fregeano-russellienne et la tradition empiriste de Hume et Mach. Leur arme principale est le principe de vérifiabilité : une proposition n'a de sens cognitif que si elle est susceptible d'être confirmée ou infirmée par l'expérience. Les propositions de la métaphysique ("l'Absolu est au-delà du temps", "le Néant néantise") échouent à ce test et sont déclarées littéralement vides de sens, non pas fausses mais insignifiantes. Carnap publie en 1932 un article retentissant, Le dépassement de la métaphysique par l'analyse logique du langage, qui prend Heidegger pour cible principale et traite ses propositions comme des émissions sonores sans contenu cognitif. Le Cercle se préoccupe également du problème de l'unité de la science. Neurath rêve d'une encyclopédie universelle où physique, biologie, psychologie et sciences sociales seraient unifiées dans un langage commun, celui de la physique. Ce physicalisme et ce réductionnisme constituent une face de l'empirisme logique qui sera bientôt attaquée de l'intérieur. Car le principe de vérifiabilité lui-même se révèle difficile à formuler sans se contredire : est-il lui-même vérifiable? Comment vérifier les lois universelles, toujours exposées à une réfutation future? Carl Hempel (1905-1997) et Carnap lui-même passeront des années à raffiner ces formulations, cherchant à articuler un critère de signification empirique qui ne soit ni trop strict ni trop lâche. La montée du nazisme disperse le Cercle de Vienne. La plupart de ses membres émigrent aux États-Unis ou en Grande-Bretagne, où ils fécondent la philosophie de langue anglaise qui se développait parallèlement. L'âge classique
(années 1930-1960)
La question des règles occupe une place centrale dans ce second Wittgenstein. Comment suis-je capable de suivre une règle? Aucune formulation d'une règle ne peut déterminer à elle seule son application correcte : toujours une nouvelle interprétation est possible. La règle est suivie dans la pratique, dans la communauté, dans la forme de vie partagée. Saul Kripke, dans son interprétation controversée des années 1980, fera de cela un argument sceptique sur la signification elle-même (aucun fait ne détermine ce qu'une expression signifie) que les lecteurs de Wittgenstein continueront à débattre sans fin. Philosophie
du langage ordinaire à Oxford.
Ryle publie en 1949 The Concept of Mind, où il attaque frontalement le dualisme cartésien.Descartes, selon lui, a commis une "erreur catégorielle" en traitant l'esprit comme une entité substantielle, un "fantôme dans la machine". Les termes mentaux ne désignent pas des événements intérieurs mystérieux mais des dispositions comportementales : dire que quelqu'un comprend l'arithmétique, c'est dire qu'il est capable de certaines performances, pas qu'il héberge un état interne invisible. Ce behaviorisme logique influencera profondément la philosophie de l'esprit à venir, même s'il sera ensuite largement abandonné. Austin, lui, s'intéresse aux actes de langage. Distinguant les énoncés constatifs (qui décrivent une réalité) des énoncés performatifs (qui accompissent une action en étant prononcés (" je promets", " je baptise"), puis généralisant dans sa théorie des actes illocutoires, il ouvre un domaine d'investigation entièrement nouveau sur ce que nous faisons quand nous parlons, au-delà du seul contenu propositionnel. Sa méthode, minutieuse, presque artisanale, consiste à inventorier les distinctions que le langage ordinaire opère dans un domaine (la perception, l'excuse, le savoir) avec l'hypothèse que ces distinctions ont survécu parce qu'elles correspondent à quelque chose de réel. Les
contributions de Quine et Goodman.
• La distinction analytique-synthétique est le premier dogme : les propositions analytiques, vraies en vertu du sens seul, n'existent pas selon lui, parce que la notion de synonymie sur laquelle elles reposent est elle-même indéfinissable sans circularité.La conséquence est que la philosophie et la science ne sont pas séparées par une frontière nette : la philosophie est une extension de la science, différente par son degré de généralité mais non par sa nature. Ce naturalisme philosophique sera l'un des traits dominants de la philosophie analytique américaine. Quine développe également la thèse de l'indétermination de la traduction : il n'existe pas de fait qui décide entre deux manuels de traduction incompatibles mais empiriquement équivalents, ce qui remet en question l'idée même que les phrases aient un contenu propositionnel déterminé. Nelson Goodman (1906-1998), contemporain de Quine, apporte sa propre contribution déstabilisante avec le "nouveau problème de l'induction".Hume avait montré que l'induction ne peut pas être justifiée rationnellement; Goodman montre, à travers ce qu'il est convenu d'appeler le paradoxe de Goodman, que même si elle l'était, le problème de la projection reste entier. Considérons le prédicat "vleu", défini comme "vert si examiné avant 2049, bleu sinon". Toutes les émeraudes observées sont aussi vleues que vertes : pourquoi projeter "vert" plutôt que "vleu"? La réponse doit faire appel à la notion d'enracinement des prédicats dans nos pratiques passées. Le paradoxe de Goodman soulève ainsi des questions fondamentales sur la nature de l'induction, la définition des concepts, et la manière dont nous construisons nos connaissances à partir des observations. Il montre que la logique pure ne suffit pas à expliquer nos pratiques inductives, et qu'il faut prendre en compte des facteurs contextuels et linguistiques pour comprendre pourquoi certaines généralisations sont jugées plus valides que d'autres. Développements
post-wittgensteiniens et post-quiniens.
Le fonctionnalisme devient la position dominante en philosophie de l'esprit et jette les bases conceptuelles de la science cognitive naissante. Mais il suscite immédiatement des objections. John Searle (1932-2025), avec son argument de la chambre chinoise (1980), attaque l'intelligence artificielle forte : un programme qui manipule des symboles selon des règles syntaxiques ne comprend pas, même s'il produit des sorties correctes, parce que la syntaxe seule ne suffit pas à engendrer la sémantique. Thomas Nagel (né en 1937), dans What Is It Like to Be a Bat? (1974), souligne que toute réduction physicaliste des états mentaux manque la dimension subjective de l'expérience, ce que c'est que d'être une chauve-souris, vu de l'intérieur. Frank Jackson formule le problème avec son expérience de pensée de Mary, la scientifique qui connaît tous les faits physiques sur la couleur mais n'a jamais vu le rouge : apprend-elle quelque chose de nouveau quand elle voit le rouge pour la première fois? Si oui, les faits physiques ne suffisent pas à épuiser la réalité mentale. L'épistémologie
analytique.
Alvin Goldman (1938-2024) développe l'épistémologie fiabiliste : une croyance est justifiée si elle est produite par un processus cognitif fiable. Cette approche naturaliste de la justification s'inscrit dans le mouvement plus large du tournant naturaliste en épistémologie, théorisé aussi par Quine qui voulait remplacer l'épistémologie traditionnelle, normative et a priori, par une étude empirique de la manière dont les êtres humains acquièrent leurs connaissances. Alvin Plantinga (né en 1932), depuis une position différente, développe l'épistémologie réformée et le concept de garantie (warrant) : ce qui distingue la connaissance de la simple croyance vraie est une propriété que les facultés cognitives proprement fonctionnelles confèrent à leurs produits. Le
renouveau de la philosophie du langage.
Kripke (1940-2022), dans des conférences données à Princeton en 1970 et publiées sous le titre Naming and Necessity, bouleverse la théorie de la référence. Contre la théorie descriptiviste dominante depuis Frege et Russell (selon laquelle un nom propre désigne son référent via une description associée) Kripke soutient que les noms sont des désignateurs rigides : ils désignent le même individu dans tous les mondes possibles. "Aristote" ne signifie pas " le précepteur d'Alexandre"; il désigne directement un individu particulier, ancré dans une chaîne causale historique reliant les usages présents du nom à la désignation initiale. Les propositions d'identité entre noms propres, comme "Cicéron est Tullius", sont nécessairement vraies si vraies, mais connues a posteriori. Cette distinction entre nécessité et apriorité, que Kant avait tacitement identifiées, ouvre un espace conceptuel nouveau. Kripke en tire des conséquences pour la philosophie de l'esprit : si "douleur" et " telle configuration neurologique" sont des désignateurs rigides, leur identité serait nécessaire si elle était vraie, mais elle ne semble pas nécessaire : on peut concevoir une douleur sans la configuration neuronale correspondante. L'identité psychophysique est donc douteuse. Putnam, de son côté, développe l'externalisme sémantique : le sens ne se trouve pas dans la tête. Son expérience de pensée de la Terre Jumelle montre que deux individus peut-être intrinsèquement identiques (mêmes états mentaux, mêmes perceptions) peuvent parler de choses différentes si leur environnement diffère."Eau" réfère à H2O sur Terre et à un autre composé sur Terre Jumelle, même si les locutrices ne savent rien de la chimie. Le contenu sémantique est partiellement déterminé par le monde et par la communauté linguistique, pas seulement par l'état interne du locuteur. Cette conclusion sera extraordinairement féconde pour la philosophie de l'esprit et la philosophie du langage, mais aussi profondément déstabilisante pour les théories internistes de la signification. La
philosophie morale analytique.
John Rawls (1921-2002) publie en 1971 A Theory of Justice, oeuvre monumentale qui renouvelle la philosophie politique libérale en s'appuyant sur la procédure du voile d'ignorance : les principes de justice sont ceux que des individus rationnels choisiraient s'ils ignoraient leur place dans la société. Ce contractualisme sophistiqué relance la philosophie politique analytique et suscite des réponses aussi importantes que celles de Robert Nozick (1938-2002), qui défend un libertarisme des droits individuels, et de Michael Sandel (né en 1953), qui attaque le libéralisme au nom d'une conception communautarienne des personnes. Dans le même temps, Derek Parfit (1942-2017) étudie les implications de l'identité personnelle pour l'éthique. Si ce qui constitue l'identité d'une personne dans le temps est moins ferme et moins déterminé qu'on ne le croit (si la personne n'est pas une entité métaphysique distincte des états psychologiques qui la composent) alors notre manière de penser les obligations envers nos successeurs, le poids de l'intérêt personnel, et la distribution intergénérationnelle de la justice doit être profondément révisée. Reasons and Persons (1984) est l'une des oeuvres les plus rigoureuses et les plus troublantes de la philosophie morale analytique. La philosophie
analytique depuis les années 1990.
David Lewis (1941-2001) développe un réalisme modal audacieux : les mondes possibles ne sont pas des fictions ou des constructions abstraites mais des entités concrètes aussi réelles que le monde actuel. Cette position, paradoxale et inconfortable, permet d'analyser avec une grande précision les conditionnels contrefactuels, les propriétés, les propositions. Elle reste une référence, moins pour être adoptée que pour servir d'étalon de rigueur : toute théorie des modalités doit dire pourquoi elle est meilleure, ou plus économique, ou moins contre-intuitive. Les positions concurrentes (l'actualisme modal de Robert Stalnaker, le combinatorialisme de David Armstrong, le fictionnalisme de Gideon Rosen) continuent de se raffiner en dialogue avec l'héritage lewisien. La question de la composition méréologique (qu'est-ce qui fait qu'un ensemble de parties forme un tout?) mobilise des philosophes comme Peter van Inwagen (né en 1942), dont la réponse radicale dans Material Beings (1990) continue de structurer le débat : seuls les organismes vivants existent vraiment comme objets composites; les tables, les chaises, les rochers ne sont que des arrangements de simples. Theodor Sider explore les implications du quadridimensionnalisme : les objets persistants dans le temps ne sont pas des entités tridimensionnelles qui endurent en étant entièrement présentes à chaque instant, mais des vers quadridimensionnels dont les tranches temporelles sont aussi réelles que les parties spatiales. Ces positions peuvent sembler ésotériques, mais elles engagent des questions profondes sur la nature du changement, de l'identité et de la persistance. Kit Fine (né en 1946), l'une des figures les plus originales de cette période, renouvelle la métaphysique en réhabilitant des concepts scolastiques longtemps négligés. Sa théorie de l'essence (distincte de la modalité au sens de Kripke) soutient que l'essence d'une chose est ce qui la fait être ce qu'elle est, non ce qui est nécessairement vrai d'elle : il est nécessaire que Socrate soit membre de l'ensemble singleton {Socrate}, mais cela ne fait pas partie de l'essence de Socrate; en revanche, cela fait partie de l'essence de l'ensemble {Socrate} de contenir Socrate. Cette distinction subtile ouvre une métaphysique fondée sur les dépendances essentielles plutôt que sur les relations modales brutes. Fine développe également une philosophie du temps qui ressuscite la distinction entre les faits temporels (tensed) et les faits atemporels (tenseless), et une ontologie de l'arbitraire conditionnel pour traiter les entités abstraites. Jonathan Schaffer (né en 1970) introduit et popularise le néo-aristotélisme en métaphysique, articulé autour de la relation de fondation (grounding). L'idée est que la métaphysique ne s'intéresse pas seulement à ce qui existe, mais à ce qui est fondamental, à ce sur quoi il repose. L'être physique fonde l'être chimique, l'être chimique fonde le biologique, le biologique fonde le mental et le social. Cette notion de fondation, distincte de la causalité et de la survenance logique, permet d'articuler des relations d'explication métaphysique sans réductionnisme éliminativiste : le mental est fondé dans le physique sans être identique ou réductible au physique. Le concept se répand rapidement dans les années 2010 et structure de nombreux débats en ontologie, éthique, philosophie des mathématiques et philosophie de la science. La
philosophie de l'esprit renouvelée.
Ce problème difficile de la conscience polarise les positions. D'un côté, les physicalistes cherchent à expliquer, réduire ou éliminer le qualitatif : Daniel Dennett (1942-2024), dans une position qu'il appelle le réalisme hétérophénoménologique, soutient que l'expérience subjective telle que nous la concevons naïvement est une illusion élaborée par le cerveau, et qu'une fois que nous aurons compris tous les mécanismes fonctionnels, il ne restera rien à expliquer. Son débat avec Chalmers est l'un des plus vifs et des plus illustratifs de la philosophie de l'esprit contemporaine : ils s'accordent sur les faits neuroscientifiques mais divergent radicalement sur ce que ces faits expliquent. D'autres physicalistes cherchent des voies plus modestes. Le physicalisme des propriétés secondes de Philip Goff (né en 1978), ou sa position pan-psychiste, proposent que la conscience n'est pas un ajout mystérieux au monde physique mais une propriété fondamentale présente à tous les niveaux de la nature, y compris au niveau des particules élémentaires. Le panpsychisme, longtemps considéré comme une curiosité marginale, regagne une légitimité académique réelle dans les années 2010, non parce que ses défenseurs auraient trouvé une preuve mais parce que toutes les alternatives semblent également problématiques. Goff, Chalmers, Giulio Tononi (né en 1960) avec sa théorie de l'information intégrée, construisent des cadres conceptuels différents pour accueillir la conscience sans dualisme de substance. La
philosophie morale analytique.
La méta-éthique connaît un renouveau que l'on n'attendait peut-être pas. Après des décennies dominées par des positions non-cognitivistes ou expressivistes (les jugements moraux ne sont pas vrais ou faux mais expriment des attitudes) le réalisme moral regagne du terrain. Derek Parfit (1942-2017), dans son ultime et monumental On What Matters (2011), défend une forme de cognitivisme non-naturaliste et cherche à montrer la convergence des théories conséquentialiste, déontologique et scanlonnienne (ce qu'il appelle la thèse de la triple théorie). Sa conviction que la vérité morale est objectivement accessible à la raison, et que les grandes théories éthiques peuvent être réconciliées, est à la fois un geste systématique rare dans la tradition analytique et une déclaration de foi dans la capacité de la philosophie à progresser. T. M. Scanlon (né en 1940), avec son contractualisme moral exposé dans What We Owe to Each Other (1998) et développé ensuite, fournit une autre position cognitiviste : les jugements moraux peuvent être vrais ou faux, et leur vérité est liée à des principes qu'aucun individu ne pourrait raisonnablement rejeter. L'expressivisme, cependant, se raffine plutôt qu'il ne disparaît. Simon Blackburn (né en 1944) développe le quasi-réalisme : le non-cognitiviste peut, par des étapes progressives, "gagner le droit" à tout ce que le réaliste affirme (la vérité des jugements moraux, leur rôle dans le raisonnement) sans postuler de propriétés morales objectives dans la réalité. Allan Gibbard (né en 1942), dans Wise Choices, Apt Feelings puis dans Thinking How to Live, développe l'expressivisme normatif autour du concept d'acte d'expression d'une norme : exprimer un jugement moral, c'est exprimer son adhésion à un système de normes. Ces raffinements font de l'expressivisme une position beaucoup plus sophistiquée que l'émotivisme brut d'Ayer. La bioéthique et l'éthique médicale se développent comme domaines appliqués dont les questions refluent vers la philosophie fondamentale. L'euthanasie, l'avortement, l'amélioration cognitive et génétique, la justice dans l'allocation des soins, l'éthique de la recherche médicale sont des sujets qui imposent aux philosophes de préciser leurs concepts d'autonomie, de personne, de bien-être, de responsabilité. L'éthique animale et l'éthique environnementale, longtemps traitées comme des domaines mineurs, gagnent en importance philosophique. Peter Singer (né en 1946) développe et défend l'utilitarisme des préférences dans ses implications les plus radicales pour notre traitement des animaux non humains et pour les obligations envers les générations futures. La question de l'égale considération des intérêts (indépendamment de l'espèce) devient un enjeu philosophique et politique majeur. Les travaux de Christine Korsgaard (née en 1952), qui défend les droits des animaux depuis une perspective kantienne dans Fellow Creatures (2018), montrent que la philosophie morale analytique peut aborder ces questions depuis des positions métaéthiques très différentes et arriver à des conclusions convergentes. Nouveaux
visages de l'épistémologie analytique.
La philosophie analytique des sciences continue de se raffiner. Le débat entre réalisme scientifique (la science décrit aproximativement des entités réelles qui existent indépendamment de notre connaissance) et antiréalisme prend de nouvelles formes. L'antiréalisme de van Fraassen (né en 1941), l'empirisme constructif, avait soutenu dans les années 1980 que la science vise seulement à l'adéquation empirique, non à la vérité sur les entités inobservables. Les réponses réalistes s'affinent : Stathis Psillos (né en 1965) développe le réalisme semblable à la vérité, Anjan Chakravartty le semiréalisme (réalisme ontologique semi-), Peter Lipton (1954-2007) défend l'inférence à la meilleure explication comme moteur du progrès scientifique. La question de la sous-détermination des théories par les données (plusieurs théories incompatibles peuvent être empiriquement équivalentes) continue de nourrir des prises de position épistémologiques nuancées. La philosophie de la physique, dans ces mêmes années, devient un domaine d'une intensité remarquable. Les interprétations de la mécanique quantique (interprétation de Copenhague, mondes multiples d'Everett, Bohm, GRW) sont examinées avec les outils de la philosophie analytique par des auteurs comme David Wallace, qui défend une version sophistiquée du réalisme des mondes multiples, ou Tim Maudlin (né en 1958), qui préfère un réalisme local et cherche à comprendre la non-localité quantique sans fantasme. La flèche du temps, la nature de l'espace-temps en physique relativiste et post-relativiste, la relation entre mécanique classique et mécanique quantique, la signification du principe de symétrie en physique fondamentale, questions situées à la frontière de la physique et de la philosophie, constituent l'un des domaines les plus stimulants de la philosophie analytique contemporaine. Longtemps, l'épistémologie analytique s'était concentrée sur l'individu isolé face au monde : comment puis-je justifier mes croyances? Les années 2000 voient un intérêt croissant pour la dimension sociale de la connaissance. L'épistémologie sociale émerge ainsi comme sous-discipline à part entière. Alvin Goldman (1938-2024) développe une épistémologie sociale fiabiliste, examinant comment les institutions (médias, tribunaux, systèmes experts) contribuent ou nuisent à la production de croyances vraies dans les populations. Helen Longino (née en 1944), Miranda Fricker (née en 1966), Elizabeth Anderson (née en 1959) s'intéressent aux injustices épistémiques : les façons dont certains groupes sont systématiquement disqualifiés comme témoins ou comme producteurs de savoirs. Miranda Fricker, en particulier, forge le concept d'injustice testimoniale (le tort causé à quelqu'un lorsqu'on sous-estime sa crédibilité en raison d'un préjugé identitaire) et d'injustice herméneutique, lorsqu'un groupe manque des ressources conceptuelles pour comprendre et communiquer ses propres expériences. Ces idées, publiées dans Epistemic Injustice (2007), connaissent une diffusion extraordinaire et stimulent un dialogue entre la philosophie analytique et les études critiques de genre ou de classe, dialogue qui était longtemps bloqué par les frontières disciplinaires et stylistiques. La
philosophie analytique au défi des mondes numériques.
L'éthique de l'intelligence artificielle (IA) s'impose comme sous-domaine à mesure que les systèmes d'apprentissage automatique deviennent omniprésents. Les problèmes de biais algorithmique, de transparence et d'explicabilité, de responsabilité dans les systèmes autonomes, d'alignment entre les valeurs humaines et les objectifs des systèmes d'IA (ces questions mobilisent des philosophes qui doivent à la fois comprendre les systèmes techniques et maîtriser les cadres éthiques traditionnels). Stuart Russell (né en 1962), chercheur en intelligence artificielle, propose une reformulation des fondements de l'IA à partir du principe d'incertitude sur les préférences humaines : une IA sage est une IA qui sait qu'elle ne sait pas exactement ce que nous voulons et qui agit prudemment en conséquence. Enfin, la montée en puissance de l'intelligence artificielle générative depuis le début des années 2020 projette la philosophie analytique dans un nouveau territoire d'urgence. Les grandes questions qui avaient été posées abstraitement (la conscience des machines, l'alignement des valeurs, la nature du langage et de la compréhension, la responsabilité des systèmes autonomes) deviennent soudainement empiriquement pressantes. Les systèmes de traitement du langage à grande échelle soulèvent à nouveau les arguments de Searle sur la chambre chinoise, mais dans un contexte où les performances de ces systèmes défient les intuitions sur lesquelles l'argument reposait. Sont-ils de simples manipulateurs de symboles, ou quelque chose de plus s'est-il produit dans l'échelle et la complexité? La philosophie analytique entre dans ce débat avec ses outils (distinctions conceptuelles, analyse des arguments, clarification des enjeux) mais aussi avec une humilité nouvelle devant des phénomènes que personne n'avait vraiment anticipés. Nick Bostrom (né en 1973) développe le transhumanisme comme position philosophique articulée : l'amélioration de l'être humain par des moyens technologiques n'est pas seulement permise mais peut constituer une obligation morale. Son ouvrage Superintelligence (2014), traitant des risques existentiels liés à l'intelligence artificielle, contribue à faire de la sécurité de l'IA un sujet de philosophie sérieuse, anticipant de façon frappante des débats qui deviendront centraux dans les années 2020. Les
autres orientations de la philosophie analytique actuelle.
La philosophie de la logique et des mathématiques ne reste pas à l'écart de ce renouveau. Crispin Wright (né en 1942) et Bob Hale (1945-2017) défendent le néo-logicisme fregeanien, tentant de ressusciter le programme de Frege à partir du principe de Hume : le nombre d'objets F est égal au nombre d'objets G si et seulement si les F et les G peuvent être mis en correspondance biunivoque. Si ce principe est analytique, l'arithmétique pourrait être analytique également. Les objections de Frege à ses propres ambitions (le paradoxe de Russell) sont contournées par des restrictions soigneuses, mais le débat sur le caractère analytique ou épistémologiquement innocent du principe de Hume reste ouvert.Hartry Field (né en 1946), de son côté, maintient un nominalisme radical en mathématiques : les objets mathématiques n'existent pas, et les mathématiques sont utiles non parce qu'elles décrivent une réalité abstraite mais parce qu'elles constituent un raccourci commode pour des inférences nominalistiquement acceptables. La philosophie politique analytique, stimulée par l'héritage de Rawls, se diversifie considérablement. Rawls lui-même publie en 1999 The Law of Peoples, étendant sa théorie de la justice à l'échelle internationale avec des conclusions qui déçoivent les cosmopolites : la justice globale ne requiert pas les mêmes inégalités que la justice domestique. Thomas Pogge (né en 1953) et Charles Beitz (né en 1949) défendent au contraire un cosmopolitisme qui applique des principes stricts de justice à l'échelle mondiale, et Pogge développe une thèse provocatrice : les institutions économiques internationales causent activement la pauvreté mondiale et rendent les nations riches complices d'une injustice structurelle. La philosophie des discriminations phénotypique, de genre et de classe entre dans le canon analytique avec une légitimité croissante. Sally Haslanger (née en 1955) développe une approche analytique des catégories sociales, distinguant les catégories génétiques (définies par leur origine), les catégories manifestées (définies par leurs propriétés actuelles) et les catégories causalement efficaces (définies par leur rôle dans des structures sociales). Sa question caractéristique (que voulons-nous que "femme" signifie, compte tenu de nos objectifs politiques et analytiques?) illustre un révisionnisme conceptuel qui combine rigueur analytique et engagement normatif.Ãsta Sveinsdóttir (née en 1969), Charlotte Witt (née en 1951), ÃyÅŸe GündoÄŸdu contribuent à une philosophie analytique du genre et de la catégorisation selon la couleur de la peau qui prend au sérieux les apports de la pensée féministe et postcoloniale sans abandonner les standards d'argumentation analytiques. Ajoutons qu'au cours des dernières années, la philosophie analytique a commencé à prendre conscience de ses propres angles morts historiques et géographiques. La domination du monde anglophone, la tendance à ignorer les traditions non-occidentales, les biais de genre dans les citations et les embauches sont des questions qui désormais traversent les congrès et les publications. Des initiatives comme le projet de métaphysique inclusive, ou les travaux de Jay Garfield (né en 1955) et Bryan Van Norden (né en 1962) plaident pour l'intégration de la philosophie asiatique dans les programmes, tentent de corriger ce provincialisme. La philosophie comparée analytique (confrontant les traditions indienne, chinoise ou africaine aux problèmes analytiques) produit ainsi des travaux originaux qui enrichissent les deux côtés. |
| . |
|
|
|
|||||||||||||||||||||||||||||||
|