.
-

Histoire de la philosophie > La philosophie contemporaineLa philosohie analytique
L'épistémologie 
et la philosophie des sciences
dans la tradition analytique
Dans la tradition analytique, l'épistémologie se développe comme une enquête sur la nature, les sources et la justification de la connaissance, avec une attention soutenue portée à l'analyse conceptuelle et aux conditions de vérité. Elle s'articule autour de la question classique de savoir ce que signifie "savoir que p", souvent analysé en termes de croyance vraie justifiée, une définition qui a été profondément remise en cause par les contre-exemples introduits par Edmund Gettier. Ces cas ont montré que la possession d'une justification adéquate et d'une croyance vraie ne suffit pas nécessairement à constituer un savoir, ce qui a engendré une prolifération de théories concurrentes visant à préciser les conditions supplémentaires requises, telles que l'absence de chance épistémique ou la fiabilité du processus cognitif.

Une ligne de fracture importante traverse la discipline entre internalisme et externalisme. Les internalistes soutiennent que les facteurs justifiant une croyance doivent être accessibles à la conscience du sujet, tandis que les externalistes, tels que Alvin Goldman, mettent l'accent sur des conditions objectives comme la fiabilité des mécanismes cognitifs indépendamment de l'accès réflexif. Cette opposition structure des débats plus larges sur la normativité épistémique, notamment sur la question de savoir si la justification dépend de normes internes à la rationalité du sujet ou de relations causales adéquates avec le monde.

La philosophie analytique s'est également engagée dans une analyse approfondie du scepticisme. Les scénarios sceptiques (cerveaux dans une cuve, démons trompeurs) servent à tester la robustesse de nos prétentions à la connaissance. Des réponses variées ont été proposées, allant du contextualisme, qui affirme que les standards de connaissance varient selon les contextes discursifs, au disjonctivisme et aux théories sensibles à la sécurité modale des croyances. L'objectif n'est pas toujours de réfuter définitivement le scepticisme, mais d'en clarifier les présupposés et d'évaluer la portée de ses défis.

En philosophie des sciences, la tradition analytique s'est initialement structurée autour du projet d'une reconstruction logique des théories scientifiques. Le positivisme logique, associé au Cercle de Vienne, cherchait à distinguer les énoncés scientifiques significatifs des pseudo-propositions métaphysiques à l'aide de critères de vérifiabilité. Cette approche a progressivement été abandonnée face à des critiques internes et externes, notamment celles de Karl Popper, qui a proposé le critère de falsifiabilité comme marque distinctive de la scientificité. Plutôt que de vérifier définitivement des théories, la science progresse en soumettant des hypothèses à des tests susceptibles de les réfuter.

Cependant, l'image cumulative et strictement rationnelle de la science a été remise en question par Thomas Kuhn, qui a introduit la notion de paradigme et décrit le développement scientifique comme une succession de révolutions où les cadres conceptuels eux-mêmes sont transformés. Cette perspective a mis en lumière des dimensions historiques, sociologiques et psychologiques de la pratique scientifique, en tension avec l'idéal analytique de rationalité formelle. Les débats qui ont suivi ont porté sur la rationalité des changements de théorie, la comparabilité des paradigmes et la possibilité d'un progrès scientifique objectif.

Parallèlement, des philosophes comme Imre Lakatos et Paul Feyerabend ont proposé des modèles alternatifs, respectivement en termes de programmes de recherche et de pluralisme méthodologique. Ces approches cherchent à préserver une forme de rationalité scientifique tout en reconnaissant la complexité et la diversité des pratiques effectives. La question de la structure des explications scientifiques a également occupé une place centrale, avec des modèles tels que l'explication déductive-nomologique et ses critiques, qui ont conduit à des conceptions plus nuancées intégrant causalité, mécanismes et dépendances contrefactuelles.

La philosophie analytique contemporaine tend à intégrer des outils issus de la logique formelle, de la théorie des probabilités et de la philosophie du langage pour analyser des notions comme la confirmation, la causalité et la représentation scientifique. Elle s'intéresse également à des domaines spécialisés tels que la philosophie de la physique, de la biologie ou des sciences cognitives, en examinant les concepts propres à ces disciplines avec la même exigence de précision. L'ensemble de ces travaux témoigne d'une évolution depuis un idéal de formalisation stricte vers une approche plus pluraliste, tout en conservant un engagement fondamental envers la rigueur argumentative et l'analyse conceptuelle.

Jalons historiques.
L'épistémologie analytique prend son essor dans un contexte de crise intellectuelle profonde. À la fin du XIXe siècle, les fondements des mathématiques vacillent sous l'effet des paradoxes de la théorie des ensembles, et la physique newtonienne se révèle incapable de rendre compte des phénomènes électromagnétiques. C'est dans ce double contexte de rupture que Gottlob Frege, Bertrand Russell et G. E. Moore entreprennent de refonder la philosophie sur des bases logiques rigoureuses, convaincus que la clarification du langage et du raisonnement constitue la tâche première de toute enquête intellectuelle sérieuse.

Russell et Alfred North Whitehead publient entre 1910 et 1913 les trois volumes des Principia Mathematica, tentative colossale de dériver l'ensemble des mathématiques à partir de principes logiques purs. Le programme logiciste qu'ils poursuivent, et que Frege avait initié avec ses Grundgesetze der Arithmetik, repose sur la conviction que la connaissance mathématique est analytique, c'est-à-dire vraie en vertu de la seule signification des termes impliqués. Russell développe parallèlement sa théorie des descriptions définies, qui montre comment des expressions apparemment référentielles comme " le roi actuel de France" peuvent être analysées logiquement sans présupposer l'existence de l'objet désigné. Cette technique d'analyse logique devient le modèle d'une philosophie qui prétend dissoudre les pseudo-problèmes métaphysiques en montrant qu'ils reposent sur des confusions de langage.

Le jeune Ludwig Wittgenstein, élève de Russell à Cambridge, pousse cette logique à ses limites dans le Tractatus Logico-Philosophicus (1921). Le monde, dit-il, est la totalité des faits, non des choses; le langage représente le monde en partageant avec lui une forme logique commune. Les propositions dotées de sens sont des images de faits possibles; les propositions de la logique sont des tautologies vides de contenu empirique; et ce dont on ne peut parler (l'éthique, l'esthétique, le sens de la vie) on doit le taire. Cette démarcation tranchée entre le dicible et l'indicible aura une influence considérable, même si Wittgenstein lui-même finira par la rejeter entièrement.

Le Cercle de Vienne s'empare de ces outils dans les années 1920 pour construire le positivisme logique, doctrine épistémologique la plus importante de la première moitié du XXe siècle. Moritz Schlick, Rudolf Carnap, Otto Neurath, Hans Reichenbach et leurs collègues partagent la conviction que seules deux sortes d'énoncés sont cognitivement significatifs : les vérités analytiques, vraies par convention ou par définition, et les propositions empiriquement vérifiables. Tout énoncé qui ne satisfait à aucun de ces deux critères (métaphysique, théologique, éthique) est dépourvu de sens cognitif, simple expression d'émotion ou d'attitude. Le critère de vérifiabilité devient ainsi l'instrument d'une critique radicale de la métaphysique traditionnelle.

Carnap développe ce programme avec une sophistication technique remarquable. Dans Der logische Aufbau der Welt (1928), il tente de construire rationnellement l'ensemble des concepts scientifiques à partir d'une base phénoménale minimale, en utilisant la logique moderne comme outil de construction. L'ambition est de montrer que tout ce qui peut être dit significativement peut être dit en termes d'expériences élémentaires reliées par des relations logiques. Plus tard, dans Logical Syntax of Language (1934), Carnap déplace le programme vers le plan syntaxique : la philosophie n'est pas une doctrine mais une activité d'analyse logique du langage de la science. Les questions apparemment ontologiques (les nombres existent-ils?, le monde extérieur est-il réel?) se révèlent soit des questions internes à un cadre linguistique donné, soit des pseudo-questions sans sens déterminé.

Karl Popper représente la dissidence la plus célèbre et la plus féconde à l'intérieur de ce milieu intellectuel. Bien qu'associé au Cercle de Vienne, il en rejette le critère de vérifiabilité comme fondement de la démarcation entre science et non-science. Dans Logik der Forschung (1934), traduit plus tard en anglais sous le titre The Logic of Scientific Discovery, Popper soutient que le critère pertinent est la réfutabilité : une théorie est scientifique non pas parce qu'elle peut être vérifiée, mais parce qu'elle peut en principe être contredite par l'expérience. La psychanalyse freudienne et l'astrologie échouent à ce test non parce qu'elles sont fausses mais parce qu'elles s'arrangent toujours pour interpréter les données en leur faveur, ce qui les rend infalsifiables et donc non scientifiques. La mécanique newtonienne et la relativité einsteinienne, au contraire, font des prédictions précises et risquées que l'expérience pourrait démentir.

Cette conception induit une épistémologie radicalement asymétrique : on ne peut jamais vérifier définitivement une théorie générale par accumulation de cas positifs (c'est le problème de l'induction), mais on peut la réfuter définitivement par un seul contre-exemple. La science progresse non par vérification cumulative mais par élimination des erreurs : conjectures audacieuses soumises à des tentatives sérieuses de réfutation, remplacement des théories réfutées par des théories plus audacieuses encore. Popper développe cette vision épistémologique en une philosophie sociale dans The Open Society and Its Enemies (1945) : la société démocratique libérale est l'analogue politique de la science falsificationniste, une société qui se corrige elle-même par des mécanismes institutionnels de critique et de réforme progressive plutôt que par des révolutions totalitaires fondées sur des certitudes dogmatiques.

Le problème de l'induction, hérité de Hume, reste au coeur des préoccupations épistémologiques analytiques. Nelson Goodman le reformule dans Fact, Fiction and Forecast (1954) sous une forme nouvelle qui le rend encore plus aigu. Il introduit le prédicat fictif 'vleu" : un objet est vleu s'il est examiné avant l'an 2100 et vert, ou non examiné avant cette date et bleu. Toutes les émeraudes observées jusqu'ici confirment à la fois l'hypothèse " toutes les émeraudes sont vertes" et l'hypothèse "toutes les émeraudes sont vleues". Pourquoi préférons-nous la première? Parce que vert est un prédicat entrainé ( = ancré dans notre pratique linguistique et inductive) tandis que "vleu" est artificiel. Mais cette réponse déplace seulement la question : qu'est-ce qui fonde la légitimité d'un prédicat entrainé? Le nouveau problème de l'induction de Goodman révèle que la confirmation empirique est irrémédiablement dépendante de choix conceptuels qui ne se justifient pas eux-mêmes par l'expérience.

Carl Hempel, de son côté, analyse la structure logique de l'explication scientifique et propose le modèle hypothético-déductif ou nomologico-déductif : expliquer un phénomène, c'est le déduire à partir de lois générales et de conditions initiales. Ce modèle, d'une élégance formelle séduisante, rencontre aussitôt des contre-exemples embarrassants, comme le paradoxe de Hempel lui-même, dit paradoxe des corbeaux. Wesley Salmon développe en réponse une conception causale et probabiliste de l'explication, soutenant que expliquer c'est montrer comment un événement s'insère dans le réseau des régularités causales du monde.

Thomas Kuhn bouleverse la philosophie des sciences en 1962 avec The Structure of Scientific Revolutions. Contre l'image cumulative et rationaliste de la science (progression régulière vers la vérité par accumulation de faits vérifiés et élimination des théories réfutées), Kuhn propose une image historique et sociologique radicalement différente. La science normale se déroule à l'intérieur d'un paradigme (ensemble de problèmes exemplaires, de méthodes, d'engagements ontologiques partagés par une communauté scientifique) et consiste à résoudre des puzzles dans ce cadre. Les anomalies s'accumulent mais sont généralement ignorées ou requalifiées plutôt que traitées comme des réfutations. Lorsque la crise devient suffisamment profonde, une révolution scientifique substitue un nouveau paradigme à l'ancien, non par démonstration rationnelle décisive mais par un processus qui ressemble davantage à une conversion que à une déduction.

La thèse la plus controversée de Kuhn est l'incommensurabilité des paradigmes : les scientifiques qui travaillent dans des paradigmes différents habitent des mondes différents, parlent des langues différentes, voient des choses différentes lorsqu'ils regardent les mêmes phénomènes. Galilée et ses adversaires aristotéliciens ne partagent pas simplement des théories différentes sur la chute des corps; ils ont des conceptions différentes de ce que signifie expliquer un phénomène, de ce qui compte comme observation pertinente, de ce qu'est le mouvement. Cette thèse d'incommensurabilité sera au coeur de polémiques interminables sur le relativisme en philosophie des sciences.

Imre Lakatos tente une synthèse entre Popper et Kuhn dans sa méthodologie des programmes de recherche scientifique. Un programme de recherche est structuré par un noyau dur d'hypothèses fondamentales que les scientifiques s'engagent à ne pas réfuter, protégé par une ceinture protectrice d'hypothèses auxiliaires modifiables. La falsification ne frappe jamais le noyau directement mais toujours la ceinture. Un programme est progressif s'il conduit à des prédictions nouvelles confirmées, dégénératif s'il ne fait qu'accommoder les anomalies au coup par coup. Lakatos conserve ainsi l'idéal poppérien d'évaluation rationnelle des théories tout en faisant droit à l'observation kuhnienne que les scientifiques ne abandonnent pas leurs théories fondamentales à la première réfutation.

Paul Feyerabend radicalise la critique de Popper jusqu'à ce qu'il appelle lui-même l'anarchisme épistémologique. Dans Against Method (Contre la méthode,  1975), il soutient que l'histoire de la science révèle que les grands progrès scientifiques ont été accomplis non pas en suivant des règles méthodologiques rigoureuses mais en les violant délibérément. Galilée, pour défendre l'héliocentrisme contre des observations apparemment défavorables, a eu recours à des arguments rhétoriques, à des redéfinitions conceptuelles ad hoc, à des appels à des intuitions non encore consolidées. La seule règle méthodologique qui n'entrave pas le progrès scientifique est tout est permis (anything goes). Feyerabend ne prône pas le nihilisme épistémique mais soutient que la science n'a pas de méthode unique, et que son érection en seule forme légitime de connaissance est une idéologie, une religion moderne qu'il convient de démystifier.

L'épistémologie analytique proprement dite connaît un tournant décisif en 1963 avec l'article d'Edmund Gettier, Is Justified True Belief Knowledge?, trois pages qui bouleversent deux millénaires de philosophie. La définition platonicienne de la connaissance comme croyance vraie justifiée semblait robuste : je sais que p si et seulement si je crois que p, si p est vrai, et si j'ai de bonnes raisons de croire que p. Gettier construit des contre-exemples minimalistes où quelqu'un a une croyance vraie justifiée mais ne semble manifestement pas savoir : Smith croit à tort que Jones obtiendra le poste, et croit par ailleurs à tort que Jones a dix pièces dans sa poche; il infère donc que " l'homme qui obtiendra le poste a dix pièces dans sa poche"   or c'est Smith lui-même qui obtiendra le poste, et Smith a lui-même dix pièces dans sa poche sans le savoir. La croyance de Smith est vraie et justifiée, mais il ne sait pas.

Les réponses aux cas Gettier mobilisent la philosophie analytique pendant des décennies. Alvin Goldman propose une théorie causale de la connaissance : connaître p, c'est avoir une croyance vraie en p causalement connectée de la bonne manière au fait qui la rend vraie. Robert Nozick développe une théorie des conditions subjectives ou tracking : je sais que p si ma croyance " traque" la vérité, c'est-à-dire si je ne croirais pas p si p était faux, et si je croirais p dans les mondes possibles proches où p est vrai. Alvin Plantinga propose le concept de warrant (ce qui distingue la connaissance de la simple croyance vraie) qu'il identifie à un fonctionnement propre des facultés cognitives dans un environnement approprié.

L'épistémologie fiabiliste, dont Goldman est le principal architecte, soutient qu'une croyance est justifiée si elle est produite par un processus cognitif fiable, c'est-à-dire un processus qui tend à produire des croyances vraies. Cette approche externaliste rompt avec la tradition internaliste qui exigeait que les raisons de la justification soient accessibles au sujet lui-même : le sujet n'a pas besoin de savoir que son processus cognitif est fiable pour que sa croyance soit justifiée. La fiabilité est une propriété objective du processus, pas une propriété de la représentation que le sujet en a. Cette distinction entre internalisme et externalisme. épistémique structure une grande partie des débats des années 1980 et 1990.

Willard Van Orman Quine, figure centrale de la philosophie analytique américaine du XXe siècle, remet en cause deux dogmes fondateurs de l'épistémologie logico-empiriste dans son article canonique Two Dogmas of Empiricism (1951). Le premier dogme est la distinction analytique-synthétique : Quine soutient qu'aucune explication satisfaisante de l'analyticité n'a jamais été donnée, que la notion de vérité par signification est circulaire et ne peut pas être fondée indépendamment de la notion de synonymie, elle-même tout aussi obscure. Le second dogme est le réductionnisme : l'idée carnapienne que chaque énoncé empiriquement significatif peut être traduit en énoncés sur l'expérience immédiate. Contre le réductionnisme, Quine avance la thèse du holisme confirmationnel : c'est l'ensemble de notre savoir qui fait face au tribunal de l'expérience, non des énoncés isolés. Face à une observation contraire, nous pouvons toujours sauver n'importe quel énoncé particulier en révisant d'autres parties de notre système de croyances.

Ces deux thèses convergent vers ce que Quine appelle l'épistémologie naturalisée, développée dans son article Epistemology Naturalized (1969). Si la démarcation entre analytique et synthétique s'effondre, et si c'est l'ensemble du savoir qui se confirme ou s'infirme globalement, alors l'épistémologie ne peut plus se présenter comme une discipline fondatrice qui justifie la science de l'extérieur. L'épistémologie doit être naturalisée : elle devient une branche de la psychologie cognitive ou des sciences empiriques, qui étudie comment les êtres humains construisent leur image du monde à partir de l'irritation de leurs surfaces sensorielles. La question normative (comment devrions-nous former nos croyances?) est subsumée sous la question descriptive (comment formons-nous effectivement nos croyances?) Cette dissolution du normatif dans le descriptif sera vivement contestée par les épistémologues qui tiennent à la spécificité de la justification rationnelle.

La thèse de Quine sur l'indétermination de la traduction complète ce tableau. Dans Word and Object (1960), il argüe que la traduction d'un langage inconnu est fondamentalement indéterminée : des manuels de traduction incompatibles peuvent être également compatibles avec toutes les dispositions verbales observables des locuteurs. Si un indigène dit "gavagai" en voyant passer un lapin, rien ne permet de décider si ce mot signifie "lapin", "partie de lapin non détachée", " stade temporel de lapin" ou tout autre description co-extensive dans les situations d'énonciation. Cette indétermination n'est pas une lacune de l'information mais une vérité sur la nature du sens linguistique. La thèse de la relativité ontologique qui l'accompagne soutient que la question de savoir à quels objets réfèrent nos termes n'a de réponse déterminée qu'à l'intérieur d'un schème conceptuel choisi.

Hilary Putnam s'attaque à des territoires contigus avec une richesse et une instabilité intellectuelle remarquables. Dans les années 1970, il défend le réalisme scientifique et le fonctionnalisme en philosophie de l'esprit, contribuant à l'externalisme sémantique avec son argument sur la Terre jumelle : si sur une planète identique à la Terre l'eau est non pas H2O mais XYZ, alors le terme "eau" réfère à des choses différentes dans les bouches des locuteurs terriens et jumeaux, même si leurs états mentaux internes sont indiscernables. Le sens, conclut Punam, n'est pas dans la tête. La signification est déterminée non par les représentations mentales du locuteur mais par la nature réelle des choses et par la division sociale du travail linguistique. Plus tard, Putnam développe l'argument du cerveau dans une cuve contre le scepticisme radical : si j'étais un cerveau dans une cuve nourri de simulations, mes termes référeraient à des états de simulation et non au monde réel, de sorte que ma pensée " je suis un cerveau dans une cuve" serait fausse quelle que soit la situation.

La philosophie des sciences se préoccupe parallèlement des grandes questions de réalisme scientifique. Les théories scientifiques mûres nous donnent-elles une image approximativement vraie du monde, y compris de ses entités inobservables (électrons, quarks, champs quantiques)? Le réalisme scientifique repose sur ce que Richard Boyd et Hilary Putnam appellent l'argument miracle (miracle argument) ou no miracle argument  : il serait miraculeux que les théories scientifiques soient empiriquement si bien confirmées si elles n'étaient pas approximativement vraies. L'antiréaliste instrumentaliste répond que les théories sont des outils de prédiction, non des descriptions du monde caché, et que leur succès empirique n'exige pas qu'on les prenne au pied de la lettre ontologique.

Bas van Fraassen développe l'empirisme constructif comme alternative au réalisme dans The Scientific Image (1980). Les théories scientifiques peuvent être empiriquement adéquates, correctes dans leurs prédictions sur les phénomènes observables, sans être vraies de manière plus profonde. L'acceptation d'une théorie n'implique de croire qu'en son adéquation empirique, non en l'existence réelle de ses entités théoriques. Ce que van Fraassen appelle l'attitude épistémique correcte à l'égard de la science est l'agnosticisme concernant l'inobservable, non le nihilisme. Larry Laudan contre-attaque avec l'argument de la méta-induction pessimiste (pessimistic meta-induction) : l'histoire de la science est peuplée de théories réussies dont les entités centrales se sont révélées fictives (l'éther luminifère, le phlogistique, le calorique). Si des théories fausses ont pu être empiriquement réussies dans le passé, le succès actuel ne garantit pas la vérité approximative.

Ian Hacking propose une version originale du réalisme scientifique centré non sur les théories mais sur les entités : si nous pouvons manipuler des électrons pour produire des effets sur d'autres phénomènes; comme dans les expériences d'effet Hall quantique, c'est la meilleure raison de croire en leur existence réelle. Cette distinction entre réalisme des entités et réalisme des théories ouvre une nouvelle dimension dans le débat. Hacking développe également une philosophie des styles de raisonnement scientifique, soutenant que différents styles (déductif, probabiliste, expérimental, taxonomique) constituent des manières distinctes de produire des vérités, chacune dotée de ses propres critères de raisonnement correct.

Nancy Cartwright, dans How the Laws of Physics Lie (1983), radicalise la critique du réalisme théorique depuis une direction inattendue : les lois fondamentales de la physique sont littéralement fausses, car elles ne s'appliquent qu'à des situations idéalisées qui n'existent pas dans la nature. Ce qui est réel, ce sont les capacités causales des entités particulières, non les lois universelles qui les décrivent. Cette position, qu'elle qualifie de réalisme patchwork ou de réalisme des capacités, rompt avec l'image d'une physique fondamentale capable de tout unifier sous quelques lois générales.

L'épistémologie sociale émerge comme sous-discipline distincte à partir des années 1980, posant la question de la connaissance comme phénomène collectif. Steve Fuller, Alvin Goldman et Philip Kitcher interrogent la structure des communautés épistémiques, la division cognitive du travail, les conditions institutionnelles de la production de connaissance. Kitcher, dans The Advancement of Science (1993), défend un réalisme scientifique pragmatique et montre comment la poursuite d'intérêts individuels au sein de communautés scientifiques bien organisées peut produire un résultat collectivement rationnel même si aucun individu n'est parfaitement rationnel. Miranda Fricker introduit en 2007 le concept d'injustice épistémique (tort fait à quelqu'un dans sa capacité de sujet épistémique soit par déficit de crédibilité accordée à son témoignage, soit par absence des ressources herméneutiques nécessaires pour comprendre son expérience.

La philosophie des sciences cognitives et de l'esprit s'articule de manière de plus en plus étroite à l'épistémologie. Le débat entre représentationalisme et connexionnisme, entre modularité forte à la Fodor et plasticité des systèmes distribués, entre cognition incarnée et cognition computationnelle classique, engage des questions épistémologiques fondamentales sur la nature de la perception, de la mémoire, du raisonnement. Andy Clark et David Chalmers proposent en 1998 la thèse de l'esprit étendu : les processus cognitifs peuvent s'étendre au-delà du cerveau pour inclure des artefacts externes (carnets, ordinateurs, environnements) dès lors qu'ils jouent un rôle fonctionnel analogue à des processus internes. Cette thèse remet en cause les frontières conventionnelles entre l'épistémologie du sujet individuel et l'épistémologie sociale.

L'épistémologie des vertus, développée par Ernest Sosa, Linda Zagzebski et John Greco, déplace l'attention des croyances et de leurs conditions de justification vers les dispositions et les facultés des sujets épistémiques. Une croyance constitue une connaissance non pas parce qu'elle satisfait à des conditions externes de fiabilité mais parce qu'elle manifeste des vertus intellectuelles (curiosité, rigueur, humilité, ouverture à la critique) qui caractérisent le bon épistémique. Zagzebski, dans Virtues of the Mind (1996), rapproche cette épistémologie des vertus de l'éthique des vertus aristotélicienne, soutenant que la valeur épistémique et la valeur morale partagent une structure commune.

Timothy Williamson provoque un renouvellement considérable de l'épistémologie analytique avec Knowledge and its Limits (2000). Contre la tradition qui cherche à analyser la connaissance en termes de croyance, vérité et justification, Williamson soutient que la connaissance est un état mental primitif qui ne peut pas être analysé en composants plus simples. Elle est irréductible. Plus radicalement, la connaissance est la norme de l'affirmation et de la croyance : on ne devrait affirmer que ce qu'on sait, et la croyance est l'intériorisation de cette norme. Williamson défend également une conception non-luministe de l'esprit : nous n'avons pas d'accès privilégié infaillible à nos propres états mentaux. Nous pouvons ignorer que nous savons quelque chose, ou croire à tort que nous savons.

La philosophie des sciences du XXIe siècle est caractérisée par une attention croissante aux pratiques scientifiques concrètes et à leur diversité. La philosophie de la biologie, de la chimie, des neurosciences, de l'économie et des sciences sociales se développe comme disciplines spécialisées qui résistent souvent à des modèles unifiés hérités de la physique. Elliott Sober analyse avec une rigueur formelle exceptionnelle les concepts de parcimonie, de sélection naturelle et de probabilité en biologie. Peter Godfrey-Smith questionne le statut du darwinisme comme théorie scientifique et étudie les conditions de l'explication adaptative. Philip Kitcher et Helen Longino interrogent la dimension sociale et politique de la production de connaissances scientifiques, et soutiennent que les valeurs ne peuvent pas être complètement évacuées de la pratique scientifique sans appauvrissement épistémique.

La question des modèles scientifiques occupe une place centrale dans la philosophie des sciences contemporaine. Les scientifiques travaillent avec des modèles (atmosphériques, économiques, biologiques, physiques) qui sont des représentations idéalisées, voire délibérément fausses, de leurs objets. Mary Morgan et Margaret Morrison soutiennent que les modèles sont des agents médiateurs autonomes entre la théorie et le monde, ni purement théoriques ni purement empiriques. Roman Frigg et Stephan Hartmann analysent la sémantique des modèles (en quel sens représentent-ils quelque chose?) et la pragmatique de leur usage dans la recherche réelle. Ces travaux révèlent que la philosophie des sciences ne peut plus se contenter d'analyser les théories comme des systèmes d'énoncés : elle doit rendre compte des pratiques de modélisation, de simulation computationnelle, d'expérimentation, de mesure, comme autant de modes distincts d'engagement avec le monde naturel.

L'intelligence artificielle (IA) et l'apprentissage automatique posent à la philosophie des sciences des questions entièrement nouvelles. Quand un réseau de neurones profond prédit avec une précision remarquable des phénomènes complexes (le repliement des protéines, les transitions de phase quantiques) sans fournir aucune explication causale compréhensible, s'agit-il de compréhension scientifique ou de prédiction aveugle? La question de l'explicabilité des systèmes d'IA engage directement les débats sur ce qu'est une explication scientifique, sur la relation entre prédiction et compréhension, sur les formes que peut prendre la connaissance. Ces questions, qui auraient semblé exotiques aux membres du Cercle de Vienne, prolongent ainsi avec une urgence nouvelle des interrogations que la tradition analytique porte depuis plus d'un siècle.

.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2026. - Reproduction interdite.