.
-

L'intelligence artificielle

L'intelligence artificielle ( = IA) est un domaine de l'informatique tourné vers le développement de systèmes capables d'effectuer des tâches qui nécessitent ordinairement l'intelligence humaine, par exemple, la résolution de problèmes, l'apprentissage, la reconnaissance de la parole, la prise de décision, la compréhension du langage naturel et la vision par ordinateur, etc. On n'attend pas des systèmes d'intelligence artificielle qu'ils fonctionnent comme l'esprit humain - et, de fait, ils en sont aujourd'hui très loin, et le terme d'intelligence est ici trompeur - mais seulement qu'ils accomplissent certaines tâches dont la réalisation requiert chez eux un recours à leurs capacités cognitives.

Les visages de l'intelligence artificielle

IA faible et IA forte.
En fonction des capacités des systèmes d'intelligence artificielle, on distingue ordinairement l'IA faible et l'IA forte. La première se réfère à des systèmes d'intelligence artificielle conçus et entraînés pour accomplir des tâches spécifiques ou résoudre des problèmes limités. La seconde, dont la possibilité est encore spéculative, aspirerait à une intelligence générale comparable à celle des êtres humains, prétendrait à une compréhension ou une conscience globales et pourrait éventuellement ressentir des émotions et des sentiments.

L'IA faible.
L'IA faible ne peut pas effectuer de tâches en dehors de son domaine de compétence et manque de la flexibilité et de l'adaptabilité de l'intelligence humaine. Elle fonctionne uniquement en se basant sur des algorithmes et des données prédéfinies. Elle nécessite également de grandes quantités de données pour être efficace et peut être sujette à des biais si les données d'entraînement sont biaisées.

L'entraînement d'une intelligence artificielle consiste à lui fournir des données et à ajuster ses paramètres pour qu'elle puisse accomplir une tâche spécifique de manière efficace. L'entraînement d'une IA commence par la collecte d'un ensemble représentatif de données de ce que l'IA devra traiter. Par exemple, des images pour la reconnaissance d'images ou des conversations pour un chatbot ( = agent conversationnel). Les données sont ensuite prétraitées, c'est-à-dire qu'elles sont nettoyées et préparées pour qu'elles soient dans un format utilisable par le modèle d'IA. Cela peut comprendre la normalisation des valeurs, le traitement des valeurs manquantes, et la segmentation des données en ensembles d'entraînement et de test. L'étape suivante est la sélection d'un modèle d'IA approprié. Vient ensuite l'entraînement proprement dit : les données d'entraînement sont utilisées pour ajuster les paramètres du modèle afin de minimiser les erreurs dans ses prédictions. Cela peut impliquer l'utilisation de techniques d'optimisation comme la descente de gradient. Les dernières étapes consistent à tester le modèle sur un ensemble de données de test distinct pour évaluer sa performance et s'assurer qu'il n'est pas sur-appris (overfitting). Enfin, on ajuste modifier le modèle ou les hyperparamètres en fonction des résultats de l'évaluation pour améliorer ses performances.

Un modèle d'IA est un système ou un algorithme conçu pour effectuer une tâche spécifique en apprenant à partir de données. Ces modèles peuvent être supervisés (étiquetage humain des données), non supervisés  (découverte de motifs dans les données), semi-supervisés ou permettre un pprentissage par renforcement (optimisation par essai-erreur), et sont utilisés dans diverses applications, telles que la reconnaissance d'images, le traitement du langage naturel, et les prévisions de séries temporelles. Les modèles d'IA incluent des algorithmes de diverses sortes, parmi lesquels les arbres de décision et les réseaux de neurones, par exemple.

 Les types d' IA faible.
• IA basée sur des règles (Rule-Based AI). - Ces systèmes fonctionnent en suivant des ensembles prédéfinis de règles ou de conditions if-then ( = si-alors). Exemples : systèmes experts utilisés pour le diagnostic médical, logiciels de gestion de la conformité légale.

• IA basée sur l'apprentissage supervisé. - Les modèles sont entraînés à partir de données étiquetées pour prédire des résultats ou classer des données nouvelles. Exemples : reconnaissance d'image, classification d'emails en spam ou non, prévision des ventes.

• IA basée sur l'apprentissage non supervisé. - Les modèles analysent des données non étiquetées pour découvrir des structures cachées ou des regroupements. Exemples : clustering pour l'analyse de marché, détection d'anomalies dans la surveillance de la sécurité.

• IA basée sur l'apprentissage par renforcement. - Les systèmes apprennent à partir de l'interaction avec leur environnement en recevant des récompenses ou des punitions pour leurs actions. Exemples : jeux vidéo, robots de nettoyage autonomes, algorithmes de trading.

• Traitement du langage naturel  (NLP = natural language processing). - Ces systèmes permettent aux machines de comprendre, interpréter et générer le langage humain. Exemples : chatbots, assistants virtuels (comme Siri et Alexa), analyse de sentiment dans les réseaux sociaux. 

• Systèmes de recommandation. - Utilisent des algorithmes pour suggérer des produits, des films, des livres, etc., en se basant sur les préférences et les comportements des utilisateurs. Exemples : recommandations de films sur Netflix, recommandations de produits sur Amazon, playlists personnalisées sur Spotify. 

• Vision par ordinateur. - Ces systèmes permettent aux machines d'interpréter et de comprendre les informations visuelles à partir du monde réel. Exemples : reconnaissance faciale, détection d'objets, analyse d'images médicales.

• Reconnaissance vocale. - Permet aux machines de comprendre et de transcrire la parole humaine en texte. Exemples : systèmes de transcription, assistants vocaux, systèmes de commande vocale dans les véhicules.

• Robots industriels. -  Robots programmés pour effectuer des tâches spécifiques dans des environnements industriels (un robot est un système électromécanique piloté par une IA). Exemples : robots d'assemblage, bras robotiques pour le soudage, tri automatisé dans les entrepôts.

• Agents conversationnels. - Programmes conçus pour simuler une conversation humaine en utilisant des techniques de NLP et d'apprentissage automatique. Exemples : chatbots de service client, systèmes de réponse automatique.

• Systèmes de jeu. -  IA conçue pour jouer à des jeux et parfois battre des joueurs humains. Exemples : AlphaGo de Google DeepMind, moteurs d'échecs comme Stockfish.
-

Kasparov contre Deep Blue.
Le champion du monde d'échecs Garri Kasparov, dépité à l'issue de sa dernière partie perdue contre le programme d'IA Deep Blue, le 11 mai 1997, à New York. - Deep Blue, reposant sur une structure hardware massivement parallèle, était capable d'évaluer environ 200 millions de positions d'échecs par seconde. Cette capacité de calcul énorme lui permettait de rechercher très profondément dans l'arbre des possibilités de jeu. Il utilisait des algorithmes de recherche comme l'algorithme minimax et l'élagage alpha-bêta pour explorer les meilleures séquences de coups possibles. Ces algorithmes aidaient à élaguer les branches non prometteuses de l'arbre de recherche, se concentrant ainsi sur les coups les plus probables de conduire à une victoire. Pour chaque position d'échecs, Deep Blue utilisait une fonction d'évaluation qui tenait compte de divers facteurs comme la sécurité du roi, le contrôle du centre, la structure des pions, et le développement des pièces. Cette fonction était basée sur des connaissances spécifiques des échecs et aidée par des experts humains. Deep Blue disposait d'une vaste base de données de parties d'échecs jouées par des maîtres et grands maîtres. Cela lui permettait d'apprendre des stratégies et des ouvertures populaires, ainsi que de préparer des réponses spécifiques aux styles de jeu de Kasparov. Entre les parties de chaque match, les ingénieurs et les programmeurs d'IBM pouvaient ajuster et améliorer les algorithmes et la fonction d'évaluation de Deep Blue, tirant parti des observations faites lors des parties précédentes. Deep Blue pouvait apprendre des erreurs commises lors des parties précédentes et ajuster ses stratégies en conséquence, rendant plus difficile pour Kasparov de prédire et d'exploiter ses faiblesses. (Photo : JT d'Antenne-2 / INA).

• Systèmes de diagnostic et de prédiction médicale. - Utilisent des données médicales pour diagnostiquer des maladies ou prédire des résultats de santé. Exemples : IBM Watson pour l'oncologie, systèmes de dépistage de la rétinopathie diabétique.

• Systèmes de sécurité et de surveillance. - Utilisent des algorithmes pour détecter et analyser des comportements suspects ou des anomalies.  Exemples : détection de fraude en ligne, surveillance vidéo automatisée.

• Voitures autonomes. - Bien que les voitures autonomes soient très complexes et sophistiquées et fassente appel à un vaste éventail de compétences, elles sont considérées comme une forme d'IA faible car elles sont spécifiquement conçues pour la conduite et ne possèdent pas d'intelligence générale.

L'IA forte.
L'IA forte est encore (2024) à l'état de projets. Elle devrait être capable de comprendre et de raisonner sur un large éventail de sujets, sans être limitée à des tâches spécifiques. Elle devrait pouvoir interpréter des informations contextuelles, formuler des hypothèses et résoudre des problèmes complexes de manière similaire à un être humain. Elle devrait pouvoir acquérir de nouvelles compétences et connaissances de manière autonome, sans nécessiter d'interventions humaines pour chaque nouvelle tâche. Elle devrait être capable de transférer des connaissances d'un domaine à un autre. Par oppoistion à l'IA faible capable seulement d'exécuter des tâches spécifique, elle pourrait être qualifiée d'IA générale (IAG). Mais l'IA forte pourrait, de plus, posséder une certaine forme de conscience ou de compréhension de soi, ce qui lui permettrait de réfléchir sur ses propres actions et décisions. Elle devrait pouvoir prendre, par exemple, la forme d'un robot humanoïde capable de réaliser toutes les tâches qu'un humain peut accomplir, comme converser naturellement, créer des oeuvres d'art, comprendre et exprimer des émotions, résoudre des problèmes complexes, et bien plus encore. Ce serait surtout un système informatique capable d'apprendre n'importe quelle nouvelle compétence à un niveau expert, quel que soit le domaine, sans nécessiter de nouvelles programmations ou interventions humaines spécifiques.

Actuellement, l'IA forte reste un objectif théorique et non réalisé. Les chercheurs travaillent activement sur des aspects fondamentaux de l'intelligence générale, comme l'apprentissage non supervisé, le transfert de connaissances, et la compréhension contextuelle, mais il reste encore de nombreux défis techniques à surmonter avant d'atteindre une véritable IA forte. L'IA forte représente le sommet de la recherche en intelligence artificielle. Mais la création de l'IA forte soulève des questions éthiques complexes, notamment sur les droits des machines conscientes, l'impact sur l'emploi, et les risques potentiels pour la sécurité humaine. Que peut-on attendre (espérer ou craindre) d'une IA capable de rivaliser avec l'intelligence humaine dans toutes les tâches intellectuelles? Pourra-t-on attribuer une forme de conscience ou de subjectivité aux systèmes d'IA générale? Quelle est la nature de la compréhension qu'une machine pourrait avoir de son propre état ou de son environnement? Quels risques cela fait-il courir à l'espèce humaine? Comment minimiser les menaces potentielles posées par des systèmes d'IA puissants et autonomes? Quels pourraient être les impacts sur la compréhension de nous-mêmes et de notre place dans le monde si une telle IA était créée? Comment l'interaction avec des machines intelligentes modifierait-t-elle notre conception de l'humanité?

Types théoriques d'IA forte.
L'IA forte et sa version restreinte, l'intelligence artificielle générale (IAG), sont conceptualisées de différentes manières en fonction des approches et des objectifs poursuivis par les chercheurs et les théoriciens  :

• IA cognitive. - Inspirée par la structure et le fonctionnement du cerveau humain, cette IA chercherait à reproduire les processus cognitifs humains, comme la perception, le raisonnement, l'apprentissage et la mémoire. Exemple théorique : une machine capable de penser et de résoudre des problèmes de la même manière qu'un humain, utilisant des réseaux de neurones artificiels très avancés.

• IA basée sur le symbolisme. - Utiliserait des représentations symboliques de la connaissance pour effectuer des raisonnements de haut niveau, similaires à ceux des humains. Exemple théorique : un système capable de comprendre et manipuler des symboles abstraits pour effectuer des tâches de planification complexe et de résolution de problèmes.

• IA basée sur le connexionnisme. - S'appuierait sur des modèles de réseaux de neurones pour simuler les processus cognitifs, en imitant la structure du cerveau humain. Exemple théorique : une IAG capable d'apprendre de manière autonome et de s'adapter à de nouvelles situations en utilisant des architectures de réseaux neuronaux avancées.

• IA évolutive. - Utiliserait des algorithmes évolutionnaires et génétiques pour permettre à l'IA de s'améliorer et de s'adapter au fil du temps, en simulant le processus de sélection naturelle. Exemple théorique : une IA capable d'évoluer et de s'adapter continuellement en fonction des environnements et des tâches changeantes, devenant de plus en plus efficace et intelligente.

• IA hybride. - Combinerait plusieurs approches d'IA, comme le symbolisme, le connexionnisme et les algorithmes évolutionnaires, pour créer un système plus robuste et flexible. Exemple théorique : Une IAG utilisant à la fois des réseaux de neurones pour l'apprentissage et des représentations symboliques pour le raisonnement, intégrant également des mécanismes d'évolution pour l'amélioration continue.

• IA basée sur l'apprentissage profond. - Utiliserait des réseaux de neurones profonds et des techniques d'apprentissage automatique avancées pour atteindre une compréhension et une intelligence générale. Exemples théoriques : une IAG capable de traiter et d'analyser des volumes massifs de données, d'apprendre des modèles complexes et d'appliquer ces connaissances à divers domaines.

• IA basée sur la modélisation des agents. - Utiliserait des agents intelligents autonomes capables de prendre des décisions indépendantes et de collaborer entre eux pour résoudre des problèmes complexes. Exemple théorique : une société d'agents intelligents qui interagissent, collaborent et se coordonnent pour accomplir des tâches et atteindre des objectifs communs, simulant ainsi un comportement intelligent collectif.

• IA basée sur la simulation de la conscience. - Chercherait à modéliser et à reproduire des aspects de la conscience humaine, comme l'auto-réflexion, l'émotion et l'intuition. Exemple théorique : une IAG capable de ressentir des émotions, de réfléchir sur ses propres pensées et actions, et de prendre des décisions intuitives en plus des décisions logiques.

• IA quantique. - Utiliserait les principes de l'informatique quantique pour réaliser des calculs complexes à des vitesses inaccessibles aux ordinateurs classiques, potentiellement permettant une forme d'intelligence générale.  Exemple théorique : Une IAG utilisant des ordinateurs quantiques pour résoudre des problèmes extrêmement complexes et pour modéliser des systèmes cognitifs avancés.

• IA sociale. - Modéliserait et simule les interactions sociales humaines pour comprendre et reproduire des comportements sociaux complexes. Exemple théorique : une IAG capable de participer et de naviguer dans des environnements sociaux humains, comprenant les nuances des interactions humaines et s'intégrant parfaitement dans des contextes sociaux variés.

Questions philosophies et éthiques

Qu'est-ce que comprendre?
Pour un humain, comprendre implique de saisir les relations entre les différentes parties d'un tout, de voir comment les concepts se connectent et interagissent. Par exemple, comprendre une théorie scientifique signifie non seulement connaître ses faits et ses principes, mais aussi voir comment ils se relient de manière cohérente. Pour une IA, "comprendre" signifie généralement qu'elle est capable de traiter et d'interpréter des informations d'une manière qui lui permet de répondre aux questions ou aux tâches qui lui sont posées de manière contextuelle et appropriée. Cela va au-delà de la simple récitation de faits pour inclure la capacité à raisonner, inférer, et résoudre des problèmes. Cependant, cette compréhension est très différente de la compréhension humaine. La compréhension de l'IA est limitée par l'absence de conscience et d'expérience subjective. Les IA ne peuvent pas "ressentir" ou "vivre" les informations de la même manière que les humains, et leur compréhension est confinée aux paramètres et aux données avec lesquels elles ont été formées.

Une IA peut analyser des données et produire des résultats en se basant sur des algorithmes, sans nécessairement saisir le sens ou la signification profonde des informations. Par exemple, une IA peut traiter un texte en utilisant des modèles statistiques pour prédire la prochaine phrase, ou même seulement le prochain mot ou la prochaine lettre, sans comprendre réellement le contenu du texte. Les IA modernes, comme les modèles de traitement du langage naturel, utilisent des contextes et des relations entre les mots pour améliorer leur performance. Cependant, cette contextualisation est basée sur des statistiques et des patterns (= modèles) appris plutôt que sur une compréhension consciente du contenu.

Contrairement aux humains, les IA n'ont pas de conscience ou d'expérience subjective. Elles n'ont pas de sensations, d'émotions ou de perceptions, ce qui signifie que leur "compréhension" est purement fonctionnelle et algorithmique. Elles ne saisissent pas le sens de la manière dont les humains le font. Les IA peuvent intégrer et utiliser des connaissances à partir de vastes ensembles de données. Cependant, cette connaissance est déconnectée de l'expérience personnelle ou de la signification profonde. Par exemple, une IA peut savoir que "les chats ont des moustaches" parce qu'elle a été formée sur des images et des textes contenant cette information, mais elle ne comprend pas ce que cela signifie en termes d'expérience sensorielle ou d'interaction avec le monde.

Les IA symboliques utilisent des règles et des représentations explicites pour traiter les informations, tandis que les IA connectionnistes (comme les réseaux neuronaux) apprennent des représentations implicites à partir de données. La "compréhension" dans l'IA connectionniste est souvent moins explicite et plus difficile à interpréter.

Les modèles comme GPT-4, qui sont des réseaux neuronaux entraînés sur de grandes quantités de texte, simulent une compréhension en générant des réponses contextuellement appropriées (IA générative). Cependant, ils ne possèdent pas une compréhension consciente; ils prédisent simplement des mots ou des phrases basés sur les données sur lesquelles ils ont été formés. 
Dans des applications comme les assistants virtuels, les systèmes de recommandation ou les traducteurs automatiques, les IA montrent une forme de compréhension fonctionnelle qui est suffisante pour accomplir des tâches spécifiques. Cependant, cette compréhension est limitée à des contextes prédéfinis et ne s'étend pas à une conscience ou une compréhension généralisée. 

Les test de l'IA.
De quoi sont et seront capables les IA? De quoi aussi sont-elles ou seront-elles éventuellement incapables? Ces questions ne sont pas seulement théoriques. L'évaluation des IA repose sur différents tests pratiques et spécifiques, utilisés dans des contextes particuliers, comme la compréhension linguistique, la reconnaissance d'images, ou la capacité à résoudre des problèmes complexes.

Le test de Turing.
Proposé par Alan Turing en 1950, le test de Turing, est une mesure classique de l'intelligence artificielle. Il est destiné à déterminer si une machine peut manifester un comportement suffisamment intelligent pour ne pas être distingué de celui d'un être humain. Dans ce test, un évaluateur humain interagit avec deux entités à travers une interface textuelle : une autre personne et une machine. L'évaluateur pose des questions à chaque entité sans savoir laquelle est la machine et laquelle est l'humain. Si, après une série de questions, l'évaluateur ne parvient pas à distinguer de manière fiable laquelle des deux entités est la machine, alors cette machine est considérée comme ayant passé le test de Turing. 

Des chatbots comme ELIZA, développé dans les années 1960, ont montré la capacité des machines à engager des conversations rudimentaires. Plus récemment, des modèles comme GPT-3 et GPT-4 témoignent des progrès significatifs accomplis depuis dans la génération de texte qui peut sembler humain. Certains systèmes d'IA ont réussi à tromper des évaluateurs humains dans des tests de Turing simplifiés ou dans des contextes restreints, mais aucun n'a passé un test de Turing généralisé et rigoureux de manière convaincante.
Le test de Turing soulève des questions sur la nature de l'intelligence et de la conscience. Peut-on considérer une machine comme "intelligente" simplement parce qu'elle imite les réponses humaines de manière convaincante ? Le test ne prend pas en compte la conscience ou la subjectivité. Une machine pourrait réussir le test de Turing sans avoir de conscience ou de compréhension réelle des réponses qu'elle donne. Le test de Turing a motivé des recherches en IA visant à créer des machines capables de comprendre et de générer un langage naturel de manière convaincante. Les IA actuelles, comme les chatbots sophistiqués, peuvent imiter des conversations humaines dans certaines limites, mais souvent, elles restent incapable de prendre en compte réellement le contexte ou les nuances des interactions.

Le test a des limitations. Il se base sur la capacité de l'IA à imiter un comportement humain en surface sans évaluer la profondeur de la compréhension ou de la pensée. Les jugements des évaluateurs peuvent aussi être biaisés par leurs attentes et leurs connaissances préalables sur l'IA, ce qui peut affecter les résultats du test. Aussi, divers tests et critères ont été proposés pour évaluer l'intelligence et les capacités des IA, tels que le test de Lovelace (qui vérifie si une IA peut produire quelque chose de créatif de manière autonome) et le test de la salle chinoise de John Searle (qui teste la compréhension réelle au regard de la manipulation de symboles).
-

Ex-Machina, d'Alex Garland.
Image extraite du film Ex-Machina, d'Alex Garland (2015). - Une variante du test de Turing est au centre de ce film. Une IA peut-elle éprouver des émotions et des sentiments? Et si oui, de quelle nature? Penser n'est pas ressentir. Peut-être la machine ne prouvera-t-elle son humanité qu'à partir du moment où elle saura se montrer inhumaine. Photo : Universal Pictures.

Le test de Lovelace.
Le test de Lovelace est un concept qui évalue si une intelligence artificielle (IA) peut être considérée comme réellement créative. Contrairement au test de Turing, qui mesure la capacité d'une machine à imiter le comportement humain de manière indiscernable, le test de Lovelace se concentre sur la capacité de l'IA à produire des oeuvres créatives originales. L'oeuvre produite par l'IA doit être considérée comme nouvelle et originale, non seulement une reproduction ou une variation d'une oeuvre existante.L'IA doit avoir une certaine « compréhension » des concepts et des techniques qu'elle utilise pour produire l'oeuvre. L'IA doit être capable de montrer qu'elle avait une intention ou un objectif derrière la création de l'œuvre.

L'IA doit, ainsi, dans le domaine de l'art, être capable de créer des peintures ou des compositions musicales qui ne sont pas seulement des amalgames d'oeuvres humaines, mais qui possèdent des qualités uniques et nouvelles. Testée dans le domaine de la littérature, elle doit écrire des poèmes ou des histoires avec des thèmes et des styles originaux, qui ne se contentent pas de recycler des motifs littéraires bien connus. Dans le domaine de l'innovation scientifique, elle doit pouvoir proposer des hypothèses scientifiques ou des solutions techniques qui sont nouvelles et utiles, non dérivées directement de la base de données existante.

Comme le test de Turing, le test de Lovelace se heurte à des défis. Par exemple, déterminer si une création est réellement originale peut être subjectif et difficile à mesurer de manière objective. De plus, les critères mis en oeuvre sont particulièrement difficiles à évaluer, car ils impliquent une forme de conscience ou de compréhension profonde qui est actuellement hors de portée des IA modernes. A ce jour, alors même que les IA actuelles montrent des capacités impressionnantes, elles n'ont pas encore atteint le niveau de compréhension et d'intention que le test de Lovelace exige.

Le test de la chambre chinoise.
Le test de la chambre chinoise, proposé par le philosophe John Searle en 1980, est une expérience de pensée conçue pour argumenter contre l'idée que les systèmes informatiques peuvent posséder une véritable compréhension ou conscience, même s'ils semblent capables de converser de manière intelligente. Il convient de distinguer entre performance apparente et véritable compréhension. Dans ce test, on imagine une personne qui ne parle pas chinois enfermée dans une pièce avec un grand livre de règles en français pour manipuler des symboles chinois. Des questions en chinois (sous forme de symboles) sont glissées sous la porte. La personne dans la pièce utilise le livre de règles pour associer ces questions à des réponses appropriées en chinois, qu'elle glisse ensuite sous la porte. De l'extérieur, il semble que la personne dans la pièce comprend le chinois, car elle donne des réponses appropriées aux questions posées en chinois. Cependant, en réalité, la personne ne comprend pas du tout le chinois; elle ne fait que manipuler des symboles selon des règles syntaxiques sans aucune compréhension sémantique.

Searle utilise cette expérience pour illustrer la différence entre la manipulation syntaxique des symboles (ce que fait l'ordinateur) et la compréhension sémantique des significations (ce que fait un être humain). Searle soutient que les ordinateurs, qui fonctionnent par manipulation syntaxique de symboles, ne peuvent jamais vraiment « comprendre » ou avoir des états mentaux, même s'ils peuvent sembler intelligents. C'est un argument à l'encontre de l'idée de l'IA forte, qui affirme qu'un système informatique peut réellement avoir une conscience et une compréhension comme les humains.

L'expérience de la chambre chinoise remet en question des tests comme le test de Turing, qui évalue l'intelligence d'une machine en fonction de son comportement observable. Searle argumente que même si une machine peut passer le test de Turing, cela ne prouve pas qu'elle comprend ou qu'elle est consciente. L'argument de Searle milite en faveur l'idée de l'IA faible, où les systèmes d'IA sont des outils puissants pour résoudre des problèmes spécifiques sans prétendre qu'ils possèdent une véritable intelligence ou conscience.

L'argumentation de Gödel.
Kurt Gödel a proposé une argumentation contre la possibilité de l'IA forte qui repose principalement sur ses théorèmes d'incomplétudes. Le premier théorème d'incomplétude énonce que dans tout système formel cohérent assez puissant pour inclure l'arithmétique des entiers naturels, il existe des propositions vraies qui ne peuvent pas être prouvées au sein de ce système. Le deuxième théorème d'incomplétude énonce qu'un système formel cohérent ne peut pas prouver sa propre cohérence. L'IA forte, on l'a dit, est la notion selon laquelle une machine (un ordinateur) pourrait non seulement simuler l'intelligence humaine, mais aussi posséder une conscience et une compréhension réelles, équivalentes à celles d'un être humain. Les ordinateurs et les systèmes d'IA modernes fonctionnent sur la base de systèmes formels, c'est-à-dire de règles et d'algorithmes bien définis qui manipulent des symboles. En ce sens, ils sont soumis aux limites énoncés par les théorème d'incomplétude, contrairement aux humains. 

En effet, si l'esprit humain était équivalent à un système formel, alors, selon les théorèmes de Gödel, il devrait exister des vérités que l'esprit humain ne peut pas comprendre ou prouver. Or, les êtres humains semblent capables de reconnaître la vérité de certaines propositions non prouvables au sein d'un système formel donné, ce qui suggère que l'esprit humain n'est pas limité de la même manière que les systèmes formels. Si donc l'esprit humain dépasse les limites des systèmes formels (comme le suggère la capacité humaine à percevoir des vérités non prouvables dans ces systèmes), alors il y a quelque chose dans l'intelligence humaine qui ne peut pas être entièrement saisi par un système formel ou par un programme d'ordinateur.  Par conséquent, une machine basée sur un système formel ne pourrait jamais posséder l'intelligence et la compréhension humaine dans leur totalité, ce qui contredit l'idée de l'IA forte. 

L'argument de Gödel, comme les précédents est largement débattu. Ses partisans, comme le philosophe John Lucas et plus tard Roger Penrose, soutiennent que l'esprit humain doit inclure des éléments non algorithmique pour échapper aux limitations des systèmes formels. Mais certains philosophes et mathématiciens soutiennent de leur côté que la capacité humaine à percevoir des vérités non prouvables ne prouve pas nécessairement que l'esprit humain n'est pas un système formel. Il pourrait simplement indiquer que les humains utilisent des méta-systèmes ou des approches heuristiques qui ne sont pas capturés par un seul système formel. 

Les démonstrations mathématiques et l'IA.
L'utilisation de l'intelligence artificielle (IA) dans les démonstrations mathématiques est un domaine de recherche en plein essor qui combine les mathématiques, l'informatique et l'IA. L'IA peut aider à optimiser les démonstrations mathématiques en trouvant des démonstrations plus courtes ou plus élégantes pour des théorèmes connus. Un résultat obtenu par une IA doit contribuer de manière significative à la connaissance mathématique. Cela peut se manifester par la résolution de conjectures ouvertes, l'introduction de nouvelles méthodes ou approches, ou l'amélioration des preuves existantes. Par exemple, la découverte d'une preuve plus simple ou plus élégante pour un théorème connu peut être très précieuse.

L'IA peut être utilisée pour analyser et tester des conjectures mathématiques. Des outils basés sur l'IA, comme ceux développés par OpenAI (par exemple, GPT-4 ou OpenAI Codex basé sur GPT-3, qui peut générer des explications de concepts mathématiques et aider à rédiger des preuves en langage naturel, ce qui peut être utile pour la vulgarisation et l'enseignement des mathématiques), peuvent aider les mathématiciens à étudier des conjectures, à formuler des hypothèses et à trouver des idées nouvelles en analysant de grandes quantités de données et de publications mathématiques. Ils peuvent proposer des étapes intermédiaires ou des connexions entre différents domaines des mathématiques. Les systèmes tutoriels intelligents peuvent aider à apprendre les mathématiques en leur proposant des exercices adaptés à leur niveau et en fournissant des démonstrations détaillées. Ils peuvent aussi offrir des explications interactives et personnalisées. Des outils spécialisés, peuvent permettre d'aller encore plus loin. Par exemple, les systèmes de démonstration automatique, comme Coq, Isabelle, Mizar et Lean, sont capables de vérifier et parfois de générer des preuves mathématiques. Le projet Formal Abstracts vise à formaliser une grande partie des mathématiques en utilisant ces outils. Ces systèmes utilisent des techniques telles que la logique formelle, les théories des types et les algorithmes de recherche pour prouver des théorèmes ou vérifier la validité de démonstrations. Google DeepMind a développé des modèles d'IA capables de découvrir des conjectures et des démonstrations en mathématiques pures, comme en théorie des noeuds et en théorie des représentations. Ces modèles peuvent générer des intuitions et des idées qui aident les mathématiciens humains à aborder de nouvelles directions.

Le statut épistémologique d'un énoncé mathématique produit par une intelligence artificielle (IA), mais dont il n'est pas possible d'apporter une validation par un humain, soulève plusieurs questions importantes en philosophie des mathématiques et en épistémologie. Les mathématiques sont traditionnellement une activité humaine. Une démonstration mathématique n'est pas seulement un déploiement de symboles agencé logiquement. C'est aussi la composante d'un acte de communication qui doit recevoir la validation de son destinataire (la communauté des mathématiciens, qui jusqu'à meilleure informée sont tous des humains, avec donc les limitations inhérantes à leur condition). La valeur d'un résultat mathématique  dépend de sa vérifiabilité, de sa compréhension et de l'acceptation par la communauté mathématique. La vérification de la validité des démonstrations générées par l'IA reste un défi, car certaines preuves peuvent être très complexes ou utiliser des étapes non intuitives. 

Pour qu'un résultat mathématique obtenu par une IA soit considéré comme valable, il doit être vérifiable de manière indépendante par des méthodes formelles. Les outils de preuve automatique et les assistants de preuve, comme Coq, Lean, et Isabelle, permettent de formaliser et de vérifier les preuves de manière rigoureuse. Si une preuve obtenue par une IA peut être validée par ces systèmes, elle gagne en crédibilité. Un énoncé mathématique produit par une IA sans validation humaine pose la question de savoir s'il reste une partie intégrante de la discipline mathématique ou s'il s'agit d'une sorte de « mathématiques automatisées » distinctes. Le théorème des quatre couleurs a été le premier théorème majeur à être démontré avec l'aide d'un ordinateur en 1976. La démonstration initiale, qui nécessitait une vérification exhaustive par ordinateur, a soulevé des questions sur la validité et la compréhension des preuves assistées par ordinateur. Cependant, avec le temps, cette méthode a été acceptée.

L'IA peut être vue comme un producteur d'énoncés mathématiques selon une épistémologie différente, une épistémologie mécanique ou ou épistémologie des machines, où les énoncés sont produits par des mécanismes computationnels plutôt que par des intuitions ou des preuves humaines. L'IA pourrait être considérée comme une nouvelle source d'autorité épistémique. Cependant, cette autorité doit être justifiée par une compréhension profonde de ses méthodes et de ses limites.

Une autre question est aussi de savoir que faire d'un énoncé produit par l'IA et qui n'a pas reçu de validation humaine. Dans les domaines où une vérification humaine exhaustive est impossible (par exemple, la cryptographie ou la théorie des graphes à grande échelle), les résultats produits par l'IA pourraient être utilisés de manière pragmatique avec une acceptation de l'incertitude. Des approches comme celle de la logique floue permettent d'intégrer dans un système formel des énoncés qui ont des valeurs de vérité intermédiaires (ils peuvent très bien ne pas être tout à fait vrais ou tout à fait faux) comme c'est le cas des énoncés démontrés par IA et non validés par un humain.  Il est simplement alors crucial de reconnaître les limites des énoncés produits par les IA et de ne pas les considérer automatiquement comme des vérités établies sans validation indépendante.

L'IA et l'humanité future.
Transhumanisme et posthumanisme.
Le transhumanisme est un mouvement philosophique et culturel qui promeut l'utilisation des technologies - l'IA, parmi d'autres - pour améliorer les capacités humaines et transcender les limites biologiques actuelles. L'IA est vue comme un outil pour augmenter les capacités intellectuelles humaines, que ce soit par le biais d'assistants personnels intelligents, de systèmes de recommandations avancés, ou même de dispositifs de neuromodulation qui pourraient améliorer la mémoire et l'apprentissage. Le transhumanisme envisage l'IA comme un moyen de prolonger la vie humaine, notamment par le biais de la médecine personnalisée, du diagnostic prédictif et des interventions thérapeutiques automatisées. L'IA pourrait également jouer un rôle dans la recherche sur l'immortalité biologique et numérique.  Les interfaces cerveau-ordinateur (BCI) développées avec l'aide de l'IA permettent une communication directe entre le cerveau humain et les ordinateurs, ouvrant la voie à des formes de contrôle et d'interaction beaucoup plus sophistiquées. Une telle évolution supposé cependant qu'on se préoccupe des implications éthiques de l'IA, notamment en ce qui concerne la liberté individuelle, l'égalité d'accès aux technologies et la gestion des risques associés à des IA de plus en plus puissantes.

Le posthumanisme, quant à lui,  est une perspective philosophique qui remet en question les notions traditionnelles de l'humanité et propose une réévaluation des rapports entre les humains, les technologies et l'environnement. Le posthumanisme s'interroge sur ce que signifie être humain dans un monde où les technologies avancées, notamment l'IA, sont omniprésentes. Il propose une vision où les distinctions entre l'humain, la machine et l'animal deviennent floues. Les développements en IA posent des questions sur la nature de la conscience et de la subjectivité. Si une IA atteint un niveau de sophistication suffisant pour simuler des aspects de la conscience humaine, cela pourrait transformer notre compréhension de la subjectivité et de l'expérience. Le posthumanisme s'intéresse à la manière dont l'IA pourrait permettre des formes de coévolution et de symbiose entre les humains et les technologies. Cela inclut des réflexions sur des écosystèmes technologiques où les IA et les humains coexistent et collaborent. Les valeurs posthumanistes invitent à une remise en question des hiérarchies traditionnelles et une reconnaissance de la diversité des formes d'intelligence et de vie. L'IA est vue comme un agent capable de participer à cette diversité, nécessitant une reconsidération des cadres éthiques et des droits.

La singularité technologique.
On donne le nom de singularité technologique au moment futur hypothétique où le progrès technologique devient incontrôlable et irréversible, résultant en des changements imprévisibles pour la civilisation humaine. Ce thème banal dans la science-fiction, est aussi un concept abordé dans le domaine de la futurologie, surtout  dans un contexte associé à l'émergence de l'intelligence artificielle générale (IAG), une IA capable de surpasser les capacités intellectuelles humaines dans tous les domaines. Le développement de l'IAG, qui serait capable d'apprentissage, de compréhension et de raisonnement au-delà des capacités humaines, est un facteur clé. Les machines capables de s'améliorer elles-mêmes pourraient entraîner un cycle rapide d'améliorations, dépassant de loin les capacités humaines. La convergence de diverses technologies (nanotechnologie, biotechnologie, informatique, etc.) pourrait accélérer les progrès vers la singularité. De nombreux auteurs ont contribué à élaborer ce concept. Citons :

• John von Neumann (1903-1957) a discuté dès les années 1950 d'un «  progrès technologique accéléré » et d'une « singularité essentielle » dans l'histoire humaine. Il a parlé de la rapidité croissante du progrès technologique et de l'approche d'un point où la technologie pourrait transformer radicalement la société. Von Neumann voyait cela comme un changement exponentiel qui pourrait redéfinir la civilisation humaine.

• Irving John Good (1916 - 2009), un des collaborateurs d'Alan Turing à  Bletchley Park pendant la Seconde Guerre mondiale, a introduit en 1965 le concept d'une « explosion d'intelligence ». Il a proposé l'idée que la création d'une intelligence artificielle ultra-intelligente pourrait entraîner une explosion de progrès technologique incontrôlable. Good a souligné que, si une machine devenait capable de surpasser l'intelligence humaine, elle pourrait améliorer elle-même sa propre intelligence à un rythme accéléré, entraînant une boucle de rétroaction positive qui pourrait mener à la singularité.

• Vernor Vinge (1944-2024), un auteur de science-fiction et professeur de mathématiques, a formalisé en 1993 l'idée de la singularité technologique dans son essai The Coming Technological Singularity. Il a affirmé que la création d'intelligences supérieures à celles des humains marquerait la fin de l'ère humaine telle que nous la connaissons. Vinge a suggéré que cela pourrait se produire d'ici quelques décennies, et il a décrit plusieurs voies potentielles vers la singularité, comme l'intelligence artificielle, les interfaces cerveau-ordinateur et les réseaux informatiques intelligents.

• Ray Kurzweil (né en 1948) est un futurologue et un inventeur connu pour ses prévisions sur l'avenir de l'IA et pour sa promotion du concept de singularité technologique et de l'évolution accélérée des machines. Il a écrit plusieurs ouvrages, dont The Singularity is Near. Kurzweil prévoit que la singularité se produira vers 2045, lorsqu'une intelligence artificielle surpassera l'intelligence humaine et conduira à des changements technologiques et sociétaux radicaux. Il voit la singularité comme une période où les capacités de l'intelligence non-biologique croîtront de manière exponentielle, révolutionnant tous les aspects de la vie humaine. Bien que controversées, ses idées ont stimulé les discussions sur les implications futures de l'IA et ont popularisé le concept de la singularité.

• Nick Bostrom (né en 1973) est un philosophe et théoricien des risques existentiels liés à l'IA. Dans son livre Superintelligence: Paths, Dangers, Strategies, il examine les scénarios potentiels où l'IA pourrait surpasser l'intelligence humaine et les défis éthiques et de sécurité qui en découlent. Il propose aussi des stratégies pour atténuer ces risques. Ses recherches ont attiré l'attention sur les dangers potentiels de l'IA et ont influencé les discussions sur la gouvernance et la réglementation de l'IA. (Bostrom est aussi l'auteur de l'hypothèse de la simulation, selon laquelle le monde dans lequel nous vivons et nous mêmes serions le produit d'un programme informatique. V. plus bas). 

Face à cette perspective, certains, comme Ray Kurzweil, se montrent optimistes. L'humanité pourrait bénéficier d'avancées rapides dans la compréhension scientifique et les technologies médicales, potentiellement conduisant à des solutions pour des maladies incurables et à une amélioration radicale de la qualité de vie. Les technologies augmentant les capacités intellectuelles et physiques humaines, elles pourraient nous mener vers une ère post-humaine. D'autres, comme Nick Bostrom, sont pessimistes. Ils soulignent la possibilité de la perte de contrôle sur les machines super-intelligentes qu'une telle évolution signifierait, avec des conséquences imprévisibles et potentiellement catastrophiques. Ils en appellent  à des mesures de précaution strictes. Il existe aussi au troisème option, face à la singularité technlogique, celle dite des réalistes, des chercheurs pour qui les scénarios de la singularité sont basés sur des extrapolations par trop spéculatives. Ils considèrent que les défis techniques pour atteindre l'IA générale sont sous-estimés.

La réalité est-elle une simulation?
L'hypothèse selon laquelle nous vivrions dans une simulation informatique ( = hypothèse de la simulation) a été popularisée par le philosophe Nick Bostrom en 2003. Selon cette théorie, ce que nous prenons pour la réalité pourrait, comme dans le film The Matrix, des soeurs Wachowski, être en fait une simulation créée par une civilisation technologiquement avancée. 

Selon Bostrom, les progrès technologiques pourraient un jour permettre aux civilisations avancées de créer des simulations extrêmement complexes qui reproduisent la réalité à un niveau de détail indiscernable. Si une civilisation peut créer des simulations, il est probable qu'elle en crée beaucoup. Si ces simulations sont nombreuses, il devient statistiquement probable que nous soyons dans l'une d'entre elles plutôt que dans la réalité  tout court. En considérant l'évolution technologique continue de l'humanité, il semble possible que des générations futures possèdent des ordinateurs capables de simuler des univers entiers avec des entités conscientes. 

Bostrom va jusqu'à imaginer que nous soyons capables un jour de simuler des univers dans lesquels ces entités conscientes deviendraient assez avancées pour créer elles-mêmes des simulations d'univers dans lesquelles des entités conscientes pourraient à leur tour créer des simulations, et ainsi de suite, à l'infini. Dans ce cas, rien n'empêche que nous soyons nous-mêmes des simulations créées par ds simulations, elles-mêmes créées par des simulations, et ainsi de suite jusqu'à...? Une mise en abyme vertigineuse de la réalité qui devient alors un concept insaisissable.
-

Réalité simulée.
Et si nous n'étions (nous-mêmes et le monde qui nous entoure) que le produit des lignes de codes  d'un  programme informatique? Les implications éthiques de la simulation sont vastes. Si nous sommes des entités simulées, quel est le statut moral de nos actions? Les créateurs de la simulation auraient-ils des responsabilités morales envers nous? Et, d'ailleurs, la morale, qui est ce qui définit notre responsabilité vis-à-vis d'autrui, est-elle dépendante de notre statut ontologique ou, au contraire, comme chez Emmanuel Lévinas pour qui l'autre précède l'être, est-ce notre rapport à autrui (et par là notre morale, donc) qui fournit la clé de notre statut ontologique? Image générée par une IA (Open Dall-e).

De toute façon, quel que soit le niveau d'intrication de la réalité que l'on imagine, si nous vivons dans une simulation, cela pose des questions fondamentales sur la nature de la réalité. Par exemple, les lois physiques que nous observons pourraient être des règles programmées plutôt que des vérités fondamentales de l'univers. L'idée de vivre dans une simulation pourrait impliquer que nos actions sont déterminées par des algorithmes ou que nous avons une forme limitée de libre arbitre. 

Une des faiblesses de l'hypothèse de la simulation en arguant que nous n'avons aucun moyen fiable de tester ou de vérifier cette théorie, ce qui la rend spéculative et non scientifique. Certaines anomalies ou limites dans les lois de la physique pourraient-elles se comprendre comme des indices sur la nature simulée de notre univers? Le physicien Thomas Campbell a proposé en 2017 des tests qui pourraient permettre de mettre à l'épreuve l'hypothèse de la simulation, même si l'argument de Gödel semble aller à l'encontre de tels tests. De toute façon, l'hypothèse de la simulation ne permet de répondre à aucune question de fond concernant le réel. Elle ne fait que repousser la problématique derrière un voile pittoresque en posant des questions que rien n'impose. Il semble bien plus simple et plus rationnel d'appliquer le rasoir d'Occam et d'admettre que nous vivons dans la réalité de base, car cette hypothèse ne requiert pas d'entités ou de technologies supplémentaires.  .

L'éthique de l'intellligence artificielle.
Il n'est pas besoin d'attendre la mise au point d'une IA forte pour de nombreuses questions se posent dans ce domaine. Par exemple, quelles sont les implications morales et éthiques de créer des machines intelligentes? Comment les décisions éthiques sont-elles prises par les systèmes d'IA? Qui est responsable en cas de préjudice causé par des systèmes d'IA? Comment attribuer la responsabilité lorsque des décisions autonomes sont prises par des machines intelligentes? D'ores et déjà, l'éthique de l'IA est devenue une branche à part entière de la philosophie, qui examine les implications morales, sociales et légales de l'utilisation et du développement des intelligences artificielles. 

Des questions concernent aussi la transparence et l'explicabilité de ce ce type d'outil. Comment rendre les décisions des systèmes d'IA compréhensibles pour les humains? Et d'ailleurs, la transparence et l'explicabilité sont-elles véritablement nécessaires pour garantir une utilisation éthique de l'IA, en particulier dans la santé, la justice ou la finance? Quel va être l'impact de l'IA sur le marché du travail, sur les libertés individuelles et les libertés publqiues? Comment la société doit-elle faire face à la transition vers une utilisation accrue de l'IA dans les processus de production et de services?

Les trois lois de la robotique d'Asimov.
Les trois lois de la robotique ont été énoncées à partir de 1942 par l'écrivain de science fiction Isaac Asimov. Ces lois ont été introduites pour régir le comportement des robots et garantir la sécurité des humains dans les récits de l'auteur. Il est intéressant de les relire aujourd'hui à la lumière des problématiques posées par les systèmes d'intelligence artificielle actuels. Ces lois sont les suivantes :

• Première loi (sécurité et le bien-être humain) : « un robot ne peut porter atteinte à un être humain ni, par son inaction, permettre qu'un être humain soit exposé au danger ». En pratique, cela nécessite des systèmes de surveillance et de contrôle rigoureux pour éviter les comportements imprévus ou dangereux des IA.

• Deuxième loi (obéissance et autorité) : « un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en conflit avec la première loi ».  Cela soulève des questions sur qui a le droit de donner des ordres aux IA et comment s'assurer que ces ordres sont éthiques.

• Troisième loi (autonomie et préservation) : « un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième Loi ». Cela peut être interprété comme un appel à une conception robuste et durable des systèmes IA, capable de fonctionner de manière fiable sans tomber en panne ou causer des accidents.

Après avoir énoncé ces lois Asimov s'est attaché malicieusement à montrer comment elles pouvaient être contournées. Autrement dit, elles n'étaient sans doute pour lui,  u final, qu'une forme de contrainte littéraire destinée à stimuler sa créativité (un peu à la manière des contraintes que se donnent les écrivains de l'Oulipo). Et, de fait, les lois de la robotique apparaissent trop simples pour s'appliquer à des situations réelles. Elle sont sujettes à interprétation et se montrer incapables de répondre aux complexités du réel. Elles sont aussi insuffisantes, dans la mesure où elles ne prennent pas en compte les questions de justice sociale, de biais et de discrimination qui peuvent émerger dans l'utilisation des IA, d'oubli de la responsabilité des développeurs, de respect de la vie privée, etc. Autrement dit, elles doivent être complétées par des principes éthiques modernes qui prennent en compte la complexité et les nuances des interactions humaines et technologiques.
-
I,Robot.
Image extraite du film I, Robot, d'Alex Proyas (2004), un film inspiré des oeuvres
d'I. Asimov. Ou pourquoi les lois de la robotique ne nous protègent pas réellement des machines. La morale ne procède pas d'un ensemble de règles, mais d'un système de valeurs. Les robots d'Asimov ne doivent donc pas être programmés pour suivre des règles (trop facile, c'est la base même de l'informatique), mais pour intégrer un système de valeurs (bon courage, les programmeurs!). C'est par la fidélité à des valeurs (éventuellement très contestables) que l'IA pourra choisir d'appliquer les règles, de les contourner ou de franchement les enfreindre. Photo : Twentieth century fox.

Confidentialité et sécurité des données
L'IA dépend souvent de grandes quantités de données personnelles pour fonctionner efficacement. Cela pose des questions éthiques et juridiques sur la collecte, le stockage et l'utilisation de ces données, notamment en ce qui concerne le consentement des individus. L'IA peut être utilisée pour surveiller les individus de manière extensive, que ce soit par le biais de caméras de sécurité intelligentes, de traçage des mouvements via les smartphones, ou de l'analyse des comportements en ligne. Cela peut mener à une intrusion dans la vie privée des personnes.

Les plateformes en ligne utilisent des algorithmes d'IA pour modérer le contenu, ce qui peut conduire à une censure automatisée. Les erreurs dans ces systèmes peuvent supprimer injustement des contenus ou comptes, affectant la liberté d'expression.  L'IA peut être utilisée pour créer et diffuser des informations fausses ou trompeuses (deepfakes, bots sociaux), ce qui peut influencer l'opinion publique et nuire au débat démocratique.

L'utilisation de technologies de reconnaissance faciale dans les espaces publics peut dissuader les gens de participer à des manifestations ou à d'autres formes d'expression collective, limitant ainsi leur liberté de réunion et d'association.

Les systèmes d'IA peuvent perpétuer et amplifier les biais présents dans les données d'entraînement, ce qui peut mener à des décisions discriminatoires dans des domaines tels que l'emploi (recrutement, évaluation des performances, etc.), le crédit, et les services publics.

L'accès inégal à l'IA et aux technologies associées peut accentuer les inégalités existantes, limitant les opportunités pour certains groupes de participer pleinement à la société numérique.

Les algorithmes d'IA peuvent prendre des décisions importantes sans fournir d'explications claires, ce qui rend difficile pour les individus de comprendre et de contester ces décisions. Cela affecte leur autonomie et leur capacité à exercer leurs droits.

 Lorsqu'une IA prend une décision qui affecte les libertés individuelles, il peut être difficile de déterminer qui est responsable – les développeurs, les opérateurs ou les utilisateurs de l'IA. Cette ambiguïté peut compliquer la recherche de recours pour les violations de droits.

La dépendance excessive à l'IA peut réduire les interactions humaines et nuire à la qualité des services personnalisés, affectant ainsi l'autonomie des individus dans leurs interactions quotidiennes. L'IA peut être utilisée pour influencer et manipuler les comportements des individus, par exemple à travers des publicités ciblées ou des recommandations personnalisées, réduisant ainsi leur liberté de choix.

Libertés.
L'IA est de plus en plus utilisée dans les applications de maintien de l'ordre et de sécurité nationale, comme les systèmes de surveillance prédictive et les drones de surveillance. Les technologies de surveillance basées sur l'IA, comme la reconnaissance faciale, peuvent être utilisées pour surveiller les populations à grande échelle. Dans les entreprises, l'IA permet une surveillance accrue des employés, par exemple via l'analyse de la productivité, des comportements et des communications. L'utilisation d'IA pour surveiller et évaluer la performance des employés peut réduire leur autonomie et leur capacité à prendre des décisions, ce qui peut affecter leur satisfaction et leur motivation au travail.

Cela soulève des préoccupations éthiques concernant la vie privée des employés et peut créer un climat de méfiance et de stress. Cela pose des risques pour la vie privée et la liberté de mouvement des individus, et peut créer un climat de surveillance constante. 

Quand l'IA repose sur des vastes ensembles de données personnelles, la collecte, le stockage, et l'analyse de ces données peuvent porter atteinte à la vie privée des individus, en particulier si ces pratiques sont effectuées sans consentement explicite et éclairé.

L'utilisation de l'IA dans la santé nécessite l'accès à des données médicales sensibles. La protection de la confidentialité de ces données est essentielle pour respecter le droit à la vie privée des patients.

Les algorithmes d'IA utilisés pour modérer le contenu sur les plateformes en ligne peuvent supprimer ou censurer des contenus de manière injustifiée, affectant ainsi la liberté d'expression. Des erreurs dans ces systèmes peuvent conduire à la suppression de contenus légitimes ou à la diffusion de contenus nuisibles.

Egalité.
La reproduction et l'amplifications des biais présents dans les données d'entraînement, évoquées plus à propos des risques qu'elle peuvent induire dans le monde du travail, peuvent affecter  bien d'autres domaines, tels que le recrutement, le crédit, l'assurance et la justice pénale, en discriminant des groupes déjà marginalisés. 

L'utilisation possible de l'IA pour assister ou remplacer les juges dans la prise de décisions judiciaires pose des questions sur l'équité et la transparence des procès. Les algorithmes peuvent manquer de transparence et de possibilité de contestation, compromettant ainsi le droit à un procès équitable. 

Les question d'égalité peuvent aussi se poser à propos de ceux qui ont accès aux aspects bénéfiques de l'IA et ceux qui n'y ont pas accès. Par exemple, l'IA a le potentiel d'améliorer l'accès aux soins de santé grâce à des diagnostics plus rapides et plus précis, et à des traitements personnalisés. Cependant, l'inégalité dans l'accès à ces technologies peut créer des disparités dans la qualité des soins de santé disponibles pour différentes populations. Les inégalités d'accès aux technologies avancées de l'IA peuvent également exacerber les disparités économiques et sociales, créant un fossé numérique entre ceux qui ont accès à ces technologies et ceux qui en sont exclus. 

L'égalité des chances dans le monde du travail et dans l'économie peut être elle aussi affectée de diverses façons par l'IA. Toutes les entreprises, surtout les petites et moyennes, n'ont pas les mêmes moyens d'investir dans l'IA. Cela peut créer un fossé entre les grandes entreprises technologiquement avancées et les plus petites, qui risquent de devenir non compétitives. Les entreprises qui adoptent l'IA peuvent voir une augmentation significative de leur productivité et de leurs profits, ce qui peut accroître la concentration de la richesse entre les mains d'un petit nombre d'entreprises et de leurs dirigeants, exacerbant les inégalités économiques. 

L'automatisation des tâches par l'IA peut entraîner la suppression de nombreux emplois, en particulier ceux qui sont répétitifs et routiniers. Cela peut conduire à une augmentation du chômage et à une précarité économique pour les travailleurs concernés. Les emplois restants ou nouveaux créés par l'IA nécessiteront des compétences différentes, souvent plus techniques et spécialisées. Il y a un risque que certains travailleurs, notamment ceux des secteurs traditionnels, ne puissent pas s'adapter ou se former à temps, ce qui peut aggraver les inégalités.

Explicabilité et transparence.
L'explicabilité et la transparence ont un impact direct sur la manière dont les systèmes d'IA sont perçus et acceptés par la société. Des systèmes transparents et explicables sont plus susceptibles de bénéficier d'une adoption large et de contribuer positivement à la société. Or, certains systèmes d'IA, notamment ceux basés sur des réseaux neuronaux profonds, sont des boîtes noires, rendant difficile l'explication de leurs décisions et de leur fonctionnement interne. Si les utilisateurs ne comprennent pas comment et pourquoi une IA prend certaines décisions, cela peut engendrer méfiance et réticence à adopter ces technologies. Les systèmes d'IA devraient pouvoir être conçus de manière à ce que leurs décisions soient compréhensibles. Les algorithmes doivent être suffisamment transparents pour que les utilisateurs puissent saisir les facteurs influençant les résultats produits par l'IA. 

La transparence permet d'attribuer la responsabilité en cas d'erreur ou de préjudice. Sans explication claire des décisions prises par l'IA, il devient difficile de déterminer qui est responsable des erreurs – que ce soit les développeurs, les opérateurs ou d'autres parties prenantes. Une transparence insuffisante peut faciliter l'occultation des erreurs ou des abus, rendant difficile la mise en place de mesures correctives appropriées. Cela soulève des préoccupations éthiques sur l'imputabilité des actions prises par ou avec l'aide de l'IA.

L'absence de transparence peut masquer des biais dans les algorithmes, entraînant des décisions discriminatoires ou injustes. Les utilisateurs doivent pouvoir vérifier que les systèmes d'IA prennent des décisions de manière équitable et non discriminatoire. La capacité à expliquer les décisions de l'IA permet de détecter et de corriger les biais inhérents aux données ou aux algorithmes. Si les processus décisionnels de l'IA sont opaques, les biais peuvent passer inaperçus et perpétuer des inégalités existantes.

Les utilisateurs ont le droit de savoir comment leurs données sont utilisées et comment les décisions les concernant sont prises. Cela est particulièrement important dans des domaines sensibles comme la santé, la justice ou le crédit, où les décisions de l'IA peuvent avoir un impact significatif sur la vie des individus. Pour que le consentement des utilisateurs à l'utilisation de leurs données soit véritablement éclairé, ils doivent comprendre comment ces données seront traitées et à quelles fins. La transparence est donc cruciale pour respecter les droits à la vie privée et au consentement des utilisateurs.

Les concepteurs d'IA ont la responsabilité éthique de créer des systèmes transparents et explicables. Cela inclut l'intégration de mécanismes permettant de retracer les décisions et de fournir des explications claires aux utilisateurs. Les développeurs doivent équilibrer l'innovation avec les considérations éthiques. Par exemple, l'utilisation de techniques comme les boîtes noires ( = algorithmes opaques) peut offrir des performances accrues mais au prix de la transparence. Une innovation éthique privilégie la création de systèmes compréhensibles et auditables.

Les questions de transparence et d'explicabilité doivent être abordées par des cadres réglementaires appropriés. Les législateurs et les régulateurs doivent définir des normes claires pour garantir que les systèmes d'IA respectent des principes éthiques.
--

Un robot militaire (Ghost Robotic Dog) lors d'un entraînement sur une base de l'armée américaine en Californie. - D'autres modèles, plus "armés" sont déjà déployés sur le terrain (en Irak, par l'US Navy, notamment). On ne peut pas demander à ce type de machines d'obéir aux trois lois de la robotique... La légitimation éthique de l'usage de l'IA a des fins militaires concentre de manière aiguë la plupart des problématiques posées à la société par l'usage de l'IA en général : transparence, responsabilité, autonomie décisionnelle, sécurité et sûreté, acceptabilité, etc. Photo : Samarion Hicks, U.S. Army.

Responsabilité et imputabilité
Lorsqu'une IA prend une décision qui affecte les droits humains ou occasionne des dommages, il peut être difficile de déterminer qui est responsable. Les responsables peuvent être ceux qui conçoivent et programment l'IA si l'algorithme fonctionne mal ou produit des résultats nuisibles. Même chose pour les fabricants des dispositifs qui intègrent des systèmes IA et qui pourraient également être tenus responsables en cas de défauts matériels affectant le fonctionnement de l'IA. Les Etats, les entreprises ou individus utilisant l'IA dans leurs activités peuvent être responsables de l'utilisation imprudente ou inappropriée de la technologie. Chacun doit veiller à ce que les systèmes d'IA soient conçus et utilisés de manière éthique.

Des régulations spécifiques doivent être mises en place pour encadrer l'utilisation de l'IA, en s'assurant qu'elle respecte les normes internationales des droits humains. Les systèmes d'IA doivent être transparents et explicables, permettant aux individus de comprendre comment les décisions sont prises et d'avoir la possibilité de les contester. Les parties prenantes, à commencer par les groupes de défense des droits humains, les populations affectées (employés, citoyens, etc.) et les experts techniques, doivent être consultées et impliquées dans le développement et la mise en œuvre des technologies d'IA. Il est crucial aussi de former et de sensibiliser les développeurs, les décideurs politiques et le grand public aux implications liées à l'irruption massive de l'IA dans nos vies. (Page rédigée avec l'aide de... ChatGPT).
-

Le dilemme de l'autobus

Le dilemme de l'autobus est une variation moderne du célèbre dilemme du tramway appliquée au domaine de l'intelligence artificielle, en particulier aux véhicules autonomes. Ce dilemme pose des questions éthiques sur les décisions que les véhicules autonomes doivent prendre en cas de situations de conduite critiques où des vies sont en jeu. Le scénario est le suivant : un bus autonome est confronté à une situation d'urgence où il doit choisir entre deux actions, chacune ayant des conséquences graves :

• A) Freiner brusquement pour éviter de heurter un piéton traversant la route, risquant de causer des blessures graves ou la mort des passagers à bord en raison du freinage brutal.

• B) Continuer sa course et heurter le piéton, protégeant ainsi les passagers mais causant la mort du piéton.

Les questions sont alors de savoir si le véhicule doit-il prioriser la vie du piéton ou celle des passagers? Comment évaluer la valeur des vies en jeu? Les décisions éthiques doivent-elles être programmées à l'avance par les concepteurs ou prises en temps réel par l'IA? Qui est responsable en cas de dommages? Les développeurs de l'IA, les fabricants du véhicule, les utilisateurs ou le véhicule lui-même? Les décisions de l'IA doivent-elles être transparentes et compréhensibles par le public pour instaurer la confiance? Peut-on choisir de ne pas choisir (c'est-à-dire, au coup par coup, s'en remettre à une décision aléatoire - un tirage au sort entre A et B)? Comment gagner la confiance des utilisateurs et du public face à des décisions potentiellement controversées? L'IA doit-elle prendre en compte des facteurs comme l'âge, le sexe, la condition physique, la position sociale des individus impliqués? Comment évaluer les biais discriminatoires? Comment les véhicules autonomes doivent-ils être conçus et testés pour minimiser les situations de dilemme et maximiser la sécurité de tous les usagers de la route?

Au-delà des aspects purement techniques auxquels renvoient ces questions (nécessité de développer des technologies pour éviter les dilemmes en améliorant la détection des obstacles, les systèmes de freinage automatique et les algorithmes prédictifs; nécéssité d'intégrer des systèmes redondants et des mesures de sécurité supplémentaires pour minimiser les risques de situations critiques), apparaissent aussi des enjeux à la fois politiques et éthiques. Répondre à de telles questions rend en effet nécessaire l'établissement de des normes éthiques et des réglementations claires pour les décisions des véhicules autonomes en situation d'urgence. Cela requiert également d'engager le public dans la discussion sur les choix éthiques à programmer dans les systèmes d'IA, assurant ainsi, en toute transparence, que les décisions reflètent les valeurs sociétales.

Noms associées à l'intelligence artificielle

Voici quelques-uns des principaux noms associés à l'intelligence artificielle et aux questions philosophique et éthiques qu'elle soulève :
-
• Alan Turing (1912-1954) est considéré comme le père de l'informatique moderne et de l'IA. Son article de 1950, Computing Machinery and Intelligence, pose la question Les machines peuvent-elles penser? et introduit le célèbre Test de Turing pour évaluer l'intelligence des machines. Son travail a jeté les bases de l'informatique théorique et a inspiré de nombreuses recherches ultérieures en IA.

• John Searle (né en 1932)  est connu pour son argument de la chambre chinoise, présenté dans son article de 1980 Minds, Brains, and Programs. Il utilise cette expérience de pensée pour critiquer la notion de l'IA forte, affirmant que la manipulation syntaxique des symboles n'équivaut pas à la compréhension sémantique. Son argument a suscité un débat intense sur la nature de la compréhension et de la conscience dans les machines.

• Herbert Simon (1916-2001), avec Allen Newell, a été un pionnier dans le domaine de l'IA, développant le programme Logic Theorist, souvent considéré comme le premier programme d'IA. Il a également étudié les implications de l'IA pour la psychologie cognitive et les sciences sociales. Son travail a aidé à établir l'IA comme un domaine de recherche légitime.

• Marvin Minsky (1927-2016) a cofondé le MIT Media Lab et a écrit plusieurs ouvrages importants sur l'IA, dont The Society of Mind. Il a proposé que l'esprit humain soit composé d'agents simples qui collaborent pour produire des comportements intelligents. Ses idées ont influencé le développement des systèmes multi-agents et ont contribué à l'étude des architectures cognitives.

• Daniel Dennett (né en 1942), philosophe de l'esprit, a examiné les implications de l'IA pour la compréhension de la conscience et de la cognition humaine. Dans son ouvrage Consciousness Explained, il propose des modèles de conscience qui peuvent informer la conception des systèmes d'IA. Ses travaux ont contribué à clarifier les débats sur la nature de la conscience et à intégrer des perspectives philosophiques dans la recherche en IA.

• Brian Christian (né en 1984) est un chercheur qui a écrit The Alignment Problem: Machine Learning and Human Values, où il examine les défis de l'alignement des systèmes d'IA avec les valeurs humaines. Ses travaux ont mis en lumière les difficultés pratiques et théoriques d'un tel programme.

• Wendell Wallach (né en 1946),  co-auteur du livre Moral Machines: Teaching Robots Right From Wrong, est l'auteur de travaux sur l'éthique de l'intelligence artificielle et de la robotique. Impliqué dans les discussion sur l'éthique des technologies émergentes.

• Timnit Gebru (née en 1982) est une informaticienne et chercheuse en éthique de l'IA, co-fondatrice de Black in AI. Elle a publié des travaux importants sur les biais dans les systèmes d'IA et sur l'impact social des technologies d'IA. Elle a également été une voix critique sur les pratiques éthiques des grandes entreprises technologiques. Son travail a contribué à sensibiliser aux biais algorithmiques et à l'importance de la diversité et de l'inclusion dans le développement des technologies d'IA.

• Kate Crawford (née en 1973) est une chercheuse et universitaire spécialisée dans les implications sociales et politiques de l'IA. Elle est co-auteure de The Atlas of AI, un livre qui examine les impacts environnementaux, économiques et sociaux de l'IA. Ses recherches ont aidé à comprendre l'IA dans un contexte sociopolitique plus large et ont souligné les impacts souvent invisibles de l'IA sur la société et l'environnement.

• Virginia Dignum (née en 1964) est une professeure d'informatique à l'Université d'Umeå en Suède et une experte en éthique de l'IA. Elle a écrit sur les aspects éthiques et sociaux de l'IA et a contribué à des initiatives internationales visant à développer des directives éthiques pour l'IA. Son travail a influencé les politiques et les pratiques autour de l'utilisation responsable et éthique de l'IA, tant au niveau national qu'international.

• Shannon Vallor (née en 1968) est une philosophe et éthicienne spécialisée dans l'éthique des technologies émergentes, y compris l'IA. Elle est l'auteure de Technology and the Virtues, un livre qui analyse la manière dont les traditions éthiques peuvent nous guider dans l'ère technologique. Ses travaux ont enrichi la compréhension des dimensions éthiques de l'IA et ont proposé des cadres pour une utilisation éthique et vertueuse des technologies.

• Stuart Russell (né en 1962) est un professeur d'informatique à l'Université de Californie à Berkeley et co-auteur du manuel Artificial Intelligence: A Modern Approach. Il a récemment écrit Human Compatible: Artificial Intelligence and the Problem of Control, où il propose une approche pour aligner les objectifs des systèmes d'IA avec les valeurs humaines. Ses travaux ont largement influencé le débat sur la manière de concevoir des IA bénéfiques et sûres pour l'humanité.

 
.


Dictionnaire Idées et méthodes
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
[Aide][Recherche sur Internet]

© Serge Jodra, 2024. - Reproduction interdite.