Intelligence Artificielle: Pros et Cons
"Un ordinateur mériterait d'être appelé intelligent s'il pouvait tromper un humain en lui faisant croire qu'il était humain", Turing a écrit en 1950 définissant son désormais célèbre Test de Turing.
Le mathématicien britannique Alan Turing est considéré comme le père fondateur de l'informatique théorique et de l'intelligence artificielle, sans oublier de référer John McCarthy le principal pionnier de l'intelligence artificielle avec Marvin Lee Minsky.
"Je ne vois pas que l'intelligence humaine est quelque chose que les humains ne peuvent jamais comprendre." ~ John McCarthy, mars 1989
Dans son article historique"Computing Machinery and Intelligence" (Turing 1950). Alan Turing propose le Test de Turing (TT) en remplacement de la question « Les machines peuvent-elles penser ? Depuis lors, les idées de Turing ont été largement discutées, attaquées et défendues à maintes reprises. À un extrême, l'article de Turing a été considéré comme représentant le "début" de l'intelligence artificielle (IA) et le TT a été considéré comme son objectif ultime. A l'autre extrême, certaines qualifiaient le TT d'inutile voire de nuisible.
Le Jeu d'Imitation
Le but de Turing est de fournir une méthode pour évaluer si oui ou non une machine peut penser ? Il précise au début de son article que la question « Les machines peuvent-elles penser ? est très ambiguë. Il tente de transformer cela en une forme plus concrète en proposant ce qu'on appelle le jeu de l'imitation (JI)
Le jeu se joue avec un homme (A) une femme (B) et un interrogateur (C) dont le sexe n'a pas d'importance. L'interrogateur reste dans une pièce séparée de A et B. L'objectif de l'interrogateur est de déterminer laquelle des deux autres est la femme tandis que l'objectif de l'homme et de la femme est de convaincre l'interrogateur qu'il/elle est la femme et l'autre non. Cette situation est représentée dans la figure ci dessus.
Le moyen par lequel la décision de convaincre et de tromper doit avoir lieu est une connexion par téléscripteur. Ainsi, l'interrogateur pose des questions en langage naturel écrit et reçoit les réponses en
langue naturelle écrite. Les questions peuvent porter sur n'importe quel sujet imaginable, des mathématiques à la poésie, de la météo aux échecs.
Selon Turing, le nouvel ordre du jour doit être discuté au lieu de l'équivoque "Les machines peuvent-elles penser ?" peut être « Que se passera-t-il lorsqu'une machine jouera le rôle de A dans ce jeu ?
Remarquez que la femme a complètement disparu. Mais les objectifs de A, B et de l'interrogateur restent inchangés, du moins Turing n'indique explicitement aucun changement. Ce que le TT essaie vraiment d'évaluer, c'est la capacité de la machine à imiter un être humain plutôt que sa capacité à simuler une femme.
Une autre situation envisagée par Turing pour l'interrogateur C est de déterminer laquelle des deux entités avec laquelle il/elle converse est l'humain et laquelle est la machine.
Une fois le principe du jeu d'imitation est compris, plusieurs versions peuvent être envisagées.
Opinions contraires et réponses de Turing
Turing était conscient que certaines de ses idées seraient opposées au moment où il écrivit "Computing Machinery and Intelligence" (Turing 1950) et il répondit à certaines objections auxquelles il pensait que son travail serait confronté. Nous renvoyons le lecteur à Turing 1950 pour les réponses à l'objection théologique et l'argument de la perception extrasensorielle.
La plupart des gens aiment croire que les humains sont spéciaux et que la pensée est considérée comme l'un des traits les plus importants qui nous rendent si spéciaux. Pour certains, l'idée de partager une telle capacité humaine avec des machines n'est pas une pensée agréable. Cette perspective était probablement plus répandue à l'époque de Turing qu'elle ne l'est aujourd'hui. Turing pense que cet argument ne vaut même pas la peine d'être réfuté et avec un peu de sarcasme, il énonce cette consolation.
Certains théorèmes montrent que les puissances des machines à états discrets sont limitées. Le plus célèbre d'entre eux est probablement le théorème de Gödel qui montre que dans des systèmes logiques cohérents de puissance suffisante, nous pouvons formuler des déclarations qui ne peuvent pas être prouvées ou réfutées au sein du système. Une application de ce résultat à TT est décrite dans (Turing 1950) et le lecteur est renvoyé à (Lucas 1961, Lucas 1996) pour en savoir plus sur les implications du théorème de Gödel pour la pensée de la machine.
Stupidité Artificielle
L'intelligence artificielle (IA) a parcouru un long chemin au cours des dernières décennies, avec des machines désormais capables d'effectuer des tâches complexes telles que la reconnaissance vocale, la classification d'images et même de battre des champions humains à des jeux comme les échecs et Go. Mais au fur et à mesure que le domaine de l'IA a progressé, un nouveau terme est apparu : la stupidité artificielle.
La stupidité artificielle fait référence à la capacité des systèmes d'IA à faire des erreurs stupides, souvent dans des situations où un humain serait en mesure de prendre une décision plus intelligente. Et bien que cela puisse ressembler à une blague, il s'agit en fait d'un problème sérieux qui a des implications dans le monde réel.
Un exemple de stupidité artificielle peut être trouvé dans l'utilisation de systèmes de police prédictive, qui sont conçus pour identifier les zones où des crimes sont susceptibles de se produire sur la base de données historiques sur la criminalité. Ces systèmes ont été critiqués pour avoir perpétué les préjugés et les inégalités dans le système de justice pénale, car ils reposent souvent sur des ensembles de données biaisés qui reflètent les pratiques policières passées plutôt que des taux de criminalité objectifs.
Un autre exemple de stupidité artificielle peut être trouvé dans l'utilisation des chatbots pour le service client. Bien que ces systèmes puissent être utiles pour traiter des demandes simples, ils sont souvent confrontés à des demandes plus complexes, ce qui entraîne des clients frustrés et une perte de temps. Dans certains cas, les chatbots ont même fourni des réponses inappropriées ou offensantes, portant atteinte à la réputation d'une entreprise.
Alors pourquoi ces machines intelligentes font-elles des erreurs aussi stupides ? L'une des raisons est que les systèmes d'IA ne sont aussi bons que les données sur lesquelles ils sont formés. Si les données sont biaisées ou incomplètes, le système d'IA prendra des décisions biaisées ou incomplètes. Une autre raison est que les systèmes d'IA n'ont pas la capacité de raisonner et de comprendre le contexte comme le font les humains. Ils peuvent être capables de reconnaître des modèles et de faire des prédictions, mais ils ont du mal avec les nuances de la communication humaine et de la prise de décision.
Robots boiteux
Parmi toutes ces aptitudes cognitives, il n'y
en a aujourd'hui qu'une toute petite poignée que l'on commence un peu à
savoir reproduire artificiellement, et notamment la marche bipède. Il aura fallu de nombreuses décennies de recherche avant de savoir
construire et programmer un robot marchant convenablement sur deux
jambes, c'est-à-dire sans tomber à cause d'un petit caillou sous son
pied ou lorsqu'une personne l'a simplement effleuré d'un peu trop près. Cette complexité existe aussi chez l'homme, puisque si vous vous
rappelez bien, il nous faut en moyenne une année pour apprendre à
marcher –c'est dire la complexité du problème. Aujourd'hui, l'un des plus gros défis en robotique autonome est de faire jouer des robots au football!, voir ce lien youtube.
En conclusion, le concept de bêtise artificielle peut sembler une blague, mais c'est un problème sérieux qui met en évidence les limites des systèmes d'IA. Bien que ces machines soient capables d'incroyables exploits d'intelligence, elles sont également susceptibles de faire des erreurs stupides dans des situations où un humain serait en mesure de prendre une décision plus intelligente. Alors que nous continuons à développer et à déployer des systèmes d'IA, il est essentiel d'être conscient de leurs limites et de veiller à ce qu'ils soient utilisés de manière responsable et éthique.
"Certaines personnes craignent que l'intelligence artificielle nous fasse nous sentir inférieurs, mais alors, toute personne sensée devrait avoir un complexe d'infériorité chaque fois qu'elle regarde une fleur." Alan Kay.
Références
- Lance Eliot, Unpacking The Best Top Ten Quotes About Artificial Intelligence Leveraging Modern-Day AI Ethics Thinking, 2022, link.
- Saygin, Ayse Pinar; Cicekli, Ilyas; Akman, Varol (1999). An analysis and review of the next 50 years. Minds and Machines: 2000. CiteSeerX 10.1.1.157.1592
- Michaël Trazzi, Roman V. Yampolskiy, Artificial Stupidity: Data We Need to Make Machines Our Equals, Patterns, Volume 1, Issue 2, 2020.
- Andres Vrant, "Artificial Stupidity" according to an Artificial Intelligence", 2023, link
- J.R. Lucas, "Minds, Machines and Gödel", 1961.
- R. Penrose, "The Emperor’s New Mind and 1994’s Shadows of the Mind", 1989.
- Karl Delagrange, Six Misconceptions about Artificial Intelligence, Artificial intelligence, 2022.
- Finland’s Age of Artificial Intelligence, Turning Finland into a leading country in the application of artificial intelligence. Objective and recommendations for measures. Publications of Ministry of Economic Affairs and Employment 47/2017, link.
- Wayne Holmes, Jen Persson, Irene-Angelica Chounta, Barbara Wasson and Vania Dimitrova, Artificial Intelligence and Education: A critical view through the lens of human rights, democracy and the rule of law, Council of Europe, link.
- Nicolas P. Rougier, Votre chat est plus intelligent qu'une IA, Tech & internet, 2019, link.
- Beavers, Anthony (2013). "Alan Turing: Mathematical Mechanist". In Cooper, S. Barry; van Leeuwen, Jan (eds.). Alan Turing: His Work and Impact. Waltham: Elsevier. pp. 481–485.
Commentaires
Enregistrer un commentaire