Qu'est-ce que l'IA

Un article de Le-Gritche.

Sommaire

[modifier] Intelligence Artificielle : Qu'est-ce que l'IA ?

Je commence ici une série de tutoriels consacrés à ce vaste domaine qu'est l'Intelligence Artificielle (IA). Jusqu'où irons-nous ? Je n'en sais pas plus que vous à l'heure où j'écris ce document, tellement les applications de l'IA et les disciplines qui lui sont liées sont nombreuses. Tout au long de notre progression dans ce "nouveau monde", j'essaierais de décrire les choses d'une manière simple, en conservant à l'idée que ce document doît être accessible à tous, et non seulement aux spécialistes.

Commençons donc par définir ce qu'est l'IA. Dans un premier temps nous tenterons d'en donner une définition assez générale pour englober toutes ses "ramifications". Puis nous dresserons un historique de l'IA, à travers les grandes figures qui ont marquées son évolution.

[modifier] Définition ou définitions ?

Quelques lignes d'écriture et déjà un premier souci : définir ce qu'est l'Intelligence Artificielle. En fait chacun peut se faire sa propre définition, selon que l'on soit informaticien, biologiste, ou philosophe...

[modifier] I+A=IA

Commençons d'abord par une première tentative de définition : l'expression "Intelligence Artificielle" et composée de 2 mots, qui sont "Intelligence" et "Artificielle". Jusque là, pas de problèmes :). Maintenant, tentons d'expliquer simplement ce que signifient ces 2 mots.

Tout le monde sera d'accord pour dire que le terme artificiel désigne ce qui n'est pas un produit de la nature.

Définir l'intelligence est plus compliqué... Nous nous en tiendrons à une description relativement généraliste donnée par Jean-pol Tassin (Pourla Science, Décembre 1998), à savoir que l'intelligence est une "Faculté de connaître, de comprendre et de s'adapter [...]".

Produire une intelligence artificelle, consisterait donc à utiliser une technique (en l'occurence informatique) pour concevoir un système capable de raisonnement (résoudre un problème, s'adapter à des situations nouvelles...)

[modifier] L'IA et l'algorithmique

Considérons maintenant l'exemple de l'élaboration d'un programme de jeu d'échecs. La programmation classique utilise l'algorithmique pour calculer et analyser tous les coups possibles à chaque étape du jeu. L'intelligence artificielle, quant à elle, introduit une nouvelle vision du jeu : chaque coup joué fait maintenant partie d'une tactique qui consiste à réaliser un objetctif, la victoire. L'IA a donc une vision globale du jeu, élabore des stratégies, s'adapte aux coups joués par l'adversaire, etc...

L'IA est une conception différente de la résolution de problèmes. D'après JL. Laurière, "Tout problème pour lequel aucune solution algorithmique n'est connue relève a priori de l'IA"

[modifier] Une définition générale

Reprenons la phrase de Marvin Minsky, figure célèbre de l'IA des années 50 : "[...] the science of making machines do things that would require intelligence if done by humans".

Si on reprend cette conception première de l'IA et les idées que nous avons vus précédemment, on peut fournir notre propre définition de l'IA.

L'IA est la branche de l'informatique qui consiste à concevoir des systèmes intelligents, c'est-à-dire qui soient capables de produire un raisonnement proche de celui de l'être humain.

[modifier] Historique

Afin de comprendre les performances et les objectifs actuels de l'IA, il est nécessaire d'en dresser l'évolution.

[modifier] Les racines de l'IA

Du mythe grec de Pygmalion, qui sculpta une statue qui devint vivante, au Canard mécanique de l'automaticien Vaucanson (1738) qui bat des ailes, mange du pain et le digère, on trouve dans l'histoire de l'Humanité de nombreuses références à une volonté de l'Homme de créer des "machines"à l'image des êtres vivants.

Plus tard, ce thème sera repris par la littérature de Science-Fiction : Frankenstein (Frankenstein ou le Prométhée moderne de Mary Shelley -1818-), HAL (2001, L'odyssée de l'espace de Arthur Clarke -1968-), les Répliquants (Blade Runner de Philip K. Dick -1968-), ou encore les Robots (Les Robots de Isaac Asimov -1950-) comptent parmi les plus populaires exemples de création à l'image humaine.

(Note personnelle : au passage, je ne saurai que trop vous conseiller ces ouvrages ; j'aurai pu rallonger la liste au moins d'une bonne dizaine d'ouvrages, mais ce n'est pas le but ici... Ou peut-être écrirais-je un jour un tutoriel sur L'IA dans la littérature SF ;)

[modifier] Les années 1950 : fondation de l'IA moderne

Alan Turing (1912-1954)
Alan Turing (1912-1954)


1950 : le mathématicien britannique Alan Turing publie, dans le journal philosophique Mind, un article intitulé Computing Machinery and Intelligence. Dans cet article, il décrit un test (Test de Turing). Ce test consiste à faire communiquer un individu avec un interlocuteur invisible à travers un terminal d'ordinateur. L'individu doit alors deviner si son interlocuteur est un être humain ou un système d'intelligence artificelle imitant un être humain. Le but du test est de déterminer si le système d'IA est intelligent. Considéré par beaucoup comme l'un des fondateurs de l'informatique, Turing est également un des précurseurs de l'IA.

1955-1956 : Allen Newell, John Shaw, et Herbert Simon créent le "Logic Theorist", qui est considéré comme le premier programme d'IA. En modélisant chaque problème par un arbre, il tente de le résoudre en sélectionnant la branche qui donnerait le résultat le plus proche de l'objectif final. Le programme fût capable de redémontrer des théorèmes déjà établis par les mathématiciens mais de manière plus "élégante"."IPL-11", le premier langage d'IA, est crée.

John McCarthy
John McCarthy

1956 : John McCarthy, considéré comme le père de l'IA, organise "The Dartmouth summer research project on Artificial Intelligence". C'est à lui que l'on doit le terme "Intelligence Artificelle". Pour lui, "toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine. "En 1958, il introduit le langage LISP. En 1959, avc Marvin Minsky, il fonde le "MIT AI Lab".

1959 : élaboration du GPR (General Problem Resolver), qui consiste à définir un état initial, un ou plusieurs états finaux, et des opérateurs de transition entre les états.

[modifier] 1960-1970 : Evolutions et Déceptions

L'échec du GPR, abandonné en 1967, marquera le début d'un période où l'IA se heurtera à de nombreux détracteurs. Parmi eux, Hubert Dreyfus, qui écrit "What Computers Can't Do" en 1972 dénoncera les sommes importantes dépensées par le gouvernement US pour le développement de l'IA. Les premiers succès auront vite montré leurs limites et beaucoup de biologistes et d'informaticiens jugeront les objectifs premiers de l'IA trop optimistes.

En fait, le principal problème des ces systèmes était leur incapacité à imiter la capacité de l'homme à utiliser le contexte d'un problème pour déterminer le sens des mots et des phrases. On peut par exemple citer ce passage de l'ouvrage de Dreyfus :

"In spite of journalistic claims at various moments that machine translation was at last operational, this research produced primarily a much deeper knowledge of the unsuspected complexity of syntax and semantics". Même si le "super-optimisme" du début semble disparaître, les tenants de l'IA n'en sont pas moins désespérés. Pour Simon, les machines de 1985 seraient capables de faire tout ce que l'homme est capable de faire.

On notera également, en 1968, la sortie du film 2001, L'odyssée de l'espace, de Stanley Kubrick, qui montrera un aspect de l'IA au grand public, à travers son ordinateur HAL.

[modifier] 1970-1980 : Evolutions et Déceptions (bis)

Durant les années 70, de nombreuses nouvelles méthodes de développment de l'IA sont testées. En 1971, le langage PROLOG est créé par Colmerauer.

1974 verra l'avénement des premiers systèmes experts dont le plus célèbre MYCIN(Edward H. Shortliffe), conçu pour l'aide au diagnostic et au traitement de maladies bactériennes du sang. En 1979, Mycin sera considéré par le "Journal of American Medical Assoc" comme aussi bon que les experts médicaux.

La même année, le premier robot piloté par ordinateur est conçu.

On notera également dans les années 70, l'abandon des subventions versées par les gouvernements (US pour la plupart) pour quelques programmes de recherche en IA.

[modifier] 1980-1990 : Accélération du mouvement

Avec l'efficacité prouvée des systèmes experts, les ventes de matériels IA (hardware ou logiciel) grimpent en flèche. L'IA commence à intéresser les grandes firmes (Boeing, General Motors, etc). Face aux détracteurs, les "pro-IA" se défendent : en 1982, Minsky écrit "Why People Think Computers Can't", en réponse notamment aux critiques de Dreyfus.

De nouvelles branches de l'IA font leur percée sur le marché, notamment celui de la vision de la machine. Par exemple, des travaux sont réalisés sur l'utilisation d'une caméra reliée à un ordinateur pour améliorer le contrôle qualité (Reconnaissance des formes, etc).

Malgré quelques échecs, l'IA semble renaître : la logique floue est conçue, les réseaux de neurones sont réhabilités.

Durant les années 80, l'IA est sortie des laboratoires pour montrer ses utilisations possibles dans la vie réelle. Mais la recherche continue, et de grands projets ont vu le jour au début des années 90..

Ce document a été publié sur la version 3 du G.C.N. par Le-Gritche.

  • Auteur Original : Le-Gritche
  • Date de publication : 16 octobre 2001

(aucun commentaire actuellement)