Où va l’intelligence artificielle ?


vendredi 25 octobre 20193 min
Écouter l'article

Un cycle de débats sur l’intelligence artificielle a été entamé à l’Hôtel de l’Industrie, souhaitant couvrir tous les thèmes du sujet. Il est initié par les associations Chercheur toujours, ADELI explorateurs des espaces numériques, SEIN, AFAS, et MURS (mouvement universel de la responsabilité scientifique). Lors de la première conférence le 3 octobre dernier, sont intervenus Juliette Mattioli, experte IA à Thales, membre de délégations françaises pour l’IA (G7), et Jean-Gabriel Ganascia, professeur à la Sorbonne Université, site Pierre-et-Marie-Curie (LIP6), membre de l’Institut universitaire de France, ainsi que de la CERNA (Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene) et président du Comité d’éthique du CNRS (Comets).





Jean-Gabriel Ganascia a tout d’abord posé une question centrale à ses yeux : « Sommes-nous toujours dans la modernité ou bien va-t-on au-delà avec l’intelligence artificielle ? »


 


Origines de l’intelligence artificielle


L’Homme se demande depuis longtemps si une machine peut penser. Pour une poignée de philosophes, la pensée tient d’une opération et donc « penser, c’est calculer ». Pour Leibniz surtout, tout se produit par calcul dans la nature, et notamment la pensée. L’adhésion à ce postulat entraîne donc la possibilité de construire un instrument pensant. Mathématiser la logique pour l’incorporer à des systèmes mécaniques, électroniques ou informatiques a concrétisé cette vision ultérieurement. L’économiste anglais Charles Babbage (1791-1871), précurseur de l’informatique, a imaginé le concept de l’ordinateur. Trop cher, trop complexe, il n’a jamais pu le construire de son vivant. Ada Lovelace, mathématicienne, l’assiste. Elle invente des programmes pour cet équipement du futur. Selon Ada Lovelace, véritable visionnaire, l’appareil traitera autant les mathématiques que la musique et le texte. Bien plus tard, en 1948 et 1950, le cryptologue Alan Turing écrira deux articles dans lesquels il pose la question du sens de la pensée pour un outil. Il s’intéresse à la création d’un système qui puisse la simuler. Il estime qu’un tel équipement doit acquérir des quantités de connaissances par lui-même. Mémorisation, réseau neuronal, évolution de l’espèce, Alan Turing dresse un parallèle avec l’homme pour concevoir cet appareil. Il ne parle cependant pas d’intelligence artificielle. Cette expression est formulée en 1955 par John McCarthy et Marvin Lee Minsky, tous deux professeurs de mathématiques, qui fondent cette discipline scientifique. Rappelons que le premier ordinateur électronique apparait neuf ans plus tôt en 1946. Leur intention est de l’utiliser pour mieux comprendre l’intelligence en se basant sur sa décomposition analytique. Ils souhaitent diviser toutes les caractéristiques de l’intelligence en fonctions élémentaires que l’ordinateur puisse simuler. Jean-Gabriel Ganascia énumère les fonctions de base reproductibles par l’intelligence artificielle, qui se classent en cinq catégories :


la mesure, d’informations à travers des capteurs, qui sont interprétées, c’est-à-dire la perception ;


la description des informations dans la mémoire, appelée la représentation des choses même en leur absence, l’abstraction. L’extraction de connaissance à partir de ce stock constitue un apprentissage ;


l’exploitation des informations mémorisées et des connaissances permet de raisonner ;


perception, connaissance et raisonnement doivent communiquer ensemble et avec l’Homme ;


la décision et l’action.


Cette nouvelle science nous aide à mieux comprendre l’intelligence. En imitant nos différentes facultés, elle a généré les sciences cognitives. Exemples : le web, la biométrie, la reconnaissance de la voix…





 


Partager l'article


0 Commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Abonnez-vous à la Newsletter !

Recevez gratuitement un concentré d’actualité chaque semaine.