#Digitalsciences

Pupils vs Machine

5#Pupils vs Machine

retour au sommaire

PITT

5.6 Pour aller plus loin

01
Les mathématiques dans le jeu de Nim

Le jeu de Nim est un jeu relativement simple, avec une stratégie gagnante connue. Si le nombre de stylos avec lequel on y joue est un multiple de 4, le·la second·e joueur·euse dispose d’une stratégie gagnante. La formule mathématique s’énoncerait comme suit :

Si l’on joue au jeu de Nim avec n stylos, n étant un multiple de 4, le·la second·e joueur·euse a une stratégie gagnante. 

Cela n’est pas très difficile à démontrer. Supposons que l’on joue avec seulement 4 stylos. Le·La premier·ère joueur·euse est contraint·e de retirer au moins 1 stylo ; il en reste donc 1, 2 ou 3. Le·La second·e joueur·euse peut maintenant retirer les stylos restants, il·elle a gagné. Ainsi, s’il n’y a que 4 stylos sur la table et que c’est au tour du·de la premier·ère joueur·euse, il est certain que le·la second·e remportera la partie. 

Supposons maintenant qu’il y ait 8 stylos sur la table. Le·La premier·ère joueur·euse est obligé·e de retirer au moins 1 stylo, il en reste donc 5, 6 ou 7. Le·La second·e joueur·euse peut maintenant retirer autant de stylos que nécessaire pour qu’il n’en reste plus que 4 sur la table, et c’est à nouveau au tour du·de la premier·ère joueur·euse. Comme dans le premier cas, le·la second·e joueur·euse est sûr·e de gagner, il·elle a une stratégie gagnante. 

La démonstration pourrait se poursuivre à l’infini. Avec 12 stylos, on peut arriver à 8, et nous savons déjà que celui ou celle qui joue en second·e a une stratégie gagnante dans cette configuration. En jouant avec 16 stylos, on peut arriver à 12, et ainsi de suite. En mathématiques, ce type de démonstration est appelé preuve par induction. 

02
L’IA dans d’autres jeux

L’intelligence artificielle fonctionne également dans le cadre d’autres jeux. La méthode de base reste la même, à la différence près que le jeu de Nim est un petit jeu très facile, en ce sens qu’il existe une stratégie gagnante claire que l’on peut établir et démontrer mathématiquement (cf. section précédente). Nous parlons ici d’un « petit » jeu parce que le nombre de possibilités n’est pas immense. Lorsqu’on ne joue qu’avec 8 stylos, on a 8 cas (les gobelets) avec respectivement 3 coups possibles (les jetons). Cela est peu par rapport à d’autres jeux. 

En 1961, le chercheur en intelligence artificielle Donald Michie a élaboré, à partir de 304 boîtes d’allumettes, une IA capable d’apprendre le jeu du morpion. Il la baptisa MENACE (Machine Educable Noughts and Crosses Engine). Cette IA se compose de 304 boîtes d’allumettes collées les unes aux autres pour fabriquer une sorte de commode, telle qu’illustrée sur la photo ci-dessous :

Source: https://www.mscroggs.co.uk/blog/19

Une configuration de morpion différente est représentée sur chaque boîte (le nombre de configurations possibles est bien sûr plus élevé que 304, mais les symétries permettent de s’en tenir à ce nombre) et chaque boîte contient différentes perles colorées. Contrairement à l’IA du jeu de Nim, des perles ne sont pas seulement éliminées, il est également possible d’ajouter des perles ayant un effet positif (pour rendre ces stratégies positives plus probables). Le site du CNRS Images des mathématiques a publié un excellent article sur MENACE. Le mathématicien américain Martin Gardner a également écrit un article très accessible et passionnant sur MENACE et d’autres intelligences artificielles semblables (Gardner, 1962).

En 2017, MENACE a été recréée à l’occasion du Festival des sciences de Manchester et elle a réussi en peu de temps à gagner contre les visiteur·euse·s ou, au minimum, à faire match nul. 

La mathématicienne française Aline Parreau a créé un livre qui joue au morpion et ne perd jamais. 

Des jeux plus complexes comme les échecs ou le jeu de go sont également programmables de façon semblable avec une IA. Ces jeux sont plus complexes à plusieurs égards. D’une part, le nombre de cas et d’actions possibles est bien plus élevé que dans le jeu de Nim ou le morpion. Si l’on programmait les échecs avec un système de gobelets, il faudrait approximativement de 1050 gobelets. Le go est quant à lui encore plus complexe que les échecs. L’informaticien Claude Shannon a calculé qu’il existe environ 10120 parties d’échecs différentes. Pour le go, le nombre de parties atteint les 10300 (du Sautoy, 2019). D’autre part, aucune stratégie gagnante n’est connue à ce jour pour le go ou les échecs, contrairement au jeu de Nim et au morpion. Par conséquent, il est impossible d’apprendre à une IA à jouer à chacun de ces jeux exactement de la même manière. Des méthodes d’IA plus complexes sont requises, capables de déceler des modèles et des règles sans passer en revue toutes les possibilités. C’est le cas des réseaux neuronaux, par exemple.

Et pourtant, dès 1997, l’ordinateur « Deep Blue » a remporté une partie d’échecs contre le champion du monde de l’époque. Cela représentait certes déjà une avancée majeure, mais le vrai défi résidait dans le jeu de go. De nombreux·ses scientifiques étaient convaincu·e·s que jamais aucun ordinateur ne serait capable de battre un humain au jeu de go. L’équipe britannique DeepMind a alors mis au point une IA capable d’apprendre le go, et qui est parvenue à battre un joueur professionnel en 2015. L’année suivante, AlphaGo a remporté une partie contre l’un des meilleurs joueurs de go de la planète, avant de finalement vaincre le champion du monde de go, Ke Jie. L’aventure qui est partie de l’idée de développer AlphaGo jusqu’à la victoire en 2017 est décrite de façon captivante par Marcus du Sautoy dans son ouvrage « The Creativity Code: Art and Innovation in the Age of AI » (du Sautoy, 2019).

Ce livre constitue une excellente introduction à l’univers de l’IA. Par ailleurs, l’Inria propose un MOOC (Massive Open Online Course) plus approfondie sur l’IA, intitulée « L’Intelligence Artificielle… avec intelligence ! ». Pour mieux comprendre les réseaux neuronaux et le deep learning, nous recommandons par ailleurs la lecture du premier chapitre du livre en ligne intitulé Neural Networks and Deep Learning (Nielsen, 2015).

03
Faut-il redouter l’intelligence artificielle ?

Les progrès réalisés dans le domaine de l’intelligence artificielle présentent de nombreux aspects positifs, mais malheureusement aussi négatifs. L’utilisation d’intelligences artificielles pose par exemple le problème du biais qui, dans le pire des cas, entraîne une discrimination fondée sur l’origine ethnique, le sexe, le niveau de formation, etc. Du Sautoy (2019) décrit plusieurs exemples à ce sujet. Le secteur financier a notamment recours aux IA afin d’évaluer la solvabilité de candidats au crédit. Pour ce faire, un algorithme identifie des modèles ayant eu un rapport avec un défaut de crédit par le passé. Si des client·e·s ne présentent un tel profil que de manière fortuite, il est possible que l’IA aboutisse à une appréciation erronée. Le domaine juridique a lui aussi recours à l’intelligence artificielle. Aux États-Unis, des IA émettent des propositions de mise en liberté anticipée pour des personnes détenues. Pour apprendre les critères pris en compte dans l’examen d’une mise en liberté, elles sont alimentées en verdicts passés. Dans ce cas, les décisions des juges contenaient déjà un biais en soi : les personnes aux cheveux foncés ont été en moyenne plus durement sanctionnées. Par conséquent, l’IA acquiert des connaissances sur la base de données qui ne sont pas équitables et qui contiennent au contraire un biais qu’elle reprend évidemment pour formuler ses propres propositions.

Ces problématiques font actuellement l’objet de débats dans les médias et suscitent chez certaines personnes de la méfiance à l’égard de l’intelligence artificielle. Celle-ci a beau être omniprésente dans nos vies et dans les médias, l’on en connaît et comprend encore rarement la signification. Une peur irrationnelle apparaît précisément lorsque l’on ne comprend pas une chose, et seules l’information et l’éducation peuvent permettre de la dissiper.

Il ne s’agit pas là d’utiliser l’IA sans rien interroger ni de l’idéaliser en faisant fi de toute critique, mais plutôt d’en développer une connaissance critique. Développer une réelle compréhension de l’IA est le seul moyen de réussir à faire la distinction entre les aspects positifs et les répercussions négatives, voire dangereuses, des programmes d’intelligence artificielle. 

Comme l’explique l’article « Why it is best not to let the computer decide » dans les ressources PITT, il importe de ne pas laisser les IA prendre possession de nos vies. Toutefois, au lieu de tout rejeter en bloc en raison d’une panique irrationnelle, une compréhension critique peut contribuer à également en reconnaître les aspects positifs.

C’est l’objectif que s’est fixé Rediet Abebe, informaticienne et cofondatrice de l’organisation à but non lucratif Black in AI, qui utilise l’intelligence artificielle pour résoudre des problèmes du monde réel (Crowell, 2021). Elle a également cofondé l’organisation Mechanism Design for Social Good, qui regroupe des chercheur·euse·s de diverses disciplines, des décideur·euse·s et des représentant·e·s du monde de l’entreprise dans le but de favoriser la justice et le bien-être social de groupes marginaux, notamment en matière d’éducation, d’accès à l’emploi et au logement, etc.

L’intelligence artificielle joue un rôle toujours croissant dans la recherche elle-même, elle la fait avancer et apporte des résultats très positifs, notamment en ce qui concerne la reconnaissance de formes dans le cadre de diagnostics médicaux. Dans l’interview qui suit, Dr Laurent Mombaerts, qui était chercheur à l’Université du Luxembourg, nous explique comment il utilisait l’IA dans ses travaux de recherche.

 

Références
Alexandre, Frédéric, Becker, Jade, Comte, Marie-Hélène, Lagarrigue, Aurélie, Liblau, Romain, Romero, Margarida & Viéville, Thierry. (2021). Why, What and How to help each Citizen to Understand Artificial Intelligence? KI – Künstliche Intelligenz, 2, 1610–1987.
Crowell, Rachel. (2021). A Computer Scientist Who Tackles Inequality Through Algorithms. Quanta Magazine. https://www.quantamagazine.org/rediet-abebe-tackles-inequality-with-computer-science-20210401/
Gardner, Martin. (1962). A Matchbox Game Learning-Machine, Scientific American, 3 1962, 138–144.
Nielsen, Michael. (2015). Neural Networks and Deep Learning, Determination Press, http://neuralnetworksanddeeplearning.com/
du Sautoy, Marcus. (2019). The Creativity Code: Art and Innovation in the Age of AI. Cambridge: Belknap of Harvard UP.

PITT