Quand l'intelligence artificielle s'attaque aux jeux de société, le progrès n'est jamais loin. Car au-delà de l'aspect ludique, les applications sont nombreuses.
Plus de vingt ans après avoir battu Garry Kasparov aux échecs, trois ans après avoir écrasé Lee Sedol au jeu de go, l'intelligence artificielle s'attaque à un nouveau défi : Hanabi. C'est ce qu'a annoncé DeepMind, filiale de Google, dans un article publié début février. Ce jeu de cartes créé par Antoine Bauza est coopératif : on ne joue pas les uns contre les autres, mais les uns avec les autres. Pour pimenter l'expérience, les joueurs ne connaissent pas leurs propres cartes, visibles uniquement de leurs coéquipiers. Il leur faut donc communiquer selon certaines limites imposées par les règles, et c'est bien là toute la difficulté.
La théorie de l'esprit au cœur des recherches
Voilà ce qui intéresse les spécialistes de l'intelligence artificielle. «Lorsque les chercheurs de DeepMind ont essayé d'appliquer leurs modèles, efficaces pour d'autres jeux, à Hanabi, ils ont échoué», raconte Alexandre Niveau, maître de conférence en informatique à l'université de Caen. «Les intelligences artificielles n'arrivent pas à collaborer parce qu'elles n'ont pas intégré la théorie de l'esprit.» Par théorie de l'esprit, il faut comprendre le fait d'attribuer aux autres des états mentaux, c'est-à-dire des intentions, des désirs, des croyances. Plus simplement, c'est la capacité de penser : «si le joueur accomplit telle action, c'est qu'il sait que j'ai telle carte, je vais donc jouer de telle façon». Une opération naturelle chez l'homme, qu'il intègre très jeune, mais inconnue de la machine.
«On pourrait écrire un algorithme qui joue parfaitement à Hanabi, explique le chercheur, mais il se passerait une éternité entre chaque tour.» Car les problématiques développées dans ce jeu sont très complexes. Aux échecs, la machine devait effectuer une multitude de calculs pour envisager toutes les possibilités. Le jeu de go présentait une difficulté supérieure, parce que l'intelligence artificielle devait intégrer la stratégie de son adversaire en cours de partie, ce que les chercheurs appellent l'apprentissage automatique (ou machine learning). Avec Hanabi, c'est un nouveau défi qui se pose aux chercheurs. Il faut que la machine raisonne en fonction de ce que les autres pensent et disent. Et les avancées dans ce domaine ouvriraient la voie à de nombreuses applications.
Un progrès à double tranchant
«Comme toujours avec l'intelligence artificielle, il y a de nombreuses applications, plus ou moins bénéfiques», nuance Alexandre Niveau. Des aspects positifs, il en cite deux. Il y a d'abord les véhicules autonomes. Avec de meilleurs algorithmes, les voitures seront capable d'analyser l'état mental des piétons environnants. «Prenons l'exemple d'un enfant qui joue au ballon en bord de route, décrit Alexandre Niveau, la voiture pourra, en analysant la situation, augmenter son niveau de prudence et ralentir.» Autre exemple, dans le domaine de la robotique cette fois. Des robots d'accompagnement pour personnes âgées ou en situation de handicap sont actuellement à l'étude, au stade de prototypes. «Intégrer la théorie de l'esprit à ces robots permettrait une assistance véritablement personnalisée et bien plus efficace», poursuit-il. Car ils seraient capables de s'adapter aux usagers de manière intuitive.
Mais si Google s'intéresse à Hanabi, c'est avant tout par motivation commerciale. «Avec une intelligence artificielle capable de décrypter l'état d'esprit et la façon de penser des acheteurs potentiels, explique le chercheur, on imagine aisément l'utilisation possible dans le champ des recommandations personnalisées sur internet.» Sans parler des dérives beaucoup plus dangereuses et néfastes. «Je pense notamment aux systèmes autonomes de guerre, les drones tueurs ou les robots soldats», redoute Alexandre Niveau. «La théorie de l'esprit permet d'améliorer considérablement le potentiel de l'intelligence artificielle, dans le bon comme dans le mauvais sens.»
Pour le chercheur, le progrès scientifique est bénéfique mais il devrait faire l'objet d'un contrôle sociétal. «Il nous faut des organismes pour approuver ou non les plans de recherches comme c'est le cas en biologie», explique-t-il. «Ce sont eux qui interdisent l'expérimentation sur les êtres humains.» Mais pour lui, les scientifiques doivent également rester conscients face aux applications potentielles de leurs travaux. Il cite en exemple la pétition signée par 4000 employés de chez Google en 2018 afin que leur entreprise refuse un contrat avec l'armée américaine.
Boris Granger