Avez-vous envie de battre un robot au tennis de table ? Google DeepMind a appris à un robot à jouer au tennis de table à un niveau équivalent à celui d’un amateur. Elle affirme que c’est la première fois qu’un robot apprend à jouer à un sport avec des humains à un niveau humain.
Découvrez la vidéo du robot tennis de table Google
Les chercheurs ont réussi à faire en sorte qu’un bras robotisé maniant une raquette remporte 13 des 29 parties contre des adversaires humains de niveau variable dans des parties complètes de tennis de table.
Le système est loin d’être parfait. Bien que le robot de tennis de table ait pu battre tous les adversaires humains de niveau débutant qu’il a affrontés et 55 % de ceux qui jouaient au niveau amateur, il a perdu toutes les parties contre des joueurs avancés. Il s’agit néanmoins d’une avancée impressionnante.
« Il y a quelques mois, nous avions prévu que le robot ne pourrait pas gagner contre des personnes qu’il n’avait jamais affrontées auparavant. Le système a certainement dépassé nos attentes », déclare Pannag Sanketi, ingénieur logiciel senior chez Google DeepMind, qui a dirigé le projet. « La façon dont le robot a surpassé ses adversaires, même les plus forts, était époustouflante.
Et la recherche n’est pas seulement amusante et ludique. En fait, elle représente une étape vers la création de robots capables d’effectuer des tâches utiles avec habileté et en toute sécurité dans des environnements réels comme les maisons et les entrepôts, ce qui est un objectif de longue date de la communauté robotique. L’approche de Google DeepMind en matière de formation des machines est applicable à de nombreux autres domaines du domaine, déclare Lerrel Pinto, chercheur en informatique à l’Université de New York qui n’a pas travaillé sur le projet.
« Je suis un grand fan de voir des systèmes robotisés fonctionner réellement avec et autour de vrais humains», dit-il. « Ce n’est peut-être pas un acteur majeur, mais les ingrédients de base sont là pour continuer à s’améliorer et finalement y arriver. »
Pour devenir un joueur de tennis de table complet, les humains doivent avoir une excellente coordination œil-main, la capacité de se déplacer rapidement et de prendre des décisions rapides en réaction à leur adversaire, autant de défis importants pour les robots. Les chercheurs de Google DeepMind ont utilisé une approche en deux parties pour entraîner le système à imiter ces capacités : ils ont utilisé des simulations informatiques pour entraîner le système à maîtriser ses compétences de frappe, puis l’ont affiné à l’aide de données du monde réel, ce qui lui permet de s’améliorer au fil du temps.
Les chercheurs ont compilé un ensemble de données sur les états des balles de tennis de table, notamment des données sur la position, l’effet et la vitesse. Le système a puisé dans cette bibliothèque dans un environnement simulé conçu pour refléter avec précision la physique des matchs de tennis de table pour apprendre des compétences telles que le retour d’un service, la frappe d’un coup droit lifté ou d’un revers. Les limites du robot l’empêchant de servir la balle, les jeux réels ont été modifiés pour s’adapter à cette situation.
Lors de ses matchs contre des humains, le robot collecte des données sur ses performances pour l’aider à affiner ses compétences. Il suit la position de la balle à l’aide de données capturées par une paire de caméras et suit le style de jeu de son adversaire humain grâce à un système de capture de mouvement qui utilise des LED sur la raquette de son adversaire. Les données de la balle sont réinjectées dans la simulation pour l’entraînement, créant ainsi une boucle de rétroaction continue.
Google DeepMind a développé un robot IA spécialisé dans le tennis de table 😁
Il atteint une performance de niveau humain, avec 100 % de victoires contre des débutants et 55 % de victoires contre des joueurs intermédiaires (sur 29 matchs).
Le robot améliore ses compétences… pic.twitter.com/emvUtLQBh5
— Maximilien Labadie 🎯 (@maximilien912) August 10, 2024
Ce retour d’information permet au robot de tester de nouvelles compétences pour essayer de battre son adversaire, ce qui signifie qu’il peut ajuster sa tactique et son comportement comme le ferait un humain. Cela signifie qu’il s’améliore progressivement au cours d’un match donné et au fil du temps au fur et à mesure des matchs qu’il joue.
Le système a eu du mal à frapper la balle lorsqu’elle était frappée très vite, au-delà de son champ de vision, ou très bas, en raison d’un protocole qui lui ordonne d’éviter les collisions qui pourraient endommager sa raquette. Les balles qui tournent se sont révélées être un défi car elles ne permettaient pas de mesurer directement la rotation, une limitation dont les joueurs avancés ont rapidement tiré parti.
Google DeepMind estime que ces limitations pourraient être résolues de plusieurs manières, notamment en développant des modèles d’IA prédictifs conçus pour anticiper la trajectoire de la balle et en introduisant de meilleurs algorithmes de détection des collisions.
Les joueurs humains ont surtout apprécié leurs matchs contre le bras robotisé. Même les concurrents avancés qui ont réussi à le battre ont déclaré avoir trouvé l’expérience amusante et engageante, et ont déclaré qu’ils pensaient qu’il avait le potentiel d’être une source de dynamisme et pourquoi pas remplacer le simple robot lanceur de balle à l’entraînement.