C’était début janvier 2016, et je venais de rejoindre Google X, le laboratoire d’innovation secret d’Alphabet. Mon travail : aider à déterminer quoi faire avec les employés et la technologie laissés par neuf entreprises de robots que Google avait acquises. Les gens étaient confus. Andy « le père d’Android » Rubin, qui avait précédemment été en charge, était soudainement parti. Larry Page et Sergey Brin essayaient de donner des conseils et une direction lors de visites occasionnelles pendant leur « temps libre ». Astro Teller, le responsable de Google X, avait accepté quelques mois auparavant de ramener toutes les personnes liées aux robots dans le laboratoire, affectueusement appelé l’usine des moonshots.

Je me suis inscrit parce qu’Astro m’avait convaincu que Google X—ou simplement X, comme nous en venons à l’appeler—serait différent des autres laboratoires d’innovation d’entreprise. Les fondateurs étaient déterminés à penser très grand et ils disposaient du fameux « capital patient » pour faire avancer les choses. Après une carrière à créer et vendre plusieurs entreprises technologiques, cela me semblait juste. X semblait être le type de projet que Google devait entreprendre. Je savais par expérience directe à quel point il était difficile de construire une entreprise qui, selon les mots célèbres de Steve Jobs, pourrait laisser une empreinte dans l’univers, et je croyais que Google était l’endroit idéal pour faire certains paris audacieux. Les robots alimentés par l’IA, ceux qui vivront et travailleront à nos côtés un jour, étaient l’un de ces paris audacieux.

Huit ans et demi plus tard—et 18 mois après que Google ait décidé de mettre fin à son plus gros pari en robotique et en IA—il semble qu’une nouvelle startup robotique apparaissent chaque semaine. Je suis plus convaincu que jamais que les robots doivent venir. Pourtant, j’ai des inquiétudes que la Silicon Valley, avec son accent sur les « produits viables minimaux » et l’aversion générale des capital-risqueurs à investir dans le matériel, sera patiente assez longtemps pour gagner la course mondiale pour doter l’IA d’un corps robotique. Et une grande partie de l’argent qui est investi se concentre sur les mauvaises choses. Voici pourquoi.

Le Sens du “Moonshot”

Google X—le foyer des Robots Quotidiens, comme notre moonshot en est venu à être connu—est né en 2010 d’une grande idée selon laquelle Google pourrait s’attaquer à certains des problèmes les plus difficiles du monde. X était délibérément situé dans son propre bâtiment, à quelques miles du campus principal, pour favoriser sa propre culture et permettre aux gens de penser très en dehors des sentiers battus. Beaucoup d’efforts ont été déployés pour encourager les X-ers à prendre de grands risques, à expérimenter rapidement et même à célébrer l’échec comme une indication que nous avions placé la barre particulièrement haut. Quand je suis arrivé, le laboratoire avait déjà vu naître Waymo, Google Glass et d’autres projets sonnant comme de la science-fiction, tels que des éoliennes volantes et des ballons stratosphériques fournissant un accès à Internet aux personnes mal desservies.

Ce qui séparait les projets X des startups de la Silicon Valley, c’était la façon dont les X-ers étaient encouragés à penser grand et à long terme. En effet, pour être désigné comme un moonshot, X avait une « formule » : le projet devait démontrer, premièrement, qu’il s’attaquait à un problème qui affecte des centaines de millions, voire des milliards, de personnes. Deuxièmement, il devait y avoir une technologie révolutionnaire qui nous donnait une perspective sur une nouvelle façon de résoudre le problème. Enfin, il devait y avoir une solution commerciale ou produit radicale qui paraissait probablement juste du bon côté de la folie.

Robot quotidien triant et vidant des poubelles.
Photographie : Hans Peter Brondmo

Le Problème du Corps IA

Il est difficile d’imaginer une personne mieux adaptée pour diriger X qu’Astro Teller, dont le titre choisi était littéralement Capitaine des Moonshots. Vous ne verrez jamais Astro dans le bâtiment de Google X, un gigantesque magasin de trois étages reconverti, sans ses patins à roulettes emblématiques. Ajoutez à cela une queue de cheval, toujours un sourire amical, et, bien sûr, le nom Astro, et vous pourriez penser que vous êtes entré dans un épisode de Silicon Valley sur HBO.

Lorsque Astro et moi nous sommes assis pour discuter de ce que nous pourrions faire avec les entreprises de robots que Google avait acquises, nous avons convenu qu’il fallait faire quelque chose. Mais quoi ? La plupart des robots utiles jusqu’à présent étaient grands, stupides et dangereux, confinés dans des usines et des entrepôts où ils devaient souvent être étroitement surveillés ou placés dans des cages pour protéger les gens d’eux. Comment allions-nous construire des robots qui seraient utiles et sûrs dans des cadres quotidiens ? Cela nécessiterait une nouvelle approche. Le énorme problème que nous abordions était un changement humain massif à l’échelle mondiale—une population vieillissante, une main-d’œuvre en déclin, des pénuries de main-d’œuvre. Notre technologie révolutionnaire était—nous le savions, même en 2016—l’intelligence artificielle. La solution radicale : des robots entièrement autonomes qui nous aideraient avec une liste de tâches de plus en plus importante dans notre vie quotidienne.

Nous allions, en d’autres termes, donner un corps à l’IA dans le monde physique, et s’il y avait un endroit où quelque chose de cette ampleur pouvait être concocté, j’étais convaincu que ce serait X. Cela allait prendre du temps, beaucoup de patience, une volonté d’essayer des idées folles et d’échouer à beaucoup d’entre elles. Cela nécessiterait des percées techniques significatives dans l’IA et la technologie robotique et coûterait très probablement des milliards de dollars. (Oui, des milliards.) Il y avait une profonde conviction au sein de l’équipe que, si vous regardiez juste un peu au-delà de l’horizon, une convergence de l’IA et de la robotique était inévitable. Nous sentions que beaucoup de ce qui n’avait auparavant existé que dans la science-fiction était sur le point de devenir une réalité.

Robot quotidien distribuant des roses pour la Saint-Valentin.
Photographie : Hans Peter Brondmo

C’est Ta Mère

Chaque semaine, j’appelais ma mère au téléphone. Sa question d’ouverture était toujours la même : « Quand les robots arrivent-ils ? » Elle ne disait même pas bonjour. Elle voulait juste savoir quand l’un de nos robots viendrait l’aider. Je répondais : « Cela prendra un moment, maman », où elle disait alors : « Ils feraient mieux de venir bientôt ! »

Vivant à Oslo, en Norvège, ma mère avait un bon système de santé publique ; des aides-soignants se rendaient chez elle trois fois par jour pour l’aider avec une variété de tâches et de corvées, principalement liées à sa maladie de Parkinson avancée. Bien que ces aides lui permettaient de vivre seule dans son propre logement, ma mère espérait que les robots pourraient l’aider avec les innombrables petites choses qui étaient désormais devenues des barrières insurmontables et embarrassantes, ou parfois simplement lui offrir un bras contre lequel s’appuyer.

Robot quotidien pratiquant le nettoyage des tables de café après le repas.
Photographie : Hans Peter Brondmo

C’est Vraiment Dur

« Vous savez que la robotique est un problème de systèmes, n’est-ce pas ? » Jeff me le demanda avec un regard scrutateur. Chaque équipe semble avoir un « Jeff » ; Jeff Bingham était le nôtre. C’était un gars maigre et sérieux avec un doctorat en bio-ingénierie qui avait grandi dans une ferme et avait la réputation d’être un pôle de connaissances avec des idées profondes sur… un peu tout. À ce jour, si vous me demandez des robots, l’une des premières choses que je vous dirai est que, eh bien, c’est un problème de systèmes.

Une des choses importantes que Jeff essayait de réaffirmer était qu’un robot est un système très complexe et n’est aussi bon que son maillon le plus faible. Si le sous-système de vision a du mal à percevoir ce qui se trouve devant lui en plein soleil, alors les robots peuvent soudainement devenir aveugles et cesser de fonctionner si un rayon de soleil passe par une fenêtre. Si le sous-système de navigation ne comprend pas les escaliers, alors le robot peut tomber et se blesser (et éventuellement blesser des passants innocents). Et ainsi de suite. Construire un robot qui peut vivre et travailler à nos côtés est difficile. Vraiment difficile.

Depuis des décennies, les gens essaient de programmer différentes formes de robots pour effectuer même des tâches simples, comme saisir une tasse sur une table ou ouvrir une porte, et ces programmes finissent toujours par devenir extrêmement fragiles, échouant à la moindre modification des conditions ou variations de l’environnement. Pourquoi ? À cause du manque de prévisibilité dans le monde réel (comme ce rayon de soleil). Et nous n’avons même pas encore abordé les choses difficiles, comme se déplacer à travers les espaces en désordre et encombrés où nous vivons et travaillons.

Une fois que vous commencez à réfléchir attentivement à tout cela, vous réalisez que, à moins de tout verrouiller vraiment, avec tous les objets étant à des emplacements fixes et prédéfinis, et l’éclairage étant juste et ne changeant jamais, simplement ramasser, disons, une pomme verte et la placer dans un bol en verre sur une table de cuisine devient un problème presque impossible à résoudre. C’est pourquoi les robots de fabrication sont dans des cages. Tout, de l’éclairage à l’emplacement des choses sur lesquelles ils travaillent, peut être prévisible, et ils n’ont pas à s’inquiéter de frapper une personne sur la tête.

Avertissement informant les employés de Google et les visiteurs que les robots sont en liberté.
Photographie : Hans Peter Brondmo

Comment Apprendre aux Robots à Apprendre

Mais tout ce que vous avez apparemment besoin, ce sont 17 personnes en apprentissage automatique. Ou du moins c’est ce que Larry Page m’a dit—une de ses classiques, des idées difficiles à comprendre. J’ai essayé d’argumenter qu’il n’y avait aucun moyen que nous puissions éventuellement construire l’infrastructure matérielle et logicielle pour des robots qui travailleraient à nos côtés avec seulement une poignée de chercheurs en ML. Il a agité la main en signe de dédain. « Tout ce dont vous avez besoin, ce sont 17. » J’étais confus. Pourquoi pas 11 ? Ou 23 ? Je manquais quelque chose.

En résumé, il y a deux approches principales pour appliquer l’IA à la robotique. La première est une approche hybride. Différentes parties du système sont alimentées par l’IA puis assemblées avec une programmation traditionnelle. Avec cette approche, le sous-système de vision peut utiliser l’IA pour reconnaître et catégoriser le monde qu’il voit. Une fois qu’il crée une liste des objets qu’il voit, le programme robot reçoit cette liste et agit en fonction de celle-ci en utilisant des heuristiques mises en œuvre dans le code. Si le programme est écrit pour ramasser cette pomme sur une table, la pomme sera détectée par le système de vision alimenté par l’IA, et le programme choisira alors un certain objet de « type : pomme » dans la liste et atteindra pour le ramasser en utilisant un logiciel de contrôle robotique traditionnel.

L’autre approche, l’apprentissage de bout en bout, ou e2e, tente d’apprendre des tâches entières comme « ramasser un objet », ou même des efforts plus complets comme « ranger une table ». L’apprentissage se produit en exposant les robots à de grandes quantités de données d’entraînement—un peu comme un humain pourrait apprendre à effectuer une tâche physique. Si vous demandez à un jeune enfant de ramasser une tasse, il se peut, selon son âge, qu’il doive encore apprendre ce qu’est une tasse, qu’une tasse peut contenir du liquide, puis, en jouant avec la tasse, qu’il renverse à plusieurs reprises, ou du moins, se mette à renverser beaucoup de lait. Mais avec des démonstrations, en imitant les autres et avec beaucoup de pratique ludique, ils apprendront à le faire—et finalement, ils n’auront même plus à penser aux étapes.

Ce que je suis venu croire que Larry disait, c’est que rien n’avait vraiment d’importance à moins que nous ne démontrions finalement que les robots pouvaient apprendre à effectuer des tâches de bout en bout. Ce n’est qu’alors que nous aurions une réelle chance de faire en sorte que les robots exécutent ces tâches de manière fiable dans le monde réel désordonné et imprévisible, nous qualifiant ainsi pour être un moonshot. Il ne s’agissait pas du nombre précis 17, mais du fait que de grandes percées nécessitent de petites équipes, pas des armées d’ingénieurs. Évidemment, il y a beaucoup plus à un robot que son cerveau IA, donc je n’ai pas interrompu nos autres efforts d’ingénierie—nous devions encore concevoir et construire un robot physique. Il est devenu clair, cependant, que démontrer une tâche e2e réussie nous donnerait un peu de foi que, dans le jargon des moonshots, nous pourrions échapper à l’attraction gravitationnelle de la Terre. Dans le monde de Larry, tout le reste était essentiellement « des détails d’implémentation ».

Robot à la recherche d’un travail ! (Équipe s’amusant après l’annonce de la fermeture des Robots Quotidiens en janvier 2023.)
Photographie : Hans Peter Brondmo

À la Ferme des Bras

Peter Pastor est un roboticiste allemand qui a obtenu son doctorat en robotique à l’université de Californie du Sud. Lors des rares occasions où il n’était pas au travail, Peter essayait de suivre sa petite amie sur un kiteboard. Au laboratoire, il passait beaucoup de son temps à s’occuper de 14 bras de robots propriétaires, remplacés plus tard par sept bras robotiques industriels Kuka dans une configuration que nous avons appelée « la ferme des bras ».

Ces bras fonctionnaient 24 heures sur 24, tentant de ramasser des objets, comme des éponges, des blocs Lego, des petits canards en plastique ou des bananes en plastique, dans un bac. Au début, ils étaient programmés pour déplacer leur préhenseur en forme de griffe dans le bac à partir d’une position aléatoire au-dessus, fermer le préhenseur, tirer vers le haut et voir s’ils avaient attrapé quelque chose. Une caméra au-dessus du bac capturait le contenu, le mouvement du bras et son succès ou son échec. Cela a duré des mois.

Au début, les robots avaient un taux de réussite de 7 %. Mais chaque fois qu’un robot réussissait, il recevait un renforcement positif. (Ce qui, fondamentalement pour un robot, signifie que les fameux « poids » dans le réseau de neurones utilisés pour déterminer divers résultats sont ajustés pour renforcer positivement les comportements souhaités, et renforcer négativement ceux non souhaités.) Finalement, ces bras ont appris à ramasser des objets avec succès plus de 70 % du temps. Lorsque Peter m’a montré une vidéo un jour d’un bras robotique non seulement atteignant pour saisir un bloc Lego jaune mais poussant d’autres objets hors du chemin afin de l’attraper, j’ai su que nous avions atteint un véritable tournant. Le robot n’avait pas été explicitement programmé, en utilisant des heuristiques traditionnelles, pour effectuer ce mouvement. Il avait appris à le faire.

Mais tout de même—sept robots travaillant pendant des mois pour apprendre comment ramasser un petit canard en plastique ? Cela n’allait pas suffire. Même des centaines de robots pratiquant pendant des années ne seraient pas suffisants pour enseigner aux robots à accomplir leurs premières tâches utiles dans le monde réel. Alors nous avons construit un simulateur basé sur le cloud et, en 2021, créé plus de 240 millions d’instances de robots dans la simulation.

Pensez au simulateur comme à un énorme jeu vidéo, avec un modèle de physique réaliste assez réaliste pour simuler le poids d’un objet ou la friction d’une surface. Les milliers de robots simulés utilisaient leur entrée de caméra simulée et leurs corps simulés, modélisés après les vrais robots, pour effectuer leurs tâches, comme ramasser une tasse sur une table. En fonctionnant tous en même temps, ils essayaient et échouaient des millions de fois, collectant des données pour former les algorithmes d’IA. Une fois que les robots étaient raisonnablement bons en simulation, les algorithmes étaient transférés sur des robots physiques pour une formation finale dans le monde réel afin qu’ils puissent incarner leurs nouveaux mouvements. J’ai toujours pensé à la simulation comme à des robots rêvant toute la nuit et se réveillant en ayant appris quelque chose de nouveau.

Prototype précoce de robot apprenant à trier les déchets.
Photographie : Hans Peter Brondmo

C’est les Données, Espèce

Le jour où nous nous sommes tous réveillés et avons découvert ChatGPT, c’était comme de la magie. Un système alimenté par l’IA pouvait soudainement rédiger des paragraphes complets, répondre à des questions compliquées et engager un dialogue continu. En même temps, nous avons également réalisé sa limitation fondamentale : il avait fallu d’énormes quantités de données pour y parvenir.

Les robots exploitent déjà de grands modèles de langage pour comprendre le langage parlé et des modèles de vision pour comprendre ce qu’ils voient, et cela donne de très belles vidéos de démonstration sur YouTube. Mais apprendre aux robots à vivre et travailler de manière autonome à nos côtés est un problème de données comparativement énorme. Malgré les simulations et d’autres façons de créer des données de formation, il est très peu probable que les robots « se réveillent » un jour hautement capables, avec un modèle de fondation qui contrôle l’ensemble du système.

Le verdict est encore à rendre sur la complexité des tâches que nous pourrions enseigner à un robot avec uniquement de l’IA. Je suis venu croire qu’il faudrait de nombreux milliers, peut-être même des millions de robots réalisant des tâches dans le monde réel pour collecter suffisamment de données afin d’entraîner des modèles e2e qui feraient faire aux robots autre chose que des tâches assez étroites et bien définies. Construire des robots qui effectuent des services utiles—comme nettoyer et essuyer toutes les tables dans un restaurant, ou faire les lits dans un hôtel—nécessitera à la fois de l’IA et de la programmation traditionnelle encore longtemps à venir. En d’autres termes, ne vous attendez pas à ce que les robots s’enfuient hors de notre contrôle, faisant quelque chose pour laquelle ils n’ont pas été programmés, de sitôt.

Prototype précoce de robot pratiquant l’ouverture des portes et le nettoyage des salles de bain.
Photographie : Hans Peter Brondmo

Mais Devront-ils Nous Ressembler ?

Les chevaux sont très efficaces pour marcher et courir sur quatre pattes. Pourtant, nous avons conçu des voitures avec des roues. Les cerveaux humains sont des ordinateurs biologiques incroyablement efficaces. Pourtant, les ordinateurs à base de puces ne s’approchent pas de la performance de nos cerveaux. Pourquoi les voitures n’ont-elles pas de pattes, et pourquoi les ordinateurs n’ont-ils pas été modélisés sur notre biologie ? L’objectif de construire des robots, je veux dire, ne devrait pas seulement être de la mimicry.

Cela, j’ai appris un jour lors d’une réunion avec un groupe de leaders techniques chez Everyday Robots. Nous étions assis autour d’une table de conférence ayant une conversation animée sur la question de savoir si nos robots devraient avoir des pattes ou des roues. De telles discussions avaient tendance à dégénérer en débats plus religieux que basés sur des faits ou scientifiques. Certaines personnes sont très attachées à l’idée que les robots devraient ressembler à des humains. Leur argument est valable. Nous avons conçu les endroits où nous vivons et travaillons pour nous accommoder. Et nous avons des pattes. Alors peut-être que les robots devraient aussi en avoir.

Après environ 30 minutes, le gestionnaire d’ingénierie le plus senior dans la pièce, Vincent Dureau, s’est manifesté. Il a simplement déclaré : « Je pense que, si je peux y arriver, les robots devraient pouvoir y arriver. » Vincent était assis dans son fauteuil roulant. La pièce est devenue silencieuse. Le débat était clos.

Le fait est que, les jambes de robot sont mécaniquement et électriquement très complexes. Elles ne se déplacent pas très vite. Elles sont susceptibles de rendre le robot instable. Elles ne sont également pas très efficaces en termes de consommation d’énergie comparées aux roues. De nos jours, lorsque je vois des entreprises tenter de créer des robots humanoïdes—des robots qui essaient d’imiter de près la forme et la fonction humaines—je me demande si c’est un échec d’imagination. Il y a tant de conceptions à explorer qui complètent les humains. Pourquoi nous torturer à chercher à imiter ? Chez Everyday Robots, nous avons essayé de rendre la morphologie du robot aussi simple que possible—car plus tôt les robots peuvent effectuer des tâches réelles, plus vite nous pouvons recueillir des données précieuses. Le commentaire de Vincent nous a rappelé que nous devions d’abord nous concentrer sur les problèmes les plus difficiles et les plus percutants.

Devoir de Bureau

J’étais à mon bureau quand l’un de nos robots à un bras, avec une tête en forme de rectangle aux coins arrondis, s’est approché, m’a appelé par mon nom et m’a demandé s’il pouvait faire un peu de rangement. J’ai dit oui et je me suis écarté. Quelques minutes plus tard, il avait ramassé quelques gobelets en papier vides, un gobelet transparent de thé glacé de Starbucks, et un emballage en plastique de barre Kind. Il a déposé ces objets dans un plateau à déchets attaché à sa base avant de se tourner vers moi, de me faire un signe de tête et de se diriger vers le bureau suivant.

Ce service de nettoyage des bureaux représentait une étape importante : il montrait que nous progressions bien sur une partie non résolue du puzzle de la robotique. Les robots utilisaient l’IA pour voir de manière fiable à la fois les personnes et les objets ! Benjie Holson, un ingénieur logiciel et ancien marionnettiste qui a dirigé l’équipe qui a créé ce service, était un défenseur de l’approche hybride. Il n’était pas contre les tâches apprises de bout en bout, mais avait simplement une attitude de « tentons de leur faire faire quelque chose d’utile maintenant ». Si les chercheurs en ML résolvaient mieux une tâche e2e que son équipe ne pouvait la programmer, ils intégraient simplement les nouveaux algorithmes dans leur quiver.

Je m’étais habitué à voir nos robots rouler, effectuant des tâches comme ranger les bureaux. Parfois, je voyais un visiteur ou un ingénieur qui venait de rejoindre l’équipe. Ils avaient une expression d’émerveillement et de joie sur le visage en regardant les robots vaquer à leurs occupations. Travers leurs yeux, j’ai été rappelé à quel point c’était novateur. Comme notre responsable design, Rhys Newman, le dirait lorsqu’un robot passait un jour (avec son accent gallois), « C’est devenu normal. C’est étrange, n’est-ce pas ? »

Catie Cuan, l’artiste en résidence de Everyday Robots, dansant avec un robot.
Photographie : Hans Peter Brondmo

Juste Danser

Nos conseillers chez Everyday Robots comprenaient un philosophe, un anthropologue, un ancien leader syndical, un historien et un économiste. Nous avons vigoureusement débattu de questions économiques, sociales et philosophiques telles que : Si des robots vivaient à nos côtés, quel serait l’impact économique ? Quels seraient les effets à long et à court terme sur le travail ? Que signifie être humain à l’ère des machines intelligentes ? Comment construire ces machines de manière à nous faire sentir bienvenus et en sécurité ?

En 2019, après avoir dit à mon équipe que nous recherchions un artiste en résidence pour faire des choses créatives, étranges et inattendues avec nos robots, j’ai rencontré Catie Cuan. Catie était en train de préparer son doctorat en robotique et IA à Stanford. Ce qui a attiré mon attention, c’est qu’elle avait été danseuse professionnelle, se produisant à des endroits comme le Metropolitan Opera Ballet à New York.

Vous avez probablement vu des vidéos YouTube de robots dansant—des performances où le robot exécute une séquence préprogrammée de mouvements chronométrés, synchronisés avec de la musique. Bien qu’amusantes à regarder, ces danses ne sont pas très différentes de ce que vous vivriez dans une attraction à Disneyland. J’ai demandé à Catie ce que ce serait si, au lieu de cela, les robots pouvaient improviser et interagir entre eux comme le font les gens. Ou comme des volées d’oiseaux, ou des bancs de poissons. Pour réaliser cela, elle et quelques autres ingénieurs ont développé un algorithme d’IA basé sur les préférences d’un chorégraphe. Celui-ci étant, bien sûr, Catie.

Souvent, pendant les soirées et parfois les week-ends, lorsque les robots n’étaient pas occupés à faire leurs corvées quotidiennes, Catie et son équipe improvisée rassemblaient une douzaine de robots dans un grand atrium au milieu de X. Des volées de robots commençaient à se déplacer ensemble, parfois de manière hésitante, mais toujours dans des motifs intéressants, avec ce qui semblait souvent être de la curiosité et parfois même de la grâce et de la beauté. Tom Engbersen est un roboticiste néerlandais qui peint des répliques de chefs-d’œuvre classiques pendant son temps libre. Il a commencé un projet annexe en collaboration avec Catie pour explorer comment les robots dansants pourraient répondre à de la musique ou même jouer d’un instrument. À un moment donné, il a eu une idée nouvelle : Que se passerait-il si les robots devenaient eux-mêmes des instruments ? Cela a lancé une exploration où chaque joint sur le robot produisait un son lorsqu’il se déplaçait. Lorsque la base se déplaçait, elle produisait un son de basse ; lorsque le préhenseur s’ouvrait et se fermetait, cela faisait un son de cloche. Lorsque nous activions le mode musique, les robots créaient des partitions orchestral uniques chaque fois qu’ils se déplaçaient. Qu’ils voyageaient dans un couloir, triaient des déchets, nettoyaient des tables ou « dansaient » en volée, les robots se déplaçaient et sonnaient comme une nouvelle sorte de créature accessible, différente de tout ce que j’avais jamais expérimenté.

Ce N’est Que le Début

Fin 2022, les conversations sur l’apprentissage de bout en bout contre l’hybride allaient toujours fort. Peter et ses coéquipiers, avec nos collègues de Google Brain, avaient travaillé à appliquer l’apprentissage par renforcement, l’apprentissage par imitation et des transformateurs—l’architecture derrière les LLM—à plusieurs tâches robotiques. Ils faisaient de bons progrès pour montrer que les robots pouvaient apprendre des tâches d’une manière qui les rendait générales, robustes et résilientes. Pendant ce temps, l’équipe d’applications dirigée par Benjie travaillait à prendre des modèles d’IA et à les utiliser avec une programmation traditionnelle pour prototyper et construire des services robotisés pouvant être déployés auprès de personnes dans des environnements réels.

Pendant ce temps, le Projet Starling, comme l’installation multi-robot de Catie en est venue à être appelée, changeait ma perception de ces machines. Je remarquais comment les gens étaient attirés par les robots avec émerveillement, joie et curiosité. Cela m’a aidé à comprendre que comment les robots se déplacent parmi nous, et ce qu’ils sonnent, déclenchera des émotions profondes chez l’homme ; cela sera un facteur important dans la façon dont, même si, nous les accueillerons dans notre vie quotidienne.

Nous étions, en d’autres termes, au bord de vraiment capitaliser sur le plus gros pari que nous avions fait : des robots alimentés par l’IA. L’IA leur donnait la capacité de comprendre ce qu’ils entendaient (langage parlé et écrit) et de le traduire en actions, ou de comprendre ce qu’ils voyaient (images de caméra) et de traduire cela en scènes et objets sur lesquels ils pouvaient agir. Et comme l’équipe de Peter l’avait démontré, les robots avaient appris à ramasser des objets. Après plus de sept ans, nous déployions des flottes de robots dans plusieurs bâtiments de Google. Un seul type de robot assurait une gamme de services : essuyer de manière autonome des tables dans des cafétérias, inspecter des salles de conférence, trier des déchets, et plus encore.

C’est à ce moment-là, en janvier 2023, deux mois après qu’OpenAI ait introduit ChatGPT, que Google a fermé Everyday Robots, invoquant des préoccupations de coût global. Les robots et un petit nombre de personnes ont finalement atterri chez Google DeepMind pour mener des recherches. Malgré le coût élevé et le long délai, tous les impliqués étaient choqués.

Un Impératif National

En 1970, pour chaque personne de plus de 64 ans dans le monde, il y avait 10 personnes en âge de travailler. D’ici 2050, il y aura probablement moins de quatre. Nous manquons de travailleurs. Qui s’occupera des personnes âgées ? Qui travaillera dans les usines, les hôpitaux, les restaurants ? Qui conduira des camions et des taxis ? Des pays comme le Japon, la Chine et la Corée du Sud comprennent l’urgence de ce problème. Là-bas, les robots ne sont pas optionnels. Ces nations ont fait de l’investissement dans les technologies robotiques un impératif national.

Donner un corps à l’IA dans le monde réel est à la fois une question de sécurité nationale et une énorme opportunité économique. Si une entreprise technologique comme Google décide qu’elle ne peut pas investir dans des efforts de « moonshot » comme les robots alimentés par l’IA qui compléteront et compléteront les travailleurs du futur, alors qui le fera ? La Silicon Valley ou d’autres écosystèmes de startups vont-ils se lever, et si oui, y aura-t-il accès à du capital patient et à long terme ? J’ai des doutes. La raison pour laquelle nous avons appelé Everyday Robots un moonshot est que construire des systèmes hautement complexes à cette échelle dépasse de loin ce que les startups financées par du capital-risque ont historiquement eu la patience d’endurer. Bien que les États-Unis soient en avance en matière d’IA, construire la manifestation physique de celle-ci—des robots—nécessite des compétences et des infrastructures où d’autres nations, notamment la Chine, sont déjà en tête.

Les robots n’ont pas pu arriver à temps pour aider ma mère. Elle est décédée début 2021. Nos fréquentes conversations vers la fin de sa vie m’ont convaincu plus que jamais qu’une version future de ce que nous avons commencé à Everyday Robots viendra. En fait, cela ne peut pas arriver assez tôt. Alors la question qui nous reste à réfléchir est : comment ce genre de changement et d’avenir se produit-il ? Je reste curieux et préoccupé.


Faites-nous savoir ce que vous pensez de cet article. Soumettez une lettre à l’éditeur à mail@wired.com.


En savoir plus sur L'ABESTIT

Subscribe to get the latest posts sent to your email.

Share this post

Articles similaires

11 DéCEMBRE 2024

Un dossier fiscal classé «secret-défense» : la demande incroyable visant à protéger Bernard Arnault

L’électionL’élection du député La France insoumise (LFI) Éric Coquerel à la tête de la commission des finances de l’Assemblée nationale a suscité, durant l'été 2022, une vague...

0

11 DéCEMBRE 2024

Dématérialisation et agents débordés : comment l’administration malmène les étrangers

Il existe tous les discours qui cherchent à stigmatiser les personnes migrantes en France, souvent décrites comme des « profiteurs », et dans les pires cas comme des « délinquants ». Et il...

0

11 DéCEMBRE 2024

Israël : devant le tribunal, Nétanyahou qualifie les allégations de corruption le concernant de « ridicules »

Entendu mardi 10 décembre lors de son procès pour corruption, le premier ministre israélien, Benyamin Nétanyahou, a qualifié les accusations portées contre lui de « ridicules ». Benyamin...

0

11 DéCEMBRE 2024

Aïcha, «âme et corps» aux côtés des réfugiés

AïchaAïcha a 60 ans. Elle passe ses journées dans les rues de Paris, en contact avec les réfugié·es qui manquent de soutien. Ayant personnellement expérimenté la vie dans la rue, elle...

0

11 DéCEMBRE 2024

Accusé d’avoir agressé des néonazis, un antifa basé à Paris encourt une extradition vers la Hongrie.

C’est une nouvelle interpellation qui s'inscrit dans la large offensive orchestrée par le régime d'extrême droite de Viktor Orbán contre des militant·es antifascistes. Suite à un mandat...

0

10 DéCEMBRE 2024

Plainte d’Adèle Haenel : cinq ans demandés contre Christophe Ruggia, pour «rétablir l’ordre»

« Cependant » « Mais tais-toi ! » Éprouvée et sous tension, Adèle Haenel a finalement laissé éclater sa rage en plein tribunal, mardi 10 décembre, lors du deuxième jour du procès du...

0

En savoir plus sur L'ABESTIT

Abonnez-vous pour poursuivre la lecture et avoir accès à l’ensemble des archives.

Poursuivre la lecture