Root NationNieuwsIT-nieuwsHumanoïde robots 1X Eve toonden volledige autonomie bij huishoudelijke taken

Humanoïde robots 1X Eve toonden volledige autonomie bij huishoudelijke taken

-

"De video bevat geen telemontage, - zegt Noorse fabrikant van humanoïde robots 1X. “Geen computergraphics, geen bezuinigingen, geen versnelling van de video, geen weergave van het traject volgens het script. Alles wordt bestuurd door neurale netwerken, alles is autonoom, alles op 1X snelheid”.

Het is een humanoïde maker waar OpenAI vorig jaar zijn chips op heeft ingezet in een financieringsronde van $ 25 miljoen uit Serie A. Een vervolgserie B van $ 100 miljoen liet zien hoezeer de aandacht van OpenAI, evenals de algemene hype rond universele humanoïde robots, een concept is dat Het leek altijd een verre toekomst, maar de afgelopen twee jaar is het een absolute thermonucleaire explosie geworden.

1X Eva

De humanoïde robots van 1X zien er vreemd ingetogen uit in vergelijking met waar bijvoorbeeld Tesla, Figure, Sanctuary of Agility aan werken. Humanoïde Eve heeft nog niet eens benen of behendige handen. Hij beweegt op een paar aangedreven wielen, balancerend op een derde klein wiel aan de achterkant, en zijn handen zijn rudimentaire klauwen. Het ziet eruit alsof hij is gekleed om te sleeën en heeft een zwak, knipperend LED-smileygezicht.

De 1X heeft een tweevoetige versie genaamd Neo, die ook mooi gelede armen heeft – maar misschien zijn die details niet zo belangrijk in deze begindagen van robotontwikkeling voor algemene doeleinden. De overgrote meerderheid van de vroege gebruiksscenario's zal er als volgt uitzien: "neem dit ding en plaats het daar" - het is onwaarschijnlijk dat hiervoor vingers nodig zijn die piano kunnen spelen. En de belangrijkste plaats waar ze zullen worden gebruikt zijn magazijnen met betonnen vloeren en fabrieken waar ze waarschijnlijk geen trappen hoeven te beklimmen of ergens overheen hoeven te stappen.

Niet alleen dat, veel groepen hebben het probleem van tweevoetig lopen en prachtige handmatige uitrusting opgelost. Maar dit is niet het grootste obstakel. De belangrijkste hindernis is om deze machines snel taken te laten leren en ze vervolgens autonoom te laten uitvoeren, zoals Toyota doet met desktoprobotmanipulatoren. Toen Figure 01 zelfstandig ‘uitvond’ hoe hij met een koffiezetapparaat moest werken, was dat een grote gebeurtenis. Toen Tesla's Optimus in de video zijn shirt opvouwde en bleek dat hij onder controle stond van een menselijke operator, was het veel minder indrukwekkend.

Bovenstaande taken zijn niet al te moeilijk, het gaat niet om het vouwen van overhemden of het bedienen van een koffiezetapparaat. Maar er zijn een aantal volwaardige robots die een aantal taken uitvoeren, dingen optillen en op hun plaats zetten. Ze pakken ze op een hoogte van de enkel tot aan de taille. Ze verspreiden ze in dozen, bakken en bakken. Ze rapen speelgoed van de vloer en leggen het weg.

Ze openen ook deuren, rennen naar laadstations en pluggen ze in, waarbij ze een onnodig ingewikkelde hurkende manoeuvre gebruiken om de stekker aan hun enkels te bevestigen.

Kortom, ze doen vrijwel hetzelfde als wat ze moeten doen in vroege humanoïde gebruiksscenario's voor algemeen gebruik, waarbij ze, volgens 1X, "puur gebaseerd op data" zijn getraind. In wezen trainde het bedrijf dertig Eve-bots om elk een reeks individuele taken uit te voeren, blijkbaar met behulp van simulatietraining via video en teleoperaties. Vervolgens gebruikten ze dit aangeleerde gedrag om een ​​‘basismodel’ te trainen dat in staat was tot een breed scala aan acties en gedragingen. Dit basismodel werd vervolgens verfijnd om rekening te houden met de specifieke mogelijkheden van de omgeving – magazijntaken, algemene deurmanipulatie, enz. – en uiteindelijk werden de bots getraind in de specifieke taken die ze moesten uitvoeren.

Deze laatste stap zal waarschijnlijk ter plaatse bij klanten plaatsvinden zodra de bots hun dagelijkse taken hebben gekregen, en 1X zegt dat het "slechts een paar minuten gegevensverzameling en training op een desktop-GPU" zal duren. Vermoedelijk zou dit in een ideale wereld betekenen dat iemand in een virtual reality-helm een ​​taak uitvoert, en dan combineert deep learning-software die taak met de belangrijkste vaardigheden van de bot, voert deze enkele duizenden keren uit in een simulatie om te testen op verschillende willekeurige factoren en resultaten, waarna de bots klaar zijn om te werken.

“Het afgelopen jaar”, schrijft Eric Jang, VP AI bij 1X, in zijn blog, “hebben we een data-engine ontwikkeld om algemene mobiele manipulatietaken op een volledig end-to-end manier op te lossen. We hebben gezien dat het werkt, dus huren we nu AI-onderzoekers in de San Francisco Bay Area in om het op te schalen naar tien keer het aantal robots en tv-operators.”

Ik vraag me af wanneer deze dingen klaar zullen zijn voor prime time.

Lees ook:

Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties