Nvidia: Roboter lernen durch Beobachten (mit Video)

Forscher von Nvidia http://nvidia.com haben ein laut Unternehmen einzigartiges KI-System entwickelt, mit dem ein Roboter durch das Beobachten eines Menschen lernt, eine bestimmte Aufgabe auszuführen. [...]

Nach nur einmaligem Beobachten kann das KI-System das Stapeln von Klötzen nachmachen.
Nach nur einmaligem Beobachten kann das KI-System das Stapeln von Klötzen nachmachen. (c) Nvidia

Als einfaches Beispiel dient dabei das Stapeln verschiedenfarbiger Bauklötze. Der Ansatz ist dazu gedacht, die Kommunikation zwischen Mensch und Maschine zu erleichtern. Das soll dazu beitragen, dass Personen und Roboter in Zukunft problemloser zusammenarbeiten.

Einfach Vormachen

Die wenigsten Menschen sind bewanderte Entwickler, die Maschinen klassisch per Programmcode neue Dinge beibringen können. „Damit Roboter nützliche Aufgaben in der realen Welt ausführen, muss es einfach sein, dem Roboter die Aufgabe zu kommunizieren“, schreiben die Forscher Stan Birchfield und Jonathan Tremblay in ihrer aktuellen Arbeit. Ihr Ansatz, damit in Zukunft jeder Maschinen neue Tricks beibringen kann, ist denkbar einfach: „Mit einer Vorführung kann ein Nutzer einem Roboter eine Aufgabe kommunizieren und Hinweise darauf geben, wie dies am besten zu erledigen ist.“

Die Forscher nutzen eine Reihe neuronaler Netze für einzelne Aufgaben wie die Objekterkennung oder das Erstellen eines Programms. Damit kann ihr Roboter aus einer einzigen Vorführung lernen, wie beispielsweise eine Reihe Bauklötze zu stapeln ist. Dann gibt die Maschine eine für Menschen verständliche Beschreibung, welche Schritte dazu nötig sind. Im Beispiel umfasst das, welche Farbe auf welche andere kommt. Das erlaubt es dem Nutzer, mögliche Verständnisprobleme beim Roboter zu erkennen und korrigierend einzugreifen, ehe die Maschine loslegt.

Synthetische Trainingsdaten

Möglich macht das dem Team zufolge die Nutzung synthetischer Daten zum Trainieren neuronaler Netze. Denn bisherige Ansätze nutzen große Sätze von Hand annotierter Daten für das Training, was einen kritischen Flaschenhals darstellt. Mit einer geeigneten Datensynthese lassen sich dagegen große Sätze annotierter Daten sehr einfach erstellen. Im Experiment nutzen die Forscher eine bildorientierte Datenverarbeitung. So kann das neuronale Netz für die Objekterkennung mit praktisch jedem festen Gegenstand umgehen, der sich gut durch einen umgebenden Quader beschreiben lässt.

Die Arbeit „Synthetically Trained Neural Networks for Learning Human-Readable Plans from Real-World Demonstrations“  wird diese Woche im Rahmen der International Conference on Robotics and Automation näher vorgestellt.

Das nachfolgende Video gibt einen Einblick:

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*