Greifsystem

Die selbstlernende Roboterhand

Forschende der Universität Bielefeld haben ein Greifsystem mit Roboterhänden entwickelt, das sich selbständig mit unbekannten Gegenständen vertraut macht. Das neue System funktioniert, ohne vorher die Merkmale von Objekten wie Obst oder Werkzeug zu kennen. Entwickelt wurde das Greif-Lern-System im Großprojekt „Famula“ des Exzellenzclusters Kognitive Interaktionstechnologie (CITEC) der Universität Bielefeld.

Obwohl die Roboterhände die Kraft hätten, den Apfel fest zu drücken,...
Obwohl die Roboterhände die Kraft hätten, den Apfel fest zu drücken, dosieren sie ihre Kraft für einen feinfühligen Griff, der auch empfindlichen Objekten nicht schadet.
Quelle: Universität Bielefeld
PD Dr. Sven Wachsmuth, Prof. Dr. Helge Ritter und PD Dr. Dirk Koester (v.l.)...
PD Dr. Sven Wachsmuth, Prof. Dr. Helge Ritter und PD Dr. Dirk Koester (v.l.) entwickeln im Projekt Famula Roboterhände, die sich selbständig aneignen, wie sie unbekannte Objekte greifen und bewegen.
Quelle: Universität Bielefeld

Das Wissen aus dem Projekt könnte zum Beispiel dazu beitragen, dass künftige Serviceroboter sich selbst in neue Haushalte einarbeiten. CITEC investiert für Famula rund eine Million Euro. In einem neuem „research_tv“-Beitrag der Universität Bielefeld erklären die Leiter des Projekts die Neuentwicklung. „Unser System lernt durch Probieren und eigenes Erkunden – so wie auch Babys sich neuen Objekten widmen“, sagt Professor Dr. Helge Ritter. Der Neuroinformatiker leitet das Projekt zusammen mit dem Sportwissenschaftler und Kognitionspsychologen Professor Dr. Thomas Schack und dem Robotiker Privatdozent Dr. Sven Wachsmuth. Die CITEC-Wissenschaftler arbeiten mit einem Roboter mit zwei Händen, die menschlichen Händen in Form und Beweglichkeit nachempfunden sind. Das Robotergehirn für diese Hände muss lernen, wie alltägliche Objekte, etwa Obst, Geschirr oder auch Plüschtiere, durch ihre Farben und Formen unterschieden werden können, und worauf es ankommt, wenn man sie greifen will.

Der Mensch als Vorbild

Eine Banane lässt sich umgreifen, ein Knopf sich drücken. „Das System lernt, solche Möglichkeiten aus Merkmalen zu erkennen und baut sich ein Modell für den Umgang und die Wiedererkennung auf“, sagt Ritter. Dafür verbindet das interdisziplinäre Projekt Arbeiten in der künstlichen Intelligenz mit Forschungsarbeiten in weiteren Disziplinen. So untersuchte die Forschungsgruppe von Thomas Schack, welche Merkmale Versuchspersonen als bedeutsam bei Greifaktionen wahrnehmen. In einer Studie mussten die Probanden die Ähnlichkeit von mehr als 100 Objekten vergleichen. „Überraschend war, dass das Gewicht kaum eine Rolle spielt. Wir Menschen verlassen uns vor allem auf die Form und die Größe, wenn wir Dinge unterscheiden“, sagt Thomas Schack. In einer weiteren Studie ließen sich Testpersonen die Augen verbinden und hantierten mit Würfeln, die sich in Gewicht, Form und Größe unterschieden. Infrarotkameras zeichneten die Handbewegungen auf. „Dadurch erfahren wir, wie Menschen einen Gegenstand ertasten und welche Strategien sie bevorzugt nutzen, um seine Eigenschaften zu erfassen“, sagt Dirk Koester, Mitarbeiter in Schacks Forschungsgruppe. „Wir erfahren natürlich auch, welche Fehler Menschen beim blinden Ertasten machen.“

System versetzt sich in die Position seines „Mentors“

Vor einem großen Metallkäfig mit den beiden Roboterarmen und einem Tisch mit verschiedenen Testobjekten steht Dr. Robert Haschke, Mitarbeiter von Helge Ritter. Er hilft dem System in der Rolle eines menschlichen Lern-Mentors beim Erlernen neuer Gegenstände. So sagt er den Händen, welches Objekt auf dem Tisch sie als nächstes inspizieren sollen. Dazu zeigt Haschke auf einzelne Objekte oder gibt sprachliche Hinweise, wie etwa eine Richtung ("hinten links"), in der für den Roboter ein interessantes Objekt zu finden ist. Zwei Monitore zeigen, wie das System über Farbkameras und Tiefensensoren seine Umgebung wahrnimmt und auf die Kommandos des Menschen reagiert. „Die Hände müssen mündliche Sprache, aber auch Gestik deuten können, um zu verstehen, mit welchem Objekt sie sich befassen sollen“, erklärt Sven Wachsmuth vom CITEC-Zentrallabor. „Und sie müssen sich in die Position des Menschen versetzen können, auch um nachzufragen, ob sie richtig verstanden haben.“ Wachsmuth und sein Team sind nicht nur für die Sprachkompetenz des Systems zuständig. Sie haben ihm auch ein Gesicht gegeben: Von einem der Bildschirme aus verfolgt Flobi die Bewegung der Hände und reagiert auf die Anweisungen der Wissenschaftler. Flobi ist ein stilisierter Roboterkopf, der die Sprache und die Handlungen des Roboters durch Gesichtsausdrücke ergänzt. Als Teil des Famula-Systems ist derzeit die virtuelle Version des Roboters im Einsatz.

Die menschliche Interaktion verstehen

Mit Famula betreiben die CITEC-Forscher Grundlagenforschung, die künftigen selbstlernenden Robotern in Haushalt und Industrie zugutekommen kann. „Wir wollen verstehen, wie wir lernen, unsere Umwelt dank unserer Hände buchstäblich zu begreifen. Der Roboter ermöglicht uns dabei, unsere Erkenntnisse in der Realität zu überprüfen und Lücken in unserem Verständnis schonungslos aufzudecken. Dadurch leisten wir einen Beitrag für den künftigen Einsatz komplexer, vielfingriger Roboterhände, die heute noch zu kostspielig und zu komplex für den Einsatz zum Beispiel in der Industrie sind“, sagt Ritter.

 

Quelle: Universität Bielefeld

03.06.2017

Mehr aktuelle Beiträge lesen

Verwandte Artikel

Lebenserwartung

Studie zeigt: Wer arm ist, stirbt früher

Bei der Lebenserwartung zwischen den reichsten und ärmsten Teilen der Gesellschaft in Großbritannien nimmt die Kluft laut einer Studie des Imperial College London weiter zu. Die in "Lancet…

Biohybride Schwimmer

Spermien nehmen Diagnose-Roboter huckepack

Mit den Erbinformationen tragen Spermien das Wunder des Lebens in sich. Für Dr. Veronika Magdanz, Postdoktorandin an der Professur für Angewandte Zoologie der TU Dresden, bergen sie aber auch…

AI & Robotik

Gestatten: Der Roboter als Therapiehelfer

Alexa, Siri, Cortana und der Google Assistant – sie alle sind Beispiele für Agenten, künstliche handlungsfähige Systeme. Zu solchen Agenten gehören auch menschenähnliche Roboter und Avatare,…

Verwandte Produkte

Research use only (RUO)

Eppendorf - Mastercycler nexus X2

Eppendorf AG

Research use only (RUO)

SARSTEDT - Low DNA Binding Micro Tubes

SARSTEDT AG & CO. KG

Research use only (RUO)

Shimadzu - CLAM-2000

Shimadzu Europa GmbH