Forschung

Roboter mit Gedanken und Gesten steuern

Forscher des MIT haben ein System entwickelt, dass es ermöglichen soll, Abläufe bei Robotern mit Hilfe von Multi-Choice-Auswahl zu korrigieren. Die Eingabe erfolgt mit Gestensteuerung und über das Auslesen der Gehirnströme.

Roboter dazu zu bringen, bestimmte Dinge zu tun, ist nicht einfach. Normalerweise müssen Wissenschaftler entweder die Abläufe explizit programmieren oder den Robotern beibringen, wie Menschen über Sprache kommunizieren. Aber was wäre, wenn wir Roboter intuitiver steuern könnten, nur mit Gesten und den Gedanken?

Ein neues System unter der Leitung von Forschern des MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL) soll genau das ermöglichen, indem es den Benutzern erlaubt, Fehler sofort mit nichts anderem als Hirnsignalen und einem Fingerstreich zu korrigieren. Aufbauend auf der bisherigen Arbeit des Teams, die sich auf einfache binäre Auswahlmöglichkeiten konzentrierte, erweitert das neue Projekt den Anwendungsbereich auf Multiple-Choice-Aufgaben und eröffnet neue Möglichkeiten, wie menschliche Arbeiter Teams von Robotern selbst verwalten könnten.

Durch die Überwachung der Gehirnaktivität kann das System in Echtzeit erkennen, ob eine Person einen Fehler bemerkt, während ein Roboter eine Aufgabe erledigt. Über eine Schnittstelle, die die Muskelaktivität misst, kann die Person dann Handbewegungen ausführen und die richtige Option für den Roboter auswählen. Das Team demonstrierte das System an einer Aufgabe, bei der ein Roboter eine Bohrmaschine zu einem von drei möglichen Zielen auf dem Rumpf eines Modellflugzeugs bewegt. Sie zeigten, dass das System auch Menschen nutzen können, die damit noch nie zuvor gearbeitet haben. Unternehmen können es also in realen Umgebungen einsetzen, ohne die Benutzer vorher umfassend schulen zu müssen.

„Unser Projekt, das EEG- und EMG-Feedback kombiniert, ermöglicht eine natürliche Mensch-Roboter-Interaktion für eine breitere Palette von Anwendungen, als bisher“, sagt CSAIL-Direktorin Daniela Rus, die das Projekt leitet. „Durch die Einbeziehung von Muskel-Feedback können wir den Roboter räumlich spezifischer steuern, mit viel mehr Nuancen.“

Intuitive Mensch-Roboter-Interaktion

In den meisten früheren Studien konnten Systeme Gehirnsignale nur dann erkennen, wenn die Menschen sich selbst zum „Denken“ auf sehr spezifische, aber willkürliche Weise trainierten und wenn das System auf solche Signale trainiert wurde. Beispielsweise musste sich ein Bediener während einer Trainingseinheit verschiedene Lichtanzeigen ansehen, die unterschiedlichen Roboteraufgaben zugeordnet waren.

Da überrascht es wenig, dass solche Ansätze für Menschen schwierig zu handhaben sind, besonders wenn sie in Bereichen wie dem Bauwesen oder der Navigation eingesetzt werden, die für sich genommen bereits ein hohes Maß an Konzentration erfordern. Rus' Team dagegen nutzt die Eigenschaft von Hirnsignalen, die als „error-related potential“ (ErrPs) bezeichnet werden; zu Deutsch auch „fehler-assoziierter hirnelektrischer Aktivität“. Diese Signale entstehen jedes Mal, wenn Menschen einen vermeintlichen Fehler bemerken. Wenn das System ein solches Signal erfasst, stoppt es die Aktivität, damit der Benutzer den Roboter korrigieren kann.

„Das Tolle an diesem Ansatz ist, dass es nicht notwendig ist, die Benutzer zu schulen, um in einer vorgeschriebenen Weise zu denken“, sagt DelPreto. „Die Maschine passt sich dir an und nicht umgekehrt.“ Für das Projekt verwendete das Team „Baxter“, einen humanoiden Roboter von Rethink Robotics. Unter menschlicher Aufsicht steigerte der Roboter bei der Wahl des richtigen Ziels seine Erfolgsquote von 70 Prozent auf mehr als 97 Prozent.

Das Forscherteam nutzt die Elektroenzephalographie (EEG) für die Erfassung der Gehirnaktivität und die Elektromyographie (EMG) für die Erfassung der Muskelaktivität. Dazu werden eine Reihe von Elektroden auf der Kopfhaut und dem Unterarm des Benutzers befestigt. Beide Metriken haben einige individuelle Mängel: EEG-Signale sind nicht immer zuverlässig erfassbar, während EMG-Signale manchmal komplexe Bewegungen nur dürftig abbilden können, etwa Bewegungen die spezifischer sind als „nach links oder rechts bewegen“. Die Verschmelzung beiden Metriken ermöglicht jedoch eine robustere Biosensorik.

„Indem wir sowohl Muskel- als auch Hirnsignale betrachten, können wir beginnen, die natürlichen Gesten einer Person und ihre spontanen Entscheidungen darüber, ob etwas schief läuft, aufzunehmen“, sagt DelPreto. „Damit ähnelt die Kommunikation mit einem Roboter eher der Kommunikation mit einem anderen Menschen.“

Das Team verspricht sich von dem neuen System, dass es auch für ältere Menschen oder Arbeitnehmer mit Sprachstörungen oder eingeschränkter Mobilität das Arbeiten mit Robotern erleichtern wird. „Wir wollen weg von einer Welt, in der sich die Menschen an die Zwänge von Maschinen anpassen müssen“, sagt Rus. „Ansätze, wie der unsere, zeigen, dass es sehr wohl möglich ist, Robotersysteme zu entwickeln, die eine natürlichere und intuitivere Erweiterung von uns sind.“

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.