Mit KI Assistenzsysteme intelligenter für reale Umgebungen machen

Symbolbild zum Artikel. Der Link öffnet das Bild in einer großen Anzeige.
Annette Hagengruber promoviert extern am Lehrstuhl für Maschinelles Lernen und Datenanalytik. (Bild: DLR)DLR

FAU-Doktorandin Annette Hagengruber als KI-Newcomerin nominiert

Anhand von künstlicher Intelligenz Menschen mit Bewegungseinschränkungen im Alltag helfen – das ist das Ziel von FAU-Doktorandin Annette Hagengruber. Dafür hat sie die Gesellschaft für Informatik e.V. als KI-Newcomerin des Jahres nominiert. Im Interview erzählt sie, woran sie genau forscht und wie sie die Doppelbelastung durch Job und Doktorarbeit meistert.

Frau Hagengruber, Sie arbeiten am DLR an einem mobilen Assistenzroboter, der Menschen mit Bewegungseinschränkungen im Alltag helfen soll. Woran forschen Sie genau?

Es gibt zwei Kernaspekte an unserem Rollstuhlassistenten EDAN (EMG-controlled Daily AssistaNt): zum einen die Weiterentwicklung und Implementierung von Teilautonomie, bei der EDAN bei alltäglichen Aufgaben wie Essen und Trinken unterstützt. Ein wesentlicher Aspekt dabei ist, dass die Nutzer zu jeder Zeit Entscheidungsfreiheit besitzen. Zum anderen entwickeln wir ein Interface, wodurch Menschen mit sehr starken Bewegungseinschränkungen die Möglichkeit wiedererlangen sollen, einen Roboterassistenten nutzen zu können. Mein persönlicher Forschungsschwerpunkt liegt auf der Thematik des muskelbasierten Interfaces. Für eine kontinuierliche Steuerung eines Roboters in drei Dimensionen wäre ein Joystick die herkömmliche Lösung. Können Menschen mit starken Bewegungseinschränkungen, zum Beispiel aufgrund neurologischer Erkrankungen, ihre Extremitäten nicht mehr funktional bewegen, ist ein Joystick keine Option mehr. Hier müssen alternative Eingabegeräte genutzt werden. Ich befasse mich mit einer Mensch-Roboter-Schnittstelle, die verbleibende Muskelsignale mittels elektromyographischen (EMG) Sensoren misst und mit Methoden des Maschinellen Lernens zu einem kontinuierlichen Steuersignal für den Roboter dekodiert. Die KI-gestützte Teilautonomie dient dazu, komplexe Bewegungsabläufe einfach zu gestalten. Will der Anwender zum Bespiel Wasser in einen Becher einschenken, so muss er sich mit der Flasche in der Roboterhand nur auf den Becher zubewegen. Das System erkennt dann die Absicht des Nutzers und führt die zum Einschenken nötigen Rotationen selbstständig durch. Die Menge an Flüssigkeit, die dabei eingeschenkt werden soll, kann dabei durch den Nutzer festgelegt werden. Dies und weitere alltägliche Aufgaben können von Betroffenen dann wieder selbstständig durchgeführt werden.

Wie sind Sie zu diesem Forschungsgebiet gekommen?

Ich habe Medizintechnik studiert und war jeher immer an Technologien rund um Menschen und Medizin interessiert. Der Bereich der Assistenzrobotik am DLR gab mir die Möglichkeit, diese Aspekte zu vereinen. Sehr spannend finde ich auch, dass das Feld der Assistenzrobotik eher ein junges Feld ist, das viel Raum für Ideen und Forschung bietet und auch die Möglichkeit gibt, die Anwendung der Systeme mitzugestalten. Weiterlesen…