Computeranimation menschlicher Kopf und stilisiertes Gehirn
ORF Vorarlberg
ORF Vorarlberg
Wissenschaft

Grazer Forscher steuern Roboter mit Gedanken

An der TU Graz ist es erstmals gelungen, einen Roboterarm durch Gedanken zu steuern. Im Zentrum der Forschung steht der Anspruch, Querschnittgelähmten wieder Handlungsfähigkeit zu geben.

Mit der Kraft der Gedanken Querschnittgelähmten ein Stück Bewegungsfreiheit zurückgeben: Mithilfe von sogenannten Brain-Computer-Interfaces (BCI), die die Hirnaktivität ihrer Träger messen und die elektrischen Ströme, in Steuerungssignale umwandeln, soll das gelingen.

Positive Ergebnisse hat nun Gernot Müller-Putz, Leiter des Instituts für Neurotechnologie der Technischen Universität Graz, zu vermelden: Die Grazer Gehirn-Computer-Schnittstelle kann aus Hirnsignalen Bewegungsintention erfassen und zur Steuerung des Roboterarms nutzen.

Vision und Vorstellung

Patientinnen und Patienten mit schweren Rückenmarksverletzungen stehen vor einem gewaltigen Problem: Sie können etwa ihre Hände und Arme nicht mehr bewegen. Im Fokus der Forschungen von Müller-Putz steht das Bemühen, Querschnittgelähmten – also Personen, deren Rückenmark im Halsbereich verletzt wurde – mithilfe von Gehirn-Computer-Schnittstellen (BCI) wieder mehr Handlungsfähigkeit zu geben.

Die Vision der BCI, wie sie in Graz vorangetrieben wird, basiert darauf, dass die bloße Vorstellung einer Bewegung bereits messbare Veränderungen der elektrischen Hirnaktivität auslöst, erzählt Gernot Müller-Putz – er beschäftigt sich seit mehr als 20 Jahren mit der Kommunikation zwischen Hirn und Computer. Das Ganze soll mithilfe von bis zu 64 Elektroden, die die Hirnströme „von außen“ messen – und nicht mit Chips, die ins Hirn implantiert werden müssen – funktionieren, wie der Forscher gegenüber der APA erklärte.

Ausgeklögelte Experimente

Sein Team versucht in ausgeklügelten Experimenten, entsprechende Hirnsignale über ein Elektroenzephalogramm (EEG) zu registrieren, zu verstärken, mit computergestützten Analysen auszuwerten und über Machine Learning in Steuersignale umzuwandeln. Damit sollen dann etwa ein Cursor am Computer bedient oder auch einen robotischer Arm – der für den Patienten Bewegungshandlungen ausführt – in Bewegung gesetzt werden.

„Feel your Reach“

Die Grazer Gruppe hat mit dem nach fünf Jahren abgeschlossenen ERC-Consolidator Grant-Projekt „Feel your Reach“ wichtige Schritte bei der Entwicklung der Steuerung von u. a. Neuroprothesen gesetzt. „Es ist uns gelungen, aus den menschlichen Gehirnsignalen die Absicht einer kontinuierlichen Bewegung auszulesen. Und wir haben es geschafft, dass Personen durch die Kraft ihrer Gedanken einen Roboterarm in einer kontinuierlichen Wischbewegung herumfahren lassen können“, berichtete der Institutsleiter.

Bewegungsintention im EEG erfasst

Im Zuge des mit rund zwei Millionen Euro dotierten Projektes hat die Gruppe rund 25 Publikationen herausgebracht. An die 350 Probandinnen und Probanden haben an den zugrunde liegenden Experimenten teilgenommen. „Bisher war die Steuerung der Bewegung unnatürlich und umständlich, weil dafür geeignete Denkmuster wiederholt imaginiert werden müssen. Wenn es reicht, die Bewegungsintention im EEG zu erfassen, sind wir schon ein schönes Stück weiter“, schildert Müller-Putz das Bestreben. Das sei nach einer langen Reihe an Experimenten nunmehr gelungen.

Die Testpersonen machten im Grazer Labor zuerst einfache Wischbewegungen mit der Hand – ihre Hirnaktivität wurde aufgezeichnet und ausgewertet. Die Forschenden konnten daraus ein Modell erstellen, das die Kinematik der Bewegung mit dem EEG in Verbindung bringt: Sie suchten also in den Hirnsignalen nach Korrelaten für Bewegungsparameter wie jeweilige Position, Beschleunigung, Geschwindigkeit oder Abstand. In mehreren Zwischenschritten konnte die Bewegung aus den Gehirnsignalen des Echtzeit-EEG decodiert werden. Die abgeleiteten Signale dienen letztlich zur Steuerung des robotischen Arms.

Wichtige Auge-Hand-Koordination

Mittlerweile kann das Team die Bewegungsintention der Testperson aus dem EEG decodieren. Als essenziell stellte sich die Auge-Hand-Koordination dar: „Das heißt, dass die Benutzer mit ihren Augen die Bewegungsbahn des robotischen Arms verfolgen konnten. Die Sehinformationen tragen dazu bei, die Bewegungsintention zu erfassen“, berichtete der Grazer Teamleiter.

BCI erkennt auch Fehler

Inzwischen haben die Forschenden mehrere BCI entwickelt: Ein BCI kann erkennen, ob man mit einer Bewegung starten möchte, so Müller-Putz. Noch funktioniert die Decodierung der Signale nicht zu 100 Prozent: Ein weiteres BCI erkennt Fehler, also nicht erwünschte Bewegungen des Roboterarms: „Wenn die Person die falsche Bewegung sieht, können wir die Fehlerantwort des Gehirns aus dem EEG ablesen“, sagte der BCI-Experte. Das BCI stoppt die Bewegung des Roboterarms und korrigiert sie.

Bewegungen spürbar

„Die Testpersonen können die Bewegung des Roboterarmes spüren“, freute sich Müller-Putz über einen weiteren Fortschritt. Möglich wird das durch Vibrationsgeber. Diese kleben am Schulterblatt und fahren die Bewegungen des Roboterarms in fein fließenden Vibrationen nach. Künftig sollen damit auch komplett Querschnittgelähmte Bewegungen nachempfinden können. „Allerdings müssen wir uns hier eine Anwendung im Bereich des Nackens oder Halses überlegen“, erläuterte Müller-Putz.

Allen voran möchten die Forschenden den Start einer Bewegung, das Dekodieren der Bewegungsbahn aus visuellen, intentionalen und bewegungsempfindenden Informationen weiter verbessern, dabei Fehler erkennen und diese BCI-Systeme in einem „Dreifach-BCI-System“ vereinen. Der nächste Schritt wäre ein gesamter Bewegungsablauf vom Ergreifen eines Objekts über die räumliche Bewegung bis zum Ablegen des Objekts.