Cornelia Engel trägt Headset und betrachtet Kopf aus Glas

Mobilität 3.0: Ich denke, also fahre ich!

Brain Computer Interface ermöglicht Menschen mit Behinderung das autonome Fahren

Wie können Menschen mit Behinderung ein autonom fahrendes Auto bedienen? Im Gespräch entführte Cornelia Engel Audi Blog-Autor Andreas Wittke in eine nicht so ferne Zukunft, in der wir durch Gedanken Befehle geben können.

Cornelia Engel demonstriert Brain Computer Interface
Steuern eines autonom fahrenden Fahrzeugs durch reine Gedankenkraft? Cornelia Engel wagte sich im Rahmen ihrer Abschlussarbeit an dieses komplexe Thema heran – mit einem faszinierenden Ergebnis bewegender Auswirkung.

Ein dunkler Raum. Ein Bildschirm. Und Cornelia, deren Kopf ein futuristisches Headset ziert. Der Blick höchst konzentriert, ihre Augen durchdringen förmlich das Display. Ein Punkt huscht über den Bildschirm. Plötzlich beginnt wie aus dem Nichts Musik zu spielen. Was ist passiert? War das ein Trick? Nein! Cornelia hat die Musik mit gestartet – und zwar einzig und allein mit der Kraft ihrer Gedanken. Wie hat sie das geschafft? Dazu spulen wir die Zeit zurück: Begonnen hat alles mit Cornelias Cousin Markus Burkhart, der vor mehreren Jahren an Multipler Sklerose erkrankt und mittlerweile vom Kopf ab gelähmt ist. Trotz dieser Einschränkung führt er noch immer seine Kfz-Werkstatt – mithilfe von Eye-Tracking und speziellen Computerprogrammen erledigt er die administrativen Tätigkeiten. Das ist zwar mühsam und zeitaufwändig, aber es funktioniert.

Brain Computer Interface im Auto: Mit dem Audi Aicon wird die Vision zur Realität

„Ich finde es faszinierend, ihm dabei zuzusehen“, erklärt Cornelia. „Markus würde alles dafür geben, wieder mit einem Auto fahren zu können und unabhängig zu sein. Ich überlegte, ob man ein Auto mit integriertem Eye-Tracking-System in Kombination mit einem Brain Computer Interface für ihn bedienbar machen könnte.“ Damit war das Thema ihrer Abschlussarbeit bei Audi im Bereich Design Interieur Interface gefunden.

Während ihres Studiums an der Mediadesign Hochschule in München hat Cornelia Engel dann das Brain Computer Interface (BCI) von EMOTIV kennengelernt. Diese „Gehirn-Computer-Schnittstelle“ ermöglicht kognitiv wie motorisch eingeschränkten Personen, über mentale Befehle mit ihrer Umwelt zu kommunizieren. Das mobile EEG-Gerät registriert dabei die elektrischen Aktivitäten der Nervenzellen. Ein Computer übersetzt diese Signale dann in Kommandos und gibt sie an ein Gerät weiter – beispielsweise an ein Computerprogramm, einen Rollstuhl, einen Lichtschalter oder eben auch ein Auto.

Gläserner Kopf mit aufgesetztem Brain Computer Interface

Wie das menschliche Gehirn funktioniert? Und was eine Schnittstelle zwischen diesem und einer Computertechnologie bewirkt? Diese Fragen stellte Cornelia Engel bei der Erarbeitung ihrer innovativen Lösung.

Mit diesem Ansatz, Gedanken in Aktionen zu übersetzen, optimiert Cornelia nicht nur die Bedienbarkeit, sondern macht auch das autonome Fahren für mehr Menschen zugänglich. Gerade körperlich beeinträchtigte Menschen wie ihr Cousin können davon profitieren.

Denn bisher sieht die Realität so aus: In dem autonomen Konzeptauto Audi Aicon etwa, das auf der IAA 2017 vorgestellt wurde, bedient der Passagier die grafische Oberfläche neben Touch- und Sprachsteuerung mit einem Eye-Tracking-System. Mehrere Infrarotsensoren erkennen dabei, auf welchen Bereich des Displays er blickt; die dort gezeigte Funktion wird daraufhin größer dargestellt. Um sie zu aktivieren, tippt der Passagier mit dem Finger auf die berührungssensitive Holzblende. Doch tippen kann Markus ja nicht mehr. Die Lösung ist das Brain Computer Interface.

"Markus würde alles dafür geben, wieder mit einem Auto fahren zu können und unabhängig zu sein. Ich überlegte, ob man ein Auto mit integriertem Eye-Tracking-System in Kombination mit einem Brain Computer Interface für ihn bedienbar machen könnte."

Cornelia Engel

Herausforderung: Wie sich mit dem BCI Gedanken kontrollieren lassen

So die Theorie. Wie schwierig das Ganze in der Praxis funktioniert, erzählt Cornelia: „Ich habe einen Befehl – das Tippen – in etwa zwei Wochen erlernt.“ Das dauert so lang, weil das BCI für den Nutzer erst kalibriert werden muss, was große Übung und höchste Konzentration erfordert. Damit ein klares Signal entstehen kann, muss eine prägnante und stabile Vorstellung zustande kommen. Cornelia vergleicht diesen Vorgang mit dem Prozess eines Babys, das greifen oder sprechen lernt.

Im ersten Schritt hat sie zu meditieren begonnen, damit ihre Hirnaktivitäten ruhig und ausgeglichen sind. Denn nur so konnte sie im zweiten Schritt die Ausschläge bzw. Impulse diesem Befehl zuordnen. „Ich stelle mir dabei vor, dass ich ‚nach vorne‘ singe – das ist mein Impuls, mit dem ich den Befehl ‚Tippen‘ ausführen kann“, erklärt Cornelia. „Das funktioniert aber bei jedem anders. Mein Freund hat zum Beispiel an die Farbe Grün gedacht.“

Um Eye-Tracker und BCI im Interieur eines Autos nutzen zu können, müssen beide Systeme in das Graphic User Interface (GUI) von Audi eingebunden sein. Und das hat Cornelia in ihrer Bachelorarbeit umgesetzt. Dafür hat sie sieben Befehle entwickelt und grafisch wie konzeptionell verarbeitet: links, rechts, oben, unten, im und gegen den Uhrzeigersinn drehen und das Tippen.

Gespräch zwischen Audi Blog-Autor Andreas Wittke und Cornelia Engel
Im Gespräch mit Audi Blog-Autor Andreas Wittke erklärt Cornelia Engel, wie die Kombination aus Brain Computer Interface und Eye-Tracking funktioniert.

Mentale Befehle über das BCI sind „irgendwann wie Fahrradfahren“

Damit dies alles funktioniert, müssen pro Befehl andere Gehirnbereiche stimuliert werden. Unterschiedliche Befehle direkt hintereinander anzusteuern, erfordert höchste Konzentration. „Aber, wenn das in Fleisch und Blut übergegangen ist, ist es wie Fahrradfahren“, meint Cornelia.

Einmal erlernt, besitzt das Brain Computer Interface eine hohe Bediensicherheit. Wird dieses System noch zusätzlich mit einem Eye-Tracker verknüpft, muss nicht abgewartet werden bis das gewünschte Bedienfeld aufleuchtet, sondern es kann gezielt und sofort anvisiert werden. Das erhöht die Schnelligkeit in der Bedienung. Genau die richtige User Experience für Menschen mit motorischer Einschränkung.

Der WOW-Effekt: So wird Markus wieder mobil

Das BCI würde herausragende neue Möglichkeiten für Cornelias Cousin Markus schaffen. Ein Beispiel aus dem Alltag: Er bestellt via App und Eye-Tracking einen Audi zu sich nach Hause. Mit dem BCI steuert er seinen Rollstuhl. Das Auto erkennt sein Smartphone via Bluetooth, öffnet die Tür, lässt die Rampe herunter und die Sitze klappen nach hinten, damit Markus hineinfahren kann. Er wird von PIA, dem individuellen Sprachassistenten von Audi, begrüßt. Die Klimaanlage stellt sich auf sein Lieblingsambiente ein. Währenddessen verknüpft sich sein BCI mit dem Audi, damit er die Anwendungen auf dem Display steuern kann. Musikauswahl, Lautstärke, sogar ein Zwischenstopp wird so möglich. Wenn er dann an seinem Zielort ankommt, öffnen sich die Türen, die Rampe fährt aus und Markus kann herausfahren.

Eine Zukunftsvision? Bisher schon. Denn bis dies Realität werden kann, muss noch einiges geschehen: zum Beispiel Workshops, um die Befehle zu erlernen, eine noch ausgereiftere Technik und natürlich muss die rechtliche Situation geklärt werden. Aber der Anfang ist gemacht. Und das würde mehr Lebensqualität für Markus und viele andere Menschen mit Behinderung bedeuten – allein durch die Kraft der Gedanken und Cornelias Arbeit.

Weisen Gedanken den Weg in die Zukunft?

Die Messung des Gehirns als komplexe Struktur erfordert modernste und präzise EEG-Technologien, welche Hirnströme aufzeichnen, sammeln und analysieren. Ziel ist eine möglichst exakte Rekonstruktion der Aktivitäten innerhalb der unterschiedlichen Gehirnregionen. Kann eine Technologie wie die von EMOTIV “Gedanken lesen”, werden in der Praxis auf dieser Basis bestimmte Denkmuster bestimmten Wünschen zugeordnet und dadurch Reaktionen des Fahrzeugs erzeugt.

 

Cornelia Engel und Andreas Wittke vor der Mediadesign Hochschule in München. Während ihres Studiums hat Cornelia Engel dann das Brain Computer Interface (BCI) von EMOTIV kennengelernt.

1/3

Auch Audi Blog-Autor Andreas Wittke hatte die Chance, das Headset aufzusetzen und die Technologie zu testen. Leider erfordert es zur erfolgreichen Umsetzung bislang viel Geduld und Konzentration, da jeder Nutzer eine individuelle Kalibrierung durchführen muss.

2/3

Steuerung von Musik über die Gedanken: Was bislang höchstens in den Köpfen musikalischer Genies vorkam, kann auf Basis der Verbindung zwischen Brain Computer Interface und Eye-Tracking Realität werden.

3/3
Audi Aicon
Aus dem Audi MediaCenter

Audi Aicon (2017)

Mit der viertürigen Design-Vision Audi Aicon stellt die Marke mit den Vier Ringen einen völlig autonom fahrenden Audi der Zukunft vor – ohne Lenkrad, ohne Pedalerie. Als Designkonzept wagt der viertürige 2+2-Sitzer sowohl beim Exterieur als auch im Interieur einen weiten Sprung in die Formgebung der nächsten Jahrzehnte. Der Technikträger vereint auf visionäre Weise Innovationen bei Antrieb und Fahrwerk, bei Digitalisierung und Nachhaltigkeit. Auch der Aicon ist für rein elektrischen Betrieb ausgelegt, und er soll Distanzen zwischen 700 und 800 Kilometern mit einer Batterieladung zurücklegen können.

Weiterlesen

Artikel kommentieren

Ihre E-Mail-Adresse wird nicht veröffentlicht.

1.9.0