Auf dem Bild ist eine Person von vorne zu sehen, die ein futuristisch aussehendes Gerät, ähnlich wie ein Kopfhörer, auf ihrem Kopf platziert.

Hör mal, wer da spricht!

Menschen sind in der Lage, einem bestimmten Gespräch zuzuhören – selbst, wenn sich im Raum viele Geräuschquellen befinden und sich andere Menschen unterhalten. »Cocktailparty-Effekt« nennen Wissenschaftler diese Fähigkeit, bei der sich der Gehörsinn selektiv auf das Gegenüber einstellt und andere Schallquellen ausblendet. Ein Problem haben allerdings Hörgeräteträger. Bei mehreren Sprechern wissen ihre Geräte nicht, wem auf der Party der Träger zuhören will. Dank eines neuen Systems könnte sich das ändern. Im Interview erklärt Dr. Axel Winneke vom Fraunhofer IDMT, wie das funktioniert.

Hallo Herr Winneke, Sie sind mitverantwortlich dafür, wenn wir künftig einen intelligent agierenden »kleinen Mann« oder eine »kleine Frau« im Ohr haben.

Wir arbeiten an einem Hörsystem, das intelligent selektiert. Soweit ist das richtig. Der »kleine Mann« oder die »kleine Frau« bleiben dabei allerdings außen vor. Denn die Steuerung übernehmen keine intelligenten, mobilen Helfer, sondern die Gehirnströme des Trägers. Ziel ist es, damit eine deutliche Verbesserung von »Cocktailparty-Situationen« zu erreichen. Hörgeräte könnten in Zukunft von solch einer Technologie profitieren und weiter verbessert werden.

Sie sprechen von belebten Treffen wie Partys, bei denen sich mein Gehör nur auf diejenige Stimme konzentriert, die mir am wichtigsten erscheint. Beispielsweise weil ich mich trotz anderer Gespräche im Raum mit diesem einen Menschen unterhalte. Dieses Herausfiltern ist für mich nie ein Problem gewesen. Warum ist das bei Männern und Frauen, die eine Hörhilfe nutzen, anders?

Um es vereinfacht zu sagen: Hörhilfen fehlen Informationen darüber, welchem Sprecher oder welcher Sprecherin sie folgen sollen, wenn mehrere Sprecher gleichzeitig sprechen. Und genau an dieser Stelle setzt unser Projekt mEEGaHStim an. Wir am Fraunhofer-Institut für Digitale Medientechnologie IDMT in Oldenburg forschen gemeinsam mit der neuroConn GmbH als Verbundkoordinator, der Advanced Bionics GmbH, der HörTech GmbH sowie den Universität Siegen und der Universität Oldenburg daran, die Sprachverständlichkeit in derartigen Situationen zu verbessern.

Der »Clou« dabei ist vermutlich, dass automatisch das Signal hervorgehoben wird, auf das sich der Nutzer gerade konzentriert.

Das allerdings ist deutlich komplizierter, als es sich zunächst anhört: Unsere methodische Grundlage ist die Kombination verschiedener Ansätze. Wir nutzen beispielsweise die Elektroenzephalografie (EEG), die Audiosignalverarbeitung und auch Elektrostimulationen des auditiven Kortex. So entsteht eine am Kopf getragene Hörhilfe, die mittels eines Gehirn-Computer-Interfaces alle notwendigen Informationen überträgt und ein zielgerichtetes, deutlich verbessertes Hören ermöglicht.

Vermutlich aber wird auch dann der etwas sperrige Name des Projekts nicht auf Anhieb verstanden werden!

Sie meinen »mEEGaHStim«? Das steht für eine mobile und EEG-basierte Hirnstimulation und ist in der Tat eher ein Arbeitstitel. Zugegeben: Das Lösen der technischen Probleme stand zunächst im Fokus – weniger die Suche nach einem verständlichen Kurznamen für das Projekt.

Eines der größten Probleme, an dem das Konsortium arbeitet, scheint das Interface zu sein.

Richtig, nur das Gehirn weiß, wem ich bei einer Party gerade zuhören will. Entsprechend wird bei Normalhörenden das Gehör gesteuert und werden die eintreffenden akustischen Signale gewertet. Deshalb nutzen wir in einem ersten Schritt ein EEG. Grob gesagt erfassen wir damit die aktuell ablaufenden Gehirnaktivitäten und können dank Korrelation mit den erfassten Sprachsignalen errechnen, welchem Sprecher der Zuhörer wahrscheinlich gerade seine Aufmerksamkeit schenkt. Diese Information wird dann an das eigentliche Hörgerät geschickt, um ein Richtmikrofon der HörTech GmbH auszurichten. Brain-Computer-Interfaces – sogenannte BCI – werden weltweit auch für andere Anwendungen erforscht und teilweise bereits eingesetzt. Beispielsweise bei Menschen, die sich aufgrund eines Unfalls nicht mehr bewegen können und einfache Computer-Reaktionen von Maschinen durch ein bewusstes Blinzeln oder etwas Ähnliches auslösen.

Das System muss kontinuierlich neu rechnen, um dem Gespräch zu folgen?

Natürlich, das Audio-Signal wird laufend analysiert. Dabei filtern wir die sogenannte »Einhüllende« heraus. So erhalten wir ein reduziertes Sprachsignal, das aber für unsere Anwendung einen noch ausreichenden Informationsgehalt besitzt. Parallel dazu erfassen wir kontinuierlich die Gehirnaktivität. Beim Zuhören ergeben sich bestimmte Hirnstrommuster, die wir mit dem Audiosignal verknüpfen. Da wir auch erfassen, wann eine Sprechsequenz erfolgt, können wir errechnen, mit wem im Raum gesprochen wird. Zusätzlich kann die Information aus der Einhüllenden genutzt werden, um den auditorischen Kortex zu stimulieren, um so die Sprachverständlichkeit zu erhöhen. Die Stimulation und deren Steuerung ist der Schwerpunkt der Arbeiten der neuroConn GmbH und der Universität Oldenburg.

Und bei zwei Sprechern?

Bei zwei Sprechern wäre es eine 1-0-Entscheidung. Wir arbeiten dann mit zwei Korrelationswerten, wobei der des Sprechers, dem gerade zugehört wird, höher ist als der des anderen. Hier zeigt sich allerdings ein für die Anwendung noch zu lösendes technisches Problem der nötigen Feinjustierung: Denn natürlich soll die »Aufmerksamkeit« des Richtmikrofons auf dem aktuellen Gesprächspartner liegen. Sie soll aber auf der anderen Seite andere Sprecher akustisch nicht so ausblenden, dass ich nicht mehr reagiere, wenn mich jemand anderes anspricht.

Wo liegt der Forschungsschwerpunkt des Fraunhofer IDMT im Projekt?

Technisch sind wir für die EEG-Erfassung und EEG-Analyse zuständig, also die Detektion der Aufmerksamkeit – um diese Information an das Hörgerät zur Ausrichtung des Richtmikrofons zu senden. Wir beschäftigen uns aber auch mit der Ermittlung der neurobiologischen Marker von Höranstrengung mit Hilfe des EEG. Schwerpunkt derzeit ist aber die Aufmerksamkeitsdetektion. Dazu gehören beispielsweise auch die Untersuchung und Bereinigung von Artefakten. Sie entstehen beim Blinzeln oder Kauen. Diese Muskelaktivitäten haben mit dem eigentlichen Gehirnsignal nichts zu tun und müssen herausgefiltert werden.

Wie sieht ein Brain-Computer-Interface aus, wenn ich es auf einer Cocktail-Party trage?

Im Moment passt es optisch noch wenig zu einer schicken Abendgarderobe. Denn wir arbeiten in dem drei Jahre dauernden und vom Bundesministerium für Bildung und Forschung BMBF geförderten Projekt zunächst mit einem Demonstrator, um die technischen Herausforderungen zu meistern und die Vorteile praktisch erlebbar zu machen. Der Demonstrator ist aktuell eher ein etwas sperriger Koffer und damit noch weit weg von einer Hörhilfe, die am Kopf getragen werden kann. Wer diesen Demonstrator aber jetzt schon einsetzt, braucht zusätzlich mindestens zehn Elektroden links und zehn rechts am Kopf, um die Gehirnströme zu messen. Wir nutzen dafür neben klassischen EEG-Hauben auch cEEGrids. Das sind flexible Klebeelektroden, die um das Ohr wie Pflaster angebracht werden können. Es handelt sich dabei um die Entwicklung eines Teams um Prof. Dr. Stefan Debener an der Universität Oldenburg, der zugleich auch wissenschaftlicher Leiter an unserem Institutsteil in Oldenburg ist. Dazu kommt noch eine Verbindung zum Hörgerät, die später über Bluetooth oder W-Lan läuft. Wie unser System dann in einigen Jahren auf Partys oder anderen Veranstaltungen aber im Detail aussehen wird, klären derzeit Designer von der Uni Siegen. Sicher aber ist, dass es klein, handlich und leicht zu bedienen sein muss.

(mad)


Dr. Axel Winneke

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert