Forscher arbeiten an intelligentem Hörgerät
Um Hörversuche mit Versuchspersonen unter kontrollierten Bedingungen durchführen zu können, haben die Forschenden des SFB mehrere virtuelle audiovisuelle Szenen geschaffen.
„In unserer alternden Gesellschaft wird es immer drängender, Hörgeräte und andere Kommunikationshilfen zu entwickeln, die auch in schwierigen akustischen Umgebungen funktionieren und im täglichen Leben wirklich weiterhelfen", erklärt der Präsident der Carl von Ossientzky Universität Oldenburg, Prof. Dr. Ralph Bruder. Der Sonderforschungsbereich (SFB) mit dem offiziellen Titel „Hörakustik: Perzeptive Prinzipien, Algorithmen und Anwendungen“ (HAPPAA) arbeitet an Hörgeräten und Hörassistenzsystemen, die sich mit Hilfe Künstlicher Intelligenz (KI) selbstständig an unterschiedliche Umgebungen anpassen und sich dabei immer besser auf die individuellen Nutzerinnen und Nutzer einstellen.
An dem Großprojekt, dessen Gesamtlaufzeit auf zwölf Jahre angelegt ist, sind neben der Universität Oldenburg mit der Jade Hochschule, dem Fraunhofer-Institut für Digitale Medientechnologie IDMT, der Hörzentrum Oldenburg gGmbH, der RWTH Aachen und der TU München weitere führende Einrichtungen aus der Hörforschung beteiligt. Die Deutsche Forschungsgemeinschaft (DFG) hat dem Vorhaben nun erneut Mittel bewilligt. Das von Prof. Dr. Volker Hohmann geleitete Vorhaben erhält 8,1 Millionen Euro für die zweite Phase des Projektes.
Akustische Kommunikationsschleife
In der ersten Förderperiode stand die Wechselbeziehung zwischen Menschen mit eingeschränktem Hörvermögen und ihrer akustischen Umgebung im Fokus. „In der Realität verändert sich eine Hörsituation ständig, weil Menschen auf Stimmen und Geräusche reagieren. Sie wenden zum Beispiel ihren Kopf zur Schallquelle oder bewegen ihre Augen. Wir bezeichnen das als ‚akustische Kommunikationsschleife‘“, erläutert Hohmann. In der Hörakustik sei dies zuvor kaum berücksichtigt worden.
Dem Team ist es laut einer Mitteilung der Universität in den vergangenen Jahren gelungen, das Hörgerät in diese Kommunikationsschleife einzubeziehen. „Wir haben eine erste Version des sogenannten ‚immersiven Hörgeräts‘ entwickelt. Es überprüft laufend die aktuelle Hörsituation und schätzt ab, auf welche Schallquelle eine Versuchsperson gerade ihre Aufmerksamkeit richtet“, sagt Hohmann. Das Gerät misst die Blickrichtung und Kopfbewegung und passt daraufhin die Signalverarbeitung so an, dass diese Schallquelle für die Versuchsperson optimal zu hören ist. Der bisherige Prototyp ist nicht nur im Labor, sondern auch in Feldversuchen einsetzbar.
Unter seiner Ägide verbindet der Sonderforschungsbereich etwa Akustik, Psychoakustik, Audiologie, Ingenieurswissenschaften und physikalische Modellierung: SFB-Sprecher Prof. Dr. Volker Hohmann.
Entwicklung eines "Hearpiece"
Grundlage für diesen Erfolg waren unter anderem neue Wahrnehmungsmodelle, die das Forschungsteam für verschiedene Anwendungsfälle entwickelte. „Diese Modelle sagen vorher, wie Probandinnen und Probanden ein Schallsignal wahrnehmen, ob sie etwa einem Gespräch in einer lauten Umgebung folgen können oder nicht“, erläutert Hohmann. Das Hören mit und ohne Hörverlust in verschiedenen Hörsituationen mit Störgeräuschen und Nachhall zu simulieren, sei essentiell, um neuartige Verfahren für die Signalverarbeitung in Hörhilfen entwickeln und bewerten zu können, so der Forscher.
Ein weiteres wichtiges Ergebnis der ersten Förderperiode ist das sogenannte „Hearpiece“. Dabei handelt es sich um einen speziellen, besonders hochwertigen Ohrhörer für die Forschung: Dank mehrerer Mikrofone und Lautsprecher kann das im Ohr platzierte Gerät Schall genau wie ein Hörgerät verstärken. Die Forschenden nutzen es, um zum Beispiel neue Algorithmen für die Signalverarbeitung direkt im Ohr zu testen. Das Besondere dabei: Das Hearpiece ist akustisch transparent – das Hören mit dem Gerät entspricht laut der Mitteilung der Universität Oldenburg also dem normalen Hören mit offenem Ohr.
Zweite Projektphase hat begonnen
In der nun beginnenden zweiten Förderperiode will das SFB-Team die Wahrnehmungsmodelle, Algorithmen und Anwendungen weiterentwickeln und zusammenführen. Ein Ziel ist es, für das Hearpiece und das immersive Hörgerät Algorithmen zur aktiven Geräuschkontrolle zu entwickeln, die von der jeweiligen akustischen Szene abhängen. Dabei greifen die Forschenden auf neueste, selbst entwickelte KI-Verfahren zurück. Langfristiges Ziel ist es, dass jedes Hörgerät ständig dazulernt und immer besser vorhersieht, welche Einstellung für die jeweilige Nutzerin in einer bestimmten Situation optimal ist. Das notwendige Feedback sollen die Schwerhörenden über ihr Smartphone selbst eingeben können. „Bis wir am Ziel sind, werden wir allerdings noch viel Arbeit investieren müssen“, sagt Hohmann. Das Team arbeitet außerdem daran, internationale Standards für komplexe akustische Szenen in der Hörforschung und Audiologie zu etablieren, um einen besseren Austausch zwischen Laboren zu ermöglichen