Von Dennis Kraus / Fotos: OMNIdirekt
»Ein Maß für Aufmerksamkeit und smarte Perspektiven – das zehnte Oticon Symposium«
Ende November war es wieder soweit. Oticon lud zum mittlerweile traditionellen Symposium. Es war das bereits zehnte Mal, dass der Hersteller eine große Zahl an Kunden nach Hamburg lockte, um sie mit teils anspruchsvollen Vorträgen aus der Welt der Audiologie sowie mit etwas weltlicheren Beiträgen zu inspirieren. Abgerundet wurde das Event mit der obligatorischen abendlichen Feier, für die es dieses Mal ins Astra Haus auf St. Pauli ging. OMNIdirekt berichtet in zwei Teilen. Hier der Erste.
Die allgemeine Großwetterlage bleibt auch beim Oticon Symposium nicht vor der Tür. Schließlich wäre es wohl »übertrieben, zu sagen, dass wir, wie bei Asterix, ein kleines Dorf sind, das von all dem nicht betroffen ist und es auch nicht sein wird«, so Torben Lindø in seiner Begrüßung der rund 200 Besucherinnen und Besucher, die sich an diesem Donnerstag Ende November im Hamburger Curio Haus eingefunden haben. Deswegen aber den Kopf in den Sand zu stecken, dafür sieht der Geschäftsführer der Oticon GmbH keinen Grund. »Wir sind, so ist zumindest mein Eindruck, relativ gut aufgestellt und dazu eine relativ robuste Branche«, sagt er. Insofern gebe es heute trotz allem Grund zur Freude. Für viele ist das Oticon Symposium ohnehin längst ein gesetzter Termin für neuen Input aber auch für kollektives Wiedersehen – und damit ein Stückweit auch schon Tradition.
Zu dieser Tradition gehört, dass es während des Symposiums nicht um »Produktpropaganda« geht. Einen kleinen Scherz kann sich Torben Lindø da allerdings nicht verkneifen. Schließlich habe sich der IdO-Markt binnen »der vergangenen drei Jahre verdoppelt, und wir haben gerade neue IdO-Geräte auf den Markt gebracht«. Wie in einem Werbespot rattert er die Attribute der neuen Geräte herunter und schmunzelt schelmisch. Das Publikum lacht.
Genauso zur Tradition des Symposiums gehört, dass die Vorträge vor der Mittagspause »krass« und »ein bisschen heftig« ausfallen, so Lindø weiter. Nach der Mittagspause werde es dann weltlicher. Heruntergespült werden kann der Input abschließend auf der obligatorischen abendlichen Feier.
![]()
Eine weitere Tradition des Symposiums ist, dass Horst Warncke die Moderation übernimmt. Als erste Referentin des Tages kündigt der Leiter der Audiologie bei Oticon in Hamburg Prof. Dr. Dorothea Wendt an. Regelmäßigen Besucherinnen und Besuchern des Symposiums wird die Physikerin bekannt gewesen sein. Auf einer der vorangegangenen Veranstaltungen hatte sie mit der Pupillometrie eine da noch neue Methode zur Messung der Höranstrengung vorgestellt, deren Entwicklung Wendt maßgeblich vorangetrieben hatte. Tätig ist die Physikerin aktuell sowohl an der technischen Universität von Dänemark als auch im Oticon-eigenen Forschungszentrum Eriksholm. In ihrem heutigen Vortrag widmet sie sich der Frage, wie leicht man sich von unerwünschten Störsignalen ablenken lässt. Bühne frei für Dorothea Wendt.
Futuristische Forschung
»Ich versuche, es möglichst wenig krass zu halten«, scherzt Dorothe Wendt eingangs mit Blick auf Torben Lindøs Worte. Wissenschaftlich werde es aber nichtsdestotrotz. Zudem werde sich mancher im Saal vielleicht fragen, warum das Thema relevant ist. »Unsere alltägliche Kommunikation und auch das Hören ist im Wesentlichen von zwei Eigenschaften geprägt«, holt sie aus. Da wäre einerseits die eher freiwillige Aufmerksamkeit auf ein bestimmtes Ziel, auf das man sich fokussieren möchte. Und andererseits sind da die eher unfreiwilligen, automatischen Ablenkungen der Aufmerksamkeit auf Dinge, die eigentlich nicht im Fokus liegen – wie etwa Störgeräusche. Die würde man, sagt Dorothea Wendt, auf deren Wichtigkeit evaluieren und dabei den eigentlichen Fokus womöglich vernachlässigen. In der Regel geschehe das automatisch, allein schon deswegen, weil es eben auch relevante Störgeräusche gibt wie etwa Feuermelder, Sirenen und weitere sogenannte saliente Geräusche. »Salienz ist im Grunde das Maß dafür, wie stark ein Klang hervorsticht und damit die Aufmerksamkeit auf sich zieht«, erklärt Dorothea Wendt.
Was ein Signal salient macht, dazu werde nach wie vor geforscht. Als sicher gilt, dass etwa die Lautheit und der Klang eines Tones eine Rolle spielen. Dazu kommen inhaltliche Faktoren. Hört man zum Beispiel seinen Namen, wird das immer Aufmerksamkeit erregen.
In Eriksholm ging man zuletzt der Frage nach, ob sich ein objektives Maß für die Ablenkbarkeit entwickeln lässt, und inwiefern Schwerhörigkeit hierbei die Ablenkbarkeit beeinflusst. Auch eine Studie habe man hierzu bereits durchgeführt. Eine zweite Studie ging außerdem der Frage nach, ob es einen zeitlichen Einfluss gibt. Spielt es also auch eine Rolle, wann ein salientes Geräusch wahrgenommen wird? Und welche Rolle spielt es, wie ablenkend dieses Geräusch tatsächlich ist?
Für die Entwicklung des physiologischen Maßes bediente man sich in Eriksholm dreier Methoden: der Pupillometrie zur Messung der Aktivität des autonomen Nervensystems, der Elektroenzephalografie zur Untersuchung der elektrischen Aktivität des Gehirns sowie des sogenannten Neural Trackings, über das sich feststellen lässt, wie die Antwort des Gehirns auf Sprachsignale ausfällt. Je deutlicher die ausfalle, desto höher sei auch die Aufmerksamkeit auf das entsprechende Signal. »Damit ist Neural Tracking im Prinzip ein Maß für Aufmerksamkeit«, so Dorothea Wendt.
Mit den Studien habe man zu verstehen versucht, ob es überhaupt eine Antwort auf saliente Geräusche gibt und ob die wiederum in irgendeinem Zusammenhang zur Schwerhörigkeit stehen.
Insgesamt 50 Probanden nahmen an der ersten Studie teil, die eine Hälfte normalhörend, die andere altersbedingt schwerhörig. Allen 50 präsentierte man über einen Lautsprecher Zielsprache sowie über zwei weitere Lautsprecher zufällig eingespielte saliente Geräusche. Dabei sollten sich die Probanden auf die Sprache konzentrieren und alles andere ausblenden.
Tatsächlich ließ sich bei allen Probanden eine »relativ deutliche« Weitung der Pupille feststellen, kamen Störgeräusche hinzu, berichtet Dorothea Wendt. Im weiteren Verlauf hat man untersucht, ob diese Antwort von der Salienz des Störgeräuschs abhängt. Und tatsächlich ließ sich ein Zusammenhang feststellen: Je deutlicher das Störgeräusch war, desto mehr weitete sich die Pupille, und das bei Normal- wie Schwerhörenden mehr oder minder gleichermaßen. Ebenso sei die über das EEG gemessene Antwort des Gehirns auf das saliente Geräusch bei beiden Gruppen in etwa gleich ausgefallen. Und auch der aus dem EEG abgeleitete Neural-Tracking-Wert zeigte, dass es eine messbare Aufmerksamkeit auf das Störgeräusch gab. Weiter untersucht werden müsse hier jedoch der Vergleich von Schwerhörigen zu Normalhörenden, so Wendt.
Darüber hinaus untersuchte man in Eriksholm, wie die Antwort des Gehirns auf die Zielsprache aussah. In der Tat fiel da die Aufmerksamkeit ab, sobald ein Störgeräusch hinzukam. War es wieder weg, stieg die Aufmerksamkeit schnell wieder an. Die Salienz des Störgeräuschs habe hier aber keine Rolle gespielt, bilanziert Dorothea Wendt.
Damit habe man gelernt, dass es »einen Zusammenhang gibt zwischen der Stärke der Salienz und dem physiologischen Atem«, fasst Dorothea Wendt mit Blick auf die erste Studie zusammen. Ebenso habe man beim Eintreten eines Störsignals die Sensitivität auf Salienz nachweisen können. Einen Zusammenhang vom Grad der Ablenkung und der Stärke der Salienz habe man indes nicht feststellen können. Eine Hörminderung spiele hierbei, so Dorothea Wendt, Stand heute, ebenso keine Rolle.
In der zweiten Studie schaute man sich an, ob es eine Rolle spielt, wann ein Störsignal tatsächlich stört. So ging man davon aus, dass dies vor allem dann passiert, wenn es die Zielsprache bzw. Teile von ihr maskiert. Untersucht hat man das mit einem dänischen Satztest. Zwei Zielwörter sollten sich die Probanden hier merken. Zuerst wurde zu den Sätzen ein kontinuierliches Rauschen präsentiert. Im zweiten Durchlauf kamen die Störgeräusche vor dem eigentlichen Satz hinzu, in einem weiteren präsentierte man die Störgeräusche zum Anfang des Satzes, im vierten direkt auf den Zielwörtern und in einem fünften Durchlauf präsentierte man die Störgeräusche nach dem eigentlichen Satz. »So wollten wir verstehen, ob es einen Unterschied für die Sprachverständlichkeit macht, wann genau die salienten Geräusche präsentiert werden«, erklärt Dorothea Wendt. 25 Probanden hatte man für die Studie eingeladen, alle mit altersbedingtem Hörverlust.
Das Ergebnis war wenig überraschend, sagt Dorothea Wendt. So sei nur dann ein Einfluss auf die Sprachverständlichkeit zu sehen gewesen, wenn die Störgeräusche direkt auf den Zielwörtern lagen, sie sie also maskiert haben. Störgeräusche kurz vor oder nach den Zielwörtern wirken sich nicht weiter auf die Sprachverständlichkeit aus.
Bleibt die Frage nach dem Nutzen dieser Erkenntnisse. »Wir haben in Eriksholm das große Glück, futuristisch forschen zu dürfen«, sagt Dorothea Wendt. So kämen Erkenntnisse wie diese »mit Glück« in fünf Jahren in die Anwendung, oft flössen sie aber auch erst in zehn oder 15 Jahren in konkrete Entwicklungen ein. Ein physiologisches Maß zur Ablenkbarkeit zu haben, könne jedenfalls dabei helfen, die Signalverarbeitung in Hörgeräten besser zu individualisieren. Hätte man überdies noch Sensoren in den Geräten, die eben die Ablenkbarkeit messen können, könnte hieraus echter Nutzen entstehen. Der Weg dahin sei jedoch noch weit, so Wendt abschließend.
Smart Glasses und Audiologie
»Auf diesen Blick in das Gehirn folgt ein Blick durch die smarte Brille«, sagt Horst Warncke. Damit kündigt er, nach dem dann doch durchaus »krassen« Vortrag von Dorothea Wendt, den zweiten Beitrag mit mutmaßlich schwerer Kost an. Kommen wird der von Prof. Dr. Jens Ahrens, Leiter der Forschungsabteilung Audiotechnologie an der Chalmers Universität im schwedischen Göteborg. Zuvor hatte er bei Microsoft in der Forschung gearbeitet, war an der Stanford University tätig und absolvierte diesen Sommer zudem einen mehrmonatigen Forschungsaufenthalt in den Reality Labs des Meta-Konzerns. Leiter dort ist übrigens Dr. Thomas Lunner, »Vater der digitalen Hörgeräte«, wie Horst Warncke sagt.
![]()
Ahrens‘ Forschungsschwerpunkte liegen in der räumlichen Audioaufnahme und -wiedergabe. In seinem Vortrag wird es in diesem Zusammenhang um Smart Glasses gehen, so Warncke. Bühne frei für Jens Ahrens.
Seine Themen drehten sich um »Lautsprecher, Mikrofone und vor allem um die Signale dazwischen«, eröffnet Jens Ahrens. So gehe es bei ihm darum, eine Klangszene so aufnehmen zu können, dass man sie auch räumlich originalgetreu wiedergeben kann. Und in diesem Zusammenhang habe sich in den letzten Jahren ein Trend herauskristallisiert, der sich um die Gerätekategorie Smart Glasses dreht – und auch für audiologische Themen relevant werden könne.
Zunächst zeigt Jens Ahrens ein klassisches Hörgerät, dann eine smarte Brille. Mikrofone, Lautsprecher, Rechenleistung, Batterie – das Rüstzeug ist erst mal ähnlich. Die 2012 von Google präsentierten Smart Glasses verfügten bekanntlich außerdem über Kameras, zudem konnte sie als kleiner Bildschirm vor dem rechten Auge fungieren. Akzeptanz fand die smarte Brille indes nicht. Im Gegenteil, und so wurde es schnell ruhig um diese Innovation. Doch nun käme wieder Bewegung in das Thema. Einige große Player sowie Start-ups greifen es wieder auf, angetrieben von der Frage, was das Smartphone als wichtigsten technischen Alltagsbegleiter ablösen könnte. Erste Modelle werden inzwischen schon angeboten. So kann man etwa Ray-Ban-Smart-Glasses kaufen, die sich auf den ersten Blick kaum von gewöhnlichen Brillen unterscheiden. Sie verzichten auf den Bildschirm in den Gläsern, lassen sich aber per Bluetooth mit dem Smartphone koppeln, man kann über sie telefonieren, Musik hören, Fotos machen und so weiter. »Das ist erst der Anfang«, stellt Jens Ahrens klar. Die fortlaufende Miniaturisierung von Technik werde noch vieles ermöglichen.
Dann berichtet er von seiner Forschungsarbeit bei Meta. Die dortigen Reality Labs hätten rund 10.000 Mitarbeitende, der Etat liege bei zehn Milliarden Dollar, so Ahrens. Und neben Thomas Lunner fänden sich dort noch viele weitere ehemalige Mitarbeitende der Hörakustikbranche. Zudem widme man sich dort nicht nur Smart Glasses, sondern allem, was mit Virtual und Augmented Reality zu tun hat.
Mit Blick auf die Audiologie böten Smart Glasses gute Voraussetzungen, so Ahrens. Weil die binaurale Signalverarbeitung nicht per Funk abgeglichen werden müsste, ließe sie sich zum Beispiel deutlich einfacher synchronisieren. Zudem ließen sich an den Brillen mehr Mikrofone einsetzen, um Beamforming zu betreiben. Und obwohl hier verarbeiteter und direkter Schall an den Ohren der Nutzer ankommen, sieht er gerade in puncto Beamforming »großes Potenzial«. Zumal man, neben den Mikrofonen, zusätzlich Kameras werde nutzen können. Komme dann noch eine Gesichtserkennung ins Spiel, die Menschen als die gewünschten Schallquellen identifiziert, werde es noch interessanter. Schließlich könnte sich so steuern lassen, wohin sich das Mikrofonarray der Smart Glasses ausrichten soll. Vieles ist hier denkbar.
![]()
Im weiteren Verlauf berichtet Jens Ahrens davon, zum Beispiel 360-Grad-Bewegtbild mit dem exakt passenden Ton zu versehen. Rein bildliche Darstellungen ließen sich bereits recht gut abbilden. Wie man nun den Ton so einer Szenerie ebenso darstellen kann, daran arbeite er.
Die Idee hierfür sei im Übrigen schon älter, sagt Jens Ahrens. Stehengeblieben sei die Forschung jedoch nicht. So brauche man hierfür inzwischen schon deutlich weniger Mikrofone sowie die 360-Grad-Kamera, um den gewünschten Effekt erzielen zu können. Mit einer Virtual Reality Brille auf der Nase und Kopfhörern auf den Ohren ließe sich so bereits die Perspektive eines anderen erleben.
Der nächste Schritt könne nun so aussehen, dass man Smart Glasses mit ausreichend Mikrofonen, entsprechender Kamera und genug Rechenleistung bestückt. Für die Hörakustik etwa könnte sich daraus ergeben, dass Hörgerätenutzerinnen und -nutzer so jene Situationen aufzeichnen können, in denen sie noch Probleme haben, um die dann ihren Akustikern vorzuspielen. »So bekämen Sie viel bessere Möglichkeiten, diese Situationen interpretieren zu können«, sagt Jens Ahrens in Richtung der rund 200 Gäste im Curio Haus. Auch Daten für das maschinelle Lernen ließen sich so gut sammeln, was wiederum die Entwicklung noch besserer Signalverarbeitung beflügeln könnte.
Mit diesen die Fantasie anregenden Aussichten geht es nach diesem zweiten Vortrag des zehnten Oticon Symposium schließlich in die Mittagspause. Der etwas heftigere Teil des Vortragsangebots ist damit geschafft.
Teil zwei unserer Reportage über das zehnte Oticon Symposium folgt in der Februarausgabe.