Von Martin Schaarschmidt / Fotos: Schaarschmidt
KI, Big Data und personalisierte CI-Versorgung …
»KI und personalisierte Medizin in der Audiologie« lautete das Motto der 26. Jahrestagung der Deutschen Gesellschaft für Audiologie, die vom 6. bis 8. März in der Hochschule Aalen stattfand. Rund 500 Teilnehmende aus dem In- und Ausland, Vertreter aus Forschung, Lehre und Praxis waren vor Ort dabei, besuchten Tutorien, Sitzungen und Plenarvorträge, die sich sowohl Themen aus der Praxis als auch neuester Forschung widmeten. Neben Big Data, Künstlicher Intelligenz und neuester Hördiagnostik nahmen auch Cochlea-Implantat-Versorgung und Rehabilitation einen großen Raum ein. Over-the-Counter-Hörsysteme und Hearables waren ebenfalls Thema.
![]()
Die Fortschritte in der Hörtechnologie sowie in der Individualisierung medizinisch-audiologischer Verfahren sind vielfältig«, so Professor Steffen Kreikemeier und Professorin Annette Limberger (Aalen), die das Präsidium der 26. DGA-Tagung bildeten. »Deshalb ist es wichtig, Künstliche Intelligenz, Augmented oder Virtual Reality, Hearables oder Wearables als allgegenwärtige Entwicklungen zu diskutieren.« Das Angebot, das die Jahrestagung der multidisziplinär ausgerichteten DGA dafür bot, war gewohnt umfangreich und absolut lohnend; hier nur ein kleiner Ausschnitt.
AI und Big Data in der Audiologie
Einen Eindruck davon, was künstliche Intelligenz und große Daten-Mengen für die Zukunft des besseren Hörens zu bieten haben, gab die strukturierte Sitzung »AI und Big Data in der Audiologie«, die ein breites Spektrum an Ansätzen und Lösungen präsentierte. So gab Björn Schuller (München) einen Ausblick in eine neue Ära des Machine Learnings (ML) und stellte aktuelle KI-Anwendungen vor. Die sind etwa in der Lage, Vogelarten anhand von verschriftlichten Vogelstimmen zu erkennen, die Stimme eines Sprechers zu erfassen und dann zum Verwechseln ähnlich zu kopieren, Emotionen aus Lautsprache zu analysieren oder auch anhand einzelner Social-Media-Tweets mit großer Genauigkeit die Suizidalität des Verfassers zu bestimmen.
Mareike Buhl (Paris) stellte sich der Frage, wie sich die Ergebnisse verschiedener Sprachtests zu einem gemeinsamen Datenbestand zusammenführen lassen. Wie lassen sich etwa Daten unterschiedlicher Kliniken, die GOESA, OLSA oder den Freiburger einsetzen, zu einem nutzbaren Datenpool verbinden? Wie kann man Tests in unterschiedlichen Sprachen zu »einer Währung« zusammenführen? Und wie können audiologische Datenbanken klinische Entscheidungen unterstützen?
Fragestellungen, die auch in den Folgevorträgen immer wieder auftauchten. So stellte Professor Ulrich Hoppe (Erlangen) eine exemplarische Analyse klinisch-audiologischer Daten der Erlanger Klinik mittels ML vor; Fragestellung: Inwieweit lässt sich statistisch ermitteln, in welchem Lebensalter die Hörbarkeit und andererseits das Sprachverstehen nachlassen? Ganz ähnlich Professor Andreas Büchner (Hannover), der ML-Ansätze mit Klinikdaten aus dem Deutschen Hörzentrum (DHZ) präsentierte. Bei ihm ging es um die Möglichkeit, anhand von Klassifizierungen Vorhersagen zum Versorgungserfolg von CI-Patienten zu treffen. – Könnte man etwa Patienten mit noch vorhandenem Restgehör eine statistisch abgesicherte Vorhersage für das Sprachverstehen mit CI geben? Auch wenn der Referent noch Verbesserungsbedarf anmeldete – der Vorhersagealgorithmus, der auf Daten des DHZ von mehr als 10.000 CI-Implantationen basierte, war immerhin ebenso zuverlässig wie jene Vorhersagen zum Behandlungserfolg, die erfahrene Audiologen aus dem Bauch heraus trafen.
Medizininformatikerin Antje Wulff (Hannover) erläuterte in einem Online-Vortrag den Aufbau eines Daten-Ökosystems aus mehreren Krankenhäusern, mit dem sich etwa audiologische Daten aus mehreren Kliniken zusammenführen lassen. Wie kann man unterschiedliche Datenstrukturen und Tests zu einem nutzbaren Ganzen verbinden? Lösung versprechen zum einen die sogenannten FAIR-Prinzipien, eine Art Leitlinie zur Verbesserung der Nutzbarkeit von Daten, und zum anderen OpenEHR, eine offene Plattform für Versorgung und Forschung. Wie die mit Perspektive auf ganz Europa für die Audiologie genutzt werden könnte, führte Professor Birger Kollmeier (Oldenburg) im Anschluss aus.
Industrie-Präsentation: Tele-Care und Personalisierung
Digitalisierung, Tele-Care und personalisierte Versorgungen waren auch bei den Industrieausstellern der Tagung allgegenwärtig. Auf der Industrie-Präsentation am zweiten Tag stellten insbesondere die drei Cochlea-Implantat-Hersteller ihre neuesten Lösungen vor.
Highlight bei MED-EL war etwa Otoplan V5, das anatomische Strukturen der Cochlea und Elektrodenkontakte sichtbar macht. In Kürze eingeführt werden soll Otodrive, ein robotischer Arm für den OP, der eine langsame und gleichmäßige Insertion im anatomisch optimalen Winkel sicherstellt. Erstmals vorgestellt wurde zudem Software Maestro 10, die in Verbindung mit der HearCare App nun auch Fernanpassungen ermöglicht.
![]()
Advanced Bionics stellte gleichfalls Personalisierung und Digitalisierung in den Fokus – von CI-Beratung und CI-OP bis zu Rehabilitation und Nachsorge. Neueste Entwicklung war insbesondere die Nachsorge aus der Ferne mittels »AB Remote Support«, einer App-basierten Lösung, die auch als Demo auf dem Stand des Herstellers zu erleben war.
Cochlear erinnerte an 40 Jahre CI-Therapie in Deutschland und verwies zugleich auf den Stellenwert der Digitalisierung für zukünftige Versorgungen: Nur mit Hilfe digitaler Lösungen lasse sich die derzeit bestehende Versorgungslücke bei Cochlea-Implantaten schließen. Eine solche ganzheitliche Lösung präsentierte Cochlear mit Connected Care, einem Konzept, das mit den Bereichen Connected Patient, Surgical Care, In-clinic Care, Remote Care und Self-managed Care sämtliche Stationen des Versorgungsweges digital abbildet, und das seit fünf Jahren kontinuierlich weiterentwickelt wurde. Jüngste Ergänzung ist Nucleus SmartNAV für den OP, dessen kontrollierte Markteinführung aktuell in 20 deutschen Kliniken erfolgt.
Weiterhin bei der Industrie-Präsentation präsent war Diatec/Interacoustics, das mit ACT (Audible Contrast Threshold) eine neue Messmethode präsentierte, mit der sich Hören nicht nur quantitativ, sondern auch qualitativ messen lässt; der erste sprachunabhängige Test für Sprachverstehen in Störlärm ermittelt innerhalb von drei Minuten, wie jemand diskriminiert, und verbessert den First Fit.
Die Schweizer Firma INNOFORCE, Anbieter von Datenbanken und Cloudlösungen, informierte insbesondere über ENTstatistics, eine Anwendung, die Daten verschiedener Kliniken für Studienzwecke zusammenführt. Zudem informierte INNOFORCE über das vom Unternehmen betreute CI-Register: Dieses würde sich gut entwickeln; mittlerweile werde es von 80 deutschen Kliniken unterstützt und es gäbe nun auch für Kliniken aus Österreich die Möglichkeit zur Teilnahme.
Nicht zuletzt beteiligte sich auch Auritec an der Industrie-Präsentation. Im Fokus stand die neue Audiologie-Plattform AT2000 inklusive Datenbank, Sprachaudiometrie und Testverfahren. Zusammen mit der AT-research Hardware sei AT2000 die Plattform für die nächsten Jahre; zugleich seien Service und Verfügbarkeit von Ersatzteilen für Vorgänger AT1000 sichergestellt.