Ihr Interesse erwachte während der Corona-Pandemie. „In dieser Zeit wurde die mentale Gesundheit zu einem schwerwiegenden Problem für die Gesellschaft – vor allem auch für junge Erwachsene“, sagt Iryna Gurevych. Die Expertin für automatische Sprachverarbeitung und Maschinelles Lernen, die an der TU Darmstadt die Forschungsgruppe „Ubiquitäre Wissensverarbeitung“ leitet, war im Pandemiejahr 2021 zur ersten Loewe-Spitzen-Professorin des Landes Hessen ernannt worden. Das war mit einer Förderung von drei Millionen Euro verbunden. Gurevych beschloss, einen Teil des Geldes für die Erforschung der Frage auszugeben, wie der Datenschutz beim Einsatz Künstlicher Intelligenz in der Medizin gewahrt werden kann. Sie will erreichen, dass KI verantwortungsbewusst für eine bessere, frühere Diagnostik und Therapie psychischer Erkrankungen eingesetzt wird.
Ein Wissenschaftsgebiet, „in dem es keine tiefhängenden Früchte gibt“, wie Gurevych die Ausgangslage beschreibt. „Vor rund fünf Jahren existierten so gut wie keine frei verfügbaren Datensätze, aber ohne die ist die Informatikforschung nicht möglich.“ Der Datenschutz ist das zentrale Problem bei der Nutzung medizinischer Informationen. Sie bedarf der Einwilligung von Patient und Arzt, und die gilt meist nur projektbezogen. Die Privatheit der Daten sei der „Flaschenhals“ für die Entwicklung von KI auf dem Gebiet der mentalen Gesundheit, sagt die Forscherin. Sie und ihr Team haben sich auf dieses Thema fokussiert.

In Gurevychs Forschungslabor an der Darmstädter Uni arbeiten Wissenschaftler an der Schnittstelle natürlicher Sprachverarbeitung und psychischer Gesundheit, um ebensolche datengeschützten Lösungen für Hilfesuchende und Hilfeleistende zu entwickeln. Gemeinsam mit einem Gastwissenschaftler vom Indian Institute of Technology Delhi hat ihr Team eine Studie verfasst, eine Art Leitfaden für die KI mit Schweigepflicht.
In der im Wissenschaftsmagazin „Nature Computational Science“ veröffentlichten Forschungsarbeit beschreiben die Forscher, wie KI-Systeme so entworfen werden können, dass sie sensible Informationen von Patienten nicht preisgeben. Etwa dadurch, dass personenbezogene Daten entfernt, Stimmen und Gesichter in aufgezeichneten Patientengesprächen oder Videos anonymisiert, KI-Modelle gleich auf Datenschutz trainiert und sogenannte synthetische Daten erzeugt werden. „Das sind abstrahierte Daten von echten Patientenfällen, die auf eine Ebene gehoben werden, die klinisch relevant ist, dennoch nichts Persönliches preisgibt“, erklärt Gurevych. Es entsteht quasi ein künstlicher Patient, für den kein Datenschutz nötig ist.
Die Wissenschaftler haben dafür mit Medizinern und medizinischen Einrichtungen gesprochen und Literatur gesichtet, um zu ergründen, was alles in einer echten Patientenakte unter Datenschutz fällt. Mit dem Leitfaden „wollen wir dieses Wissen gezielt bereitstellen“, sagt die Informatikerin. Die datengeschützten KI-Lösungen sollen unter anderem eine frühere Hilfe bei psychischen Problemen, eine bessere Diagnostik, eine Unterstützung bei Therapiegesprächen oder auch die Entwicklung von Sprachmodellen für Therapien ermöglichen.
„KI wird in der Psychotherapie bisher kaum genutzt“
Bisher werde KI so gut wie gar nicht genutzt, um psychisch Kranken zu helfen, so Gurevych. Es gebe zwar erste Versuche mit großen Sprachmodellen, aber meist fehle es an technischer Expertise, Ausstattung und Personal, das mit KI umgehen könne. „Das gehört noch nicht zum üblichen Portfolio einer deutschen Klinik.“ Das Interesse an der Forschung sei jedoch groß, schon allein wegen des Mangels an Psychologen und der Überlastung des Gesundheitswesens. „KI kann helfen, die eingehenden Anrufe bei der Ersten Hilfe in Kliniken oder Praxen besser zu filtern und zu priorisieren“, sagt die Professorin. „So kann in besonders akuten Fällen rasch Hilfe geleistet werden.“ Von Psychologen betreute Apps könnten zudem im Notfall eine erste Krisenintervention unterstützen. Auch das wäre eine Entlastung für Betroffene und Angehörige.
Die Informatikerin ist überzeugt, dass der Nutzen bei psychischen Erkrankungen vielfältig ist. So könne KI die Gespräche zwischen dem medizinischen Personal sowie Therapeuten und Betroffenen automatisch erfassen, diagnostisch auswerten und dokumentieren. „Das führt zur Entlastung, mehr Effizienz im Klinikalltag und mehr Zeit für Patienten.“ Großes Potential schreibt sie auch KI-unterstützten Bildungsangeboten zu. Kritisch sieht die Forscherin allerdings den unkontrollierten Einsatz von Sprachmodellen. Zuletzt waren Systeme wie ChatGPT in die Kritik geraten, nachdem Jugendliche Suizid begangen hatten, die im Austausch mit Chatbots standen. Ein KI-Agent statt ausgebildetes Personal? Das hält Gurevych derzeit für mehr als schwierig.
Mit ihrer Arbeit, die unter anderem vom Nationalen Forschungszentrum für angewandte Cybersicherheit in Darmstadt gefördert wird, will Gurevych das Thema Datenschutz und Privatheit ins Bewusstsein der Wissenschaftlergemeinde rücken, damit rasch neue Einsatzmöglichkeiten von KI bei psychischen Erkrankungen entwickelt werden können. Im Sommer werden sich internationale Computerlinguisten auf einer Konferenz in Kalifornien damit befassen. Gurevych hat hierfür mit Wissenschaftlern der TU Darmstadt und internationalen Kollegen ein Positionspapier erarbeitet. Sie hofft auf die nötige Aufmerksamkeit, um die Forschung auf diesem Gebiet international voranzubringen.
