KI im deutschen Gesundheitswesen – schleppende Implementierung, wenig Daten und der Faktor Mensch

Wie lässt sich Künstliche Intelligenz erfolgreich im Gesundheitswesen einsetzen? Woran scheitert die konkrete Implementierung von KI in deutschen Kliniken? Für Lorena Jaume-Palasi, Executive Director bei The Ethical Tech Society, ist der Faktor Mensch entscheidend.

Aus datenschutzrechlichen Gründen benötigt YouTube Ihre Einwilligung um geladen zu werden. Mehr Informationen finden Sie unter Datenschutzerklärung.
Akzeptieren

Im Interview mit Lorena Jaume-Palasi – Executive Director, The Ethical Tech Society

Künstliche Intelligenz gilt im Gesundheitswesen als Schlüsseltechnologie der Zukunft. Die zunehmende Digitalisierung von Patientendaten in Form von Befunddaten, Röntgenbildern, Blutanalysen und Fortschritte in der Genanalyse führen zu einer regelrechten Datenexplosion im Gesundheitssektor, die es sinnvoll zu nutzen gilt. Nur eine intelligente Analyse der Daten kann dazu beitragen, gesundheitliche Prävention und Vorsorge zu optimieren. Dafür sind nicht nur geeignete Technologien und Algorithmen erforderlich, sondern auch funktionierende Netzwerke und Plattformen, die zu einer erfolgreichen Kooperation und Kommunikation aller beteiligten Stakeholder beitragen. Laut einer Studie von PwC sind 64 % der Entscheider davon überzeugt, dass KI das deutsche Gesundheitswesen grundlegend verändern wird. Dennoch lässt sich der konkrete Einsatz von KI-basierten Lösungen in Deutschland bisher kaum beobachten. Lorena Jaume-Palasi forscht bei The Ethical Tech Society zum Thema Ethik in der Technik. Ihrer Meinung nach liegen die primären Ursachen dafür nicht in der Abwesenheit von geeigneten Technologien, sondern in der Vernachlässigung von sozialen und gesellschaftlichen Faktoren bei der konkreten Implementierung von neuen, disruptiven Lösungen. So seien KI-basierte Lösungen noch nicht soweit automatisiert wie vermutet. Gerade bei Einführung müsse viel mechanische Arbeit getätigt werden, wobei ein großes Pensum dieser Arbeit vom medizinischen Personal geleistet werden müsse. Dies kann zusätzliche Stressfaktoren und Risikoparameter beinhalten und zu bestimmten Auswirkungen und Problemen führen, die vorher nicht existierten. Eine weitere Ursache sieht Jaume-Palasi in den problematischen Datenkohorten. Konkret mangelt es in Deutschland an zu wenig verfügbaren Daten: „Die derzeit genutzten Technologien und Algorithmen können wie ein Skelett betrachtet werden, die dazugehörigen Muskeln sind aus Daten gemacht. Ein Skelett ohne Muskeln funktioniert nicht und momentan verharren wir in diesem Zustand.“

Interview mit Lorena Jaume-Palasi, Executive Director The Ethical Tech Society

Frau Lorena Jaume-Palasi, herzlich willkommen! Sie sind Executive Director bei The Ethical Tech Society und forschen zum Thema Ethik in der Technik. Können Sie uns ein wenig genauer erläutern, mit welchen Forschungsfragen Sie sich beschäftigen.

Ich beschäftige mich sehr viel mit Forschungsfragen, die immer etwas mit den sozialen Auswirkungen von Technik zu tun haben. Wir haben im Sommer auf der Volksbühne zum Beispiel über die Zukunft der Demokratie bzw. Utopien nachgedacht und inwiefern man Technologie dafür nutzen kann bestimmte Utopien zu entwerfen. Da geht es eben nicht nur um den utopischen Diskurs über Technologien, sondern auch um einen konstruktiven Diskurs über Technologien, das heißt wir gucken nicht nur auf die Technologie aus der Sicht des technischen, sondern auch aus einer Decision Sicht, sondern es geht viel mehr darum zu verstehen, wie kreieren Menschen Technologien und was machen sie daraus. Welche sozialen Konflikte aber auch welche sozialen Veränderungen ergeben sich dabei. Das bedeutet, dass im Prinzip alle möglichen Aspekte bei unserer Forschung in Betracht kommen. Einerseits geht es darum zu verstehen, welche Probleme aufgrund der Technologie manifestiert werden oder durch Technologie verursacht werden und zu verstehen, dass nicht nur inhärente, mathematische Bias, die die Technologie in sich trägt und im Gesamtbild zu betrachten. Das ist nämlich nur ein Teil der gesamten Geschichte. Durch die Implementierung solcher Technologien in der Gesellschaft und der Interaktion durch Menschen und Maschine, und Mensch und Programm, ergeben sich auch Veränderungen, denn Menschen Kreieren Technologien und die Nutzer machen etwas völlig anderes daraus. Das bringt Verzerrungen in der Technologie und aus dieser Interaktion ergeben sich dann auch Auswertungen, ob diese Technologie richtig funktioniert, oder nicht. Auch bei dieser Interpretation, dieser Auswertung ergeben sich nochmal Situationen der Verzerrung und des Missverständnisses und all das ist was die Verzerrung, den gesamten Bias bei einer Technologie ausmacht. Das zu verstehen und sich nicht nur auf den mathematischen Bias zu konzentrieren, sondern auch diese Mensch-Maschine und Mensch-Programme Interaktion mehr zu verstehen, das ist ein Anliegen. Denn darüber wissen wir recht wenig, das gibt es nicht so viel in der Forschung. Eine andere Sache, die wir auch machen ist, Koalitionsmittel zu entwickeln wie man Technologien von Innen bewerten und auditieren kann und diesen Technologien auf den Zahn fühlen kann. Und als letztes glaube ich, dass wir mehr Theorien brauchen, denn wir reden die ganze Zeit über Zahlen und Fakten, aber fakt ist auch, dass Zahlen sich immer in sehr verschiedene Richtungen interpretieren lassen. Das heißt es ist wichtig, dann auch weiterhin zu theoretisieren und alles in einem Kontext zu stellen und das machen wir auch. Ich finde es muss mehr Nutzen-Theorien geben.

Theorien konkret zu welchen Aspekten?

Technologie und soziale Auswirkungen und dem Verständnis von Technologie. Ich bin der Meinung, dass wenn wir über künstliche Intelligenz (KI) sprechen, dass wir da eine Menge projizieren, von unserer Kultur aus, das nicht unmittelbar viel über die Technologie aussagt, sondern viel mehr über uns als Kultur. Und ich glaube, dass wir teilweise, grade was Künstliche Intelligenz (KI) betrifft in so eine Diskussion geraten sind, die zeigt, dass wir nicht verstanden haben, was diese Technologie ist und was es mit unserer Gesellschaft macht. Teilweise, weil wir immer sehr individualistisch und methodologisch betrachtet immer sehr individualistische Herangehensweisen haben, um Technologien zu verstehen. Das führt dazu, dass wir in der Natur der Sache vorbei gehen. Und ein Angebot zu machen, wie man Technologie anders verstehen kann, ist etwas woran wir arbeiten.

Wir sind heute auf dem Europäischen Gesundheitskongress. Wie bewerten Sie den klinischen Nutzen für KI? Und wenn wir das Gesundheitssystem als soziales System betrachten und Sie von Verzerrungen sprechen, was bedeutet das für das Gesundheitssystem?

Es gibt verschiedene Ebenen wie man das betrachten kann. Zunächst gibt es die Ebene der Konzeptionalisierung. Da sehen wir momentan, dass viele Konzepte entwickelt werden, rein technologisch, um die Mediziner wieder ins Boot zu holen. Das heißt Techniker arbeiten von sich hin ohne das Pflegepersonal, das ärztliche Personal und die Leute aus der Domain, dem Fachbereich zu holen. Das ist problematisch, weil teilweise die entwickelten Technologien nicht ganz die dortigen stattfindenden Prozesse erfassen. Wenn gerade das Medizinpersonal, bzw. das Gesundheitspersonal mit solchen Konzepten konfrontiert wird, das gegen Ende der Konzeptionalisierung im Prinzip vor vollendete Tatsachen hat dann weniger Handhabe dort etwas zu verändern. Man kann folglich nur minimale Anpassungen machen. Auf dieser Ebene brauchen wir mehr Interdisziplinarität und müssen Fach Experten viel früher in die technologischen Konzeptionalisierungphase holen. Das ist notwendig, um eine der Sache und dem Sachverhalt angemessene Technologie zu entwickeln. Auf der anderen Seite, wenn man sich die Ebene Mensch-Maschine und die Interaktionen ansieht, die nicht immer mit den Patienten, sondern mit den Ärzten und dem Pflegepersonal interagiert, stehen wir relativ am Anfang. Wir haben noch gar nicht darüber nachgedacht, was es für Ärzte bedeutet mit bestimmten Formen von Programmen umzugehen. Diese Programme der künstlichen Intelligenz, das klingt alles sehr automatisiert, aber Tatsache ist, dass künstliche Intelligenz viel Handarbeit braucht. Das bedeutet muss manuell sehr viele Korrekturen einfügen und Interaktionen vornehmen, die selbst sehr automatisch und monoton sind. Diese sind sehr langweilig und eine extrem stumpfe Arbeit – und diese können nur Menschen machen. Das bedeutet auch, das ein großes Pensum bei der Einführung von solchen Technologien sehr viel mechanische Arbeit vom medizinischen Personal gefordert ist. Das macht etwas mit einem. Das kann bestimmte Auswirkungen und Stressfaktoren, sowie auch Probleme und Risikofelder eröffnen, die vorher nicht vorhanden waren. Das müssen wir reflektieren und auch das passiert bisher wenig. Das muss mehr gemacht werden. Wenn man sich die Ebene des Patienten ansieht, wie plural die Datenbanken sind und wie plural auch die Software reagiert. Sprich, verwenden wir Programme oder Maschinen, die verstehen, dass wir sehr unterschiedliche Profile haben. Beispielsweise, dass verschiedene statistische Durchschnitte für Körper, oder Körpermaßen, sowie auch der durchschnittliche Mann nicht als Proxi für alle anderen Bevölkerungsteile dienen kann und das sind alles Diskussionen, die wir vor der künstlichen Intelligenz geführt haben, teilweise am Rande und die wir jetzt mehr und mehr führen müssen. Insbesondere, wenn es darum geht tatsächlich dann Prognosen oder Dosierungsempfehlungen auszusprechen und das für sehr unterschiedliche Persönlichkeiten. Dafür werden wir sehr vielfältige, sehr plurale Datenbanken haben müssen, damit auf einer gerechten inklusiven und auf einer gesundheitsfördernden und nicht gesundheitsschädigenden Weise erfolgt.

Wenn ich Sie jetzt richtig zusammenfasse und Sie fragen würde, was sind die größten Hindernisse bei der Implementierung von KI, das sind das für Sie der soziale Faktor, der Faktor „Mensch“. Gibt es denn schon KI basierte Lösungen, die man im Einsatz beobachten kann, wo diese Integration schon gut gelungen ist?

Jein. Man muss sich vorstellen, dass für die Implementierung der algorithmischen Systeme sehr große Mengen an Daten benötigt werden. Das bedeutet Datenbanken von mindestens 5 Jahren und sehr großen Datenmengen, die dann auch strukturiert werden müssen. Wir sprechen derzeit von etwa 1% der Deutschen Krankenhäusern, die solche Technologien einführen und momentan haben die Krankenhäuser jede Menge Arbeit zu tun, um diese Daten zu bereinigen und diese Strukturiertheit vorzunehmen. Momentan sind die Kosten viel höher und die Arbeit viel höher. Aber dies ist zunächst eine Investition in die Zukunft, das mittel- und langfristige Fortschreiten und deswegen können wir in Deutschland zu diesem Thema noch nicht viel sagen.

Was können Sie zu den Erfahrungen aus anderen Ländern dazu? Sie sagen, in Deutschland gäbe es dazu noch keine.

Naja gut, wir haben in Europa insgesamt Probleme mit den Datenkohorten. Wir haben wenig Daten. Man muss sich die derzeitigen Technologien so vorstellen: die Algorithmen sind wie ein Skelett und die Muskeln werden von den Daten ausgemacht. Wenn man nun das Gerät hat, aber keine Muskeln, das funktioniert nicht und momentan stehen wir noch in dieser Schiene. Das heißt in Europa werden technisch sehr spannende Knochen, also Algorithmen entwickelt, aber bei der Implementierung sehen wir, dass in den USA oder in Asien, weil es auch viel mehr Daten gibt, dann diese Muskeln dazu kommen und die tatsächliche Implementierung in der Wirklichkeit dann eher dort geschieht. Es ist sogar ironischerweise so, dass wir deutsche Algorithmen-Entwickler haben, die in Deutschland Sachen entwickeln haben, auch im Rahmen der universitären Laufbahn und dann in die USA gegangen sind, die sie dann als amerikanisches Unternehmen in Europa einführen.

Was würden Sie dem deutschen Gesundheitssystem konkret empfehlen, damit auch in Deutschland die Implementierung von KI schneller voran geht?

Wir regeln im Moment zu viel auf der technischen Ebene, weil wir glauben, dass wenn wir die Technologie regeln auch der Lage Herr werden. Konzepte wie Datenschutzverordnungen sind sehr an der Datenverarbeitung orientiert. Tatsache ist, dass Technologie nicht schläft und sich sehr schnell weiterentwickelt. Es macht mehr Sinn sich mehr auf die gesellschaftlichen Werte zu fokussieren, die man schützen will, als auf die konkrete Entwicklung. Das schafft einen flexibleren Rahmen welche Technologie gewollt ist, und welche nicht, ohne Innovationen zu hemmen. Andererseits wird auch eine soziale Entwicklung ermöglicht. Wenn wir über Daten reden, gehören diese niemanden. Daten sind ein Ausdruck der sozialen Natur von Menschen und wir müssen auch die sozialen Aspekte und die soziale Dimension von Daten verstehen. Diese benötigen wir, um Forschung betreiben zu können. Das bedeutet auch, dass wir künstliche Intelligenz als Basis für Infrastruktur zu verstehen. Wenn wir von Infrastruktur sprechen, dann stellen wir ganz andere Fragen: wir fragen zu Redekonzepten zwischen Wirtschaft und Staat und was der Allgemeinheit gehört, was mit Steuern finanziert wird und was dem Markt eröffnet wird. Wenn wir mehr in diesem rechtlichen Rahmen denken würden, könnten wir bessere Kriterien entwickeln, um diese Technologie zu verstehen. Diese Technologie verstehen wir nicht, denn es ist eine kollektivistische Technologie, es ist Infrastruktur, denn es verändert Kollektive und deswegen disruptiert es auch und skaliert bei Fehlern. Es würde uns auch helfen, diese soziale und öffentliche Dimension zu adressieren, die jetzt momentan viele forschenden in Verzweiflung geraten lässt, weil sie nicht an Daten kommen.