Ob das Fitness-Armband oder die App-gesteuerte Vernetzung von Ärzten, Apothekern und Patienten: Hinter diesen Helfern steckt vermehrt Künstliche Intelligenz (KI). Neue Methoden in der Diagnostik werden KI-assistiert entwickelt, Entscheidungsgrundlagen für eine Therapie maschinell vorbereitet. Entscheiden wird der Mensch weiterhin – und er trägt die Verantwortung…
Von Jan Thomas Otte
Der Sommerurlaub ist vorbei und viele haben ihn entweder mit Google Maps verbracht, einer anderen App oder doch der guten alten Landkarte. Ob ein sich andeutender Stau auf der Autobahn bei der Routenfindung oder das wachsende Karzinom bei der Krebsvorsorge: Eine einfache Entfernungsrechnung kann der Mensch vornehmen, auch eigene Erfahrungen mit einbringen. Aber die schiere Menge an Daten von zehntausenden Nutzern in der gleichen Situation direkt auszuwerten, das überfordert uns in dieser Komplexität und Geschwindigkeit. Entscheiden müssen wir trotzdem.
Markus Bönig ist fest der Meinung, dass KI-Systeme schon bald ihren Durchbruch erleben werden, in einem schleichendenden Prozess, flächendeckend. Gerade im Gesundheitswesen bedürfe KI aber einer genauen Risikoabschätzung. Das Nichtergreifen der Chance bestimmter Techniken wäre allerdings das größte Risiko, so Bönig. Vor acht Jahren hat der 44jährige Diplom-Kaufmann beim IT-Riesen Cisco dafür seine Festanstellung gekündigt. Mit seinen KI-Startups will er noch mehr „Impact“ generieren. Der Geschäftsführer von vitabook und Qonsilus, einem KI-Anbieter im Gesundheitsbereich, beschäftigt heute 25 Mitarbeiter.
Kraftverstärker menschlicher Fähigkeiten
Künstliche Intelligenz versteht Bönig als Kraftverstärker eines Teils menschlicher Fähigkeiten. Am Ende trage, ähnlich wie beim selbstfahrenden Auto, immer noch der Mensch die Verantwortung darüber, wieweit die KI-Assistenten teil- oder voll-autonom eingesetzt werden. „Sie selbst entscheiden darüber, ob Sie nur den Abstandsassistenten nutzen oder komplett die Hände hinterm Lenkrad verschränken“. Bönig sieht in KI entscheidende Verbesserungen, besonders im Umgang mit Fehldiagnosen und Therapieentscheidungen. „Der Mensch ist in seinen Entscheidungen fehlbar, kann komplexe Fakten nur bedingt überblicken und berücksichtigen und kennt aktuelles medizinisches Wissen häufig gar nicht und neigt natürlich auch zur Selbstüberschätzung“.
Mitlernende Qualitätskontrolle
Ärzte durchlaufen ein langes Studium, die mehrjährige Ausbildung zum Facharzt mit diversen Zusatzqualifikation. Danach komme in der Niederlassung aber viele Jahre keine weitere Qualitätskontrolle. Gerade bei der Anamnese, konkreten Fragestellungen und Differenzialdiagnosen sieht Bönig Handlungsbedarf. Menschliche Erkenntnisse basieren auf Fakten, so Bönig. Und die stammen aus unterschiedlichen Quellen. „Die Datenbasis eines Arztes, die auf dem einzigen Input eines Quartalsbesuchs basiert, ist demgegenüber meist zu dünn“.
Bönigs Gesundheits-App Patient.Plus liefert dafür neben den Daten des Arztes eine Grundlage. Die App ist mit dem „vitabook“, einer digitalen Krankenakte, verknüpft und erleichtert die Dokumentation der eigenen gesundheitlichen Entwicklung sowie das Speichern und Teilen ärztlicher Diagnosen und Behandlungsverläufe.
Serverfarmen „made in Germany“
Bönigs Algorithmen werten laufend riesige Datenmengen aus, einer ausgelagerte, riesige Serverfarm macht das möglich. Hinter der eingesetzten „Microsoft Cloud“ stehen zwei Rechenzentren der Deutschen Telekom, die in Deutschland stehen und Microsoft-Technologie einsetzen. Die Server-Infrastruktur, Speicherplatz und Rechenleistung werden stetig erweitert, den wachsenden Bedürfnissen angepasst, Big Data auszuwerten. „Wir kaufen die Technologie, schicken aber keine Daten zur Auswertung“, versichert Bönig.
Olaf Göing, Chefarzt des Sana Klinikums Lichtenberg, arbeitet mit Markus Bönig in einem KI-Pilotprojekt und freut sich über den neuen direkten „Rückkanal“ zwischen Arzt und Patient. Bönig und sein Team wollen mithilfe künstlicher Intelligenz die Ärzte des Klinikums in ihrer Fähigkeit unterstützen, Patienten im Rahmen einer Therapie die richtigen Fragen zu stellen, die der Patient durch Beobachtungen und eigene Messungen fortlaufend beantwortet und das mit der App Patient.Plus dokumentiert. Bönig: „Nur so könnten Ärzte alle Antworten bekommen, die, ergänzt um die Einschätzungen des Arztes, für eine individuelle Therapie nötig sind.“
Im Behandlungszimmer geht es im Bereich der intelligenten, mitlernenden und – denkenden Maschinen um die Analyse von Blutproben, Röntgen- oder Ultraschallbildern. KI hilft dabei, die gesammelten Laborwerte zentralisiert auszuwerten. Das hilft der Mustererkennung des Arztes, der so viele Fälle in seinem Berufsleben am Stück niemals sehen würde.
Algorithmen als Entscheidungsvorleger
Armin Grunwald, Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag, hat kürzlich ein KI-kritisches Buch geschrieben: “Der unterlegene Mensch”. Wie geht der Arzt vor im Konfliktfall, wenn Algorithmen im System etwas anderes darstellen als das, was der Mediziner als persönlichen Eindruck vom Patienten gewonnen hat? Die Verantwortung, eine Entscheidung zu treffen, bleibe weiterhin beim Arzt und nicht beim Algorithmus, findet auch Grundwald. Zumindest im deutschen Sprachraum.
In den USA bestimmen die großen Tech-Giganten nicht nur die Wirtschaft, sondern auch weite Teile der Politik. In China hat der Staat selbst ein offenkundiges Interesse an gesteigerter Sozialkontrolle und baut ganze Großstädte mittlerweile als „Smart Cities“ um ihre Bewohner besser zu steuern. Im deutschen Sprachraum, nach den USA und China immerhin eine der mächtigsten Volkswirtschaften, stoßen solche autonomen Entwicklungen rundum KI immer noch auf große Vorbehalte. Während die einen den Himmel auf Erden anpreisen und Transhumanisten gar von der Unsterblichkeit träumen, befürchten andere eine Hölle, die nicht rückgängig gemacht werden könne.
Wertvolle Chancen, kein Allheilmittel
„KI macht uns nicht unsterblich, aber gesünder“, resümierte Informatik-Professor Joachim Hornegger, Präsident der Universität Erlangen auf dem letzten Digitalgipfel in Nürnberg zum Thema KI. Das nächste vom Bundeswirtschaftsministerium organisierte Lobbytreffen findet vom 28. bis 29. Oktober 2019 in Dortmund statt.
Bernd Montag, CEO von Siemens Healthineers, sieht diesen Wandel und die damit einhergehenden Herausforderungen moderner Medizin ganz ähnlich. Es gehe darum, dass der Arzt seiner Verantwortung gerecht werde. Die Siemens-Entwickler wollen „Medizin menschlicher” machen. In der Präzisionsmedizin sei das, so Montag, „die richtige Behandlung für den richtigen Patienten zur richtigen Zeit“. Mit der Sammlung und Auswertung von großen Datensätzen in Echtzeit will dies der führende deutsche Technologie-Konzern disruptiv ermöglichen. Und Siemens-Geräte stehen dafür als Datenlieferanten in praktisch jedem Klinikum zur Verfügung.
Technikfolgenabschätzung hält Stefan Heinemann, Professor an der FOM Hochschule und in der Universitätsmedizin Essen tätig, für sinnvoll. Gleichzeitig sorge eine Engführung von künstlicher Intelligenz als „Teufelswerkzeug“ dafür, dass auch wertvolle Therapiechancen eingeengt würden. Künstliche Intelligenz ist für den Digitalethiker Heinemann ebenso wie den KI-Unternehmer Bönig oder Siemens-Healthineers-CEO ein super Tool, ein Werkzeug – kein Allheilmittel. Überall dort, wo es vertretbar ist aus Sicht von Ärzten, Pflegepersonal und anderen Akteuren im Gesundheitsbereich. „KI ist ein Instrument, um sinnvoll menschliche Fähigkeiten zu ergänzen, zu unterstützen.“
Menschliche Fähigkeiten, maschinell unterstützt
Heinemann bemerkt aber auch: „Nicht alles, was wir technisch können, sollten wir auch tun“. Am Ende sei es ein Abwägungsprozess verschiedener Werte, welcher Wert im Einzelfall höher anzusiedeln sei – in der Therapie ebenso wie in der Prävention. Heinemann fordert aktive Aufklärung und mehr Bildung im KI-Bereich, auch außerhalb vom Gesundheitsbereich. „Sich aktiv damit auseinanderzusetzen, dass sehe ich ganz im Sinne der ärztlichen Ethik.“
Einen digitalen Eid für Ärzteschaft und Pflegekräfte im Bereich KI sieht Heinemann kritisch. „Da fehlen uns Erfahrungswerte und Systeme, dass so ein Eid überhaupt wirken kann“. Die Fakten-Basis sei noch gar nicht so klar, außer dass an hohe intrinsische Ideale appelliert werde. „Statt auf Eide sollten wir mehr auf Aufklärung setzen, auf eine gute, moderne medizinische Ausbildung“.
Autor: Jan Thomas Otte ist Diplom-Theologe, promoviert zum Thema “Künstliche Intelligenz und Verantwortung” (#ResponsibleAI) an der Universität Luzern am Institut für Sozialethik und ist mit einer Ärztin verheiratet.