Seiteninhalt
Ein Ja zu KI in der Medizin – aber nur mit Genfer Gelöbnis

Panel Ethische Verantwortung in der Algorithmen-Medizin
Ja, lautet die Antwort der drei Ärzt:innen im Panel „Ethische Verantwortung in der Algorithmen-Medizin“: Die Ärzteschaft sei zunehmend auf die künstlichen Kolleg:innen angewiesen. Zum Wohle der Patient:innen müsse sie sich aber ganz auf die Vertrauenswürdigkeit der KI-Systeme verlassen können.
Zum Einstieg in das Panel brachte Moderator Prof. Dr. Ivica Grgic ein Experiment mit. Der Nephrologe von der Uniklinik Marburg und Gießen spielte einen anderthalbminütigen Clip ab, für den er einen Avatar erstellte und diesen einem fiktiven Patienten eine verheerende Krebsdiagnose überbringen ließ. „Sie sind mit dieser Diagnose nicht allein“, sagt die Kunstfigur am Ende seines Vortrags dem gedachten Todeskandidaten und dass „wir“ – also das Ärzteteam – für die bestmögliche Behandlung sorgen würden.
Wo Ärzt:innen nicht zu ersetzen sind
Die Zuschauer:innen in Box 2 der DMEA-Halle 6.2 fanden das Szenario ziemlich irritierend, wie eine Sofort-Umfrage ergab: „unheimlich“, „nicht vertrauenswürdig“, „kalt“ liefen als Schlagworte in den Reaktionschat ein. „Würde mich trotzdem alleine mit der Diagnose fühlen“, lautete eine Antwort. Auch die drei Medizinexpert:innen im Panel waren von dem Szenario einigermaßen erschüttert.
„Die KI kann Fakten mitteilen, aber auf den Schock, den eine Patientin oder ein Patient in solch einem Moment erleidet, kann sie nicht reagieren“, stellte Dr. Irmgard Landgraf fest, die in Berlin eine Hausarztpraxis leitet und sich als Vorstandsmitglied der Berliner Ärztekammer mit ärztlicher Ethik in der digitalen Medizin befasst. KI könne Patient:innen zum Beispiel gut einen Überblick über Therapiemöglichkeiten geben. Aber wo es um den Menschen und seine Gefühle gehe, „da sind wir Ärztinnen und Ärzte nicht zu ersetzen“.
Es gibt kein Wir von Mensch und KI
„KI kann nicht empathisch sein, sie kann nur so tun, als sei sie empathisch, das aber ist eine rein oberflächliche Inszenierung“, stellte Prof. Dr. Martin Christian Hirsch klar. Er ist Leiter des Instituts für KI in der Medizin der Uni Marburg und Mitgründer der Diagnostik-App Ada Health. Ki habe auch kein Verständnis von den Dingen, über die sie rede. Deshalb dürfe sie auch nie von „Wir“ reden und beim menschlichen Gegenüber kein Wir-Gefühl erzeugen. „Es gibt kein Wir“, betonte Hirsch. Menschen teilten Gefühle und Bedürfnisse. „Wenn ein KI-Avatar mir sagt: Wir finden eine Lösung, ist das falsch, denn er ist von einer ganz anderen Entität als ich. Ich sitze hier in der physischen Welt, er hinter RAM-Speichern. Wo ist das Wir?“
Mit Siegel und Kontrollen: Europas Chance im Medizinsektor
Wegen solcher Szenarien fordern die Ärzt:innen in dem Panel einhellig, dass IT-Entwickler im medizinischen Bereich auf das Genfer Gelübde verpflichtet werden sollten – also wie die Ärzt:innen de facto ein Bekenntnis dazu ablegen müssen, dass das Wohl der Patient:innen stets im Vordergrund steht. „Meiner Meinung nach wird Ethik in der Medizin ein Geschäftsmodell werden“, sagte Dr. Christian Becker, Kardiologe an der Unimedizin Göttingen und Sprecher der AG Junge DGIM (Deutsche Gesellschaft für Innere Medizin). „Ich hätte jedenfalls Bauchschmerzen damit, eine ethisch ungerahmte KI zu nutzen, die zum Beispiel Medikamente verschreiben darf.“ Europa habe hier mit dem AI Act die Chance, „ganz vorne dabei zu sein“, wenn es um die Entwicklung von vertrauenswürdiger KI gehe.
Sie könne sich absolut vorstellen, mit einem KI-Kollegen in ihrer Hausarztpraxis zu arbeiten, der für sie und die Patient:innen das aktuelle Fachwissen parat habe, ergänzte Irmgard Landgraf. Aber eine solche KI müsse ethisch vertrauenswürdig sein – am besten zertifiziert mit Siegel und Kontrollen.