März 2018 erschien im Wirtschaftsmagazin “Forbes” wieder ein Artikel über Künstliche Intelligenz (=KI) innerhalb der Medizin – eine Wechselwirkung, die den Verfassern von “Forbes” am Herzen zu liegen scheint.
Link-> einige Beispiele für KI und Medizin
Am 16.3.2018 fungierten innerhalb des Artikels Medizin, KI und Ethik als Hauptdarsteller – der Faktor Kosteneinsparung wurde diesmal von der Bühne verbannt – Ethik war im Blickpunkt.
Da Entscheidungen innerhalb der Medizin meist erhebliche Konsequenzen haben, werden computerbasierte Entscheidungshilfen allerdings auch zu Recht nach ihrer ethischen Gewichtung hinterfragt.
Zur Beleuchtung der ethischen Stolpersteine erlaube ich mir einige Erklärungen:
Den Definitionsdschungel durch die angloamerikanische intelligence und die deutsche, humanfixierte Intelligenz möchte ich vermeiden und Künstliche Intelligenz(=KI) als automatisiertes intelligentes Verhalten und Maschinenlernen umschreiben.
Eine weitere funktionale Aufteilung in eine schwache KI und eine starke (menschenähnliche) KI scheint mir bei der Erarbeitung ethischer Probleme ebenso hilfreich zu sein.
Die schwache KI unterstützt nur menschliche Entscheidungsfindungen, hat aber dennoch die Fähigkeit des maschinellen Lernens und kann mit unsicheren Ausgangslagen sowie deren Wahrscheinlichkeiten umgehen.
Die schwache KI arbeitet mit mathematischen und logischen Algorithmen, besitzt zu keiner Zeit ein eigenes Bewusstsein – der Lernvorgang muss aber schon im KI-System integriert sein – nachträgliches, imperatives Programmieren sollte nicht sein.
Ich durfte selber einige Jahre mit dem Entwicklungssystem Personal Consultant Plus von TI arbeiten und kann mich gut an die Stellschrauben der certainty factors erinnern, die sich das XP-System bei gehäuftem Einsatz auch selber verstellen kann.
Und hier kommt die unmittelbare ethische Verantwortung der menschlichen Erstanwender zum Tragen, der ja den Umfang des maschinellen Lernens und damit die Selbstregulierung des Systems beeinflussen – was wiederum bedeutet:
Jeder Einsatz von KI innerhalb der Medizin muss von Ärzten ( nicht Technikern, „Gesundheitsexperten“ oder gar Patientenanwälten) überwacht werden, da sich KI-Systeme weiterentwickeln und genauso wie Menschen Falsches lernen können und dadurch falsch entscheiden.
Gefährlich wäre dann der nächste Schritt: die sofortige Weitergabe falscher KI-Daten in ein kollektives, maschinelles Wissen, wo es ungeprüft und überhastet zum Schaden anderer weiterverwendet werden könnte.
Link-> Use of Artificial Intelligence Raises Ethical Questions.
Der Unterschied zwischen gebräuchlicher Programmierung mit eindeutiger Verantwortung und einer selbstlernenden KI, die selbsterweiternd ist, kann nicht deutlich genug wiederholt werden.
Aus der bekannten, klar imperativen Programmierung wird eine zunehmend logisch autonom agierende Entscheidungshilfe, die man durch Konfrontation mit unbedingt unverfälschten Informationen sorgsam „erziehen“ muss.
KI wird noch über einen sehr, sehr langen Zeitraum lediglich „decision support“ sein, nur bei zeitweisem starkem Mangel an ärztlichen Personal, wie in Kriegs- und Katastrophenzeiten, wird die Gewichtung sich mittelfristig verschieben. Es ist möglicherweise im militärischen Gefechtseinsatz mit autonom entscheidender medizinischer Notfall-KI zu rechnen.
Link-> AI in Emergency – Hope or Hype?
Zum Abschluss noch ein kurzes Video über Röntgendiagnostik und KI
facit: die Vorteile der KI in der Medizin werden etwaige Probleme wohl deutlich überwiegen. Wichtig ist die Erkenntnis, mit der KI über ein Werkzeug zu verfügen, welches völlig neue Verantwortungsbereiche durch das Angebot der Lerninhalte schafft.
Günter Koderhold