Mittlerweile kann die künstliche Intelligenz (KI) Hautärzte dabei unterstützen, Hautkrebs zu erkennen. Die erfolgreiche klinische Anwendung hängt jedoch von der Akzeptanz durch Patienten und Dermatologen ab. Derzeit misstrauen etliche Ärzte, aber auch Patienten, noch den Entscheidungen der KI. Eine prospektive, multizentrische Studie untersuchte die entscheidenden Kriterien für die Akzeptanz von KI-Systemen durch Patienten und Dermatologen. Dabei wurde besonders deren Bedeutung für die Entscheidungsfindung im Hinblick auf den Einsatz solcher Systeme bewertet.
KI-Systeme müssen nachvollziehbar sein
Die Daten von 293 Befragten (178 Patienten und 115 Dermatologen, Rücklaufquote: 63%) zeigten eine positive allgemeine Einstellung zu KI-Systemen. Generell gehörten dabei Diagnosegenauigkeit und Erklärbarkeit zu den wichtigsten KI-Merkmale bei der Entscheidungsfindung. So wurden KI-Systeme von 42% der Patienten und knapp der Hälfte der Dermatologen als inakzeptabel angesehen, wenn weder der Dermatologe noch der Patient die Bewertung nachvollziehen konnten. Wenn die KI-Systeme keine Erklärungen für den Einzelfall lieferten, wurden sie von 37% der Patienten und 36% der Dermatologen sogar systematisch ausgeschlossen.
Präferenzen von Patienten und Dermatologen unterscheiden sich
Die Patienten bevorzugten außerdem eine KI-Bewertung, die für Patienten und Kliniker nachvollziehbar war. Die Dermatologen bevorzugten wiederum eine Multiklassen-Differenzierung zwischen verschiedenen Erkrankungen. Insbesondere wurde die Unterscheidung zwischen Melanomen und Nävi noch als unzureichend angesehen. Die Teilnehmer gaben außerdem eine bessere Erklärbarkeit an, wenn sowohl die Entscheidungskriterien als auch die relevanten Bildbereiche angezeigt wurden.
KI-Systeme müssen sich über reine Leistungssteigerungen hinaus weiterentwickeln
Die aktuelle KI-Forschung orientiert sich hauptsächlich an der Performance. Patienten und Dermatologen benötigen jedoch KI-Systeme, die die Gründe für ihre Entscheidungen erklären. Diese wachsende Nachfrage nach erklärbarer KI stellt eine große Herausforderung für die Forschung dar, da der aktuelle Stand der Technik die Gründe für seine Entscheidungen nicht vollständig erklärt. Dies ist auf das Phänomen der Black Box der KI zurückzuführen, d. h. auf eine mangelnde Transparenz bei der Ausführung von Operationen innerhalb eines komplexen KI-Modells.
Deutsches Krebsforschungszentrum entwickelte KI-System, das Entscheidungen erklärt
Eine Lösung für dieses Problem könnte aus Deutschland kommen. So entwickelten Wissenschaftler im Deutschen Krebsforschungszentrum ein KI-basiertes Unterstützungssystem für die Hautkrebsdiagnostik, dass seine Entscheidungen erklärt. Das System verwendet dabei etablierte Diagnose-Merkmale, die sich auf bestimmte Bereiche der verdächtigen Läsionen beziehen. Es zeigte sich, dass mit den Erklärungen der KI das Vertrauen der Mediziner in die Entscheidungen der Maschine, sowie auch in ihre eigenen Diagnosen deutlich gesteigert wurde [2].