Künstliche Intelligenz, Medizin & Biotech, News, zAufi

Forscher: Plauder-KIs liefern teils gefährliche medizinische Tipps

Stephen Gilbert. Foto: EKFZ

Stephen Gilbert. Foto: EKFZ

Zertifizierung von Chatbots als Medizinprodukt gefordert

Dresden, 3. Juli 2023. Frei zugängliche „Künstliche Intelligenzen“ (KI) wie ChatGPT sind keine zuverlässige Quelle für medizinischen Rat. Darauf hat Prof. Stephen Gilbert vom „Else-Kröner-Fresenius-Center for Digital Health“ der TU Dresden hingewiesen. Da aber mehr und mehr Kranke Symptome und Gegenmitteln googeln, der wachsende KI-Einsatz in Suchmaschinen zudem absehbar sei, fordert Gilbert daher Zertifizierungs-Verfahren für solche virtuellen Plaudersysteme (Chatbots), wie sie für Medinzinprodukte üblich sind.

62 % der Deutschen konsultieren zuerst Dr. Google

Laut einer Bitkom-Umfrage konsultieren 62 Prozent der Deutschen „Dr. Google“ oder andere internet- beziehungsweise app-gestützte Quellen, bevor sie einen echten Arzt aufsuchen. Zum Vergleich: 2020 lag diese Quote erst bei 53 Prozent. Und weil KIs inzwischen verblüffend ausführliche Erklärungen liefern können, neigen wwomöglich mehr und mehr Internetnutzer dazu, den so erlangten Informationen zu vertrauen, befürchten Mediziner.

Es habe sich gezeigt, dass derartige Unterhaltungs-KIs „äußerst gefährliche Informationen liefern können, wenn sie mit medizinischen Fragen konfrontiert werden“, schätzen Gilbert und seine Kollegen ein. „Sie generieren sie oft äußerst überzeugende Aussagen, die nachweislich falsch sind oder unangemessene Antworten liefern.“ Insbesondere würden die KIs keine „medizinischen Grundwahrheiten“ kennen, also eine „Prozessmethode, die sicherstellt, dass die der Analyse zu Grunde gelegten Daten aktuell, präzise, vollständig und bestens gepflegt sind“.

Gilberts Forderung „Um sich ihren Platz im medizinischen Repertoire zu verdienen, müssen Chatbots für eine höhere Genauigkeit konzipiert werden, wobei Sicherheit und klinische Wirksamkeit nachgewiesen und von den Aufsichtsbehörden genehmigt werden müssen.“

Quellen: TUD, Bitkom

Wissenschaftliche Publikation:

Stephen Gilbert, Hugh Harvey, Tom Melvin, Erik Vollebregt, Paul Wicks: „Large language model AI chatbots require approval as medical devices“, in: „Nature Medicin“. DOI: 10.1038/s41591-023-02412-6

Repro: Oiger, Original: Madeleine Arndt