Studie zu Chatbots

KI ersetzt keine professionelle Beratung bei Arzneimitteln

Berlin - 14.10.2024, 10:45 Uhr

(Foto: DAZ/Schelbert)

(Foto: DAZ/Schelbert)


KI-unterstützte Suchmaschinen liefern nicht immer zuverlässige Antworten zu Arzneimitteln, wie eine Studie nun ergab. Die Forscher fordern daher Warnhinweise.

Apothekerinnen und Apotheker sind gegenüber sogenannter Künstlicher Intelligenz misstrauisch. Das ergab die Apokix-Umfrage vor einem Jahr. Die größten Herausforderungen sahen die Befragten bei Haftungsrisiken und auch bei der Verlässlichkeit.

Eine Studie im Fachjournal „BMJ Quality & Safety“ gibt ihnen nun recht: KI-unterstützte Suchmaschinen und Chatbots liefern ihr zufolge keine zuverlässigen Informationen zu Arzneimitteln. Die Antworten seien wiederholt ungenau und unvollständig gewesen und oft schlecht verständlich, schreiben die Forschenden. Sie raten deshalb zu Vorsicht und fordern Warnhinweise für Nutzerinnen und Nutzer.

„Ein zentrales Ergebnis unserer Untersuchung ist, dass die Qualität der Chatbot-Antworten bislang nicht zur sicheren Anwendung für Nutzer ausreichend ist“, erläuterte Erstautor Wahram Andrikyan vom Institut für Experimentelle und Klinische Pharmakologie und Toxikologie der Universität Erlangen. „Ein deutlicher Hinweis, dass die vom Chatbot bereitgestellten Informationen keinen professionellen Rat ersetzen können, ist unserer Meinung nach daher unerlässlich.“

Ungenauigkeiten sind für Laien nicht erkennbar

Ausgangspunkt der Studie sei die Erfahrung gewesen, dass sich Patientinnen und Patienten im Internet über verschriebene Medikamente informierten. Deshalb stellten die Forschenden dem KI-gestützten Chatbot der Microsoft-Suchmaschine Bing im April 2023 zehn häufige Fragen zu den 50 meist verordneten Medikamenten in den USA, darunter Fragen zur Einnahme, zu Nebenwirkungen oder Gegenanzeigen.

Generell habe der Chatbot die Fragen mit hoher Vollständigkeit und Genauigkeit beantwortet, sagte Andrikyan. Doch bei manchen Fragen sei das nicht der Fall gewesen. „Dies birgt ein Risiko für Patienten, da sie als medizinische Laien die Genauigkeit und Vollständigkeit der KI-generierten Antworten selbst nicht einschätzen können“, sagte Andrikyan.

Verbesserungen bei KI reichen nicht aus

Zwar habe es seit der Untersuchung im vergangenen Jahr rasante Fortschritte bei KI-gestützten Suchmaschinen mit integrierter Chatbot-Funktion gegeben, betonte der Experte. Die Verbesserungen seien aber nicht ausreichend, die Risiken für die Patientensicherheit blieben bis auf Weiteres bestehen. Da Chatbots jedoch mit unterschiedlichen Datensätzen trainiert werden, hält er es für sinnvoll, die Sicherheit und Qualität anderer technischer Systeme ebenfalls zu untersuchen.


dpa-AFX / DAZ.online
redaktion@daz.online


Diesen Artikel teilen:


Das könnte Sie auch interessieren

Unterstützung bei Textproduktion und Webseitenmanagement

KI im Apothekenalltag einsetzen

WHO-Leitfaden zur Künstlichen Intelligenz

Welche Chancen und Risiken bietet KI im Gesundheitswesen?

Hohe Erfolgsraten dank neuer Technologien

Wie künstliche Intelligenz die Biopharmazie beflügelt

Worauf zu achten ist, wenn künstliche Intelligenz in Apotheken genutzt wird

Risiken und Nebenwirkungen von KI

0 Kommentare

Kommentar abgeben

 

Ich akzeptiere die allgemeinen Verhaltensregeln (Netiquette).

Ich möchte über Antworten auf diesen Kommentar per E-Mail benachrichtigt werden.

Sie müssen alle Felder ausfüllen und die allgemeinen Verhaltensregeln akzeptieren, um fortfahren zu können.