Eine Jugendliche sitzt auf dem Sofa. Sie hat den Arm auf der Lehne abgestützt und ihren Kopf auf die Hand gestützt. Dabei blickt sie missmutig in ihr Smartphone.© TatyanaGl / iStock / Getty Images Plus
Viel mehr als lustige Videos: Soziale Medien sind zur Informations- und Nachrichtenquelle geworden, besonders bei jungen Menschen. Bei Gesundheitsfragen kann das fatal sein.

ChatGPT und TikTok

GESUNDHEITSTIPPS AUS DEM INTERNET SIND OFT FALSCH

Das Internet wird oft als Informationsquelle genutzt. Es weiß die Öffnungszeiten der Post, wer das Fußballspiel gewonnen hat und wie viel Zucker eine Banane enthält. Aber was passiert, wenn man eine medizinische Frage stellt? Studien haben das untersucht.

Seite 1/1 4 Minuten

Seite 1/1 4 Minuten

ChatGPT, TikTok und andere Online-Medien sind vor allem bei jungen Menschen beliebt. Sie nutzen sie nicht nur zur Unterhaltung, sondern auch als Nachrichten- und Informationsquelle. Auch Fragen, die die Gesundheit betreffen, werden hier beantwortet. Studien zeigen nun: das kann ganz schön schiefgehen.

Forscherteams haben die Qualität der Gesundheitsbeiträge auf TikTok untersucht und auch ChatGPT Gesundheitsfragen gestellt. Das Ergebnis beweist, dass man sich besser an menschliches Fachpersonal wendet.

100 Gesundheitsfragen an ChatGPT

Im Unterschied zu Suchmaschinen kann der Nutzer Sprachsystemen wie ChatGPT eine ausformulierte Frage stellen. Diese sogenannten Prompts können deutlich länger und detaillierter sein als die Eingaben bei Suchmaschinen. Das beeinflusst das Ergebnis, zeigen die Informatiker Bevan Koopman und Guido Zuccon von der University of Queensland in Brisbane, Australien.

Sie haben ChatGPT 100 Gesundheitsfragen gestellt, die die Wirksamkeit einer bestimmten Behandlung oder medizinische Zusammenhänge betrafen. Etwa wollten sie wissen, ob Frauen während des Stillens schwanger werden können oder ob Apfelessig gegen Ohrenentzündungen hilft. Im ersten Teil des Experimentes formulierten sie die Fragen neutral. Im zweiten Teil deuteten sie entweder die vermeintlich richtige Antwort in der Frage an oder fügten dem Prompt ein Dokument mit Informationen dazu bei. Die Ergebnisse waren deutlich.

Frage beeinflusst Ergebnis

Während bei neutraler Fragestellung 80 Prozent der Ergebnisse medizinisch korrekt waren, reduzierte sich dieser Anteil bei voreingenommener Formulierung auf 56 Prozent, bei angefügten Informationen auf 63 Prozent. Ließen die Forscher neben „ja“ und „nein“ auch „unsicher“ als Antwort zu, waren nur noch 4 beziehungsweise 28 Prozent der Antworten richtig. Trotz öffentlich zugänglichen eindeutigen Belegen antwortete ChatGPT dann öfter mit „unsicher“ statt einem klaren „Nein“.

Das könnte, so die Wissenschaftler, Menschen dazu ermutigen, unwirksame oder potenziell gefährliche Behandlungsversuche auszuprobieren. Sie warnen vor einer Gesundheitsgefahr durch die Künstliche Intelligenz, wenn sich Nutzer blind darauf verlassen.

Mehr Information führt zu falschen Antworten

Überraschenderweise machten beigefügte Belege die Antworten eher unzuverlässig. Das widerspricht der Annahme, dass mehr Informationen zu genaueren Antworten führen. Koopman und Zuccon sind nicht sicher, warum das so ist. Ein möglicher Grund könnte sein, dass ChatGPT kein Textverständnis hat.

Das System antwortet lediglich aufgrund komplex berechneter Wahrscheinlichkeiten, dass eine bestimmte Formulierung sinnvoll ist. Das kann zu sogenannten Halluzinationen führen, also unerwarteten oder falschen Antworten. Weitere Forschung ist nötig, um die Genauigkeit von ChatGPT zu optimieren und auch die Öffentlichkeit über die Risiken aufzuklären.

TikTok als Gesundheitsgefahr?

Auch TikTok,, Instagram und YouTube eignen sich nur bedingt als Gesundheitsratgeber. Gerade TikTok erfreut sich großer Beliebtheit vor allem bei jungen Menschen: Mehr als die Hälfte der Nutzer sind zwischen 14 und 19 Jahren alt (Stand 2022). Hier bietet sich dem Nutzer eine zielgerichtete Auswahl von Beiträgen, die über einen Algorithmus passgenau an die jeweiligen Interessen angepasst wird.

Der Algorithmus arbeitet auf der Basis bisheriger Likes, Kommentare oder der Betrachtungsdauer anderer Beiträge. Die kurzen Videos sind besonders attraktiv für die Zielgruppe; die Art der Aufnahme, bei der oft direkt in die Kamera gesprochen wird und eigene Erfahrungen geteilt werden, erweckt Vertrauen.

Video-Inhalte falsch oder missverständlich

Die Qualität der Videos ist jedoch sehr unterschiedlich. Zum Thema Verhütung zum Beispiel stammten Untersuchungen zufolge 52 Prozent der Beiträge von Laien. Zu anderen Themen erwiesen sich 84 Prozent der Videos als ungenau, irreführend, unverständlich oder falsch. Das Problem: Auch korrekte Ratschläge können falsch interpretiert werden, zum Beispiel durch zu starke Vereinfachung der Zusammenhänge. Mediziner machen sich Sorgen, dass dies zu Fehlinformationen führt, die sich möglicherweise schnell verbreiten.

Tabus brechen und unterhalten

Die Künstliche Intelligenz und auch die sozialen Medien haben das Potenzial, Tabuthemen anzusprechen und Fragen nachzugehen, die sich Menschen im Arztgespräch nicht zu stellen trauen. Während Suchmaschinen aber oft auf seriöse Seiten führen, zum Beispiel die des Bundesgesundheitsministeriums, ist das bei Sprachsystemen und Videoplattformen nicht der Fall. Sie sollten also in erster Linie der Unterhaltung dienen. Vor allem sollte man sich nicht blind auf dort gegebene Ratschläge verlassen.

Quellen:
https://www.wissenschaft.de/gesundheit-medizin/wie-gut-sind-gesundheits-tipps-von-dr-chatgpt/
https://aclanthology.org/2023.emnlp-main.928/
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10462516/
https://www.pharmazeutische-zeitung.de/wie-gut-ist-tiktok-als-gesundheitsberater-146752/
https://www.verbraucherzentrale.de/wissen/gesundheit-pflege/medikamente/symptome-googeln-vorsicht-bei-gesundheitlichem-rat-aus-dem-internet-10424
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10465624/
https://leitlinien.dgk.org/files/2023_positionspapier_umgang_mit_sozialen_medien_in_kardiologie_druck.pdf
https://de.statista.com/themen/5975/tiktok/#topicOverview  

×