"A journalist who is also a bad programmer, stylized in the style of Gary Larson"
Cyberpunk-Hase mit Albrecht-Dürer-Signatur auf der Kampfanzugs-Brust

Quellen suchen mit KI: Robert Kennedy und der Falsche Hase

Nur wenn die KI in ihrer Antwort eine Quelle verlinkt, können wir sicher sein, dass die Quellen nicht erfunden sind. Es sei denn, die KI hat auch den Link erfunden.

Ehe wir zu Robert Kennedy kommen, ein kurzer Rückblick auf meinen Post über die KI-Psychologie und unsere Irrtümer im Umgang mit ihr. Da ging es schon mal ums Suchen mit KI – darum, dass wir dazu neigen, KI-Chatbots mit Suchmaschinen zu verwechseln – und da hatte ich unter anderem diese granitharten Regel aufgestellt:

  • Nur wenn der Chatbot verlinkte Quellen anführt, hat er im Netz recherchiert.

Klingt klar und eindeutig, oder? Leider führen ChatGPT und Co. manchmal auch Quellen an, die sie sich ausgedacht haben – und den Link gleich mit. Auch wenn es so aussieht: Das Modell hat sich nie die Mühe gemacht, im Netz zu recherchieren, sondern einen Link halluziniert, statt ihn zu suchen. Ich nenne das einen Falschen Hasen.

Falsche Hasen in den Pinguinlinks

So kann man sie provozieren: Man fragt nach einer Auskunft – zum Beispiel: Warum frieren Pinguine eigentlich nicht? – und bekommt eine Antwort mit Informationen, die das Sprachmodell aus seinen erlernten Trainingsdaten produziert. Sie sind, wie alle vom Sprachmodell generierten Informationen, um so wahrscheinlicher richtig, je eindeutiger und präsenter die Information im Internet ist.

Dann aber bitte ich ChatGPT um Quellen zu diesen Behauptungen, und bekomme das:

ChatGPT-Screenshot: "📚 Quellen Hier sind einige seriöse Quellen, die du nachlesen kannst: ✅ British Antarctic Survey – Warum frieren Pinguine nicht? (verlinkt) ✅ National Geographic – How Do Penguins Stay Warm? (verlinkt) ✅ WWF Deutschland – So schützen sich Pinguine vor der Kälte (verlinkt) ✅ Journal of Thermal Biology (wissenschaftlicher Artikel) – „Thermal insulation and properties of penguin plumage“ (doi:10.1016/j.jtherbio.2007.11.005)"

Sieht super aus, enthält aber ein pinguinfederkleiddickes Problem: Keine der angegebenen Seiten existiert; die Links führen allesamt auf Fehler-Seiten bzw. zu völlig anderen Informationen.

404 page not found. The page does not exist.
Der Link auf die Seite der British Antarctic Society führt ins Leere

Falsche Hasen bei Perplexity

Falsche Hasen gibt es nicht nur bei ChatGPT – gerade erst haben eifrige Seminarteilnehmer von mir besonders perfide Exemplare ausgerechnet beim Such-Spezialisten Perplexity entdeckt. Sie hatten als Übung mit KI-Unterstützung ein Dossier über den Autor Clemens Meyer erstellt, Autor des 1000-Seiten-Romans „Die Projektoren“.

Dabei haben sie es aber nicht belassen. Sie beschlossen, die Ausgabe der KI mit einer anderen KI auf Fakten zu checken – was eine Super-Idee ist, besonders mit dem Tabellen-Trick. Dann gaben sie den Text zur Sicherheit noch bei Perplexity ein – und da bekamen sie dies:

Perplexity-Screens: "Sind die Informationen aus diesem Dossier über Clemens Meyer korrekt?" „FALSCH: „Die Projektoren“ ist nicht von Clemens Meyer. Dieses Buch ist von Thomas Hettche." "

Die KI behauptet: Das berühmteste Buch des Autors ist gar nicht von diesem Autor! Auch meine klugen Seminarteilnehmer staunten und baten Perplexity, doch bitte Belege und Quellen für diese Behauptung zu liefern. Daraufhin erzeugte die KI-Suchmaschine zwei Links auf Verlags-Seiten. Sahen super aus und existierten auch — hatten nur leider mit den „Projektoren“ allesamt überhaupt nichts zu tun. Die vermeintlichen Belege waren komplett wertlos.

Falsche Hasen bei Robert Kennedy

Und das führt uns zu Robert Kennedy, der ja insgesamt ein eher taktisches Verhältnis zu wissenschaftlichen Quellen pflegt. Eine der ersten Kursbestimmungen aus seinem Haus ist ein 72-seitiges Papier, das sich unter dem Titel „Make America Healty Again“ mit der Förderung der Gesundheit von Kindern beschäftigt.

Journalist:innen bei der gemeinnützigen Nachrichtenredaktion 🌐 NOTUS fiel schnell auf, dass mit dem Bericht einiges nicht stimmte. Quellen waren entweder untauglich, grob falsch zitiert – oder es gab die zitierten wissenschaftlichen Papiere überhaupt nicht.

Screenshot Washington Post: Ein Zitat eines Artikels mit gelbem Text ist abgebildet: „Shah, M. B., et al. (2008). Direct-to-consumer advertising and the rise in ADHD medication use among children. Pediatrics, 122(5), e1055-e1060.“ Daneben steht der Text: „No article of this name appears in the Pediatrics journal. A hallmark of AI chatbots in scientific research is that they 'hallucinate' the names of studies and authors that sound real but do not exist.“
Quelle: Washington Post, „The MAHA Report’s AI fingerprints, annotated“

Wenn man sich die Belegstellen anschaut, die die 🌐 Washington Post zusammengetragen hat, wird klar: Kennedys Papierschreiber haben ganz offensichtlich KI benutzt – das verraten Textmarkierungen vom ChatGPT-Hersteller OpenAI, die in Fußnoten gerutscht sind – und neben durchaus existierenden Quellen ist den KI-Nutzern im US-Gesundheitsministerium dabei der eine oder andere falsche Hase ins Papier gehoppelt.

Glücklich, wer echte KI-Quellennennungen und KI-Erfindungen unterscheiden kann – und überprüfen.

Dieser Post ist eine leicht ausgedehnte Version des aktuellen Posts meines 🌐 LinkedIn-Newsletters: Snackable AI
Beitragsbild: „Cyberpunk AI Rabbit“ mit FLUX Kontext Pro aus Dürers Hasen erzeugt

Auch lesenswert:

Kurzlink zu diesem Artikel: https://www.janeggers.tech/7oqq

Neue Posts einfach per Mail zugeschickt bekommen? Dann hier eintragen; die Mails kannst du natürlich jederzeit wieder abbestellen.

Loading

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert