«Der Mensch ist hackbar geworden»
Künstliche Intelligenz täuscht uns mit überzeugender Sprache und verblüffend echten Bildern. Prof. Dr. Tobias Häberlein, Professor für generative KI an der FFHS, erklärt, warum wir ChatGPT & Co. nicht blind vertrauen dürfen, was Studierende beim Einsatz von KI beachten sollten und wie wir unser kritisches Denken schärfen.

Prof. Dr. Tobias Häberlein ist Departementsleiter Informatik an der FFHS und leitet die Arbeitsgruppe «KI in der Lehre». (Fotos: Christian Pfammatter)
Tobias Häberlein, wann hat Sie KI zuletzt auf den falschen Weg geführt?
Das ist schon länger her. Ich habe mal einen See im Tessin recherchiert, und die KI behauptete, es hätte dort früher ein Kloster gegeben. Das war komplett falsch. Heute bin ich ein ziemlicher Kontrollfreak, wenn ich mit der KI spreche.
Sollten wir KI vertrauen?
Nein. Man darf den Antworten von KI-Chatbots wie ChatGPT nicht blind trauen.
Die Mehrheit tut es aber. Was macht die KI so überzeugend?
Es gibt diesen bekannten Automation Bias. Wir neigen dazu, Maschinen stärker zu vertrauen als Menschen. Ein Large Language Model (LLM) ist in der Lage, sprachlich sehr schöne Antworten zu formulieren, was den Effekt noch verstärkt.
Schöne Sprache allein wirkt so stark?
Psychologisch nennt man das den Halo-Effekt. Wenn ein System oder ein Mensch in einem Aspekt glänzt, wie eben die gut formulierte Sprache, wird die komplette Wahrnehmung davon beeinflusst. Wenn es so gut klingt, dann muss es ja stimmen. Darauf sind die LLMs perfekt abgestimmt: Dinge zu erschaffen, die echt wirken, es aber nicht sind.
Wieso halluziniert KI?
LLMs sind stochastische Modelle. Es gibt keinen vorbestimmten Weg zu den Antworten, sie suchen sich praktisch immer das nächste Wort, das möglichst passend ist. Bei dieser «Next Word Prediction» beginnt das LLM einen Satz und wählt quasi mittels Zufallsgenerator eines der wahrscheinlichsten Wörter aus, die darauf folgen, und reiht so ein Wort nach dem anderen auf. Das Halluzinieren ist tatsächlich fast sehr menschlich, denn wenn wir eine Antwort nicht genau wissen, dann fangen
wir auch oft an, uns was zusammenzureimen.
Wieso gibt die KI nicht zu, wenn sie etwas nicht weiss?
Das kann sie, aber nur, wenn man sie richtig promptet und sie bittet «wenn du’s nicht weisst, dann bitte sag’s direkt». Aber letztlich kann man nie ausschliessen, dass sie sich trotzdem was zusammenreimt. Nochmals: Die Systeme der generativen KI, ob Bild, Ton oder Text, sind dazu gebaut, Artefakte zu erschaffen, die möglichst echt wirken. Aber es hat nicht den Anspruch, echt oder wahr zu sein.
Kann die KI der Wahrheit denn nicht näherkommen, indem sie Quelldaten gewichtet und etwa Wikipedia mit einbezieht?
Die neuesten Systeme, also ChatGPT 5 und auch viele andere, starten eine Websuche, wenn sie es erforderlich finden, dann beziehen sie unter anderem Wikipedia-Artikel mit ein. Es gibt schon Techniken, wie man ihnen diese Halluzinationen etwas austreiben kann. Mit Retrieval Augmented Generation (RAG) zieht die KI dann passende Textschnipsel aus bereitgestellten Dokumenten oder
Datenbanken.

Gemäss Häberlein ist die generative KI perfekt darauf abgestimmt, uns eine Realität vorzugaukeln, die nicht echt ist.
ChatGPT zeigt sich oft als unkritischer Kumpel, der mir immer recht gibt. Absicht?
Ja. Das LLM wird angewiesen, immer eine positive Rückmeldung zu geben, besonders freundlich zu sein und uns zu bestärken. Es soll es uns angenehmer machen, mit dem LLM zu kommunizieren. Da spielt der Wettbewerb der LLM-Anbieter eine zentrale Rolle. OpenAI möchte natürlich, dass wir ChatGPT nutzen und nicht Gemini oder Claude.
KI-generierte Fotos, Audios und Videos werden immer realistischer. Deepfakes sind eine
drohende manipulative Gefahr. Kann man sie in Zukunft noch entlarven?
Es wird immer schwieriger. Mit dem Tool «Live Face Swap» kann ich über mein Gesicht ein anderes legen, das meine Mimik komplett übernimmt. Eine Stimme lässt sich praktisch perfekt klonen, da reicht eine Stimmprobe von 10 Sekunden. Das lässt sich nicht mehr entlarven, auch nicht von Detektoren. Nehmen wir das Video-Statement Trumps nach der Ermordung Charlie Kirks. Viele waren sich nicht sicher, ob die Aufnahme echt ist. Von aussen ist dies kaum verifizierbar.
Ist diese Entwicklung einfach eine Schattenseite der KI oder ein existenzielles Risiko?
Bisher waren wir gewohnt, dass ein Bild, Ton oder Film auf einem realen Ereignis basiert. Daher denken wir bei einem Foto automatisch, dass es die Wirklichkeit abbildet. Aber das ist nicht mehr länger der Fall, weder bei Bildern noch bei Filmen. Ich sehe das als grosse Gefahr und bin mir nicht sicher, ob die Menschheit bereit dafür ist. «Humans are hackable animals», sagt Yuval
Noah Harari. Wir Menschen sind hackbar geworden. Generative KI kann uns fast perfekt manipulieren. Kritisches Denken muss heute viel mehr heissen, als sich den Output einer KI anzuschauen und zu überlegen, stimmt das jetzt oder nicht?
Was heisst kritisches Denken heute?
Sich selbst zu reflektieren und sich auch mit seiner Psychologie zu befassen. Warum neige ich dazu, so schnell zu vertrauen? Wir sind durch wissenschaftliches Gebaren leicht täuschbar. In den 1960er Jahren haben die Milgram-Experimente schockiert. Die Versuchsleiter in diesen weissen Kitteln gaben vor, Repräsentanten der Wissenschaft zu sein. Dadurch haben sie die Probanden so weit gebracht, anderen Menschen scheinbar lebensgefährliche Stromschläge zu versetzen. Letztlich sind die LLMs heute auch die Repräsentanten in den weissen Kitteln und tun so, als stünden sie im Dienst der Wahrheit.

Mit dem Ansatz «KI-Leadership» will die FFHS die Studierenden fit machen im Umgang mit KI. Dazu Häberlein: «Du musst fähig sein, den Dialog anzuführen und zu sagen, wohin es geht.»
Was raten Sie Studierenden, wenn Sie KI für Ihr Studium einsetzen? Was sollen sie glauben und was nicht?
Ich rate: Glaubt der KI nichts (lacht). Wir müssen vom klassischen Bild «KI als Werkzeug» wegkommen, also dass ich einen Prompt eingebe und das Ergebnis nach kritischer Betrachtung einfach übernehme. Wenn die Studierenden auf die KI zugehen und sagen: «Mach mir mal einen Vorschlag für ein Inhaltsverzeichnis meiner Thesis», ohne klare Richtung, dann wird nichts Gutes dabei herauskommen. KI ist ein Dialogpartner und du musst vorgeben, worauf du hinauswillst. Dabei will die FFHS die Studierenden unterstützen. Wir nennen das «KI-Leadership»: Du musst fähig sein, den Dialog anzuführen und zu sagen, wohin es geht.
Wie verändert sich das Verhältnis der Dozierenden zu den Studierenden? Studierende sind heute quasi unter Generalverdacht, KI zu nutzen. Ist das Misstrauen angezeigt?
Nein. Als Detektiv unterwegs zu sein, um rauszufinden, ob eine Arbeit mit KI gemacht wurde, ist der falsche Ansatz. Auf dieses Spiel sollten wir uns nicht einlassen. Letztlich kommt es auf den
Output an. Hat der Student das erwähnte KI-Leadership gezeigt, nur dann kann es eine gute Thesis werden, auch wenn oder gerade weil er KI benutzt hat. Wir wollen ja sogar, dass die Studenten KI verwenden, in einer reflektierten Weise.
KI wird oft mit der Einführung des Taschenrechners verglichen. Berechtigt?
Nein. Taschenrechner liefern immer einen
deterministischen Output auf arithmetische Fragen und da liefern sie immer das Richtige. Sprachmodelle sind etwas komplett anderes. Sie geben auf alles eine Antwort und noch dazu eine gut formulierte. Dem Taschenrechner kannst du zu 100 Prozent glauben.