Warum KI oft schwer zu verstehen ist
Transformer-Modelle sind heute ein wichtiger Teil moderner künstlicher Intelligenz. Sie werden zum Beispiel für Übersetzungen, Chatbots oder die Analyse von Bildern, Texten und Musik eingesetzt. Das Problem: Man versteht oft nicht, wie diese Modelle zu ihren Entscheidungen kommen. Sie wirken wie eine «Black Box». Gerade in wichtigen Bereichen wie Medizin, Finanzen oder Versicherungen ist das schwierig, weil dort Vertrauen, Transparenz und Kontrolle sehr wichtig sind. Ein Projekt der FFHS will genau dieses Problem lösen.

Was sich hinter KI verbirgt, ist für die meisten ein Rätsel: Daten und Prozesse, Algorithmen und LLM, Modelle und Outputs - doch wie das Ganze funktioniert, verstehen Wenige. (Bild: Claudio Schwarz)
Das Projekt MuRS (Multi-Representation Scattering), das vom Laboratory for Web Science (LWS) der FFHS und dem Data Science Lab der Universität Bern durchgeführt wird, will einen neuen Ansatz entwickeln, der die inneren Abläufe von Transformer-Modellen besser verständlich macht.
Inspiration aus der Physik
Die Forschenden orientieren sich dabei an einem Prinzip aus der Physik: Dort beeinflussen sich Atome und Moleküle gegenseitig durch Kräfte, die davon abhängen, wie weit sie voneinander entfernt sind. Diese Wechselwirkungen sind gut erforscht und lassen sich nachvollziehen. «Wir wollten ein Modell entwickeln, das nicht nur gute Ergebnisse liefert, sondern dessen Verhalten man auch besser verstehen kann», erklärt der Projektleiter aufseiten FFHS, Dr. Aris Marcolongo. Dieses Prinzip übertragen sie auf die KI. In der sogenannten MuRS-Architektur tauschen die einzelnen Recheneinheiten Informationen auf ähnliche Weise aus – also nach Regeln, die an physikalische Wechselwirkungen erinnern. Das unterscheidet sich deutlich von klassischen Transformer-Modellen, bei denen der Informationsaustausch über komplexe mathematische Operationen erfolgt, die oft schwer zu interpretieren sind.
Erste Ergebnisse und nächste Schritte
Der neue Ansatz hat im Moment noch einen Nachteil: Er benötigt mehr Rechenleistung und ist deshalb langsamer als herkömmliche Transformer-Modelle. Trotzdem sehen die Forschenden darin grosses Potenzial. «Im Moment zahlen wir noch einen Preis bei der Geschwindigkeit, gewinnen dafür aber deutlich an Transparenz», so Marcolongo. Erste Experimente zeigen bereits vielversprechende Ergebnisse: Bei zwei typischen Aufgaben erreicht MuRS eine ähnliche Leistung wie klassische Transformer-Modelle. Gleichzeitig sind die internen Abläufe deutlich transparenter und können besser analysiert werden. Im Rahmen des Pilotprojekts werden nun die mathematischen Grundlagen weiter verbessert. Zusätzlich entwickeln die Forschenden Software-Werkzeuge, mit denen sich die Modelle visualisieren und interpretieren lassen. Ausserdem wird der Ansatz mit verschiedenen Datensätzen getestet, um seine Leistungsfähigkeit weiter zu überprüfen.
Für eine transparentere KI
Langfristig ist das Ziel, ein umfassendes Interpretationsframework zu entwickeln. Dieses soll Data Scientists dabei unterstützen, KI auch in stark regulierten und risikoreichen Bereichen sicher einzusetzen – zum Beispiel in der Klimaforschung oder bei medizinischen Risikoanalysen. «Unser Ziel ist eine KI, der man vertrauen kann, weil man versteht, wie sie zu ihren Entscheidungen kommt», betont Marcolongo. Damit leistet das Projekt einen wichtigen Beitrag zu einer künstlichen Intelligenz, die nicht nur leistungsfähig, sondern auch verständlich, transparent und vertrauenswürdig ist.
