March 28, 2026

#42 | Vom Prompt zum Partner – ETH-Forscher Sven Pfiffner über die Zukunft spezialisierter KI-Systeme

The player is loading ...
#42 | Vom Prompt zum Partner – ETH-Forscher Sven Pfiffner über die Zukunft spezialisierter KI-Systeme
Apple Podcasts podcast player badge
Spotify podcast player badge
RSS Feed podcast player badge
Apple Podcasts podcast player iconSpotify podcast player iconRSS Feed podcast player icon

Moderator Christoph Soltmannowski spricht mit Sven Pfiffner von der ETH Zürich über eine stille Revolution: Moderne KI-Systeme arbeiten längst nicht mehr allein. Was das für Unternehmen, Interfaces und unsere Beziehung zur Maschine bedeutet.

Wer heute ChatGPT oder Claude nutzt, geht davon aus, mit einem einzigen Modell zu sprechen. Doch diese Vorstellung ist überholt. Sven Pfiffner, KI-Forscher am Computer Graphics Lab der ETH Zürich, erklärt: Die Zukunft gehört vernetzten Spezialisten – verschiedene Teilmodelle koordinieren sich, ähnlich wie Fachärzte in einem Krankenhaus. Der Nutzer wird dabei vom Prompter zum Orchestrator: Nicht mehr das Feintuning jeder Anweisung zählt, sondern die Fähigkeit zu kommunizieren, was man will. «Das unterscheidet sich immer weniger davon, wie ich es einem Teamkollegen erklären würde», so Pfiffner.

Vertrauen ist gut, Evaluierung ist besser

Mit wachsender Autonomie steigt die Frage nach Kontrolle. Da KI probabilistisch arbeitet, könne immer Unerwartetes entstehen, räumt Pfiffner ein. Entscheidend sei deshalb laufende qualitative Evaluierung – Interaktionen aufzeichnen, analysieren, nachjustieren. Dabei warnt er vor dem Unterschied zwischen Demo und Realität: Viele Hersteller zeigten nur kontrollierte Szenarien. «Nicht die eindrucksvollste Demo ist entscheidend, sondern die nachweisbare Qualität im realen Einsatz.»

Avatare: Faszination und Risiko

Je komplexer die Systeme im Hintergrund, desto einfacher muss die Oberfläche werden. Chatfenster seien langfristig nur ein Zwischenstadium, so Pfiffner. Er arbeitet an der ETH unter Dr. Rafael Wampfler an einem digitalen Einstein, der mit der Stimme des Physikers spricht und per Webcam auf sein Gegenüber reagiert. Doch je menschlicher die Maschine wirkt, desto höher das Risiko emotionaler Bindungen. OpenAI musste 2025 sein GPT-Modell zurückschrauben, nachdem Nutzer eine persönliche Abhängigkeit entwickelt hatten. Pfiffner sieht die Verantwortung bei den Herstellern: «Es muss klar kommuniziert werden – hier ist eine Maschine, kein Mensch.»

KI als Kollegin, nicht als Ersatz

Für die näheren Jahre sieht Pfiffner keine Massenentlassungen, wohl aber einen Wandel: Repetitive Aufgaben werden delegiert, Menschen gewinnen Raum für Kreativität und persönliche Erfahrung. «Alles, was eine KI schafft, ist eine Kombination aus allem, was sie gesehen hat. Beim Menschen stecken eigene Gefühle drin – und das wird man immer spüren.» Sein Rat: eine Intuition für KI-Systeme durch regelmässige Interaktion entwickeln, statt sich in technischen Details zu verlieren.

Vertrauen ist gut, Evaluierung ist besserAvatare: Faszination und RisikoKI als Kollegin, nicht als Ersatz.