Wenn Gemini scheinbar die Arbeit verweigert

Die Geschichte dahinter, entdeckt auf LinkedIn

Ein Nutzer stellt einem Sprachmodell eine technische Frage, das Modell blockiert, und schon wird zu schnell eine Aussage gemacht.

In diesem konkreten Fall wurde auf „Gemini“ verwiesen, ein von Google entwickeltes KI-System, das auf Large Language Models basiert.

“Die KI sei zu vorsichtig geworden, ihre Sicherheitsmechanismen stünden der Produktivität im Weg, und wer ernsthaft arbeiten wolle, müsse auf andere Modelle oder lokale Systeme ausweichen.”

Diese Einordnung greift zu kurz, da sie unterschiedliche Ebenen – Modell, System und Anwendung – miteinander vermischt.

Was in diesem Moment für den Anwender wie eine Arbeitsverweigerung wirkt, ist ein Hinweis auf ein tiefer liegendes Missverständnis.

Large Language Models arbeiten nicht wie klassische Software, die eine Eingabe eindeutig ausführt, wenn diese syntaktisch korrekt formuliert ist. Sie reagieren auf Muster, Wahrscheinlichkeiten, Kontext und statistische Nähe. Genau darin liegt ihre Stärke und zugleich eine Quelle vieler Fehlinterpretationen.

Ein Modell, das mit Begriffen wie „Skript“, „automatisiert“ und „E-Mail“ konfrontiert wird, bewegt sich semantisch in einem Feld, das durchaus legitime technische Abläufe beschreiben kann. Dieselben Begriffe können jedoch auch in missbräuchlichen Kontexten vorkommen, etwa bei Spam, Phishing oder automatisierter Manipulation. Fehlt dem Modell im Vorlauf eine klare Einordnung des Vorhabens, bleibt ihm nur eine Wahrscheinlichkeitsentscheidung unter Unsicherheit.

Die technische Absicht des Nutzers mag harmlos sein. Für das Modell ist sie in diesem Moment nur so klar, wie sie im Prompt formuliert wurde.

Hier beginnt das eigentliche Problem.

Viele Anwender nutzen den Chat mit einem LLM wie ein Gespräch mit einem Menschen.

Das ist nachvollziehbar, denn genau diese Oberfläche wird angeboten: Man schreibt eine Frage, erhält eine Antwort, fragt nach, korrigiert, präzisiert. Die Gesprächsform erzeugt jedoch leicht den Eindruck, das Modell verfüge über ein ähnliches situatives Verständnis wie ein Gegenüber. Tatsächlich verarbeitet es nur den gegebenen Kontext und versucht daraus die wahrscheinlich passende Fortsetzung zu erzeugen.

Wer eine Aufgabe als Grobkonzept bearbeiten lassen möchte, muss daher mehr leisten als eine spontane Frage zu stellen.

Er muss dem Modell den Rahmen geben, in dem es sinnvoll arbeiten kann: Zweck, Systemumgebung, Rollen, Grenzen, gewünschtes Ergebnis und Ausschlüsse.

Ein unstrukturierter Prompt erhöht den Interpretationsspielraum. In einem neutralen Thema bleibt das folgenlos. In einem sensibleren semantischen Umfeld kann derselbe Spielraum dazu führen, dass Schutzmechanismen früh greifen.

Daraus folgt allerdings nicht, dass Sicherheitsmechanismen überflüssig wären. Sie erfüllen eine Funktion. Ebenso wenig folgt daraus, dass jedes blockierende Verhalten ein Fehler des Nutzers ist. Interessant ist vielmehr das Zusammenspiel: Ein Modell trifft eine konservative Entscheidung, weil der Kontext aus seiner Sicht unzureichend ist. Der Nutzer wiederum interpretiert diese Entscheidung als Blockade, obwohl das Modell möglicherweise nur das Risiko höher bewertet als der Mensch.

Die Diskussion über solche Fälle wird dadurch manchmal zu undetailiert geführt. Auf der einen Seite stehen jene, die in jeder Verweigerung eine übertriebene Zensur sehen. Auf der anderen Seite stehen jene, die davon ausgehen, dass bessere Modelle solche Probleme schon selbst lösen werden. Beide Sichtweisen unterschätzen, dass produktive KI-Nutzung weiterhin technisches Verständnis verlangt.

Dazu gehört die Kenntnis des eingesetzten Modells.

Nicht jedes Modell ist für jeden Anwendungsfall gleich gut geeignet. Manche Modelle sind stark in Text und Argumentation, andere in Code, Bildverarbeitung, langen Kontexten oder mehrsprachiger Ausgabe. Auch lokale Modelle unterscheiden sich deutlich in Qualität, Stabilität, Kontextfenster, Instruktionsbefolgung und Verhalten bei mehrdeutigen Aufgaben.

Für lokal eingesetzte KI-Modelle bedeutet das: Die Verantwortung für Auswahl, Konfiguration und Bewertung rückt näher an den Nutzer oder den KI-Dienstleister.

Deshalb ist Transparenz wichtig. Wer ein KI-System produktiv einsetzen will, sollte wissen, welches Modell verwendet wird, wofür es geeignet ist und wo seine Grenzen liegen. Wird dieses Wissen hinter einer Dienstleistungsschicht verborgen, entsteht der Eindruck, man arbeite mit „der KI“ als allgemeinem Werkzeug. Tatsächlich arbeitet man immer mit einem konkreten Modell, einer konkreten Konfiguration und einer konkreten Art der Kontextführung.

Auch die Behauptung, Prompting sei inzwischen überholt, hält einer genaueren Betrachtung kaum stand.

Die Form verändert sich, der Bedarf verschwindet nicht. Bei Agenten, Workflows und automatisierten KI-Systemen sind Prompts oft nur weniger sichtbar. Sie liegen im Hintergrund, in Systemanweisungen, Rollenbeschreibungen, Tool-Regeln, Entscheidungslogiken oder Übergaben zwischen einzelnen Schritten. Prompting ist damit nicht tot. Es ist teilweise infrastrukturell geworden.

Produktive KI-Nutzung erfordert Verständnis von Modell und Kontext.

Wer LLMs ohne technisches Verständnis für ihre Funktionsweise und ohne Kenntnis des eingesetzten Modells nutzt, bleibt von wechselnden Ergebnissen abhängig. Mit einem solchen Verständnis lässt sich der Umgang präziser steuern: Verhalten wird nachvollziehbarer, Aufgaben lassen sich klarer vorbereiten, Modelle gezielter auswählen. Entscheidend ist weniger die Formulierung einzelner Anweisungen als die saubere Struktur der Aufgabe und der Kontext, den das Modell erhält.

Hier liegt auch die Rolle von Dienstleistern und Beratern: Sie sorgen dafür, dass für lokale Anwendungen KI-Modelle passend ausgewählt, richtig eingeordnet und sinnvoll eingesetzt werden.

Der geschilderte Fall zeigt, wie ein Modell eine technisch gemeinte Anfrage in einen anderen Zusammenhang einordnet und wie stark das Ergebnis davon abhängt, wie klar Absicht und Kontext formuliert sind.

Manuela Frenzel

Unabhängige Beraterin für Entscheider und Führungskräfte zur Bewertung lokaler KI-Systeme. Autorin analytischer Beiträge zur Einordnung von KI.

https://manuelafrenzel.com
Weiter
Weiter

Verwaltung: Schluss mit der Zweckentfremdung qualifizierter Fachkräfte