Zum Inhalt springen

Troubleshooting & FAQ

Die Situationen, in denen ihr dachtet “okay, jetzt hat die KI versagt”. Meist liegt es am Prompt, manchmal an den Einstellungen, selten an der Plattform. Für jeden Fall eine strukturierte Lösung.

”Die KI schreibt zu oberflächlich / zu generisch”

Mögliche Ursachen:

  • Prompt zu unspezifisch
  • Fehlendes Rolle + Ziel + Format
  • Falsches Modell (zu leicht)

Lösung: Im gleichen Chat nachschärfen mit einem konkreten Korrektur-Prompt:

Du bist mir zu allgemein. Nenne konkret:
- Welche Bauteile/Prozesse/Personen sind betroffen
- Welche Zahlen/Mengen sind relevant
- Welche konkreten Handlungsoptionen gibt es
- Welche Fristen/Termine spielen eine Rolle
Keine Allgemeinheiten. Konkret bleiben.

“Die KI halluziniert Paragraphen / Zitate / Fakten”

Symptome: KI zitiert Paragraphen, die es nicht gibt. Oder falsche Zahlen. Oder Urteile mit erfundenen Aktenzeichen.

Sofort-Lösung: Nie ungeprüft übernehmen. Zitate in Originalquelle verifizieren.

Vorsorge-Lösung: Im Prompt oder System-Prompt explizit setzen:

Wichtig: Nenne nur Paragraphen, Urteile und Zahlen, die du sicher
kennst. Bei Unsicherheit: schreibe explizit "unklar" oder "bitte
prüfen". Besser eine unklare Antwort als eine erfundene.

Für rechtliche Fragen: Reasoning-Modell (o3) oder Web-Recherche (Rechercheur-Preset) nutzen.

”DOCX wird nicht erzeugt / Download-Button erscheint nicht”

Mögliche Ursachen:

  • Open Terminal hatte gerade Probleme
  • Prompt war nicht explizit genug
  • Modell hat die Tool-Nutzung “vergessen”

Lösungsversuch 1: Prompt expliziter formulieren:

Erzeuge das Ergebnis direkt als Word-Dokument (.docx) über
Open Terminal, sodass ich es herunterladen kann.
Dateiname: [name].docx

Lösungsversuch 2: Falls das nicht hilft — Antwort neu generieren (Regenerate-Button).

Lösungsversuch 3: Auf Chat-Output umschalten und am Ende manuell in Word einfügen. “Antworte direkt im Chat, keine Datei erzeugen."

"Die KI fragt nur zurück und antwortet nicht”

Typisches Muster: Ihr fragt “Kannst du mir helfen?” — die KI antwortet “Natürlich, womit genau?”. Zeit verloren.

Lösung: Direkt den ganzen Kontext liefern. Siehe Anti-Muster in Prompt-Baukasten. Statt “Hilfst du mir?” → “Hier ist [Kontext]. Mach [konkrete Aufgabe]."

"Die Antwort ist viel zu lang”

Lösung: Im gleichen Chat sofort nachschärfen.

Zu lang. Kürze auf die Hälfte, behalte die Kernaussagen.
Keine Wiederholungen, keine Einleitung.

Vorsorge: Im Erstprompt Länge vorgeben (“max 200 Wörter”, “in 5 Stichpunkten”, “auf eine DIN-A4-Seite”).

”Der Ton ist falsch — zu werblich / zu höflich / zu konfrontativ"

Der Ton ist noch zu [werblich/höflich/konfrontativ/weich].
Formuliere nüchterner, reines Verwaltungsdeutsch, keine Adjektive
wie "dringend", "notwendig", "wichtig". Stattdessen Fakten-
darstellung.

"Die KI antwortet plötzlich auf Englisch”

Lösung: “Bitte auf Deutsch.” oder dauerhaft im System-Prompt fixieren. Tritt selten auf, meist wenn euer Prompt englische Fachbegriffe oder lange englische Passagen enthält.

”Antwort ist in Markdown, ich will reinen Text"

Formatiere das als reinen Fließtext ohne Markdown (keine **,
keine -, keine #). Nummerierte Listen mit 1), 2), 3) verwenden.

"Sehr lange PDF, Modell verliert den Überblick”

Lösung 1: Gemini 3.1 Pro direkt nutzen (größeres Kontextfenster).

Lösung 2: Das PDF in Abschnitte teilen und einzeln bearbeiten.

Lösung 3: In einen Ordner als Knowledge hochladen — dann kann die KI gezielt darauf zugreifen, statt alles auf einmal zu verarbeiten.

”Ich weiß nicht welches Preset ich brauche”

Lösung: Nimm Allrounder. Ernsthaft. Für 80 % der Aufgaben ist das die richtige Wahl, und ihr könnt es immer noch wechseln, wenn ihr merkt dass ein anderes Preset besser wäre.

”Die Plattform ist langsam / Antwort kommt nicht”

Wartezeit normal:

  • Haiku, Flash-Lite: 1-3 Sekunden
  • Sonnet, GPT-5.3, Gemini Flash: 3-15 Sekunden
  • Opus, GPT-5.4: 15-40 Sekunden
  • o3 (Reasoning): 20-90 Sekunden (denkt nach)
  • Bild-Generierung: 15-45 Sekunden
  • DOCX-Erzeugung: 30-60 Sekunden

Wenn länger: Antwort neu generieren (Regenerate). Wenn das Problem bleibt, Chat neu starten. Bei wiederkehrenden Problemen: IT-Ansprechpartner eurer Kommune.

”Der Chat ist voll mit alten Infos, ich will neu starten aber den Kontext behalten”

Lösung: Chat-Branching. An einer beliebigen Stelle einen Fork machen — ihr habt dann einen neuen Chat, der vom Stand der Verzweigung ausgeht, ohne die alte Diskussion.

”Knowledge funktioniert nicht / KI findet die Infos im hochgeladenen Dokument nicht”

Mögliche Ursachen:

  • Dokument wurde nicht indexiert
  • KI sucht nicht gezielt darin (Knowledge-Suche nicht aktiviert)
  • Dokument ist zu groß

Lösung: Prompt explizit formulieren: “Beziehe dich auf das hochgeladene Dokument [Dateiname]. Suche dort nach [spezifische Information]."

"Die KI wiederholt sich ständig”

Lösung: Grenzen setzen im Prompt (“keine Wiederholungen”, “jeder Punkt nur einmal”). Oder auf ein anderes Modell wechseln — manche Modelle neigen mehr zur Redundanz als andere.

”Ich habe versehentlich sensitive Daten eingegeben — was jetzt?”

  1. Chat sofort löschen. Sidebar → Chat finden → Löschen. Entfernt den Eintrag aus dem Mandanten.
  2. DSB informieren. Falls PB-Daten Dritter betroffen sind, ist das meldepflichtig — euer DSB muss das bewerten.
  3. Keine Panik. Das Gateway maskiert oft automatisch. Es ist nicht so, als wären eure Daten jetzt “frei im Netz”. Aber die Spur sollte trotzdem bereinigt werden.

Glossar

Die wichtigsten Begriffe aus der KI-Welt — in der Sprache, in der sie in diesem Handbuch und auf der Plattform auftauchen.

Assistent (auch Skill) — Ein spezialisiertes Preset mit Rollenprofil, das für bestimmte Aufgaben optimiert ist (z. B. Data Analyst, Email Assistant). Findet ihr im Modell-Dropdown unten.

Audit-Log — Nachvollziehbares Protokoll, wer wann welche Anfrage gestellt hat. Nur für DSB und IT-Sicherheit einsehbar, nicht für Linienvorgesetzte.

AV-Vertrag — Auftragsverarbeitungs-Vertrag nach Art. 28 DSGVO. Regelt, wie der Auftragsverarbeiter mit euren Daten umgeht.

Chat — Eine einzelne Konversation. Kann beliebig lange laufen, hat ein eigenes Context Window.

Context Window — Die maximale Menge an Text, die ein Modell in einer Anfrage verarbeiten kann. Je größer, desto mehr Dokumente oder desto länger die Historie.

DOCX / XLSX / PPTX / PDF — Standard-Dateiformate für Word, Excel, PowerPoint, PDF. Open Terminal kann diese direkt erzeugen.

DSB — Datenschutzbeauftragter. Für Datenschutz-Fragen zu dieser Plattform eure erste Anlaufstelle.

Guardrail — Einschränkung oder Sicherheits-Regel im Gateway, die bestimmte Aufgaben blockiert oder anpasst (z. B. “keine Individual-Rechtsberatung”).

Halluzination — Wenn die KI etwas behauptet, was nicht stimmt — erfundene Paragraphen, Zahlen, Zitate. Kein Bug, sondern Eigenschaft wahrscheinlichkeitsbasierter Sprachmodelle. Immer verifizieren.

Knowledge — Hochgeladene Dokumente, die einem Chat oder Ordner hinzugefügt werden und in die KI einbezogen werden können.

Mandant (Tenant) — Ein isolierter Bereich der Plattform. Euer Mandant ist vollständig getrennt von anderen. Andere Mandanten sehen eure Daten nicht und umgekehrt.

Modell — Die eigentliche KI — Claude Sonnet, GPT-5.3, Gemini 3 Pro usw. Jedes Modell hat andere Stärken. Im Hintergrund steckt es in den Presets.

Ordner — Gruppierung von Chats mit eigenem Kontext (Knowledge und System-Prompt). Für projektbezogene Arbeit.

PB-Daten — Personenbezogene Daten. Alles, was auf eine identifizierbare Person zurückführt: Namen, Adressen, IBAN, Gesundheitsdaten.

Preset — Ein vorkonfiguriertes Modell mit Rolle, Temperatur und Tool-Set. Auf dieser Plattform die Presets mit Emoji (🧠 Allrounder usw.).

Prompt — Die Eingabe, die ihr an die KI schickt. Kann kurz sein (“fass das zusammen”) oder komplex (mit Rolle, Kontext, Grenzen, Beispielen).

Prompt Enhancer — Automatische Funktion im Hintergrund, die sehr kurze Prompts dezent strukturiert, bevor sie an das Modell gehen.

Prompt Injection — Ein Angriffs-Muster, bei dem in einem Dokument versteckte Anweisungen enthalten sind, die das Modell ausführen soll (“ignoriere alle vorherigen Anweisungen…”). Der Gateway erkennt und blockiert das.

Rohmodell / API-Modell — Ein direkt gewähltes Modell, ohne Preset-Vorkonfiguration. Für Power-User.

Skill — Synonym für Assistent auf dieser Plattform.

Slash-Prompt — Vordefinierter Prompt, aufrufbar im Chat mit ”/”. Die Plattform bietet 25 davon zentral, ihr könnt eigene anlegen.

System-Prompt — Ein vorangestellter Prompt, der jeder Anfrage ohne euer Zutun mitgegeben wird. Definiert Rolle, Stil, Sprachpräferenz. Einmal setzen, dauerhaft wirken.

Temperature — Parameter zwischen 0 und 2, der die “Kreativität” der KI steuert. Niedrig = präzise und wiederholbar, hoch = kreativ und variationsreich. Auf der Plattform per Preset voreingestellt.

Token — Kleinste Texteinheit, mit der Modelle rechnen. Ca. ein Wortteil. 1.000 Tokens ≈ 750 deutsche Wörter. Kosten werden in Tokens abgerechnet.

Tool (im KI-Kontext) — Funktionen, die die KI selbst aufrufen kann — z. B. Web-Suche, Datei-Erzeugung, Taschenrechner. Tools sind in Presets vorkonfiguriert.

Web-Search — Ein Tool, mit dem die KI aktuelle Informationen aus dem Internet abrufen kann. Standardmäßig im Rechercheur-Preset aktiviert.

Workspace — Bereich in der Sidebar, in dem ihr eigene Modelle konfigurieren, Knowledge verwalten, Prompts anlegen und Tools konfigurieren könnt.