Produkt · KI-Unterstützung

Wie wir KI nutzen — und wo der Mensch das Sagen behält

ZeugnisPilot setzt Anthropic Claude als Schreib- und Prüfwerkzeug ein. Das Modell formuliert und prüft. Die Bewertung, die Verantwortung und die finale Freigabe bleiben beim Arbeitgeber.

  • Anthropic Claude Sonnet 4.6
  • Hosting in der EU
  • Keine Modell-Trainings auf Ihren Daten
Konkret und ehrlich

Was die KI für Sie macht

Formuliert Sätze

Aus Ihren Stichworten zu Aufgaben, Stärken und Verhalten formuliert Claude einen zusammenhängenden, sprachlich sauberen Fliesstext.

Wendet Tonalität an

Förmlichkeit, Länge, Wohlwollen und Aufgaben-Detail steuern Sie über vier Slider. Die KI passt Wortwahl und Satzlängen entsprechend an.

Prüft auf Codes

Beim Compliance-Check identifiziert die KI typische Schweizer Code-Muster und schlägt belegbare Klartext-Alternativen vor.

Strukturiert Kompass-Output

Bei Standard "Kompass" überführt die KI Ihre Eingaben in das strukturierte JSON-Schema mit 5 Leistungsfeldern, Beitrags-Karten und Eignungsprofil.

Bewusste Grenzen

Was die KI nicht macht

Keine eigene Bewertung

Die KI gibt der Person keine Note. Sie übersetzt Ihre Bewertung in Worte. Wenn Sie Note 4 geben, formuliert die KI auf "Anforderungen oft übertroffen" — nicht auf "deutlich übertroffen".

Keine Daten-Erfindung

Wenn Sie kein Projekt nennen, erfindet die KI keines. Sie formuliert dann auf der Position-Ebene neutral — Sie ergänzen konkrete Beispiele im Editor.

Keine HR-Verantwortung

Die KI ist Schreib- und Prüfwerkzeug. Die fachliche, juristische und unternehmerische Verantwortung für das ausgestellte Zeugnis liegt beim Arbeitgeber.

Keine Personenanalyse

Die KI analysiert keine Persönlichkeit. Sie reformuliert beobachtbares Verhalten, das Sie als Arbeitgeber dokumentiert haben.

Drei Schutzebenen

Datenschutz und KI-Training

  • Keine Trainings-Nutzung: Anthropic nutzt API-Daten nicht für Modell-Training (Standard für API-Kunden, vertraglich zugesichert).
  • Anonymisierung beim Prompt: Wir senden nur Platzhalter ([VORNAME], [NACHNAME]) ans Modell. Reale Namen werden serverseitig nach der Generation eingesetzt — die KI sieht sie nie.
  • EU-Verarbeitung: Anthropic Claude wird über die EU-Region angesprochen. Schweizer Datenhaltung für die Frontend- und Backend-Schicht (europe-west6 Zürich).
Klare Zuordnung

Wer haftet?

Die ausstellende Firma trägt die HR-Verantwortung für jedes Zeugnis. ZeugnisPilot ist ein Schreib-Werkzeug, das Ihre eigenen Bewertungen in einen sprachlich sauberen Text überführt. Vor der Veröffentlichung läuft jeder Entwurf durch Compliance-Check und Editor — die finale Freigabe ist immer ein menschlicher Akt.

Diese Verantwortungs-Trennung ist sowohl in unseren AGB § 3 als auch in den Datenschutz-Hinweisen dokumentiert.

FAQ

Häufige Fragen zur KI

Welches KI-Modell wird verwendet?
Anthropic Claude Sonnet 4.6, ein Frontier-Modell mit explizitem Fokus auf Verlässlichkeit und Zurückweisungsverhalten bei riskanten Anfragen. Anthropic ist DSGVO-konform aufgesetzt; Verarbeitung in der EU.
Werden meine Eingaben für KI-Training verwendet?
Nein. Anthropic nutzt API-Aufrufe nicht für Modell-Training (Standard-Setting für API-Kunden, vertraglich zugesichert). Wir geben dem Modell ausserdem nur Platzhalter-Namen ([VORNAME], [NACHNAME]); reale Personennamen werden serverseitig nach der Generation eingesetzt.
Wer haftet, wenn die KI etwas Falsches schreibt?
Die HR-Verantwortung bleibt beim Arbeitgeber. Genau deshalb läuft jeder Entwurf zwingend durch Compliance-Check und Editor — Sie sehen den Text, bevor er das Haus verlässt. Wir sind Schreib-Werkzeug, nicht Entscheider.
Was passiert, wenn die KI eine Anfrage ablehnt?
Wir erkennen Refusals automatisch (Pattern-Matching auf typische Ablehnungs-Phrasen) und geben Ihnen eine klare Fehlermeldung mit Vorschlag zur Eingabeanpassung. Häufige Ursache: zu unspezifische Stichworte oder zu pauschale Negativ-Aussagen.
Können wir den Prompt anpassen?
Im Enterprise-Plan ja — Sie können den System-Prompt für Ihre Mandanten ergänzen (z.B. um spezifische Branchen-Vokabular oder einen festen Schluss-Absatz). Für Pro und Starter ist der Prompt fix nach Best-Practice optimiert.
Wie lange dauert eine Generation?
Typischerweise 8–15 Sekunden für den Entwurf. Compliance-Check zusätzlich 6–12 Sekunden. Insgesamt: weniger als eine halbe Minute aktive KI-Zeit pro Zeugnis.
Was ist mit Halluzinationen?
Wir minimieren das durch zwei Maßnahmen: (1) Strukturiertes Prompting — die KI bekommt klar getrennt, was Auftraggeber-Eingaben sind und was sie selbst formulieren darf. (2) Compliance-Check als zweite Instanz, der die Konsistenz mit den Eingaben prüft. Trotzdem: jeder Entwurf gehört durch Ihre Augen, bevor er das PDF wird.

KI mit Verantwortung — testen Sie selbst

Sie sehen jeden generierten Satz, bevor er das Haus verlässt. Compliance-Check, Editor, manuelle Freigabe — die KI ist Werkzeug, kein Entscheider.