Arbeitszeugnisse. Klar. Fair. Rechtssicher.
Fairness Engine · Beta

Bias ist real. Wir machen ihn sichtbar.

Menschen schreiben unterschiedlich über Männer und Frauen, über Ältere und Jüngere, über Schweizer und Mitarbeitende mit ausländischem Pass. Die Zeugnis Fairness Engine erkennt diese Muster — bevor sie eine Karriere prägen.

  • Fünf Bias-Achsen werden geprüft
  • Sechs Branchen-Benchmarks
  • Keine Speicherung der Zeugnistexte
Worauf wir prüfen

Fünf Demographie-Achsen, die häufig verzerrt werden

Gender

Frauen werden in Zeugnissen häufiger mit weichen Adjektiven (engagiert, zuverlässig, freundlich) beurteilt — Männer mit Kompetenz-Adjektiven (analytisch, durchsetzungsstark, strategisch). Bei gleicher Leistung.

Alter

Ältere Mitarbeitende bekommen oft „verlässlich, erfahren" als Hauptbeurteilung statt konkreter Wirkungs-Belege. Jüngere bekommen „potentialreich" — statt erbrachter Leistung.

Nationalität

Systematische Erwähnung von „Sprachfähigkeit" oder „Anpassung" bei Mitarbeitenden mit Migrationshintergrund — wo die Erwähnung bei Schweizer Kolleg:innen fehlt.

Persönlichkeitsstil

„Introvertiert" oder „zurückhaltend" als Code für fehlende Sichtbarkeit — statt das beobachtbare Verhalten konkret zu beschreiben.

Teilzeit

Teilzeit-Mitarbeitende werden oft sprachlich abgewertet, ihre Leistung wird unbewusst gegen den Vollzeit-Output verglichen — auch wenn die anteilige Leistung passt.

Vier Schritte

So funktioniert die Prüfung

1. Zeugnis einfügen

Sie kopieren den Zeugnistext in den Checker — keine Speicherung, keine Weitergabe an Dritte ausserhalb der Analyse.

2. Branche wählen

Sechs vorbereitete Branchen-Profile (Retail, Finance, Pharma, Industrie, Tech, Gastronomie) liefern den Vergleichs-Kontext für branchentypische Schreibmuster.

3. Optional: Kontext angeben

Sie können optional Hinweise zur Demographie der beurteilten Person geben (anonym, nur für die Analyse). Dadurch wird der Bias-Check präziser.

4. Befund lesen

Sie erhalten qualitative Befunde pro Demographie-Achse: Was wurde beobachtet, wo im Text, und ein konkreter Klartext-Vorschlag als Alternative.

Sechs vorbereitete Profile

Branchen-Benchmark-Modelle

Schreibmuster sind nicht in jeder Branche gleich. Die Fairness Engine nutzt branchentypische Erwartungen als Vergleichs-Kontext, damit „typische Eigenheiten" nicht fälschlich als Bias markiert werden — und echte Verzerrungen besser auffallen.

Retail

Detailhandel, Konsumgüter — typisch hoher Frauenanteil und Teilzeitquote.

Finance

Banken, Versicherungen, Vermögensverwaltung — typisch hoher Mannschaftsanteil im Front Office.

Pharma

Pharma, Life Sciences — akademisch, international, Forschungs-/Compliance-Fokus.

Industrie

Industrie, Maschinenbau, Bau — handwerklich, Sicherheits- und Präzisions-Fokus.

Tech

IT, Software, Engineering — jung, internationaler Talent-Pool, Fokus auf Lernen.

Gastronomie

Hotellerie, Gastronomie — Service, Stress-Resistenz, Sprachvielfalt.

Methodische Ehrlichkeit

Was die Engine NICHT tut

  • Keine quantitativen Bias-Aussagen. Wir geben keine Prozentzahlen, weil eine seriöse statistische Aussage nur mit echten Vergleichs-Korpora möglich wäre — und die haben wir nicht.
  • Kein Ersatz für menschliches Urteil. Die Engine liefert Hinweise, nicht Vorschriften. Sie entscheiden, welche Befunde Sie übernehmen.
  • Keine Beurteilung der Person. Wir analysieren ausschliesslich die Sprache des Zeugnisses, nicht die beurteilte Person.
  • Keine Speicherung. Texte werden zur Analyse einmalig übergeben und danach verworfen — keine Re-Analyse, kein Verlauf, kein Export.
Fairness Engine FAQ

Häufige Fragen

Ist die Fairness Engine ein Ersatz für menschliche Beurteilung?
Nein. Sie ist ein Werkzeug, das systematische sprachliche Muster sichtbar macht — die Entscheidung, was zu ändern ist, treffen Sie selbst. Die Engine liefert Befunde plus Alternativen, nicht Urteile.
Werden meine Zeugnistexte gespeichert?
Nein. Der Text wird einmalig zur Analyse an unser KI-Modell übergeben (Schweizer Hosting, Anthropic-API ohne Speicherung) und danach verworfen. Es gibt keinen Verlauf, keinen Export, keine Re-Analyse.
Auf welcher Datenbasis funktioniert der Branchen-Vergleich?
Heuristisch: Wir nutzen Claude (Anthropic) mit einem strukturierten Prompt, der branchentypische Schreibmuster aus dem Trainingswissen abruft und mit dem eingereichten Text abgleicht. Das ist kein statistisches Modell, sondern eine qualitative Heuristik. Robust für offensichtliche Fälle, nicht für quantitative Aussagen.
Können Sie auch Bias bezüglich anderer Achsen erkennen (Religion, sexuelle Orientierung, Behinderung)?
Aktuell sind die fünf Standard-Achsen abgedeckt (Gender, Alter, Nationalität, Persönlichkeitsstil, Beschäftigungsgrad). Erweiterungen prüfen wir laufend — der Prompt erlaubt eine zusätzliche „other"-Achse für ausserordentliche Befunde.
Was kostet die Fairness Engine?
Während der Beta-Phase: kostenlos für alle eingeloggten Nutzerinnen und Nutzer. Rate-Limit: 20 Checks pro 10 Minuten und Konto. Endpreismodell wird kommuniziert, sobald die Beta-Phase abgeschlossen ist.
Wer hat die Fairness Engine entwickelt?
rhyno solutions AG, Schaffhausen — dieselbe Schweizer Firma, die auch ZeugnisPilot entwickelt. ISO/IEC 27001-zertifiziert, Hosting in der Schweiz. Mehr im Trust Center.

Prüfen Sie ein Zeugnis — kostenlos in der Beta.

Login mit Ihrem ZeugnisPilot-Konto. Wenn Sie noch keines haben: Registrieren ist in 2 Minuten erledigt, Starter-Plan kostenlos.