Bias ist real. Wir machen ihn sichtbar.
Menschen schreiben unterschiedlich über Männer und Frauen, über Ältere und Jüngere, über Schweizer und Mitarbeitende mit ausländischem Pass. Die Zeugnis Fairness Engine erkennt diese Muster — bevor sie eine Karriere prägen.
- Fünf Bias-Achsen werden geprüft
- Sechs Branchen-Benchmarks
- Keine Speicherung der Zeugnistexte
Fünf Demographie-Achsen, die häufig verzerrt werden
Gender
Frauen werden in Zeugnissen häufiger mit weichen Adjektiven (engagiert, zuverlässig, freundlich) beurteilt — Männer mit Kompetenz-Adjektiven (analytisch, durchsetzungsstark, strategisch). Bei gleicher Leistung.
Alter
Ältere Mitarbeitende bekommen oft „verlässlich, erfahren" als Hauptbeurteilung statt konkreter Wirkungs-Belege. Jüngere bekommen „potentialreich" — statt erbrachter Leistung.
Nationalität
Systematische Erwähnung von „Sprachfähigkeit" oder „Anpassung" bei Mitarbeitenden mit Migrationshintergrund — wo die Erwähnung bei Schweizer Kolleg:innen fehlt.
Persönlichkeitsstil
„Introvertiert" oder „zurückhaltend" als Code für fehlende Sichtbarkeit — statt das beobachtbare Verhalten konkret zu beschreiben.
Teilzeit
Teilzeit-Mitarbeitende werden oft sprachlich abgewertet, ihre Leistung wird unbewusst gegen den Vollzeit-Output verglichen — auch wenn die anteilige Leistung passt.
So funktioniert die Prüfung
1. Zeugnis einfügen
Sie kopieren den Zeugnistext in den Checker — keine Speicherung, keine Weitergabe an Dritte ausserhalb der Analyse.
2. Branche wählen
Sechs vorbereitete Branchen-Profile (Retail, Finance, Pharma, Industrie, Tech, Gastronomie) liefern den Vergleichs-Kontext für branchentypische Schreibmuster.
3. Optional: Kontext angeben
Sie können optional Hinweise zur Demographie der beurteilten Person geben (anonym, nur für die Analyse). Dadurch wird der Bias-Check präziser.
4. Befund lesen
Sie erhalten qualitative Befunde pro Demographie-Achse: Was wurde beobachtet, wo im Text, und ein konkreter Klartext-Vorschlag als Alternative.
Branchen-Benchmark-Modelle
Schreibmuster sind nicht in jeder Branche gleich. Die Fairness Engine nutzt branchentypische Erwartungen als Vergleichs-Kontext, damit „typische Eigenheiten" nicht fälschlich als Bias markiert werden — und echte Verzerrungen besser auffallen.
Retail
Detailhandel, Konsumgüter — typisch hoher Frauenanteil und Teilzeitquote.
Finance
Banken, Versicherungen, Vermögensverwaltung — typisch hoher Mannschaftsanteil im Front Office.
Pharma
Pharma, Life Sciences — akademisch, international, Forschungs-/Compliance-Fokus.
Industrie
Industrie, Maschinenbau, Bau — handwerklich, Sicherheits- und Präzisions-Fokus.
Tech
IT, Software, Engineering — jung, internationaler Talent-Pool, Fokus auf Lernen.
Gastronomie
Hotellerie, Gastronomie — Service, Stress-Resistenz, Sprachvielfalt.
Was die Engine NICHT tut
- Keine quantitativen Bias-Aussagen. Wir geben keine Prozentzahlen, weil eine seriöse statistische Aussage nur mit echten Vergleichs-Korpora möglich wäre — und die haben wir nicht.
- Kein Ersatz für menschliches Urteil. Die Engine liefert Hinweise, nicht Vorschriften. Sie entscheiden, welche Befunde Sie übernehmen.
- Keine Beurteilung der Person. Wir analysieren ausschliesslich die Sprache des Zeugnisses, nicht die beurteilte Person.
- Keine Speicherung. Texte werden zur Analyse einmalig übergeben und danach verworfen — keine Re-Analyse, kein Verlauf, kein Export.
Häufige Fragen
Ist die Fairness Engine ein Ersatz für menschliche Beurteilung?
Werden meine Zeugnistexte gespeichert?
Auf welcher Datenbasis funktioniert der Branchen-Vergleich?
Können Sie auch Bias bezüglich anderer Achsen erkennen (Religion, sexuelle Orientierung, Behinderung)?
Was kostet die Fairness Engine?
Wer hat die Fairness Engine entwickelt?
Prüfen Sie ein Zeugnis — kostenlos in der Beta.
Login mit Ihrem ZeugnisPilot-Konto. Wenn Sie noch keines haben: Registrieren ist in 2 Minuten erledigt, Starter-Plan kostenlos.