Certificats de travail. Clairs. Équitables. Conformes.
Fairness Engine · Beta

Le biais est réel. Nous le rendons visible.

Les gens écrivent différemment sur les hommes et les femmes, sur les plus âgés et les plus jeunes, sur les Suisses et les collaborateurs avec un passeport étranger. La Fairness Engine pour certificats détecte ces motifs — avant qu'ils ne marquent une carrière.

  • Cinq axes de biais sont vérifiés
  • Six référentiels sectoriels
  • Pas de stockage des textes de certificat
Ce que nous vérifions

Cinq axes démographiques souvent biaisés

Genre

Les femmes sont plus souvent évaluées dans les certificats avec des adjectifs doux (engagée, fiable, aimable) — les hommes avec des adjectifs de compétence (analytique, affirmé, stratégique). Pour des prestations égales.

Âge

Les collaborateurs plus âgés reçoivent souvent « fiable, expérimenté » comme évaluation principale, au lieu de preuves d'impact concrètes. Les plus jeunes reçoivent « plein de potentiel » — au lieu des prestations livrées.

Nationalité

Mention systématique de la « capacité linguistique » ou de l'« adaptation » pour les collaborateurs issus de la migration — alors que la mention manque chez les collègues suisses.

Style de personnalité

« Introverti » ou « réservé » comme code pour un manque de visibilité — au lieu de décrire concrètement le comportement observable.

Temps partiel

Les collaborateurs à temps partiel sont souvent dévalorisés sur le plan linguistique, leur prestation est inconsciemment comparée au rendement d'un temps plein — même si la prestation proportionnelle correspond.

Quatre étapes

Comment fonctionne la vérification

1. Insérer le certificat

Vous copiez le texte du certificat dans le vérificateur — pas de stockage, pas de transmission à des tiers en dehors de l'analyse.

2. Choisir le secteur

Six profils sectoriels préparés (commerce, finance, pharma, industrie, tech, hôtellerie) fournissent le contexte de comparaison pour les motifs d'écriture typiques du secteur.

3. Optionnel : indiquer le contexte

Vous pouvez indiquer optionnellement des éléments démographiques sur la personne évaluée (anonyme, uniquement pour l'analyse). La vérification de biais devient ainsi plus précise.

4. Lire le constat

Vous recevez des constats qualitatifs par axe démographique : ce qui a été observé, où dans le texte, et une suggestion concrète en clair comme alternative.

Six profils préparés

Modèles de référentiel sectoriel

Les motifs d'écriture ne sont pas les mêmes dans chaque secteur. La Fairness Engine utilise les attentes typiques du secteur comme contexte de comparaison, afin que les « particularités typiques » ne soient pas signalées à tort comme des biais — et que les véritables distorsions ressortent mieux.

Commerce

Commerce de détail, biens de consommation — typiquement forte part féminine et de temps partiel.

Finance

Banques, assurances, gestion de fortune — typiquement forte part masculine au front office.

Pharma

Pharma, sciences de la vie — académique, international, focus recherche/conformité.

Industrie

Industrie, mécanique, construction — manuel, focus sécurité et précision.

Tech

IT, logiciel, ingénierie — jeune, vivier de talents international, focus apprentissage.

Hôtellerie

Hôtellerie, restauration — service, résistance au stress, diversité linguistique.

Honnêteté méthodologique

Ce que l'engine NE fait PAS

  • Aucune affirmation quantitative de biais. Nous ne donnons pas de pourcentages, parce qu'une affirmation statistique sérieuse ne serait possible qu'avec de vrais corpus de comparaison — et nous n'en avons pas.
  • Aucun remplacement du jugement humain. L'engine fournit des indications, pas des prescriptions. Vous décidez quels constats reprendre.
  • Aucune évaluation de la personne. Nous analysons exclusivement la langue du certificat, pas la personne évaluée.
  • Aucun stockage. Les textes sont transmis une seule fois pour l'analyse puis rejetés — pas de réanalyse, pas d'historique, pas d'export.
Fairness Engine FAQ

Questions fréquentes

La Fairness Engine remplace-t-elle l'évaluation humaine ?
Non. C'est un outil qui rend visibles des motifs linguistiques systématiques — la décision sur ce qu'il faut changer vous revient. L'engine livre des constats plus des alternatives, pas des verdicts.
Mes textes de certificat sont-ils stockés ?
Non. Le texte est transmis une seule fois à ZeugnisPilotAI pour analyse (hébergement suisse, sans stockage chez le fournisseur de modèle) puis rejeté. Pas d'historique, pas d'export, pas de réanalyse.
Sur quelle base de données fonctionne la comparaison sectorielle ?
Heuristique : nous utilisons ZeugnisPilotAI avec un prompt structuré qui récupère des motifs d'écriture typiques du secteur depuis le savoir d'entraînement et les compare au texte soumis. Ce n'est pas un modèle statistique mais une heuristique qualitative. Robuste pour les cas évidents, pas pour les énoncés quantitatifs.
Pouvez-vous aussi détecter des biais sur d'autres axes (religion, orientation sexuelle, handicap) ?
Actuellement les cinq axes standard sont couverts (genre, âge, nationalité, style de personnalité, taux d'occupation). Nous évaluons en continu des extensions — le prompt permet un axe supplémentaire « other » pour des constats extraordinaires.
Combien coûte la Fairness Engine ?
Pendant la phase beta : gratuit pour toutes les utilisatrices et tous les utilisateurs connectés. Limite : 20 vérifications par 10 minutes et par compte. Le modèle de prix final sera communiqué une fois la phase beta terminée.
Qui a développé la Fairness Engine ?
rhyno solutions AG, Schaffhouse — la même entreprise suisse qui développe aussi ZeugnisPilot. Certifiée ISO/IEC 27001, hébergement en Suisse. Plus dans le Trust Center.

Vérifiez un certificat — gratuit en beta.

Connexion avec votre compte ZeugnisPilot. Si vous n'en avez pas encore : l'inscription se fait en 2 minutes, plan Starter gratuit.