Le HRS est un système d'IA à haut risque.
Voici comment nous nous y conformons.
Le Human Risk Score (HRS) est qualifié de système d'IA à haut risque au sens du Règlement (UE) 2024/1689, dit AI Act, Annexe III paragraphe 4 (emploi). Cette page détaille notre cadre de conformité, nos engagements, et les droits dont disposent les personnes évaluées.
01Cadre légal applicable
Le HRS opère un profilage de personnes physiques destiné à éclairer des décisions sur des relations de travail. Cette caractéristique le place sous le régime des systèmes d'IA à haut risque de l'AI Act.
- Règlement (UE) 2024/1689, AI Act, applicable au HRS dans toutes ses dispositions sur les systèmes haut risque à compter du 2 août 2026.
- Règlement (UE) 2016/679, RGPD, applicable à toutes les données personnelles traitées dans le cadre des missions Psycomet.
- Lignes directrices CNIL 2026 sur le recrutement et l'évaluation des collaborateurs.
02Statut juridique de Psycomet
Psycomet cumule deux qualifications au sens de l'AI Act, ce qui correspond au cadre le plus exigeant.
03Vos droits si vous êtes évalué
Toute personne évaluée par le HRS dispose de droits effectifs et opposables, dont l'exercice est garanti par contrat.
- Droit à l'information. Vous êtes informé par écrit, avant l'évaluation, de la finalité, des sources de données, de la durée de conservation et de l'identité du responsable de traitement.
- Droit à explication. Vous pouvez demander une explication sur les éléments principaux ayant fondé votre évaluation. La méthode HRS est publiquement décrite, ses limites sont explicitées dans nos rapports.
- Droit à intervention humaine. Aucune décision automatisée n'est rendue. Toute évaluation est interprétée par une personne physique avant communication, et la décision finale relève du commanditaire, pas du système.
- Droit d'accès, de rectification, d'effacement, de limitation, d'opposition. Articles 15 à 21 du RGPD, exerçables auprès de Psycomet sur simple demande motivée à [email protected].
- Droit de réclamation. Vous pouvez saisir la CNIL si vous estimez que vos droits ne sont pas respectés.
04Supervision humaine, méthode et limites
Le HRS est un signal indicatif chiffré, pas une décision. Cette frontière est structurante.
- Toute évaluation est interprétée par Hugues Souron, certifié AssessFirst Expert, opérateur de la supervision humaine au sens de l'article 14 de l'AI Act.
- La méthode repose sur une triangulation de 3 sources, psychométrie AssessFirst, questionnaire de contexte 21 questions, entretien qualitatif. Aucune source seule ne fonde une décision.
- L'architecture scientifique du HRS est portée par Laurent Chrétien, ingénieur polytechnicien, qui co-valide les évaluations à fort enjeu.
- Le HRS n'est pas un test de personnalité, n'est pas un diagnostic psychiatrique, n'est pas un outil de classement. Ses limites sont explicitement documentées dans nos rapports.
05Données, conservation, destruction
- Les données brutes (questionnaire AssessFirst, questionnaire de contexte, transcript d'entretien) sont détruites au plus tard 90 jours après la remise du livrable final.
- Le rapport remis au commanditaire ne contient ni verbatim ni données brutes nominatives.
- Aucune donnée biométrique, aucune donnée de santé, aucune donnée révélant l'origine, les opinions politiques, religieuses, syndicales, l'orientation sexuelle ou l'état de santé n'est collectée.
- Aucune donnée ne transite par un outil d'IA générative grand public.
- Toute la chaîne documentaire (cahier de mission, FRIA + DPIA, journal des inférences) est conservée 10 ans, conformément à l'article 18 de l'AI Act.
06Documentation et registres
Psycomet tient à jour une documentation conforme aux exigences AI Act, communicable sur demande motivée des autorités de contrôle (CNIL, DGCCRF, AI Office).
- Registre des systèmes d'IA (article 30 RGPD plus AI Act).
- Fiche technique HRS conforme à l'Annexe IV de l'AI Act.
- Politique de gouvernance IA Psycomet.
- Plan de gestion des biais.
- Procédure de supervision humaine et procédure d'incident IA.
- FRIA et DPIA réalisés systématiquement avant chaque mission.
- Cahier de mission et journal des inférences pour chaque évaluation produite.
- Auto-évaluation de conformité documentée.
07Notification d'incidents et autorités
Tout incident grave au sens de l'article 73 de l'AI Act est notifié à l'autorité de surveillance compétente dans les 15 jours suivant sa qualification.
Pour la France, les autorités de référence sont la CNIL pour les aspects protection des données et systèmes RH, et la DGCCRF pour les aspects produit et marché.