Chez Tomorro, nous nous engageons à garantir qu’Oro, notre assistant IA, respecte les exigences de l’AI Act de l’UE, en proposant une solution transparente, sûre et éthique.
Oro est classé comme un système d’IA à faible risque, et nous appliquons les mesures nécessaires pour assurer sa conformité.
Catégorie de risque
Contrôle : Classification d’Oro en tant que système d’IA à faible risque selon l’AI Act de l’UE.
Qu’est-ce que cela signifie ? : Oro est utilisé exclusivement pour des tâches liées aux entreprises, telles que la synthèse de contrats, la reconnaissance optique de caractères (OCR), l’analyse de clauses et l’identification des risques. Ces utilisations sont considérées comme à faible risque selon les directives de l’AI Act de l’UE. Oro n’intervient pas dans des applications à haut risque, comme la surveillance biométrique ou les décisions critiques en santé ou dans les forces de l’ordre.
Comment nous sommes conformes : Oro a été évalué en interne selon les critères de risque de l’AI Act de l’UE et est catégorisé comme un système à faible risque en raison de son champ d’application.
Engagements de transparence
Contrôle : Communication claire des fonctionnalités et des résultats générés par l’IA.
Qu’est-ce que cela signifie ? : Oro garantit que les utilisateurs peuvent toujours identifier lorsqu’ils interagissent avec un système d’IA, conformément à l’Article 50 de l’AI Act de l’UE.
Comment nous sommes conformes :
Les interactions avec l’IA sont signalées sous le nom "AI Assistant" partout où elles apparaissent.
Les textes générés par l’assistant IA sont identifiables, lisibles et entièrement copiables.
Assurance de sécurité et d’utilisation éthique :
Contrôle : Garantir une utilisation sûre, transparente et éthique des fonctionnalités de l’IA, y compris la reconnaissance et la gestion des erreurs potentielles.
Qu’est-ce que cela signifie ? : Oro est conçu pour fournir des résultats clairs et fiables pour des tâches spécifiques. Cependant, comme tout système d’IA, il peut occasionnellement produire des erreurs ou des interprétations incomplètes.
Comment nous sommes conformes :
Transparence : Les utilisateurs sont explicitement informés que les résultats générés par l’IA sont des suggestions et nécessitent une validation pour garantir leur exactitude.
Sécurité : En reconnaissant les erreurs potentielles, Oro encourage les utilisateurs à vérifier les résultats avant de prendre des décisions.
Éthique : Les résultats générés par l’IA visent à assister les utilisateurs, sans remplacer leur jugement, pour s’assurer qu’ils conservent le contrôle total des décisions.
Gestion des erreurs : Des mécanismes de retour sont en place pour permettre aux utilisateurs de signaler des erreurs, contribuant ainsi à l’amélioration continue du système.
Obligations de modification et de transfert
Contrôle : Transparence en cas de modifications substantielles ou de transfert des systèmes d’IA.
Qu’est-ce que cela signifie ? : Conformité aux Articles 3 et 25 de l’AI Act de l’UE, qui imposent une documentation claire pour toute modification substantielle du système d’IA ou transfert à un tiers.
Comment nous sommes conformes :
Nous maintenons et fournissons une documentation technique (par exemple, conception du système, évaluations des risques) afin de garantir que les tiers effectuant des modifications respectent les obligations de conformité.
En structurant nos mesures autour de ces contrôles clés, Tomorro garantit qu’Oro est une solution d’IA fiable, transparente et conforme à l’AI Act de l’UE.