Des offres adaptées à vos besoins

Ethik-IA vous accompagne pas à pas dans une démarche éthique et de conformité de vos solutions d’intelligence artificielle, notamment au futur règlement européen sur l’intelligence artificielle (AI Act), en créant des méthodologies de supervision humaine adaptées à vos besoins. En plus d’un volet formation et conseil stratégique et juridique, et à l’issu d’un audit initial, Ethik-IA vous accompagne dans la mise en place de collèges de Garantie Humaine visant à assurer le bon fonctionnement et le développement éthique de vos solutions d’IA.

Concepteurs d'IA 

Ethik-IA construit des modèles de supervision humaine à l'échelle de votre solution, de la conception au déploiement.

    • Acculturation et conseil
    • Mise en place opérationnelle des collèges de Garantie Humaine
    • Mise à disposition d'une plateforme de Garantie Humaine

    Utilisateurs d'IA

    Ethik-IA construit également des méthodologies de Garantie Humaine pour les utilisateurs (établissements de santé, institutions, collectivités, mutuelles ou encore industrie pharmaceutique), intégrant plusieurs systèmes d'IA.

      Une méthodologie unique

      La mise en place de ces "collèges de Garantie Humaine" associant concepteurs, professionnels et représentants des usagers a été développée par Ethik-IA sur la base de l'avis 129 du CCNE de septembre 2018.

      Le collège de Garantie Humaine a pour objectif :

      • D'assurer a posteriori une révision de cas concrets pour porter un regard humain sur les décisions ou aides à la décision automatisées ;
      • De s'assurer au "fil de l'eau" que l'algorithme évolue de manière efficace et responsable éthiquement

      " Le concept de "Garantie Humaine" peut paraitre abstrait mais il est, en réalité, très opérationnel. Dans le cas de l'IA, l'idée est d'appliquer les principes de régulation de l'intelligence artificielle en amont et en aval de l'algorithme lui-même en établissant des points de supervision humaine. Non pas à chaque étape, sinon l'innovation serait bloquée. Mais sur des points critiques identifiés dans un dialogue partagé entre les professionnels, les patients et les concepteurs d'innovation. " David Gruson

      Le framework de la Garantie Humaine

      Niveau français

      • Avis 129 du CCNE 
        (septembre 2018)

      Contribution à la loi de bioéthique
      Recommandations émises suite au rapport Villani

      • Avis 130 du CCNE
        (mai 2019)

      Données massives (Big Data) en santé

      • Article 17 de la loi de bioéthique
        (août 2021)

      Intégré à l'article L. 4001-3 du Code de la santé publique

      • Délégation ministérielle au numérique en santé (DNS)
        (mai 2022)

      Recommandations de bonnes pratiques pour une éthique "by design" des solutions d'IA

      • Etude du Conseil d'Etat sur l'IA et l'action publique
        (août 2022)

      Principe de primauté humaine impliquant une supervision humaine et rappel de l'importance de la collégialité et de la pluridisciplinarité du regard humain

      Mention du modèle de Garantie Humaine mis en place par Ethik-IA et l'UFSBD

      • Avis commun : avis 141 du CCNE et avis 4 du CNPEN 
        (novembre 2022)

      Reconnaissance de l’importance des méthodologies de collèges de garantie humaine associant professionnels de santé et représentants des patients, comme moyen d’assurer le contrôle humain

      Niveau européen

      • Livre blanc de la Commission européenne sur l'IA 
        (février 2020)
      • Projet de règlement européen sur l'IA
        (avril 2021)

      Obligations de conformité pour les systèmes à haut risque qui incluent un contrôle humain à mettre en oeuvre en amont et en aval de la mise sur le marché du système d'IA

      • Rapport "AI in Healthcare" du Parlement européen
        (juin 2022)
      • Vote du projet de règlement européen (14 juin 2023)
      • Trilogue AI Act : accord politique trouvé (8 décembre 2023)

      Classification des modèles de fondation et IA génératives en fonction des risques systémiques
      Exigences pour les systèmes d'IA à haut risque (dont le contrôle humain) validées

      • 13 mars 2024 : Adoption du texte à la majorité par le Parlement européen en plénière

      Approche à deux niveaux pour l'IA à usage général, avec des obligations renforcées pour les modèles présentant un risque systémique ;

      Calendrier graduel d'entrée en application :
      - 6 mois pour les cas d'usage prohibés
      - 12 mois pour l'IA générative
      - 24 mois le reste du texte
      - 36 mois pour les législations d'harmonisation de l'UE

      Stabilisation des articles 14 et 26 relatifs au contrôle humain

      • Dernière étape attendue : adoption par le Conseil de l'UE

      Niveau international

      • Orientations de l'OMS : éthique et gouvernance de l'IA pour la santé
        (juin 2021)

      p. 13 : « Bien que les technologies d’IA effectuent des tâches spécifiques, il incombe aux parties prenantes de s’assurer qu’elles peuvent accomplir ces tâches et que l’IA est utilisée dans des conditions appropriées et par des personnes correctement formées »

      « cette responsabilité peut être assurée par l’application de la Garantie Humaine, qui implique une évaluation par les patients et des cliniciens lors du développement et du déploiement des technologies d’IA »

      • Recommandations de l'UNESCO sur l'éthique de l'IA
        (novembre 2021)

      Rappel de l’importance du principe de "human oversight and determination"

      • Lignes directrices de l'OMS : ethics and governance of AI for health : guidance on multi-modal models (janvier 2024)

      Collèges de Garantie Humaine comme possibilité pour l'inclusion de toutes les parties prenantes dès la phase de développement d'un LLM en santé