Le règlement sur l’intelligence artificielle (IA) – en anglais : AI Act –, est entré en vigueur le 1er août 2024. Ce texte introduit un cadre réglementaire et juridique commun pour l’IA, au niveau européen. Son objectif : gérer tout risque associé à l’IA, qu’il qualifie de minime, limité, élevé, voire inacceptable, selon le type d’application. Quelles sont les conséquences pour les entreprises de l’écosystème de la santé en général et pour celles liées à la communication en particulier ? Quels sont les défis à relever en termes de mises en conformité d’un contenu rédactionnel, d’une image, d’un son, d’une vidéo… ? Faut-il se former ? Se réorganiser ? Quelles sont les amendes possibles en cas de manquement à ce nouveau règlement ?... Autant de questions qui ont été soulevées et traitées par Nathalie Beslay, avocate spécialisée en santé et cofondatrice de la société Naaia, solution de pilotage de la conformité et de la gestion des risques de l’IA, lors de la Matinale de la FNIM du 23 janvier 2025. Une rencontre organisée dans les locaux du Roof Top Grenelle, à Paris, également relayée en distanciel et animée par Denise Silber. À la tête de l’agence Basil Stratégies et vice-présidente de la FNIM, elle précise que « trois facteurs expliquent l'intérêt marqué des sociétés membres de la FNIM pour cette session dédiée à l’AI Act : leur utilisation actuelle de l'IA, l'exigence de leurs clients à vouloir rester à la pointe de l’innovation et les perspectives croissantes d'opportunités offertes par l’IA. »
Les chiffres parlent d’eux-mêmes. Le marché global de l’IA, dans le monde, devrait atteindre 740 milliards de dollars en 2030. Soit une croissance annuelle de 30%. Même accélération en Europe, où le marché de l’IA représente un cinquième du marché mondial et devrait atteindre une valeur de 206 milliards de dollars en 2030. Quant à l’IA générative, son impact sur les entreprises – tous secteurs confondus - est déjà plus que remarquable : 91% d’entre elles ont augmenté leur efficacité, 73% ont économisé des coûts et 71% ont rationnalisé leurs processus. Dans un tel contexte, il devenait urgent de poser un cadre. C’est chose faite depuis le 1er août 2024 avec l’entrée en vigueur de l’AI Act, qui fait désormais de l’IA un produit réglementé dans toute l’Union européenne. Toutefois, les autres régions ne sont pas en reste, avec des cadres réglementaires sur l’IA qui se mettent en place partout dans le monde : Chine, Corée du Sud, Singapour, Inde, Royaume-Uni, Brésil, sans oublier les Etats-Unis. Et ce malgré l’annulation de l’Executive order - décret de Joe Biden destiné à assurer le développement sécurisé et éthique de l’IA - par le nouveau président des États-Unis, Donald Trump, « Il existe une centaine de textes sur l’IA répartis dans les différents États américains, dont la Californie », a rappelé Nathalie Beslay, avocate spécialisée en santé et cofondatrice de la société Naaia, solution de conformité et de gestion des risques de l’IA. Invitée de la dernière Matinale de la FNIM, consacrée aux changements induits par l’AI Act dans l’écosystème de santé et animée par Denise Silber, à la tête de l’agence Basil Stratégies et vice-présidente de la FNIM, l’avocate a affirmé que « des contraintes vont être maintenues quant à l’IA, outre-Atlantique ». Elle a également souligné que des pays comme la Chine ou la Corée du Sud, par exemple, s’inspiraient, eux aussi, de l’AI Act. En revanche, là où le bât blesse, « c’est plutôt du côté des organisations, qui ne sont pas prêtes », a pointé Nathalie Beslay. Chiffres à l’appui : « Certes, 77% des entreprises affirment que la future règlementation sur l’IA constitue une priorité dans toute l’entreprise. Toutefois, 25% des directions d’entreprises seulement ont commencé à mettre en place des actions pour anticiper la réglementation. »
Un calendrier règlementaire à respecter
En quoi consiste ces actions à déployer ? Elles visent notamment à sensibiliser et former les équipes « pour monter à bord de l’IA », comme le dit Nathalie Beslay, mais aussi à mettre en place des processus de transformation et de gestion des risques ou autres outils de mesure des performances réalisées. Face aux impacts environnementaux, coûts financiers et sociaux ou autres conséquences en termes de protection de la propriété intellectuelle… il faut faire vite. Car le calendrier règlementaire se veut resserré dans le temps et contraignant, avec une approche fondée sur les risques – minimes, limités, élevés, inacceptables -, une qualification qu’effectue la plateforme Naaia. Ainsi, le 2 février 2025 marque l’interdiction des IA à risques inacceptables (8 pratiques). « À l’instar du système de reconnaissance des émotions et intentions, - par exemple pour mesurer le niveau d’engagement des participants à une réunion… sauf à des fins de sécurité ou de santé », a détaillé Nathalie Beslay. Puis, à partir du 2 août 2025, les obligations pour les General Purpose AI rentreront en application. Uune douzaine d’acteurs – tel qu’OpenAI… - vont alors se mettre en conformité et fournir, entre autres, un modèle de résumé d’entraînement. Quant aux systèmes d’IA à hauts risques, les obligations entreront en application le 2 août 2026 pour 8 domaines, tels que les systèmes biométriques, l’emploi ou encore l’éducation et la formation professionnelle (domaines listés à l’Annexe III de l’AI Act). Ils devront, par exemple, faire l’objet d’un marquage CE obligatoire pour les fournisseurs du système d’IA. Même scénario, au 2 août 2027 pour les produits déjà régulés et faisant déjà l’objet d’un marquage CE, dont notamment les dispositifs médicaux (liste en Annexe I de l’AI Act).
7 principes éthiques
« En pratique, l’AI Act s’applique au regard de deux critères, dont l’application dépend de la qualité de l’opérateur : le lieu d’établissement de l’opérateur et lorsque le produit est mis sur le marché, mis en service ou utilisé dans l’Union européenne », a résumé l’avocate. Parmi les grands principes de l’AI Act, Nathalie Beslay a cité « une IA digne de confiance ». C’est-à-dire une IA qui fait référence aux lignes directrices élaborées en 2019 par le GEHN IA, groupe d’experts indépendants constitué par la Commission européenne en juin 2018. Le GEHN IA a ainsi élaboré 7 principes éthiques pour l’IA. À savoir la confiance, la robustesse, la diversité, le respect de la vie privée, l’action humaine, le bien-être social et environnemental, sans oublier la transparence. L’AI Act prévoit également des obligations particulières de transparence pour ce qui est des interactions avec des personnes physiques, de la reconnaissance des émotions, de l’hypertrucage, de la génération de contenus audios, vidéos, sons, images, de la génération ou manipulation de textes dans le but d’informer sur des questions d’intérêt public. Autrement dit : « Si l’on utilise de l’IA dans une création ou un contenu rédactionnel, mieux vaut prévoir des mentions légales à faire apparaître, pour préciser que l’on a interagi avec de l’IA ou que tel texte a été produit avec de l’IA », a expliqué l’avocate. En revanche, en cas d’ajout ou de re-création « humaine » à partir d’une réalisation issue de l’IA, cette dernière n’est pas obligatoirement à mentionner. « À ce titre, nous pourrions imaginer que les communicants, les publicitaires, les créateurs de contenus, tous acteurs responsables d’un écosystème, s’unissent pour standardiser des mentions légales à utiliser lorsqu’il y a recours à l’IA », a suggéré Nathalie Beslay.
Des amendes dissuasives
Côté sanctions, elles sont prévues par l’AI Act. Mais ce sont les États membres qui les déterminent. Celles-ci doivent être à la fois effectives, proportionnées – elles prennent en compte la taille et les intérêts des entreprises - et dissuasives. Ainsi, en cas de pratiques interdites en matière d’IA ou de non-conformité aux dispositions relatives aux modèles, l’amende encourue peut atteindre les 35 millions d’euros. En cas d’infractions aux dispositions règlementaires, l’ardoise peut grimper jusqu’à un montant de 15 millions d’euros. Enfin, en cas de fourniture d’informations inexactes, incomplètes ou trompeuses aux organismes notifiés ou aux autorités nationales compétentes, l’amende peut aller jusqu’à la somme de 7,5 millions d’euros. De quoi dissuader, en effet.
Les défis de l’IA pour les industries de santé
Pour conclure son propos, Nathalie Beslay a passé en revue « les défis de l’IA pour les industries de santé ». Fonctions supports, optimisation des processus métiers, innovation des services et produits de santé numérique : tous sont concernés. Dans le cas des fonctions supports, l’avocate a cité en exemple les outils d’aide au recrutement, l’automatisation des processus financiers, les outils d’analyse de contrats juridiques, la mise en place d’un chatbot, les ciblages clients… autant de possibilités pour réduire les coûts, gagner du temps et augmenter en efficacité. Quant à l’optimisation des métiers, pour Nathalie Beslay, injecter de l’IA dans la R&D, les essais cliniques, la fabrication et la production de médicaments, la pharmacovigilance et la gestion des risques, cela peut non seulement diminuer les investissements, mais surtout donner un coup d’accélérateur à l’innovation. Même dynamique avec les services : l’IA peut utiliser des données génomiques ou comportementales pour adapter des traitements à des besoins spécifiques, faciliter le suivi d’un patient à distance ou encore délivrer des informations médicales ciblées aux professionnels… Autant d’approches personnalisées pour renforcer l’efficacité thérapeutique. Enfin, avec l’IA, les produits de santé numérique peuvent générer des applications mobiles, la mise en place de capteurs connectés ou de dispositifs intelligents pour l’administration des médicaments, la programmation de suivi de traitements, des solutions de réalité augmentée ou virtuelle pour former les praticiens… L’avocate n’a pas hésité à parler d’« IA-isation des tâches ». Un vocabulaire nouveau, qui trouve toute sa pertinence à l’heure où 55% des individus estiment que l’IA apporte plus d'avantages que d'inconvénients, selon une étude menée en 2024 dans 32 pays par l’Institut Ipsos. En Chine, en Indonésie et en Thaïlande, ce chiffre dépasse même les 75%.