L'intelligence artificielle générative (ou GenAI en abrégé) est devenue l'une des technologies les plus transformatrices de ces dernières années et a acquis une renommée mondiale depuis le lancement de ChatGPT en novembre 2022. Aujourd'hui, la plupart des personnes ayant accès à Internet ont déjà expérimenté avec ChatGPT, ou avec des plateformes similaires comme Claude, Midjourney et Synthesia, pour générer du texte, des images ou des vidéos. De plus, avec l'intégration de GenAI dans des applications et services courants, Bing Chat étant un exemple notable, la plupart des gens utilisent cette technologie indirectement au quotidien.
Néanmoins, pour les entreprises et les organisations, en particulier les PME, déterminer comment utiliser GenAI de manière efficace et sûre reste une question complexe. Le message marketing des sociétés informatiques se résume souvent à « utilisez l'IA pour améliorer votre productivité », mais ce message est quelque peu simpliste et trompeur. Il occulte les risques associés à l'IA qui doivent être évalués par toute organisation envisageant d'utiliser GenAI.
Table des matières
1. Qu'est-ce que l'IA générative
2. Quels sont les risques de GenAI ?
3. Comment votre entreprise devrait-elle adopter GenAI ?
4. L'importance de la gouvernance
1. Qu'est-ce que l'IA générative ?
GenAI est une technologie qui permet la création de contenu - tel que du texte, des images et des vidéos - à partir d'une commande (ou d'un prompt) saisie par un utilisateur. GenAI excelle dans les tâches de traitement du langage naturel telles que l'amélioration de la qualité expressive du texte, la réalisation de traductions et même l'exécution de tâches professionnelles telles que la rédaction d'un CV ou la rédaction d'un plan d'affaires. Les plateformes GenAI génèrent également des images, Dall-e et Midjourney étant parmi les plateformes les plus populaires, ainsi que des vidéos (Runway, Synthesia, Fliki). Aujourd'hui, GenAI est utilisé par les équipes de design et de marketing pour créer des images et par les développeurs pour créer du code, corriger des bugs, pour refactoriser les codes sources des vieux logiciels et pour créer de la documentation.
De nombreuses entreprises développent leurs propres plates-formes d'IA pour des tâches organisationnelles spécifiques. Un cas d'utilisation courant de GenAI dans les organisations est celui des chatbots. Leur rôle est de répondre aux questions des clients, évitant ainsi le « coût » des opérateurs humains. Ces plateformes sont créées par un entraînement des « modèles » de l’IA avec les données organisationnelles. Ce processus peut également impliquer la personnalisation – ou le fine-tuning – de l'un des nombreux modèles d'IA disponibles. La plate-forme Hugging Face, par exemple, propose actuellement plus de 650'000 modèles d'IA à utiliser.
L'origine du terme intelligence artificielle remonte à 1955 et il est généralement attribuée à l'informaticien John McCarthy. A cette époque, l’ambition des informaticiens était de créer des machines informatiques à usage général. Il est peu probable que ces scientifiques auraient imaginé des machines dotées de la puissance des plateformes GenAI d'aujourd'hui.
Le mot « intelligence » dans GenAI est controversé. Il est discutable que le terme intelligence puisse être utilisé pour décrire les machines, d'autant plus que la signification de l'intelligence par rapport aux humains et aux animaux a beaucoup évolué au cours des dernières décennies. Par exemple, le terme intelligence émotionnelle ne semble être apparu que dans les années 1960. Un nom plus approprié pour GenAI est probablement les « algorithmes stochastiques avancés ». Ces algorithmes sont stochastiques car ils manipulent les probabilités. Par exemple, lors de la génération de texte, le modèle produit des réponses basées sur la probabilité que certaines phrases apparaissent en fonction du prompt saisi par l'utilisateur. Les probabilités sont calculées en examinant les vastes quantités de données disponibles sur Internet, dans les articles Wikipédia, les livres, sur commoncrawl.org, archive.org et sur d'autres sites Web. Les modèles GenAI sont parfois décrits comme des perroquets stochastiques pour refléter leur nature probabiliste.
2. Quels sont les risques de GenAI ?
L'utilisation de GenAI comporte plusieurs risques potentiels que toutes les organisations devraient prendre en compte avant d'utiliser la technologie.
- Manque de compréhension. Comme mentionné, les modèles GenAI ne sont que des perroquets stochastiques. Ils ne possèdent pas une compréhension innée du contenu généré. Ces modèles peuvent générer, et génèrent souvent, du contenu contrefactuel – un phénomène appelé hallucination.
- Risques commerciaux : tout comme les employés humains, les chatbots GenAI peuvent commettre des erreurs qui entraînent des responsabilités commerciales. Par exemple, le chatbot d'Air Canada a promis à un client un rabais que la compagnie aérienne a ensuite refusé. Cependant, un tribunal canadien a donné raison au client, estimant que les informations du chatbot, disponibles sur le site de la compagnie aérienne, ne pouvaient être désavouées par la compagnie aérienne.
- Biais et qualité des données : le contenu généré par l'IA reflète les données qui ont été utilisées lors de la phase d'entraînement de l'IA, et ces données proviennent principalement d'Internet. De nombreuses les données Internet contiennent des inexactitudes et des biais (à caractère raciste, sexuel, etc.), susceptibles d'être reproduits dans le contenu généré. La qualité du contenu généré par l'IA est intrinsèquement limitée par la qualité de ses données d'entraînement.
- Fuites de données et problèmes de confidentialité : les modèles d'IA peuvent involontairement divulguer les données saisies par les utilisateurs dans les prompts. Cela pose des risques importants, en particulier pour les données propriétaires ou sensibles. Un exemple est celui des employés de Samsung qui ont provoqué une fuite du code logiciel en utilisant ChatGPT. Par ailleurs, les autorités polonaises ont ouvert une enquête contre OpenAI pour violations du RGPD, invoquant un manque de transparence dans la manière dont les données personnelles extraites d'Internet ont été traitées.
- Coûts opérationnels : l'utilisation de modèles génératifs a un coût. OpenAI a introduit ChatGPT Enterprise, et facture 60 USD par employé. En plus, les organisations doivent faire face au coût de la mise à niveau des compétences des employés pour utiliser les outils GenAI de manière responsable.
- Problèmes de propriété intellectuelle : un débat est en cours sur la propriété du contenu généré par l'IA. Lorsque vous générez du contenu, en êtes-vous propriétaire ou appartient-il aux propriétaires de la plateforme GenAI ? Les termes et conditions de la plateforme GenAI devraient répondre à cette question. Dans le cas de ChatGPT par exemple, à l'heure actuelle (mai 2024), OpenAI ne revendiquera pas de droits d'auteur sur son contenu généré par les utilisateurs. Mais le problème est encore plus compliqué. Les modèles GenAI sont entraînés avec des données accessibles au public, mais les données accessibles au public ne sont pas les mêmes que les données du domaine public. Les modèles GenAI ont été entraînés sur des données pour lesquelles certains auteurs prétendent ne pas avoir donné leur autorisation. Une telle utilisation pourrait enfreindre le droit d'auteur. Les juristes peuvent faire valoir que les données utilisées dans la formation d’un modèle devraient relever du principe d’usage loyal de la loi sur le droit d’auteur. Le débat est en cours. Dans le cas de la génération de logiciels par la GenAI, les modèles GenAI tels que Copilot ont été entraînées avec des logiciels, y compris des logiciels avec une licence gratuite ou open source. Il est possible que l'utilisation de modèles GenAI pour créer du code avec une licence propriétaire puisse enfreindre les termes du logiciel utilisé dans la phase d'entraînement.
Le carburant de GenAI, ce sont les données. La technologie existe parce qu’il existe de nombreuses données disponibles pour entraîner ou personnaliser des modèles d’IA. Cependant, les entreprises d’IA ont encore besoin de davantage de données. Un endroit (surprenant ?) où ils rechercheront des données est sur les profils de réseaux sociaux de personnes décédées ! Le nombre de ces profils devrait atteindre des millions dans les années à venir. L'autorité irlandaise de protection des données a récemment statué que les les personnes décédées ne sont pas protégées par le RGPD. Ainsi, aucune réglementation ne protège les données de nos défunts.
3. Comment votre entreprise devrait-elle adopter GenAI ?
Compte tenu de ces risques, que doit faire une organisation si elle envisage d'utiliser GenAI ? La technologie présente des avantages évidents pour améliorer les processus au sein des organisations. Une fois que les organisations sont conscientes des risques, deux étapes doivent être suivies avant de déployer la technologie.
La première étape consiste à découvrir comment votre organisation utilise déjà l'IA. Il arrive parfois que les employés installent ou utilisent des applications et des services informatiques à l'insu de la direction de l'entreprise – un phénomène connu sous le nom de shadow IT. Il peut être difficile d’interroger les employés et collaborateurs sur ce sujet, mais les réponses peuvent être très utiles. Peut-être qu'un collègue utilise ChatGPT pour corriger la grammaire des e-mails avant de les envoyer, ou pour traduire des documents. Peut-être qu'un collègue informaticien utilise Github Copilot ou Amazon Code Whisperer pour l'aider à développer des logiciels.
Que votre organisation décide d'adopter l'IA générative ou non (en raison des risques associés), savoir comment vos collègues utilisent GenAI est informatif car cela indique d'éventuelles faiblesses ou inefficacités dans vos processus organisationnels actuels qui pourraient être résolus.
Une autre raison d'identifier la manière dont vos collègues utilisent GenAI est de connaître les risques organisationnels. Il se peut que des informations personnelles soient divulgées via les prompts, ce qui soulève la possibilité de fuites de données, ce qui peut être puni par les réglementations sur la protection des données telles que le RGPD. Un autre risque est que les collaborateurs s’appuient sur GenAI pour prendre des décisions jugées trop risquées à prendre sans intervention humaine. Un exemple simple consiste à choisir d’embaucher ou non un candidat sur la base d’un CV soumis. Le service des ressources humaines doit être en mesure d'expliquer à un candidat non retenu pourquoi sa candidature n'a pas été acceptée. Un opérateur humain serait incapable d’expliquer comment une plateforme GenAI parvenait à une décision de rejet si c’était cette plateforme qui prenait la décision. La capacité à comprendre les décisions prises par les systèmes d'IA est une exigence fondamentale de l'IA explicable .
La deuxième étape, avant de déployer GenAI, est de définir votre concept de responsabilité. Cet exercice consiste essentiellement à définir les limites que vous ne souhaitez pas franchir pour votre organisation, et ces limites dépendent de la nature de l'entreprise. Prenons trois exemples :
- Une pharmacie envisage d'utiliser un chatbot pour répondre aux questions des clients. Il est possible que le pharmacien juge acceptable que le chatbot réponde à des questions concernant les cartes de fidélité ou la gamme de parfums en vente. En revanche, le pharmacien pourrait refuser catégoriquement que le chatbot réponde à toute question concernant le choix ou la posologie d’un médicament. Il ou elle peut penser que ces questions ne devraient être répondues que par un professionnel certifié.
- Une société de location d'appartements décide de déployer un chatbot. Auparavant, le propriétaire pouvait accepter que le chatbot réponde aux questions concernant les appartements vacants à louer en termes de prix des loyers, d'âge, de commodités, de temps de déplacement, etc. En revanche, le propriétaire pouvait refuser que le chatbot participe à la constitution des dossiers clients où des informations sensibles telles que les salaires ou les adresses scolaires des enfants sont traitées. De cette façon, le propriétaire atténue le risque de perte d'informations sensibles.
- Dans le cas d'une université, il est possible que le personnel accepte qu'un chatbot réponde aux questions sur les devoirs, les lectures recommandées, mais que le chatbot ne donne jamais de conseils sur les cours qu'un étudiant doit suivre. Le personnel estime qu'on ne peut orienter un étudiant dans son parcours qu'après avoir discuté avec lui et appris à le connaître.
4. L'importance de la gouvernance
Les deux premières étapes concernent réellement la gouvernance des données organisationnelles. Ce thème consiste à assumer la responsabilité de tout traitement de données au sein de l'organisation. La gouvernance des données est un long processus, et certains aspects sont couverts par la loi.
Par exemple, les règlements sur la protection des données tels que le RGPD européen et la loi suisse sur la protection des données contrôle le traitement des données personnelles au sein des entreprises. Les organisations doivent avoir des raisons formelles pour conserver des données (telles que le consentement d'un individu ou une exigence légale comme celle qui oblige les entreprises à conserver les données salariales pendant plusieurs années), et elles doivent protéger les données avec la même rigueur que celle que nous attendons des banques pour protéger nos économies. Le nouveau Règlement européen sur l'intelligence artificielle réglemente la manière dont les organisations utilisent l'IA. En particulier, les organisations devront effectuer une analyse des risques pour chaque système d'IA qu'elles déploient. Certains types de traitements seront considérés comme présentant des risques inacceptables. Les exemples couramment cités incluent les systèmes qui effectuent une reconnaissance faciale en temps réel, ceux qui influencent de manière subliminale les enfants ou qui classifient les individus en fonction de caractéristiques sexuelles ou raciales.
En fin de compte, l'adoption de l'IA doit se faire dans le cadre plus élargi d'une transition informatique responsable.
5. Y a-t-il un contexte plus large ?
Le débat autour de GenAI est bien plus vaste que ce que les organisations individuelles décident de faire avec la technologie. GenAI a un profond impact géopolitique. Par exemple :
- L'IA peut générer du contenu si efficacement que des acteurs malveillants utilisent cette technologie pour créer de la désinformation à grande échelle. Une entreprise spécialisée dans la détection des deep-fakes rapporte un 900 % d'augmentation du nombre de deep-fakes en 2024. Cette année, des élections auront lieu dans des pays dont la population totale représente près de la moitié de l'humanité. L'impact de la désinformation peut donc être très grave pour la démocratie dans le monde.
- GenAI a besoin de puissance de calcul, et celle-ci provient notamment des GPU, des processeurs hautes performances développés à l'origine pour les consoles de jeux. Taïwan produit actuellement plus de 90 % des GPU, et la crainte d'un blocus chinois ou d'une invasion de Taïwan pousse les gouvernements occidentaux à rechercher des alternatives. De plus, La Chine est désormais le pays leader dans GenAI en termes de recherche.
- GenAI a un impact écologique. Par exemple, un article de Scientific Reports estime que ChatGPT génère 3,82 tonnes de CO2 chaque jour.
- Les réseaux pédophiles exploitent les capacités de GenAI pour combiner du contenu sexuel pour adultes avec des représentations non sexuelles d'enfants afin de produire du contenu abusif. Ces réseaux utilisent également GenAI pour « nudifier » des photos d'enfants.
Des progrès ont été réalisés en faveur de la législation encourageant l'IA responsable, depuis Chine et Asie, ainsi qu'en Europe et aux États-Unis. L’objectif de la réglementation est de promouvoir l’utilisation responsable de GenAI par les citoyens et les organisations. Les principes clés du cadre d'Hiroshima, par exemple, incluent l'obligation d'étiqueter l'origine du contenu généré par l'IA (afin qu'il puisse être plus facilement identifié comme étant de la désinformation ou du matériel portant atteinte au droit d'auteur), d'évaluer les risques sociétaux liés au déploiement de modèles d'IA et donner la priorité au développement de systèmes qui répondent aux défis mondiaux tels que l'éducation et le changement climatique.
6. Conclusion
L'IA générative constitue un changement majeur puisqu'elle permet l'automatisation des processus organisationnels dans de nombreux métiers. Le défi est que la technologie comporte des risques, et les entreprises informatiques ne sont pas toujours disposées à les mettre en évidence ou à expliquer comment ces risques peuvent être gérés. Après tout, les sociétés informatiques fournissent la technologie aux organisations, mais ce sont celles-ci qui doivent assumer les conséquences des risques.
Les organisations peuvent adopter GenAI et bénéficier de ses avantages. Il leur suffit de définir au préalable leur idée de responsabilité et de s'assurer que son adoption s'inscrit dans une transition vers une gouvernance informatique responsable.