Introduction
L’intelligence artificielle (IA) a connu un essor considérable ces dernières années, principalement introduit par la popularité engendrée par ChatGPT en 2022.
Cette popularité a touché aussi bien les particuliers que les entreprises, par l’attrait d’une solution pratique et rapide pour répondre à une problématique donnée.
Cependant, que ce soit pour concevoir la rédaction d’un collégien ou pour s’impliquer dans le cycle de travail d’une entreprise, cette popularité a apportée avec elle de nouvelles problématiques, ou amplifié certains problèmes déjà existant.
Cet article va avoir pour objectif d’expliquer le fonctionnement basique d’une IA générative, ses usages classiques et par cette compréhension, mettre en évidence les menaces introduites par ce nouveau standard d’usage de l’intelligence artificielle.
Qu’est ce qu’une IA générative ?
Avant d’entrer dans le vif du sujet, il est nécessaire de comprendre ce qu’est une IA générative telle que ChatGPT.
L’intelligence artificielle en elle-même n’est pas une nouveauté, et même si la notion « d’intelligence » est discutable en fonction du contexte, les premières applications de systèmes experts remontent jusqu’aux année 70.
La notion qui a gagné en popularité englobe le principe d’IA faisant usages de Grand Modèle de Language (ou GPT/ Generative Pre-trained Transformer).
Sans entrer excessivement dans les détails techniques, le fonctionnement suit deux principes principaux : répondre à une requête et être capable d’être entrainé et d’évoluer.
L’utilisation basique par ChatGPT s’effectue par une requête sous forme de champ de texte et une réponse également sous forme de texte, cependant l’utilisation générale peut aussi cibler divers types de fichiers, des images, de l’audio ou des vidéos, que ce soit dans la requête ou dans la réponse.
L’objectif final est de fournir une réponse appropriée et être capable d’affiner et améliorer ce résultat petit à petit avec l’accumulation de donnée analysés.
Avec cet idéal en place, voyons comment cela se reflète dans l’utilisation commune et les dérives qui ont pu être crée en conséquence, volontairement ou non.
La sécurité des données personnelles
La sécurité des données personnelles est un sujet sensible, aussi bien en termes de protection de la vie privé que d’empêcher leur usage malveillant.
L’intérêt financier par rapport à la collecte des données peut prendre diverses formes plus ou moins dangereuse ou intrusive, allant des publicités ciblées jusqu’aux tentatives de subtilisation d’identités pouvant avoir des conséquences catastrophiques.
Avec l’ajout de l’IA dans l’équation, le procédé pour collecter des données peut être facilité, automatisé et trié, par des usages parfois discutables tel que la surveillance massive et l’impact par exemple sur le droit à l’image.
En plus de cette optimisation sur la collecte, l’IA elle-même peut faire usage de ces données pour sa propre amélioration, engendrant une raison supplémentaire d’accéder à des informations plus ou moins sensibles.
Que ce soit en tant qu’individu ou dans le milieu professionnel, il reste toujours aussi important de protéger ces données personnelles ou de n’exposer que ce qui est pertinent.
Pour les entreprises, le respect de le RGPD (Règlement Général de Protection des Données) est d’autant plus en vigueur, certaines démarches vis-à-vis de l’IA commençant à voir le jour et évoluerons probablement davantage dans les années à venir.
L’automatisation des emplois
Sur le même principe que pour des postes ayant cessé d’exister ou ayant évolué avec l’évolution de l’automatisation, diverses craintes voient le jour sur l’impact de l’IA générative par rapport aux emplois d’aujourd’hui.
Ces craintes suivent deux formes principales : qu’un poste soit rendu complétement obsolète ou que le gain de temps apporté soit utilisé comme prétexte pour réduire le volume de poste.
Un point important à noter est que ces IA, même avec leur capacité a s’améliorer, sont encore très loin d’être infaillible.
Que ce soit par une requête initiale erronée, une difficulté à trier et choisir les informations avérées ou une incapacité a englobé tout le contexte d’un problème, il est très commun que la réponse apportée par l’IA soit incomplète, pas à jour ou simplement incorrect.
De ce fait, malgré l’attrait d’obtenir un résultat en quelques secondes sur une démarche qui aurait normalement pus prendre une demi-heure, il ne faut pas omettre le temps passé pour corriger et affiner le résultat, qui peut être très variable d’un cas à l’autre.
De plus, il reste nécessaire d’avoir un minimum d’expertise par rapport au sujet demandé, au risque de ne pas être capable soit même de faire la différence entre le vrai du faux, l’IA mettant la priorité sur l’apport d’une réponse plutôt que sur la véracité, tant que l’utilisateur ne remet pas en question cette véracité.
On arrive alors sur deux types de poste impacté, ceux pour qui la qualité du contenu n’est pas jugée comme étant une priorité et ceux où un contrôle qualité reste primordial.
Ce premier type est d’ores et déjà visible par rapport à certains milieux du journalisme et du monde artistique, les articles, images et vidéo générés automatiquement gagnant en ampleur.
Pour le second type, il reste complexe d’estimer l’impact au niveau mondial, européen ou de notre pays, cependant nous pouvons rester optimiste sur le fait qu’un remplacement complet de ces postes reste peu réaliste.
La cybersécurité et l’IA malveillante
L’utilisation d’IA dans le cadre de la lutte continue entre cybersécurité et hacking n’est pas une nouveauté, que ce soit aussi bien pour aider a corriger des failles que pour les identifier et les exploiter.
Cependant, la popularité des grands modèles de langage et ses promesses de gain de temps et d’efficacité est également une opportunité alléchante pour les acteurs néfastes.
Rien que dans le contexte du phishing, le territoire a bien évolué en permettant des attaques très ciblé par rapport au profil de la cible, étant capable de trier les informations collectées afin d’adapter une attaque qui aura le plus de chance possible d’être considéré comme étant légitime.
Cette menace peut rester sur l’approche classique d’un mail ou d’un SMS mais peut aussi prendre une forme plus détournée, par exemple par appel téléphonique en se faisant passer pour une personne de confiance étant capable de répondre en direct.
Il reste donc toujours aussi important d’être méfiant et préparé par rapport à ces tentatives de vol d’information sensible.
Et au vu de la tendance de ces démarches à être de plus en plus convaincante, avoir une seconde ligne de défense reste d’autant plus pertinente (antivirus, pare feu, système de double authentification…).
Les biais et la discrimination algorithmique
Lorsqu’un expert effectue une requête pour une IA, s’il a suffisamment de connaissance sur le sujet, il va être capable d’identifier facilement si ce qui est produit est correct ou non.
Cependant, la problématique peut devenir bien plus subtile quand l’IA établi ses propres critères pour arriver à une réponse qui à première vue parait juste, mais qui a suivi un cheminement discutable.
Pire encore, si l’IA a l’impression que la réponse qu’il a apportée est confirmé comme valide, ce cheminement serra également considéré comme valide et utilisé pour des requêtes futures.
Ce problème peut être constaté dans les ressources humaines, dans le cadre de recrutement automatisé ou de sélection initiale.
Un recruteur peut établir le profil idéal recherché et laisser une IA faire le tri et retenir ceux qui suivent ce profil établi.
Toutefois, établir tel profil avec exactitude est particulièrement complexe, que ce soit pour confirmer si tous les critères ont bien été suivi, si tout ces critères sont justes et légaux ou si certains critères non évoqués agissent également dans la décision.
Il y a ainsi des risques que dans tel procédé automatisé, le sexe, l’âge voire même l’apparence d’une personne par reconnaissance faciale entre en ligne de compte, ce qui bien entendu devient très problématique.
Nous faisons alors face à de nouvelles problématiques, entre la responsabilité de l’utilisateur ou de l’entreprise par l’usage de tel outil et si le gain apporté initialement vaut la peine par rapport au risque en cas de faille.
Il reste également important à noter qu’une telle IA peut être ajustée volontairement pour que telle biais et discriminations soient limité, ce qui demande toutefois une vigilance constante, l’IA elle-même ne pouvant qu’efflorer l’équilibre idéal entre ce qui est « efficace » et ce qui est « juste ».
La manipulation de l’opinion publique
En revenant sur l’idée d’un usage de l’IA générative où la qualité du contenu n’est pas considérée comme une priorité, nous pouvons considérer le cas du journalisme et des réseaux sociaux.
Que ce soit pour des raisons politiques, financière ou autre, il est plus facile de trouver une plateforme d’information ayant un parti pris, même partiel, pour s’adapter à la demande et au public visé.
Dans tel milieu, une IA est susceptible de pouvoir collecter bon nombre d’information, qui suivent alors une tendance bien définie.
Si cette IA est maintenue dans telle milieu et évolue par rapport à ces informations isolés, elle peut ainsi développer ce même parti pris, que ce soit l’objectif volontaire ou par circonstance.
Avec ce développement, l’IA peut être en mesure de comprendre les « attentes du public » et produire des articles d’actualité bien spécifique pour cette demande, voir agir comme un bot capable d’imiter le public en question.
Tel usage est bien entendu problématique mais peut avoir un impact plus insidieux, notamment dans la conception de « deepfake ».
Une IA générative se contente de répondre à une requête à partir des moyens qui lui sont mis à disposition, et si la requête implique de concevoir un texte, une vidéo ou une image fictive qu’elle est capable de produire, le résultat serra obtenu, la véracité étant secondaire sauf si un des prérequis est de « paraitre réaliste ».
Également important à noter, même une IA qui serait développé avec un objectif de neutralité est toujours sous le risque d’être influencé, soit naturellement par l’accumulation d’information, soit par des tentatives volontaire de sabotage visant à provoquer une tendance.
En somme, les problématiques de désinformation et de trouver une source non altérée et purement factuelle n’est pas évident et n’est pas rendu plus facile par le développement et l’accessibilité de l’IA, restant à voir comment le côté juridique évoluera en conséquence.
Le risque de dépendance
Cet aspect est probablement le plus insidieux et le plus complexe a réellement estimer à long terme, mais il reste important de le considérer.
Même en considérant tous les problématiques énoncés précédemment, le fait qu’une IA générative est capable de faire gagner un temps considérable et être efficient dans les démarches d’une entreprise reste un fait.
Si manipulé de manière correcte et structurée, telle IA peut conserver un retour purement positif, et on peut s’attendre à ce résultat avec l’évolution des formations et métiers mettant pleinement à profit cet outil.
On peut toutefois se poser des questions sur l’impact de cet outil comme un standard, notamment si la simplicité à obtenir un résultat peut engendrer un risque de devenir déconnecté par rapport aux démarches entrepris pour arriver à ce résultat.
Ce problème peut déjà se ressentir partiellement dans le milieu du développement informatique, où un spécialiste peut juger que certaines sections de son code peuvent être obtenu par le biais d’une IA, et être fonctionnel initialement.
Le soucis peut toutefois arriver plus tard, où un code erreur n’est pas suffisant pour trouver la raison d’un problème parmi une solution fournit par l’IA.
Dans ce contexte comme dans d’autres, il reste donc important de comprendre comment et pourquoi l’IA est arrivée à son résultat, quand bien même ce pourrait être considéré comme une « perte de temps ».
Conclusion
La popularité croissante des grands modèles de langage ne fait que débuter, et bien qu’elle offre des opportunités immenses, elle introduit également de nouvelles menaces.
Il est crucial d’aborder ces défis de manière proactive en renforçant la réglementation, en protégeant les données personnelles, et en sensibilisant le public aux dangers potentiels.
Il est également important de considérer que l’usage de cet outil pour tous ses attraits d’efficacité et de compétitivité, mais que comme tout outil il y a une méthodologie spécifique pour en faire un usage optimal.