L'IA représente aujourd’hui un réel défi humain. En incitant à explorer les frontières de la science et de la technologie sous toutes ses formes, avec ses défi s et ses ambiguïtés, l’intelligence artificielle nous questionne sur notre état d’esprit et notre construction du futur : « Avec IA, où va-t-on ? » Les défis éthiques et sociétaux sont immenses et souvent pris à la légère ou avec peu d’empressement…
Reconnu pour son « techno-optimisme», Sam Altman1, fondateur et pdg d’OpenAI (ChatGPT)2 s’était exprimé six mois après la sortie de ChatGPT (en novembre 2022) sur le futur de l'intelligence artificielle. « Nous avons perdu notre sens de l’optimisme à propos de l’avenir – parfois pour de bonnes raisons. Mais je crois que c’est notre devoir à tous de le raviver (…) et le seul moyen que je connaisse pour le retrouver, c’est d’utiliser la technologie pour créer l’abondance. »
Ces propos illustrent également la position des géants du numérique de Google à Elon Musk qui estiment que le monde numérique, grâce à l'intelligence artificielle, restructurera la condition humaine, où travailler ne sera plus « nécessaire ». « Les progrès technologiques que nous ferons dans les cent prochaines années dépasseront largement tout ce que nous avons fait depuis que nous avons maîtrisé le feu et inventé la roue », y prédisait le dirigeant d’OpenAI, concédant un « semblant utopique ».
Tout est donc clair et la course est lancée. L'IA est devenue un atout stratégique de tout premier ordre, autant dans son développement que dans ses effets pervers où l’argent et le pouvoir portent cette technologie à tour de bras.
LES RISQUES LIÉS À L'IA
Les risques liés à l’intelligence artificielle sont nombreux et réels : interactions auprès des utilisateurs (réseaux sociaux), malwares, désinformation,
liberté d’expression… L’IA avance plus vite que la jurisprudence des États. Même si la politique s’en mêle, elle est encore de manière trop raisonnée dans le monde.
L’Union européenne, a récemment lancé son premier cadre juridique en adoptant un règlement sur les risques liés à l'IA. Ceux-ci sont définis sur quatre niveaux d’importance :
1. Risque inacceptable
Cette catégorie interdit les systèmes qui représentent une menace évidente pour la sécurité ou les droits de l'Homme.
2. Risque élevé
Sont considérées comme élevées les infrastructures critiques qui constituent une menace pour la sécurité humaine ou les droits fondamentaux (transports, éducation, composants de sécurité des produits, l’emploi, la gestion des travailleurs et l’accès au travail indépendant, les services publics et privés essentiels, les services répressifs susceptibles d’interférer avec les droits fondamentaux des personnes, la gestion de la migration,
de l’asile et du contrôle aux frontières, l’administration de la justice et processus démocratiques).
3. Risque limité
La loi doit garantir que toute personne doit être informée lors de l'utilisation de chatbots3 (programme informatique simulant ou traitant une conversation humaine écrite ou parlée telle que ChatGPT) et que les contenus sont générés artificiellement. Les contenus audio et vidéo, qui peuvent se caractériser par des contrefaçons importantes, font partie de cet encadrement.
4. Risque minimal ou nul
Le risque minimal ou nul inclut des applications telles que les jeux vidéo compatibles avec l’IA ou les filtres antispam. La grande majorité des
systèmes actuellement utilisés dans l’Union européenne relèvent de cette catégorie.
L’UTILISATION DES ALGORITHMES
Les algorithmes suivent les instructions d'un programme pour effectuer des tâches spécifiques, comme par exemple le contenu des réseaux sociaux qui sont gérés par l'interaction des utilisateurs avec d'autres contenus tels les likes, les commentaires et les partages. Ils façonnent ainsi notre réalité de manière omniprésente, de la recommandation de contenu en ligne à la prise de décisions critiques dans tous les domaines et particulièrement ceux de la finance, de la santé et de la justice. Ils peuvent avoir de nombreux effets pervers et dangereux : les mal-wares avec une incroyable capacité d'adaptation, le phishing (comme cet exercice pour les Jeux olympiques où 500 gendarmes se sont fait piéger par un faux mail venu de leur hiérarchie), un robot détourné de sa fonction première pour identifier et détruire une cible, un système prédictif de perturbation
civile et autres fake news…
La désinformation
L’un des dangers les plus préoccupants de l’utilisation des algorithmes est la désinformation. Les plateformes de médias sociaux et les moteurs de recherche utilisent des algorithmes pour personnaliser le contenu présenté à chaque utilisateur, créant ainsi des bulles de filtres et des chambres d'écho qui sont « l’endroit » où les gens ne voient que des informations tournées vers leurs croyances et leurs opinions.
La systématisation des discriminations
Les algorithmes peuvent aggraver les discriminations présentes dans la société lorsqu’ils sont formés sur des données historiques qui reflètent
des préjugés humains. Ils peuvent ainsi perpétuer – voire amplifier – ces biais. Par exemple, les systèmes de recrutement basés sur des algorithmes ont été accusés de favoriser certains groupes démographiques au détriment d’autres, renforçant ainsi les inégalités sur le marché du travail.
La cybercriminalité
La sophistication des algorithmes a donné lieu à de nouvelles formes de cybercriminalité.
Des attaques de phishing ciblées en exploitant les algorithmes pour maximiser leur efficacité donneront dans le futur des perturbations majeures dans les données informatiques, comme cette cyberattaque menée contre France Travail (anciennement Pôle Emploi) sur les 43 millions d’inscrits.
Pertes massives d’emplois
L’automatisation alimentée par des algorithmes a le potentiel de perturber de manière significative le marché du travail, entraînant des pertes
massives d’emplois dans de nombreux secteurs.
Comme l'a souligné Sam Altman, les progrès rapides de l’intelligence artificielle et de la robotique signifient que de plus en plus de tâches effectuées autrefois par des travailleurs humains peuvent désormais être accomplies par des machines.
Si ces tendances se poursuivent sans régulation adéquate, cela pourrait entraîner un chômage structurel généralisé et des inégalités économiques
croissantes.
ET LES DICTATURES DANS TOUT CELA ?
Les dictatures ont un fort potentiel à exploiter l’intelligence artificielle pour consolider leur pouvoir à l’intérieur de leurs frontières et leur influence à l’étranger. Ces préoccupations majeures en matière de droits de l’homme, de liberté d’expression et de démocratie soulignent la nécessité
d’une réglementation stricte et de vigilance internationale pour encadrer l’utilisation de l’IA dans le monde entier.
Surveillance de la population
Pour détecter rapidement toute opposition ou dissidence et réprimer efficacement toute forme de contestation, les dictatures utiliseront l’intelligence artificielle sur leur population en collectant et en analysant toutes les données provenant des réseaux sociaux, des caméras de surveillance et des communications…
Contrôle de l’information
Contrôler et manipuler l’information accessible à la population font partie des régimes autoritaires.
Cela peut inclure la censure en ligne, la manipulation des résultats de recherche, la propagande sur l'opinion publique conformément au narratif officiel du régime.
En utilisant des techniques de reconnaissance faciale et d’analyse de comportement bien plus efficaces que celles actuellement utilisées, les dictatures pourront identifier et surveiller plus aisément les individus considérés comme des dissidents ou des opposants politiques. Cela peut conduire à des arrestations arbitraires, des détentions secrètes et d’autres formes de répression, comme cela se passe déjà aujourd'hui.
Utilisation de la désinformation à l’étranger
Les algorithmes d’IA pourront être utilisés pour mener des campagnes de désinformation à l’étranger, dans le but de semer la confusion, de diviser les populations étrangères et d’affaiblir les démocraties rivales. Cela peut se faire via les réseaux sociaux, les sites web et les médias
étrangers contrôlés par les différents régimes.
Développement de technologies de surveillance pour d’autres dictatures
Certains régimes autoritaires peuvent développer, vendre ou s'allier avec ces technologies de surveillance basées sur l’IA à d’autres dictatures,
contribuant ainsi à renforcer le contrôle gouvernemental et la répression dans d’autres pays.
EST-CE QUE L’INTELLIGENCE ARTIFICIELLE EST L’AVENIR DE L’HUMANITÉ ?
Il est évident que l'intégration de l'IA dans de nombreux domaines(médical, scientifique, industriel ou autres), donnera une approche beaucoup plus précise et rapide grâce à l'analyse des données en grande quantité.
L'idée de créer des systèmes capables de penser, d'apprendre et d'agir comme des êtres humains suscite une curiosité ou une fascination évidente pour certains, et pour d'autres une exploitation ou une forte dégradation humaine. L'IA représente un réel défi intellectuel, incitant les chercheurs et les passionnés à explorer les frontières de la science et de la technologie sous toutes ses formes, ses défis et ses ambiguïtés.
Mais il est tout d'abord crucial d'adopter une approche proactive et réfléchie pour garantir que l'IA soit utilisée de manière responsable et au service du bien commun. On sait que l'IA offre un potentiel considérable pour façonner l'avenir de l'humanité, mais tout dépendra de la manière dont nous aborderons les défis et les opportunités associés à son développement.
Il est également important de se méfier d'une dépendance excessive à cette technologie et de la concentration du pouvoir entre les mains de quelques acteurs qui pourraient entraîner des déséquilibres et des risques de manipulation.
Pour que l'IA puisse réellement bénéficier à l'humanité, une gouvernance responsable et une collaboration mondiale sont essentielles. Cela implique de travailler ensemble pour garantir que l'IA est développée et utilisée de manière éthique, équitable et inclusive, en tenant compte des valeurs et des besoins de diverses communautés et cultures. En serons-nous capables ?
RÉFÉRENCES
♦1. Sam Altman : pdg d’OpenAI (ChatGPT).
♦2. Open AI est une entreprise spécialisée dans le raisonnement artificiel dont l'objectif est de promouvoir et de développer un raisonnement artifi ciel à visage humain qui profi tera à toute l’humanité.
♦3. Un chatbot, ou agent conversationnel, est un robot capable d'imiter le comportement humain pour mener une conversation.
Sources : Le Monde, Les Echos, Blog du modérateur.