Photo d'illustration: CCO |
Le 1er novembre, le terme "IA", abréviation d'Intelligence artificielle, a été choisi comme mot-clé de l'année par la célèbre maison d’édition de dictionnaire britannique Collins. Ce terme technologique a rapidement accru sa visibilité et est devenu le principal sujet de débat de l’année, ont expliqué les lexicologues de Collins. En effet, le terme "IA" a été utilisé quatre fois plus au cours de cette année.
L'énorme potentiel de l’IA
Début 2023, la mise en service de ChatGPT est devenue un phénomène mondial. Développé par la société OpenAI, ce logiciel d'IA générative a changé la perception de tout le monde sur l’IA. ChatGPT, aux côtés de ses concurrents tels que Gemini de Google DeepMind et Grok AI du milliardaire Elon Musk, marque le début d’une ère où l'IA gère la connaissance. Il ne s’agit plus de simples logiciels informatiques qui répondent passivement aux demandes des utilisateurs, ceux-ci progressent désormais à une vitesse incroyable et commencent à développer des "pensées rudimentaires" autonomes, elles sont également capables de relier des mégadonnées, de développer leurs perceptions et d'évoluer grâce aux interactions avec les utilisateurs.
La nouvelle génération d’IA générative et les technologies multitâches avancées (AI frontier) permettent de créer des applications performantes au service du développement socioéconomique. Par exemple, en Malaisie, l'IA aide à cartographier les données et à surveiller la productivité des exploitations agricoles. En Thaïlande, des fonctionnaires recourent à l'IA pour vérifier les paiements d'impôts et surveiller les transactions fiscales sur les réseaux sociaux. Israël utilise l'IA pour établir des modèles de prévision dans le domaine financier.
Selon le Secrétaire général des Nations unies (ONU), Antonio Guterres, si elle est utilisée de manière responsable et équitable, l'IA peut créer une percée sur la voie du développement des nations.
"L'intelligence artificielle (IA) peut fortement stimuler les actions en faveur du climat et les efforts pour atteindre les 17 objectifs de développement durable d'ici 2030. Cependant, tout cela dépend de la mobilisation responsable des technologies de l'IA et de la capacité d'y accéder universellement, y compris pour les pays en développement, qui ont le plus besoin de cette technologie."
À l'échelle mondiale, l'IA est appliquée dans des modèles de prévision de nouvelles épidémies et dans les services de santé. Elle permet aussi d’anticiper les évolutions météorologiques, de développer des variétés végétales plus résistantes face au changement climatique ou d’établir un nouveau système alimentaire mondial plus durable.
Le Secrétaire général des Nations unies (ONU), Antonio Guterres. Photo: IRNA/TTXVN |
Un développement plus responsable de l’IA pour atténuer les risques
En dehors de ses immenses avantages, l'IA suscite d’énormes préoccupations. Face à son développement fulgurant, cette année, les gouvernements et les organisations internationales se montrent de plus en plus vigilants face aux éventuels risques de l’IA sur la sécurité nationale, la stabilité sociale, et plus largement, la sécurité de l'humanité.
Au milieu de cette année, les dirigeants des géants mondiaux de l’IA et des centaines de chercheurs et experts ont conjointement signé une déclaration, soulignant que la réduction des risques liés à l'IA doit être une priorité mondiale aussi urgente que l’était la prévention des guerres nucléaires. Le milliardaire américain Elon Musk, l'un des pionniers de l'IA, a mis en garde contre les dangers de cette technologie si celle-ci est utilisée sans contrôle.
"Je pense qu’à un moment donné, tout le monde a été trop optimiste à propos de la technologie de l'IA. Je le dis en tant qu'ingénieur en technologie qui la connaît bien. L'IA est une bonne ressource, mais la possibilité qu'elle devienne une technologie néfaste n'est pas de 0%. C'est pourquoi nous devons prévenir les éventuels aspects négatifs de cette technologie."
Pour prévenir les impacts négatifs sur les humains, cette année, la communauté mondiale a multiplié les actions afin d’encadrer le développement et l'utilisation de l'IA. En novembre, la toute première Conférence mondiale sur la sécurité de l'IA a eu lieu au Royaume-Uni, marquée par la Déclaration de Bletchley signée par des représentants de 27 pays, dont les puissances mondiales de l’IA, telles que les États-Unis, la Chine et l'Union européenne. Les signataires se sont engagés à promouvoir la responsabilité et la coopération internationale dans l'utilisation et la recherche de l'IA. Suite à cette conférence, les pays ont conclu le principe de régulation d’une IA "sécurisée par conception" et exigé des développeurs qu’ils permettent aux gouvernements de vérifier la sécurité de leurs technologies avant de les rendre publiques.
Cette année, plusieurs instances de contrôle de l'IA ont été mises en place. Fin octobre, l'ONU a annoncé la création d'un Conseil consultatif sur l'IA, composé de 39 membres, dont des dirigeants d'entreprises, des fonctionnaires et des universitaires. Ce conseil sera chargé de proposer des mesures de gestion de l'IA au niveau international. Début décembre, l'Union européenne a conclu un accord politique sur les termes du projet de loi sur l'IA. Il s'agit du premier projet de loi complet et détaillé sur l'IA à être mis en œuvre dans le monde.
Au niveau national, les États-Unis et le Royaume-Uni ont tous deux créé des Instituts de sécurité de l'IA, afin d'évaluer les nouveaux modèles et d'identifier tous les éventuels risques. La Chine a quant à elle annoncé l’Initiative mondiale de gouvernance de l'IA, incluant certaines réglementations provisoires pour l'IA générative. Une cinquantaine d’entreprises et d’organisations de recherche, dont Meta, IBM, Intel, Sony, Dell et la NASA... ont créé l'Alliance de l'IA open source, visant à assurer une collaboration plus ouverte et transparente dans le développement de cette technologie.