La Déclaration de Bletchley affirme la nécessité d'une collaboration entre pays pour établir une approche commune et globale de la gouvernance de l'IA. Elle trace deux axes principaux d'action: le premier étant l'identification et l'étude des risques associés à l'IA suscitant des préoccupations partagées entre les nations; le second étant l'élaboration et la mise en œuvre de politiques transnationales pour prévenir ou atténuer ces risques.
La signature de la Déclaration de Bletchley par quelque 25 pays, dont les États-Unis, la Chine et l'UE, a été acclamée comme un succès notable. Cet accord symbolise une volonté de coopération, malgré les tensions technologiques préexistantes entre certaines puissances mondiales.
Le Sommet sur la sécurité de l'IA survient dans un contexte où les inquiétudes concernant le potentiel d'échapper au contrôle humain se sont intensifiées. L'émergence d'IA génératives de premier plan, comme ChatGPT à la fin de l'année dernière, ou le développement rapide d'IA polyvalentes franchissant la frontière de l'IA, a alimenté ces préoccupations grandissantes.
Au cours du sommet, Elon Musk, entrepreneur et président des sociétés Tesla et X (anciennement Twitter), a tiré la sonnette d'alarme sur les dangers que l'IA pourrait représenter pour la survie de l'humanité.
"Nous faisons face à une situation sans précédent dans l'histoire de l'humanité: quelque chose qui pourrait dépasser notre intelligence. J'ai des doutes quant à notre capacité à le maîtriser, mais je crois fermement que nous pouvons le guider vers un chemin qui soit bénéfique pour l'humanité. Il est indéniable que l'IA représente l'un des plus grands périls auxquels nous sommes confrontés, peut-être même le plus imminent", a-t-il souligné.
Pour répondre aux préoccupations concernant le manque de contrôle sur l'IA, les Nations Unies ont mis en place un conseil consultatif sur l'IA afin de renforcer la coordination et le partage des bonnes pratiques dans ce domaine. Le 31 octobre, le président américain Joe Biden a également signé un décret sur l'IA, exigeant des entreprises développant des systèmes d'IA présentant un risque pour la sécurité nationale, l'économie, la santé ou la sécurité publique de partager les résultats des tests de sécurité avec le gouvernement américain avant toute divulgation au public.