Main Content

  1. Réunis à Séoul le 21 mai 2024 à l’occasion du sommet sur l’IA, dans le prolongement du sommet sur la sécurité de l’IA qui s’est tenu à Bletchley Park le 2 novembre 2023, et compte tenu de la déclaration par le président des essais de sécurité relative aux résultats de la séance des dirigeants à Bletchley, les dirigeants de plusieurs pays dont l’Australie, le Canada, l’Union européenne, la France, l’Allemagne, l’Italie, le Japon, la République de Corée, la République de Singapour, le Royaume-Uni et les États‑Unis d’Amérique soulignent l’importance de la coordination et de la collaboration internationales fondées sur l’ouverture, la transparence et la réciprocité pour faire progresser la science de la sécurité de l’IA. Nous affirmons que la sécurité est un élément essentiel de la promotion d’une innovation responsable en matière d’IA.
  2. Nous saluons les efforts collectifs visant à créer ou à développer des institutions publiques ou financées par le gouvernement, y compris des instituts de sécurité de l’IA, qui facilitent la recherche sur la sécurité de l’IA, les essais et l’élaboration d’orientations en vue de favoriser la sécurité de l’IA pour les systèmes d’IA à usage commercial et public.
    1. Nous reconnaissons la nécessité de disposer d’un ensemble de données fiables, interdisciplinaires et reproductibles pour étayer les efforts en matière de politiques liés à la sécurité de l’IA. Nous reconnaissons le rôle de la recherche scientifique et les avantages d’une coordination internationale pour l’avancement de cette recherche, de sorte qu’en fin de compte, tous les pays profitent équitablement des avantages du développement et du déploiement de l’IA.
    2. Nous affirmons notre intention de mettre à profit et de promouvoir des connaissances scientifiques communes au moyen d’évaluations telles que le rapport international sur la sécurité de l’IA, pour orienter et harmoniser nos politiques respectives, le cas échéant, et pour permettre une innovation sûre, sécuritaire et fiable en matière d’IA, conformément à nos cadres de gouvernance.
    3. Nous exprimons notre intention commune de prendre des mesures pour favoriser une compréhension scientifique commune des aspects de la sécurité de l’IA à l’échelle internationale, notamment en veillant à promouvoir la complémentarité et l’interopérabilité de nos méthodologies techniques et de nos approches globales.
    4. Il pourrait notamment s’agir de tirer parti d’initiatives existantes, de renforcer mutuellement nos capacités de recherche, d’essai et d’orientation, d’échanger de l’information sur les modèles, y compris leurs capacités, leurs limites et les risques qu’ils présentent, le cas échéant, de surveiller les dommages causés par l’IA et les incidents de sécurité, d’échanger ou de créer conjointement des évaluations, des ensembles de données et des critères connexes, s’il y a lieu, de mettre en place des ressources techniques partagées pour faire progresser la science de la sécurité de l’IA, ainsi que de promouvoir des pratiques appropriées en matière de sécurité de la recherche dans ce domaine.
    5. Nous entendons coordonner nos efforts pour optimiser l’efficacité, établir des priorités, rendre compte des progrès accomplis, améliorer la rigueur et la solidité scientifiques de nos résultats, promouvoir l’élaboration et l’adoption de normes internationales et accélérer l’adoption d’approches fondées sur des données probantes en matière de sécurité de l’IA.
  3. Nous exprimons notre ambition commune de constituer un réseau international de partenaires de premier plan en vue d’accélérer les progrès de la science de la sécurité de l’IA. Nous nous réjouissons à l’idée d’une collaboration, d’un dialogue et d’un partenariat étroits sur ces questions et sur d’autres sujets connexes à l’avenir.

Produit connexe