Les géants de la technologie s'unissent pour un développement sûr et responsable de l'IA lors du sommet AI Séoul 2024
Dans un geste historique au Sommet AI de Séoul 2024 mardi, seize entreprises de premier plan à l'avant-garde intelligence artificielle (IA) l’innovation s’est engagée à donner la priorité à la sécurité et à la responsabilité dans le développement de l’IA. Cette initiative collective, connue sous le nom de « Frontier AI Safety Commitments », vise à établir des normes de sécurité robustes à mesure que les technologies d'IA sont de plus en plus intégrées dans la vie quotidienne.
Des leaders du secteur tels qu'Amazon, Google, IBM, Meta, Microsoft et OpenAI, ainsi que des acteurs émergents comme Anthropic, Cohere, G42, Inflection AI, Mistral AI, Naver, Samsung Electronics, Technology Innovation Institute, xAI et Zhipu.ai, ont uni leurs forces dans cette entreprise. Leurs engagements sont encore renforcés par une déclaration plus large de Séoul soutenue par les principales économies du Groupe des Sept (G7), l’UE, Singapour, l’Australie et la Corée du Sud.
Ces entreprises se sont engagées à faire progresser l’IA dans un cadre de sécurité et de confiance, soulignant l’importance d’une innovation responsable. Pour y parvenir, ils ont convenu d’adhérer à un ensemble de principes volontaires conçus pour atténuer les risques importants associés aux technologies d’IA. Un élément clé de leur engagement est la publication d’un cadre de sécurité complet d’ici le prochain sommet de l’IA en France.
Les engagements couvrent divers aspects de la sécurité de l'IA tout au long de son cycle de vie, du développement au déploiement. Elles comprennent des évaluations approfondies des risques, l'établissement de seuils de risque intolérables et la mise en œuvre de stratégies efficaces d'atténuation des risques. Ces géants de la technologie maintiendront également la transparence en informant le public de leurs méthodologies et de tout changement substantiel dans leurs pratiques.
Il est important de noter que les engagements mettent également l’accent sur la collaboration au sein de l’industrie. Cela implique une équipe rouge interne et externe pour identifier et traiter les menaces émergentes, favoriser le partage d’informations et renforcer les mesures de cybersécurité. De plus, les signataires se sont engagés à permettre des évaluations tierces de leurs systèmes et à développer des technologies qui aident les utilisateurs à distinguer le contenu généré par l'IA.
La responsabilité est un principe central de ces engagements. Chaque organisation s'est engagée à développer des cadres de gouvernance interne pour garantir le respect de ces protocoles de sécurité et à consacrer des ressources suffisantes à l'amélioration continue.
Découvrez l'autre Actualités sur l'IA et événements technologiques ici dans AIfuturize!