I giganti della tecnologia si uniscono per uno sviluppo sicuro e responsabile dell'intelligenza artificiale all'AI Seoul Summit 2024
In una mossa storica al Vertice AI di Seul 2024 Martedì, sedici aziende di spicco in prima linea intelligenza artificiale L’innovazione (AI) si è impegnata a dare priorità alla sicurezza e alla responsabilità nello sviluppo dell’IA. Questa iniziativa collettiva, nota come "Frontier AI Safety Commitments", mira a stabilire solidi standard di sicurezza man mano che le tecnologie IA diventano sempre più integrate nella vita quotidiana.
Leader del settore come Amazon, Google, IBM, Meta, Microsoft e OpenAI, insieme ad attori emergenti come Anthropic, Cohere, G42, Inflection AI, Mistral AI, Naver, Samsung Electronics, Technology Innovation Institute, xAI e Zhipu.ai, hanno unito le forze in questo sforzo. I loro impegni sono ulteriormente rafforzati da una più ampia dichiarazione di Seoul sostenuta dalle principali economie del Gruppo dei Sette (G7), dall’UE, da Singapore, dall’Australia e dalla Corea del Sud.
Queste aziende si sono impegnate a promuovere l’intelligenza artificiale in un quadro di sicurezza e fiducia, sottolineando l’importanza dell’innovazione responsabile. Per raggiungere questo obiettivo, hanno deciso di aderire a una serie di principi volontari progettati per mitigare i rischi significativi associati alle tecnologie di intelligenza artificiale. Una componente chiave del loro impegno è la pubblicazione di un quadro completo di sicurezza entro il prossimo vertice sull’intelligenza artificiale in Francia.
Gli impegni abbracciano vari aspetti della sicurezza dell’IA durante tutto il suo ciclo di vita, dallo sviluppo alla diffusione. Includono valutazioni approfondite del rischio, la definizione di soglie di rischio intollerabili e l’implementazione di efficaci strategie di mitigazione del rischio. Questi giganti della tecnologia manterranno inoltre la trasparenza informando il pubblico sulle loro metodologie e su eventuali modifiche sostanziali alle loro pratiche.
Significativamente, gli impegni sottolineano anche la collaborazione all’interno del settore. Ciò comporta la creazione di team interni ed esterni per identificare e affrontare le minacce emergenti, promuovere la condivisione delle informazioni e rafforzare le misure di sicurezza informatica. Inoltre, i firmatari si sono impegnati a consentire valutazioni di terze parti dei loro sistemi e a sviluppare tecnologie che aiutino gli utenti a distinguere i contenuti generati dall’intelligenza artificiale.
La responsabilità è un principio centrale di questi impegni. Ciascuna organizzazione si è impegnata a sviluppare strutture di governance interna per garantire il rispetto di questi protocolli di sicurezza e a dedicare risorse sufficienti per il miglioramento continuo.
Dai un'occhiata all'altro Novità sull'AI ed eventi tecnologici giusti qui in AIfuturize!