Texto: Estação do Autor com Financial Times/Folha de S.Paulo
Edição: Scriptum
Os governos do Reino Unido e da Coreia do Sul anunciaram nesta terça (21) que gigantes da tecnologia como Microsoft, Amazon e OpenAI, aderiram a um acordo na Cúpula de Segurança de IA de Seul. Entre as medidas para proteger o ambiente da IA, as empresas planejam implementar um interruptor de desligamento, em casos extremos, nos quais as companhias bloqueariam o desenvolvimento da tecnologia, quando não for possível garantir a mitigação dos riscos.
Reportagem de Christian Davies para o Financial Times, publicada por Folha de S.Paulo, (assinantes) revela detalhes do acordo que determina que os desenvolvedores de IA devem avaliar os riscos apresentados por seus modelos ou sistemas fronteiriços, mesmo antes da implantação e, se apropriado, antes e durante o treinamento.
O anúncio se baseia na chamada Declaração de Bletchley feita na Cúpula de Segurança de IA, organizada pelo primeiro-ministro do Reino Unido, Rishi Sunak, em novembro.
“Esses compromissos garantem que as principais empresas de IA do mundo fornecerão transparência e responsabilidade sobre seus planos de desenvolver uma IA segura”, disse Sunak em comunicado. “Isso estabelece um precedente para padrões globais de segurança de IA que desbloquearão os benefícios dessa tecnologia transformadora”, conclui Sunak.
As empresas também estabelecerão os “limites nos quais os riscos graves apresentados por um modelo ou sistema, a menos que adequadamente mitigados, seriam considerados intoleráveis” e como tais mitigadores serão implementados.
O anúncio em Seul ecoa os “compromissos voluntários” feitos na Casa Branca em julho do ano passado por Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft e OpenAI para “ajudar a avançar em direção ao desenvolvimento seguro, seguro e transparente da tecnologia de IA”.