Num movimento significativo para o setor de tecnologia, dezasseis grandes empresas, incluindo Microsoft, Amazon, Google, Meta e OpenAI, comprometeram-se a adotar novas práticas de segurança para inteligência artificial (IA). Estas empresas assinaram os “Frontier AI Safety Commitments”, um conjunto de diretrizes que visa orientar tanto os criadores quanto os utilizadores de modelos de IA sobre os riscos associados ao uso desta tecnologia.
Os signatários concordaram em desenvolver e publicar quadros de segurança que detalham como avaliarão os riscos de seus modelos de IA, incluindo potenciais usos indevidos por agentes maliciosos. Este movimento é um passo importante para a criação de um ambiente mais seguro e regulado no desenvolvimento de tecnologias de IA.
Este compromisso estabelece mecanismos de segurança para minimizar riscos significativos, estipulando que os modelos de IA não devem ser desenvolvidos ou implementados se seus riscos não puderem ser mantidos abaixo de um limiar específico. Este limiar será definido por entidades de confiança, que podem incluir órgãos governamentais, e deverá ser estabelecido antes da Cimeira de Ação sobre a IA, programada para ocorrer na França no próximo ano.
Esta iniciativa segue a Declaração de Bletchley, firmada na Cimeira de Segurança da IA no Reino Unido em novembro, onde governos da UE, EUA, China e outros países concordaram em trabalhar juntos para enfrentar os desafios da IA. A principal diferença entre os compromissos firmados em Seul e a Declaração de Bletchley é que o novo acordo é de natureza organizacional, enquanto a Declaração de Bletchley foi um compromisso governamental, sugerindo um impacto regulamentar mais direto.
Apesar de voluntários, estes compromissos representam um avanço importante para a segurança da IA. Estabelecendo um precedente que outras organizações podem seguir, promovendo um ecossistema de inovação mais seguro. Os “Frontier AI Safety Commitments” marcam um passo importante para a segurança na era da inteligência artificial. Ao adotar essas práticas, as principais empresas de tecnologia estão não apenas protegendo seus próprios interesses, mas também contribuindo para a criação de um ambiente mais seguro e regulamentado para o desenvolvimento e uso da IA. Este movimento estabelece tamb~em uma base sólida para