O governo dos Estados Unidos anunciou um acordo com sete empresas de tecnologias americanas para garantir o compromisso em verificar a segurança das inteligências artificiais (IA) antes de serem lançadas. O grupo das companhias que concordaram com o projeto é composto pelas Big Techs, Amazon, Google, Meta e Microsoft, pela criadora do ChatGPT, OpenIA, e pelas startups Anthropic e Inflection.
Entre as salvaguardas acordadas, as empresas se comprometeram a permitir testes de segurança por especialistas independentes, instaurar métodos para relatar vulnerabilidades, falar abertamente sobre falhas e riscos em sua tecnologia e usar marcas d’água para facilitar a distinção entre mídias reais e as gerados por IA.
Assinar o compromisso é uma maneira das companhias lidarem com as questões que estão levantando dúvidas antes de o Congresso avançar com uma regulamentação severa da tecnologia.
Apesar disso, James Steyer, fundador e CEO da ONG Common Sense Media, não acredita que o acordo é uma boa garantia. “A história indica que muitas empresas de tecnologia não cumprem o compromisso voluntário de agir com responsabilidade e apoiar regulamentações rígidas”, afirma ele.
Como vários países já estão se movimentando para criar regulamentações para a tecnologia de inteligência artificial, a Organização das Nações Unidas (ONU) decidiu nomear um conselho para considerar as opções de governança que podem ser adotadas como padrões globais. O conselho deve publicar o primeiro relatório até o fim de 2023.
Ainda, um novo órgão de apoio, nos moldes da Agência Internacional de Energia Atômica ou do Painel Intergovernamental sobre Mudanças Climáticas, também deve ser criado pela ONU.