Pesquisar

Big Techs adotarão medidas extras de segurança na criação de IAs

Por

9 de agosto de 2023

O governo dos Estados Unidos anunciou um acordo com sete empresas de tecnologias americanas para garantir o compromisso em verificar a segurança das inteligências artificiais (IA) antes de serem lançadas. O grupo das companhias que concordaram com o projeto é composto pelas Big Techs, Amazon, Google, Meta e Microsoft, pela criadora do ChatGPT, OpenIA, e pelas startups Anthropic e Inflection.

Entre as salvaguardas acordadas, as empresas se comprometeram a permitir testes de segurança por especialistas independentes, instaurar métodos para relatar vulnerabilidades, falar abertamente sobre falhas e riscos em sua tecnologia e usar marcas d’água para facilitar a distinção entre mídias reais e as gerados por IA.

Assinar o compromisso é uma maneira das companhias lidarem com as questões que estão levantando dúvidas antes de o Congresso avançar com uma regulamentação severa da tecnologia.

Apesar disso, James Steyer, fundador e CEO da ONG Common Sense Media, não acredita que o acordo é uma boa garantia. “A história indica que muitas empresas de tecnologia não cumprem o compromisso voluntário de agir com responsabilidade e apoiar regulamentações rígidas”, afirma ele.

Como vários países já estão se movimentando para criar regulamentações para a tecnologia de inteligência artificial, a Organização das Nações Unidas (ONU) decidiu nomear um conselho para considerar as opções de governança que podem ser adotadas como padrões globais. O conselho deve publicar o primeiro relatório até o fim de 2023.

Ainda, um novo órgão de apoio, nos moldes da Agência Internacional de Energia Atômica ou do Painel Intergovernamental sobre Mudanças Climáticas, também deve ser criado pela ONU.

Compartilhe

Newsletter

    Este site utiliza cookies para lhe oferecer uma boa experiência de navegação e analisar o tráfego do site, de acordo com a nossa Política de Privacidade e, ao continuar navegando, você concorda com essas condições.