Pesquisar

Países querem proibir o ChatGPT

Por

5 de abril de 2023

No dia 20 de março de 2023, ocorreu um bug nos códigos do ChatGPT que resultou no vazamento de dados, como nome, e-mail, endereço, histórico de conversa e dados de cartão de crédito, de 1,2% dos assinantes do ChatGPT Plus.

Além de ter durado nove horas, a vulnerabilidade só foi descoberta quatro dias depois, pela empresa de cibersegurança Greynoise.

Por conta disso, governos de vários países começaram a questionar a segurança e a transparência na coleta dos dados pela OpenAI, empresa criadora do ChatGPT.

E, em 31 de março, a Autoridade de Proteção de Dados da Itália decidiu suspender temporariamente o funcionamento do ChatGPT no país, com multa de 20 milhões de euros caso a OpenAI não cumpra a decisão em até 20 dias.

Os problemas de privacidade

Apesar de mencionar os direitos de usuários do Espaço Comum Europeu, Reino Unido, Suíça e da Califórnia, a política de privacidade do ChatGPT não fornece informações básicas acerca do processamento dos dados pessoais, conforme solicitado pelo Regulamento Geral sobre Proteção de Dados (RGPD) da Europa e pela Lei Geral de Proteção de Dados (LGPD) do Brasil.

Além disso, não fica claro como, a duração ou o porquê do armazenamento das informações pessoais dos usuários. E, ainda que a OpenAI diga que os usuários podem revogar as permissões para o uso de seus dados pessoais, não existe uma instrução de como, realmente, fazer isso.

Por fim, ademais todas as dúvidas envolvendo a segurança dos dados dos usuários, o ChatGPT também apresenta questões quanto aos direitos autorais: a ferramenta funciona usando informações presentes na internet e geradas por terceiros (como artigos, notícias, livros, imagens e outros), mas a OpenAI não paga para usar esse conteúdo.

Especialistas pedem pausa no desenvolvimento de Inteligência Artificial

Dias antes da decisão italiana de suspender o ChatGPT, um grupo com dezenas de executivos do setor da tecnologia, incluindo Elon Musk, pediu para que os laboratórios de inteligência artificial (IA) interrompam temporariamente o desenvolvimento de tais ferramentas.

O grupo afirma que a “corrida desenfreada” por desenvolver ferramentas cada vez mais poderosas, que nem mesmo os criadores podem entender ou controlar, é um grande risco à humanidade.

Outro ponto levantado é o fato de que pouquíssimos países estão preparados para atuar na regulamentação dessas tecnologias, o que confirma a necessidade de os laboratórios ajudarem os governos no desenvolvimento e implementação de protocolos de segurança e políticas públicas para proteger os cidadãos.

Compartilhe

Newsletter

    Este site utiliza cookies para lhe oferecer uma boa experiência de navegação e analisar o tráfego do site, de acordo com a nossa Política de Privacidade e, ao continuar navegando, você concorda com essas condições.