Lançado em novembro de 2022, o ChatGPT se tornou um grande sucesso rapidamente por ser uma inteligência artificial (IA) capaz de responder quase qualquer pergunta e por produzir textos a partir de instruções simples.
Provavelmente por isso, um advogado dos Estados Unidos decidiu usar a IA em argumentações de uma ação civil contra uma empresa do setor aéreo.
Depois de a defesa da empresa solicitar ao tribunal a rejeição do caso, o advogado em questão apresentou um texto que citava diversas decisões anteriores para respaldar a legalidade da continuação da disputa.
O problema, no entanto, é que algumas das decisões citadas – bem como os casos em si – nunca existiram. “Seis dos casos apresentados parecem ser decisões judiciais falsas com citações falsas e referências internas falsas”, constatou o juiz do caso.
Com isso, o advogado precisou admitir que utilizou o ChatGPT para escrever seu argumento e explicou que “simplesmente não tinha ideia de que o ChatGPT era capaz de fabricar citações de casos completos ou opiniões judiciais, inclusive de maneira que parecesse autêntica”. O juiz ordenou que o advogado se desculpasse pelo erro, o que foi prontamente atendido. Contudo, ainda são possíveis outras sanções.
O mais espantoso é que esta não é a primeira vez que a IA é acusada de inventar respostas ou inserir informações inverídicas em um texto. A Open AI, empresa criadora do ChatGPT, foi procurada pelo The New York Times mas não se manifestou sobre o caso ou suas implicações.
Isso reforça que, apesar de reduzir o tempo de trabalho ou acabar com o esforço em tarefas operacionais e repetitivas, o ChatGPT – bem como outras inteligências artificiais -, ainda precisa de uma cuidadosa supervisão humana.