Um advogado protocolou uma petição escrita pelo ChatGPT e acabou recebendo uma multa do TSE (Tribunal Superior Eleitoral). Benedito Gonçalves, ministro corregedor-geral da Justiça Eleitoral, condenou o advogado a pagar R$ 2,4 mil em até 30 dias por agir de má-fé ao utilizar a inteligência artificial para fazer o seu trabalho.
Uso do ChatGPT para a criação da petição
O advogado teria usado a IA para tentar ser admitido no processo que faz a análise da conduta do ex-presidente Jair Bolsonaro durante uma reunião no ano de 2022, em que ele teria atacado o sistema eleitoral brasileiro.
O profissional, que não seria ligado a nenhuma investigação, apresentou ao Tribunal Superior argumentos elaborados pelo ChatGPT a fim de participar como amicus curiae (“amigo da Corte”) – pessoa com interesse em contribuir com esclarecimentos para julgar uma causa.
Na avaliação da petição, o ministro Gonçalves afirmou que o advogado enviou uma “fábula” para o tribunal. “Causa espécie que o instituto [amicus curiae], que exige que o terceiro demonstre ostentar representatividade adequada em temas específicos, tenha sido manejado por pessoa que afirma de forma explícita não ter contribuição pessoal a dar e, assim, submete ao juízo uma fábula, resultante de conversa com uma Inteligência Artificial”, pontuou.
Para o magistrado, o advogado entende que a petição era inadequada, considerando o seu nível de experiência na área jurídica.
Uso indevido de Inteligência Artificial gera problemas
Desde o estouro das Inteligências Artificiais generativas, emergiram várias discussões a respeito do uso das ferramentas para automatizar ou reproduzir trabalhos humanos – e, lógico, várias questões de ética acerca disso. Um dos tópicos de maior debate envolve a autoria de imagens criadas a partir de máquinas, afinal elas devem ser creditadas a quem: Bot, usuários que informou o prompt ou ao artista no qual o material serviu de inspiração?
A mesma questão pode ser replicada para artigos de jornal, poesias, petições, contos e outras criações por IAs. Se o novo Bing com GPT-4 cria uma crônica sobre qualquer assunto na web, ele é o autor do texto? E como fica a situação dos autores de textos que serviram de base para o seu aprendizado?
Contudo, as Inteligências Artificiais generativas atuais não são totalmente perfeitas e ainda cometem erros com frequência. Na criação de um artigo, como exemplo, um modelo como o ChatGPT pode “viajar” sobre um determinado fato ou até inventar uma acusação de assédio sexual contra alguém inocente. Porém, fazer seu uso para tarefas importantes, como um processo judicial, pode colocar pessoas em risco.
Veja mais no Benefício Já: