Uso do ChatGPT

Recentemente o Conselho Nacional de Justiça (CNJ) abriu uma investigação para apurar o primeiro caso
de uma sentença supostamente feita com uso da inteligência artificial, mais precisamente pelo Chat
GPT. De acordo com o apurado, a sentença foi proferida no âmbito do TRF-1 e a situação foi descoberta
pelo advogado da sucumbente, ao notar que a jurisprudência do Superior Tribunal de Justiça (STJ)
utilizada para fundamentar a decisão era falsa

Apesar de inusitado, o episódio não é de todo isolado, à medida que as ferramentas de I.A. generativa
tem conquistado cada vez mais aceitação entre os operadores do direito, em função da praticidade que
oferece para a realização de diversas funções. O episódio desperta a discussão voltada a transparência
acerca do uso dessas ferramentas, especialmente no que tange à indispensável preservação da
confiança na atuação jurídica.

No âmbito do Poder Judiciário, inclusive, há a resolução nº 332/2020 do CNJ 2 , que autoriza
expressamente a utilização de inteligência artificial, desde que observados uma série de requisitos
éticos, tais como o respeito aos direitos fundamentais, a não discriminação de indivíduos, a publicidade
e transparência no uso, com o objetivo assegurar a segurança jurídica e colaborar para que o Poder
Judiciário respeite a igualdade de tratamento aos casos absolutamente iguais.

O uso do Chat GPT tem se tornado cada vez mais presente no dia a dia dos operadores do direito, seja
pela facilidade na realização de pesquisas, automação de documentos, correção de textos, análise e
redação de contratos e até mesmo na criação de imagens depois da última atualização do Modelo GPT43.

Um caso recente envolvendo essa questão aconteceu no início de 2023 Na ocasião, um juiz colombiano
usou a ferramenta da OpenAI para redigir a decisão de se o seguro de saúde deveria cobrir custos de
tratamento médico, como consultas, terapia e transporte até os centros de saúde de uma criança
autista. Padilla decidiu a favor do menor de idade e, na sentença, revela que interrogou o chatbot para
sustentar sua deliberação.

Outros casos semelhantes, ocorridos a poucos meses, são o de um advogado americano que usou a
inteligência artificial para preparar uma defesa contra a companhia aérea Avianca, mas a I.A
compartilhou casos que não existiam e o advogado acabou sendo multado em US$ 5 mil (cerca de R$ 24
mil, em conversão direta) por apresentar informações tidas como falsas 5 . No Brasil, tivemos um caso
parecido no qual um advogado usou o ChatGPT para elaborar uma petição no Tribunal Superior Eleitoral
(TSE) e foi multado em R$ 2,4 mil por litigância de má-fé, pelo corregedor-geral da Justiça Eleitoral,
ministro Benedito Gonçalves.

A análise destes exemplos evidencia que, apesar da utilidade das ferramentas de I.A. generativa em
diversas atividades, elas apresentam limitações técnicas significativas que demandam atenção quando
utilizadas para fins jurídicos. Notavelmente, a geração de informações fictícias, como destacado nos:

O Globo. Juiz usa chatgpt para escrever uma sentença e se dá mal. Disponível em:
https://oglobo.globo.com/blogs/lauro-jardim/post/2023/11/juiz-usa-chatgpt-para-escrever-uma-sentenca-e-se-da-mal-ferramenta-inventou-jurisprudencias.ghtml

Conselho Nacional de Justiça. Resolução Nº 332 de 21/08/2020. Disponível em:
https://atos.cnj.jus.br/atos/detalhar/3429

UOL. OpenAI anuncia GPT-4, evolução do ChatGPT que é capaz de ‘ver’ imagens. Disponível em:
https://www.uol.com.br/tilt/noticias/redacao/2023/03/14/gpt-4-criador-do-chatgpt-anuncia-inteligencia-artificial-que-enxerga.htm

UOL.. Juiz diz que usou ChatGPT para escrever sentença: ‘age como secretário’. Disponível em:
https://www.uol.com.br/tilt/noticias/afp/2023/02/03/juiz-diz-que-usou-chatgpt-para-escrever-sentenca-age-como-um-secretario.htm

Forbes, Advogado americano usa ChatGPT em Tribunal e dá tudo errado. Disponível em:
https://forbes.com.br/forbes-tech/2023/05/advogado-americano-usa-chatgpt-em-tribunal-e-da-tudo-errado/

CNN BRASIL. Advogado usa ChatGPT pra fazer petição e é multado pelo TSE. Disponível em
https://www.cnnbrasil.com.br/nacional/advogado-usa-chatgpt-pra-fazer-peticao-e-e-multado-pelo-tse/

Casos mencionados, revela uma lacuna importante. Isso se deve, em grande parte, ao papel da
ferramenta em responder às interações do usuário, sem um compromisso inerente com a veracidade. É
relevante notar que a própria ferramenta adverte sobre a necessidade de verificar as informações
geradas no final das respostas.

Adicionalmente, ao incorporar o ChatGPT no campo jurídico, surgem preocupações mais sensíveis,
incluindo a divulgação de informações pessoais dos clientes à I.A. e a possível violação dos direitos
autorais de conteúdos presentes nos textos gerados.

Por essa e outras razões o operador deve manter um dever de diligência mínima e acompanhar de perto
as interações realizadas com a máquina, para evitar a banalização do uso dessas funcionalidades,
impedindo que a praticidade oferecida pela I.A. comprometa a integridade e o exercício ético da
profissão.

Guilherme Braguim é advogado especialista em direito digital, privacidade, proteção de dados e
cybersegurança. Sócio da P&B Compliance e Líder da área de proteção de dados e cybersegurança.

Henrique Molina é advogado especialista em direito digital, privacidade, proteção de dados e
cybersegurança na P&B Compliance.

Compartilhe essa publicação

Você também pode gostar

Equipe Nacional P&B Compliance

Você sabia que atuamos em todo território nacional e também em alguns países? A P&B Compliance segue firme o seu planejamento estratégico de expansão para 2024 e os próximos anos,

Estudo de alerta sobre crime de sequestro de dados

Recente levantamento realizado pela Dell revelou que aproximadamente 93% das empresas brasileiras vítimas de sequestro digital de dados em 2023 optaram por pagar pelo resgate dos arquivos. Guilherme Braguim, head

plugins premium WordPress