O cenário da prática jurídica está evoluindo rapidamente, e isso é mais evidente no Arkansas, onde o Supremo Tribunal acaba de divulgar uma proposta de ordem administrativa que pode remodelar a forma como a inteligência artificial é usada no tribunal. Essa iniciativa surge à medida que ferramentas de IA generativa, como o ChatGPT, se tornam cada vez mais comuns na pesquisa jurídica e na elaboração de documentos, trazendo tanto oportunidades quanto preocupações sérias.
Por Que a Nova Regra?
No cerne da ordem proposta está a proteção dos dados confidenciais do tribunal. Modelos de IA generativa, por design, aprendem a partir dos dados que os usuários inserem. Isso significa que, se informações sensíveis ou sigilosas forem inseridas em uma ferramenta de IA, há o risco de que esses dados possam ser retidos e potencialmente expostos em saídas futuras. O Supremo Tribunal do Arkansas está adotando uma postura proativa, lembrando os profissionais jurídicos de que compartilhar tais informações com IA pode violar leis e regras éticas existentes.
O Que Diz a Ordem?
A ordem proposta proíbe especificamente qualquer pessoa com acesso interno ao sistema judiciário estadual, conhecido como CourtConnect, de expor intencionalmente dados internos do tribunal à IA generativa. Este é um passo significativo para garantir que a privacidade e a integridade dos registros judiciais sejam mantidas. No entanto, a ordem permite exceções: se o Comitê de Automação do Supremo Tribunal aprovar um projeto de pesquisa ou análise, ferramentas de IA generativa podem ser usadas para benefício dos tribunais.
O Contexto Mais Amplo: Alucinações de IA e Riscos Jurídicos
A iniciativa do Supremo Tribunal do Arkansas não ocorre isoladamente. Em todo o país, juízes têm expressado frustração com advogados que apresentam documentos jurídicos contendo citações a casos que não existem — um fenômeno conhecido como “alucinações de IA”. Esses erros, gerados por ferramentas de IA, levaram a sanções e levantaram questões sobre a confiabilidade da IA na prática jurídica. A ordem proposta no Arkansas é uma resposta direta a esses desafios, visando prevenir problemas semelhantes no sistema jurídico do estado.
O Que os Profissionais Jurídicos Devem Saber
Para advogados e funcionários do tribunal, a mensagem é clara: exerçam cautela ao usar ferramentas de IA. Evitem inserir qualquer informação confidencial ou sigilosa em plataformas de IA generativa. Mantenham-se informados sobre as últimas regras do tribunal e busquem aprovação para quaisquer projetos de pesquisa relacionados à IA. O Comitê de Automação do Supremo Tribunal está estudando ativamente o uso da IA nos tribunais e continuará a fazer recomendações à medida que a tecnologia evolui.
Pontos Práticos
- Nunca insira informações confidenciais ou sigilosas do tribunal em ferramentas de IA generativa.
- Verifique atualizações do Supremo Tribunal do Arkansas e do Comitê de Automação sobre o uso de IA.
- Se estiver considerando um projeto de IA para pesquisa jurídica, busque aprovação formal primeiro.
- Fique atento a erros ou alucinações geradas por IA em documentos jurídicos.
- Eduque sua equipe sobre os riscos e responsabilidades associados à IA na prática jurídica.
Perspectivas Futuras
O período para comentários sobre a ordem administrativa proposta está aberto até 1º de agosto, dando aos profissionais jurídicos e ao público a chance de opinar. À medida que o Comitê de Automação continua seu trabalho, são esperadas novas recomendações e ajustes. Manter-se informado e em conformidade será fundamental à medida que a IA continua a transformar o cenário jurídico.
Pontos-Chave:
- O Supremo Tribunal do Arkansas está propondo novas regras para restringir o uso de IA com dados confidenciais do tribunal.
- Ferramentas de IA generativa podem representar riscos de privacidade e precisão na prática jurídica.
- Exceções para uso de IA são possíveis com aprovação do comitê para pesquisa.
- Alucinações de IA levaram a sanções legais em outros lugares, exigindo cautela.
- Profissionais jurídicos devem manter-se atualizados e evitar compartilhar dados sensíveis com ferramentas de IA.