O uso crescente da inteligência artificial no Judiciário e no mercado tem exposto desafios jurídicos relevantes, demonstrando que erros automatizados não afastam a responsabilidade de empresas e profissionais diante da ausência de supervisão humana.
No TJMT, a 1ª Câmara de Direito Privado citou dispositivo inexistente do Código Civil em acórdão (art. 603), possivelmente gerado por IA, evidenciando os perigos da adoção de soluções automatizadas sem verificação jurídica adequada (Processo nº 1017010-02.2021.8.11.0041).
No TJSC, a 5ª Câmara Criminal advertiu um advogado por apresentar jurisprudência falsa em habeas corpus, gerada por IA, reconhecendo a má-fé processual e a necessidade de checagem humana na atuação forense (Processo nº 5001175-27.2025.8.24.0000).
Já no TJMG, a 16ª Câmara Cível responsabilizou o WhatsApp (Meta) pelo banimento indevido de uma conta comercial ao reconhecer que decisões automatizadas por algoritmos também geram responsabilidade à empresa que os opera (Processo nº 1.0000.20.597631-9/001- AI 5976327-38.2020.8.13.0000 MG).
Esses casos motivaram a edição da Resolução CNJ nº 615/2025, que atualizou as diretrizes para o uso de IA no Judiciário ao exigir transparência, avaliação de risco, vedação a decisões não auditáveis e supervisão humana contínua sobre modelos generativos.
Nesse sentido, o Judiciário reforça que a tecnologia deve ser uma aliada qualificada da Justiça, jamais substituindo a atuação humana, para assegurar a proteção dos direitos fundamentais e a preservação da segurança jurídica.