Juízes na China devem justificar todas as decisões para uma IA – relatório

Na China, os juízes devem consultar um sistema de IA antes de proferir uma sentença. Se rejeitarem o conselho da máquina, devem emitir uma declaração por escrito.

Por cerca de seis anos, a China vem trabalhando com as principais empresas de tecnologia do país para desenvolver Ferramentas de automação alimentadas por IA para seu próprio sistema judicial. Até agora, o sistema é projetado para reduzir a carga de trabalho dos promotores, especialmente para tarefas rotineiras. Por exemplo, ele elabora automaticamente acusações com base em instruções humanas.

No entanto, de acordo com um relatório do South China Morning Post (SCMP), o sistema de IA está se tornando mais profundamente integrado ao sistema legal da China.

Os juízes devem consultar a IA

Cerca de seis anos atrás, o projeto era pouco mais que um banco de dados, relata o SCMP. Enquanto isso, tornou-se um regra da Suprema Corte de que os juízes seguem o conselho do sistema de IA e, caso não o sigam, fornecer uma justificativa por escrito que seja incluída nos autos do caso.

Segundo o SCMP, o Supremo Tribunal Federal vê o sistema como uma forma de unificar a jurisprudência nacional e trazê-lo para grandes partes da China, onde existem “diferenças significativas no desenvolvimento regional, governança e renda”.

Antes da introdução do sistema, cada tribunal local mantinha seu próprio sistema de informações e os juízes raramente compartilhavam informações com outros tribunais ou com Pequim, relata o SCMP. Com o novo “sistema de tribunal inteligente”, cada tribunal é obrigado a ter um sistema de relatório digital unificado vinculado a um banco de dados central em Pequim.

O judiciário de IA da China está crescendo a cada dia

De acordo com a Suprema Corte, o sistema aprende com 100.000 casos todos os dias e os monitora para possíveis decisões erradas ou corrupção. Além dos registros judiciais, o sistema teria acesso aos bancos de dados da polícia, promotores e agências governamentais.

Por exemplo, espera-se que a IA ajude a cumprir as sentenças “encontrando e apreendendo a propriedade de um condenado quase instantaneamente e colocando-a em leilão online”. Combinado com o sistema de crédito social da China, pode negar aos devedores o acesso a transporte, hotéis ou outros serviços sociais e impor a proibição.

“O SoS (sistema de sistemas) do tribunal inteligente agora se conecta à mesa de todos os juízes em atividade em todo o país”, disse Xu Jianfeng, diretor do Centro de Informações da Suprema Corte.

Em uma revista publicada pela Academia Chinesa de Engenharia, Xu e seus colegas publicam números positivos sobre o sistema, dizendo que ele reduz a carga de trabalho média dos juízes em mais de um terço. Entre 2019 e 2021, dizem eles, economizou 1,7 bilhão de horas-homem e o equivalente a 45 bilhões em honorários advocatícios. O sistema, disse Xu, “fez uma contribuição significativa para o avanço judicial da civilização humana”.

A automatização da jurisprudência chinesa também recebe críticas

Zhang Linghan, professor de direito da Universidade Chinesa de Ciência Política e Direito em Pequim, criticou o sistema na revista nacional Law and Social Development por limitar a discricionariedade judicial.

O julgamento individual, a experiência e o treinamento de um juiz seriam relegados a segundo plano. Embora isso possa melhorar a eficiência e a justiça até certo ponto, levaria as pessoas à dependência da tecnologia e prejudicaria o livre arbítrio.

“Devemos estar alertas para a erosão do poder judicial por empresas de tecnologia e capital”, escreve Zhang Linghan.

Sun Yubao, juiz do Tribunal Popular da Zona de Desenvolvimento Econômico e Tecnológico de Yangzhou, na província de Jiangsu, também é crítico. Escrevendo na revista em chinês Legality Vision, ele diz que as expectativas da IA ​​como panacéia são muito altas e que o papel do juiz precisa ser fortalecido: “A IA não pode fazer tudo”.

Os críticos do sistema também temem que os juízes decidam de acordo com os conselhos do sistema de IA, a fim de evitar desafiar o sistema – mesmo que a IA possa selecionar referências ou leis inadequadas.