Pela primeira vez, bot de inteligência artificial ajudará réu em defesa jurídica

“Advogado robô” irá fornecer aconselhamentos em tempo real durante julgamento; tecnologia foi criada por pesquisador da Universidade de Stanford.

Pela primeira vez, um bot de inteligência artificial fornecerá aconselhamento jurídico a um humano em uma audiência no tribunal. O “advogado robô”, segundo a Business Insider, ouvirá os argumentos das autoridades em tempo real e informará ao réu o que dizer por meio de um fone de ouvido. A sessão está marcada para a acontecer em fevereiro.

A tecnologia foi desenvolvida pelo cientista da computação Joshua Browder, da Universidade de Stanford, em 2015. Inicialmente, o chatbot fornecia consultoria aos consumidores em casos de multas, como as de estacionamento. Em 2020, ele trouxe avanços para o sistema inteligência artificial, com a criação do aplicativo DoNotPay.

Segundo a reportagem, o aplicativo, que se espalhou pelo Reino Unido e Estados Unidos, ajuda os usuários a escrever textos para lidar com uma variedade de questões jurídicas – por exemplo, reivindicações de seguro, reclamação para uma autoridade ou empresa, e solicitação de vistos de turista.

Browder disse que o acesso ao DoNotPay disparou durante a pandemia e que, hoje, conta com cerca de 150 mil assinantes pagantes. A mensalidade é anual e custa US$ 36 (cerca de R$ 189).

Para utilizar o serviço, o caminho é simples. Em primeiro lugar, o consumidor deve passar informações básicas, incluindo o problema específico que deseja contestar. Depois, a tecnologia processa os dados usando inteligência artificial e os transforma em um documento legal.

Dependendo do problema, o DoNotPay exibirá informações como um e-mail redigido ou uma petição judicial formal com firma reconhecida. Por fim, para combater objeções ou argumentos, o app usa IA para responder.

Apesar de ser uma facilidade, os bots de IA levantam questões éticas. O Business Insider observa que ainda não há relatos atuais de erro ou comportamento inesperado, mas existe a possibilidade de isso ocorrer em um futuro próximo. Outra questão é que esses sistemas não podem ser processados, o que significa possíveis complicações ao determinar responsabilidade e compensação.

Fonte: Época Negócios Imagem: Security Business