• New Page 1

    RSSFacebookYouTubeInstagramTwitterYouTubeYouTubeYouTubeYouTubeYouTubeYouTubeYouTube  

    Social - Repositório

Alucinação caluniosa

Como devem ser definidas as responsabilidades por afirmações lesivas à honra e à imagem pública de uma pessoa? Quando elas tenham sido geradas por ferramentas de inteligência artificial generativa – isto é, aquelas capazes de aprender com dados e gerar resultados originais e únicos? Com a explosão de popularidade dos sistemas GPT (Generative Pre-trained Transformers) da Open AI, como ChatGPT e GPT-4, essa questão exigirá tomada de posição de tribunais brasileiros, como tem acontecido em outros países.

No estado da Geórgia, nos EUA, o ChatGPT errou feio ao resumir os detalhes de um caso judicial, a pedido de um usuário. A ferramenta afirmou falsamente que o caso Second Amendment Foundation v. Ferguson envolvia Mark Walters, ex-tesoureiro de uma associação, que teria desviado recursos em benefício próprio. Acontece que Walter não tinha qualquer participação no caso e sequer fora tesoureiro da tal organização. A resposta falsa incluía até mesmo um número inventado para o caso.

Em outro episódio no país, desta vez em Washington, um professor pediu à plataforma uma lista de casos de assédio sexual praticados em universidades, e surpreendeu-se ao ver o nome de um amigo seu na lista. Ao ser provocado para dar mais detalhes, o ChatGPT relatou a investida sexual do docente contra uma aluna em uma viagem para o Alasca, além de fazer menção a uma reportagem do jornal Washington Post sobre o escândalo – tudo absolutamente inventado.

Em Victoria, na Austrália, o prefeito de uma pequena cidade viu a plataforma relatar que ele fora condenado a 30 meses de prisão por corrupção. Mas a verdade é que ele havia denunciado o esquema, ajudando as autoridades a descobrir ilícitos envolvendo um grande banco australiano. Walters, o radialista da Geórgia, entrou com uma ação pedindo reparação por difamação contra a OpenAI, a criadora do ChatGPT. Já os advogados de Brian Hood, o político australiano, notificaram a plataforma para corrigir todas as respostas a seu respeito, sob pena de processo.

Finalmente, aqui mesmo no Brasil, um médico da cidade de Bauru, no interior de São Paulo, descobriu que o Bing, buscador da Microsoft que se vale de recursos da ferramenta da OpenAI, inventara uma investigação de assédio sexual contra ele. O médico obteve do Judiciário uma decisão que obriga a empresa a eliminar a informação de seu buscador.

Neste texto, traçamos apontamentos para avaliar os parâmetros que, sob o ponto de vista do direito brasileiro, devem nortear as respostas jurídicas para casos desse tipo, nos quais ferramentas de inteligência artificial geram respostas atentatórias à honra de pessoas.

Quais ilícitos?

Como se sabe, o direito brasileiro eleva à categoria de crimes uma série de atos lesivos à honra. Do ponto de vista objetivo, a falsa imputação de fato criminoso a uma pessoa amolda-se à tipificação do crime de calúnia (Código Penal, art. 138). Nos exemplos da passagem anterior, todas as condutas falsamente imputadas às pessoas afetadas configurariam, em princípio, crimes perante a legislação brasileira – contra o patrimônio, a Administração Pública e a liberdade sexual.

Mesmo que se entendesse não haver a necessária adequação entre a conduta falsamente imputada e um tipo penal específico, restaria o crime de difamação, já que os fatos inventados são, sem dúvida, ofensivos à reputação dos atingidos. O fato de que as respostas inverídicas foram dadas a pessoas que não as próprias vítimas já cuidaria da consumação de qualquer um dos possíveis crimes.

O grande obstáculo à responsabilidade penal estaria nos elementos dos crimes que pressupõem conduta humana imputável, o mais evidente dos quais seria o dolo, que é o elemento subjetivo de ambos os tipos. Mais especificamente, costuma-se exigir um fim especial de agir, que deve ser o específico propósito de caluniar ou difamar. Essa finalidade específica é algo difícil de se imputar, obviamente, ao sistema, e também a seus criadores.

Mas as indagações jurídicas não param por aí, já que as implicações podem ir além da esfera penal. Dado que a honra é um dos aspectos da personalidade humana, há que se cogitar a possibilidade de que tais eventos sejam relevantes para a caracterização de ilícitos civis. Nesse campo, não apenas inexistem as restrições mais rígidas da imputação penal, como também há um debate em aberto quanto a saber se, ao menos alguns, sistemas de IA poderão ser considerados atividades de alto risco para os direitos de terceiros, o que atrairia a disciplina da responsabilização objetiva pelos danos que causarem. Da mesma forma, o eventual tratamento dessas aplicações como fornecedoras, segundo a legislação consumerista, igualmente as obrigaria a responder, independentemente de culpa, pelos danos causados por seu funcionamento defeituoso, inclusive em processos de natureza coletiva, nas esferas civil e administrativa.

O problema e seus diversos lados

Qualquer que seja o rumo específico dos conflitos jurídicos que fatalmente surgirão, é fundamental enxergar o problema em suas múltiplas dimensões relevantes.

Primeiramente, é preciso compreender por que ferramentas como o ChatGPT às vezes geram calúnias e difamações. Na comunidade técnica, o fenômeno de geração de respostas sem lastro na realidade, inclusive com a invenção de documentos, transcrições e paginação, é chamado de “alucinação”. Isso ocorre porque a preocupação primária da ferramenta é travar diálogos de alta complexidade com seres humanos, e não ser factualmente precisa em tudo que diz. Como, aliás, acontece com seres humanos, que às vezes se erram, às vezes se confundem.

Essa característica é amplamente conhecida por usuários avançados da ferramenta: nos fóruns da OpenAI, há diversos tópicos de discussão que tentam identificar por que a ferramenta às vezes alucina, e buscam desenvolver formas de escrever comandos (prompts) que diminuam riscos de alucinação. O próprio ChatGPT alerta para esse risco, inclusive com uso do termo “alucinação”, em sua página de perguntas e respostas. Certos recursos disponíveis nas versões mais avançadas, e pagas, da ferramenta diminuem esse risco, mas não o eliminam.

Em segundo lugar, e como consequência, é preciso considerar que há dois lados do balcão da alucinação. Ao menos em alguns casos, ela poderá decorrer da forma como o usuário dialoga com o sistema. A alucinação pode às vezes ser provocada pelas perguntas anteriores, que induzem a plataforma a responder em determinado sentido. No limite, nada impede que um usuário malicioso deliberadamente engate uma série de interações com o ChatGPT que tornem o erro mais provável. Caso esse usuário desejasse intencionalmente gerar respostas danosas à honra de alguém, ele poderia tentar valer-se desse expediente até mesmo como um recurso para escapar à responsabilização. Seria uma “alucinação de IA pré-ordenada”, digamos: a versão 4.0 da velha embriaguez pré-ordenada, antes usada para elidir a culpabilidade do agente.

A responsabilidade penal de alguém “por trás” do ChatGPT parece hipótese de simples resolução: como os tipos contra a honra exigem especial fim de agir – ou seja, que essas respostas fossem diretamente dirigidas à ofensa -, a própria tipicidade deixaria de existir.

É, porém, totalmente factível que alguém dê divulgação de resposta ofensiva à honra de terceiros, dada pelo ChatGPT.

O STJ tem decisão admitindo dolo eventual em crime contra a honra: “O ato de atribuir o cometimento de um crime a alguém tem de estar marcado pela seriedade, com aparelhamento probatório, sob pena de incorrer em dolo eventual. É inaceitável que alguém alegue estar de boa-fé quando não se abstém de formular contra outrem uma grave acusação à vista de circunstâncias equívocas. O menor indício de dúvida não autoriza uma pessoa a lançar comentários ofensivos contra outra, em especial quando se atribui prática de crimes” (APn 613, Corte Especial, relator, ministro Og Fernandes, DJe 28/10/2015).

Assim, quem obtiver resposta alucinada da plataforma, atribuindo um evento criminoso a alguém e um terceiro, em que pesem circunstâncias equívocas, e der publicidade à resposta ainda assim, poderia, segundo tal decisão, responder por calúnia.

Haveria ainda outro caminho, igualmente errado, porém possível segundo a jurisprudência, para dar fundamento à criminalização: o da cegueira deliberada. Em decisão de 2018, o STJ aceitou, em termos, a cegueira deliberada como modo de imputação subjetiva: “deve restar demonstrado no quadro fático apresentado na lide que o agente finge não perceber determinada situação de ilicitude para, a partir daí, alcançar a vantagem pretendida” (AgRg no REsp n. 1.565.832/RJ, Quinta Turma, relator, ministro Joel Ilan Paciornik, DJe de 17/12/2018).

Em tempos de guerrilha de desinformação, parece perfeitamente plausível que alguém, quem sabe até mesmo induzindo o software a uma resposta alucinada, alcance resposta saborosamente falsa, ou, no mínimo, questionável, mas embalada da cientificidade e da precisão informática que o sistema transmite e então dê-lhe ampla divulgação.

Ainda que discordando da possibilidade de criminalização nesses casos, há decisões de Tribunal Superior pavimentando o caminho. Bastaria que os atingidos pela desinformação, ou contexto, fossem tais a dar um empurrão para a tese.

Parâmetros

A busca por critérios para lidar com esses problemas há de considerar a importância de preservar os direitos de personalidade das pessoas atingidas, mas com o cuidado de não inibir por completo o funcionamento dessas ferramentas, cujos erros são corrigidos também pelos feedbacks de usuários.

Um primeiro ponto relevante é o conhecimento do histórico de interação do usuário que recebeu a resposta alucinada com a plataforma. Pois uma resposta do ChatGPT, sozinha, diz pouco: não é possível saber se ela foi conduzida a uma alucinação de forma intencional, por prompts maliciosos ou desafiadores. Isso equivale a dizer que é preciso considerar que plataformas de IA generativa podem ser utilizadas como ferramentas para a prática de ilícitos contra a honra. Nesse caso, abstraídas as dificuldades de prova, não haveria razão para não considerar o usuário mal intencionado como autor do delito, esse sim alcançável pelos dogmas da imputação criminal.

Um segundo ponto importante é a maneira como as empresas lidam com a possibilidade de geração de erros lesivos à honra por suas plataformas. Assim como acontece com projetos de carros inteligentes, nos quais os riscos associados a erros são mais evidentes e maiores, plataformas de IA generativa precisam mostrar que levam a sério os riscos do conteúdo que produzem para os direitos de terceiros. Esforços de melhoria relevantes, permanentes e auditáveis são um passo importante nesse sentido. Na contramão disso, disponibilizar versões gratuitas de produtos que sejam mais propensas a erros, em comparação com as versões pagas, não parece boa estratégia: isso aumentará as chances de que a ferramenta seja considerado defeituosa, com todas as consequências jurídicas adversas daí decorrentes, especialmente na esfera consumerista.

Finalmente, é crucial que as plataformas sejam claras em indicar usos recomendados e limites para seus produtos, ainda que isso venha ao custo de desfazer a percepção generalizada – da qual elas provavelmente se beneficiam – de que seus produtos são oráculos com todas as respostas para todas as perguntas. O disclaimer em um canto obscuro do site possivelmente não bastará.

Mesmo que isso altere a experiência de uso, usuários precisam ser permanentemente alertados, de forma clara e inequívoca, que aquilo que leem pode não passar de uma grande fantasia, e que precisam ter cuidado e responsabilidade com o uso que fazem da ferramenta. Como ocorre com qualquer outro artefato para uso humano.

Adicionar aos favoritos o Link permanente.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *