• New Page 1

    RSSFacebookYouTubeInstagramTwitterYouTubeYouTubeYouTubeYouTubeYouTubeYouTubeYouTube  

A inteligência artificial entre o bem e o mal

É indiscutível que o bem e o mal coexistem na mente humana, muitas vezes de forma involuntária e inconsciente. Com a chegada implacável e democrática da inteligência artificial (IA), que visa reproduzir comportamentos humanos, redefinindo os limites do possível e abrindo novos horizontes para a inovação, como o fez a eletricidade no século 20, a internet no século seguinte e a blockchain nesta década, a seguinte questão ética se impõe: como evitar ou mitigar os riscos da potencialização do mal? 

Em outras palavras, o principal receio atualmente de utilização da inteligência artificial é ser posta para fins antiéticos, o que provoca, necessariamente, discussões a respeito da sua regulação mais específica e de programas de capacitação para o uso consciente como forma de defesa.

Microsoft e OpenIA já identificaram e alertaram sobre o uso do ChatGPT para realização de ataques cibernéticos. O caso emblemático do funcionário, em Hong Kong, que participou de uma reunião remota com um CFO e colegas de trabalho falsos, criados por IA, mostrou como é possível sofisticar a Engenharia Social e tornar mais difícil a identificação do que é real. Da mesma forma, muitas pesquisas já concluíram sobre a reprodução de vieses discriminatórios.

Por outro lado, os benefícios do uso da IA já se provaram até mesmo para salvar vidas e para a biotecnologia. A questão é como garantir que os usuários e instituições conheçam os riscos envolvidos e façam esse uso de forma consciente, considerando que não existem fronteiras no uso da IA, embora tenhamos diferenças significativas entre as abordagens das potências mundiais. 

Empresas curiosas para experimentar o resultado do uso de IA nas suas frentes de negócio têm aproveitado ferramentas gratuitas disponibilizadas pelos diversos fornecedores para testes. Mas, como está sendo essa parametrização? Como as interfaces estão sendo construídas? Qual o fluxo de dados utilizado? Qual a segurança da interface? Os direitos fundamentais estão sendo respeitados? Estão sendo compartilhados dados sigilosos, confidenciais e/ou segredos industriais? 

Fato é que toda empresa será uma empresa de inteligência artificial. Vivemos a era da tecnologia, da Revolução Industrial 4.0, e integrá-la ao modelo de negócio, qualquer que seja, não será uma escolha, mas uma exigência de competitividade para potencializar a experiência do usuário/cliente, desonerar processos burocráticos, refinar a análise de dados para inovar em produtos e serviços e realizar uma análise preditiva de cenários na gestão dos riscos.

Nesta transição, é necessário, contraditoriamente, sermos conservadores: definir estratégia e processos, delimitar o uso interno e externo para prevenção de riscos, compreender como reter e adquirir talentos especializados, assegurar a segurança da informação, da privacidade e proteção dos dados, realizar investimentos significativos de infraestrutura e entender os gargalos regulatórios e éticos. 

Por outro lado, na sede de colher mais rapidamente os benefícios do uso da IA em termos de produtividade, o desconhecimento dos riscos potenciais relacionados ao uso despreocupado das ferramentas coloca usuários e organizações como vítimas perfeitas de táticas mal-intencionadas para extração de dados e potencialização de fraudes de diversas naturezas.

Em um cenário de instabilidade geopolítica, as guerras virtuais estão cada vez mais frequentes. Em 2023, os maiores ataques cibernéticos registrados pelo The Center for Strategic and Internacional Studies (CSIS) envolveram governos de diversos países ao redor do mundo, a maioria ditaduras que não possuem investimento militar maciço que façam frente aos maiores exércitos do mundo. 

Portanto, para estabelecer limites reais, o ambiente regulatório precisa se fortalecer, investigando a fundo os riscos envolvidos e minimizando brechas, de modo a acelerar a conscientização dos usuários e das organizações. Da mesma forma, governos e empresas precisam se unir para garantir pesquisas científicas mais robustas e a conscientização dos seus profissionais e da sociedade em geral para a adoção de uma postura mais defensiva em relação aos riscos que se apresentam, mas sem se paralisar pelo medo, para poderem usufruir do bem que essas soluções também trazem.

Nesse sentido, a União Europeia larga na frente. Com a aprovação do AI Act, regulamentação inédita sobre inteligência artificial pelo Parlamento Europeu, em 13 de março de 2024, riscos já conhecidos foram devidamente endereçados para minimização de impactos. A regulamentação conceitua e exemplifica sistemas de alto risco como aqueles relacionados à educação, saúde, trabalho e emprego, migração e gestão de fronteiras, Justiça e processos democráticos (como eleições), dentre outros, e define obrigações no sentido de transparência e responsabilidade quanto à exatidão dos dados, manutenção dos registros de utilização e garantia de supervisão humana.

Aplicações que ameaçam os direitos fundamentais, como uso de reconhecimento de emoções nos locais de trabalho ou nas escolas e sistemas de categorização biométrica baseados em características sensíveis ou no endereçamento não autorizado de imagens da internet com fins de criação de bases de reconhecimento facial, foram devidamente proibidos. Foram bem delimitadas também as salvaguardas para casos críticos, como prevenção de ataques terroristas ou busca por desaparecidos. Por outro lado, foram estabelecidas medidas de apoio à inovação, deixando nítido que o objetivo não é ir contra a inteligência artificial, mas regulamentá-la em prol de um uso mais consciente e assertivo para o bem.

Ressalta-se, porém, que, em tese, apesar do PL 872/2021, que pretende ser o marco regulatório brasileiro da inteligência artificial, ainda tramitar no Congresso Nacional, discutindo-se, ainda, qual será a agência reguladora que restará com essa competência – estima-se que seja a ANPD –, o AI Act poderá ser aplicável em terras brasileiras em razão do Efeito Bruxelas e da aplicação do princípio da extraterritorialidade previsto na LGPD.

De toda sorte, à medida que novas técnicas de inteligência artificial são exploradas de forma mal-intencionada, é importante que sejam analisadas minuciosamente por especialistas de modo que se possa antecipar ameaças e agir de forma proativa no desenvolvimento de soluções mais completas e seguras, avançando no detalhamento das regulamentações (pois isso sem dúvidas acelera o movimento) e garantindo que a IA seja utilizada para o bem. No ataque e na defesa, as armas provavelmente serão as mesmas e a guerra será vencida por quem fizer o uso mais consciente para não cair nas armadilhas que se apresentarem. 

E nesta “guerra”, a governança terá papel fundamental: coordenar discussões e esforços internacionais é fundamental, buscando vencer as barreiras de prioridades legais diversas e adotando uma abordagem cada vez mais coesa. Comitês multidisciplinares contribuirão de forma significativa para essas reflexões e para estratégias de combate mais assertivas em relação ao uso antiético da IA e isso envolve não só a diversidade de formações e experiências, mas também a cooperação entre as esferas público e privada, entre os diversos países e entre as instituições de pesquisa e a sociedade civil em geral. De igual forma, criar comitês de ética nas empresas para se debater seriamente a limitação do seu uso, especialmente se for adotar ferramentas externas por API, será uma das formas mais seguras e assertivas de se implementar e inovar processos. 

O segredo será vencer deficiências como a vaidade e a inércia, evitando abusos de poder entre detentores das melhores tecnologias e garantindo limites bem-definidos na revisão e construção das regulamentações específicas de forma colaborativa, coesa e com princípios globalmente respeitados.

Adicionar aos favoritos o Link permanente.
 
 
  • New Page 1