Mapear os riscos da inteligência artificial é indispensável para a sociedade
Mapear e compreender os riscos do surgimento de novas tecnologias e ferramentas é indispensável para negócios de todos os segmentos. Entender os riscos da inteligência artificial, por exemplo, é um desses casos.
O surgimento de novas tecnologias e mecanismos que alteram a forma com que as pessoas realizam tarefas aos quais já estão habituadas a lidar sempre foi motivo de receio pela classe trabalhadora. Alguns acreditavam que, com o surgimento da revolução industrial, trabalhadores perderiam seus empregos. Esse foi um medo que voltou a surgir também nas evoluções tecnológicas subsequentes. É possível citar nesse contexto também a popularização da internet, a evolução da robótica e, por fim, a difusão das Inteligências Artificiais.
É certo que o avanço das tecnologias empregadas nas IA’s (inteligências artificiais) possibilita um aumento no potencial de trabalho para profissionais que aprendem a utilizá-la. Mas, além disso, acarreta em maior cobrança por parte daqueles que não exploram os benefícios na utilização dessa tecnologia. Isso porque novas técnicas potencializam o que as pessoas podem fazer e, consequentemente, há uma expectativa maior do que é preciso entregar para continuarem sendo consideradas produtivas perante à sociedade.
Riscos da Inteligência Artificial
Com a rápida evolução das IA’s, em decorrência dos aprimoramentos aos quais estão sujeitas, profissionais que exercem funções repetitivas podem ser substituídos por essas ferramentas – que conseguem identificar e replicar um padrão de ação e/ou de resposta. Exemplo disso é que serviços de callcenter sofreram grande redução em comparação a décadas anteriores, devido a programações pré-estabelecidas para contato.
Outro setor que observa a redução de profissionais devido ao crescimento das IA’s e à acelerada digitalização é o setor bancário. A IA é capaz de entender o perfil do cliente e fornecer as melhores ofertas e soluções em uma espécie de “individualização bancária automatizada” para o consumidor que necessita desse serviço. Segundo dados da Febraban, entre 2020 e 2022 os 5 maiores bancos do país fecharam 2.563 agências, o que reforça o retrato desse cenário em transformação.
Deepfake e uso ético da Inteligência Artificial
Além dos impactos na força de trabalho e nos serviços, por se tratar de uma ferramenta de livre acesso, é importante reforçar que não é possível prever em como a humanidade utilizará essa tecnologia. Desde a criação do Photoshop, as pessoas utilizam as ferramentas existentes para modificação de imagens reais com diversos intuitos, inclusive de má-fé. Com as Inteligências Artificiais, isso pode ser significativamente potencializado. Novas tecnologias permitem alterar rostos de pessoas em vídeos (ação essa conhecida como Deepfake), existem casos dessa utilização para a criação de conteúdo pornográfico, o mais recente foi a propagação de imagens explícitas falsas da cantora Taylor Swift. O conteúdo veiculado fez com que a Casa Branca se manifestasse, definindo a propagação da desinformação como “alarmante”.
Além disso, a criação de vídeos com dublagens – inclusive em outros idiomas –, sem alteração da voz da pessoa, contribui para a disseminação de Fake News. Em ano eleitoral, é possível que comecem a surgir mais e mais vídeos falsos com a intenção de difamar ou enaltecer algum candidato ou grupo político.
Ainda em uma visão política, mas visualizando um parâmetro global, pensando em possíveis conflitos militares, os AI-DSS (Artificial Intelligence as a Decision Support System ou Sistema de Apoio à Decisão com Inteligência Artificial), já vêm sendo desenvolvidos para analisar dados e padrões. Em alguns casos, conseguem direcionar recomendações para apoiar humanos a realizarem decisões em meio a guerras.
Riscos da Inteligência Artificial: o fator humano
Porém, tecnologias como a dos AI-DSS requerem atenção. Durante a guerra fria, o coronel soviético Stanislav Petrov evitou uma guerra nuclear ao contrariar o computador do bunker em que ele trabalhava. O sistema indicou um míssil estadunidense se movendo em direção à União Soviética (US). Ou seja, as diretrizes da US apontavam para a realização de um contra-ataque nuclear de grandes proporções. Porém, o coronel deduziu que ocorrera um erro no computador, pois os EUA não lançariam apenas um míssil no caso de ataque. Com isso, considerou como um alarme falso – que foi comprovado após algum tempo de espera. Com o possível uso militar da IA, é preciso questionar: essa tecnologia já é robusta o suficiente para não cometer erros semelhantes ao que o computador cometeu na guerra fria?
A tecnologia em si não é o problema. Os riscos da Inteligência Artificial estão vinculados a como essa tecnologia será utilizada e o quão confiável serão os dados utilizados, a lógica empregada para cálculo e os retornos de cálculos extraídos. A criação de protocolos e o aperfeiçoamento das ferramentas já existentes podem tornar as IA’s mais precisas, transparentes, e, principalmente, seguras.
No meio corporativo, a rápida evolução da Inteligência artificial fez com que alguns executivos assinassem uma carta aberta, publicada em 23 de março de 2023, solicitando uma pausa mínima de 6 meses no treinamento de inteligências artificiais mais robustas que o GPT-4. O documento já possui mais de 33 mil assinaturas, entre elas a de Elon Musk, e apela pela criação protocolos de segurança, rastreamento e regulação para a tecnologia já existente. Assim, apenas após o aperfeiçoamento do que já foi criado, essa tecnologia continuaria evoluindo.
Legislação e regulação
Nesse sentido, uma possível forma de controle seria atribuir uma identificação ao criador de algum conteúdo, seja ele de áudio, vídeo ou imagem, para que ele possa ser responsabilizado caso utilize a tecnologia com o intuito de violar alguma legislação.
Assim como seria cabido, a depender de como a humanidade utilize esses novos recursos tecnológicos, uma regulação com a criação de um comitê global, semelhante à “Agência Internacional de Energia Atômica” – instituição que cuida da utilização de energia nuclear para fins pacíficos. O órgão também seria utilizado para regular a inteligência artificial, devido ao poder dessa tecnologia e a velocidade de evolução. Um outro exemplo é a Agência Nacional de Proteção de Dados (ANPD) que garante o cumprimento da Lei Geral de Proteção de Dados (LGPD), fiscalizando e aplicando sanções quando as diretrizes são descumpridas.
Evidentemente, quando falamos de um comitê e mecanismos de regulação, essa decisão não poderá estar nas mãos de líderes tecnológicos não-eleitos. Cabe ao poder público nomear os agentes responsáveis pelas diretrizes preventivas e possíveis auditorias – a depender da forma da utilização das ferramentas de IA.
Assim como a revolução industrial, a internet e a robótica, a popularização das Inteligências Artificiais proporciona um aumento na produtividade. Mas não se pode esquecer que toda parametrização ainda é feita por humanos. A utilização da tecnologia proporcionando agilidade para atividades rotineiras sob supervisão de humanos é recomendada, mas a atribuição de decisões de maior criticidade que demandam discernimento humano não.
Por mais inteligente que a tecnologia seja, ela ainda é artificial. É de responsabilidade dos Agentes Públicos garantir que a IA sirva aos interesses da humanidade e não represente uma ameaça para aqueles que a desenvolveram.
Sobre o autor
Bruno Siqueira de Oliveira atua na área de Riscos e Continuidade de Negócios da Protiviti Brasil, empresa especializada em soluções para gestão de riscos, compliance, ESG, auditoria interna, investigação e proteção e privacidade de dados.