A nova lei exige que os sistemas de IA sejam transparentes, explicáveis e compreensíveis.
A Lei de IA da UE é a primeira regulamentação da União Europeia que estabelece um quadro regulatório e legal comum para a IA (Inteligência Artificial). Ela foi adotada em março de 2024 e será totalmente aplicável em 24 meses, entrando em vigor gradualmente até lá.
Mas quais medidas as empresas devem tomar para se adequar à nova regulamentação?
Primeiramente, vamos analisar por que a Lei é inovadora. Globalmente, este é o primeiro quadro regulatório a abordar o desenvolvimento, implantação e uso de IA em diversos setores. Ele utiliza uma abordagem baseada em risco para o acesso aos sistemas de IA, de modo que os requisitos de conformidade são ajustados de acordo com o impacto potencial na segurança e nos direitos fundamentais. A Lei exige que os sistemas de IA sejam transparentes, explicáveis e compreensíveis, responsabilizando as organizações que os desenvolvem pelos resultados.
Com o tempo, muitos acreditam que essa regulamentação irá fortalecer a confiança do público nos sistemas de IA.
Comparação de Regulamentações na UE, EUA e Reino Unido
Ao comparar a Lei de IA da UE com as abordagens adotadas nos EUA e no Reino Unido, há diferenças claras.
Nos EUA, a regulamentação é fragmentada, com diretrizes específicas para alguns setores, mas sem uma regulamentação federal abrangente sobre IA, como ocorre na UE. Os EUA desenvolveram estruturas e padrões por meio do Instituto Nacional de Padrões e Tecnologia (NIST), mas estes são não vinculantes. Dessa forma, há uma maior dependência da autorregulação da indústria para desenvolver uma IA ética.
A abordagem do Reino Unido é semelhante à dos EUA, com estruturas e princípios não vinculantes para o desenvolvimento de IA ética, em vez de regulamentação formal. Diante disso, a Lei de IA da UE poderia servir como um modelo para que outros países ou jurisdições desenvolvam suas abordagens/estruturas de regulamentação, dada a abordagem abrangente e estruturada da Lei.
À medida que a prevalência da IA continua a crescer, é provável que a regulamentação também evolua. Estabelecer diretrizes para que as organizações desenvolvam IA de maneira segura ajudará a aumentar a confiança do público, a adoção e a inovação, de modo que a regulamentação deve ser vista como algo positivo e como um caminho para fomentar a inovação.
O que as organizações podem fazer para se preparar para a Lei de IA da UE?
Primeiramente, as organizações devem avaliar onde estão adotando IA e realizar uma avaliação de riscos em conformidade com os níveis de risco previstos na Lei de IA da UE. Isso ajudará a medir os impactos futuros de forma antecipada e ajustar o desenvolvimento conforme necessário.
Em segundo lugar, elas devem garantir a responsabilidade em nível executivo e em toda a organização sobre os casos de uso que estão sendo desenvolvidos e o propósito de cada um, verificando se o desenvolvimento do sistema e os conjuntos de dados usados para treinamento estão alinhados a esse propósito.
Terceiro, à medida que os sistemas de IA forem criados, a equipe de desenvolvimento deve garantir que os algoritmos sejam bem documentados, de modo que sejam explicáveis e transparentes.
Devem também garantir que os conjuntos de dados utilizados no desenvolvimento dos algoritmos sejam adequados ao propósito, que os dados sejam justos e que quaisquer resultados dos sistemas de IA respeitem os direitos fundamentais.
Uma vez desenvolvido, o sistema de IA precisará ser monitorado regularmente para garantir que não surjam novos riscos ou problemas. Além disso, as organizações devem investir em treinamento sobre alfabetização em dados e IA para que todos os colaboradores compreendam os riscos éticos ou problemas relacionados.
Por fim, as organizações devem interagir com seus reguladores, colaborando em fóruns e grupos de trabalho, ajudando a moldar iniciativas nesse campo. Isso ajudará tanto as organizações quanto os reguladores a se prepararem para o futuro.
E no Brasil? Expectativas sobre o Marco Legal da IA
“No Brasil, o Marco Legal da Inteligência Artificial está sendo discutido no Congresso Nacional, com a intenção de criar um sistema regulatório que aborde o uso da IA em diferentes setores da economia. Inspirado em modelos internacionais, como o da União Europeia, o texto preliminar do projeto de lei – PL 2338/2023, regular potenciais impactos sobre a segurança e os direitos fundamentais. O projeto prevê a criação de uma autoridade competente para monitorar e regular a implementação da IA (potencialmente a ANPD), e a expectativa é que possa criar diretrizes mais claras para o desenvolvimento responsável da IA no Brasil, contribuindo para o avanço tecnológico com segurança jurídica e proteção de direitos e dados pessoais.” André Cilurzo – Diretor Executivo de Technology Risk Consulting na Protiviti Brasil.
Conteúdo original de Michelle Moody, Managing Director de Data & Analytics da Protiviti Inc., traduzido e adaptado por André Cilurzo. Originalmente publicado em AI Business.
André Cilurzo
André Bottecchia Cilurzo é formado em Administração pela EAESP-FGV, com pós-graduação em Business Economics pela EESP-FGV. Desde 2002 na Protiviti, atualmente lidera as soluções de Data Privacy e atendimento à LGPD. Anteriormente, também na ICTS, trabalhou no desenvolvimento de soluções para segurança de informações e prevenção a riscos, perdas e fraudes.