A inteligência artificial (IA) já é uma realidade transformadora em nossa sociedade. As oportunidades se multiplicam e os desafios se impõem para garantir que essa tecnologia seja utilizada de forma ética, segura e transparente. O desafio é a criação de um marco regulatório que equilibre inovação e proteção, um debate que avança na Europa e que deve ser enfrentado com urgência no Brasil.

Na última semana, participei de um importante evento em Bruxelas sobre regulação da IA, promovido pela Comunidade Europeia. O encontro reuniu especialistas, legisladores e representantes de grandes plataformas digitais para debater os desafios e as soluções adotadas na Europa. A experiência nos oferece lições valiosas para a construção de uma regulação brasileira que proteja os cidadãos sem engessar a inovação.

A União Europeia tem adotado uma abordagem horizontal para regular o ambiente digital. A Lei de Serviços Digitais (DSA) e a Lei de Mercados Digitais (DMA) são referências na distribuição de responsabilidades entre empresas, consumidores e o poder público. No caso específico da IA, o AI Act, aprovado em 2023, estabelece diretrizes para avaliar os riscos e garantir maior transparência no uso da tecnologia.

Leia também – Ecologia integral propõe um novo modelo de sociedade, por Reimont

A lógica europeia parte de um princípio essencial: o que é ilegal no mundo offline também deve ser ilegal no mundo online. Com isso, busca-se impedir abusos sem comprometer a liberdade de criação e inovação. O AI Act classifica os sistemas de IA em diferentes níveis de risco: desde aplicações de baixo impacto até sistemas de alto risco, que demandam regras mais rígidas.

Entre os principais desafios estão a proteção de menores e o combate à desinformação, a segurança cibernética e a transparência no uso da IA em eleições. Hoje, plataformas como Google, Meta, Amazon e TikTok já são obrigadas a avaliar anualmente os riscos que seus serviços oferecem à sociedade, compartilhando essas informações com órgãos de controle.