Projeto cria diretrizes para o desenvolvimento de IA, regras para monitoramento do poder público e uso de direitos autorais
O projeto para regulamentar o desenvolvimento e o uso de IA (inteligência artificial) no Brasil foi aprovado nesta 5ª feira (5.dez.2024) em comissão especial do Senado. A expectativa é de que seja votado no plenário da Casa na 3ª feira (10.dez). Leia a íntegra (PDF – 461 kB).
A proposta estabelece normas gerais, responsabilidades e punições sobre o uso e o desenvolvimento desse tipo de tecnologia. Também cria direitos para pessoas e grupos afetados por elas, além de regras para uso de conteúdo protegido por direitos autorais.
O projeto original, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), sofreu grandes modificações, saindo de 5 para 60 páginas.
O relator foi o senador Eduardo Gomes (PL-TO), que foi pressionado por representantes de diferentes setores, incluindo de comunicação e artistas, uma vez que o texto trata também sobre direitos autorais.
Ele afirmou, no entanto, que o texto terá de passar por atualizações constantes e defendeu uma tramitação mais rápida para normas envolvendo tecnologia.
“É utopia o Congresso Nacional imaginar que pode legislar sobre o mundo digital com a velocidade de escopo e leis que temos. Sempre estamos com delay, sempre chegamos atrasados”, falou.
PRESSÃO DAS BIG TECHS
O projeto foi alvo intenso de lobby por parte das big techs, como são conhecidas as grandes empresas de tecnologia.
Um dos pontos que mais preocupava essas empresas ficou de fora: o que classificava os sistemas de IA de provedores de aplicação de internet (Google, Facebook e outros aplicativos) como alto risco, o que aumentaria suas responsabilidades. O trecho foi retirado, em vitória para as empresas.
DIREITOS AUTORAIS E PAGAMENTO DE CONTEÚDO PROTEGIDO
O projeto estabelece que desenvolvedores e distribuidores de IA deverão remunerar os detentores de conteúdos protegidos por direitos de autor e direitos conexos.
O texto não estabelece valores, mas afirma que devem seguir “os princípios da razoabilidade e da proporcionalidade e elementos relevantes”.
Também afirma que os detentores de direitos autorais terão o direito de negociar os valores.
O texto proíbe a exibição ou a disseminação das obras e conteúdos protegidos por direitos de autor e conexos utilizados no desenvolvimento de sistemas de inteligência artificial.
A proposta cria exceções para o uso de conteúdo com direito autoral, como para pesquisas e desde que não tenha fim comercial. Segundo o projeto, esses casos não ofendem os direitos autorais.
CRÍTICAS DA OPOSIÇÃO
O texto foi aprovado com um dos trechos com maior resistência de senadores de oposição ao governo: o que trata sobre a “integridade da informação”.
Senadores ligados ao ex-presidente Jair Bolsonaro (PL) articularam contra o trecho, sob o argumento de que prejudicaria a liberdade de expressão.
O senador Marcos Rogério (PL-RO), afirmou durante a votação que o trecho abre o conceito de “integridade” para “qualquer tipo de interpretação” e questionou quem definirá o que “pode ser considerado íntegro ou não”.
Eduardo Gomes manteve o conceito por entender que “o contexto regulado caracteriza-se pelo uso de informações em larga escala” e que é necessária a “confiabilidade desses dados, sempre em associação com a liberdade de expressão”.
Alguns senadores defenderam a manutenção do trecho. O presidente da comissão, Carlos Viana (Podemos-MG), disse que “só não defende a integridade da informação quem manipula notícias falsas”.
Já a senadora Zenaide Maia (PSD-RN) afirmou já ter sido vítima de deep fakes, como são conhecidas as imagens manipuladas com o rosto de alguém.
PROIBIÇÕES PARA O PODER PÚBLICO
O texto proíbe o desenvolvimento, a implementação e o uso de sistemas de IA para alguns casos, inclusive feitas por autoridades públicas.
O projeto proíbe, por exemplo, que o poder público use IA para avaliar, classificar ou ranquear pessoas para o acesso a políticas públicas, de forma ilegítima ou desproporcional.
Também proíbe o uso da IA para identificação biométrica à distância, em tempo real e em espaços acessíveis ao público. Há, no entanto, exceções, como:
- busca de vítimas de crimes, de pessoas desaparecidas ou em circunstâncias que envolvam ameaça grave e iminente à vida ou à integridade física de pessoas naturais;
- flagrante delito de crimes punidos com pena privativa de liberdade superior a 2 anos;
- recaptura de réus evadidos, cumprimento de mandados de prisão e de medidas restritivas ordenadas pelo Poder Judiciário.
OUTRAS PROIBIÇÕES
O texto também proíbe o uso de IA para práticas como:
- instigar ou induzir o comportamento da pessoa natural ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
- avaliar os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência;
- possibilitar a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes.
PUNIÇÕES
O texto define que a responsabilização por danos causados pelos sistemas de inteligência artificial seguirão as regras do Código Civil.
O texto estabelece sanções administrativas, como advertência, multa, suspensão e proibição de tratamento de dados.
A multa será de até R$ 50 milhões por infração ou de até 2% do faturamento bruto do grupo.
OUTROS PONTOS DO PROJETO
O senador Eduardo Gomes fez alterações no texto. A última versão adicionou, por exemplo, a proibição de que a inteligência artificial seja usada para a produção e a disseminação de material que represente abuso ou exploração sexual de crianças e adolescentes.
O texto determina, dentre outras coisas:
- supervisão e determinação humana efetiva e adequada no ciclo de vida da inteligência artificial, considerando o grau de risco envolvido;
- prestação de contas, responsabilização e reparação integral de danos;
- usuários e grupos afetados por IA terão direito à informação sobre suas interações com sistemas de IA, de forma acessível, gratuita e de fácil compreensão;
- de que IAs de alto risco terão supervisão humana para minimizar riscos. O texto afirma, no entanto, que a supervisão humana não será exigida se sua implementação for comprovadamente impossível ou implique esforço desproporcional;
O texto estabelece uma série de casos para IAs de alto risco, como as que avaliam prioridades para serviços públicos essenciais ou para auxiliar diagnósticos e procedimentos médicos.
Para esses casos (alto risco), o texto define direitos como:
- à explicação sobre a decisão, recomendação ou previsão feitas pelo sistema;
- de contestar e de solicitar a revisão de decisões, recomendações ou previsões de sistema de IA;
- à revisão humana das decisões, levando-se em conta o contexto, risco e o estado da arte do desenvolvimento tecnológico.
O texto determina que as IAs de alto risco deverão ser regulamentada ao SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial).