30 outubro 2024
A nova versão do relatório que pode criar um marco legal para inteligência artificial no país proibiu o uso de armas autônomas e revisou o rol de atividades consideradas de alto risco, excluindo itens como a avaliação de crédito por IA.
O novo parecer do senador Eduardo Gomes (PL-TO), divulgado na sexta-feira (7), aumenta o texto da lei de 33 para 43 páginas e, entre outros pontos, descarta o trecho que permitia o uso de armas letais autônomas com “controle humano significativo”.
Para Bruno Bioni, diretor da Data Privacy Brasil, organização dedicada a estudos de proteção de dados e direito digital, o avanço é importante, tendo em vista que esse tipo de tecnologia não apresenta controles ético-legais nos possíveis designs.
“Sob o ponto de vista de proteção de direitos, o novo substitutivo proíbe totalmente armas letais autônomas. Diferentemente do texto preliminar de abril, que abria margem para a sua adoção se houvesse algum tipo de controle humano significativo. É um avanço muito importante”, diz.
A coordenadora de IA da Coalizão Direitos na Rede, Paula Guedes, afirma que a mudança é significativa, mas ressalta que o uso de sistemas de reconhecimento facial à distância em tempo real (mantido pelo relator) ainda é problemático.
Desde a primeira versão do parecer, em abril, especialistas têm apontado para os riscos do uso de ferramentas de reconhecimento facial na segurança pública diante da alta taxa de erros causada sobretudo pelo racismo algorítmico —viés de imprecisão contra pessoas negras devido à prevalência de brancos em bancos de imagens disponíveis.
Para Bruno Bioni, diretor da Data Privacy Brasil, organização dedicada a estudos de proteção de dados e direito digital, o avanço é importante, tendo em vista que esse tipo de tecnologia não apresenta controles ético-legais nos possíveis designs.
“Sob o ponto de vista de proteção de direitos, o novo substitutivo proíbe totalmente armas letais autônomas. Diferentemente do texto preliminar de abril, que abria margem para a sua adoção se houvesse algum tipo de controle humano significativo. É um avanço muito importante”, diz.
A coordenadora de IA da Coalizão Direitos na Rede, Paula Guedes, afirma que a mudança é significativa, mas ressalta que o uso de sistemas de reconhecimento facial à distância em tempo real (mantido pelo relator) ainda é problemático.
Desde a primeira versão do parecer, em abril, especialistas têm apontado para os riscos do uso de ferramentas de reconhecimento facial na segurança pública diante da alta taxa de erros causada sobretudo pelo racismo algorítmico —viés de imprecisão contra pessoas negras devido à prevalência de brancos em bancos de imagens disponíveis.
Thaísa Oliveira/Pedro S. Teixeira/Folhapress