Inteligência artificial: juristas definem serviços de alto risco e responsabilização

Anteprojeto apresentado por comissão de magistrados e especialistas prevê princípios, com base em conceitos reconhecidos internacionalmente, e estabelece o papel dos agentes do setor.
Inteligência artificial: juristas definem serviços de alto risco e responsabilização
Comissão de juristas aprova relatório sobre anteprojeto que dispõe sobre sistemas de inteligência artificial (Foto: Geraldo Magela/Agencia Senado)

A Comissão de Juristas Responsável por Subsidiar a Elaboração de Substitutivo sobre Inteligência Artificial (IA) no Brasil, do Senado Federal, aprovou, nesta quinta-feira, 1º, o relatório do anteprojeto formulado pelo colegiado. O texto define os princípios dos sistemas de IA e estabelece uma categorização de riscos, com medidas proporcionais a cada nível, definindo também modelos de responsabilização. 

A íntegra do relatório deve ser apresentada à Mesa do Senado na próxima semana. Na sessão desta quinta, a relatora do colegiado,  advogada e professora Laura Schertel, leu os principais pontos do anteprojeto. 

A minuta da proposta define os sistemas de IA como um “sistema computacional com grau de autonomia, desenhado para aferir um dado conjunto de objetivos, dando abordagens baseadas em aprendizagem de máquina e representação do conhecimento, por meio de dados de entrada proveniente de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real”. 

O anteprojeto cita como sistema de IA de alto risco aqueles que contemplam:

  • gestão em funcionamento de infraestruturas críticas; 
  • educação profissional, incluindo sistemas de combinação de acesso à instituições de ensino informação profissional;
  • recrutamento, triagem, filtragem  ou avaliação de candidatos;
  • serviços privados e públicos que sejam considerados essenciais; 
  • avaliação de crédito;
  • administração da Justiça; 
  • veículos autônomos, sempre que haja risco às pessoas; 
  • áreas da Saúde destinadas ao auxílio de diagnósticos e procedimentos médicos;
  • sistemas biométricos de identificação de investigação criminal e 
  • gestão da migração e controle de fronteiras.

 Os sistemas de alto risco devem ser implementados com as seguintes medidas:  

  • uso de ferramentas de registro automático da operação do sistema; 
  • realização de teste para avaliação de níveis apropriados de confiabilidade; 
  • medidas de gestão de dados para mitigar e prevenir viés discriminatório; 
  • composição de uma equipe inclusiva e responsável pela concepção e desenvolvimento do sistema e 
  • também adoção de medidas técnicas para viabilizar a explicabilidade dos resultados. 

Sistemas proibidos

A sugestão de classificação de sistemas de risco excessivo, com implementação e uso proibidas, são:

  • técnicas subliminares que têm por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa a sua saúde ou segurança;
  • sistemas que explorem quaisquer vulnerabilidade de um grupo específico de pessoas naturais, tais como associado a sua idade ou deficiência física mental, de modo a induzi-las a se comportarem de forma prejudicial à sua saúde e segurança (seguindo previsões já em vigor no Código de Defesa do Consumidor) e
  • sistemas empregados pelo poder público para avaliar, classificar e rankear as pessoas naturais com base no seu comportamento social, em atributos de sua personalidade, por meio de uma pontuação universal

Ainda de acordo com a relatora, no caso de sistemas de segurança pública, haverá uma regra específica para a biometria em tempo real, como é o caso do reconhecimento facial.

“A disposição expressa que nós estamos propondo é para que haja, como uma condição de utilização desses sistemas, uma lei federal com requisitos para que esse tipo de sistema possa ser utilizado”, afirmou Schertel.

Fornecedores e operadores

O texto traz também dois tipos de “agentes de IA”. Um deles é o “fornecedor do sistema de IA”, definido como “a pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de IA diretamente ou por encomenda, com vistas a sua colocação no mercado ou sua aplicação em serviço por ela fornecida, sobre o seu próprio nome ou marca, a título oneroso ou gratuito”.

O projeto chama de “operador do sistema de IA” o que é considerado o usuário em algumas literaturas. Trata-se da “pessoa natural ou jurídica, de natureza pública ou privada , que emprega ou utiliza em seu nome ou benefício o sistema de IA, salvo se o sistema for utilizado no nome de uma atividade pessoal de caráter não profissional”. 

Schertel explica que o grupo optou por não usar o termo usuário “porque, no Brasil, o usuário é sempre visto como um consumidor ou usuário final, o que poderia gerar confusão”. 

Princípios

São princípios dos sistemas de IA:

  • crescimento inclusivo;
  • desenvolvimento sustentável e bem-estar ;
  • alta determinação e liberdade de decisão e escolha; 
  • participação humana no ciclo da Inteligência Artificial e supervisão humana efetiva 
  • não discriminação;
  • justiça, equidade e inclusão; 
  • transparência e explicabilidade; 
  • intelegibilidade e auditabilidade; 
  • confiabilidade e robustez dos sistemas de IA e segurança da informação; 
  • devido processo legal, com contestabilidade do contraditório
  • rastreabilidade das decisões durante o ciclo de vida do sistemas.
  • atribuição de responsabilidades a uma pessoa natural jurídica; 
  • prestação de contas; 
  • responsabilização e reparação integral de danos;
  • prevenção precaução e mitigação de risco sistêmicos e
  • não maleficência e proporcionalidade entre os métodos empregados e finalidades  do sistema.

Responsabilização

Para a responsabilização, Schertel explica que “optou-se por um regime que abranja o fornecedor e o operador de sistema de IA, deixando claro que sempre que algum desses agentes causar dano patrimonial moral ou coletivo, será obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema”.

Quando se tratar de um sistema de IA de alto risco ou de risco excessivo, o texto diz que o fornecedor ou operador responderão objetivamente pelos danos causados na medida da participação de cada um no dano.

Já quando se tratar de sistema IA que não seja de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima. 

O anteprojeto segue a mesma linha do PL 21/2020 , no sentido de que sempre que se tratar de relação de consumo, aplicam-se as regras de responsabilidade do Código de Defesa do Consumidor 

Por fim, a proposta prevê que o Executivo designará uma autoridade competente para definir as sanções aplicáveis.

Construção e homenagem

 A comissão de juristas realizou, ao todo, dez reuniões. O texto levou em consideração estudos técnicos acerca da legislação aplicada internacionalmente, audiências públicas e consulta aos setores envolvidos. 

O colegiado foi formado por 18 integrantes, entre ministros, juízes, juristas e pesquisadores renomados. Entre eles, o professor Danilo Doneda, que estaria na sessão de votação do parecer, mas que, de acordo com o presidente da comissão, ministro Villas Bôas Cueva, no Superior Tribunal de Justiça, não compareceu por motivos de saúde.

Os membros da comissão dedicaram um momento na sessão para destacar a importância de Doneda na elaboração do anteprojeto.

“Como sempre, tem tido uma participação destacada no desenvolvimento desse novo ramo de direito de tecnologia e de proteção de dados pessoais, ao longo de tantos anos tem colaborado na própria elaboração da LGPD (Lei Geral de Proteção de Dados) e agora também com a colaboração inestimável para o sucesso desse trabalho”, afirmou Villas Bôas.

A relatora, Laura Schertel, fez um discurso de agradecimento. Veja a íntegra:

Danilo,

Essa comissão e os debates do direito e tecnologia no Brasil devem muito a você. Obrigada por ter nos ensinado a sempre colocar o ser humano em primeiro lugar. Obrigada pelos seus livros, que inspiraram tantas pesquisas de jovens talentos. Obrigada por ter ajudado a construir essa comunidade de direito e tecnologia tão pujante no Brasil .

Se hoje o Brasil é reconhecido internacionalmente pelo trabalho de proteção de dados e regulação de tecnologia, certamente devemos isso ao seu engajamento, a sua rede tão robusta e a generosidade que sempre compartilhou.

Você transformou não somente minha vida, mas a de toda uma comunidade e, porque não dizer, a de todo um país. Por tudo isso, o nosso muito obrigado.

 

 

 

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura dos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 840