Pular para o conteúdo

Coded Bias: Documentário da Netflix reacende discussão sobre regulação e uso de Inteligência Artificial

Imagem: Reprodução/ Netflix

Constantemente somos orientados a ver o universo da Inteligência Artificial (IA) com bons olhos, afinal o entusiasmo com o qual essa tecnologia é exposta nos faz acreditar apenas em seus benefícios para a sociedade. Porém, na prática não funciona dessa forma e é isso que o documentário Coded Bias expõe, através da divulgação de vários estudos que comprovam o viés de gênero e de raça embutidos nos algoritmos que estão por trás das principais tecnologias de reconhecimento facial do mundo. 

Dessa forma, Coded Bias, documentário americano dirigido por Shalini Kantayya, propõe uma reflexão sobre a criação de tecnologias de reconhecimento biométrico-facial desenvolvidas por um grupo pequeno e homogêneo de pessoas e sobre o seu uso sem uma regulação específica. Além disso, o documentário mostra estudos onde são encontradas falhas que demonstram vieses de raça e gênero e problemáticas relacionadas à Privacidade e Proteção de Dados.

O Reconhecimento Biométrico-Facial

O que começou como um simples recurso fotográfico é hoje, com o avanço dos estudos sobre IA, um sistema presente em diversos meios: desde aplicativos comerciais até sistemas complexos de segurança governamental.

No novo documentário produzido pela Netflix, uma das principais personagens é Joy Buolamwini, cientista de computação do MIT (Instituto de Tecnologia de Massachusetts) e criadora do conceito da máscara branca (White Mask). Buolamwini inicia sua pesquisa sobre Reconhecimento Facial ao perceber que os seus algoritmos de código-aberto não conseguiam identificar a sua pele negra e a partir disso, com a ajuda de algumas organizações, ela começa a investigar e propor a proibição do uso desse tipo de tecnologia nos Estados Unidos.

No Brasil, a Lei Geral de Proteção de Dados (LGPD) define o reconhecimento facial como um dado pessoal sensível, uma vez que é considerado dado biométrico, o que exige um cuidado mais rigoroso em seu tratamento. No entanto, a própria LGPD esclarece que ela não se aplica ao tratamento de dados pessoais realizado para fins exclusivos de segurança pública, defesa nacional, segurança do Estado ou atividades de investigação e repressão de infrações penais.[1]

Com o intuito de preencher a lacuna sobre a regulação da utilização dos dados pessoais na segurança pública foi proposto um anteprojeto de lei no Brasil, popularmente conhecido como PL da “LGPD Penal”. O anteprojeto de lei de proteção de dados na segurança pública possui o objetivo de assegurar que o cidadão tenha o controle das informações que o identificam, além disso é de extrema importância para a prevenção de riscos e manutenção dos direitos digitais no Brasil. De acordo com o Instituto de Referência em Internet e Sociedade, essa regulação é essencial para que não ocorram falsos positivos no reconhecimento facial que possam embasar abordagens policiais violentas e discriminatórias, por exemplo.

Uma pesquisa do Instituto Igarapé revelou que desde 2011 são utilizados Sistemas de Reconhecimento Facial no Brasil para diferentes finalidades, principalmente na segurança pública. A Lei nº 13.964, de 2019 (Aperfeiçoamento da legislação penal e processual penal) prevê o armazenamento de dados de registros biométricos, de impressões digitais e, quando possível, de íris, face e voz, para subsidiar investigações criminais.[2]

§ 4º Poderão ser colhidos os registros biométricos, de impressões digitais, de íris, face e voz dos presos provisórios ou definitivos quando não tiverem sido extraídos por ocasião da identificação criminal.

A Portaria nº 4.617, de 6/4/2021, do Ministério da Ciência, Tecnologia e Inovações, instituiu recentemente a Estratégia Brasileira de Inteligência Artificial (BIA), que assume o papel de nortear as ações do Estado brasileiro para o uso da IA. Outro objetivo da Estratégia é garantir a inovação no ambiente produtivo e social na área de Inteligência Artificial.

Regulação da Inteligência Artificial no Brasil e no Mundo

Apesar de serem considerados como um grande avanço para a tecnologia, os sistemas que utilizam IA ainda estão em processo de regulação, tanto no Brasil quanto no Mundo.

Inteligência Artificial
Regulação da Inteligência Artificial no Brasil e no Mundo

No Brasil, tramitam alguns Projetos de Lei no Congresso Nacional, ainda em fase inicial, que envolvem a regulação da Inteligência Artificial, seja através de uma Lei Geral ou do estabelecimento de princípios para seu uso. Entre eles estão o PL 5051/2019 que tramita no Senado e estabelece os princípios para o uso da Inteligência Artificial no Brasil, e o PL 21/2020 que cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) pelo poder público, empresas, entidades diversas e pessoas físicas tramita na Câmara dos Deputados.

Recentemente publicamos no nosso Blog um artigo sobre a Proposta de Regulação para Inteligência Artificial na Europa, nela a Comissão Europeia propôs ao Parlamento Europeu  a atualização das regulações sobre o desenvolvimento e utilização de Inteligência Artificial na União Europeia, proibindo a implementação de IA para influenciar ou distorcer o comportamento de uma dada pessoa de modo a fazer mal físico ou psicológico a ela por meio de técnicas subliminares de manipulação, dentre outras proibições.

Quando o quesito é avanço em novas tecnologias a China encontra-se como um dos países que mais investem no setor e já possui diversos sistemas de Reconhecimento Biométrico-Facial em funcionamento no país. O uso de IA no país mais populoso do mundo ainda está imerso em muitas controvérsias relacionadas aos objetivos da utilização dos sistemas pelo governo e sobre o uso do mecanismo de Social Scoring.

Em junho de 2019, a China publicou, através do Comitê de Especialistas em Governança de IA da Nova Geração, os seus “Princípios de Governança da IA”. O documento fornece uma estrutura e diretrizes para promover o desenvolvimento saudável de soluções baseadas na tecnologia e define que deverão ser estabelecidos padrões para a coleta, armazenamento, processamento e uso de informações pessoais. [3]

Além do estudo de Buolamwini, o documentário apresenta diversos trabalhos de outros pesquisadores e ativistas que lutam contra o uso indiscriminado da tecnologia de reconhecimento facial sem regulação. Entre os grupos citados está a Liga da Justiça Algorítmica, que conseguiu algumas vitórias na esfera política dos Estados Unidos, incluindo o projeto de lei que espera banir os sistemas de reconhecimento facial do país.

A Liga da Justiça Algorítmica

Muito citada no documentário, a Liga da Justiça Algorítmica (Algorithmic Justice League) se autodenomina como uma organização que combina arte e pesquisa para iluminar as implicações sociais e os danos da inteligência artificial e possui como missão aumentar a conscientização pública sobre os impactos da IA, equipar defensores com pesquisas empíricas para apoiar campanhas, construir a voz e a escolha das comunidades mais afetadas e apoiar pesquisadores, legisladores e profissionais da indústria para mitigar preconceitos e danos à IA. [4]

Coded Bias: Documentário da Netflix reacende discussão sobre regulação e uso de IAs
Imagem: Steve Acevedo

Agora vivemos em um mundo onde a IA governa o acesso à informação, oportunidade e liberdade. No entanto, os sistemas de IA podem perpetuar o racismo, sexismo e outras formas prejudiciais de discriminação, portanto, apresentando ameaças significativas à nossa sociedade – desde saúde, oportunidades econômicas e nosso sistema de justiça criminal.

Algorithmic Justice League

O que as startups podem aprender com o Coded Bias?

Quando pensamos em algoritmos e inovação tecnológica nos remetemos ao universo das startups, visto que, atualmente, elas são o motor do desenvolvimento tecnológico no mundo. Dessa forma, é imperioso que ao desenvolverem suas novas tecnologias de ponta, atentem-se para a diversidade nas informações inseridas em seus bancos de dados que são utilizados na arquitetura de suas aplicações. 

Outro ponto que destacamos é a utilização de princípios do privacy by design no desenvolvimento de sistemas baseados em algoritmos.  O emprego dessa metodologia reflete na entrega de um produto (sistema ou aplicação) onde o respeito à privacidade do usuário está presente durante toda a sua navegação e usabilidade, implicando na aderência e conformidade aos preceitos estabelecidos na LGPD.

Fontes: 

[1]Disponível em: <https://www.conjur.com.br/2021-abr-15/miziara-hirata-coded-bias-identificacao-biometrico-facial> Acesso em 29/04/2021.

[2]Disponível em: <https://igarape.org.br/infografico-reconhecimento-facial-no-brasil/> Acesso em 29/04/2021.

[3] Disponível em:  <https://www.loc.gov/law/foreign-news/article/china-ai-governance-principles-released/> Acesso em 29/04/2021.

[4]Disponível em: <https://www.ajl.org/about> Acesso em 29/04/2021.

BL Consultoria e Advocacia Digital

Escritório jurídico voltado para o mundo conectado que busca auxiliar empresas e startups a desenvolverem seus projetos (Pesquisa, Desenvolvimento e Inovação) de forma ética e eficiente com atuação especializada em Direito Digital e Análise Regulatória para novas tecnologias. Estamos localizado em dois endereços: em São Paulo-SP, na Av. Paulista, 575 – conjunto 1903 – Bela Vista, CEP 01311-911 e em Campinas-SP, na Rua Antônio Lapa, 280 – 6o andar, Cambuí.

Jaqueline Martins
Jaqueline Martins
Graduada em Jornalismo da Universidade Federal de Alagoas com formação técnica em informática e experiência em pesquisa acadêmica na área de Jornalismo e Informação. Atua como Assistente de Comunicação no BL Consultoria Digital.

Posts Relacionados

Fale Conosco

    Categorias

    Assine nossa Newsletter

    Open chat
    Olá, tudo bem? Como podemos te ajudar?
    Olá! Como podemos ajudar?