Em 1950, o escritor americano Isaac Asimov transformava o nosso imaginário a respeito dos avanços da tecnologia com a publicação de seu grande sucesso literário “Eu, Robô”. A obra se tornou um marco da ficção científica ao retratar os desafios morais, sociais e psicológicos (ou robopsicológicos, na definição do autor) da conflitante relação dos seres humanos com máquinas cada vez mais inteligentes, que superam não apenas os limites da inteligência humana como todo o nosso entendimento coletivo das relações sociais.
Embora as representações de Asimov tenham sido fictícias, as implicações éticas abordados pelo autor são assuntos de discussão até hoje, muito tempo depois do robô Sonny ter sido acusado de um homicídio. Mas diferente da automação robótica movida por hardwares, a Inteligência Artificial (IA) não automatiza tarefas manuais. Na verdade, ela desempenha tarefas frequentes e computadorizadas de um modo mais confiável.
Caso seja utilizada eticamente, a inteligência artificial está presente em nossas vidas para nos ajudar. Um exemplo disso, é a inteligência artificial por trás dos assistentes de voz em nossos celulares, como a Siri e o Google Assistant. Para saber quanto tempo iremos demorar para ir de um ponto ao outro da cidade, há algoritmos desenvolvidos por programadores que calculam isso. É inteligência artificial que interpreta esses dados.
Mesmo assim, existe uma grande preocupação em torno do tema. Os algoritmos por trás de uma inteligência artificial são uma sequência de instruções que determinam como algo deve ser feito. Funcionam com sistemas que utilizam códigos computacionais e cálculos matemáticos para analisar tudo isso. Contudo, o mais importante nessa história é sabermos que os algoritmos são criados por pessoas. Indivíduos com formações técnicas diferentes, ideologias, culturas e visões de mundo distintas.
“Embora haja entusiasmo sobre as perspectivas de IA no serviço público, há preocupação com o impacto dos sistemas de IA em democracias. Certamente queremos os benefícios potenciais da eficiência econômica e dos sistemas inteligentes de apoio à decisão, mas sem os riscos de perpetuar as desigualdades sociais e perder a responsabilidade política”
Pesquisadora do Instituto de Internet de Oxford Lisa-Maria Neudert, que é co-autora de um estudo sobre o tema.
Uma das grandes problemáticas que envolvem a temática da inteligência artificial é quando delegamos a ela questões que não deveriam ser tomadas por máquinas. Um caso famoso é o da multinacional de comércio eletrônico, Amazon. Em 2018, a empresa admitiu que desenvolveu um mecanismo de recrutamento de novos empregados que analisava o perfil dessas pessoas e verificava se elas se encaixavam para uma determinada vaga. Os algoritmos distribuiam pontuações que variavam de um a cinco estrelas. Porém, logo o sistema terminou ensinando para si mesmo que candidatos do sexo masculino eram preferíveis, penalizando currículos de mulheres.
Para que problemas como esse não sejam perpetuados não apenas por empresas como por governos, a Universidade de Oxford lançou, no último mês de Julho, uma comissão para aconselhar líderes mundiais sobre formas eficazes de usar IA e aprendizado de máquina na administração pública. A Comissão de Oxford sobre IA e Boa Governança (OxCAIGG, na sigla em inglês) reunirá acadêmicos, especialistas em tecnologia e formuladores de políticas para analisar a implementação de IA em todo o mundo.
Um dos maiores focos do grupo será em algo que Asimov nem sonhava em prever; as consequências da pandemia do novo coronavírus para a tecnologia. De acordo com o diretor do Instituto de Internet de Oxford, presidente da OxCAIGG, Philip Howard, a emergência em saúde pública global aumentará a pressão pública por uma vigilância generalizada, atrairá volume de coleta de dados ainda maior e exigirá um uso mais eficiente de IA no fornecimento de serviços públicos.
“Uma inteligência artificial inovadora precisará ser governada de adequadamente. Aprendizado de máquina, aplicativos de rastreamento de coronavírus, conjuntos de dados de plataforma cruzada e pesquisas de saúde pública baseadas em IA não devem representar um risco para os direitos humanos fundamentais e proteções legais”,
analisa Howard, que também é co-autor do estudo com Neudert, publicado pela OxCAIGG.
Regulação de Sistemas Autônomos
Em janeiro de 2018, Nova York se tornou a primeira cidade do mundo a regulamentar que sistemas autônomos de tomada de decisão (baseados em algoritmos) que influenciam a vida na metrópole americana devem ser obrigatoriamente monitorados (link). Ou seja, agora é preciso que procedimentos sejam implementados para verificar se um algoritmo gera resultados discriminatórios.
E é justamente essa constante avaliação uma das recomendações da OxCAIGG para governos e administrações públicas que administram o uso de sistemas de inteligência artificial. Além dessa constante accountability, o grupo estabelece que esses sistemas devem ter um design inclusivo que considere as implicações discriminatórias de análise de dados, entenda a proveniência dessas informações, dos resultados modelados e da estrutura de governança das empresas que produzem IA.
Entender as necessidades das equipes que irão lidar com esses sistemas também é fundamental para que políticas públicas eficientes possam ser traçadas.
“A inteligência artificial (IA) chegou ao setor público. Prometendo resolver alguns de nossos desafios sociais e de políticas públicas mais urgentes, a IA se tornará cada vez mais abrangente”
concluiu Howard.
O relatório completo da OxCAIGG sobre o tema foi publicado no site do Instituto de Internet de Oxford. Acesse para mais detalhes: “Four Principles for Integrating AI & Good Governance” no link.
Time BL Consultoria Digital – Direito Digital e Análise Regulatória
Este artigo “Os desafios da inteligência artificial no setor público“ foi escrito Por Roberto Peixoto e revisado MSc. Graziela Brandão. Conheça o BL Consultoria Digital, acesse aqui!
Para Assessoria Jurídica e implementação do projeto de adequação às leis de Proteção de Dados (LGPD, GDPR e CCPA) contate agora os nossos Advogados
Para mais informações ou se tiver dúvidas sobre Direito Digital, em especial acerca dos temas: Proteção de Dados (LGPD, GDPR & CCPA), Aspectos Regulatórios e Compliance Digital de novas tecnologias e Due Diligence para Startup, Fintech e HealthTech, entre em contato pelo e-mail [email protected] ou fale com um Advogado online agora.
Conheça nossos Serviços em Privacidade e Proteção de Dados e Compliance Digital:
- Assessoria para Mapeamento de Dados (Data Mapping)
- Assessoria para Mapeamento de Legislação Setorial
- Análise Regulatória da Coleta de Dados
- Revisão e Elaboração de Políticas de Privacidade
- Assessoria de Implementação de Garantia e Direitos de Usuários
- Revisão e Adequação de Contratos
- Manual de Procedimentos de Privacidade e Proteção de Dados
- Assessoria jurídica para realização de transferência internacional de dados
- Política de Segurança da Informação (PSI)
- Plano de Respostas a Incidentes
- Relatório de Impacto a Proteção de Dados (DPIA – Data Protection Impact Assessment)
BL Consultoria e Advocacia Digital
Escritório jurídico voltado para o mundo conectado que busca auxiliar empresas e startups a desenvolverem seus projetos (Pesquisa, Desenvolvimento e Inovação) de forma ética e eficiente com atuação especializada em Direito Digital e Análise Regulatória para novas tecnologias. Estamos localizado em dois endereços: em São Paulo-SP, na Av. Paulista, 575 – conjunto 1903 – Bela Vista, CEP 01311-911 e em Campinas-SP, na Rua Antônio Lapa, 280 – 6o andar, Cambuí. Para mais informações ou consultoria jurídica com nossos advogados, agende uma reunião pelo link ou ligue +55 11 3090 5979.