Pular para o conteúdo

Compliance e utilização da inteligência artificial: quais cuidados a sua empresa deve tomar?

Compliance e utilização da inteligência artificial
Compliance e utilização da inteligência artificial: quais cuidados a sua empresa deve tomar?

Nos últimos anos, testemunhamos uma revolução tecnológica marcada pela ascensão da inteligência artificial (IA), destacando-se especialmente em novembro de 2022 com o lançamento do Chat GPT pela OpenAI. Esse chatbot online despertou grande interesse, ampliando o debate público sobre o alcance da IA e iniciando uma corrida entre grandes empresas pelo desenvolvimento de ferramentas semelhantes.

A IA têm transformado profundamente todos os setores de negócios e áreas do conhecimento. Os avanços na computação, capacidade de processamento de dados e algoritmos de aprendizado de máquina impulsionaram a realização de atividades anteriormente realizadas somente por humanos.

Embora a IA tenha demonstrado ser capaz de otimizar o trabalho de diversas maneiras, ainda existem os riscos que são significativos e devem ser mitigados na sua utilização. Dentre eles estão a privacidade do usuário, proteção de dados, confiabilidade dos modelos de IA, viés algorítmico e transparência que precisam ser consideradas para a utilização dessa tecnologia de forma segura. 

Por outro lado, diante desse avanço nos serviços tecnológicos, cada vez mais, ganha-se destaque empresas que valorizam ética e transparência para os seus usuários e colaboradores e, por essa razão, é fundamental que seja aplicado um compliance eficaz para a empresa. Caso precise se aprofundar mais a respeito do assunto temos uma série de artigos disponíveis no blog e uma equipe especializada no assunto para ajudar. 

Índice

O termo “compliance” é originária do inglês “to comply”, que significa estar em conformidade. Atualmente, tem se destacado o Compliance como uma ferramenta essencial de governança corporativa. Em termos simples, o Compliance envolve a conformidade das organizações com as normas aplicáveis, bem como com seus próprios regulamentos internos, valores e objetivos estratégicos.

O objetivo do compliance é promover a integridade, a transparência e a responsabilidade nas operações da empresa, mitigando riscos legais, financeiros e reputacionais.

No Brasil, um elemento fundamental na elaboração de uma cultura de compliance é a Lei Anticorrupção, Lei nº. 12.846/2013, atualmente regulamentada pelo Decreto nº. 11.129/202214, que trata da responsabilização administrativa e civil de pessoas jurídicas por atos contra a administração pública. 

Além dessas legislações, a  promulgação da Lei Federal nº 13.709/2018, conhecida como Lei Geral de Proteção de Dados Pessoais (LGPD), determinou a implementação de práticas de compliance pelas empresas que lidam com dados pessoais. Esse requisito visa mitigar os riscos associados ao tratamento desses dados, em consonância com os princípios de transparência e segurança estabelecidos na própria lei.

1.Leis e regulamentos: Garantir que a IA esteja em conformidade com leis e regulamentos locais e internacionais, como leis de privacidade de dados, proteção ao consumidor e anti-discriminação.

2.Transparência: Fornecer informações claras sobre como a IA é usada, incluindo os dados utilizados, os algoritmos empregados e as possíveis consequências para os usuários.

3.Equidade: Garantir que a IA seja imparcial e não discriminatória, evitando injustiças abarcadas na base de dados ou nos algoritmos.

4.Privacidade de dados: Proteger os dados dos usuários e garantir que a coleta, armazenamento e uso dos dados sejam feitos de acordo com as leis de privacidade aplicáveis.

5.Segurança da informação: Garantir que a IA seja segura e protegida contra acessos não autorizados, ataques cibernéticos e outros riscos de segurança.

6.Gestão de riscos: Identificar e gerenciar os riscos associados ao uso da IA, incluindo riscos legais, éticos, de reputação e operacionais.

7.Governança de dados: Estabelecer políticas e procedimentos para garantir a qualidade, integridade, confiabilidade e acessibilidade dos dados utilizados pela IA.

8.Auditoria e monitoramento: Realizar auditorias regulares e monitoramento contínuo para garantir que a IA esteja em conformidade com as políticas e regulamentos estabelecidos.

9.Treinamento e conscientização: Fornecer treinamento e conscientização para funcionários sobre questões éticas e legais relacionadas ao uso da IA.

Ao implementar essas práticas de compliance, as empresas podem mitigar os riscos associados ao uso da IA e realizar a utilização desse recurso de forma ética, transparente e responsável. Por isso é fundamental a contratação de uma equipe de advocacia especializada no assunto para evitar futuros problemas.

Atualmente, a regulamentação do uso da inteligência artificial tem se tornado uma preocupação crescente para governos e organizações internacionais em todo o mundo.

A União Europeia tem se destacado nesse cenário, sendo pioneira nos esforços de regulamentação. Em abril de 2021, a Comissão Europeia apresentou a proposta inicial de um texto de lei para essa regulamentação, conhecido como Artificial Intelligence Act (AI Act). Esse ato propõe a classificação dos sistemas de IA em diferentes categorias de risco e estabelece requisitos para aplicações de IA consideradas de alto risco, com foco na transparência, responsabilidade e supervisão humana.

No Brasil, o Projeto de Lei 2338/23, prevê que as pessoas tenham conhecimento prévio sobre suas interações com sistemas de IA e recebam explicações sobre como recomendações ou decisões subsidiadas por essa tecnologia foram estabelecidas. Além disso, determina a participação humana nessas decisões e garante a preservação dos direitos das pessoas, protegendo-as contra discriminações, vieses e violações à sua privacidade e proteção de dados pessoais.

O texto proíbe a utilização de IA em classificação ou rankings das pessoas com base em seu comportamento social, com o objetivo de autorizar ou proibir seu acesso a bens, serviços e políticas públicas. Também estipula as situações em que a tecnologia pode ser usada para identificação biométrica.

O projeto de lei, atualmente em tramitação na Coordenação de Comissões Especiais, Temporárias e Parlamentares de Inquérito, e sob a relatoria do senador Eduardo Gomes, prevê uma avaliação preliminar dos riscos antes da operação dos sistemas de IA. Essa avaliação determinará medidas de governança e penalidades, sendo consideradas de alto risco atividades como determinação de acesso a instituições de ensino, recrutamento e avaliação de candidatos, análise da capacidade de endividamento e administração da justiça, entre outras.

O projeto estabelece a necessidade de um sistema de governança obrigatório, com medidas de transparência, parametrização e gestão de dados, além da realização de uma avaliação de impacto algorítmico. Esse processo contínuo ao longo de todo o ciclo de vida dos sistemas de IA visa reunir riscos conhecidos e previsíveis, probabilidade e gravidade das consequências e medidas de mitigação.

Antes desse projeto de lei, outras duas iniciativas foram discutidas no Brasil em 2019: o Projeto de Lei n° 5051, que propõe estabelecer princípios e regulamentar o uso da inteligência artificial no Brasil, e o Projeto de Lei nº 5691, que tinha o objetivo de criar a Política Nacional de Inteligência Artificial. Ambos os projetos giram em torno da proposta de que os sistemas de IA sejam auxiliares à tomada de decisão humana.

Time BL Consultoria
Time BL Consultoria
Time BL Consultoria Digital - Direito Digital e Análise Regulatória

Posts Relacionados

Fale Conosco

    Categorias

    Assine nossa Newsletter

    Open chat
    Olá, tudo bem? Como podemos te ajudar?
    Olá! Como podemos ajudar?