O segundo painel do Compliance Summit Brasil mergulhou em um dos temas mais desafiadores da atualidade: “Inteligência Artificial: aliada ou ameaça para os profissionais de compliance?”. A conversa foi mediada por Tamara Oliveira, sócia da KPMG, e reuniu Eduardo Duarte, diretor estatutário de gestão de riscos, controles internos & compliance da Allianz Brasil, Débora da Cunha, Risk & Controls Director da 99, e Odair Oregoshi, diretor de compliance e risco da SPIC e coordenador da Plataforma de Anticorrupção do Pacto Global da ONU.
Logo na abertura, Oliveira reforçou a importância de equilibrar tecnologia e humanidade: “compliance também é presença ativa, diálogo e proximidade. Não podemos robotizar o que depende do fator humano”.
O debate foi contextualizado ainda por dados da pesquisa “Confiança, Atitudes e Uso de Inteligência Artificial”, da KPMG, que mostram a velocidade com que a tecnologia vem sendo incorporada no mercado brasileiro. Segundo o levantamento, 86% dos trabalhadores já utilizam IA no trabalho; destes, 71% apontaram ganhos de eficiência e inovação, mas mais da metade expressou preocupações com privacidade, segurança e impacto social. O estudo também mostrou que as ferramentas generativas são as mais utilizadas, sobretudo em versões gratuitas — fator que acende alertas adicionais quanto a riscos de confidencialidade e proteção de dados.
Cunha mostrou como a IA já faz parte das estratégias de compliance na 99. “A IA tem se tornado uma ferramenta muito importante para gestão de riscos, atuando perfeitamente nos pilares de prevenção, monitoramento e detecção”, afirmou. Ela citou aplicações como background checks automatizados, canais de denúncia que direcionam perguntas adicionais, treinamentos adaptados a perfis de risco e monitoramento contínuo de e-mails e transações financeiras. O objetivo é liberar os profissionais de tarefas repetitivas e permitir foco em análises estratégicas.
Duarte compartilhou a experiência da Allianz, lembrando que o setor de seguros foi um dos primeiros a absorver a IA em áreas de negócio como precificação, regulação de sinistros e subscrição de produtos — o que acabou pressionando também as áreas de suporte. “No fim do dia, a decisão é sempre humana. A ferramenta pode gerar modelos enviesados, por isso é preciso revisão e cuidado”, disse. Ele contou que a seguradora começou com aplicações simples, como planos de ação automatizados a partir de relatórios de auditoria, e avançou para soluções mais sofisticadas: treinamentos personalizados, enriquecimento de relatos de denúncia, gestão de correspondências regulatórias e traduções de políticas globais. A IA, destacou, também passou a resumir relatórios extensos em análises concisas — um ganho expressivo de tempo e produtividade.
Já Oregoshi trouxe uma visão crítica. Para ele, a tecnologia não é capaz de abarcar situações que envolvem nuances humanas, como casos de assédio moral. “O grande risco é confiar demais em respostas automatizadas sem trazer o olhar crítico e humano necessário”, alertou. Ele também chamou atenção para dilemas envolvendo fake news em due diligence, quando acusações infundadas ou manchetes sem processo judicial podem distorcer avaliações de risco.
O coordenador do Pacto Global da ONU, relatou ainda uma experiência pessoal durante seu mestrado, quando usou IA para pesquisas acadêmicas. A ferramenta trouxe artigos relevantes, inclusive de autores orientais pouco acessados no Ocidente, mas também gerou referências inexistentes. “Se eu não tivesse checado, teria colocado em risco toda a credibilidade do meu trabalho”, comentou, reforçando a necessidade de contrapontos e escrutínio crítico.
O painel também explorou os dilemas éticos e os vieses inconscientes presentes no uso da IA. Oregoshi defendeu auditorias periódicas e equipes diversas para mitigar riscos. Já Débora reforçou: “A IA trabalha com dados, não com valores. Ela não substitui a interpretação ética nem o conhecimento do negócio”. Para ela, governança ética significa revisões regulares dos algoritmos, políticas claras sobre quais dados podem ser inseridos e a criação de comitês de ética para balizar decisões. “A IA pode apoiar a interpretação de dados, mas nunca substituirá o olhar humano e ético na decisão final”, concluiu.
Duarte encerrou apresentando o guideline global da Allianz para uso de IA, construído com profissionais de diversos países. O documento se apoia em cinco pilares: transparência (informar sempre quando há interação com IA), justiça e não discriminação, controle humano (toda decisão automatizada deve prever revisão), privacidade e governança e responsabilização (monitoramento contínuo e documentação para auditoria).