Prevenção a fraudes e cibersegurança caminham juntas nos desafios de IA

Evento da Serasa Experian realizada na casa da Consumidor Moderno reúne especialistas para discutir as transformações do cenário de cibersegurança pela IA.

A Serasa Experian, em parceria com o Grupo Padrão, reuniu especialistas na tarde na quinta-feira (15) na casa da Consumidor Moderno para falar sobre Inteligência Artificial (IA) e prevenção a fraudes. Ronaldo Lemos, renomado acadêmico, advogado e ativista brasileiro, conhecido por suas contribuições significativas no campo do direito digital, tecnologia e cultura, foi um dos participantes do evento, apresentando as conexões entre os riscos cibernéticos e os impactos da IA – para bem e para o mal – nas fraudes no Brasil.

O especialista, que também atua como diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS Rio), professor na Universidade do Estado do Rio de Janeiro (UERJ) e lidera pesquisas sobre propriedade intelectual, direitos autorais e regulação da internet, pontua que, cada vez mais, a Inteligência Artificial tem se feito presente em nossas vidas. Nos celulares mais novos, por exemplo, há um agente responsável por analisar ligações e filtrá-las de acordo com o interesse do usuário. Pode, por exemplo, descartar chamadas de telemarketing e prosseguir com as de interesse pessoal.

Além disso, as ferramentas têm grande capacidade de manipulação de imagem, como mudar o rosto de pessoas que não “saíram bem na foto” ou para remover objetos. A IA também tem a capacidade de alterar áudios, e até mesmo responder com textos. Ao mesmo tempo que surgem todas essas revoluções tecnológicas, existe um problema a ser enfrentado: a realidade.

“Hoje, temos ferramentas altamente capazes de manipular a realidade como a conhecemos, e isso pode ser usado para fraudes”, pontua. “Já tínhamos, no passado, ferramentas como o Facetune, que são muito usadas até hoje para retocar fotos. Mas o uso vai muito além desse uso simples. Hoje é possível usar IA para criar deepfakes e é possível inserir o rosto de qualquer pessoa em um vídeo, de forma muito perfeita. Mas, é possível usar também para manipulação política, recriar voz e imagem. Então, essas ferramentas vão causar problemas”.

Vídeo como prova e fraude

O especialista frisa que nós, seres humanos, confiamos no vídeo por ser a prova de que algo aconteceu. Ao mesmo tempo, temos entrado em um momento em que não podemos mais confiar no audiovisual, uma vez que ele esse conteúdo tem se tornado sintético e as novas ferramentas tecnológicas poderão ser usadas para fins maliciosos.

“Nos fóruns de cibersegurança tem uma discussão muito intensa sobre o uso de vídeo por IA para burlar chamadas de vídeo em que, por exemplo, seria obtido um certificado digital ou qualquer tipo de autenticação. Hoje, usamos muita biometria, inclusive facial, e o surgimento desse tipo de tecnologia vai colocar pressão sobre essas formas de autenticação. Quando olhamos para a forma que autenticamos hoje, cada vez mais, esse uso de tecnologia sintética vai permitir que seja emulada a voz, chamada por zoom, e isso pode burlar sistemas de autenticação, e esse ponto é extremamente importante”, comenta.

Nesse sentido, Lemos pontua ainda que, hoje, a internet é usada como a base para a vida contemporânea. Porém, a rede foi desenhada para conectar máquinas, e não pessoas. A consequência disso é que, na internet, as máquinas têm identidade, as pessoas não. A consequência é a necessidade de um sistema de autenticação externo. Sendo assim, é necessária uma outra metodologia para provar que a pessoa que está do outro lado é real.

A questão da identidade

Além disso, no Brasil, há um problema de identificação. Um exemplo citado pelo especialista está na emissão de RG, feita pelos estados. Essa documentação é como se fosse um “login” para a vida civil e online. É uma forma de provar que uma pessoa é real para fazer transações válidas na internet. Porém, esse sistema pode ser burlado, uma vez que um homem conseguiu ter 47 títulos de eleitor e 43 carteiras de identidades. Já em 2016, a Controladoria-Geral da União (CGU) descobriu ter 46 mil CPFs sendo usados por mais de uma pessoa. Outro problema particular é o vazamento de dados no país.

“Todos os dados no Brasil já foram vazados e são facilmente comprados online. Essa é a premissa de fazer negócio no Brasil. O resultado é que o país, nos últimos anos, se tornou o paraíso dos golpes, principalmente pelo WhatsApp. Uma forma de resolver essa questão é a criação de soluções nacionais”, frisa.

Nesse cenário, Lemos pontua que o modelo usado pela Serasa Experian é interessante ao usar um coquetel de soluções que envolve desde biometria à verificação de documentos, que permite que seja aferida a identidade de uma pessoa de forma mais exata. Assim, esse modelo, para o contexto do Brasil, seria o melhor a ser usado em um país onde ainda não há uma solução nacional.

“Fraudes e Inteligência Artificial, infelizmente, têm uma conexão muito profunda e estão em permanente transformação. Assim como a IA muda toda semana, o mundo da fraude também passa por mudanças semanais. Temos que ficar de olho nesse processo de transformação, e a consequência disso é que ficar parado não é uma opção. É fundamental escolher bem os parceiros de identificação, e levar sempre em consideração uma estratégia multifatorial para garantir a certificação de uma identidade com um nível elevado de certeza”, reforça.

Prevenção a fraudes, ciberseurança e desafios de IA

Durante o evento, o painel “Como as estratégias de prevenção a fraudes e cibersegurança caminham juntas nos desafios de IA” apresentou cases de clientes da Serasa Experian sobre prevenção de fraudes em suas empresas. Estiveram presentes Caio Rocha, diretor de Autenticação e Prevenção de Fraudes da Serasa Experian, como mediador; Luís Zan, superintendente de Prevenção à Fraude do PicPay; Nathália Lolo, gerente de Segurança do Produto e Prevenção à Fraudes da C&A, e Rodrigo Monteiro, especialista em prevenção de fraudes.

Caio relembrou que já estamos em contato com a IA há algum tempo, mas o que muda agora é como isso se instala. Antes, as empresas tinham mais acesso à Inteligência Artificial que os fraudadores, mas esse cenário mudou.

Diante disso, dentro da C&A passaram a ser utilizadas alguns tipos de biometria, como a facial e a comportamental. “Não podemos falar de uma única Inteligência quando falamos de fraudador. Se focamos em apenas um tipo, ficaremos para trás. Quando temos mais de uma forma de se prevenir, conseguimos chegar mais perto, com evolução melhor nos números e contendo a fraude”, comenta Nathália Lolo.

Outro ponto necessário é o foco em experiência, proteção e privacidade no que diz respeito aos dados. Rodrigo Monteiro explica que a cibersegurança deve ser trabalhada em conjunto, porque existe uma sinergia em termos de times e ambos analisam toda possibilidade de fraude. “A fraude vai acontecer, mas não podemos deixá-la escalar. É uma engenharia social, e temos que garantir que a pessoa está autenticada, mas que não cai em algum tipo de golpe”, explica.

Luís Zan reforça a necessidade de monitorar, atuar rápido e encontrar caminhos alternativos. “Os dados que não precisamos e não utilizamos é melhor não ter e não guardar. Momentos de ataques podem acontecer e, mesmo com altas barreiras, vemos no mercado exemplos ruins. Tanto na segurança, quanto no contexto geral, o vazamento prejudica todo mundo. Por isso, trabalhamos na linha de monitoria e mudança”, pontua.

Atualmente, a biometria ainda é o método mais conhecido pelos consumidores. Porém, com o aumento da deepfakes, fraudadores podem até mesmo manipular esse método para tentar novos golpes. Com a evolução da IA, os autores de golpes podem ter mais forçar para disseminar seus golpes, lembra Monteiro.

“Mais do que só pensarmos na instituição, temos que disseminar a conscientização às pessoas, sobre como elas podem se prevenir para não cair em algum tipo de ataque”, frisa.

Para prevenir fraudes, PicPay tem trabalhado na linha da identificação do dispositivo, com uma solução proprietária e uma de mercado. Assim, é possível notar o acesso do consumidor, se é hábito comum do usuário ou manipulação. Diante disso, a instituição agrega informações para identificar se tem algum malware instalado no dispositivo. “Essa é a primeira camada de proteção, tanto do processo de abertura de conta, quanto no de troca de dispositivo. São as etapas com maior probabilidade de ataque no processo de invasão de contas”, pontua Zan.

Nessa questão da identidade, o mais importante são as camadas de proteção. A executiva da C&A reforça que nem todas as medidas podem ser usadas com todas as pessoas. É necessária a IA por trás desses processos de proteção, entender o comportamento do cliente e entender como cada um deles será protegido.

Fonte: “Prevenção a fraudes e cibersegurança juntas nos desafios de IA (consumidormoderno.com.br)

Download