Início » IA x IA: empresas aplicam inteligência artificial contra crimes digitais que usam a mesma tecnologia

IA x IA: empresas aplicam inteligência artificial contra crimes digitais que usam a mesma tecnologia

postado Assessoria

Patrick Hillmann era diretor de Comunicações da maior corretora de criptomoedas do mundo quando teve vídeos seus disponíveis na internet usados para a criação de uma versão falsa dele próprio, que disparava convites para reuniões com potenciais clientes. O americano, então executivo da Binance, teve que vir a público na ocasião explicar que cibercriminosos usavam a inteligência artificial (IA) para aplicar golpes em seu nome.

A técnica que recriou Hillmann é a mesma usada recentemente por adolescentes de uma escola particular no Rio para distribuir falsos nudes de alunas: deepfake. Trata-se de imagem, vídeo ou áudio gerado por IA que podem simular voz, fotografias ou até mesmo sequências de uma pessoa em movimento, com pouca nitidez entre o que é falso e verdadeiro.

Casos similares se espalham pelo mundo, num risco crescente para pessoas, de anônimos a celebridades, mas também para os negócios, diante da capacidade da inteligência artificial de multiplicar o potencial — e os danos — de crimes cibernéticos. Por isso, do outro lado da trincheira, empresas de tecnologia aplicam a própria IA no desenvolvimento de verdadeiros antídotos, soluções capazes de barrar o mau uso da nova tecnologia.

4 ameaças favorecidas pela IA:

  1. ‘Deepfakes’ melhores: Manipular vídeos, imagens e áudios se torna uma tarefa acessível a quase todo mundo a partir de sistemas de inteligência artificial generativa. O resultado também é mais realista.
  2. Hackeamento de senhas: Cibercriminosos usam inteligência artificial para aperfeiçoar algoritmos usados para decifrar senhas. A adivinhação fica mais rápida e precisa, e os hackers ganham eficiência.
  3. Engenharia social: Com IA, hackers automatizam processos para gerar ataques que buscam induzir usuários de dispositivos ao erro por meio de manipulações, seja com ‘deepfakes’ ou ‘phishing’.
  4. Envenenamento de dados: Nesse caso, o foco é a própria IA. Hackers alteram dados de treinamento usados por um algoritmo de IA para influenciar as decisões que um sistema toma, o que pode ser difícil de detectar.

A batalha entre a IA dos criminosos e a dos que exploram esse novo mercado de proteção já é bilionária. Segundo a consultoria Allied Market Research, a IA na indústria de segurança cibernética movimentou US$ 19,2 bilhões no mundo em 2022 e deve alcançar US$ 154,8 bilhões em 2032, o equivalente a R$ 760 bilhões.

Acesso mais fácil

Os riscos também estão na casa dos bilhões. Ataques cibernéticos — com uso de IA ou não — devem gerar prejuízos de US$ 10,5 bilhões por ano até 2025, estima a McKinsey. É um aumento de 300% em relação aos níveis de 2015.

— Da mesma forma que podemos alavancar a IA generativa para o bem, infelizmente existe o outro lado. Os ataques baseados em IA podem ser mais sofisticados e difíceis de detectar — diz Patrick Rinski, sócio da consultoria no Brasil.

Criar e alterar imagens de maneira muito convincente ficou mais fácil e acessível com a IA. A técnica já era usada há alguns anos, mas agora se difundiu em uma profusão de ferramentas na internet, muitas gratuitas, enquanto a regulação não tem mesma velocidade. Por trás de alguns sistemas populares desse tipo estão desde startups promissoras como Midjourney e Prisma AI até big techs como a Microsoft, que tem no buscador Bing um recurso desse tipo.

Plataformas e aplicativos se multiplicam em parte pelo fluxo de capital para o setor. Um relatório da PitchBook, empresa de dados que monitora o mercado de inovação, mostra que fundos de venture capital (capital de risco) investiram US$ 187,7 milhões (R$ 920 milhões), só no ano passado, em startups desse segmento. Em 2017, esse fluxo tinha sido de apenas US$ 1 milhão.

O problema não está na tecnologia — que já abre novas oportunidades de negócios em vários aspectos e se mostra útil, por exemplo, na criação de conteúdo publicitário, como no comercial da Volkswagen que recriou a cantora Elis Regina —, mas em como ela pode ser usada por criminosos, facilitando golpes. Por isso, empresas de segurança digital e as próprias big techs (preocupadas com o peso que a regulação pode ter sobre seus planos) usam a própria IA em mecanismos de proteção.

Fonte: O Globo

www.contec.org.br

Deixe um Comentário

Notícias Relacionadas