Este áudio é gerado automaticamente. Por favor, deixe-nos saber se você tiver comentários.
O IBM X-Force ainda não viu nenhuma campanha projetada por IA, mas as menções à IA e ao ChatGPT estão proliferando na dark web.
O relatório X-Force Threat Intelligence Index 2024 identificou mais de 800.000 referências à tecnologia emergente em fóruns ilícitos e dark web no ano passado. Embora a X-Force espere ataques habilitados por IA no curto prazo, a ameaça real surgirá quando a adoção empresarial de IA amadurecer.
No momento, existem muitos sistemas de IA em jogo.
Embora o ChatGPT da OpenAI tenha se tornado sinônimo de IA generativa, está em andamento uma competição para determinar quais grandes modelos de linguagem são os mais eficazes e transparentes. Em um teste de 10 modelos populares de IA, o Gemini do Google ultrapassou os concorrentes, seguido pelo GPT-4 da OpenAI e pelo Llama 2 da Meta. O teste, criado pela Vero AI, mede a visibilidade, integridade, otimização, preparação legislativa, eficácia e transparência dos modelos.
As empresas estão contando com seus provedores de nuvem e software para facilitar a adoção da IA. A Coca-Cola tem uma parceria de US$ 1,1 bilhão com a Microsoft para usar seus serviços de nuvem e IA generativa. E a General Mills usou o modelo PaLM 2 do Google para implantar uma ferramenta privada de IA generativa para seus funcionários.
Até o momento, os cibercriminosos estão focados em ransomware, comprometimento de e-mails comerciais e criptojacking, descobriu a X-Force. Mas a empresa de inteligência de ameaças espera que quando uma única tecnologia de IA atingir 50% da participação de mercado – ou quando não houver mais do que três ofertas primárias de IA – o ecossistema do crime cibernético começará a desenvolver ferramentas e ataques para perseguir a IA.
Table of Contents
ToggleA IA pode impulsionar campanhas de ataque já dominantes
Em fevereiro, a Microsoft informou que hackers da Coreia do Norte, Irã e Rússia estavam usando Open AI para montar ataques de segurança cibernética, que a empresa disse ter encerrado.
Isso não é surpreendente, disse Melissa Ruzzi, diretora de inteligência artificial da AppOmni. A IA generativa pode impulsionar a engenharia social e os ataques de phishing.
Os agentes de ameaças podem personalizar ataques de phishing sofisticados, coletando dados sobre usuários de todos os cantos da Internet, combinando informações que possam parecer semelhantes para saber mais sobre uma pessoa. Por exemplo, eles poderiam identificar um identificador do Instagram que não seja exatamente o nome real de uma pessoa.
Não se trata apenas de enviar e-mails falsos, disse Ruzzi. A IA pode ser usada para fingir ser uma pessoa real se candidatando a um emprego em uma empresa, o que inclui uma carta de apresentação bem escrita e um currículo em PDF.
Os hackers também podem usar IA para determinar há quanto tempo uma posição está aberta “para que possam ver o quão desesperado você está”, disse ela.
Os atores de ameaças podem usar IA generativa para quebrar senhas, aumentar o volume de lançamento de ataques anteriormente bem-sucedidos e contornar as defesas de segurança cibernética, acrescentou ela. O céu é, infelizmente, o limite.
IA poderia ser usada para distorcer a verdade
A IA generativa também está sendo usada para alimentar campanhas de desinformação e desinformação, disse Adam Meyers, vice-presidente sênior de operações de combate ao adversário da CrowdStrike. No Relatório de Ameaças Globais Crowdstrike 2024, a empresa rastreou imagens de IA relacionadas à guerra entre Israel e o Hamas.
Embora as imagens falsas sejam relativamente fáceis de detectar – em algumas imagens falsas, pessoas com seis dedos, por exemplo – ainda estão a ser usadas e muito provavelmente continuarão a ser refinadas até 2024 para perturbar as eleições. De acordo com a pesquisa da Crowdstrike, mais de 42% da população global votará nas eleições presidenciais, parlamentares e/ou gerais este ano.
“Já estamos vendo o uso de deepfakes de IA generativa para desinformação”, disse Meyers, incluindo chamadas automáticas falsas do presidente Biden que foram implantadas durante as recentes primárias de New Hampshire.
Isso não significa que os profissionais de segurança cibernética corporativa estejam isentos de responsabilidade, porque os ataques não serão contidos apenas na arena política.
Se alguém consegue falsificar profundamente o presidente de um país, disse Meyers, também pode potencialmente falsificar o presidente de uma empresa. Um ator mal-intencionado poderia usar essa falsificação profunda em uma chamada do Zoom para fazer com que os funcionários fizessem coisas como fazer transferências de dinheiro e cronometrar para quando os hackers soubessem, por meio de engenharia social, que o presidente não estaria disponível naquele momento.
“O volume de ataques que eles podem criar e a qualidade dos ataques estão realmente começando a ficar assustadores”, disse Ruzzi.
www.supplychaindive.com