banner

Notícias

Aug 11, 2023

Superando os ataques generativos de IA

Nir Givol, da Morphisec, explica os desafios na defesa de sistemas contra técnicas sofisticadas baseadas em IA e dá algumas dicas sobre como derrotar a próxima geração de adversários

Cibertecnologia | 01/08/2023

Foto: Imagens Imago via Reuters Connect

À medida que a sofisticação das ferramentas de Inteligência Artificial (IA), como ChatGPT, Copilot, Bard e outras, continua a crescer, elas apresentam um risco maior para os defensores da segurança – e uma maior recompensa para os atacantes que adotam técnicas de ataque baseadas em IA.

Como profissional de segurança, você deve defender um ecossistema diversificado de vários sistemas operacionais (SO) construídos ao longo do tempo para sustentar o legado e, ao mesmo tempo, adotar interfaces B2B e B2C novas e modernas, de hiperescala, hipervelocidade e ricas em dados. Você procura — e confia — nos melhores e mais recentes produtos de segurança para ajudá-lo a se defender de invasores.

No entanto, quando confrontados com técnicas sofisticadas baseadas em IA, os produtos e práticas de segurança existentes carecem de um elemento crítico de defesa: uma tecnologia capaz de derrotar a próxima geração de adversários alimentados por máquinas e com inteligência artificial, especializados em aprendizagem automática para criar novas tecnologias adaptativas. explorações em velocidade e escala vertiginosas.

Um padrão claro está começando a surgir com as principais preocupações específicas dos sistemas de IA generativa e sua capacidade de detectar violações e tecnologias de prevenção.

Os profissionais da InfoSec estão preocupados com a possibilidade de a IA generativa ser explorada para:

A Perspectiva do Defensor

A inteligência artificial (IA) com seus subconjuntos de aprendizado de máquina (ML) e aprendizado profundo (DL) são essenciais para plataformas modernas de proteção de endpoint (EPP) e produtos de detecção e resposta de endpoint (EDR).

Essas tecnologias funcionam aprendendo com grandes quantidades de dados sobre comportamentos ou padrões de código maliciosos e benignos conhecidos. Esse aprendizado lhes permite criar modelos que podem prever e identificar ameaças nunca antes vistas.

Especificamente, a IA pode ser usada para:

O uso de IA agora está se tornando um padrão de fato para ajudar a reduzir falsos positivos, identificando o contexto de um incidente e entendendo o comportamento do endpoint para descolorir alertas e corrigir informações mal classificadas retroativamente usando uma riqueza de dados de telemetria enviados anteriormente.

A perspectiva do atacante

À medida que a IA evolui e se torna mais sofisticada, os atacantes encontrarão novas formas de utilizar estas tecnologias em seu benefício e de acelerar o desenvolvimento de ameaças capazes de contornar as soluções de proteção de terminais baseadas em IA.

Os métodos que os invasores podem aproveitar a IA para comprometer os alvos incluem:

Esperamos que os invasores usem ativamente a IA para automatizar a verificação de vulnerabilidades, gerar mensagens de phishing convincentes, encontrar pontos fracos em sistemas de segurança baseados em IA, gerar novas explorações e quebrar senhas. À medida que a IA e a aprendizagem automática evoluem, as organizações devem permanecer vigilantes e acompanhar os mais recentes desenvolvimentos em ataques baseados em IA para se protegerem destas ameaças.

As organizações que utilizam sistemas baseados em IA devem questionar a robustez e a segurança dos seus conjuntos de dados subjacentes, conjuntos de formação e máquinas que implementam este processo de aprendizagem, e proteger os sistemas contra códigos maliciosos não autorizados e potencialmente armados. Os pontos fracos descobertos ou injetados nos modelos de soluções de segurança baseadas em IA podem levar a um desvio global da sua proteção.

A Morphisec já observou ataques sofisticados por atores de ameaças altamente qualificados e com bons recursos, como atores estatais, grupos do crime organizado ou grupos de hackers avançados. Os avanços nas tecnologias baseadas em IA podem reduzir as barreiras de entrada para a criação de ameaças sofisticadas, automatizando a criação de malware polimórfico e evasivo.

Esta não é apenas uma preocupação para o futuro.

O aproveitamento da IA ​​não é necessário para ignorar as soluções atuais de segurança de endpoint. Táticas e técnicas para evitar a detecção por EDRs e EPPs estão bem documentadas, especificamente em manipulações de memória e malware sem arquivo. De acordo com a Picus Security, as técnicas evasivas e na memória representam mais de 30% das principais técnicas usadas em malware visto em liberdade.

COMPARTILHAR