A inteligência artificial, ou AI para abreviar, não é de forma alguma um fenômeno novo. O termo existe desde a década de 1950, no entanto, a IA de hoje ganhou impulso e se tornou muito mais inteligente do que antes se pensava, a ponto de o medo da guerra cibernética da IA agora ser uma realidade.
Enquanto a guerra cibernética “tradicional” se refere ao uso da internet e da tecnologia para prejudicar ou perturbar um determinado país, seja por meio do uso de malware, ataques de negação de serviço ou campanhas de desinformação, a guerra cibernética de IA refere-se ao uso de IA e máquinas ferramentas de aprendizagem (ML) para aprimorar essas operações e torná-las ainda mais poderosas.
“Ao mesmo tempo em que surgiram as condições para a guerra digital, os recursos automatizados de processamento de informações experimentaram um salto qualitativo. A IA pode, portanto, ser encontrada no coração da guerra cibernética por causa de seu potencial percebido e natureza inerentemente numérica”, escreveram os pesquisadores acadêmicos Rudy Guyonneau e Arnaud Le Dez. “A IA fala a linguagem das máquinas e a traduzirá para os humanos conduzirem sua luta dentro do espaço da máquina.”
Aplicação de técnicas de ML para fins maliciosos
Os hackers já estão aproveitando o aprendizado de máquina para implantar algoritmos maliciosos que podem se adaptar, aprender e melhorar continuamente para evitar a detecção. Portanto, uma mudança para ataques baseados em IA não está fora das possibilidades, principalmente quando você considera que avanços rápidos na tecnologia podem ampliar a velocidade, o poder e a escala de ataques futuros.
Por exemplo, a IA não apenas abre mais sistemas para ataques cibernéticos, mas também abre a possibilidade de novos vetores de ataque, como manipulação de áudio ou vídeo, adicionando uma reviravolta nova e potencialmente mais sinistra à disseminação de desinformação que pode ter consequências muito reais. consequências no mundo físico.
Da mesma forma, ataques direcionados a sistemas de IA podem oferecer aos invasores acesso a algoritmos de aprendizado de máquina, juntamente com grandes quantidades de dados de sistemas de reconhecimento facial e coleta e análise de inteligência. Esses dados podem ser usados, por exemplo, para apoiar missões de vigilância.
Embora a IA ainda não tenha chegado ao campo de batalha, existem inúmeras outras maneiras pelas quais a tecnologia pode ser adotada por cibercriminosos, seja para automatizar ataques e melhorar significativamente o direcionamento de vítimas, personificar melhor os indivíduos para uma engenharia social mais eficaz ou para desenvolver malware e vírus mais virulentos.
Explorando vulnerabilidades e abusando de ferramentas de IA de código aberto
Preocupantemente, existem ferramentas que existem hoje que podem permitir que os invasores comecem a se preparar para ataques baseados em IA devido à natureza de código aberto da pesquisa de IA; por exemplo, conjuntos de ferramentas de código aberto e distribuições Linux, como o Kali Linux, contém um conjunto de ferramentas de chapéu branco que podem ser usadas de forma acrimoniosa. Da mesma forma, indivíduos com experiência em tecnologia estão cada vez mais aprendendo e desenvolvendo soluções de código aberto para auxiliar nas atividades de hackers.
Essas ferramentas de código aberto podem ser usadas para tudo, desde explorar sites e servidores até injetar pacotes no tráfego de rede sem fio com o objetivo de interceptar e descriptografar o tráfego.
Além disso, os próprios sistemas de aprendizado de máquina – a espinha dorsal da IA – são uma ameaça crescente e é apenas uma questão de tempo até que o código de ataque apareça. A exploração dessas vulnerabilidades pode permitir que hackers manipulem a integridade, confidencialidade e disponibilidade dos sistemas de aprendizado de máquina, o que seria uma má notícia para organizações de todos os tamanhos.
Prevenção de ataques cibernéticos e IA defensiva
Felizmente, a IA também pode ser usada como uma força para o bem. A tecnologia apresenta oportunidades para a segurança cibernética, incluindo funcionalidades como a adaptação dinâmica e proativa a ameaças sofisticadas quase diariamente. Também pode ajudar os profissionais de segurança cibernética a reconhecer padrões comportamentais para reagir mais rapidamente aos indicadores de ataque.
A automação orientada por inteligência pode fornecer visibilidade mais profunda sobre o comportamento do endpoint, aprimorando ainda mais a capacidade das organizações de detectar ameaças com base em assinaturas de ameaças conhecidas.
Falando em um recente evento GovCIO Media & Research , Thomas Kenny, CDO do Comando de Operações Especiais dos Estados Unidos, disse: “Alguns dos desafios que estamos começando a ver são o aumento exponencial na capacidade dos agentes de IA para operações defensivas em cima de redes cibernéticas.
“A solução humana não existe mais. Se realmente vamos proteger nossas redes cibernéticas, a resposta não é mais órgãos ou um centro de operações de segurança maior. Os recursos que precisamos para empregar precisam ser sistemas inteligentes que tenham a capacidade de aprender, reconhecer em milissegundos o potencial de um ataque e ser capaz de tomar decisões.”
Embora a chamada IA “ofensiva” aproveite a capacidade da tecnologia de aprender e se adaptar para criar uma nova era de ameaças cibernéticas altamente personalizáveis e escaláveis, as organizações também terão IA defensiva para ajudá-las a lutar – e está se tornando mais claro que esta será uma ferramenta crítica para vencer a guerra contra os agentes de ameaças, tanto máquinas quanto humanos.
Saiba como o Bitdefender usa inteligência artificial , aprendizado de máquina e detecção baseada em anomalias para fornecer informações em tempo real sobre o cenário global de ameaças.
Comments