<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=633097343493783&amp;ev=PageView&amp;noscript=1">
canal-comstor-logo
O blog dos negócios de TI.
Comstor Americas
  • Westcon-Comstor lança o BlueSky Solutions Marketplace
  • Partner Portal
  • Baixar agora
  • Serviços Gerenciados Cisco Meraki
  • Baixar agora
  • Acesse agora
  • Partner Portal
  • Baixar agora
  • Serviços Gerenciados Cisco Meraki
  • Baixar agora

DeepLocker: o malware que utiliza a Inteligência artificial

Publicado em 4/out/2018 5:00:00

Invasor criado para teste é capaz de identificar o seu alvo por meio do reconhecimento facial.  

 

DeepLocker: o malware que utiliza a Inteligência artificial

 

Comentamos recentemente aqui no nosso canal que Inteligência Artificial, Machine Learning e outras tecnologias mais recentes seriam grandes armas de segurança que especialistas começaram a adotar contra invasões.

 

Porém, os hackers têm se organizado para utilizarem do mesmo veneno e invadirem os sistemas, aumentando a amplitude dos ataques, que são feitos cada vez menos de forma manual.

 

De acordo com uma pesquisa da empresa de segurança Cylance, 60% dos especialistas em segurança cibernética acreditam que até o ano que vem os próprios hackers usarão Inteligência Artificial e Machine Learning para realizar seus ataques.


Já de acordo com o Relatório Anual de Cibersegurança da Cisco 2018, os hackers estão desenvolvendo ataques cada vez mais sofisticados e destrutivos em seus impactos nas redes corporativas.


A quantidade e variedade de malwares despejados na rede foi o grande destaque do cibercrime em 2017, reforçado pelo surgimento dos criptoworms de ransomware, que eliminam a necessidade da intervenção humana para lançar ataques.


Além disso, os criminosos têm utilizado, por exemplo, criptografia para ocultar suas atividades e aumentar o tempo para causar danos dentro de um sistema. Também, brechas que aparecem na segurança da Computação em Nuvem e de dispositivos IoT, especialmente quando não corrigidos e não monitorados, como grandes portas para ataques.

 

DeepLocker: malware criado para testar a segurança das redes

 

Com a intenção de estudar o comportamento de um malware baseado em Inteligência Artificial e os danos que pode causar, a equipe de pesquisa da IBM Research criou o DeepLocker, um invasor altamente direcionado e evasivo.

 

De acordo com os pesquisadores, o vírus transita de forma inativa até encontrar o seu alvo, identificado por reconhecimento facial ou de voz, geolocalização e logicamente por análise de dados coletados de rastreadores online, como os wearables - pulseiras fitness, smartwatches, headsets de realidade virtual, pedômetros – e mídias sociais, quando a pessoa marca a localização de uma foto ou faz check-in na página de uma empresa.

 

Encontrada a vítima, o ataque é lançado. Se não reconhecida, o vírus se mantém inativo e em busca de mais informações. O ataque personalizado dificilmente poderá ser revertido, uma vez que a programação é única e o malware a base de Inteligência Artificial já aprendeu novas informações ao longo de sua navegação.

 

Panorama da Cibersegurança Global: como proteger as redes corporativas de ameaças virtuais?


Para demonstrar a capacidade do DeepLocker, os pesquisadores da IBM criaram uma prova conceito em que o ransomware WannaCry estava oculto em um aplicativo de videoconferência e um dos participantes seria o alvo, sendo que o modelo de Inteligência Artificial foi treinado para reconhecer a vítima pelo rosto. Assim que encontrado, a invasão seria iniciada.


Durante todo o momento da pesquisa, o malware não foi detectado por mecanismos antivírus ou sandbox. A intenção dos pesquisadores foi apontar com este experimento que é eminente a criação de malwares sigilosos que podem enganar as defesas implantadas hoje.


Forma de contornar o DeepLocker

 

Se o malware tem como um dos gatilhos de disparo baseado em reconhecimento facial, a única forma da Inteligência Artificial ser treinada é apresentando diferentes fotos de uma mesma pessoa para que reconheça diferentes atitudes do mesmo rosto.


A pessoa que quer se proteger precisa estar fora de redes sociais, por exemplo, evitar de tirar fotos que terceiros poderão publicar, além de desconectar câmeras de laptops, celulares e outras que podem ser utilizadas em videoconferências. Algo bem difícil atualmente, simplista, mas é uma forma.


Enfim, os ataques com Inteligência Artificial batem à porta e muito em breve ouviremos nos noticiários sobre invasões devastadoras de sistemas, assim como o crescimento de sequestro de dados e outros tipos de invasões maliciosas.

Categorias: Inteligência Artificial, Segurança