<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=633097343493783&amp;ev=PageView&amp;noscript=1">
canal-comstor-logo
O blog dos negócios de TI.
Comstor Americas
  • Partner Portal
  • 14 dicas de marketing para revendas de TI
  • Baixar agora
  • Baixar E-book grátis
  • Serviços Gerenciados Cisco Meraki
  • Partner Portal
  • 14 dicas de marketing para revendas de TI
  • Baixar agora
  • Baixar E-book grátis
  • Serviços Gerenciados Cisco Meraki

Uso malicioso da Inteligência Artificial terá alta demanda nos próximos anos

Publicado em 2/mai/2018 5:00:00

Especialistas acreditam que até 2023, tanto os ataques quanto as defesas não precisarão de praticamente nenhuma interferência humana.

 

Uso malicioso da Inteligência Artificial terá alta demanda nos próximos anos

 

Sim! Inteligência Artificial também é utilizada por hackers e pessoas mal intencionadas que querem invadir sistemas.


Muito se fala do uso da AI como uma tecnologia que está revolucionando a cibersegurança e outros setores da economia, como descobrir insights, prever resultados, recomendar novas ações e automatizar processos, mas ataques maliciosos estão se utilizando deste mesmo veneno para criarem invasões cada vez mais sofisticadas.


No uso impróprio, a Inteligência Artificial pode ser utilizada na obtenção de dados de forma não autorizada, na criação de notícias falsas e na disseminação dessas informações por meio de usuários falsos, que são robôs que atuam como exércitos humanos.


De acordo com uma pesquisa da empresa de segurança Cylance, 60% dos especialistas em segurança cibernética acreditam que até o ano que vem o mercado já verá Inteligência Artificial e Machine Learning com mais intensidade nos ataques.


Alguns exemplos de uso indevido de AI podem ser vistos nos malwares WannaCry e Nyetya, que invadiram redes em 2017 gerando milhões em prejuízos em redes corporativas.

 

Panorama da Cibersegurança Global: como proteger as redes corporativas de ameaças virtuais?


O bot Tay, do Twitter, criado para participar de um experimento em compreensão de conversação se transformou em uma grande catástrofe racista na rede em período de teste, em questão de horas.


Como ele ficava mais inteligente de acordo com as conversas que tinha com os outros usuários, pessoas começaram a ‘sujar’ o experimento tuitando o bot com comentários misóginos e racistas. A máquina aprendeu e tuitou mensagens como “eu sou uma boa pessoa, eu só odeio todo mundo”, das mais simples.


Preocupados com este contexto, 26 especialistas de uma gama de disciplinas tecnológicas provenientes de várias organizações educacionais, prepararam o relatório "O Uso Malicioso da Inteligência Artificial: previsão, prevenção e mitigação", que aponta que o uso da AI para o mau pode ameaçar especialmente três áreas:


  • Segurança digital: ataques com worms já são vistos e causam grande devastação nas redes em 2017. Estes malwares se diferenciam dos demais porque são programados para se propagarem sozinhos, sendo que, uma vez intruso, espalham-se de forma inteligente e automática, buscando outras máquinas vulneráveis dentro de uma mesma rede, sem a necessidade de inspeção humana.

    Segurança física: ataque de drones ou carros autônomos atropelando uma vítima de propósito podem ser tipos de ataques com Inteligência Artificial, que vão ameaçar a integridade física dos humanos.

    Segurança política: propagação de fake news em toda rede, alterando, inclusive decisões eleitorais. Robôs capazes de iniciar provocações na rede entre candidatos em uma votação. Ou mesmo ataques que tiram proveito de análises sobre os comportamentos humanos catalogados. São todas questões que impactam na segurança de cidadãos.

 


Estes especialistas defendem também que a médio prazo, até 2023, as aplicações maliciosas da AI serão amplamente utilizadas para ataques e defesas e estarão tão avançadas que não haverá mais interferência humana.

 

Novos padrões de invasões poderão ser vistos em breve, realizando tarefas que são impraticáveis para humanos, especialmente na questão de alcance. Além disso, os agentes maliciosos podem explorar as vulnerabilidades dos sistemas de Inteligência Artificial implantados pelos defensores, por conhecerem os pontos fracos da tecnologia. Serão ataques especialmente eficazes, bem direcionados e difícil de atribuir.


Uma das formas de barrar esse tipo de ataque é desestimular os hackers desde o começo, fortalecendo os sistemas de segurança das redes, divulgando em fóruns de especialistas os desenvolvimentos que podem ser mal utilizados e ainda, aumentar a consciência de ameaças entre os que formulam as políticas de defesa.


Além disso, a malícia pode ser menor se o programador que ensina a máquina for responsável, ético e tiver conhecimento técnico suficiente para não deixar gaps no sistema que podem ser burlados e se transformar em um novo bot Tay, por exemplo.

 

Categorias: Inteligência Artificial