TENDÊNCIAS

IA e machine learning desafiam a segurança 4l55q

Os sistemas equipados com IA contam com uma quantidade massiva de dados sensíveis. 3g624

23 de abril de 2018 - 11:08
Carlos Rodrigues, vice-presidente da Varonis para a América Latina. Foto: Divulgação.

Carlos Rodrigues, vice-presidente da Varonis para a América Latina. Foto: Divulgação.

Por Carlos Rodrigues*
Os sistemas equipados com inteligência artificial hoje contam com uma quantidade massiva de dados sensíveis para determinar o curso da vida dos indivíduos. Diante deste cenário, é até difícil não imaginar que essa tecnologia esteja vulnerável de alguma maneira ou até mesmo possa ser usado para fins maliciosos, especialmente quando pensamos nas plataformas de segurança digital que usam essa tecnologia aplicada em sistemas equipados com machine learning, como as mais novas soluções de proteção do endpoint.

Como o machine learning, uma tecnologia que trouxe uma série de oportunidades para a segurança digital, pode se tornar uma ameaça para as empresas? Um grupo de cientistas de universidades americanas e britânicas, incluindo Stanford, Yale, Oxford e Cambridge, junto de organizações da sociedade civil e representantes da indústria de cibersegurança buscaram responder essa pergunta no estudo The Malicious Use of Artificial Intelligence: Forecasting, Prevention and Mitigation, publicado recentemente, que aborda uma série de potenciais usos maliciosos da inteligência artificial com foco em machine learning.

Além de permitir que malwares do tipo zero-day apareçam com mais frequência e sejam direcionados de maneira mais precisa, inclusive neutralizando as defesas existentes, a inteligência artificial e o machine learning, quando usados pelos cibercriminosos, expõem também uma falha preocupante dessas tecnologias, que é a possibilidade de indução de classificações equivocadas por meio de informações contraditórias ou da contaminação da base de dados.

Como explica o estudo, o machine learning depende de dois fatores básicos: a qualidade do algoritmo de aprendizado e a integridade do conjunto de dados usado como base. Assim, ataques envolvendo inteligência artificial podem acabar tendo essas duas áreas como alvo: manipulação ou alteração do algoritmo de aprendizado ou a danificação do conjunto de dados usado para o mecanismo de machine learning.

No caso das plataformas de segurança com mecanismos de machine learning que se baseiam em padrões conhecidos de malware ou mesmo em dados de comportamento, o método primário para comprometer o mecanismo de inteligência artificial dessas soluções é por meio da manipulação da base dados usada para fazer previsões e detecções mais precisas.

A tendência é que os cibercriminosos em a usar suas próprias capacidades de machine learning para aumentar a velocidade e a precisão dos seus ataques, simulando perfeitamente o comportamento de usuários da empresa. Se essa manipulação ar despercebida, o feed das ferramentas de segurança vai ser impactado de maneira considerável e, quando a empresa perceber a alteração, pode ser tarde demais, e o hacker pode já ter obtido o aos dados mais valiosos da organização – isso pode levar dias e até meses.

Além da dificuldade de identificar quando um hacker estar usando inteligência artificial para se ar por um usuário legítimo usando inteligência artificial para burlar sistemas de machine learning, é também um desafio diagnosticar quando um modelo de machine learning está mal configurado, recebendo influências de viés ou funcionando de maneira incorreta.

Não existe nenhuma solução definitiva para o uso de inteligência artificial de maneira criminosa. Assim como as empresas fornecedoras de software estão constantemente aprimorando suas capacidades com o machine learning, os hackers vão continuar se sofisticando usando essa mesma tecnologia. Ou seja, trata-se de uma corrida constante para estar à frente das ameaças.

Por isso, as empresas não podem contar apenas com tecnologias. É preciso investir na colaboração entre os responsáveis pelas políticas de segurança e pesquisadores, e na adoção de melhores práticas éticas criadas por especialistas em inteligência artificial.

*Carlos Rodrigues é vice-presidente da Varonis para a América Latina.

Leia mais 59b1u

TRANSFORMAÇÃO DIGITAL

TIM investe em IA com Microsoft 14372a

Há 2592 dias
PREFEITURA

Blumenau lança app do SUS com IA 2a132j

Há 2592 dias
ATENDIMENTO

Leroy Merlin tem chatbot com Watson y3r2g

Há 2593 dias
LABORATÓRIO

Algar abre unidade no InovaBra Habitat 72s64

MICROSOFT

Thyssenkrupp: IA e RA para manutenção 6ek1s

PLANEJAMENTO

Microsoft investirá US$ 5 bilhões em IoT 44533

CONTRATAÇÃO

Apple tira líder de IA do Google 2v1k3v