A hiperconectividade entre dispositivos, as novas tecnologias, como a recolha de dados em massa ou novas formas de comunicação entre dispositivos inteligentes, geram não só benefícios, mas também ciberameaças. Poder-se-ia dizer que existe uma relação directa entre o desenvolvimento de novas tecnologias e a sua aplicação e o número de ameaças a que estão expostas.

Há já algum tempo que se propõe a utilização da Inteligência Artificial e da Machine Learning como meios de combate às ameaças electrónicas, qualquer que seja o seu tipo, e embora o investimento (como veremos) neste tipo de soluções apenas tenha aumentado, subsistem dúvidas quanto à eficácia da IA e da Machine Learning no combate aos riscos informáticos.

A IA e a Machine Learning são eficazes no combate às ameaças cibernéticas?

As ciberameaças nem sempre são estáveis. Com o tempo, elas mudam, evoluem e até novas formas emergem. É por isso que o Machine Learning é visto como a ferramenta ideal para combatê-los, dada a sua capacidade de se adaptar e aprender.

No entanto, as soluções baseadas na autoaprendizagem e, portanto, na Inteligência Artificial, não são infalíveis. É verdade que sua capacidade de detectar, conter e frustrar ataques de malware, formas de ataques ou atividades suspeitas já conhecidas ultrapassa as soluções de cibersegurança existentes, mas ainda existem tipos de ataques cibernéticos contra os quais AI e Machine Learning não têm respostas.

A Machine Learning como disciplina pode ser dividida em duas outras sub-disciplinas: a Shallow Learning e a Deep Learning. Ambas as sub-disciplinas têm sistemas de aprendizagem supervisionados e não supervisionados.

É importante salientar que alguns estudos indicam que a Deep Learning é menos eficaz do que a Shallow Learning na deteção de ciberameaças, graças ao facto de os padrões de deteção já estarem previamente definidos.

Em geral, os algoritmos de Machine Learning, sejam Deep ou Shallow, supervisionados ou não supervisionados, são mais capazes de reconhecer ataques cibernéticos se eles se concentrarem em uma única ameaça, em vez de vários ao mesmo tempo. Isso significa que uma ferramenta de detecção de vírus funcionará muito melhor do que uma ferramenta que promete acabar com qualquer tipo de ameaça cibernética.

Além disso, em muitos casos, os algoritmos não supervisionados são responsáveis pela detecção de grandes quantidades de falsos positivos.

Em conclusão, pode-se dizer que, embora os avanços na Machine Learning aplicada à cibersegurança sejam importantes, essas ferramentas não são perfeitas. Continuam a exigir um elevado grau de supervisão humana, os algoritmos têm de ser constantemente reconvertidos e o estabelecimento de parâmetros de reconhecimento não pode ser automatizado.

Quais ameaças não podem ser combatidas por algoritmos de Machine Learning?

A primeira das ameaças que um algoritmo não consegue detectar (de facto, não há meios para o fazer) são ataques de dia zero ou ataques desconhecidos até ao momento em que são executados.

Afinal, um algoritmo não pode detectar algo que não foi ensinado a detectar, simplesmente porque não existia até ao momento do ataque.

Por outro lado, a detecção de padrões de comportamento e anomalias nos mesmos pode levar à detecção de falsos positivos se a política de restrição de comportamento for muito ampla ou vulnerabilidades se for uma política mais rígida.

Ao mesmo tempo, a escolha de conjuntos de dados é especialmente importante ao treinar um algoritmo de Machine Learning dedicado a tarefas de segurança cibernética. Se o conjunto de dados não representar totalmente o ambiente a ser monitorado, é de se esperar ataques.

Neste sentido, é necessário que os conjuntos de dados não sejam apenas um registo de ameaças frequentes, mas também um registo de ameaças anómalas e menos frequentes. Caso contrário, um algoritmo de Machine Learning nunca identificará uma ameaça rara.

Explorar vulnerabilidades é uma das competências dos cibercriminosos. Se eles identificarem que um sistema de segurança tem um algoritmo de defesa exclusivo, eles podem encontrar maneiras de contorná-lo. É por isso que um bom sistema de segurança cibernética baseado em Machine Learning precisa ter vários algoritmos complementares.

Além disso, não se pode ignorar o fato de que os hackers usam as mesmas ferramentas que aqueles que tentam impedir seus ataques, ou seja, a Machine Learning. Já existem ferramentas como o spear phishing, que através da aplicação de processamento de linguagem natural geram mensagens falsas imitando alguns dos contatos da vítima para roubar seus dados.

Os hackers começaram a usar malwares polimórficos, que, graças à Machine Learning, podem aprender a contornar as medidas de segurança cibernética de uma rede, aprendendo com as táticas que foram bem-sucedidas em ataques anteriores.

 

¿Contra qué no puede luchar un algoritmo_

 

Em suma, o mercado confia na Inteligência Artificial e na Machine Learning

O mercado de aplicativos de segurança cibernética alimentados por Inteligência Artificial é alheio às vulnerabilidades detalhadas acima e deve atingir um valor de 38 bilhões de dólares até 2026 dos atuais 9 bilhões, um aumento anual de 23,3%.

Diz-se que a adoção da IoT, o aumento do número de dispositivos conectados, a evolução das ameaças cibernéticas, o aumento da preocupação com a proteção de dados e privacidade e a vulnerabilidade das redes Wi-Fi levarão o mercado a esse número.

A adopção da IA e, por extensão, da aprendizagem automática como instrumentos contra ciberameaças generalizar-se-á no mercado automóvel e no sector do transporte de mercadorias.

No entanto, o entusiasmo pela adoção da Inteligência Artificial e da Machine Learningcomo principal medida de segurança em ambientes digitais não parece ser unânime.

Apenas um quarto (26%) dos consumidores na região EMEA preferiria confiar a sua cibersegurança à Inteligência Artificial em vez de a um humano. Naturalmente, esse percentual é maior na população Millennial (31%) e menor nos Baby-Boomers (23%).

Ao comparar países, a Itália é o país que mais confia na IA, com 38%, enquanto apenas 21% dos britânicos se sentiriam confortáveis se confiassem seus dados à IA.

Seja como for, as principais empresas do setor de segurança cibernética continuam a apostar em AI e Machine Learning. A mais recente a anunciar a implementação destas tecnologias nos seus produtos foi a Avast. De acordo com a empresa checa, a flexibilidade da IA, aliada ao seu carácter flexível e autónomo, irá melhorar significativamente as defesas cibernéticas.

Além de empresas com longa experiência no campo da cibersegurança, a IA está sendo usada por um grande número de startups. Parece que um dos modelos de negócios predominantes entre essas startups é a criação de aplicativos que permitem visualizar e monitorar o estado de uma rede em tempo real.

Um deles é o britânico Darktrace, cujo valor de mercado excede 1,65 bilhões de dólares e cujos clientes mais proeminentes são o Serviço Nacional de Saúde, o Aeroporto de Gatwick e a Drax.

A Darktrace monitoriza o comportamento dos computadores numa rede e cria uma visualização através da qual se pode facilmente identificar que o equipamento não está a funcionar correctamente.

Outra empresa que enfatiza o desenvolvimento de interfaces de visualização para identificar ameaças é a Cynet com sua ferramenta Cynet 360.

Conclusões

Há dúvidas sobre a infalibilidade da Inteligência Artificial e da Machine Learning como ferramentas de combate às ciberameaças. Nem mesmo o Deep Learning pode enfrentar algumas das ameaças atuais.

No entanto, as tendências do mercado indicam que os investidores e as empresas dependem da eficácia destas tecnologias para combater as ciberameaças. Empresas e startups de segurança cibernética consolidadas apostam no uso de Inteligência Artificial e Machine Learning e uma das tendências que está sendo imposta é a criação de ferramentas de visualização que permitem ver em tempo real o estado de uma rede de computadores ou dispositivos.