Há pouco mais de um mês, um novo ataque cibernético afetou novamente empresas no mundo todo. No Brasil, não foi diferente, com impacto em instituições como o Hospital de Câncer de Barretos.
Enquanto se discute sobre a extensão criminal desse tipo de evento e como tratá-la adequadamente dentro dessa esfera de atuação, no universo da tecnologia a movimentação é bastante intensa no sentido de desenvolver mecanismos cada vez mais eficazes não só para prevenir, mas para bloquear e minimizar impactos desse tipo de ataque.
Um dos temas mais debatidos recentemente no mundo de tecnologia de informação, a inteligência artificial (IA), está sendo amplamente estudado para que seu melhor potencial seja aplicado em diferentes cenários, inclusive na luta contra o crime cibernético.
Aqui gostaria de aprofundar um conceito interessante: o de Inteligência Aumentada — não simplesmente Inteligência Artificial. De forma simples, o último conceito se concentra em “replicar” de forma tecnológica o que o ser humano é capaz de fazer hoje, o que não é pouco, muito menos simples ou explorado de forma exaustiva, mas tende a “automatizar” atividades cognitivas.
Já a Inteligência Aumentada, que é o que começa a ser explorado de forma intensiva na academia e em situações de negócio, trata de aplicações onde se complemente as habilidades cognitivas dos seres humanos. E o potencial delas é ainda hoje muito desconhecido.
Mas, se nem a Inteligência Artificial “tradicional” — se é que podemos chamar assim — já está madura, porque é que já se discute abordagens ainda mais inovadoras? Não seria melhor explorar o potencial de uma antes de iniciar a exploração de outra e correr o risco de não focarmos recursos de forma inteligente?
Resposta simples: por mais que a Inteligência Artificial não esteja madura, nós já encontramos formas de enganá-la e subjugá-la (sim, somos realmente muito criativos!).
Um exemplo concreto: E julho, durante a Defcon, conferência mundial sobre hacking, nos Estados Unidos, foi demonstrada uma simples aplicação baseada em um framework de desenvolvimento aberto (open source) chamado OpenAI (https://openai.com/ ), criado por uma empresa de pesquisa sem fins lucrativos, de mesmo nome, de Elon Musk, capaz de alterar o código de um malware de forma que sua existência não seja detectada por nenhuma solução de segurança do mercado.
A premissa adotada foi simples: todos os mecanismos de IA têm pontos cegos e esses pontos podem ser explorados por outros sistemas de IA. Ao introduzir pequenas mudanças num código de malware, ele foi capaz de ignorar medidas de segurança durante 16% do tempo, permanecendo funcional e indetectável.
Enganar sistemas de IA e sua capacidade de reconhecer objetos — ou códigos, neste caso — é surpreendentemente simples. Os pesquisadores do Google conseguiram enganar o reconhecimento de imagem pela IA aplicando um gradiente “imperceptivelmente pequeno” a uma imagem de um urso panda.
A mudança, irreconhecível aos nossos olhos, fez com que a IA tivesse mais confiança em seu erro do que na avaliação original de que a imagem era de um urso panda. Isso já foi parte de um estudo documentado pela Universidade de Washington (https://arxiv.org/pdf/1703.09793.pdf ).
Isso não quer dizer que o Machine Learning e a IA não tenham seus nichos — não há nenhuma maneira melhor de processar a quantidade de dados quase inútil que temos e continuamos a gerar diariamente. Também é fantástico tornar a tecnologia algo mais fácil de usar, embora com limitações, como não entender idiomas e suas nuances como os seres humanos.
Se confiarmos no Machine Learning para proteger nossas redes, precisamos aceitar algo: é tão fácil treinar uma máquina para reconhecer o malware como é para treinar outra máquina para vencê-la.
Esses experimentos que enganam sistemas de IA são preocupantes. A indústria de tecnologia está investindo muito dinheiro e tempo no aprendizado de máquina, mas ainda não pode escolher coisas com alguma certeza se você apenas “ajustar um pouco” os algoritmos.
Por conta desses avanços e das rápidas evidências de que, em muitos casos, a simples “automação” de nossa inteligência não resolve alguns problemas é que estão surgindo técnicas e tecnologias explorando a Inteligência Aumentada.
De qualquer forma, o investimento de tempo e estudo pessoal nos temas, linguagens e frameworks de Inteligência Artificial é extremamente importante e ainda tem um campo de aplicação, na maioria das vezes, ainda inexplorado.
São esses investimentos e estudos que vão dar o fundamento necessário para que empresas e profissionais de dados tenham mais condições de transformar seus negócios e a nossa sociedade, em um futuro próximo.
Fonte: Cio