Mercado bilionário da cibersegurança vai perseguir 7 prioridades este ano


A possibilidade do uso dessa tecnologia para atacar sistemas embarcados em modelos como ChatGPT e o Gemini (da Google) foi testada recentemente por pesquisadores da Cornell Tech (EUA). Em um ambiente de testes, eles conseguiram, com o uso de uma “praga” cibernética de IA Generativa (apelidada de Morris II, em referência ao worm Morris, que criou caos em 1988), roubar dados e implantar malware ao longo do caminho, propagando-se entre diferentes sistemas - no teste, ChatGPT e Gemini.
O ataque contra um assistente de e-mail foi realizado com êxito, permitindo o roubo de dados e envio de mensagens de spam. Tecnicamente falando, como um desenvolvedor de longa data que sou, fiquei intrigado com a metodologia: os pesquisadores da Cornell Tech recorreram ao chamado “prompt adversário autorreplicante”, que aciona o modelo de IA Generativa para gerar, em sua resposta, outro prompt.



