Uma das conclusões mais relevantes do estudo choca com a perceção de robustez dos Grandes Modelos de Linguagem (LLMs): mais de 80% dos modelos testados geraram código inseguro quando expostos a ataques de manipulação dissimulados. Além disso, técnicas conhecidas como multi-turno e role-play (como Crescendo ou Mr. Robot) continuam a conseguir contornar os mecanismos de segurança que, teoricamente, seriam robustos.
Os investigadores João Donato e João Campos sublinham que, apesar de modelos mais recentes, como o Llama 3.1:70b, demonstrarem melhorias na distinção entre risco real e aparente, estes mantêm fragilidades contextuais que exigem uma vigilância constante. Para os autores, o verdadeiro desafio para a próxima geração de IA será o de equilibrar a sua utilidade com o risco, construindo sistemas que sejam "seguros por design".
É neste contexto que o estudo propõe um Enquadramento inovador para testar a segurança dos LLMs. Este sistema permite avaliar e comparar a robustez dos modelos de IA face a diferentes tipos de ataques, utilizando métricas objetivas, cenários realistas e um "júri automatizado" de modelos independentes. O objetivo central é o de tornar a segurança da IA mensurável, comparável e contínua, transformando a investigação científica em valor prático para criar uma confiança digital sustentável.
A tecnologia desempenha um papel decisivo na deteção precoce destas vulnerabilidades. A implementação de ferramentas avançadas de monitorização, algoritmos de análise comportamental e sistemas automatizados de auditoria são essenciais para identificar os riscos antes que estes possam comprometer a integridade e a segurança dos modelos de IA que estão a ser adotados pelas empresas.
Para o Indra Group, que apoiou o desenvolvimento e a publicação do estudo, esta colaboração reforça o seu compromisso em fazer da cibersegurança um motor de valor e confiança. António Ribeiro, responsável de Cibersegurança da Minsait (Indra Group) em Portugal, afirma que a confiança digital tem de ser o novo pilar da transformação tecnológica nas empresas.
A grande conclusão é que a criação de uma IA ética e responsável depende da capacidade de antecipar riscos e de implementar uma segurança que evolua ao mesmo ritmo da inovação. O whitepaper, disponível também em formato e-book, serve como um guia para que Portugal e as suas empresas se posicionem na vanguarda da confiança digital e da inovação responsável.