A Universidade de Coimbra (UC), em colaboração com o Indra Group, apresentou o whitepaper "IA e Cibersegurança: O Desafio da Confiança Digital". O estudo, desenvolvido por investigadores do Centro de Informática e Sistemas da UC (CISUC), faz um retrato real da maturidade da Inteligência Artificial, concluindo que, apesar do seu poder transformador, a tecnologia que suporta assistentes como o ChatGPT está longe de ser invulnerável.

Uma das conclusões mais relevantes do estudo choca com a perceção de robustez dos Grandes Modelos de Linguagem (LLMs): mais de 80% dos modelos testados geraram código inseguro quando expostos a ataques de manipulação dissimulados. Além disso, técnicas conhecidas como multi-turno e role-play (como Crescendo ou Mr. Robot) continuam a conseguir contornar os mecanismos de segurança que, teoricamente, seriam robustos.

Os investigadores João Donato e João Campos sublinham que, apesar de modelos mais recentes, como o Llama 3.1:70b, demonstrarem melhorias na distinção entre risco real e aparente, estes mantêm fragilidades contextuais que exigem uma vigilância constante. Para os autores, o verdadeiro desafio para a próxima geração de IA será o de equilibrar a sua utilidade com o risco, construindo sistemas que sejam "seguros por design".

É neste contexto que o estudo propõe um Enquadramento inovador para testar a segurança dos LLMs. Este sistema permite avaliar e comparar a robustez dos modelos de IA face a diferentes tipos de ataques, utilizando métricas objetivas, cenários realistas e um "júri automatizado" de modelos independentes. O objetivo central é o de tornar a segurança da IA mensurável, comparável e contínua, transformando a investigação científica em valor prático para criar uma confiança digital sustentável.

A tecnologia desempenha um papel decisivo na deteção precoce destas vulnerabilidades. A implementação de ferramentas avançadas de monitorização, algoritmos de análise comportamental e sistemas automatizados de auditoria são essenciais para identificar os riscos antes que estes possam comprometer a integridade e a segurança dos modelos de IA que estão a ser adotados pelas empresas.

Para o Indra Group, que apoiou o desenvolvimento e a publicação do estudo, esta colaboração reforça o seu compromisso em fazer da cibersegurança um motor de valor e confiança. António Ribeiro, responsável de Cibersegurança da Minsait (Indra Group) em Portugal, afirma que a confiança digital tem de ser o novo pilar da transformação tecnológica nas empresas.

A grande conclusão é que a criação de uma IA ética e responsável depende da capacidade de antecipar riscos e de implementar uma segurança que evolua ao mesmo ritmo da inovação. O whitepaper, disponível também em formato e-book, serve como um guia para que Portugal e as suas empresas se posicionem na vanguarda da confiança digital e da inovação responsável.

Classifique este item
(0 votos)
Ler 369 vezes
Top