À medida que avançamos em 2025, a rápida evolução da inteligência artificial (IA) deverá remodelar drasticamente o panorama da cibersegurança. A Check Point® Software Technologies Ltd., pioneira e líder mundial em soluções de cibersegurança, prevê vários desenvolvimentos importantes que terão um impacto significativo no nosso mundo digital. O aumento da utilização da IA terá implicações de grande alcance em domínios como o consumo de energia, o desenvolvimento de software e os quadros éticos e jurídicos. Naturalmente, as tecnologias de IA também serão utilizadas como armas por cibercriminosos e atores de Estados-nação, criando novas e formidáveis ameaças à cibersegurança.

A adoção de tecnologias de IA está a acelerar a um ritmo sem precedentes. O ChatGPT, por exemplo, atingiu 100 milhões de utilizadores apenas 60 dias após o seu lançamento, e agora conta com mais de 3 mil milhões de visitas mensais. Este crescimento explosivo não se limita ao ChatGPT; outros modelos de IA como Claude, Gemini e Midjourney também estão a ser amplamente adotados. Até ao final de 2024, 92% das empresas da Fortune 500 tinham integrado a IA generativa nos seus fluxos de trabalho, de acordo com o Financial Times. A Dimension Market Research prevê que, até 2033, o mercado global de modelos de linguagem de grande dimensão atingirá 140,8 mil milhões de dólares. As tecnologias de IA requerem enormes quantidades de recursos informáticos, pelo que a rápida adoção destas tecnologias já está a provocar um enorme aumento da terra, da água e da energia necessárias para as suportar. A magnitude da pressão exercida pela IA sobre os recursos naturais far-se-á sentir em 2025.

A proliferação da IA está a exercer uma enorme pressão sobre os recursos energéticos mundiais. Os centros de dados, a espinha dorsal das operações de IA, estão a multiplicar-se rapidamente. Os centros de dados requerem terra, energia e água; três recursos naturais preciosos que já estão sob pressão sem as exigências adicionais da utilização crescente da IA. De acordo com a McKinsey, o seu número duplicou de 3500 em 2015 para 7000 em 2024. A Deloitte projeta que o consumo de energia por estes centros irá disparar de 508 TWh em 2024 para uns impressionantes 1580 TWh em 2034 - o equivalente ao consumo anual de energia da Índia.

Especialistas como a Deloitte alertaram para o facto de o sistema atual se estar a tornar rapidamente insustentável. A Goldman Sachs Research estima que a procura de energia dos centros de dados crescerá 160% até 2030, com a IA a representar cerca de 19% da procura de energia dos centros de dados até 2028. Esta procura sem precedentes de energia exige uma mudança para fontes de energia mais sustentáveis e soluções de arrefecimento inovadoras para cargas de trabalho de IA de alta densidade. Embora se tenha conseguido muita inovação em termos de recolha de fontes de energia alternativas, a energia nuclear será muito provavelmente aproveitada para alimentar o aumento do consumo de energia alimentado pela IA.

A própria tecnologia de computação também se tornará mais eficiente com os avanços no design de chips e no planeamento de cargas de trabalho. Uma vez que as cargas de trabalho de IA envolvem frequentemente transferências massivas de dados, inovações como as arquiteturas de computação na memória (CIM) que reduzem significativamente a energia necessária para mover dados entre a memória e os processadores tornar-se-ão essenciais. Os chips de memória de acesso aleatório (RAM) integram o processamento na própria memória para eliminar a separação entre as unidades de computação e de memória para melhorar a eficiência. Estas e outras tecnologias revolucionárias surgirão para ajudar a gerir a crescente computação de uma forma eficiente em termos energéticos.

A IA está pronta para revolucionar a programação de software. Para além das simples ferramentas de preenchimento de código, como o GitHub Copilot, para plataformas de criação de código completo, como o CursorAI e o Replit.com. Embora este avanço prometa maior produtividade, também apresenta riscos de segurança significativos. A IA dá a qualquer cibercriminoso a capacidade de gerar malware completo a partir de um único comando, dando início a uma nova era de ciberameaças. A barreira de entrada para os cibercriminosos desaparecerá à medida que estes se tornam mais sofisticados e generalizados, tornando o nosso mundo digital muito menos seguro.

Esta ameaça irá alimentar a área da IA responsável. A IA responsável refere-se à prática de os fornecedores de IA criarem proteções para evitar o armamento ou a utilização prejudicial dos seus modelos de linguagem de grande dimensão (LLM). Os criadores de software e os fornecedores de cibersegurança devem unir-se para conseguir uma IA responsável. Os fornecedores de segurança têm uma profunda experiência em compreender a mentalidade do atacante para simular e prever novas técnicas de ataque. Os verificadores de vulnerabilidades, os ‘white hat’ hackers, e os ‘red teams’ dedicam-se a encontrar formas de explorar o software antes dos hackers, para que as vulnerabilidades possam ser protegidas de forma proativa. São necessárias novas parcerias responsáveis de IA entre fornecedores de software e de cibersegurança para testar os modelos LLM com vista a uma possível utilização como armas.

À medida que a IA se torna mais abrangente, enfrentaremos cada vez mais desafios éticos e regulamentares. Duas leis importantes já estão definidas para entrar em vigor em 2025. A Lei da IA da UE entrará em vigor a 2 de fevereiro de 2025, com disposições adicionais a serem implementadas a 2 de agosto. Nos EUA, espera-se que uma nova estrutura regulatória de IA seja implementada por meio da Lei de Autorização de Defesa Nacional (NDAA) e outras medidas legislativas, com disposições importantes começando no início de 2025. Estas novas leis obrigarão as empresas a exercer um maior controlo sobre as suas implementações de IA, e surgirão novas plataformas de governação de IA para as ajudar a criar confiança, transparência e ética nos modelos de IA.

Em 2025, podemos esperar um aumento nas estruturas de garantia de IA específicas do setor para validar a confiabilidade, a mitigação de viés e a segurança da IA. Estas plataformas garantirão a explicabilidade dos resultados gerados pela IA, evitarão resultados prejudiciais ou tendenciosos e fomentarão a confiança nas ferramentas de cibersegurança orientadas para a IA.

O ano de 2025 promete ser um ano crucial para a IA e a cibersegurança. Embora a IA ofereça oportunidades de avanço sem precedentes, também apresenta desafios significativos. Será necessária uma estreita cooperação entre o setor comercial, os fornecedores de software e de segurança, os governos e as autoridades policiais para garantir que esta tecnologia poderosa e em rápido desenvolvimento não prejudique a confiança digital ou o nosso ambiente físico. Enquanto profissionais da cibersegurança, temos de nos manter à frente destes desenvolvimentos, adaptando as nossas estratégias para aproveitar o poder da IA e, ao mesmo tempo, mitigar os seus riscos. O futuro será determinado pela nossa capacidade de navegar neste cenário complexo e orientado para a IA.

Classifique este item
(0 votos)
Ler 267 vezes
Tagged em
Top