This is the Trace Id: 7188f7f18fc51c7c49c151207d86a60e

Participe da sessão do painel executivo da RSAC em 24 de março: "Os agentes de IA chegaram!" Tudo a postos?”.

Registe-se já

"Microsoft guide for securing the ai-powered enterprise" (Guia da Microsoft para proteger a empresa com tecnologia de ia)

background-img

Introdução às aplicações de IA

A inteligência artificial (IA) está a transformar as operações das empresas, ao impulsionar a inovação e introduzir simultaneamente novos riscos. Desde a IA sombra (ferramentas de nível de consumidor adotadas sem supervisão) a ataques de injeção de pedidos e regulamentos em evolução como o Regulamento da IA da UE, as organizações têm de enfrentar estes desafios para utilizar a IA de forma segura.

Este guia abrange os riscos associados à IA: fuga de dados, ameaças emergentes e desafios de conformidade, juntamente com os riscos únicos da IA por meio de agentes. Fornece também orientações e medidas práticas a tomar com base no Quadro de Adoção da IA. Para obter informações mais aprofundadas e medidas de ação, transfira o guia.

A IA é um fator de mudança, mas apenas se a conseguirmos proteger. Vamos começar.

Os 3 principais riscos na segurança de IA


À medida que as organizações adotam a IA, os líderes têm de enfrentar três desafios fundamentais:
  • 80% dos líderes citam a fuga de dados como uma das principais preocupações. 1
    As ferramentas de IA sombra - utilizadas sem a aprovação das TI - podem expor informações confidenciais, o que aumenta os riscos de falhas de segurança.
  • 88% das organizações preocupam-se com o facto de os agentes maliciosos manipularem os sistemas de IA.2
    Ataques como a injeção de pedidos exploram vulnerabilidades nos sistemas de IA, o que realça a necessidade de defesas proativas.
  • 52% dos líderes admitem incerteza sobre a forma de lidar com os regulamentos de IA.3
    Manter-se em conformidade com quadros como o Regulamento da IA da UE é essencial para promover a confiança e manter a dinâmica da inovação.

IA por meio de agentes: principais riscos e como os enfrentar

A IA por meio de agentes oferece um potencial transformador, mas a sua autonomia introduz desafios de segurança únicos que exigem uma gestão proativa dos riscos. Seguem-se os principais riscos e as estratégias adaptadas para os enfrentar:

Alucinações e resultados não desejados

Os sistemas de IA agêntica podem produzir resultados inexatos, desatualizados ou desalinhados, conduzindo a perturbações operacionais ou a uma má tomada de decisões.

Para mitigar estes riscos, as organizações devem implementar processos de monitorização rigorosos para analisar a exatidão e a relevância dos resultados gerados pela IA. A atualização regular dos dados de formação garante o alinhamento com as informações atuais, enquanto os percursos de escalonamento para casos complexos permitem a intervenção humana quando necessário. A supervisão humana continua a ser essencial para manter a fiabilidade e a confiança nas operações baseadas em IA.

Excesso de confiança nas decisões da IA

A confiança cega nos sistemas de IA agêntica pode conduzir a vulnerabilidades quando os utilizadores agem com base em resultados imperfeitos sem validação.

As organizações devem estabelecer políticas que exijam a revisão humana das decisões de alto risco influenciadas pela IA. A formação dos funcionários sobre as limitações da IA promove o ceticismo informado, reduzindo a probabilidade de erros. A combinação de conhecimentos de IA com o julgamento humano através de processos de tomada de decisão em camadas reforça a resiliência global e evita a dependência excessiva.

Novos vetores de ataque

A autonomia e a adaptabilidade da IA agêntica criam oportunidades para os atacantes explorarem vulnerabilidades, introduzindo riscos operacionais e sistémicos.

Os riscos operacionais incluem a manipulação de sistemas de IA para realizar ações prejudiciais, como tarefas não autorizadas ou tentativas de phishing. As organizações podem mitigar estes riscos através da implementação de medidas de segurança robustas, incluindo deteção de anomalias em tempo real, encriptação e controlos de acesso rigorosos.

Os riscos sistémicos surgem quando agentes comprometidos perturbam sistemas interligados, provocando falhas em cascata. Mecanismos à prova de falhas, protocolos de redundância e auditorias regulares - alinhados com estruturas de cibersegurança como o NIST - ajudam a minimizar estas ameaças e a reforçar as defesas contra ataques adversários.

Responsabilidade e obrigação de prestar contas

A IA agêntica funciona muitas vezes sem supervisão humana direta, o que levanta questões complexas sobre a responsabilização e a responsabilidade por erros ou falhas.

As organizações devem definir quadros de responsabilização claros que especifiquem as funções e responsabilidades pelos resultados relacionados com a IA. A documentação transparente dos processos de decisão da IA apoia a identificação de erros e a atribuição de responsabilidades. A colaboração com as equipas jurídicas garante a conformidade com os regulamentos, enquanto a adoção de normas éticas para a governação da IA cria confiança e reduz os riscos para a reputação.

Comece com uma abordagem faseada

Com inovações de IA como os agentes, as organizações têm de estabelecer uma base sólida assente nos princípios da Confiança Zero - "nunca confiar, verificar sempre" Esta abordagem ajuda a garantir que cada interação é autenticada, autorizada e continuamente monitorizada. Embora alcançar a Confiança Zero leve tempo, a adoção de uma estratégia faseada permite um progresso constante e cria confiança na integração segura da IA.

 

O quadro de adoção de IA da Microsoft concentra-se em três fases principais: Governar a IA, Gerir a IA e Proteger a IA.

Ao abordar estas áreas, as organizações podem lançar as bases para uma utilização responsável da IA, mitigando simultaneamente os riscos críticos.

Para ter sucesso, dê prioridade às pessoas, formando os funcionários para reconhecerem os riscos da IA e utilizarem ferramentas aprovadas de forma segura. Promover a colaboração entre as equipas de TI, de segurança e comerciais para garantir uma abordagem unificada. Promova a transparência, comunicando abertamente as suas iniciativas de segurança da IA para criar confiança e demonstrar liderança.

Com a estratégia certa, baseada nos princípios da Confiança Zero, pode mitigar os riscos, impulsionar a inovação e enfrentar com confiança o panorama da IA em constante evolução.

Mais como isto

Capa de livro com o texto "Microsoft Security Strategies para conformidade com IA" ao lado de uma ilustração de um homem e uma mulher a olhar para um computador portátil.
5 minutos

"Microsoft Guide for Securing the AI-Powered Enterprise: Strategies for AI Compliance" (Guia da Microsoft para Proteger a Empresa com Tecnologia de IA: Estratégias para Conformidade com IA)

Um homem a olhar para o tablet na sua mão.
3 minutos

Mais valor, menos risco: como implementar IA generativa em toda a organização de forma segura e responsável

Um desenho de linha branca de um papel num envelope com a palavra "New" sobre um fundo azul.

Obter o CISO Digest

Mantenha-se um passo à frente com informações de especialistas, tendências da indústria e investigação em segurança nesta série de e-mail bimestral.

Siga o Microsoft Security