This is the Trace Id: a00826023b6e108e1f63a90a7decea34

Participe da sessão do painel executivo da RSAC em 24 de março "Os agentes de IA estão aqui! Você está preparado?".

Inscreva-se agora

Guia da Microsoft para proteger uma empresa assistida por IA

background-img

Guia de introdução sobre aplicativos de IA

A inteligência artificial (IA) está transformando as operações das empresas, impulsionando a inovação e, ao mesmo tempo, trazendo novos riscos. Desde o uso de shadow AI (IA sombra), como ferramentas voltadas ao consumidor sem supervisão, até ataques por injeção de prompt e regulamentações em evolução, como a Lei de IA da UE, as organizações precisam enfrentar esses desafios para usar a IA com segurança.

Este guia aborda os riscos associados à IA: vazamento de dados, ameaças emergentes e desafios de conformidade, além dos riscos específicos da IA com agentes autônomos. Também oferece orientações e etapas práticas com base no Framework de Adoção de IA. Para insights mais aprofundados e etapas práticas, baixe o guia.

A IA é um divisor de águas, mas só se for segura. Vamos começar.

Os três principais riscos em segurança de IA


À medida que as organizações adotam a IA, os líderes precisam lidar com três desafios principais:
  • 80% dos líderes citam o vazamento de dados como uma das maiores preocupações. 1
    Ferramentas de shadow AI, usadas sem aprovação da equipe de TI, podem expor informações confidenciais e aumentar o risco de violações.
  • 88% das organizações se preocupam com a manipulação de sistemas de IA por agentes mal-intencionados.2
    Ataques como injeção de prompt exploram vulnerabilidades em sistemas de IA, destacando a necessidade de defesas proativas.
  • 52% dos líderes admitem incerteza sobre como lidar com as regulamentações de IA.3
    Manter conformidade com estruturas de política como a Lei de IA da UE é essencial para gerar confiança e manter o ritmo da inovação.

IA com agentes autônomos: principais riscos e como enfrentá-los

A IA com agentes autônomos tem um potencial transformador, mas sua autonomia traz desafios únicos de segurança que exigem um gerenciamento ativo e cuidadoso dos riscos. Confira abaixo os principais riscos e as estratégias criadas para lidar com cada um deles:

Alucinações e resultados não intencionais

Sistemas de IA com agentes autônomos podem gerar resultados imprecisos, desatualizados ou fora de contexto, o que pode impactar as operações e levar a decisões equivocadas.

Para reduzir esses riscos, as organizações devem implementar processos rigorosos de monitoramento para revisar se os resultados gerados por IA são precisos e relevantes. Atualizar regularmente os dados de treinamento garante o alinhamento com as informações mais recentes, enquanto caminhos de escalonamento para casos complexos permitem a intervenção humana quando necessário. A supervisão humana continua sendo fundamental para manter a confiabilidade e a confiança em operações baseadas em IA.

Excesso de confiança em decisões de IA

Confiar cegamente em sistemas de IA com agentes autônomos pode gerar vulnerabilidades quando usuários agem com base em resultados incorretos e sem validação.

As organizações devem estabelecer políticas que exijam revisão humana para decisões críticas influenciadas por IA. Treinar os funcionários para entender as limitações da IA estimula um ceticismo saudável e ajuda a reduzir a chance de erros. Combinar os insights da IA com o julgamento humano, por meio de processos de decisão em etapas, aumenta a resiliência e evita uma dependência excessiva.

Novos vetores de ataque

A autonomia e adaptabilidade da IA com agentes autônomos abrem espaço para que invasores explorem vulnerabilidades, gerando riscos operacionais e sistêmicos.

Riscos operacionais envolvem a manipulação de sistemas de IA para realizar ações maliciosas, como tarefas não autorizadas ou tentativas de phishing. As organizações podem mitigar esses riscos com medidas de segurança robustas, como detecção de anomalias em tempo real, criptografia e controles de acesso rigorosos.
Riscos sistêmicos surgem quando agentes comprometidos impactam sistemas interconectados, provocando falhas em cadeia. Mecanismos de segurança, protocolos de redundância e auditorias frequentes, alinhados a estruturas de política de segurança cibernética como o NIST, ajudam a reduzir essas ameaças e reforçar a proteção contra ataques adversariais.

Responsabilidade e obrigações legais

IA com agentes autônomos costuma operar sem supervisão humana direta, o que levanta dúvidas importantes sobre responsabilidade de obrigações legais por erros ou falhas.

As organizações devem estabelecer estruturas de política claras de responsabilidade, definindo funções e atribuições para os resultados relacionados à IA. Manter uma documentação transparente sobre como as decisões da IA são tomadas facilita a identificação de erros e a atribuição de obrigações legais. Trabalhar em conjunto com equipes jurídicas garante a conformidade com as regulamentações, enquanto a adoção de padrões éticos para a governança da IA fortalece a confiança e reduz riscos à reputação.

Comece com uma abordagem por fases

Com as inovações recentes em IA, como os agentes, as organizações precisam estabelecer uma base sólida fundamentada nos princípios de Confiança Zero, ou seja, "nunca confie, sempre verifique". Essa abordagem garante que cada interação seja autenticada, autorizada e monitorada de forma contínua. Embora alcançar a Confiança Zero leve tempo, adotar uma estratégia por fases permite um progresso constante e reforça a confiança na integração segura da IA.

 

A estrutura de política para adoção de IA da Microsoft é estruturada em três fases principais: governar a IA, gerenciar a IA e proteger a IA.

Ao abordar essas áreas, as organizações conseguem preparar o terreno para um uso responsável da IA, ao mesmo tempo em que reduzem riscos críticos.

Para ter sucesso, priorize as pessoas treinando os funcionários para reconhecer os riscos da IA e usar com segurança as ferramentas aprovadas. Incentive a colaboração entre as equipes de TI, segurança e negócios para garantir uma abordagem unificada. Promova a transparência comunicando abertamente suas iniciativas de segurança em IA, fortalecendo a confiança e demonstrando liderança.

Com a estratégia certa, fundamentada nos princípios de Confiança Zero, você pode mitigar riscos, impulsionar a inovação e avançar com segurança em um cenário de IA que está sempre mudando.

Mais deste tipo

Uma capa de livro com o texto "Estratégias de segurança da Microsoft para conformidade em IA", acompanhada de uma ilustração de um homem e uma mulher olhando para um notebook.
5 minutos

Guia da Microsoft para proteger uma empresa assistida por IA: estratégias de conformidade da IA

Homem observando o tablet que segura na mão.
3 minutos

Mais valor, menos risco: como implementar IA generativa em toda a organização de forma segura e responsável

Desenho em traço branco de um papel dentro de um envelope com a palavra Novo sobre fundo azul.

Receba o CISO Digest

Fique por dentro com insights de especialistas, tendências do setor e pesquisas de segurança nesta série de emails bimestrais.

Siga a Segurança da Microsoft