Pular para o conteúdo principal
Setor

Como a IA responsável ajuda os serviços financeiros a gerenciar riscos e garantir a conformidade 

Organizações de serviços financeiros são entusiasmadas com promessa da IA generativa de transformar seus negócios de maneiras inéditas. Eles enxergam oportunidades em todos os setores, incluindo o fornecimento de novos serviços para comunidades carentes, a redução de custos e a capacitação dos funcionários para aumentar a produtividade.   

No entanto, à medida que esse interesse resulta em ação, as instituições financeiras estão legitimamente preocupadas com os riscos da IA, incluindo possíveis questões relacionadas à confiabilidade, justiça e privacidade de dados. As organizações precisam de proteções para gerenciar esses riscos e garantir a segurança e a conformidade nos ambientes regulatórios complexos em que elas operam.   

A maioria das organizações não está esperando que agências regulatórias governamentais tomem medidas antes para que possam usar a IA para inovar. É por isso que a Microsoft – em coordenação com órgãos reguladores do setor e outras partes interessadas – está abordando essas questões-chave para que os clientes de instituições financeiras possam adotar a IA com confiança. Essa é uma das maneiras pelas quais a Microsoft Cloud for Financial Services ajuda as organizações a potencializar o valor comercial e aprofundar o relacionamento com os clientes.   

Valor de negócios com IA generativa para serviços financeiros 

Empresas de serviços financeiros estão fazendo investimentos significativos para alavancar o poder da IA generativa. Para muitos, a recente disponibilidade do Microsoft Copilot para Microsoft 365 melhorou a produtividade dos funcionários, integrando a IA em seus aplicativos cotidianos, como o Microsoft Word e o Microsoft Teams.   

Além disso, muitos clientes estão usando a plataforma de nuvem de nível empresarial da Microsoft e seus controles integrados de privacidade, segurança e conformidade como base para criar soluções personalizadas adequadas ao setor de serviços financeiros. Os primeiros casos de uso em serviços financeiros geralmente lidam com cenários de baixo risco e com foco interno, como otimização de custos, redução do tempo de retorno e aprimoramento da colaboração.   

Em todas as verticais, vemos casos de uso de IA generativa gerando impacto das seguintes maneiras:  

  • Os casos de uso no setor bancário incluem atendimento no call center, consultoria financeira, geração de conteúdo, know-your-product (explicações sobre o produto), análise de clientes, contrapartes e fraudes.  
  • Os casos de uso de seguros incluem agentes de contact center, subscritores, gerentes de sinistros, agentes virtuais e assistentes, know-your-product, análise de clientes, contrapartes e fraudes.  
  • Os casos de uso do mercado de capitais incluem engajamento e atendimento ao cliente, pesquisa de mercado e resumo de relatórios, geração de pitch book, consultoria de investimento e patrimônio, know-your-product, análise de clientes, contrapartes e fraudes, e acessibilidade e tradução de idiomas.  

De que forma a IA responsável da Microsoft se alinha a princípios globais 

A Microsoft é líder no uso responsável de IA desde 2017, quando criamos nosso comitê de IA, Ética e Efeitos em Engenharia e Pesquisa (Aether) para examinar considerações éticas e os efeitos da IA na sociedade. Essa iniciativa ganhou reforços em 2019, quando o Microsoft Office of Responsible AI foi criado para ajudar a desenvolver padrões responsáveis.   

Essa e outras iniciativas resultaram no Microsoft Responsible AI Standard, ou Padrão de IA Responsável, que define os requisitos de desenvolvimento de produtos para tecnologias da Microsoft e estabelece um processo que as empresas podem usar para criar suas próprias estruturas e controles de governança para gerenciar riscos.   

O Padrão de IA Responsável define um conjunto de princípios essenciais que a Microsoft segue diligentemente, e que incentivamos outras organizações a adotar. Esses princípios são ilustrados da seguinte forma:  

Paralelamente aos nossos esforços, muitos países já avançaram o suficiente no ciclo de vida da regulamentação em termos de políticas públicas, estratégias e orientações nacionais para a implementação segura da IA. Não é de hoje que Microsoft vem trabalhando com órgãos reguladores para compartilhar nossas perspectivas e abordagens para delimitar o uso da IA generativa.   

Em 2018, contribuímos com os princípios de equidade, ética, responsabilidade e transparência (FEAT, fairness, ethics, accountability and transparency) estabelecidos pela Autoridade Monetária de Singapura, e tivemos compromissos semelhantes com órgãos reguladores, incluindo o Banco Nacional Holandês, a Autoridade Francesa de Supervisão e Resolução Prudencial, o Comitê de Supervisão de Basileia, o Banco da Inglaterra e a Associação Internacional de Supervisores de Seguros, entre muitos outros.1   

A partir desse trabalho coletivo, foi estabelecido um consenso entre governos e agências reguladoras, incluindo um conjunto de princípios de orientação para adoção responsável da IA por instituições financeiras, que são virtualmente idênticos aos princípios definidos no Padrão de IA Responsável.   

Seis princípios da Microsoft para garantir a conformidade com a IA 

No contexto da IA responsável, a Microsoft desenvolveu soluções que ajudam as empresas de serviços financeiros a cumprir as leis e regulamentos aplicáveis, facilitar a supervisão, atender às expectativas de fiscalização e proteger os clientes. Conformidade e confiança são essenciais para atender a esses requisitos e, para ajudar a garanti-los, a Microsoft desenvolveu seis princípios essenciais: 

1. Eficácia 

A tecnologia de IA deve ser eficaz, confiável e adequada para o uso pretendido. Com base no Padrão de IA Responsável, fornecemos critérios essenciais para avaliar as tecnologias de IA. Tais critérios incluem fornecer transparência e supervisão eficazes da Microsoft Cloud, inclusive para nossos serviços de IA generativa, por meio de ferramentas e recursos, como o Painel de IA Responsável, as AI Transparency Notes e o Modelo de Avaliação de Impacto de IA Responsável.  

2. Imparcialidade 

A tecnologia de IA não deve resultar em discriminação, preconceito social ou resultados não intencionais para o consumidor. Fornecemos uma série de ferramentas para ajudar a evitar que o sistema de IA exiba comportamentos injustos ou indesejados. Isso inclui uma metodologia para reduzir o viés social na incorporação de palavras para ajudar a evitar estereótipos de gênero, mantendo associações potencialmente úteis. Também conduzimos testes internos com ferramentas para avaliar a qualidade da IA e métricas de IA responsável para modelos grandes de linguagem, como o Copilot for Microsoft 365. Essas mesmas ferramentas são disponibilizadas aos clientes para o Serviço OpenAI do Microsoft Azure.  

3. Privacidade e segurança de dados 

Uma tecnologia de IA deve ser respaldada por fortes controles para proteger a privacidade do consumidor e a segurança dos dados. O Serviço OpenAI do Azure, que armazena e processa dados para fornecer serviços de IA, está sujeito a todos os controles definidos no Adendo de Proteção de Dados (DPA) de Produtos e Serviços Microsoft. Para ajudar as empresas a controlar, proteger e gerenciar seus acervos de dados, a Microsoft oferece o Purview, uma família de soluções de governança de dados, riscos e conformidade. E para otimizar a segurança, as tecnologias de IA da Microsoft são construídas sobre os pilares de segurança do Azure, que incluem controles de segurança da informação que podem ser facilmente integrados à base dos programas de segurança de uma empresa. 

4. Transparência 

Uma tecnologia de IA deve permitir rastreabilidade e inteligibilidade e auditabilidade. A transparência depende de rastreabilidade, comunicação e inteligibilidade. As pessoas devem ser capazes de entender e monitorar o comportamento técnico dos sistemas de IA, e os profissionais que constroem e usam sistemas de IA devem ser transparentes quanto ao design, implantação e limitações desses sistemas.  

A Microsoft fornece ferramentas para proporcionar maior transparência e permitir auditabilidade, incluindo ferramentas para rastrear e reproduzir modelos e seus históricos de versões. O Azure Machine Learning também inclui métodos e ferramentas para garantir que os resultados ou resultados sejam identificáveis e explicáveis para um público importante, como reguladores ou consumidores. O Serviço OpenAI do Azure também permite que designers e avaliadores de modelos expliquem por que um modelo faz as previsões que faz, fornecendo informações relevantes para rastreabilidade e inteligibilidade. Além disso, estamos comprometidos – e temos experiência – com auditorias de clientes e exames de reguladores.  

5. Treinamento e governança 

Um funcionário da instituição financeira deve ter a experiência necessária para implementar e revisar a tecnologia de IA, e a tecnologia de IA deve estar sujeita a controles de governança e supervisão dentro da instituição. A Microsoft fornece conteúdo e programas de treinamento em IA para ajudar na formação técnica e gestão do conhecimento dentro de uma instituição. Isso inclui cursos de aprendizagem, como os fornecidos pelo Microsoft Learn, que abrangem uma variedade de ferramentas e recursos que podem ser usados pelas empresas como parte de um programa de governança. O Portal de Confiança do Serviço da Microsoft fornece níveis adicionais de garantia, documentação e o programa de Conformidade da Microsoft, que ajuda nas avaliações da Microsoft Cloud, incluindo tecnologias de IA.  

6. Ética 

O uso de uma tecnologia de IA deve estar alinhado ao código de conduta da instituição financeira e aos padrões de ética aplicáveis, o que exige responsabilidade contínua da empresa em termos de uso e supervisão da tecnologia de IA. O Padrão de IA Responsável ajuda a garantir o uso ético da IA, e fornecemos informações para ajudar as instituições financeiras a verificar se as tecnologias de IA estão em conformidade com suas políticas e procedimentos. A Microsoft se comprometeu a implementar a estrutura de gerenciamento de riscos de IA do Instituto Nacional de Padrões e Tecnologia (NIST, National Institute of Standards and Technology) e alinhamos nosso Padrão de IA Responsável ao Sistema de Gerenciamento de IA ISO 42001. Continuamos empenhados em implementar normas internacionais relevantes, à medida que elas forem criadas no futuro, incluindo aquelas que entrarão em vigor após a implementação da Lei de IA da União Europeia.  

Saiba mais sobre implementação de IA 

As tecnologias de IA da Microsoft estão prontas para ajudar as instituições financeiras a implementar a IA  de forma que ela esteja conformidade com as leis e os regulamentos aplicáveis, facilite a supervisão eficaz do conselho de administração e alta diretoria, atenda às expectativas de supervisão e proteja os clientes.  

Para saber mais sobre nosso compromisso com a IA responsável, visite o site da IA responsável. Para se conectar com especialistas no assunto para ajudar suas equipes de risco, auditoria e conformidade, bem como acelerar sua adoção da nuvem, visite o Programa de Conformidade para a Nuvem da Microsoft.   

Saiba mais sobre os serviços em nuvem da Microsoft 

1MAS introduz novos Princípios do FEAT para promover o uso responsável de IA e análise de dados, Autoridade Monetária de Singapura.