Saltar al contenido principal
Sector

Cómo la IA responsable ayuda a los servicios financieros a administrar el riesgo y garantizar la conformidad 

Las organizaciones de servicios financieros están energizadas por la promesa de IA generativa para transformar sus negocios de maneras sin precedentes. Ven oportunidades en todos los ámbitos, incluida la prestación de nuevos servicios a las comunidades desatendidas, la reducción de costos y el empoderamiento de sus empleados para aumentar la productividad.   

Sin embargo, a medida que el interés lleva a la acción, las instituciones financieras están legítimamente preocupadas por los riesgos de la IA, incluidos los posibles problemas relacionados con la confiabilidad, la imparcialidad y la privacidad de los datos. Las organizaciones necesitan protecciones para administrar estos riesgos y garantizar la seguridad y conformidad dentro de los complejos entornos regulatorios en los que operan.   

La mayoría de las organizaciones no están esperando la acción regulatoria del gobierno antes de innovar con IA. Es por eso que Microsoft, en coordinación con las partes interesadas y los reguladores de la industria, está abordando estos problemas clave para que los clientes de las instituciones financieras puedan adoptar la IA con confianza. Es una de las formas importantes en que Microsoft Cloud for Financial Services está ayudando a las organizaciones a desbloquear el valor comercial y profundizar las relaciones con los clientes.   

Valor de negocios con IA generativa para servicios financieros 

Las empresas de servicios financieros están realizando importantes inversiones para aprovechar el poder de la IA generativa. Para muchos, la reciente disponibilidad de Microsoft Copilot for Microsoft 365 ha mejorado la productividad de los empleados al integrar la IA en sus aplicaciones cotidianas, como Microsoft Word y Microsoft Teams.   

Además, muchos clientes están aprovechando la plataforma en la nube de nivel empresarial de Microsoft y sus controles integrados de privacidad, seguridad y cumplimiento como base para crear soluciones personalizadas que se ajusten a su propósito dentro de la industria de servicios financieros. Los primeros casos de uso en los servicios financieros a menudo abordan escenarios de bajo riesgo y enfocados internamente, como la optimización de costos, la reducción del tiempo de generación de valor y la mejora de la colaboración.   

En todas las verticales, vemos que los casos de uso de IA generativa impulsan el impacto de las siguientes maneras:  

  • Los casos de uso bancario incluyen agentes de centros de contacto, asesores financieros, generación de contenido, conocimiento del producto, clientes, contrapartes y análisis de fraudes.  
  • Los casos de uso de seguros incluyen agentes de centros de contacto, aseguradores, gerentes de reclamos, agentes virtuales y asistentes, análisis de productos, clientes, contrapartes y fraude.  
  • Los casos de uso en los mercados de capitales incluyen la participación del cliente y el servicio al cliente, la investigación de mercado y el resumen de informes, la generación de libros de presentación, la asesoría sobre inversiones y patrimonio, el conocimiento de su producto, el cliente, la contraparte, el análisis de fraudes y la accesibilidad y la traducción de idiomas.  

Cómo la IA responsable de Microsoft se alinea con los principios globales 

Microsoft ha sido un líder en el uso responsable de la IA desde 2017, cuando se formó nuestro comité de IA, Ética y Efectos en Ingeniería e Investigación (Aether) para examinar las consideraciones éticas y los efectos de la IA en la sociedad. Esos esfuerzos se reforzaron en 2019 cuando se creó la Microsoft Office of Responsible AI para ayudar a desarrollar estándares responsables.   

Este y otros trabajos llevaron al Estándar de IA Responsable de Microsoft, que define los requisitos de desarrollo de productos para las tecnologías de Microsoft y establece un proceso que las empresas pueden utilizar para crear sus propios marcos de gobierno y controles para administrar el riesgo.   

El Estándar de IA responsable define un conjunto de principios esenciales a los que Microsoft se adhiere diligentemente y que alentamos a las organizaciones a adoptar. Estos principios se ilustran de la siguiente manera:  

graphical user interface

Al mismo tiempo que nuestros esfuerzos, muchos países han avanzado lo suficiente en el ciclo de vida de la regulación como para haber emitido directivas, estrategias y directrices nacionales para la implementación segura de la IA. De hecho, Microsoft ha estado trabajando con los reguladores para compartir nuestras perspectivas y enfoques en el establecimiento de protecciones en el uso de IA generativa.   

En 2018, hicimos aportaciones a los Principios de equidad, ética, rendición de cuentas y transparencia (FEAT) establecidos por la Autoridad Monetaria de Singapur, y hemos tenido compromisos similares con organismos reguladores como el Banco Nacional Holandés, la Autoridad Francesa de Supervisión y Resolución Prudencial, el Comité de Supervisión de Basilea, el Banco de Inglaterra y la Asociación Internacional de Supervisores de Seguros, entre muchos otros1.   

A partir de estos esfuerzos colectivos, ha surgido un consenso entre los gobiernos y los reguladores, incluido un conjunto de principios para guiar la adopción responsable de la IA para las instituciones de servicios financieros. Es alentador que se asignen de manera prácticamente idéntica a los principios definidos en el Estándar de IA responsable.   

Los seis principios de Microsoft para garantizar la conformidad con la IA 

En el contexto de la IA responsable, Microsoft ha desarrollado soluciones que ayudan a las empresas de servicios financieros a cumplir con las leyes y regulaciones aplicables, facilitar una supervisión efectiva, abordar las expectativas de supervisión y proteger a los clientes. Conformidad y protección son esenciales para cumplir con esos requisitos, y para ayudar a garantizarlos, Microsoft ha desarrollado seis principios esenciales: 

1. Eficacia 

La tecnología de IA debe ser efectiva, confiable y adecuada para el uso previsto. Sobre la base del Estándar de IA responsable, proporcionamos criterios esenciales para evaluar las tecnologías de IA. Esto incluye proporcionar transparencia y supervisión efectivas de Microsoft Cloud, incluso para nuestros servicios de IA generativa, a través de herramientas y recursos como el Panel de IA responsable, las Notas de transparencia de IA y la Plantilla de evaluación de impacto de IA responsable.  

2. Equidad 

La tecnología de IA no debe dar lugar a discriminación, sesgo social o resultados no deseados para los consumidores. Proporcionamos diversas herramientas para ayudar a evitar que el sistema de IA muestre comportamientos injustos o no deseados. Esto incluye una metodología para reducir el sesgo social en la incorporación de palabras para ayudar a evitar los estereotipos de género mientras se mantienen asociaciones potencialmente útiles. También realizamos pruebas internas con herramientas para evaluar la calidad de la IA y las métricas de IA responsable para modelos de lenguaje grandes como Copilot para Microsoft 365. Estas mismas herramientas están disponibles para los clientes de Microsoft Azure OpenAI Service.  

3. Privacidad y seguridad de datos 

Una tecnología de IA debe estar respaldada por controles robustos para proteger la privacidad del consumidor y la seguridad de los datos. Azure OpenAI Service almacena y procesa datos para proporcionar servicios de IA y está sujeto a todos los controles definidos en el Apéndice de protección de datos (DPA) de los productos y servicios de Microsoft. Para ayudar a las empresas a gobernar, proteger y administrar los patrimonios de datos, Microsoft ofrece Purview, una familia de soluciones de gobierno de datos, riesgos y conformidad. Y para garantizar una seguridad óptima, las tecnologías de IA de Microsoft se basan en la base de seguridad de Azure, que incluye controles de seguridad de la información que se integran fácilmente en la base del programa de seguridad de una empresa. 

4. Transparencia 

Una tecnología de IA debe permitir la trazabilidad e inteligibilidad, y ser auditable. La transparencia se basa en la trazabilidad, la comunicación y la inteligibilidad. Las personas deben poder comprender y monitorear el comportamiento técnico de los sistemas de IA, y aquellos que construyen y usan sistemas de IA deben ser comunicativos sobre su diseño, implementación y limitaciones.  

Microsoft proporciona herramientas para ayudar a proporcionar una mayor transparencia y permitir la auditabilidad, incluyendo herramientas para rastrear y reproducir modelos y sus historiales de versiones. Azure Machine Learning también incluye métodos y herramientas para garantizar que los resultados o productos sean identificables y explicables para un público importante, como los reguladores o los consumidores. El servicio OpenAI de Azure también permite a los diseñadores y evaluadores de modelos explicar por qué un modelo hace las predicciones que hace, proporcionando información relevante para la trazabilidad y la inteligibilidad. Además, nos comprometemos y tenemos experiencia en auditorías por parte de los clientes y exámenes por parte de los reguladores.  

5. Entrenamiento y gobierno 

El empleado de una institución financiera debe tener la experiencia necesaria para implementar y revisar la tecnología de IA, y la tecnología de IA debe estar sujeta a la gobierno y supervisión dentro de la institución. Microsoft proporciona programas y contenido de entrenamiento en IA para ayudar con la educación y la administración del conocimiento dentro de una institución. Esto incluye cursos de aprendizaje como los proporcionados por Microsoft Learn, que abarcan una gama de herramientas y recursos para que las empresas los aprovechen como parte de un programa de gobierno. El Portal de confianza de servicios de Microsoft proporciona niveles adicionales de seguridad y documentación, y el programa de Conformidad de Microsoft ayuda con las evaluaciones de Microsoft Cloud, incluidas las tecnologías de IA.  

6. Ética 

El uso de una tecnología de IA debe alinearse con el código de conducta de la institución financiera y los estándares éticos aplicables, lo que requiere una rendición de cuentas continua por parte de la empresa en términos de uso y supervisión de la tecnología de IA. El Estándar de IA responsable ayuda a garantizar el uso ético de la IA, y proporcionamos información para ayudar a las instituciones financieras a confirmar que las tecnologías de IA son coherentes con sus directivas y procedimientos. Microsoft se ha comprometido a implementar el marco de administración de riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST), y hemos alineado nuestro Estándar de IA Responsable con el Sistema de Administración de IA ISO 42001. Seguimos comprometidos con la implementación de futuros estándares internacionales relevantes, incluidos los que surgirán tras la entrada en vigor de la Ley de IA de la Unión Europea.  

Obtenga más información sobre la implementación de IA 

Las tecnologías de IA de Microsoft están bien posicionadas para ayudar a las instituciones financieras a implementar la IA de una manera que cumpla con las leyes y regulaciones aplicables, facilite la supervisión efectiva por parte de la alta gerencia y la junta directiva, aborde las expectativas de supervisión y proteja a los clientes.  

Para obtener más información sobre nuestro compromiso con la IA responsable, visite el sitio web de IA responsable. Para contactar a expertos en la materia para respaldar a sus equipos de riesgo, auditoría y cumplimiento y acelerar su adopción de la nube, visite el Programa de cumplimiento para Microsoft Cloud.   

Más información acerca de Microsoft Cloud for Financial Services 

1MAS introduce nuevos Principios FEAT para promover el uso responsable de la IA y el análisis de datos, Autoridad Monetaria de Singapur.