En Asia, al igual que en otras regiones, la adopción de la inteligencia artificial (IA) en el sector de los servicios financieros está creciendo rápidamente, y más del 60% de las organizaciones de este segmento ya están  acelerando su ritmo de digitalización en respuesta a la pandemia. 

Se estima que el gasto en IA del sector de los servicios financieros en la región alcanzará los 4.900 millones de dólares en 2024. En la actualidad, el gasto en servicios financieros en Asia-Pacífico (excluyendo Japón) representa el 15% del gasto mundial en IA, lo que indica el importante potencial de crecimiento que se avecina a medida que más instituciones financieras desarrollen e implanten soluciones de IA. 

En el contexto del aumento de esta tecnología, estamos observando un creciente interés por parte de nuestros clientes, de los reguladores y de otras partes interesadas en cómo se puede implementar la IA de manera responsable. Estamos trabajando directamente con clientes y reguladores, así como a través de grupos como el consorcio Veritas de la Autoridad Monetaria de Singapur. He aquí hay cinco cosas que estamos aprendiendo de estas interacciones. 

  1. Los reguladores incentivan a las organizaciones a basarse en las obligaciones normativas existentes y han aprobado un enfoque basado en principios y neutral en cuanto a la tecnología 

Las instituciones financieras operan en un sector altamente regulado, con sólidos requisitos que abarcan el uso de tecnología subcontratada, la gestión de riesgos y la gobernanza. Está claro que, en lo que respecta al uso de la IA, las instituciones financieras no operan en un vacío normativo. Por ello, los reguladores asiáticos nos indican claramente que no pretenden introducir una nueva normativa de servicios financieros específica para la IA. Más bien buscan basarse en los marcos normativos existentes y en las orientaciones asociadas, como la protección de datos, la confidencialidad y el secreto bancario, la tecnología y la gestión de riesgos, y los préstamos justos, entre otros, para garantizar que esta tecnología se implemente de forma responsable. 

Han publicado directrices o principios no vinculantes, y han fomentado la colaboración entre instituciones financieras y socios tecnológicos para comprender cómo pueden fortalecerse los controles y la gobernanza existentes a fin de implementar y demostrar buenas prácticas de IA responsable. Este enfoque normativo, basado en principios y neutral desde el punto de vista tecnológico, puede verse con mayor claridad en Singapur y Hong Kong, haciéndose eco del enfoque a nivel mundial de jurisdicciones como el Reino Unido

Un avance especialmente interesante es la aparición de un enfoque de co-creación, en el que los reguladores y el sector colaboran estrechamente para garantizar que los principios puedan traducirse en acciones prácticas. El Consorcio Veritas de la Autoridad Monetaria de Singapur (MAS)  es un buen ejemplo de ello, ya que colaboró activamente con los participantes del sector para desarrollar una metodología de evaluación de la equidad en la primera fase del Consorcio. Esta metodología no vinculante se desarrolló a través de un enfoque fundamentado, basado en la evaluación de las consideraciones de equidad planteadas en diferentes casos de uso de servicios financieros. En la fase actual del trabajo del Consorcio, Microsoft está facilitando debates sobre las consideraciones normativas asociadas a la implementación de IA responsable en los servicios financieros. Los comentarios que MAS recibe de Veritas les proporcionarán importantes enseñanzas para cualquier nueva orientación futura. 

Este enfoque de co-creación también se puede observar a nivel mundial. En los Estados Unidos, las principales empresas del sector de servicios financieros, tecnología y académico anunciaron la formación de un nuevo Consejo Nacional de Inteligencia Artificial (NCAI). En el Reino Unido, el Foro Público-Privado de Inteligencia Artificial reúne a los sectores público y privado para fomentar un diálogo constructivo sobre el uso y el impacto de la IA / ML, incluyendo los beneficios potenciales y las limitaciones para su implementación, así como los riesgos asociados. 

Otra novedad que estamos observando es el mayor valor que se otorga a la coordinación con otras jurisdicciones, dado que muchas instituciones financieras de Asia operan en múltiples mercados a nivel regional o mundial. La coordinación entre los organismos reguladores de toda la región es claramente beneficiosa para lograr la coherencia normativa. Aunque implementar la IA de manera responsable y en consonancia con las expectativas de los reguladores significa adoptar un enfoque adaptado a los contextos locales (por ejemplo, una evaluación de si los datos utilizados para el aprendizaje automático son apropiados para mitigar los riesgos de sesgo variará de un contexto a otro), la cooperación transfronteriza entre los reguladores y con el sector tiene un gran valor para compartir perspectivas y aprendizajes. 

  1. Comprender los problemas que se plantean en los casos de uso de los servicios financieros específicos es esencial para trasladar los principios a la práctica 

Si miramos atrás 2-3 años, la mayoría de los debates sobre el uso responsable de la IA en las finanzas se centraban en la definición de los principios éticos y la concienciación sobre la necesidad de una IA responsable. En Asia, estamos viendo cómo los esfuerzos se centran cada vez más en consideraciones prácticas basándose en casos de uso específicos, a medida que aumenta la implementación real de la IA por parte de las instituciones financieras. Si bien las discusiones anteriores a nivel de principios fueron importantes, sólo a través de su aplicación en escenarios de la vida real los principios pueden traducirse en la práctica. Las directrices de los reguladores y los principios éticos pueden ayudar a establecer una línea de base y a garantizar que las organizaciones se planteen las preguntas correctas, pero luego es necesario un enfoque basado en casos de uso. El contexto en el que se implementen soluciones específicas de IA determinará qué principios son más relevantes y cómo se pueden mitigar los riesgos que se presentan. 

La importancia de adoptar este enfoque basado en casos de uso quedó clara durante la colaboración de Microsoft con Standard Chartered, Deutsche Bank, Visa y Linklaters  para probar la aplicación de los principios éticos de la IA de Singapur. A través de este proyecto trabajamos colectivamente para evaluar las consideraciones de responsabilidad de la IA en tres casos de uso de servicios financieros diferentes: la predicción de patrones de viaje basados en gastos anteriores; la automatización de la verificación de documentos con firma original; y el cumplimiento normativo relacionado con las comprobaciones de “Conozca a su cliente”. Un aprendizaje claro fue que los principios específicos tienen diferentes implicaciones en diferentes contextos, y algunos principios serán más o menos relevantes. 

El consorcio MAS Veritas está adoptando un enfoque similar. Al basar su trabajo en casos de uso específicos preparados por las instituciones financieras implicadas, junto con participantes de empresas de tecnología como Microsoft, el grupo está generando importantes aprendizajes que fortalecen nuestros esfuerzos colectivos para implementar la IA de manera responsable. A medida que más instituciones compartan casos de uso en los que muestren cómo han trabajado a través de las consideraciones de responsables de la IA, todo el sector se beneficiará. 

Estamos observando beneficios similares fuera de la industria de servicios financieros a través de los esfuerzos para recopilar y publicar casos de uso de IA responsable en Asia. Esto incluye el piloto de los principios éticos de IA de Australia (donde Microsoft fue invitada a participar como una de las cinco empresas), y los dos volúmenes de casos de uso de Singapur, algunos de los cuales están relacionados con servicios financieros. 

  1. Un enfoque basado en la materialidad puede ayudar a centrar los esfuerzos en casos de uso más sensibles 

En Asia se está observando un progreso importante en la aplicación de marcos de gobernanza y controles al uso de IA en los servicios financieros. En consonancia con el panorama mundial de una encuesta realizada en 2020 por el Instituto de Finanzas Internacionales, estamos viendo en grupos como el consorcio Veritas que la mayoría de las instituciones financieras están utilizando sus marcos existentes de gestión de riesgos u otros marcos. Una prioridad cada vez mayor es identificar los casos de uso más importantes de la IA, de modo que los esfuerzos puedan centrarse en los usos más delicados en los que puede haber un mayor riesgo de daño. 

Por ejemplo, en un debate reciente, una institución financiera compartió su perspectiva de que, en lugar de hacer un balance y una revisión periódicos de todos los posibles casos de uso de la IA, se centraban más en identificar los casos de uso importantes que requerían un mayor escrutinio. Esto evitaría detener la implementación de aplicaciones de IA de menor riesgo, al tiempo que garantizaría que las aplicaciones de mayor riesgo potencial recibieran suficiente atención. Esto es similar al enfoque que estamos adoptando en Microsoft, donde se aplica un conjunto de criterios de IA responsable para cualquier equipo que construya sistemas de IA, con un procedimiento de revisión más intensivo para los usos sensibles en los que existe un mayor riesgo de daño. 

De cara al futuro, un área importante a explorar es si es necesaria una mayor colaboración intersectorial para definir enfoques compartidos a fin de evaluar la materialidad. Grupos como el consorcio Veritas podrían ser útiles para facilitar estos debates. 

  1. Es importante que las instituciones financieras y los asociados tecnológicos promuevan la transparencia y la responsabilidad. 

Un área de creciente interés es la de los papeles complementarios de las instituciones financieras que implementan tecnologías de IA, y los desarrolladores de software que proporcionan soluciones de IA que las instituciones financieras podrían personalizar o implementar “off-the-shelf”. Incluso las instituciones financieras más grandes de Asia que cuentan con equipos de desarrollo internos probablemente desarrollen sistemas de IA sobre productos de IA / ML de proveedores externos o sobre modelos entrenados descargados de Internet. Eso está impulsando un debate sobre cómo los desarrolladores de modelos pueden trabajar más eficazmente con las instituciones financieras para promover la transparencia y garantizar que haya un grado de responsabilidad por el software que se está desarrollando. Aunque las instituciones que implementan soluciones de IA serán en última instancia las responsables de garantizar que su caso de uso se aplique de forma responsable, vemos un papel importante para los desarrolladores de esta tecnología en la promoción del uso responsable de sus modelos. 

Los asociados tecnológicos pueden ayudar compartiendo información técnica y no técnica sobre las capacidades y limitaciones del software de IA que se está desarrollando, a fin de ayudar a una institución financiera a evaluar la mejor manera de implementar ese software de manera responsable. Por ejemplo, Microsoft ha publicado notas de transparencia para llenar una brecha entre la documentación comercial y la técnica, con el objetivo de ayudar a nuestros clientes con la información que necesitan saber para aplicar nuestros servicios de IA de manera responsable. 

  1. La importancia de la diversidad y la cultura para una IA responsable 

Un aprendizaje continuo es la importancia de aportar diversas perspectivas a los esfuerzos para implementar una IA responsable. La colaboración diversa es de suma importancia y añade un desafío saludable para garantizar que los principios de uso responsable se apliquen adecuadamente, y que posibles preocupaciones se identifiquen y se traten con prontitud. 

Existen muchas maneras de incluir diversas perspectivas. Es necesario involucrar a una serie de partes interesadas en la aplicación de la IA de forma responsable, como: gobierno, reguladores, asociaciones del sector, desarrolladores de tecnología, los que la implementan, grupos de la sociedad civil y representantes de la comunidad de clientes finales. También es importante recurrir a diferentes perspectivas dentro de la propia organización, como a los equipos que desarrollan las aplicaciones de IA, a las perspectivas de los departamentos jurídico, de cumplimiento, auditoría y riesgo (incluidos los riesgos operativos, de reputación y conducta). Además, esos equipos deben ser intrínsecamente diversos, con una representación adecuada de género, grupos étnicos, discapacidad, circunstancias económicas y otros aspectos de diversidad. Esto es especialmente cierto en Asia, dada la diversidad de la región. 

Avanzar 

En el futuro, es fundamental aprovechar el trabajo realizado en la actualidad, fomentar un mayor intercambio de ejemplos de casos de uso para mejorar la comprensión de cómo las instituciones financieras están implementando la IA responsable y examinar qué cuestiones normativas deben abordar dichas instituciones. Iniciativas como la de Veritas son una poderosa plataforma para que las instituciones financieras desarrollen conjuntamente soluciones con reguladores, compañías de tecnología y otros agentes del sector. Esto reforzará la comprensión general del uso de la IA en todo el sector de servicios financieros, además de infundir confianza en los reguladores y los consumidores de que estas cuestiones se están teniendo en cuenta para garantizar que la tecnología se utiliza de forma responsable. 

Más información 

Comunicado de prensa de MAS anunciando la publicación de los principios FEAT: https://www.mas.gov.sg/publications/monographs-or-information-paper/2018/FEAT 

Comunicado de prensa de Microsoft indicando que nos unimos al consorcio Veritas: Microsoft se une al consorcio Veritas liderado por la Autoridad Monetaria de Singapur (MAS), en su compromiso con el uso responsable de la Inteligencia Artificial (IA) en el sector de servicios financieros – Microsoft Stories Asia 

Comunicado de prensa de MAS anunciando la conclusión de los proyectos Veritas 2020: La Iniciativa Veritas aborda los desafíos de implementación en el uso responsable de la inteligencia artificial y el análisis de datos (mas.gov.sg) 

Informe técnico de Veritas Fase 1: https://www.mas.gov.sg/-/media/MAS/News/Media-Releases/2021/Veritas-Document-1-FEAT-Fairness-Principles-Assessment-Methodology.pdf 

Publicación de los Principios a la Práctica: https://www.microsoft.com/cms/api/am/binary/RE487kh 

Principios de la IA responsable de Microsoft: https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1%3aprimaryr6 

Los componentes del programa de IA responsable de Microsoft: https://blogs.microsoft.com/on-the-issues/2021/01/19/microsoft-responsible-ai-program/ 

Banco de Pagos Internacionales: “Personas que mantienen la IA bajo control: expectativas regulatorias emergentes en el sector financiero”: https://www.bis.org/fsi/publ/insights35.pdf