Directrices para una AI responsable

Encuentra directrices diseñadas para que puedas prever y enfrentar los posibles problemas durante el ciclo de vida de desarrollo de software, para poner en práctica una AI responsable.

Herramientas para una AI responsable

Estudios, proyectos de código abierto y Azure Machine Learning: todos diseñados para ayudar a los desarrolladores y científicos de datos a comprender, proteger y controlar los sistemas de AI.

Comprender Proteger Controlar

InterpretML

InterpretML es un paquete de Python de código abierto para entrenar modelos de aprendizaje automático que se puedan interpretar y para explicar los sistemas de caja negra.

Fairlearn

El kit de herramientas de código abierto de Fairlearn permite a los desarrolladores de sistemas de AI evaluar la equidad de sus sistemas y mitigar cualquier impacto negativo para grupos de personas, como los que se definen en términos de raza, género, edad o estado de discapacidad.


Conversaciones sobre la AI responsable

Explora podcasts, seminarios web y otros recursos de diferentes expertos de Microsoft.