Directrices para una AI responsable

Encuentra directrices diseñadas para que puedas prever y enfrentar los posibles problemas durante el ciclo de vida de desarrollo de software, para poner en práctica una AI responsable.

Herramientas para una AI responsable

Estudios, proyectos de código abierto y Azure Machine Learning: todos diseñados para ayudar a los desarrolladores y científicos de datos a comprender, proteger y controlar los sistemas de AI.

Comprender Proteger Controlar

Aprendizaje automático confidencial

La informática confidencial de Azure ofrece capacidades de seguridad de datos mediante entornos de ejecución de confianza (TEE) o cifrado para proteger tus datos cuando se están usando. El aprendizaje automático confidencial en Azure Machine Learning protege los datos en todo el ciclo de vida de aprendizaje automático mediante el cifrado para proteger la información confidencial y la propiedad intelectual.

Privacidad diferencial

La privacidad diferencial ayuda a proteger los datos que se utilizan en los sistemas de AI al evitar la reidentificación y conservar la privacidad.

Cifrado homomórfico con SEAL

SEAL es un proyecto de investigación con la tecnología de cifrado homomórfico de código abierto que permite realizar cálculos sobre los datos cifrados para que los datos de los clientes privados no se expongan a los operadores de la nube.

Presidio

Presidio es una biblioteca de código abierto para la protección de datos y la anonimización de texto e imágenes.


Conversaciones sobre la AI responsable

Explora podcasts, seminarios web y otros recursos de diferentes expertos de Microsoft.