Recursos para la IA responsable
Explora recursos diseñados para ayudarte a usar la IA de manera responsable en cada etapa de la innovación: el concepto, el desarrollo, la implementación y más.
Directrices
Lee las directrices para mejorar tu conocimientos sobre los diferentes temas de la IA y el comportamiento de tus sistemas.
Herramientas de administración
Las herramientas de administración son recursos que puedes usar para crear, mejorar e implementar tus sistemas de IA.
Herramientas tecnológicas
Las herramientas tecnológicas te permiten desarrollar las propiedades de tus sistemas de IA con equidad, privacidad, seguridad y otras garantías de IA responsable.

Libro de trabajo de HAX
El libro de trabajo de HAX facilita la planificación y la colaboración temprana entre las disciplinas de la experiencia del usuario, la inteligencia artificial, la ingeniería y la administración de proyectos, y permite mejorar el alineamiento de los requisitos del producto para los distintos equipos.

Lista de comprobación para la equidad
Esta lista de comprobación prioriza la equidad en el desarrollo de la IA. Al operativizar los conceptos, las listas de comprobación de equidad generan una estructura para mejorar los procesos ad hoc y fortalecer a los defensores.

Fairlearn
Con Fairlearn, los desarrolladores de IA puedan evaluar la equidad de sus sistemas y mitigar cualquier impacto negativo para grupos de personas como los que se definen en términos de raza, género, edad o estado de discapacidad.

InterpretML
InterpretML es un paquete de código abierto que se usa para entrenar modelos de aprendizaje automático de “caja de vidrio” que ofrecen transparencia para la interpretación a fin de explicar los sistemas de “caja negra”.

Error Analysis
Error Analysis es un kit de herramientas que te permite identificar las cohortes con una mayor tasa de error y diagnosticar las causantes de los errores a fin de informar mejor las estrategias correctivas.

Counterfit
Microsoft creó la herramienta de código abierto Counterfit para ayudar a las organizaciones a evaluar los riesgos de seguridad de la IA, a fin de permitir que los desarrolladores se aseguren de que sus algoritmos sean robustos, seguros y confiables.

Directrices para la interacción entre las personas y la IA
Las directrices para la interacción entre las personas y la IA (HAI) sintetizan 20 años de investigación en la recomendación de 18 directrices para diseñar sistemas de IA para la interacción del usuario y el ciclo de vida de la solución.

Patrones de diseño de HAX
Los patrones de diseño de HAX ofrecen formas comunes para implementar las directrices de HAX. Los patrones son independientes de la interfaz de usuario y se pueden implementar en diversos sistemas e interfaces.

Manual de HAX
El manual de HAX es una herramienta interactiva para generar escenarios de interacción que se pueden probar al diseñar sistemas de IA destinados al usuario, antes de crear un sistema totalmente funcional.

Orientación para la seguridad de la IA
En colaboración con la Universidad de Harvard, mostramos una serie de resultados que pueden proteger tus servicios de IA con material informativo para modelar, detectar y mitigar los riesgos y problemas éticos de seguridad.

Directrices para un diseño inclusivo
Estas directrices pueden ayudarte a crear sistemas de IA que habiliten y aprovechen la diversidad de personas.

Directrices para la IA conversacional
Aprende a diseñar bots que den prioridad a las personas y generen confianza en tus servicios, aprovechando las directrices para una IA conversacional responsable.

SmartNoise
La privacidad diferencial (DP) añade una cantidad minuciosamente seleccionada de ruido estadístico a los datos confidenciales para proteger los datos que se utilizan en los sistemas de IA, a fin de evitar su identificación.

Presidio
Presidio es una biblioteca de código abierto para la protección de datos y la anonimización de texto e imágenes.

Fichas para conjuntos de datos
Toma en cuenta estas preguntas que te ayudarán a priorizar la transparencia mediante la creación de fichas para los conjuntos de datos involucrados en los sistemas de IA.

Informática confidencial para el ML
La informática confidencial de Azure ofrece seguridad de datos mediante entornos de ejecución o cifrado de confianza, lo que otorga una protección de los datos confidenciales a lo largo de todo el ciclo de vida del aprendizaje automático.

Cifrado homomórfico con SEAL
SEAL se vale de una tecnología de cifrado homomórfico de código abierto para permitir operaciones con datos cifrados e impedir que los datos privados se expongan a los operadores de la nube.

Kit de herramientas de Human AI eXperience (HAX)
El kit de herramientas de HAX te permite crear una interacción eficaz y responsable entre las personas y la IA. Incluye las directrices para la interacción entre las personas y la IA, el libro de trabajo, los patrones de diseño y el manual de HAX. Todos estos recursos se basan en necesidades observadas y se validan por medio de estudios rigurosos y ensayos piloto con equipos de profesionales.

IA responsable con el Dr. Eric Horvitz
El Dr. Eric Horvitz, director científico de Microsoft, conversa con Sam Charrington en el podcast TWIML sobre cómo la IA responsable es una parte decisiva de la innovación en diversas organizaciones.

IA responsable con Brad Smith
Brad Smith, presidente de Microsoft, habla sobre su carrera profesional, seis principios de la IA responsable en Microsoft y los diez principales problemas técnicos de la próxima década, entre otras cosas.

Posibilidades y peligros de la IA
El Dr. Eric Horvitz, director científico en Microsoft, habla sobre su trayectoria en Microsoft Research, el potencial y los problemas que ve en la IA, cómo la IA puede ayudar a países como la India y mucho más.

Aprendizaje automático y equidad
En el seminario web sobre el aprendizaje automático y la equidad con las Dras. Jenn Wortman Vaughan y Hanna Wallach, investigadoras de Microsoft, aprende a detectar y mitigar los problemas de equidad en el desarrollo del aprendizaje automático.

Criptografía para un mundo poscuántico
El Dr. Brian LaMacchia nos ofrece una mirada interna al mundo de la criptografía y la teoría de números subyacente.

Promover la accesibilidad
La Dra. Meredith Ringel Morris explora cómo, en el desarrollo de la IA, hay que considerar los desafíos éticos como la inclusión, el sesgo, la privacidad, el error, el establecimiento de expectativas, los datos simulados y la aceptabilidad social.

CHI al cuadrado
El Dr. Ken Hinckley y la Dra. Meredith Ringel Morris identifican las posibles áreas críticas en relación con el impacto que pueden tener varias categorías de tecnología de IA en comunidades particulares de discapacidad si no se tiene cuidado con su diseño, desarrollo y pruebas.

IA responsable con la Dra. Saleema Amershi
La Dra. Amershi habla de la vida en la intersección de la IA y la IPC HCI, y desmiente algunos mitos sobre la IA. También nos entrega una visión general de qué (y quiénes) se requiere para crear sistemas de IA responsable y cómo un anhelo personal por simplificar su propia vida también puede simplificar la tuya.

Transparencia e inteligibilidad
Descubre cómo incorporar mejor la transparencia en el ciclo de vida del aprendizaje automático en este seminario web dirigido por la Dra. Jenn Wortman Vaughan, una investigadora superior principal en Microsoft. Podrás informarte sobre la trazabilidad, la comunicación y la inteligibilidad, así como la importancia de adoptar un enfoque centrado en las personas.

La vida en la intersección entre la sociedad y la IA
La Dra. Ece Kamar, una investigadora superior en el Grupo de sistemas adaptativos e interacción de Microsoft Research, trabaja para ayudarnos a comprender las implicaciones de largo alcance de la IA. Habla sobre la complementariedad entre los seres humanos y las máquinas y desmiente algunas percepciones erróneas comunes sobre la IA, entre otras cosas.

IA responsable en la práctica con Sarah Bird
La Dra. Sarah Bird, directora principal de programa en Microsoft, se reúne con Sam Charrington de TWiML para conversar sobre algunas herramientas nuevas de Microsoft enfocadas en el aprendizaje automático responsable.

Diseño centrado en las personas con Mira Lane
Mira Lane, directora de socios para Ética y sociedad en Microsoft, se reúne con Sam Charrington de TWiML para conversar sobre cómo define el diseño centrado en las personas, sus conexiones con la cultura y la innovación responsable, y cómo implementar estas ideas en grandes organizaciones de ingeniería.

Impactos sociales de la inteligencia artificial
El Dr. Fernando Ceballos, director de investigación principal en Microsoft Research Montreal, comparte sus conocimientos sobre los tipos de preguntas que tenemos que formularnos sobre la inteligencia artificial y su impacto en la sociedad.

Historias del laboratorio de criptografía
La Dra. Kristin Lauter explica cómo el cifrado homomórfico (parte del campo de la IA privada) nos permite trabajar con los datos más confidenciales y mantenerlos protegidos a la vez.

La IA bajo la mira
La Dra. Kate Crawford habla sobre las promesas y los problemas de la IA, por qué ser más grande no es necesariamente mejor y cómo podemos adoptar principios de diseño de IA que permitan que las personas conformen sus herramientas técnicas.