Microsoft Standard per l'uso dell'intelligenza artificiale responsabile
Definire ciò che è importante
Equità
In che modo un sistema di intelligenza artificiale può assegnare opportunità, risorse e informazioni in modo imparziale agli esseri umani che la usano?
Affidabilità e sicurezza
In che modo un sistema può funzionare bene per le persone in diverse condizioni e contesti d'uso, inclusi quelli per cui non era stato originariamente destinato?
Privacy e sicurezza
In che modo è possibile progettare un sistema per garantire privacy e sicurezza?
Inclusività
I sistemi di intelligenza artificiale devono offrire maggiori opportunità e coinvolgere tutti, indipendentemente dal loro background.
In che modo si può progettare un sistema inclusivo per persone con ogni tipo di abilità?
Trasparenza
Come è possibile garantire che le persone comprendano correttamente le funzionalità di un sistema?
Responsabilità
Le persone devono essere responsabili dell'uso dei sistemi di intelligenza artificiale.
Come possiamo creare una supervisione in modo che gli esseri umani possano essere responsabili e in controllo?
Come Microsoft implementa l'intelligenza artificiale responsabile
Il report Microsoft sulla trasparenza dell'IA responsabile 2025
- Crea sistemi di intelligenza artificiale generativi in modo responsabile.
- Prende decisioni sul rilascio di questi sistemi.
- Aiuta i clienti a creare l'intelligenza artificiale in modo responsabile.
- Evolve il programma di intelligenza artificiale responsabile.
Documenti sulla trasparenza
Rilevamento anomalie
Sicurezza dei contenuti nel piano di controllo Foundry
Servizio Viso di Azure AI
Azure AI Search
Elaborazione lingua di Azure in Foundry Tools
Azure OpenAI in Modelli di Foundry
Video Indexer di Azure
Comprensione del linguaggio di conversazione
Domande frequenti
-
I principi di intelligenza artificiale sono linee guida progettate per garantire lo sviluppo e l'implementazione responsabile delle tecnologie di intelligenza artificiale. Questi principi sono fondamentali perché aiutano a mitigare i rischi, promuovere pratiche etiche e massimizzare i vantaggi dell'intelligenza artificiale per la società.
Standard per l'uso dell'intelligenza artificiale responsabile di Microsoft consolida le procedure essenziali per garantire la conformità alle leggi e regolamenti emergenti in materia di intelligenza artificiale.
- Microsoft offre una gamma di strumenti e procedure per aiutare le organizzazioni a implementare un'intelligenza artificiale responsabile.
Inoltre, lo Standard per l'uso dell'intelligenza artificiale responsabile di Microsoft consente di definire i requisiti di sviluppo del prodotto per l'intelligenza artificiale responsabile. - Le note sulla trasparenza vengono create per aiutare i clienti a comprendere meglio il funzionamento interno delle tecnologie di intelligenza artificiale e a prendere decisioni più consapevoli sul loro utilizzo. Fanno parte dello Standard per l'uso dell'intelligenza artificiale responsabile e sono progettati per supportare lo sviluppo dell'intelligenza artificiale responsabile fornendo informazioni dettagliate su come i sistemi di intelligenza artificiale sono regolati, mappati, misurati e gestiti.
Microsoft offre anche il Report sulla trasparenza dell'intelligenza artificiale responsabile, che fornisce informazioni dettagliate sul modo in cui Microsoft crea applicazioni con IA generativa, supervisiona la distribuzione di tali applicazioni, supporta i clienti nella creazione delle proprie app basate su intelligenza artificiale e promuove una community dedicata all'intelligenza artificiale responsabile.
Segui Microsoft