Microsoft lancia Azure AI Content Safety, tool per rilevare in tempo reale contenuti online pericolosi

Con Azure AI Content Safety, le aziende possono rilevare e filtrare in tempo reale i contenuti online dannosi – hate speech, contenuti violenti per esempio - in base alle proprie esigenze specifiche e policy.

Autore: Redazione ImpresaCity

Microsoft ha annunciato la disponibilità di Azure AI Content Safety, un nuovo strumento per l’AI responsabile, progettato per aiutare le aziende a sviluppare ambienti online sicuri, ampliando la portata dei propri sforzi in materia di AI e al contempo non mettere a rischio la fiducia dei propri clienti e utenti.

Con Azure AI Content Safety, le aziende possono rilevare e filtrare in tempo reale i contenuti online dannosi – hate speech, contenuti violenti per esempio - in base alle proprie esigenze specifiche e policy e indicare rapidamente ai team che si occupano della moderazione di contenuti quali di questi necessitino di attenzione immediata. Con la crescente diffusione dell'intelligenza artificiale generativa che consente alle persone di creare una maggiore quantità di contenuti, organizzazioni clienti di Microsoft nel mondo stanno già implementando queste funzionalità per la moderazione delle informazioni in ambiti quali i social media e l'istruzione. L’introduzione di questo tool è un esempio di come gli strumenti per l’AI responsabile di Microsoft stiano abilitando e supportando le organizzazioni nel costruire la prossima generazione di app di AI in modo responsabile.


Visualizza la versione completa sul sito

Informativa
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la cookie policy. Chiudendo questo banner, acconsenti all’uso dei cookie.