▾ G11 Media Network: | ChannelCity | ImpresaCity | SecurityOpenLab | GreenCity | Italian Channel Awards | Italian Project Awards | ...

Microsoft lancia Azure AI Content Safety, tool per rilevare in tempo reale contenuti online pericolosi

Con Azure AI Content Safety, le aziende possono rilevare e filtrare in tempo reale i contenuti online dannosi – hate speech, contenuti violenti per esempio - in base alle proprie esigenze specifiche e policy.

Trasformazione Digitale

Microsoft ha annunciato la disponibilità di Azure AI Content Safety, un nuovo strumento per l’AI responsabile, progettato per aiutare le aziende a sviluppare ambienti online sicuri, ampliando la portata dei propri sforzi in materia di AI e al contempo non mettere a rischio la fiducia dei propri clienti e utenti.

Con Azure AI Content Safety, le aziende possono rilevare e filtrare in tempo reale i contenuti online dannosi – hate speech, contenuti violenti per esempio - in base alle proprie esigenze specifiche e policy e indicare rapidamente ai team che si occupano della moderazione di contenuti quali di questi necessitino di attenzione immediata. Con la crescente diffusione dell'intelligenza artificiale generativa che consente alle persone di creare una maggiore quantità di contenuti, organizzazioni clienti di Microsoft nel mondo stanno già implementando queste funzionalità per la moderazione delle informazioni in ambiti quali i social media e l'istruzione. L’introduzione di questo tool è un esempio di come gli strumenti per l’AI responsabile di Microsoft stiano abilitando e supportando le organizzazioni nel costruire la prossima generazione di app di AI in modo responsabile.

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di ImpresaCity.it iscriviti alla nostra Newsletter gratuita.

Notizie correlate

Iscriviti alla nostra newsletter

Soluzioni B2B per il Mercato delle Imprese e per la Pubblica Amministrazione

Iscriviti alla newsletter