Microsoft expande acesso ao Azure AI Content Safety
Mais organizações podem detetar conteúdo ofensivo ou inapropriado em texto e imagens de forma rápida e eficiente.
A Microsoft anuncia a disponibilidade geral da plataforma Azure AI Content Safety.
Através desta plataforma, agora disponível ao público em geral, mais organizações podem detetar conteúdo ofensivo ou inapropriado em texto e imagens “de forma rápida e eficiente”.
Quando os modelos avançados de linguagem e visão detetam conteúdo potencialmente inseguro ou inapropriado, atribuem automaticamente classificações de gravidade em tempo real.
Estes indicadores permitem que empresas e organizações adaptem o serviço para bloquear ou sinalizar conteúdos com base nas suas políticas.
Eric Boyd, corporate, Vice-Presidente da AI Platform da Microsoft, afirma que “à medida que a IA generativa se torna mainstream, a Microsoft pretende equipar as empresas com as ferramentas necessárias para a implementar de forma mais segura”.
“Estamos num momento bastante surpreendente, em que as empresas estão a ver o incrível poder da IA generativa. Lançar o Azure AI Content Safety como um produto autónomo significa que podemos dotar uma série de organizações com as ferramentas essenciais para o negócio”, refere.
Inicialmente introduzido como parte do serviço Azure OpenAI, o Azure AI Content Safety, anunciado durante o Microsoft Build 2023, em preview, é agora um sistema autónomo.
Esta democratização da plataforma significa que as organizações podem usá-la para conteúdo gerado por IA a partir de modelos de código aberto e modelos de outras empresas, bem como para conteúdo gerado pelo utilizador como parte dos seus sistemas, expandindo a sua utilidade.