Esta API oferece um sistema avançado para detectar automaticamente linguagem ofensiva em textos, permitindo a identificação precisa de palavras inadequadas, insultos e expressões potencialmente prejudiciais. Seu principal objetivo é ajudar a avaliar textos em tempo real, melhorando a segurança e a qualidade do conteúdo gerado por usuários. Quando um texto é enviado como entrada, a API retorna uma análise estruturada que inclui vários indicadores essenciais para entender o nível de toxicidade presente na mensagem.
Um dos atributos mais importantes é isProfanity, um valor Booleano que indica se o texto contém linguagem ofensiva ou inadequada. Ela também fornece uma pontuação, uma métrica quantitativa que representa a probabilidade estimada de que o texto seja considerado profano. Esse valor é especialmente útil em ambientes onde os limiares de moderação precisam ser ajustados para diferentes contextos ou públicos.
A API também inclui um campo de severidade, que classifica o nível de severidade da linguagem detectada. Essa classificação permite diferenciar entre casos leves, como expressões coloquiais, e situações mais sérias, como insultos diretos ou linguagem altamente tóxica. Para clareza, a resposta também especifica flaggedFor, um conjunto de categorias que explica a razão exata pela qual o texto foi sinalizado, permitindo que sistemas automatizados tomem decisões mais informadas.
Analisa texto e detecta linguagem ofensiva retornando severidade pontuação categoria marcada idioma e se o conteúdo deve ser considerado profano ou inadequado
Analisador de Texto - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11451/text+content+censorship+fetch+api/21611/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint do Analisador de Texto retorna dados estruturados que incluem indicadores de linguagem ofensiva no texto analisado Os principais resultados incluem se o texto contém palavrões uma pontuação de severidade uma pontuação de risco categorias sinalizadas o idioma do texto e o dialeto identificado
Os campos principais nos dados de resposta são `isProfanity` (Booleano) `score` (numérico) `severity` (numérico) `flaggedFor` (array de categorias) `language` (string) e `dialect` (string) Esses campos fornecem informações sobre a natureza e a gravidade da linguagem ofensiva detectada
Os dados da resposta estão organizados em um formato JSON, com cada chave representando um aspecto específico da análise. Por exemplo, `isProfanity` indica se o texto é ofensivo, enquanto `flaggedFor` lista os motivos para a marcação, permitindo uma fácil análise e interpretação por sistemas automatizados
O endpoint do Analisador de Texto fornece informações sobre a presença de linguagem ofensiva níveis de severidade pontuações de risco categorias de conteúdo sinalizado e o idioma e dialeto do texto Essa análise abrangente ajuda a entender a toxicidade do conteúdo gerado pelo usuário
Os usuários podem personalizar suas solicitações de dados ajustando o texto de entrada que enviam para o endpoint do Analisador de Texto Enquanto o endpoint não aceita parâmetros adicionais o conteúdo do próprio texto pode variar para testar diferentes cenários e analisar vários tipos de linguagem
Casos de uso típicos para os dados do Analisador de Texto incluem moderação de conteúdo para plataformas de mídia social filtragem de comentários de usuários em sites aprimoramento de aplicativos de chat para prevenir assédio e garantir conformidade com diretrizes da comunidade ao identificar linguagem tóxica
A precisão dos dados é mantida por meio de atualizações contínuas nos modelos de linguagem subjacentes e avaliações regulares em relação a conjuntos de dados diversos Isso garante que a API possa reconhecer e classificar efetivamente a linguagem ofensiva em diferentes contextos e dialetos
Padrões de dados padrão na resposta incluem uma indicação clara de se o texto é profano (`isProfanity`), um escore numérico refletindo a gravidade da linguagem e uma lista de categorias em `flaggedFor` Os usuários podem esperar formatação e estrutura consistentes na resposta JSON
Nível de serviço:
100%
Tempo de resposta:
111ms
Nível de serviço:
100%
Tempo de resposta:
99ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
204ms
Nível de serviço:
100%
Tempo de resposta:
166ms
Nível de serviço:
100%
Tempo de resposta:
21ms
Nível de serviço:
100%
Tempo de resposta:
280ms
Nível de serviço:
100%
Tempo de resposta:
580ms
Nível de serviço:
100%
Tempo de resposta:
270ms
Nível de serviço:
100%
Tempo de resposta:
1.996ms