A API de Detecção de Texto Inadequado é uma ferramenta poderosa para identificar e sinalizar conteúdo potencialmente ofensivo ou inadequado em textos. Ela utiliza algoritmos de aprendizado de máquina para detectar e filtrar com precisão palavrões, discurso de ódio e outras formas de conteúdo prejudicial, ajudando empresas e organizações a manter uma comunicação online segura e respeitosa. A API foi projetada para ser fácil de integrar em sistemas existentes, oferecendo resultados rápidos e confiáveis.
Com a crescente preocupação sobre o cyberbullying, discurso de ódio e outras formas de assédio online, a API de Detecção de Texto Inadequado é uma ferramenta crucial para empresas e organizações que buscam promover uma comunicação online segura e respeitosa. Seja usada para monitorar postagens em redes sociais, comentários ou outras formas de texto online, a API foi projetada para identificar rapidamente e com precisão conteúdo potencialmente ofensivo.
A API utiliza algoritmos avançados de aprendizado de máquina para analisar texto em tempo real, sinalizando automaticamente conteúdo potencialmente inadequado para revisão por um moderador humano. Isso não apenas economiza tempo e recursos, mas também garante que conteúdos prejudiciais sejam identificados e removidos de forma rápida e eficaz.
De modo geral, a API de Detecção de Texto Inadequado é uma ferramenta essencial para empresas e organizações que buscam promover uma comunicação online segura e respeitosa. Seja você uma plataforma de redes sociais, uma empresa de jogos ou um negócio com uma grande presença online, esta API pode ajudar a proteger seus usuários e manter um ambiente online seguro e respeitoso.
Envie o texto que você deseja analisar e receba sua porcentagem de inadequação.
Plataformas de Mídia Social: Plataformas de mídia social podem usar a API para monitorar conteúdo gerado pelo usuário e sinalizar postagens, comentários ou mensagens potencialmente ofensivas. Isso ajuda a garantir uma comunidade online segura e respeitosa e previne o cyberbullying e outras formas de assédio online.
Empresas de Jogos: Empresas de jogos podem usar a API para monitorar o chat dentro do jogo e sinalizar linguagem potencialmente inadequada ou ofensiva. Isso ajuda a manter uma experiência de jogo positiva para todos os jogadores e prevenir assédio e discurso de ódio.
Atendimento ao Cliente: Empresas podem usar a API para monitorar interações com clientes e sinalizar mensagens potencialmente inadequadas ou ofensivas. Isso ajuda a manter um atendimento ao cliente profissional e respeitoso e prevenir situações que poderiam prejudicar a reputação da empresa.
Veículos de Comunicação: Veículos de comunicação podem usar a API para monitorar conteúdo gerado pelo usuário e sinalizar comentários potencialmente ofensivos. Isso ajuda a manter uma comunidade online segura e respeitosa para discussão de eventos atuais.
Mercados Online: Mercados online podem usar a API para monitorar avaliações de produtos e sinalizar linguagem potencialmente inadequada ou ofensiva. Isso ajuda a manter um mercado profissional e respeitoso e prevenir situações que poderiam prejudicar a reputação da empresa.
Instituições de Ensino: Instituições de ensino podem usar a API para monitorar interações entre alunos e sinalizar linguagem potencialmente inadequada ou ofensiva. Isso ajuda a manter um ambiente de aprendizado seguro e respeitoso e prevenir bullying e assédio.
Além das limitações de chamadas da API por mês, não há outra limitação.
Você pode passar qualquer texto simples para a API do detector de profanidade para ser examinado quanto a palavrões. Você também pode especificar quão sensível gostaria que o detector de profanidade fosse. Funciona apenas com conteúdo em inglês
Detector - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"request_id":"bfb738cd-b0b3-4f8f-a72c-fcc07a04f496","overall_score":0.0071,"classification":"non_toxic","confidence":0.9929,"category_scores":{"toxic":0.0071,"severe_toxic":0.0036,"obscene":0.0044,"threat":0.0057,"insult":0.0048,"identity_hate":0.0052}}
curl --location --request POST 'https://zylalabs.com/api/1216/inappropriate+text+detection+api/1056/detector' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "This is an example comment to analyze."
}'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint do Detector POST retorna um objeto JSON contendo informações sobre profanidades detectadas no texto enviado Ele inclui campos como "profanidades" "contagem_de_profanidades" "referência_do_servidor" "resultado" e "timestamp_da_resposta"
Os campos-chave na resposta incluem "palavrões" (um array de palavrões detectados), "contagem_de_palavrões" (o número total de palavrões encontrados), "resultado" (indicando sucesso ou fracasso) e "timestamp_da_resposta" (a hora da resposta)
Os dados da resposta estão estruturados como um objeto JSON. Ele contém campos aninhados que fornecem informações detalhadas sobre a análise, incluindo matrizes para as profanidades detectadas e contagens numéricas para uma fácil interpretação
Os usuários podem passar texto simples para análise e especificar o nível de sensibilidade da detecção de profanidades. Os níveis de sensibilidade podem ser ajustados para aumentar ou diminuir a rigidez do processo de detecção
Os usuários podem personalizar solicitações ajustando o parâmetro de sensibilidade ao enviar texto Isso permite uma detecção personalizada com base no contexto ou público garantindo uma moderação de conteúdo apropriada
Casos de uso típicos incluem monitorar postagens em redes sociais em busca de linguagem ofensiva filtrar chat dentro do jogo em plataformas de jogos e garantir interações respeitosas com os clientes em comunicações de serviço
A precisão dos dados é mantida por meio de algoritmos avançados de aprendizado de máquina que aprendem continuamente com novas entradas de dados Atualizações e treinamentos regulares melhoram a capacidade do modelo de detectar conteúdo inadequado de forma eficaz
Se a resposta contiver um array "profanidades" vazio, isso indica que nenhum conteúdo inadequado foi detectado. Os usuários devem implementar lógica para lidar com esses casos, possivelmente registrando ou notificando moderadores para revisão adicional, se necessário
Nível de serviço:
100%
Tempo de resposta:
580ms
Nível de serviço:
100%
Tempo de resposta:
2.201ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
111ms
Nível de serviço:
100%
Tempo de resposta:
170ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
324ms
Nível de serviço:
100%
Tempo de resposta:
582ms
Nível de serviço:
100%
Tempo de resposta:
204ms
Nível de serviço:
100%
Tempo de resposta:
301ms
Nível de serviço:
44%
Tempo de resposta:
496ms
Nível de serviço:
100%
Tempo de resposta:
425ms
Nível de serviço:
100%
Tempo de resposta:
84ms
Nível de serviço:
100%
Tempo de resposta:
554ms
Nível de serviço:
100%
Tempo de resposta:
20.002ms
Nível de serviço:
100%
Tempo de resposta:
16.754ms
Nível de serviço:
100%
Tempo de resposta:
68ms
Nível de serviço:
100%
Tempo de resposta:
20.003ms
Nível de serviço:
100%
Tempo de resposta:
20.002ms
Nível de serviço:
100%
Tempo de resposta:
20.003ms