A API de Detecção de Palavras Ofensivas é projetada para identificar, analisar e censurar linguagem ofensiva ou inadequada dentro de textos. Seu principal objetivo é garantir ambientes digitais mais seguros, respeitosos e apropriados para todos os tipos de público, especialmente em plataformas onde os usuários geram conteúdo, como redes sociais, fóruns, chats, videogames ou aplicações educacionais.
Essa API funciona realizando uma análise semântica e contextual do texto. Quando uma string de conteúdo é enviada, o sistema a examina palavra por palavra, detectando correspondências com um banco de dados atualizado de expressões ofensivas em diferentes idiomas e variações ortográficas. O resultado inclui informações detalhadas, como o número total de palavras inadequadas encontradas, sua posição exata dentro do texto, quaisquer desvios ortográficos e o nível de gravidade de cada termo.
Além da análise, a API oferece funcionalidade de censura automática gerando um campo chamado censored_content, que substitui palavras detectadas por símbolos (por exemplo, “****”). Isso permite que os desenvolvedores integrem facilmente a versão filtrada do texto sem interromper o fluxo de comunicação ou expor conteúdo sensível.
Outra vantagem é a personalização: é possível adaptar o nível de sensibilidade de acordo com o contexto ou público-alvo, expandindo ou reduzindo a lista de palavras censuradas. Também pode ser integrada a sistemas de moderação automática, painéis de administração ou inteligência artificial para aprendizado seguro de linguagem.
Em resumo, esta API não apenas atua como um filtro de palavrões, mas como um sistema completo de moderação linguística. Sua implementação contribui para melhorar a convivência digital, reduzindo o assédio online e protegendo a reputação das plataformas que a utilizam, oferecendo um equilíbrio entre liberdade de expressão e comunicação respeitosa.
Detecta e censura linguagem ofensiva em textos retornando análise detalhada com o número posição e substituição de palavras inadequadas para moderação automática
Censura - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"content": "shit", "bad_words_total": 1, "bad_words_list": [{"original": "shit", "word": "shit", "deviations": 0, "info": 2, "start": 0, "end": 4, "replacedLen": 4}], "censored_content": "****"}
curl --location --request POST 'https://zylalabs.com/api/11024/bad+words+detection+api/20770/censure' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw 'shit'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint de Censura retorna um objeto JSON contendo o conteúdo original o número total de palavras ofensivas detectadas uma lista dessas palavras com seus detalhes e uma versão censurada do conteúdo Isso permite que os desenvolvedores entendam a extensão da linguagem inadequada e forneçam uma saída filtrada
Os campos principais na resposta incluem `content` (texto original) `bad_words_total` (contagem de palavras ofensivas) `bad_words_list` (detalhes de cada palavra detectada) e `censored_content` (texto com palavras ofensivas substituídas) Esses campos fornecem insights abrangentes para moderação
Os dados de resposta estão estruturados como um objeto JSON Inclui um objeto principal com campos para o conteúdo original total de palavras ofensivas uma lista de palavras detectadas com detalhes e a versão censurada Essa organização facilita a análise e integração em aplicações
O endpoint de Censura aceita parâmetros como o texto a ser analisado e configurações opcionais para níveis de sensibilidade Os usuários podem personalizar suas solicitações especificando o contexto ou público para ajustar os critérios de filtragem de acordo com suas necessidades
Os usuários podem utilizar os dados retornados analisando a `bad_words_list` para entender quais termos foram sinalizados e sua gravidade O `censored_content` pode ser usado diretamente para exibir texto filtrado garantindo comunicação respeitosa enquanto mantém o contexto
Casos de uso típicos incluem moderar conteúdo gerado por usuários em redes sociais fóruns e aplicativos de chat além de garantir uma linguagem apropriada em ferramentas educacionais e videogames Ajuda a manter um ambiente respeitoso em várias plataformas
A precisão dos dados é mantida através de atualizações contínuas no banco de dados de palavras ofensivas, que inclui várias línguas e variações de grafia. Revisões regulares e feedback da comunidade ajudam a garantir que a lista permaneça relevante e eficaz na detecção de linguagem inadequada
Padrões de dados padrão incluem uma identificação clara de palavras ofensivas, suas posições dentro do texto e os níveis de severidade atribuídos a cada termo Os usuários podem esperar uma formatação consistente na resposta, facilitando a integração e a análise dos resultados
Nível de serviço:
100%
Tempo de resposta:
2.258ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
580ms
Nível de serviço:
100%
Tempo de resposta:
582ms
Nível de serviço:
100%
Tempo de resposta:
904ms
Nível de serviço:
100%
Tempo de resposta:
831ms
Nível de serviço:
100%
Tempo de resposta:
377ms
Nível de serviço:
100%
Tempo de resposta:
2.201ms
Nível de serviço:
100%
Tempo de resposta:
301ms
Nível de serviço:
100%
Tempo de resposta:
5.657ms
Nível de serviço:
100%
Tempo de resposta:
20ms
Nível de serviço:
100%
Tempo de resposta:
7.306ms
Nível de serviço:
100%
Tempo de resposta:
19ms
Nível de serviço:
100%
Tempo de resposta:
17ms
Nível de serviço:
100%
Tempo de resposta:
2.872ms
Nível de serviço:
100%
Tempo de resposta:
2.907ms
Nível de serviço:
100%
Tempo de resposta:
3.148ms
Nível de serviço:
100%
Tempo de resposta:
3.246ms
Nível de serviço:
100%
Tempo de resposta:
3.601ms
Nível de serviço:
100%
Tempo de resposta:
3.381ms