A API de Censura de Palavras Ofensivas foi projetada para identificar, analisar e censurar linguagem ofensiva ou inadequada dentro de textos. Seu principal objetivo é garantir ambientes digitais mais seguros, respeitosos e apropriados para todos os tipos de públicos, especialmente em plataformas onde usuários geram conteúdo, como redes sociais, fóruns, chats, videogames ou aplicações educacionais
Esta API funciona realizando uma análise semântica e contextual do texto. Quando uma string de conteúdo é enviada, o sistema examina palavra por palavra, detectando correspondências com um banco de dados atualizado de expressões ofensivas em diferentes idiomas e variações ortográficas. O resultado inclui informações detalhadas, como o número total de palavras inadequadas encontradas, sua posição exata dentro do texto, quaisquer desvios ortográficos e o nível de gravidade de cada termo
Além da análise, a API oferece funcionalidade de censura automática gerando um campo chamado censored_content, que substitui as palavras detectadas por símbolos (por exemplo, “****”). Isso permite que os desenvolvedores integrem facilmente a versão filtrada do texto sem interromper o fluxo de comunicação ou expor conteúdo sensível
Outra vantagem é a personalização: é possível adaptar o nível de sensibilidade de acordo com o contexto ou público-alvo, ampliando ou reduzindo a lista de palavras censuradas. Também pode ser integrada a sistemas de moderação automática, painéis de administração ou inteligência artificial para o aprendizado de linguagem seguro
Em resumo, esta API não apenas atua como um filtro de palavrões, mas como um sistema completo de moderação linguística. Sua implementação contribui para melhorar a convivência digital, reduzir o assédio online e proteger a reputação das plataformas que a utilizam, oferecendo um equilíbrio entre liberdade de expressão e comunicação respeitosa
Detecta e censura linguagem ofensiva em textos retornando análise detalhada com o número a posição e a substituição de palavras inadequadas para moderação automática
Censura - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"content": "shit", "bad_words_total": 1, "bad_words_list": [{"original": "shit", "word": "shit", "deviations": 0, "info": 2, "start": 0, "end": 4, "replacedLen": 4}], "censored_content": "****"}
curl --location --request POST 'https://zylalabs.com/api/11005/bad+words+censure+api/20741/censure' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw 'shit'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint de Censura retorna um objeto JSON contendo o conteúdo original, o número total de palavras ofensivas detectadas, uma lista dessas palavras com seus detalhes e uma versão censurada do conteúdo Isso permite que os desenvolvedores entendam a extensão da linguagem inadequada e forneçam uma saída filtrada
Os campos-chave na resposta incluem `content` (texto original), `bad_words_total` (contagem de palavras ofensivas), `bad_words_list` (detalhes de cada palavra detectada) e `censored_content` (texto com palavras ofensivas substituídas). Esses campos fornecem insights abrangentes para moderação
Os dados da resposta estão estruturados como um objeto JSON. Inclui um objeto principal com campos para o conteúdo original, total de palavras ofensivas, uma lista de palavras detectadas (com detalhes) e a versão censurada. Esta organização facilita a análise e a integração em aplicações
O endpoint de Censura aceita parâmetros como o texto a ser analisado e configurações opcionais para níveis de sensibilidade. Os usuários podem personalizar suas solicitações especificando o contexto ou o público para ajustar os critérios de filtragem de acordo com suas necessidades
Os usuários podem utilizar os dados retornados analisando a `bad_words_list` para entender quais termos foram sinalizados e sua gravidade O `censored_content` pode ser usado diretamente para exibir texto filtrado garantindo uma comunicação respeitosa enquanto mantém o contexto
Casos de uso típicos incluem moderar conteúdo gerado por usuários em redes sociais fóruns e aplicativos de chat bem como garantir linguagem apropriada em ferramentas educacionais e videogames Isso ajuda a manter um ambiente respeitoso em várias plataformas
A precisão dos dados é mantida por meio de atualizações contínuas no banco de dados de palavras ofensivas, que inclui várias línguas e variações de grafia. Revisões regulares e feedback da comunidade ajudam a garantir que a lista permaneça relevante e eficaz na detecção de linguagem inadequada
Padrões de dados padrão incluem uma identificação clara de palavras ofensivas, suas posições dentro do texto e os níveis de severidade atribuídos a cada termo. Os usuários podem esperar formatação consistente na resposta, facilitando a integração e a análise dos resultados
Nível de serviço:
100%
Tempo de resposta:
332ms
Nível de serviço:
100%
Tempo de resposta:
21ms
Nível de serviço:
100%
Tempo de resposta:
301ms
Nível de serviço:
100%
Tempo de resposta:
280ms
Nível de serviço:
100%
Tempo de resposta:
264ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
270ms
Nível de serviço:
100%
Tempo de resposta:
324ms
Nível de serviço:
100%
Tempo de resposta:
99ms
Nível de serviço:
100%
Tempo de resposta:
170ms
Nível de serviço:
100%
Tempo de resposta:
709ms
Nível de serviço:
100%
Tempo de resposta:
349ms
Nível de serviço:
100%
Tempo de resposta:
580ms
Nível de serviço:
100%
Tempo de resposta:
642ms
Nível de serviço:
100%
Tempo de resposta:
99ms
Nível de serviço:
100%
Tempo de resposta:
817ms
Nível de serviço:
100%
Tempo de resposta:
2.316ms
Nível de serviço:
100%
Tempo de resposta:
582ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
950ms