A API Extract Inappropriate Words foi projetada para identificar, analisar e censurar linguagem ofensiva ou inadequada em textos. Seu principal objetivo é garantir ambientes digitais mais seguros, respeitosos e apropriados para todos os tipos de públicos, especialmente em plataformas onde os usuários geram conteúdo, como redes sociais, fóruns, chats, videogames ou aplicações educacionais.
Esta API funciona realizando uma análise semântica e contextual do texto. Quando uma string de conteúdo é enviada, o sistema a examina palavra por palavra, detectando correspondências com um banco de dados atualizado de expressões ofensivas em diferentes idiomas e variações de grafia. O resultado inclui informações detalhadas, como o número total de palavras inadequadas encontradas, sua posição exata dentro do texto, quaisquer desvios de grafia e o nível de severidade de cada termo.
Além da análise, a API oferece funcionalidade de censura automática gerando um campo chamado censored_content, que substitui as palavras detectadas por símbolos (por exemplo, “****”). Isso permite que os desenvolvedores integrem facilmente a versão filtrada do texto sem interromper o fluxo de comunicação ou expor conteúdo sensível.
Outra vantagem é a personalização: é possível adaptar o nível de sensibilidade de acordo com o contexto ou público-alvo, expandindo ou reduzindo a lista de palavras censuradas. Também pode ser integrada com sistemas de moderação automática, painéis de administração ou inteligência artificial para o aprendizado seguro de línguas.
Em resumo, esta API não atua apenas como um filtro de palavrões, mas como um sistema completo de moderação linguística. Sua implementação contribui para melhorar a convivência digital, reduzir o assédio online e proteger a reputação das plataformas que a utilizam, oferecendo um equilíbrio entre liberdade de expressão e comunicação respeitosa.
Detecta e censura linguagem ofensiva em textos, retornando análise detalhada com o número, posição e substituição de palavras inadequadas para moderação automática
Censura - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"content": "shit", "bad_words_total": 1, "bad_words_list": [{"original": "shit", "word": "shit", "deviations": 0, "info": 2, "start": 0, "end": 4, "replacedLen": 4}], "censored_content": "****"}
curl --location --request POST 'https://zylalabs.com/api/11026/extract+inappropriate+words+api/20771/censure' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw 'shit'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint de Censura retorna um objeto JSON contendo o conteúdo original, o número total de palavras ofensivas detectadas, uma lista dessas palavras com seus detalhes e uma versão censurada do conteúdo Isso permite que os desenvolvedores entendam a extensão da linguagem inadequada e forneçam uma saída filtrada
Os campos chave na resposta incluem `content` (texto original), `bad_words_total` (contagem de palavras ofensivas), `bad_words_list` (detalhes de cada palavra detectada) e `censored_content` (texto com palavras ofensivas substituídas). Esses campos fornecem informações abrangentes para moderação
Os dados da resposta estão estruturados como um objeto JSON Inclui um objeto principal com campos para o conteúdo original total de palavras ofensivas uma lista de palavras detectadas (com detalhes) e a versão censurada Essa organização facilita a análise e integração em aplicações
O endpoint Censure aceita parâmetros como o texto a ser analisado e configurações opcionais para níveis de sensibilidade Os usuários podem personalizar suas solicitações especificando o contexto ou público para ajustar os critérios de filtragem de acordo com suas necessidades
Os usuários podem utilizar os dados retornados analisando a `bad_words_list` para entender quais termos foram sinalizados e sua gravidade O `censored_content` pode ser usado diretamente para exibir texto filtrado garantindo uma comunicação respeitosa enquanto mantém o contexto
Os casos de uso típicos incluem a moderação de conteúdo gerado por usuários em redes sociais, fóruns e aplicativos de chat, além de garantir uma linguagem apropriada em ferramentas educacionais e videogames. Isso ajuda a manter um ambiente respeitoso em várias plataformas
A precisão dos dados é mantida por meio de atualizações contínuas no banco de dados de palavras ofensivas, que inclui várias línguas e variações ortográficas. Revisões regulares e feedback da comunidade ajudam a garantir que a lista permaneça relevante e eficaz na detecção de linguagem inadequada
Padrões de dados padrão incluem uma identificação clara de palavras ofensivas, suas posições dentro do texto e os níveis de severidade atribuídos a cada termo Os usuários podem esperar formatação consistente na resposta, facilitando a integração e análise dos resultados
Nível de serviço:
100%
Tempo de resposta:
324ms
Nível de serviço:
100%
Tempo de resposta:
5.657ms
Nível de serviço:
100%
Tempo de resposta:
21ms
Nível de serviço:
100%
Tempo de resposta:
332ms
Nível de serviço:
100%
Tempo de resposta:
264ms
Nível de serviço:
100%
Tempo de resposta:
792ms
Nível de serviço:
100%
Tempo de resposta:
132ms
Nível de serviço:
100%
Tempo de resposta:
111ms
Nível de serviço:
100%
Tempo de resposta:
716ms
Nível de serviço:
100%
Tempo de resposta:
1.350ms
Nível de serviço:
100%
Tempo de resposta:
1.398ms
Nível de serviço:
100%
Tempo de resposta:
1.793ms
Nível de serviço:
100%
Tempo de resposta:
501ms
Nível de serviço:
97%
Tempo de resposta:
797ms
Nível de serviço:
100%
Tempo de resposta:
8.930ms
Nível de serviço:
100%
Tempo de resposta:
1.281ms
Nível de serviço:
100%
Tempo de resposta:
2.296ms
Nível de serviço:
100%
Tempo de resposta:
216ms
Nível de serviço:
100%
Tempo de resposta:
1.097ms
Nível de serviço:
100%
Tempo de resposta:
1.134ms