A API Extract Inappropriate Language é projetada para identificar, analisar e censurar linguagem ofensiva ou inadequada em textos. Seu principal objetivo é garantir ambientes digitais mais seguros, respeitosos e apropriados para todos os tipos de públicos, especialmente em plataformas onde os usuários geram conteúdo, como redes sociais, fóruns, chats, videogames ou aplicações educacionais.
Esta API funciona realizando uma análise semântica e contextual do texto. Quando uma string de conteúdo é enviada, o sistema a examina palavra por palavra, detectando correspondências com um banco de dados atualizado de expressões ofensivas em diferentes idiomas e variações ortográficas. O resultado inclui informações detalhadas, como o número total de palavras inadequadas encontradas, sua posição exata dentro do texto, quaisquer desvios ortográficos e o nível de gravidade de cada termo.
Além da análise, a API oferece funcionalidade de censura automática gerando um campo chamado censored_content, que substitui as palavras detectadas por símbolos (por exemplo, “****”). Isso permite que os desenvolvedores integrem facilmente a versão filtrada do texto sem interromper o fluxo de comunicação ou expor conteúdo sensível.
Outra vantagem é a personalização: é possível adaptar o nível de sensibilidade de acordo com o contexto ou público-alvo, expandindo ou reduzindo a lista de palavras censuradas. Também pode ser integrada a sistemas de moderação automática, painéis de administração ou inteligência artificial para aprendizado seguro de linguagem.
Em suma, esta API não apenas atua como um filtro de palavrões, mas como um sistema completo de moderação linguística. Sua implementação contribui para melhorar a convivência digital, reduzir o assédio online e proteger a reputação das plataformas que a utilizam, oferecendo um equilíbrio entre liberdade de expressão e comunicação respeitosa.
Detecta e censura linguagem ofensiva em textos retornando análise detalhada com o número a posição e a substituição de palavras inadequadas para moderação automática
Censura - Recursos do endpoint
| Objeto | Descrição |
|---|---|
Corpo da requisição |
[Obrigatório] Json |
{"content": "shit", "bad_words_total": 1, "bad_words_list": [{"original": "shit", "word": "shit", "deviations": 0, "info": 2, "start": 0, "end": 4, "replacedLen": 4}], "censored_content": "****"}
curl --location --request POST 'https://zylalabs.com/api/11025/extract+inappropriate+language+api/20769/censure' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw 'shit'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint de Censura retorna um objeto JSON contendo o conteúdo original, o número total de palavras ofensivas detectadas, uma lista dessas palavras com seus detalhes e uma versão censurada do conteúdo Isso permite que os desenvolvedores entendam a extensão da linguagem inadequada e forneçam uma saída filtrada
Os campos principais na resposta incluem `content` (texto original), `bad_words_total` (contagem de palavras ofensivas), `bad_words_list` (detalhes de cada palavra detectada) e `censored_content` (texto com palavras ofensivas substituídas) Esses campos fornecem insights abrangentes para moderação
Os dados de resposta são estruturados como um objeto JSON. Inclui um objeto principal com campos para o conteúdo original, total de palavras ofensivas, uma lista de palavras detectadas (com detalhes) e a versão censurada. Essa organização facilita a análise e a integração em aplicações
O endpoint de Censura aceita parâmetros como o texto a ser analisado e configurações opcionais para níveis de sensibilidade Os usuários podem personalizar suas solicitações especificando o contexto ou o público para ajustar os critérios de filtragem de acordo com suas necessidades
Os usuários podem utilizar os dados retornados analisando a `bad_words_list` para entender quais termos foram sinalizados e sua gravidade O `censored_content` pode ser usado diretamente para exibir texto filtrado garantindo uma comunicação respeitosa enquanto mantém o contexto
Os casos de uso típicos incluem moderar conteúdo gerado por usuários em mídias sociais fóruns e aplicativos de chat além de garantir uma linguagem apropriada em ferramentas educacionais e videogames Ajuda a manter um ambiente respeitoso em várias plataformas
A precisão dos dados é mantida através de atualizações contínuas no banco de dados de palavras ofensivas, que inclui várias línguas e variações de grafia. Revisões regulares e feedback da comunidade ajudam a garantir que a lista permaneça relevante e eficaz na detecção de linguagem inadequada
Padrões de dados padrão incluem uma identificação clara de palavras ofensivas, suas posições dentro do texto e os níveis de severidade atribuídos a cada termo Os usuários podem esperar uma formatação consistente na resposta, tornando fácil a integração e análise dos resultados
Nível de serviço:
100%
Tempo de resposta:
301ms
Nível de serviço:
100%
Tempo de resposta:
255ms
Nível de serviço:
100%
Tempo de resposta:
111ms
Nível de serviço:
100%
Tempo de resposta:
888ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
716ms
Nível de serviço:
100%
Tempo de resposta:
360ms
Nível de serviço:
100%
Tempo de resposta:
327ms
Nível de serviço:
100%
Tempo de resposta:
752ms
Nível de serviço:
100%
Tempo de resposta:
170ms
Nível de serviço:
100%
Tempo de resposta:
238ms
Nível de serviço:
100%
Tempo de resposta:
1.320ms
Nível de serviço:
100%
Tempo de resposta:
3.519ms
Nível de serviço:
100%
Tempo de resposta:
764ms
Nível de serviço:
100%
Tempo de resposta:
6.234ms
Nível de serviço:
100%
Tempo de resposta:
801ms
Nível de serviço:
100%
Tempo de resposta:
2.507ms
Nível de serviço:
100%
Tempo de resposta:
7.153ms
Nível de serviço:
100%
Tempo de resposta:
1.249ms
Nível de serviço:
100%
Tempo de resposta:
1.221ms