Sobre a API:
A API de Detecção de Linguagem Ofensiva é uma ferramenta poderosa para identificar e sinalizar linguagem ofensiva em conteúdo gerado por usuários. Ela utiliza tecnologia avançada de compreensão de linguagem para detectar com precisão uma ampla gama de palavrões e toxicidades, incluindo toxicidades severas, textos obscenos, insultos, ameaças e ódio baseado em identidade. Esta API foi projetada para ajudar organizações e empresas a gerenciar conteúdo gerado por usuários em suas plataformas, identificando e removendo linguagem potencialmente prejudicial.
A API é fácil de usar e pode ser integrada a qualquer aplicativo ou plataforma que permita conteúdo gerado por usuários. Uma vez integrada, a API pode detectar automaticamente e sinalizar linguagem ofensiva, facilitando para os moderadores revisarem e tomarem ações apropriadas. Além disso, a API pode ser configurada para remover ou censurar automaticamente linguagem ofensiva, proporcionando um nível adicional de proteção para usuários e organizações.
A API de Detecção de Linguagem Ofensiva também pode ser usada para treinar modelos de aprendizado de máquina, fornecendo um grande conjunto de dados de linguagem ofensiva rotulada. Isso pode ajudar as organizações a melhorar a precisão de seus próprios modelos para detectar linguagem ofensiva.
De forma geral, a API de Detecção de Linguagem Ofensiva é uma ferramenta valiosa para qualquer organização ou empresa que precisa gerenciar conteúdo gerado por usuários. Ela ajuda a proteger usuários e empresas dos efeitos negativos da linguagem ofensiva e facilita a identificação e remoção de conteúdo prejudicial. Com sua tecnologia avançada de compreensão de linguagem, ela oferece um alto nível de precisão e confiabilidade, tornando-se uma ferramenta confiável para gerenciar conteúdo gerado por usuários.
Este endpoint detecta profanidades, toxicidades, toxicidades severas, textos obscenos, insultos, ameaças e ódio à identidade em um texto dado
Analisador de Profanidade - Recursos do endpoint
| Objeto | Descrição |
|---|---|
text |
[Obrigatório] |
{"semantic_analysis":{"0":{"id_semantic_model":1,"name_semantic_model":"profanity_words","segment":"Cunt"},"1":{"id_semantic_model":2,"name_semantic_model":"toxic","segment":"Cunt"},"2":{"id_semantic_model":4,"name_semantic_model":"obscene","segment":"Cunt"}}}
curl --location --request POST 'https://zylalabs.com/api/1060/profanity+detection+api/930/profanity+analyzer?text=Required' --header 'Authorization: Bearer YOUR_API_KEY'
| Cabeçalho | Descrição |
|---|---|
Authorization
|
[Obrigatório] Deve ser Bearer access_key. Veja "Sua chave de acesso à API" acima quando você estiver inscrito. |
Sem compromisso de longo prazo. Faça upgrade, downgrade ou cancele a qualquer momento. O teste gratuito inclui até 50 requisições.
O endpoint do Analisador de Profanidade retorna um objeto JSON contendo os resultados da análise, incluindo profanidades identificadas, toxicidades e outros tipos de linguagem prejudicial presentes no texto de entrada
Os campos-chave nos dados de resposta geralmente incluem "análise_semântica" que fornece informações detalhadas sobre os tipos de linguagem prejudicial detectada como profanidades insultos e ameaças
Os dados da resposta estão organizados em um formato JSON estruturado Inclui objetos aninhados que categorizam a linguagem prejudicial identificada permitindo que os usuários analisem e utilizem facilmente as informações
O endpoint do Analisador de Profanidade aceita parâmetros como "texto" (o conteúdo de entrada a ser analisado) e configurações opcionais para níveis de sensibilidade ou filtros de linguagem específicos para personalizar a análise
Os dados para detecção de profanidade são provenientes de uma combinação de bancos de dados linguísticos, conteúdo gerado por usuários e modelos de aprendizado de máquina treinados em conjuntos de dados diversos para garantir uma cobertura abrangente da linguagem ofensiva
A precisão dos dados é mantida através de treinamento contínuo do modelo validação em relação a exemplos do mundo real e atualizações regulares dos modelos de linguagem subjacentes para se adaptar ao uso evolutivo da linguagem e gíria
Os casos de uso típicos incluem moderar conteúdo gerado por usuários em mídias sociais filtrar linguagem ofensiva em chatbots e garantir comunicação respeitosa em comunidades de jogos e interações de atendimento ao cliente
Os usuários podem utilizar os dados retornados implementando ações de moderação com base na linguagem prejudicial identificada como sinalizar conteúdo para revisão censurar automaticamente termos ofensivos ou ajustar interações de usuários em tempo real
Nível de serviço:
100%
Tempo de resposta:
716ms
Nível de serviço:
100%
Tempo de resposta:
2.128ms
Nível de serviço:
100%
Tempo de resposta:
582ms
Nível de serviço:
100%
Tempo de resposta:
255ms
Nível de serviço:
100%
Tempo de resposta:
132ms
Nível de serviço:
100%
Tempo de resposta:
325ms
Nível de serviço:
100%
Tempo de resposta:
204ms
Nível de serviço:
100%
Tempo de resposta:
921ms
Nível de serviço:
100%
Tempo de resposta:
1.079ms
Nível de serviço:
100%
Tempo de resposta:
2.258ms
Nível de serviço:
100%
Tempo de resposta:
4.351ms
Nível de serviço:
100%
Tempo de resposta:
3.098ms
Nível de serviço:
100%
Tempo de resposta:
3.273ms
Nível de serviço:
100%
Tempo de resposta:
4.532ms
Nível de serviço:
100%
Tempo de resposta:
2.856ms
Nível de serviço:
100%
Tempo de resposta:
1.128ms
Nível de serviço:
100%
Tempo de resposta:
395ms
Nível de serviço:
100%
Tempo de resposta:
168ms
Nível de serviço:
100%
Tempo de resposta:
4.079ms
Nível de serviço:
100%
Tempo de resposta:
689ms