Acerca de la API:
La API de Detección de Lenguaje Ofensivo es una herramienta poderosa para identificar y marcar lenguaje ofensivo en contenido generado por usuarios. Utiliza tecnología avanzada de comprensión del lenguaje para detectar con precisión una amplia gama de groserías y toxicidades, incluyendo toxicidades severas, textos obscenos, insultos, amenazas y odio basado en la identidad. Esta API está diseñada para ayudar a organizaciones y negocios a gestionar el contenido generado por los usuarios en sus plataformas, identificando y eliminando lenguaje potencialmente dañino.
La API es fácil de usar y se puede integrar en cualquier aplicación o plataforma que permita contenido generado por usuarios. Una vez integrada, la API puede detectar y marcar automáticamente el lenguaje ofensivo, facilitando a los moderadores la revisión y la toma de acciones apropiadas. Además, la API puede ser configurada para eliminar o censurar automáticamente el lenguaje ofensivo, proporcionando un nivel adicional de protección para usuarios y organizaciones.
La API de Detección de Lenguaje Ofensivo también puede ser utilizada para entrenar modelos de aprendizaje automático, al proporcionar un gran conjunto de datos de lenguaje ofensivo etiquetado. Esto puede ayudar a las organizaciones a mejorar la precisión de sus propios modelos para detectar lenguaje ofensivo.
En general, la API de Detección de Lenguaje Ofensivo es una herramienta valiosa para cualquier organización o negocio que necesite gestionar contenido generado por usuarios. Ayuda a proteger a los usuarios y a las empresas de los efectos negativos del lenguaje ofensivo y facilita la identificación y eliminación de contenido dañino. Con su tecnología avanzada de comprensión del lenguaje, proporciona un alto nivel de precisión y fiabilidad, convirtiéndose en una herramienta confiable para gestionar contenido generado por usuarios.
Este punto final detecta profanidades, toxicidades, toxicidades severas, textos obscenos, insultos, amenazas y odio hacia la identidad en un texto dado.
Analizador de blasfemias - Características del Endpoint
| Objeto | Descripción |
|---|---|
text |
[Requerido] |
{"semantic_analysis":{"0":{"id_semantic_model":1,"name_semantic_model":"profanity_words","segment":"Cunt"},"1":{"id_semantic_model":2,"name_semantic_model":"toxic","segment":"Cunt"},"2":{"id_semantic_model":4,"name_semantic_model":"obscene","segment":"Cunt"}}}
curl --location --request POST 'https://zylalabs.com/api/1060/profanity+detection+api/930/profanity+analyzer?text=Required' --header 'Authorization: Bearer YOUR_API_KEY'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
El endpoint del Analizador de Profanidades devuelve un objeto JSON que contiene los resultados del análisis, incluyendo las profanidades identificadas, toxicidades y otros tipos de lenguaje dañino presentes en el texto de entrada.
Los campos clave en los datos de respuesta típicamente incluyen "análisis_semántico," que proporciona información detallada sobre los tipos de lenguaje dañino detectado, como blasfemias, insultos y amenazas.
Los datos de respuesta están organizados en un formato JSON estructurado. Incluye objetos anidados que categorizan el lenguaje dañino identificado, lo que permite a los usuarios analizar y utilizar la información fácilmente.
El endpoint del Analizador de Groserías acepta parámetros como "texto" (el contenido de entrada a analizar) y configuraciones opcionales para niveles de sensibilidad o filtros de idioma específicos para personalizar el análisis.
Los datos para la detección de profanidades se obtienen de una combinación de bases de datos lingüísticas, contenido generado por usuarios y modelos de aprendizaje automático entrenados en conjuntos de datos diversos para garantizar una cobertura completa del lenguaje ofensivo.
La precisión de los datos se mantiene a través del entrenamiento continuo del modelo, la validación contra ejemplos del mundo real y actualizaciones regulares de los modelos de lenguaje subyacentes para adaptarse al uso del lenguaje y la jerga en evolución.
Los casos de uso típicos incluyen moderar contenido generado por usuarios en redes sociales, filtrar lenguaje ofensivo en chatbots y asegurar una comunicación respetuosa en comunidades de juegos e interacciones de servicio al cliente.
Los usuarios pueden utilizar los datos devueltos implementando acciones de moderación basadas en el lenguaje dañino identificado, como marcar contenido para revisión, censurar automáticamente términos ofensivos o ajustar interacciones de los usuarios en tiempo real.
Nivel de Servicio:
100%
Tiempo de Respuesta:
2.258ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
582ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.079ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
607ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
831ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
580ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
324ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
173ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
327ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
280ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
237ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
152ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.708ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
104ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
748ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
164ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
8.658ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
354ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
264ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
302ms