La API Safe Text está diseñada para analizar y clasificar la toxicidad en fragmentos de texto. Esta API ayuda a mantener espacios de conversación seguros y respetuosos al evaluar con precisión el contenido potencialmente dañino. Cuando se envía cualquier texto como entrada, el sistema devuelve una puntuación general de toxicidad, una clasificación clara (como "no_tóxico" o "tóxico"), y un desglose detallado por categoría, incluyendo toxicidad general, toxicidad severa, lenguaje obsceno, amenazas, insultos y odio basado en la identidad.
Gracias a modelos avanzados de procesamiento de lenguaje natural (PLN), esta API puede identificar matices sutiles en el lenguaje, detectando incluso expresiones disfrazadas de abuso, agresión pasiva o lenguaje polarizador. Cada análisis incluye niveles de confianza para apoyar decisiones automatizadas o moderación asistida por humanos.
Para usar este punto final, debe especificar un texto para analizar los niveles de toxicidad.
Detección de toxicidad - Características del Endpoint
| Objeto | Descripción |
|---|---|
Cuerpo de la Solicitud |
[Requerido] Json |
{"request_id":"a92c6fa4-2649-4a1b-9c2e-0af536a77e17","overall_score":0.2841,"classification":"toxic","confidence":0.2841,"category_scores":{"toxic":0.2841,"severe_toxic":0.003,"obscene":0.0075,"threat":0.0313,"insult":0.0505,"identity_hate":0.0417}}
curl --location --request POST 'https://zylalabs.com/api/7800/safe+text+api/12773/toxicity+detection' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"text": "I hate you.."
}'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
La API devuelve una puntuación general de toxicidad, una etiqueta de clasificación (por ejemplo, "no tóxico" o "tóxico") y un desglose detallado de las categorías de toxicidad, como toxicidad general, toxicidad severa, lenguaje obsceno, amenazas, insultos y odio basado en la identidad.
Los campos clave en la respuesta incluyen "puntuación_de_toxicidad," "clasificación," y desgloses de categorías como "toxicidad_general," "toxicidad_severa," "obscenidad," "amenazas," "insultos," y "discurso_de_odio," cada uno acompañado de niveles de confianza.
Los datos de respuesta están estructurados en un formato JSON, con un objeto principal que contiene la puntuación general de toxicidad y la clasificación, seguido de objetos anidados para cada categoría de toxicidad, detallando las puntuaciones y niveles de confianza.
El parámetro principal para el endpoint POST es el campo "text", donde los usuarios ingresan el texto que desean analizar en busca de toxicidad. Los parámetros adicionales pueden incluir configuraciones de idioma o categorías de toxicidad específicas en las que enfocarse.
La precisión de los datos se mantiene a través de modelos avanzados de procesamiento de lenguaje natural (NLP) que se actualizan y entrenan regularmente en conjuntos de datos diversos para reconocer matices sutiles del lenguaje y expresiones en evolución de toxicidad.
Los casos de uso típicos incluyen moderar foros en línea, analizar contenido generado por usuarios en busca de lenguaje dañino, mejorar las directrices comunitarias y desarrollar herramientas para una comunicación segura en aplicaciones de chat.
Los usuarios pueden utilizar los datos devueltos al integrar las puntuaciones de toxicidad y clasificaciones en los flujos de trabajo de moderación, activando alertas para niveles altos de toxicidad o generando informes para evaluar la salud y seguridad de la comunidad.
Las verificaciones de calidad incluyen la evaluación continua del modelo contra datos del mundo real, bucles de retroalimentación de usuarios y métricas de rendimiento para asegurar que la API detecte y clasifique con precisión la toxicidad en diversos contextos e idiomas.
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.877ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
4.621ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.429ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.708ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.045ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
234ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
214ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
1.301ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
309ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
75ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
16ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
9.015ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
18.392ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
17ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
18ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
16ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
3.476ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
3.238ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
2.601ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
5.935ms