La API de Detección de Palabras Obscenas está diseñada para identificar, analizar y censurar el lenguaje ofensivo o inapropiado dentro de los textos. Su principal propósito es garantizar entornos digitales más seguros, respetuosos y apropiados para todo tipo de audiencias, especialmente en plataformas donde los usuarios generan contenido, como redes sociales, foros, chats, videojuegos o aplicaciones educativas.
Esta API funciona realizando un análisis semántico y contextual del texto. Cuando se envía una cadena de contenido, el sistema la examina palabra por palabra, detectando coincidencias con una base de datos actualizada de expresiones ofensivas en diferentes idiomas y variaciones ortográficas. El resultado incluye información detallada, como el número total de palabras inapropiadas encontradas, su posición exacta dentro del texto, cualquier desviación ortográfica y el nivel de severidad de cada término.
Además del análisis, la API ofrece funcionalidad de censura automática generando un campo llamado censored_content, que reemplaza las palabras detectadas con símbolos (por ejemplo, “****”). Esto permite a los desarrolladores integrar fácilmente la versión filtrada del texto sin interrumpir el flujo de comunicación o exponer contenido sensible.
Otra ventaja es la personalización: es posible adaptar el nivel de sensibilidad de acuerdo con el contexto o la audiencia objetivo, ampliando o reduciendo la lista de palabras censuradas. También se puede integrar con sistemas de moderación automática, paneles de administración o inteligencia artificial para el aprendizaje seguro del lenguaje.
En resumen, esta API no solo actúa como un filtro de groserías, sino como un sistema completo de moderación lingüística. Su implementación contribuye a mejorar la convivencia digital, reduciendo el acoso en línea y protegiendo la reputación de las plataformas que la utilizan, ofreciendo un equilibrio entre la libertad de expresión y la comunicación respetuosa.
Detecta y censura el lenguaje ofensivo en los textos, devolviendo un análisis detallado con el número, la posición y el reemplazo de palabras inapropiadas para la moderación automática
Censura - Características del Endpoint
| Objeto | Descripción |
|---|---|
Cuerpo de la Solicitud |
[Requerido] Json |
{"content": "shit", "bad_words_total": 1, "bad_words_list": [{"original": "shit", "word": "shit", "deviations": 0, "info": 2, "start": 0, "end": 4, "replacedLen": 4}], "censored_content": "****"}
curl --location --request POST 'https://zylalabs.com/api/11024/bad+words+detection+api/20770/censure' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw 'shit'
| Encabezado | Descripción |
|---|---|
Autorización
|
[Requerido] Debería ser Bearer access_key. Consulta "Tu Clave de Acceso a la API" arriba cuando estés suscrito. |
Sin compromiso a largo plazo. Mejora, reduce o cancela en cualquier momento. La Prueba Gratuita incluye hasta 50 solicitudes.
El endpoint de Censura devuelve un objeto JSON que contiene el contenido original, el número total de palabras ofensivas detectadas, una lista de esas palabras con sus detalles y una versión censurada del contenido Esto permite a los desarrolladores entender la magnitud del lenguaje inapropiado y proporcionar una salida filtrada
Los campos clave en la respuesta incluyen `content` (texto original) `bad_words_total` (recuento de palabras ofensivas) `bad_words_list` (detalles de cada palabra detectada) y `censored_content` (texto con palabras ofensivas reemplazadas) Estos campos proporcionan información integral para la moderación
Los datos de respuesta están estructurados como un objeto JSON Incluye un objeto principal con campos para el contenido original el total de palabras malsonantes una lista de palabras detectadas con detalles y la versión censurada Esta organización facilita un fácil análisis e integración en aplicaciones
El endpoint de Censura acepta parámetros como el texto a analizar y configuraciones opcionales para los niveles de sensibilidad Los usuarios pueden personalizar sus solicitudes especificando el contexto o la audiencia para ajustar los criterios de filtrado de acuerdo con sus necesidades
Los usuarios pueden utilizar los datos devueltos analizando la `bad_words_list` para comprender qué términos fueron señalados y su gravedad. El `censored_content` se puede utilizar directamente para mostrar texto filtrado, asegurando una comunicación respetuosa mientras se mantiene el contexto
Los casos de uso típicos incluyen moderar el contenido generado por los usuarios en redes sociales foros y aplicaciones de chat así como garantizar un lenguaje apropiado en herramientas educativas y videojuegos Ayuda a mantener un ambiente respetuoso en varias plataformas
La precisión de los datos se mantiene a través de actualizaciones continuas de la base de datos de palabras ofensivas que incluye varios idiomas y variaciones ortográficas Las revisiones regulares y la retroalimentación de la comunidad ayudan a asegurar que la lista se mantenga relevante y efectiva en la detección de lenguaje inapropiado
Los patrones de datos estándar incluyen una identificación clara de las palabras ofensivas, sus posiciones dentro del texto y los niveles de severidad asignados a cada término Los usuarios pueden esperar un formato consistente en la respuesta, facilitando la integración y el análisis de los resultados
Nivel de Servicio:
100%
Tiempo de Respuesta:
332ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
10.171ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
21ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
904ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
817ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
831ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
5.657ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
377ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
301ms
Nivel de Servicio:
100%
Tiempo de Respuesta:
2.258ms