एपीआई के बारे में:
गाली_detection_API एक शक्तिशाली उपकरण है जो उपयोगकर्ता द्वारा उत्पन्न सामग्री में अपमानजनक भाषा को पहचानने और चिह्नित करने के लिए है। यह गंभीर विषाक्तता, अश्लील पाठ, अपमान, धमकी और पहचान-आधारित नफरत सहित गालियों और विषाक्तता की एक विस्तृत श्रृंखला को सटीकता से पहचानने के लिए उन्नत भाषा समझने की तकनीक का उपयोग करता है। यह एपीआई संगठनों और व्यवसायों को उनके प्लेटफार्मों पर उपयोगकर्ता-जनित सामग्री का प्रबंधन करने में मदद करने के लिए तैयार किया गया है, संभावित रूप से हानिकारक भाषा की पहचान और हटा कर।
यह एपीआई प्रयोग में आसान है और किसी भी अनुप्रयोग या प्लेटफॉर्म में एकीकृत किया जा सकता है जो उपयोगकर्ता-जनित सामग्री की अनुमति देता है। एक बार एकीकृत होने पर, एपीआई स्वचालित रूप से अपमानजनक भाषा का पता लगा सकता है और उसे चिह्नित कर सकता है, जिससे मॉडरेटरों को समीक्षा करने और उचित कार्रवाई लेने में आसानाई होती है। इसके अतिरिक्त, एपीआई को अपमानजनक भाषा को स्वचालित रूप से हटाने या सेंसर करने के लिए कॉन्फ़िगर किया जा सकता है, जिससे उपयोगकर्ताओं और संगठनों के लिए अतिरिक्त सुरक्षा प्रदान की जा सके।
गाली_detection_API को मशीन लर्निंग मॉडलों को प्रशिक्षित करने के लिए भी उपयोग किया जा सकता है, अपमानजनक भाषा के लेबल किए गए बड़े डेटासेट प्रदान करके। यह संगठनों को अपमानजनक भाषा का पता लगाने के लिए उनके अपने मॉडलों की सटीकता में सुधार करने में मदद कर सकता है।
कुल मिलाकर, गाली_detection_API उन सभी संगठनों या व्यवसायों के लिए एक मूल्यवान उपकरण है जिन्हें उपयोगकर्ता-जनित सामग्री का प्रबंधन करने की आवश्यकता है। यह उपयोगकर्ताओं और व्यवसायों को अपमानजनक भाषा के नकारात्मक प्रभावों से बचाने में मदद करता है और हानिकारक सामग्री की पहचान और हटाने को आसान बनाता है। इसकी उन्नत भाषा समझने की तकनीक के साथ, यह उच्च स्तर की सटीकता और विश्वसनीयता प्रदान करती है, जिससे यह उपयोगकर्ता-जनित सामग्री के प्रबंधन के लिए एक विश्वसनीय उपकरण बनती है।
यह एंडपॉइंट दिए गए पाठ में अशुद्धियों, विषाक्तताओं, गंभीर विषाक्तताओं, अश्लील पाठ, अपमान, धमकियों और पहचान नफरत का पता लगाता है
गाली-गलौज विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
text |
[आवश्यक] |
{"semantic_analysis":{"0":{"id_semantic_model":1,"name_semantic_model":"profanity_words","segment":"Cunt"},"1":{"id_semantic_model":2,"name_semantic_model":"toxic","segment":"Cunt"},"2":{"id_semantic_model":4,"name_semantic_model":"obscene","segment":"Cunt"}}}
curl --location --request POST 'https://zylalabs.com/api/1060/profanity+detection+api/930/profanity+analyzer?text=Required' --header 'Authorization: Bearer YOUR_API_KEY'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
अश्लीलता विश्लेषक एपीआई बिंदु एक JSON ऑब्जेक्ट लौटाता है जिसमें विश्लेषण के परिणाम होते हैं जिसमें पहचानी गई अश्लीलताएँ विषाक्तताएँ और इनपुट पाठ में मौजूद अन्य हानिकारक भाषा प्रकार शामिल होते हैं
प्रतिक्रिया डेटा के मुख्य क्षेत्र आमतौर पर "सेमांटिक_एनालिसिस" शामिल होते हैं जो हानिकारक भाषा के प्रकारों के बारे में विस्तृत जानकारी प्रदान करते हैं जैसे कि अशब्द , अपमान और धमकियाँ
प्रतिक्रियाएँ डेटा एक संरचित JSON प्रारूप में व्यवस्थित की गई हैं इसमें निहित वस्तुएं शामिल हैं जो पहचानी गई हानिकारक भाषा को श्रेणीबद्ध करती हैं जिससे उपयोगकर्ता जानकारी को आसानी से पार्स और उपयोग कर सकें
गालियों का विश्लेषण करने वाला अंतर्दृष्टि बिंदु "पाठ" जैसे पैरामीटर स्वीकार करता है (विश्लेषण के लिए इनपुट सामग्री) और विश्लेषण को अनुकूलित करने के लिए संवेदनशीलता स्तरों या विशिष्ट भाषा फ़िल्टर के लिए वैकल्पिक सेटिंग्स
गाली detection के लिए डेटा भाषाई डेटाबेस उपयोगकर्ता द्वारा उत्पन्न सामग्री और विविध डेटा सेट पर प्रशिक्षित मशीन लर्निंग मॉडलों के संयोजन से प्राप्त किया गया है ताकि अपमानजनक भाषा का व्यापक कवरेज सुनिश्चित किया जा सके
डेटा की सटीकता लगातार मॉडल प्रशिक्षण वास्तविक दुनिया के उदाहरणों के खिलाफ मान्यता और विकसित होते भाषा उपयोग और स्लैंग के अनुकूलन के लिए अंतर्निहित भाषा मॉडलों के नियमित अपडेट के माध्यम से बनाए रखी जाती है
प्रमुख उपयोग के मामले में सोशल मीडिया पर उपयोगकर्ता द्वारा उत्पन्न सामग्री का मॉडरेशन करना चैटबॉट्स में आपत्तिजनक भाषा को फ़िल्टर करना और गेमिंग समुदायों और ग्राहक सेवा इंटरैक्शन में सम्मानजनक संचार सुनिश्चित करना शामिल है
उपयोगकर्ता पहचानी गई हानिकारक भाषा के आधार पर संशोधन क्रियाओं को लागू करके लौटाए गए डेटा का उपयोग कर सकते हैं जैसे कि समीक्षा के लिए सामग्री को ध्वजांकित करना आक्रामक शब्दों को स्वचालित रूप से सेंसर करना या वास्तविक समय में उपयोगकर्ता इंटरैक्शन को समायोजित करना
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
871ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
670ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,003ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
270ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
148ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
576ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
831ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,658ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
264ms
सर्विस लेवल:
94%
रिस्पॉन्स टाइम:
659ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
20ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
922ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
881ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
2,252ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,823ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,030ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
16ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,149ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,831ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
108ms