इस एपीआई में पाठों में अपमानजनक भाषा को स्वचालित रूप से पहचानने के लिए एक उन्नत प्रणाली है जो अप्रिय शब्दों, अपमानों और संभावित रूप से हानिकारक अभिव्यक्तियों की सटीक पहचान की अनुमति देती है इसका मुख्य उद्देश्य वास्तविक समय में पाठों का मूल्यांकन करने में मदद करना है जिससे उपयोगकर्ता-निर्मित सामग्री की सुरक्षा और गुणवत्ता में सुधार हो सके जब एक पाठ इनपुट के रूप में भेजा जाता है एपीआई एक संरचित विश्लेषण लौटाती है जिसमें संदेश में मौजूद विषाक्तता के स्तर को समझने के लिए आवश्यक कई संकेत शामिल होते हैं सबसे महत्वपूर्ण विशेषताओं में से एक isProfanity है जो एक बूलियन मान है जो दर्शाता है कि क्या पाठ में अपमानजनक या अनुपयुक्त भाषा शामिल है यह एक स्कोर भी प्रदान करता है जो एक मात्रात्मक मैट्रिक है जो दर्शाता है कि पाठ को अपशब्द माना जाने की अनुमानित संभावना क्या है यह मान विशेष रूप से उन वातावरणों में उपयोगी है जहां विभिन्न संदर्भों या दर्शकों के लिए मध्यस्थता सीमाओं को समायोजित करने की आवश्यकता होती है एपीआई में एक गंभीरता क्षेत्र भी शामिल है जो पता की गई भाषा की गंभीरता के स्तर को वर्गीकृत करता है यह वर्गीकरण हल्के मामलों जैसे कि बातचीत की अभिव्यक्तियाँ और सीधे अपमान या अत्यधिक विषाक्त भाषा जैसी अधिक गंभीर स्थितियों के बीच भेद करने की अनुमति देता है स्पष्टता के लिए प्रतिक्रिया में flaggedFor भी निर्दिष्ट किया गया है जो श्रेणियों का एक सेट है जो यह बताता है कि पाठ को क्यों चिह्नित किया गया है जिससे स्वचालित प्रणालियाँ अधिक सूचित निर्णय ले सकें
पाठ का विश्लेषण करता है और अश्लील भाषा का पता लगाता है गंभीरता स्कोर मार्क की गई श्रेणी भाषा और यह कि सामग्री को अश्लील या अनुपयुक्त माना जाना चाहिए या नहीं
पाठ विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
रिक्वेस्ट बॉडी |
[आवश्यक] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11453/text+content+censoring+api/21613/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
टेक्स्ट विश्लेषक एंडपॉइंट संरचित डेटा लौटाता है जिसमें विश्लेषित टेक्स्ट में अपमानजनक भाषा के संकेत शामिल होते हैं मुख्य आउटपुट में यह शामिल है कि क्या टेक्स्ट में गाली-गलौज है गंभीरता स्कोर जोखिम स्कोर फ्लैग की गई श्रेणियां टेक्स्ट की भाषा और पहचाना गया बगल
प्रतिक्रियात्मक डेटा के प्रमुख क्षेत्र हैं `isProfanity` (बूलियट), `score` (संख्यात्मक), `severity` (संख्यात्मक), `flaggedFor` (श्रेणियों की सूची), `language` (स्ट्रिंग), और `dialect` (स्ट्रिंग) ये क्षेत्र पहचानी गई अपमानजनक भाषा की प्रकृति और गंभीरता के बारे में जानकारी प्रदान करते हैं
प्रतिक्रिया डेटा JSON फॉर्मेट में व्यवस्थित है प्रत्येक कुंजी विश्लेषण के एक विशिष्ट पहलू का प्रतिनिधित्व करती है उदाहरण के लिए `isProfanity` यह इंगित करता है कि पाठ अपमानजनक है जबकि `flaggedFor` झंडी लगाने के कारणों को सूचीबद्ध करता है जिससे स्वचालित प्रणालियों द्वारा आसान पार्सिंग और व्याख्या की जा सके
टेक्स्ट एनालाइजर एंडपॉइंट अनुपात की भाषा, गंभीरता स्तर, जोखिम स्कोर, झंडा लगाई गई सामग्री की श्रेणियों और टेक्स्ट की भाषा और शैली की जानकारी प्रदान करता है यह व्यापक विश्लेषण उपयोगकर्ता-जनित सामग्री की विषाक्तता को समझने में सहायक है
उपयोगकर्ता टेक्स्ट एनालाइज़र एंडपॉइंट को भेजे गए इनपुट टेक्स्ट को समायोजित करके अपने डेटा अनुरोधों को अनुकूलित कर सकते हैं जबकि एंडपॉइंट अतिरिक्त पैरामीटर स्वीकार नहीं करता है टेक्स्ट की सामग्री स्वयं विभिन्न परिदृश्यों को परीक्षण करने और विभिन्न प्रकार की भाषा का विश्लेषण करने के लिए भिन्न हो सकती है
टेक्स्ट एनालाइज़र डेटा के सामान्य उपयोग के मामलों में सोशल मीडिया प्लेटफार्मों के लिए सामग्री पार्श्वकरण उपयोगकर्ता टिप्पणियों को वेबसाइटों पर छानना चैट एप्लिकेशन को बेहतर करना ताकि उत्पीड़न से बचा जा सके और विषैला भाषा पहचानकर सामुदायिक दिशानिर्देशों का अनुपालन सुनिश्चित करना शामिल है
डेटा सटीकता सुनिश्चित की जाती है अंतर्निहित भाषा मॉडलों के निरंतर अपडेट और विविध डेटा सेट के खिलाफ नियमित मूल्यांकन के माध्यम से यह सुनिश्चित करता है कि एपीआई विभिन्न संदर्भों और बोलियों में आक्रामक भाषा को प्रभावी ढंग से पहचान और वर्गीकृत कर सकता है
प्रतिक्रिया में मानक डेटा पैटर्न्स में स्पष्ट संकेत शामिल होते हैं कि क्या पाठ अपशब्द है (`isProfanity`), भाषा की गंभीरता को दर्शाने वाला एक संख्यात्मक स्कोर, और `flaggedFor` में श्रेणियों की एक सूची। उपयोगकर्ता JSON प्रतिक्रिया में निरंतर फॉर्मेटिंग और संरचना की अपेक्षा कर सकते हैं
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,389ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,765ms
सर्विस लेवल:
50%
रिस्पॉन्स टाइम:
454ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,425ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,283ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,172ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,742ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
178ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,100ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
5,838ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,565ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,149ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,815ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,036ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,938ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
2,043ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,823ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
22ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
108ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,739ms