यह एपीआई टेक्स्ट में आपत्तिजनक भाषा का स्वचालित रूप से पता लगाने के लिए एक उन्नत प्रणाली प्रदान करता है, जिससे अनुचित शब्दों, अपमानों और संभावित रूप से हानिकारक अभिव्यक्तियों की सटीक पहचान की जा सके। इसका मुख्य उद्देश्य वास्तविक समय में पाठों का मूल्यांकन करने में मदद करना है, जिससे उपयोगकर्ता-जनित सामग्री की सुरक्षा और गुणवत्ता में सुधार हो सके। जब एक टेक्स्ट इनपुट के रूप में भेजा जाता है, तो एपीआई एक संरचित विश्लेषण लौटाता है जिसमें संदेश में मौजूद विषाक्तता के स्तर को समझने के लिए आवश्यक कई संकेतक शामिल होते हैं।
सबसे महत्वपूर्ण विशेषताओं में से एक isProfanity है, जो एक बूलियन मान है जो यह दर्शाता है कि क्या टेक्स्ट में आपत्तिजनक या अनुचित भाषा शामिल है। यह एक स्कोर भी प्रदान करता है, जो एक मात्रात्मक मीट्रिक है जो दर्शाता है कि टेक्स्ट को अश्लील माना जाने की अनुमानित संभावना क्या है। यह मान विशेष रूप से उन वातावरणों में उपयोगी है जहाँ विभिन्न संदर्भों या दर्शकों के लिए मॉडरेशन थ्रेशोल्ड को समायोजित करने की आवश्यकता होती है।
एपीआई में एक गंभीरता क्षेत्र भी शामिल है, जो पता लगाए गए भाषा के गंभीरता के स्तर को वर्गीकृत करता है। यह वर्गीकरण हल्की स्थितियों, जैसे कि बोलचाल की अभिव्यक्तियों, और अधिक गंभीर स्थितियों, जैसे कि सीधे अपमान या अत्यधिक विषाक्त भाषा के बीच भेद करने की अनुमति देता है। स्पष्टता के लिए, प्रतिक्रिया में flaggedFor भी निर्दिष्ट किया गया है, जो श्रेत्तियों का एक सेट है जो यह बताता है कि टेक्स्ट को फ्लैग करने का सही कारण क्या था, जिससे स्वचालित प्रणाली को अधिक सूचित निर्णय लेने में मदद मिलती है।
पाठ का विश्लेषण करता है और अपमानजनक भाषा का पता लगाता है जिससे गंभीरता, स्कोर, चिह्नित श्रेणी, भाषा और यह कि सामग्री को अश्लील या अनुपयुक्त माना जाना चाहिए या नहीं लौटाता है
पाठ विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
रिक्वेस्ट बॉडी |
[आवश्यक] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11451/text+content+censorship+fetch+api/21611/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
टेक्स्ट एनालाइज़र एंडपॉइंट संरचित डेटा लौटाता है जिसमें विश्लेषित पाठ में आपत्तिजनक भाषा के संकेत शामिल होते हैं मुख्य आउटपुट में यह शामिल है कि क्या पाठ में गाली-गलौज है एक गंभीरता स्कोर एक जोखिम स्कोर ध्वजांकित श्रेणियाँ पाठ की भाषा और पहचानी गई बोलियाँ
प्रतिक्रिया डेटा में मुख्य क्षेत्र `isProfanity` (बूलियन), `score` (संख्यात्मक), `severity` (संख्यात्मक), `flaggedFor` (श्रेणियों की सूची), `language` (स्ट्रिंग), और `dialect` (स्ट्रिंग) हैं ये क्षेत्र पता की गई अपशब्द भाषा की प्रकृति और गंभीरता के बारे में जानकारी प्रदान करते हैं
प्रतिक्रिया डेटा JSON प्रारूप में व्यवस्थित है प्रत्येक कुंजी विश्लेषण के विशिष्ट पहलू का प्रतिनिधित्व करती है उदाहरण के लिए `isProfanity` यह दर्शाता है कि क्या पाठ आक्रामक है जबकि `flaggedFor` चिह्नित करने के कारणों को सूचीबद्ध करता है जिससे स्वचालित सिस्टम द्वारा आसानी से पार्सिंग और व्याख्या संभव होती है
टेक्स्ट एनालाइज़र एंडपॉइंट अपमानजनक भाषा की उपस्थिति सर्वोच्चता स्तर जोखिम स्कोर ध्वजांकित सामग्री की श्रेणियों और टेक्स्ट की भाषा और बोलियों पर जानकारी प्रदान करता है यह व्यापक विश्लेषण उपयोगकर्ता-निर्मित सामग्री की विषाक्तता को समझने में मदद करता है
उपयोगकर्ता टेक्स्ट एनालाइज़र एंडपॉइंट पर भेजे जाने वाले इनपुट टेक्स्ट को समायोजित करके अपने डेटा अनुरोधों को कस्टमाइज़ कर सकते हैं जबकि एंडपॉइंट अतिरिक्त पैरामीटर स्वीकार नहीं करता है टेक्स्ट की सामग्री स्वयं विभिन्न परिस्थितियों का परीक्षण करने और विभिन्न प्रकार की भाषा का विश्लेषण करने के लिए भिन्न हो सकती है
टेक्सट एनालाइजर डेटा के लिए सामान्य उपयोग के मामलों में सोशल मीडिया प्लेटफॉर्म के लिए सामग्री moder बढ़ाना वेबसाइटों पर उपयोगकर्ता टिप्पणियों को फ़िल्टर करना चैट एप्लिकेशन को सुधारना ताकि उत्पीड़न को रोका जा सके और विषैला भाषा पहचान कर सामुदायिक दिशानिर्देशों का पालन सुनिश्चित करना शामिल है
डेटा सटीकता को आधारभूत भाषा मॉडल के निरंतर अपडेट और विविध डेटासेट के खिलाफ नियमित मूल्यांकन द्वारा बनाए रखा जाता है यह सुनिश्चित करता है कि एपीआई विभिन्न संदर्भों और बोलियों के बीच आक्रामक भाषा को प्रभावी ढंग से पहचान और वर्गीकृत कर सके
प्रतिक्रिया में मानक डेटा पैटर्न में यह स्पष्ट संकेत शामिल होता है कि क्या पाठ अश्लील है (`isProfanity`), भाषा की गंभीरता को दर्शाने वाला एक संख्यात्मक स्कोर, और `flaggedFor` में श्रेणियों की एक सूची होती है उपयोगकर्ता JSON प्रतिक्रिया में निरंतर प्रारूपण और संरचना की अपेक्षा कर सकते हैं
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
813ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,287ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
9,220ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,541ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
534ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
11,333ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
279ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
765ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
608ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
50ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
469ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
13,501ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
878ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
297ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
669ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
151ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
144ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
633ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
832ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
327ms