यह एपीआई टेक्स्ट में आपत्तिजनक भाषा का स्वचालित रूप से पता लगाने के लिए एक उन्नत प्रणाली प्रदान करती है, जिससे अनुपयुक्त शब्दों, अपमानों और संभावित रूप से हानिकारक अभिव्यक्तियों की सटीक पहचान की जा सके। इसका मुख्य उद्देश्य वास्तविक समय में टेक्स्ट का मूल्यांकन करने में सहायता करना है, जिससे उपयोगकर्ता-जनित सामग्री की सुरक्षा और गुणवत्ता में सुधार हो सके। जब टेक्स्ट को इनपुट के रूप में भेजा जाता है, तो एपीआई एक संरचित विश्लेषण लौटाती है जिसमें संदेश में मौजूद विषाक्तता के स्तर को समझने के लिए आवश्यक कई संकेतक शामिल होते हैं
सबसे महत्वपूर्ण विशेषताओं में से एक isProfanity है, जो एक बूलियन मान है जो यह दर्शाता है कि टेक्स्ट में आपत्तिजनक या अनुपयुक्त भाषा है या नहीं। यह एक स्कोर भी प्रदान करता है, एक मात्रात्मक मीट्रिक जो यह दर्शाता है कि टेक्स्ट को अपशब्द माना जाने की संभावित संभावना क्या है। यह मान विशेष रूप से उन वातावरणों में उपयोगी है जहाँ विभिन्न संदर्भों या दर्शकों के लिए मॉडरेशन थ्रेशोल्ड को समायोजित करने की आवश्यकता होती है
एपीआई में एक गंभीरता क्षेत्र भी शामिल है, जो_detected language की गंभीरता के स्तर का वर्गीकरण करता है। यह वर्गीकरण हल्के मामलों, जैसे कि संवादात्मक अभिव्यक्तियों, और अधिक गंभीर स्थितियों, जैसे कि सीधे अपमान या अत्यधिक विषाक्त भाषा के बीच भेद करने की अनुमति देता है। स्पष्टता के लिए, उत्तर में flaggedFor भी निर्दिष्ट किया गया है, जो श्रेणियों का एक सेट है जो यह बताता है कि टेक्स्ट को क्यों फ्लैग किया गया, जिससे स्वचालित प्रणालियों को अधिक सूचित निर्णय लेने में मदद मिलती है
पाठ का विश्लेषण करता है और अपमानजनक भाषा का पता लगाता है इसके साथ ही गंभीरता स्कोर चिह्नित श्रेणी भाषा और यह कि सामग्री को अश्लील या अनुपयुक्त माना जाना चाहिए
पाठ विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
रिक्वेस्ट बॉडी |
[आवश्यक] Json |
{"isProfanity":true,"score":0.8,"severity":70,"flaggedFor":["insult"],"language":"en","dialect":"general"}
curl --location --request POST 'https://zylalabs.com/api/11449/extract+text+content+censorship+api/21609/text+analyzer' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw '{
"message": "I hate you"
}'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
पाठ विश्लेषक एंडपॉइंट संरचित डेटा लौटाता है जिसमें विश्लेषित पाठ में आपत्तिजनक भाषा के संकेत शामिल होते हैं प्रमुख आउटपुट में शामिल है कि क्या पाठ में अश्लीलता है गंभीरता स्कोर जोखिम स्कोर चिह्नित श्रेणियाँ पाठ की भाषा और पहचानी गई बोली
प्रतिसाद डेटा में प्रमुख क्षेत्र हैं `isProfanity` (बूलियन), `score` (संख्यात्मक), `severity` (संख्यात्मक), `flaggedFor` (श्रेणियों की सूची), `language` (स्ट्रिंग), और `dialect` (स्ट्रिंग) ये क्षेत्र पाए गए अपशब्दों की प्रकृति और गंभीरता के बारे में जानकारी प्रदान करते हैं
प्रतिक्रिया डेटा JSON प्रारूप में व्यवस्थित है प्रत्येक कुंजी विश्लेषण के एक विशिष्ट पहलू का प्रतिनिधित्व करती है उदाहरण के लिए isProfanity दर्शाता है कि क्या पाठ अपमानजनक है जबकि flaggedFor झंडा लगाने के कारणों को सूचीबद्ध करता है जिससे स्वचालित सिस्टम द्वारा आसान पार्सिंग और व्याख्या की जा सके
पाठ विश्लेषक अंतर्निहित विषयवस्तु की उपस्थिति, गंभीरता स्तर, जोखिम स्कोर, ध्वजांकित सामग्री की श्रेणियाँ, और पाठ की भाषा और बोली के बारे में जानकारी प्रदान करता है यह समग्र विश्लेषण उपयोगकर्ता-निर्मित सामग्री की विषाक्तता को समझने में सहायक है
उपयोगकर्ता अपने डेटा अनुरोधों को टेक्स्ट एनालाइजर एंडपॉइंट पर भेजे जाने वाले इनपुट टेक्स्ट को समायोजित करके कस्टमाइज़ कर सकते हैं जबकि एंडपॉइंट अतिरिक्त पैरामीटर स्वीकार नहीं करता है टेक्स्ट की सामग्री भिन्न हो सकती है विभिन्न परिदृश्यों का परीक्षण करने और विभिन्न प्रकार की भाषा का विश्लेषण करने के लिए
टेक्स्ट एनालाइज़र डेटा के लिए सामान्य उपयोग के मामलों में सामाजिक मीडिया प्लेटफार्मों के लिए सामग्रीModeration वेबसाइटों पर उपयोगकर्ता टिप्पणियों को छानना चैट अनुप्रयोगों को उपयोगकर्ताओं के उत्पीड़न से रोकने के लिए सुधारना और विषाक्त भाषा की पहचान करके समुदाय के दिशानिर्देशों का पालन सुनिश्चित करना शामिल है
डेटा की सटीकता मौलिक भाषा मॉडल के निरंतर अपडेट और विभिन्न डेटा सेट के खिलाफ नियमित मूल्यांकन के माध्यम से बनाए रखी जाती है यह सुनिश्चित करता है कि एपीआई विभिन्न संदर्भों और बोलियों में अपमानजनक भाषा को प्रभावी ढंग से पहचान और वर्गीकृत कर सके
प्रतिक्रिया में मानक डेटा पैटर्न में यह स्पष्ट रूप से बताया गया है कि क्या पाठ अश्लील है (`isProfanity`), भाषा की गंभीरता को दर्शाने वाला एक संख्यात्मक स्कोर, और `flaggedFor` में श्रेणियों की एक सूची शामिल है उपयोगकर्ता JSON प्रतिक्रिया में सुसंगत स्वरूपण और संरचना की अपेक्षा कर सकते हैं
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
608ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
4,287ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,541ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
374ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,283ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,742ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
11,333ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
198ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,389ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
16ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,064ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
330ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,381ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
6,064ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,967ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
7,904ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
137ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
302ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
0ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,683ms