अवांछनीय भाषा निकालने वाला एपीआई उन पाठों में आपत्तिजनक या अवांछनीय भाषा की पहचान, विश्लेषण और सेंसर करने के लिए डिज़ाइन किया गया है इसका मुख्य उद्देश्य सभी प्रकार के दर्शकों के लिए अधिक सुरक्षित अधिक सम्मानजनक और उपयुक्त डिजिटल वातावरण सुनिश्चित करना है विशेष रूप से उन प्लेटफार्मों पर जहां उपयोगकर्ता सामग्री उत्पन्न करते हैं जैसे सामाजिक नेटवर्क फोरम चैट वीडियो गेम या शैक्षिक अनुप्रयोग
यह एपीआई पाठ का शब्द-शब्द विश्लेषण करके काम करता है जब सामग्री की एक श्रृंखला भेजी जाती है तो सिस्टम इसे शब्द दर शब्द जांचता है जो विभिन्न भाषाओं और वर्तनी के परिवर्तनों में अपमानजनक अभिव्यक्तियों के अद्यतन डेटाबेस के साथ मिलान का पता लगाता है परिणाम में अपमानजनक शब्दों की कुल संख्या उनकी पाठ में सही स्थिति कोई वर्तनी विचलन और प्रत्येक शब्द की गंभीरता स्तर जैसी विस्तृत जानकारी शामिल होती है
विश्लेषण के अतिरिक्त यह एपीआई स्वचालित सेंसरशिप कार्यक्षमता पेश करता है जो एक क्षेत्र उत्पन्न करता है जिसे censored_content कहा जाता है जो पता लगाए गए शब्दों को प्रतीकों से प्रतिस्थापित करता है उदाहरण के लिए "****" यह डेवलपर्स को संवाद के प्रवाह को बाधित किए बिना या संवेदनशील सामग्री को उजागर किए बिना पाठ के फ़िल्टर किए गए संस्करण को आसानी से एकीकृत करने की अनुमति देता है
एक और लाभ यह है कि अनुकूलन संभव है इसे संदर्भ या लक्षित दर्शकों के अनुसार संवेदनशीलता के स्तर को अनुकूलित करने की संभावना होती है सेंसर किए गए शब्दों की सूची को बढ़ाने या घटाने की अनुमति देता है इसे स्वचालित मॉडरेशन प्रणालियों प्रशासनिक पैनलों या सुरक्षित भाषा सीखने के लिए कृत्रिम बुद्धिमत्ता के साथ भी एकीकृत किया जा सकता है
संक्षेप में यह एपीआई न केवल आपत्तिजनकता फ़िल्टर के रूप में कार्य करता है बल्कि एक संपूर्ण भाषाई मॉडरेशन प्रणाली के रूप में भी कार्य करता है इसकी कार्यान्वयन डिजिटल सह-अस्तित्व को बेहतर बनाने ऑनलाइन उत्पीड़न को कम करने और इसका उपयोग करने वाले प्लेटफार्मों की प्रतिष्ठा की रक्षा करने में योगदान देता है यह अभिव्यक्ति की स्वतंत्रता और सम्मानजनक संवाद के बीच संतुलन प्रदान करता है
पाठों में अपमानजनक भाषा का पता लगाता है और उसे सेंसर करता है स्वचालित मध्यमीकरण के लिए अनुपयुक्त शब्दों की संख्या स्थान और प्रतिस्थापन के साथ विस्तृत विश्लेषण लौटाता है
निंदा - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
रिक्वेस्ट बॉडी |
[आवश्यक] Json |
{"content": "shit", "bad_words_total": 1, "bad_words_list": [{"original": "shit", "word": "shit", "deviations": 0, "info": 2, "start": 0, "end": 4, "replacedLen": 4}], "censored_content": "****"}
curl --location --request POST 'https://zylalabs.com/api/11025/extract+inappropriate+language+api/20769/censure' --header 'Authorization: Bearer YOUR_API_KEY'
--data-raw 'shit'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
सेंसर बिंदु एक JSON ऑब्जेक्ट लौटाता है जिसमें मूल सामग्री, पहचान की गई अपमानजनक शब्दों की कुल संख्या, उन शब्दों की सूची और उनकी विवरण, और सामग्री का सेंसर संस्करण शामिल होता है यह डेवलपर्स को अनुपयुक्त भाषा की सीमा को समझने और एक फ़िल्टर किया गया आउटपुट प्रदान करने की अनुमति देता है
प्रतिक्रिया में मुख्य क्षेत्रों में शामिल हैं `content` (मूल पाठ), `bad_words_total` (गंदे शब्दों की संख्या), `bad_words_list` (हर पहचानित शब्द का विवरण), और `censored_content` (गंदे शब्दों के स्थान पर बदले गए पाठ) ये क्षेत्र मॉडरेशन के लिए समग्र अंतर्दृष्टि प्रदान करते हैं
प्रतिक्रिया डेटा एक JSON ऑब्जेक्ट के रूप में संरचित है इसमें मूल सामग्री के लिए एक मुख्य ऑब्जेक्ट है कुल बुरे शब्दों की संख्या एक सूची में खोजे गए शब्द (विवरण के साथ) और संचारित संस्करण शामिल है यह संगठन अनुप्रयोगों में आसान पार्सिंग और एकीकरण की सुविधा प्रदान करता है
सेंसर.endpoint उन मानकों को स्वीकार करता है जैसे कि विश्लेषण के लिए पाठ और संवेदनशीलता स्तरों के लिए वैकल्पिक सेटिंग्स उपयोगकर्ता अपने अनुरोधों को कस्टमाइज कर सकते हैं संदर्भ या दर्शकों को निर्दिष्ट करके अपनी आवश्यकताओं के अनुसार फ़िल्टरिंग मानदंडों को समायोजित करें
उपयोगकर्ता `bad_words_list` का विश्लेषण करके वापस की गई डेटा का उपयोग कर सकते हैं यह समझने के लिए कि कौन से शब्द तत्कालित किए गए थे और उनकी गंभीरता क्या थी `censored_content` को सीधे फ़िल्टर किए गए पाठ को प्रदर्शित करने के लिए उपयोग किया जा सकता है यह सुनिश्चित करते हुए कि संचार सम्मानजनक हो जबकि संदर्भ को बनाए रखा गया हो
विशिष्ट उपयोग के मामलों में सोशल मीडिया, फोरम और चैट एप्लिकेशन पर उपयोगकर्ता द्वारा उत्पन्न सामग्री को मॉडरेट करना शामिल है, और शैक्षिक उपकरणों और वीडियो गेम में उपयुक्त भाषा सुनिश्चित करना शामिल है यह विभिन्न प्लेटफार्मों पर एक सम्मानजनक वातावरण बनाए रखने में मदद करता है
डेटा सटीकता को आक्रामक शब्दों के डेटाबेस के निरंतर अपडेट के जरिए बनाए रखा जाता है जिसमें विभिन्न भाषाएं और वर्तनी के भिन्नताएं शामिल हैं नियमित समीक्षाएं और समुदाय की प्रतिक्रिया यह सुनिश्चित करने में मदद करती हैं कि सूची प्रासंगिक और अनुचित भाषा का पता लगाने में प्रभावी बनी रहे
मानक डेटा पैटर्न में आपत्तिजनक शब्दों की स्पष्ट पहचान, पाठ के भीतर उनकी स्थिति और प्रत्येक शब्द को निर्धारित किए गए गंभीरता स्तर शामिल हैं उपयोगकर्ता प्रतिक्रिया में निरंतर स्वरूपण की अपेक्षा कर सकते हैं जिससे परिणामों का एकीकृत करना और विश्लेषण करना आसान हो जाता है
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,168ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,735ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
901ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
148ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
167ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
77ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,100ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
238ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
792ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
215ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
60ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
53ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,144ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,266ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
237ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
2,743ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,308ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
52ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
52ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
595ms