एपीआई के बारे में:
गाली_detection_API एक शक्तिशाली उपकरण है जो उपयोगकर्ता द्वारा उत्पन्न सामग्री में अपमानजनक भाषा को पहचानने और चिह्नित करने के लिए है। यह गंभीर विषाक्तता, अश्लील पाठ, अपमान, धमकी और पहचान-आधारित नफरत सहित गालियों और विषाक्तता की एक विस्तृत श्रृंखला को सटीकता से पहचानने के लिए उन्नत भाषा समझने की तकनीक का उपयोग करता है। यह एपीआई संगठनों और व्यवसायों को उनके प्लेटफार्मों पर उपयोगकर्ता-जनित सामग्री का प्रबंधन करने में मदद करने के लिए तैयार किया गया है, संभावित रूप से हानिकारक भाषा की पहचान और हटा कर।
यह एपीआई प्रयोग में आसान है और किसी भी अनुप्रयोग या प्लेटफॉर्म में एकीकृत किया जा सकता है जो उपयोगकर्ता-जनित सामग्री की अनुमति देता है। एक बार एकीकृत होने पर, एपीआई स्वचालित रूप से अपमानजनक भाषा का पता लगा सकता है और उसे चिह्नित कर सकता है, जिससे मॉडरेटरों को समीक्षा करने और उचित कार्रवाई लेने में आसानाई होती है। इसके अतिरिक्त, एपीआई को अपमानजनक भाषा को स्वचालित रूप से हटाने या सेंसर करने के लिए कॉन्फ़िगर किया जा सकता है, जिससे उपयोगकर्ताओं और संगठनों के लिए अतिरिक्त सुरक्षा प्रदान की जा सके।
गाली_detection_API को मशीन लर्निंग मॉडलों को प्रशिक्षित करने के लिए भी उपयोग किया जा सकता है, अपमानजनक भाषा के लेबल किए गए बड़े डेटासेट प्रदान करके। यह संगठनों को अपमानजनक भाषा का पता लगाने के लिए उनके अपने मॉडलों की सटीकता में सुधार करने में मदद कर सकता है।
कुल मिलाकर, गाली_detection_API उन सभी संगठनों या व्यवसायों के लिए एक मूल्यवान उपकरण है जिन्हें उपयोगकर्ता-जनित सामग्री का प्रबंधन करने की आवश्यकता है। यह उपयोगकर्ताओं और व्यवसायों को अपमानजनक भाषा के नकारात्मक प्रभावों से बचाने में मदद करता है और हानिकारक सामग्री की पहचान और हटाने को आसान बनाता है। इसकी उन्नत भाषा समझने की तकनीक के साथ, यह उच्च स्तर की सटीकता और विश्वसनीयता प्रदान करती है, जिससे यह उपयोगकर्ता-जनित सामग्री के प्रबंधन के लिए एक विश्वसनीय उपकरण बनती है।
यह एंडपॉइंट दिए गए पाठ में अशुद्धियों, विषाक्तताओं, गंभीर विषाक्तताओं, अश्लील पाठ, अपमान, धमकियों और पहचान नफरत का पता लगाता है
गाली-गलौज विश्लेषक - एंडपॉइंट फीचर्स
| ऑब्जेक्ट | विवरण |
|---|---|
text |
[आवश्यक] |
{"semantic_analysis":{"0":{"id_semantic_model":1,"name_semantic_model":"profanity_words","segment":"Cunt"},"1":{"id_semantic_model":2,"name_semantic_model":"toxic","segment":"Cunt"},"2":{"id_semantic_model":4,"name_semantic_model":"obscene","segment":"Cunt"}}}
curl --location --request POST 'https://zylalabs.com/api/1060/profanity+detection+api/930/profanity+analyzer?text=Required' --header 'Authorization: Bearer YOUR_API_KEY'
| हेडर | विवरण |
|---|---|
Authorization
|
[आवश्यक] होना चाहिए Bearer access_key. जब आप सब्सक्राइब हों तो ऊपर "Your API Access Key" देखें। |
कोई लंबी अवधि की प्रतिबद्धता नहीं। कभी भी अपग्रेड, डाउनग्रेड या कैंसल करें। फ्री ट्रायल में 50 रिक्वेस्ट तक शामिल हैं।
अश्लीलता विश्लेषक एपीआई बिंदु एक JSON ऑब्जेक्ट लौटाता है जिसमें विश्लेषण के परिणाम होते हैं जिसमें पहचानी गई अश्लीलताएँ विषाक्तताएँ और इनपुट पाठ में मौजूद अन्य हानिकारक भाषा प्रकार शामिल होते हैं
प्रतिक्रिया डेटा के मुख्य क्षेत्र आमतौर पर "सेमांटिक_एनालिसिस" शामिल होते हैं जो हानिकारक भाषा के प्रकारों के बारे में विस्तृत जानकारी प्रदान करते हैं जैसे कि अशब्द , अपमान और धमकियाँ
प्रतिक्रियाएँ डेटा एक संरचित JSON प्रारूप में व्यवस्थित की गई हैं इसमें निहित वस्तुएं शामिल हैं जो पहचानी गई हानिकारक भाषा को श्रेणीबद्ध करती हैं जिससे उपयोगकर्ता जानकारी को आसानी से पार्स और उपयोग कर सकें
गालियों का विश्लेषण करने वाला अंतर्दृष्टि बिंदु "पाठ" जैसे पैरामीटर स्वीकार करता है (विश्लेषण के लिए इनपुट सामग्री) और विश्लेषण को अनुकूलित करने के लिए संवेदनशीलता स्तरों या विशिष्ट भाषा फ़िल्टर के लिए वैकल्पिक सेटिंग्स
गाली detection के लिए डेटा भाषाई डेटाबेस उपयोगकर्ता द्वारा उत्पन्न सामग्री और विविध डेटा सेट पर प्रशिक्षित मशीन लर्निंग मॉडलों के संयोजन से प्राप्त किया गया है ताकि अपमानजनक भाषा का व्यापक कवरेज सुनिश्चित किया जा सके
डेटा की सटीकता लगातार मॉडल प्रशिक्षण वास्तविक दुनिया के उदाहरणों के खिलाफ मान्यता और विकसित होते भाषा उपयोग और स्लैंग के अनुकूलन के लिए अंतर्निहित भाषा मॉडलों के नियमित अपडेट के माध्यम से बनाए रखी जाती है
प्रमुख उपयोग के मामले में सोशल मीडिया पर उपयोगकर्ता द्वारा उत्पन्न सामग्री का मॉडरेशन करना चैटबॉट्स में आपत्तिजनक भाषा को फ़िल्टर करना और गेमिंग समुदायों और ग्राहक सेवा इंटरैक्शन में सम्मानजनक संचार सुनिश्चित करना शामिल है
उपयोगकर्ता पहचानी गई हानिकारक भाषा के आधार पर संशोधन क्रियाओं को लागू करके लौटाए गए डेटा का उपयोग कर सकते हैं जैसे कि समीक्षा के लिए सामग्री को ध्वजांकित करना आक्रामक शब्दों को स्वचालित रूप से सेंसर करना या वास्तविक समय में उपयोगकर्ता इंटरैक्शन को समायोजित करना
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
871ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
670ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,003ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
270ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
148ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
578ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
831ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,658ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
264ms
सर्विस लेवल:
94%
रिस्पॉन्स टाइम:
659ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
88ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
605ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
346ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
55ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,541ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,825ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
1,641ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
3,471ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
461ms
सर्विस लेवल:
100%
रिस्पॉन्स टाइम:
601ms