2026 में AI डिटेक्टर्स कितने सटीक हैं? हमने 5 का परीक्षण किया
हमने 50 पाठ नमूनों को Turnitin, GPTZero, Copyleaks, ZeroGPT, और Originality.ai के माध्यम से चलाया। यहाँ AI पहचान सटीकता और झूठे सकारात्मक के बारे में जो हमने पाया है।
हमारे नेटवर्क में एक पीएचडी छात्रा की थीसिस की प्रस्तावना को उसके विश्वविद्यालय के पहचान प्रणाली द्वारा 67% AI-जनित के रूप में चिह्नित किया गया। उसने चार महीनों में हर शब्द खुद लिखा। कोई AI उपकरण नहीं, कोई व्याकरण जांचने वाले नहीं, न ही स्पेलचेक।
उसने स्कोर को कम करने के लिए दो सप्ताह तक अनुभागों को फिर से लिखा। यह काम किया — लेकिन फिर से लिखा गया संस्करण मूल से बदतर था।
हमने यह पता लगाने का निर्णय लिया कि ये उपकरण वास्तव में कितने विश्वसनीय हैं। इसलिए हमने उनमें से पांच का परीक्षण किया।
हमारी परीक्षण पद्धति: 5 डिटेक्टर्स में 50 नमूने
हमने 50 पाठ नमूनों को इकट्ठा किया, प्रत्येक 500 से 800 शब्दों के बीच। नमूने पांच श्रेणियों में गिर गए:
- 10 पूरी तरह से मानव-लिखित शैक्षणिक पाठ — 2018–2022 के बीच प्रकाशित जर्नल लेख, व्यापक LLM उपलब्धता से पहले लिखे गए
- 10 पूरी तरह से AI-जनित पाठ — शैक्षणिक प्रॉम्प्ट के साथ GPT-4o द्वारा उत्पादित, बिना संपादन के
- 10 हल्के मैनुअल संपादन के साथ AI-जनित पाठ — सटीकता और आवाज के लिए मानव सुधारों के साथ AI ड्राफ्ट
- 10 AI-जनित पाठ जो हमारे पाठ मानवकरण के माध्यम से संसाधित किए गए — पूर्ण मानवकरण पास और मैनुअल समीक्षा
- 10 गैर-देशी अंग्रेजी बोलने वालों द्वारा मानव-लिखित पाठ — शोधकर्ताओं द्वारा लिखे गए प्रकाशित पत्र जो अपनी दूसरी या तीसरी भाषा में लिख रहे हैं
हमने प्रत्येक नमूने को Turnitin के AI पहचान मॉड्यूल, GPTZero, Copyleaks, ZeroGPT, और Originality.ai के माध्यम से चलाया। प्रत्येक उपकरण ने एक AI संभावना स्कोर लौटाया। हमने हर स्कोर को रिकॉर्ड किया और सटीकता मेट्रिक्स की गणना की।
परिणामों ने हमें आश्चर्यचकित कर दिया। न तो इसलिए कि उपकरण पूरी तरह से विफल हो गए — बल्कि इसलिए कि विफलता के पैटर्न इतने असंगत थे।
Turnitin AI पहचान: सटीकता परिणाम
Turnitin ने 10 में से 9 पूरी तरह से AI-जनित पाठों की सही पहचान की, उन्हें 80% से ऊपर स्कोर किया। यह स्पष्ट AI आउटपुट पर ठोस प्रदर्शन है।
जहाँ यह संघर्ष करता है: झूठे सकारात्मक। हमारे 10 मानव-लिखित शैक्षणिक पाठों में से तीन ने Turnitin के AI संकेतक पर 20% से ऊपर स्कोर किया। एक — एक रसायन जर्नल से औपचारिक साहित्य समीक्षा — ने 38% स्कोर किया।
मानवकरण पाठ पर, Turnitin का प्रदर्शन काफी गिर गया। केवल 10 में से 3 मानवकरण नमूनों ने 20% थ्रेशोल्ड से ऊपर स्कोर किया। शेष 7 ने 2% और 17% के बीच स्कोर किया।
गैर-देशी अंग्रेजी लेखन सबसे खराब श्रेणी थी। 10 में से चार गैर-देशी नमूनों ने 20% से ऊपर चिह्नित किया। एक ने 52% स्कोर किया। ये वास्तविक मानव शोधकर्ताओं द्वारा वास्तविक प्रकाशित पत्र थे।
हमारे परीक्षण में Turnitin की कुल सटीकता: 72%। यह स्वीकार्य लगता है जब तक आप यह नहीं समझते कि 28% त्रुटि दर का मतलब है कि लगभग 1 में 4 निर्णय गलत हो सकते हैं।
GPTZero बनाम Copyleaks बनाम ZeroGPT: आमने-सामने
हमने तीन सबसे लोकप्रिय स्वतंत्र AI डिटेक्टर्स का परीक्षण हमारे पूर्ण नमूना सेट के खिलाफ किया।
GPTZero सबसे आक्रामक डिटेक्टर था। इसने 10 में से 10 कच्चे AI पाठों को पकड़ा — पूर्ण पुनःकाल। लेकिन इसने 4 मानव-लिखित पाठों और 5 गैर-देशी अंग्रेजी पाठों को भी प्रमुखता से AI-जनित के रूप में चिह्नित किया। इसकी झूठे सकारात्मक दर हमारे परीक्षण में 12% के साथ सबसे अधिक थी।
Copyleaks ने अधिक सतर्क दृष्टिकोण अपनाया। इसने 10 में से 8 AI पाठों की सही पहचान की लेकिन केवल 1 मानव-लिखित नमूने को गलत तरीके से चिह्नित किया। मानवकरण पाठ पर, इसने 10 में से 4 को पकड़ा — इसे मानवकरण के खिलाफ सबसे अच्छा प्रदर्शन करने वाला बनाया, लेकिन फिर भी आधे से अधिक चूक गया।
ZeroGPT सबसे कम विश्वसनीय था। इसने 10 में से 7 AI पाठों को सही तरीके से चिह्नित किया लेकिन 3 मानव-लिखित पाठों को भी गलत तरीके से चिह्नित किया। इससे भी बुरा, इसके स्कोर में उतार-चढ़ाव आया — हमने एक ही नमूने को दो बार चलाया और 30% समय में विभिन्न परिणाम प्राप्त किए। एक पहचान उपकरण में स्थिरता महत्वपूर्ण है, और ZeroGPT ने इसे प्रदान नहीं किया।
Originality.ai ने कच्चे AI पाठ पर अच्छा प्रदर्शन किया (9/10 का पता लगाया) और मानव पाठ पर झूठे सकारात्मक दर कम थी (1/10 गलत चिह्नित)। मानवकरण पाठ पर, इसने 10 में से 5 को पकड़ा — पैक के मध्य में।
यहाँ असहज संक्षेप है: कोई भी डिटेक्टर सभी नमूना श्रेणियों में 80% से ऊपर की कुल सटीकता प्राप्त नहीं कर सका।
झूठे सकारात्मक समस्या जिसके बारे में कोई बात नहीं करता
झूठे सकारात्मक AI पहचान में एक शांत संकट हैं। जब एक डिटेक्टर गलत तरीके से मानव-लिखित पाठ को AI-जनित के रूप में चिह्नित करता है, तो यह लेखक पर प्रमाण का बोझ डालता है। "प्रमाणित करें कि आपने AI का उपयोग नहीं किया" एक लगभग असंभव मांग है।
हमारी परीक्षण ने मानव पाठों के झूठे तरीके से चिह्नित होने के लगातार पैटर्न पाए:
अत्यधिक संरचित औपचारिक लेखन। जितना अधिक संगठित और परिष्कृत आपकी गद्य, उतना ही अधिक संभावना है कि एक डिटेक्टर इसे चिह्नित करेगा। स्पष्ट विषय वाक्य, तार्किक अनुच्छेद प्रगति, सुसंगत शब्दावली — ये सभी अच्छे मानव लेखन और AI आउटपुट द्वारा साझा किए गए पैटर्न हैं।
सूत्रात्मक अनुभाग। विधियों के अनुभाग, प्रक्रियात्मक विवरण, और साहित्य समीक्षाएँ अनुशासन-विशिष्ट टेम्पलेट का पालन करती हैं। हर शोधकर्ता "डेटा को अर्ध-संरचित साक्षात्कारों का उपयोग करके एकत्र किया गया" एक ही तरीके से लिखता है। डिटेक्टर्स परंपरा और पीढ़ी में अंतर नहीं कर सकते।
कम-एंट्रॉपी शब्दावली। कुछ क्षेत्रों — कानून, चिकित्सा, इंजीनियरिंग — में सीमित पर्याय विकल्पों के साथ विशेष शब्दावली का उपयोग होता है। जब आपको बार-बार विशिष्ट शब्दों का उपयोग करना होता है, तो आपका पाठ एक उलझन-आधारित डिटेक्टर के लिए अधिक "पूर्वानुमानित" लगता है।
गैर-देशी अंग्रेजी। हम इस पर बार-बार लौटते हैं क्योंकि यह सबसे चिंताजनक खोज है। अपनी दूसरी भाषा में लिखने वाले शोधकर्ता ऐसे पाठ का उत्पादन करते हैं जिसमें कम शब्दावली विविधता और अधिक सूत्रात्मक संरचनाएँ होती हैं — ये ठीक वही पैटर्न हैं जो डिटेक्टर्स AI के साथ जोड़ते हैं। यह एक भेदभावपूर्ण परिणाम उत्पन्न करता है जिससे अधिकांश संस्थान नहीं निपटते।
झूठे सकारात्मक के बारे में चिंतित?
हमारा पाठ मानवकरण आपके लेखन में प्राकृतिक विविधता जोड़ता है — चाहे AI-सहायता प्राप्त हो या नहीं। अपने विचारों को बदले बिना झूठे सकारात्मक जोखिम को कम करें।
यह मुफ्त में आजमाएँAI उपकरणों का उपयोग करने वाले शोधकर्ताओं के लिए इसका क्या अर्थ है
यदि आप लेखन सहायक के रूप में AI का उपयोग कर रहे हैं — ड्राफ्टिंग, पुनर्गठन, पॉलिशिंग — तो पहचान परिदृश्य एक वास्तविक समस्या उत्पन्न करता है। यहां तक कि पाठ जो आपने पूरी तरह से हाथ से लिखा है, वह भी चिह्नित हो सकता है। AI-सहायता प्राप्त पाठ लगभग निश्चित रूप से चिह्नित होगा जब तक कि आप इसे मानवकरण करने के लिए कदम नहीं उठाते।
इस परीक्षण के आधार पर हमारी सिफारिशें:
किसी भी एकल डिटेक्टर के निर्णय पर भरोसा न करें। हमने ऐसे नमूने देखे जो एक उपकरण पर 5% और दूसरे पर 68% स्कोर किए। यदि आपकी संस्था एक डिटेक्टर का उपयोग करती है, तो वही अनुपालन के लिए महत्वपूर्ण है — लेकिन एकल स्कोर AI उपयोग का सबूत नहीं है।
स्ट्रेटेजिकली मानवकरण करें। कच्चा AI आउटपुट पता लगाने योग्य है। अच्छी तरह से मानवकरण किया गया पाठ ज्यादातर नहीं है। यदि आपने AI सहायता का उपयोग किया है, तो अपने ड्राफ्ट को गुणवत्ता मानवकरण उपकरण के माध्यम से चलाएं और अपनी व्यक्तिगत आवाज जोड़ें। हमारे परीक्षण ने दिखाया कि इस संयोजन ने सभी पांच उपकरणों में पहचान स्कोर को 15% से कम कर दिया।
अपने ड्राफ्ट रखें। अपने काम के मध्यवर्ती संस्करणों को सहेजें। ब्राउज़र इतिहास, ChatGPT वार्तालाप लॉग, एनोटेटेड PDFs, हस्तलिखित नोट्स — इनमें से सभी आपके लेखन प्रक्रिया के सबूत प्रदान करते हैं यदि आप कभी प्रश्नित होते हैं।
बेहतर संस्थागत नीतियों के लिए वकालत करें। AI पहचान उपकरण इतनी विश्वसनीय नहीं हैं कि वे शैक्षणिक बेईमानी के एकमात्र सबूत के रूप में कार्य कर सकें। यदि आपका विश्वविद्यालय Turnitin AI स्कोर को प्रमाण के रूप में मानता है, तो डेटा के साथ पीछे धकेलें। इस तरह के अध्ययन साझा करें।
झूठे सकारात्मक पाठ को संभालने के लिए व्यावहारिक कदमों के लिए, हमारे गाइड को देखें कैसे शोधकर्ता AI पहचान को धोखा दिए बिना बायपास कर रहे हैं।
AI पहचान की हथियारों की दौड़ धीमी नहीं हो रही है। डिटेक्टर्स में सुधार होगा। लेकिन AI-सहायता प्राप्त लेखन उपकरण भी। दीर्घकालिक समाधान बेहतर पहचान नहीं है — यह बेहतर नीति है जो यह मानती है कि लेखन अब कैसे होता है।
आपका काम वास्तविक है। आपके विचार वास्तविक हैं। एक दोषपूर्ण एल्गोरिदम को इसका न्यायाधीश नहीं होना चाहिए।
अपने पांडुलिपि को ट्रैक किए गए परिवर्तनों के साथ प्रूफरीड और पॉलिश करें। शैक्षणिक लेखन के लिए बनाया गया।
अक्सर पूछे जाने वाले प्रश्न
प्रश्न: कौन सा AI डिटेक्टर सबसे सटीक है?
हमारी परीक्षण में, Turnitin और Originality.ai ने सभी नमूना श्रेणियों में क्रमशः 72% और 74% की उच्चतम कुल सटीकता के लिए टाई किया। हालाँकि, सटीकता पाठ प्रकार के अनुसार काफी भिन्न थी। Turnitin कच्चे AI आउटपुट को पकड़ने में सबसे अच्छा था लेकिन गैर-देशी अंग्रेजी पाठ पर अधिक झूठे सकारात्मक थे। Originality.ai अधिक संतुलित था लेकिन मानवकरण पाठ पर कम प्रभावी था। कोई एकल डिटेक्टर सभी श्रेणियों में 80% सटीकता प्राप्त नहीं कर सका, जो शैक्षणिक ईमानदारी के निर्णय लेने के लिए उपयोग किए जाने वाले उपकरणों के लिए एक महत्वपूर्ण सीमा है।
प्रश्न: क्या AI डिटेक्टर्स शैक्षणिक लेखन पर काम करते हैं?
वे कुछ प्रकार के शैक्षणिक लेखन पर दूसरों की तुलना में बेहतर काम करते हैं। शैक्षणिक शैली में कच्चा, बिना संपादित AI आउटपुट आमतौर पर पकड़ा जाता है — पहचान दर हमारे परीक्षण में 70% से 100% के बीच थी। लेकिन औपचारिक मानव-लिखित शैक्षणिक पाठ चिंताजनक दरों पर झूठे सकारात्मक उत्पन्न करता है — हमारे परीक्षण में 12% तक। विशेष शब्दावली और गैर-देशी अंग्रेजी लेखकों के साथ तकनीकी क्षेत्रों पर असमान रूप से प्रभाव पड़ता है। संक्षिप्त उत्तर है: AI डिटेक्टर्स शैक्षणिक लेखन पर काम करते हैं, लेकिन एकल सबूत के रूप में कार्य करने के लिए पर्याप्त विश्वसनीय नहीं हैं।
प्रश्न: AI डिटेक्टर्स मानव लेखन को कितनी बार चिह्नित करते हैं?
हमारे 20 मानव-लिखित नमूनों (10 देशी अंग्रेजी, 10 गैर-देशी) के परीक्षण में, 9 नमूनों — 45% — ने कम से कम एक डिटेक्टर पर 20% से ऊपर AI स्कोर प्राप्त किया। तीन मानव-लिखित पाठों ने कम से कम एक उपकरण पर 50% से ऊपर स्कोर किया। प्रति डिटेक्टर झूठे सकारात्मक दर 4% से 12% के बीच थी। यदि आप औपचारिक शैक्षणिक गद्य लिखने वाले गैर-देशी अंग्रेजी बोलने वाले हैं, तो झूठे सकारात्मक की संभावना और भी अधिक है। यही कारण है कि हम सिफारिश करते हैं कि आप ड्राफ्ट और प्रक्रिया के सबूत रखें चाहे आपने AI उपकरणों का उपयोग किया हो या नहीं।

Ema is a senior academic editor at ProofreaderPro.ai with a PhD in Computational Linguistics. She specializes in text analysis technology and language models, and is passionate about making AI-powered tools that truly understand academic writing. When she's not refining proofreading algorithms, she's reviewing papers on NLP and discourse analysis.