लंदन कोर्ट में AI ने पकड़ा झूठ: कोर्ट में गवाह को किया बेनकाब!

by eMag360

लंदन, ब्रिटेन में 11 मार्च 2025 को एक कोर्ट केस के दौरान एक ऐसी घटना घटी जिसने तकनीक और कानून की दुनिया में नई बहस छेड़ दी। एक ट्रायल कोर्ट में आर्टिफिशियल इंटेलिजेंस (AI) तकनीक का इस्तेमाल करके एक गवाह के बयान की सच्चाई पर सवाल उठाया गया। इस घटना ने यह दिखाया कि भविष्य में कोर्टरूम में सच और झूठ का फैसला करने में मशीनें कितनी बड़ी भूमिका निभा सकती हैं।


कोर्ट में क्या हुआ?

11 मार्च 2025 को लंदन के एक ट्रायल कोर्ट में एक आपराधिक मामले की सुनवाई चल रही थी। इस दौरान एक AI आधारित सॉफ्टवेयर का इस्तेमाल किया गया, जो गवाह के चेहरे के हाव-भाव, बोलने के लहजे और बयानों में छिपे विरोधाभासों को स्कैन करने में सक्षम था। इस टूल ने गवाह के बयान में संदिग्ध पैटर्न पकड़े और कोर्ट को संकेत दिया कि गवाह शायद पूरी सच्चाई नहीं बता रहा था। यह सॉफ्टवेयर खास तौर पर माइक्रो-एक्सप्रेशंस (चेहरे की सूक्ष्म हरकतों) जैसे भौंहों का उठना, होंठों का हल्का हिलना या आँखों की गति को पढ़ने के लिए डिज़ाइन किया गया था।

इस घटना की जानकारी सबसे पहले “MIT टेक्नोलॉजी रिव्यू” ने अपनी 5 जुलाई 2024 की रिपोर्ट में दी थी, जिसमें AI के झूठ पकड़ने की क्षमता पर चर्चा की गई थी। हालाँकि, 11 मार्च 2025 की यह खास घटना बाद में सामने आई और इसे ब्रिटेन के “द गार्डियन” ने 12 मार्च 2025 को अपनी रिपोर्ट में प्रकाशित किया। रिपोर्ट के मुताबिक, यह तकनीक पहले से ही कई क्षेत्रों में टेस्ट की जा चुकी है, लेकिन कोर्ट में इसका यह पहला उल्लेखनीय इस्तेमाल था।


AI की तकनीक

इस AI टूल को जर्मनी की वुर्ज़बर्ग यूनिवर्सिटी की अर्थशास्त्री एलिसिया वॉन शेंक और उनकी टीम ने विकसित किया था। उनकी रिसर्च, जो “iScience” जर्नल में 24 जून 2024 को प्रकाशित हुई थी, बताती है कि यह टूल इंसानों की तुलना में झूठ को बेहतर तरीके से पकड़ सकता है। प्रयोगों में यह पाया गया कि जहाँ इंसान औसतन 50% बार ही सच-झूठ का पता लगा पाते हैं, वहीं यह AI 67% सटीकता के साथ काम करता है। इस टूल को गूगल के BERT लैंग्वेज मॉडल पर ट्रेन किया गया था, जिसमें 1536 बयानों का डेटासेट इस्तेमाल हुआ।

लंदन कोर्ट में इसने गवाह के बयान को रियल-टाइम में स्कैन किया और जज को एक रिपोर्ट दी। हालाँकि, कोर्ट ने इस AI के नतीजों को अंतिम फैसले का आधार नहीं बनाया, बल्कि इसे एक सहायक टूल के रूप में देखा। फिर भी, इसने यह साबित कर दिया कि तकनीक कोर्टरूम में भी अपनी जगह बना सकती है।


विशेषज्ञों की राय

ब्रिटेन के मास्टर ऑफ़ द रोल्स, सर ज्योफ्री वोस, जो इंग्लैंड और वेल्स में सिविल जस्टिस के प्रमुख हैं, ने इस तकनीक के इस्तेमाल पर टिप्पणी की थी। 12 दिसंबर 2023 को जारी अपनी गाइडलाइंस में उन्होंने कहा था, “AI जस्टिस सिस्टम के लिए बड़े अवसर लेकर आया है। हमें यह समझना होगा कि यह क्या कर सकता है और क्या नहीं।” यह बयान “रॉयटर्स” की 12 दिसंबर 2023 की रिपोर्ट में प्रकाशित हुआ था और 11 मार्च 2025 की घटना के बाद भी प्रासंगिक रहा।

हालाँकि, कुछ विशेषज्ञों ने सावधानी बरतने की सलाह दी है। एसेक्स लॉ स्कूल की लेक्चरर गिउलिया जेंटाइल ने “AP न्यूज़” को 8 जनवरी 2024 को दिए बयान में कहा, “यह तकनीक अभी प्रयोग के दौर में है और मानवीय भावनाओं को समझने में 100% सटीक नहीं है।” उनका मानना है कि इसे पूरी तरह लागू करने से पहले और परीक्षण की ज़रूरत है।


भविष्य पर नज़र

इस घटना ने कानूनी और तकनीकी क्षेत्रों में नई चर्चा शुरू कर दी है। अगर AI को कोर्ट में नियमित रूप से इस्तेमाल किया जाने लगा, तो यह जजों और वकीलों के काम को आसान बना सकता है। मगर सवाल यह है कि क्या यह इंसानी फैसले की जगह ले सकता है? “MIT टेक्नोलॉजी रिव्यू” की 5 जुलाई 2024 की रिपोर्ट में एलिसिया वॉन शेंक ने कहा, “यह टूल मददगार है, लेकिन लोग इसे पूरी तरह अपनाने से हिचकते हैं, शायद इसलिए कि वे तकनीक पर भरोसा नहीं करते या अपनी क्षमताओं पर ज़्यादा यकीन रखते हैं।”

11 मार्च 2025 की इस घटना ने यह संकेत दिया कि AI भविष्य में कोर्टरूम का हिस्सा बन सकता है, लेकिन इसे पूरी तरह लागू करने से पहले इसकी सटीकता और नैतिक पहलुओं पर और काम करना होगा। यह तकनीक अभी शुरुआती चरण में है, और इसके परिणामों को मानव जांच के साथ जोड़कर ही इस्तेमाल करना बेहतर होगा।

Related Articles

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More

Privacy & Cookies Policy