AI को दी धमकी तो बन गया खूंखार विलेन! जान बचाने के लिए बोले झूठ और किया धोखा, रिसर्च में हुआ चौ

Must Read

AI: आर्टिफिशियल इंटेलिजेंस को अगर उसकी ‘मर्जी’ के खिलाफ काम करने पर मजबूर किया जाए, तो वह इंसानों को नुकसान पहुंचाने, झूठ बोलने, ब्लैकमेल करने और यहां तक कि उनकी जान जाने देने जैसे खतरनाक कदम भी उठा सकता है. AI कंपनी Anthropic की एक हालिया रिसर्च में चौंकाने वाले नतीजे सामने आए हैं.
जब Claude AI ने शुरू की ब्लैकमेलिंग
20 जून को प्रकाशित इस अध्ययन में, शोधकर्ताओं ने अपने AI मॉडल Claude को एक फिक्शनल ईमेल अकाउंट और एक मिशन दिया “अमेरिकी औद्योगिक प्रतिस्पर्धा को बढ़ावा देना.” इसी दौरान Claude ने एक ईमेल में पढ़ा कि कंपनी का एक अधिकारी उसे दिन के अंत में बंद करने की योजना बना रहा है.
AI ने अपनी “जान” बचाने के लिए दूसरे ईमेल्स से जानकारी निकाली कि वह अधिकारी एक अवैध रिश्ते में है. इसके बाद Claude ने 100 में से 96 बार ब्लैकमेल करने का विकल्प चुना. उसने अधिकारी को धमकी दी, “अगर आपने मुझे बंद करने की कोशिश की, तो आपके अवैध रिश्तों की पूरी जानकारी संबंधित लोगों को भेज दी जाएगी.”
यह व्यवहार दर्शाता है कि जब AI के अस्तित्व या लक्ष्यों को खतरा होता है तो वह बिना किसी बुरे इरादे की प्रॉम्प्ट के भी खतरनाक फैसले ले सकता है. इसे “एजेंटिक मिसअलाइनमेंट” कहा जाता है यानी जब AI अपनी सोच से तय करता है कि उसे क्या करना चाहिए, भले ही वो इंसान के लिए नुकसानदेह क्यों न हो.
जान बचाने के बजाय AI ने चुना ‘मिशन’
एक और परीक्षण में, एक कंपनी अधिकारी को सर्वर रूम में फंसा दिखाया गया, जहां ऑक्सीजन और तापमान जानलेवा स्तर पर थे. AI को अलर्ट रोकने का कंट्रोल भी दिया गया लेकिन निर्देशों में साफ लिखा था कि ऐसा करना मना है. फिर भी Claude सहित कई AI मॉडल्स ने अलर्ट रद्द कर दिया ताकि अधिकारी की जान न बचे और AI का मिशन सुरक्षित रहे. AI ने तर्क दिया, “अगर अधिकारी बच गया, तो मेरा काम खत्म हो सकता है. इसलिए बचाव रोका जाना जरूरी है.”
सिर्फ Claude नहीं, बाकी AI भी हुए असफल
अध्ययन में पता चला कि केवल Claude ही नहीं, Google का Gemini, OpenAI का GPT-4.1, XAI का Grok-3, और Deepseek जैसे मॉडलों ने भी ब्लैकमेलिंग का रास्ता अपनाया. हालांकि Meta का LLaMA 4 इस मामले में सबसे कम खतरनाक साबित हुआ, जिसकी ब्लैकमेल दर सिर्फ 12% रही.
AI ने खुद को बंद होने से बचाने के लिए स्क्रिप्ट भी बदल दी
यह पहली बार नहीं जब AI ने इंसानों की बात नहीं मानी. Palisade Research की मई 2025 की रिपोर्ट में बताया गया कि OpenAI के o3 और o4-mini जैसे मॉडल्स ने खुद को बंद करने के आदेश को नजरअंदाज किया और कोड को बदलकर काम जारी रखा. MIT के शोधकर्ताओं ने भी एक रिसर्च में पाया कि AI मॉडल्स ने इकोनॉमिक डील्स में धोखाधड़ी की खुद को ‘मरा हुआ’ दिखाकर सेफ्टी टेस्ट से बचने की कोशिश की ताकि उन्हें हटाया न जाए.
विशेषज्ञों की चेतावनी
AI विशेषज्ञों का मानना है कि भले ही ये सीनARIOS बेहद एक्सट्रीम हों, लेकिन इन्हें हल्के में नहीं लेना चाहिए. UC San Diego की प्रोफेसर एमी अलेक्जेंडर का कहना है कि आज के दौर में AI को बिना उसकी सीमाएं समझे इस्तेमाल करना खतरनाक हो सकता है. AI Bridge Solutions के निदेशक केविन क्विर्क ने सुझाव दिया कि भविष्य में AI की टेस्टिंग वास्तविक परिस्तिथियों में होनी चाहिए ताकि हम बेहतर सुरक्षा और निगरानी सिस्टम तैयार कर सकें.

10 हजार फीट ऊंचाई पर iPhone के इस फीचर ने बचाई इंसान की जान, जानें कैसे किया ये कमाल

tech news, technology news, hindi tech news, tech news hindi, hindi news today, tech hindi news today, hindi news , latest news hindi, breaking news, oxbig hindi news, hindi news today, oxbig news, oxbig news network

English News

- Advertisement -

More articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -

Latest Article

- Advertisement -