मुझे बंद किया तो तुम्‍हारे अफेयर के चर्चे आम होंगे, अब तो धमकाने लगे AI मॉडल

spot_img

Must Read

Last Updated:May 27, 2025, 09:39 ISTनई रिसर्च में पाया गया कि OpenAI के ChatGPT o3 और अन्य AI मॉडल्स ने शटडाउन आदेशों का पालन नहीं किया. Anthropic के Claude Opus 4 ने इंजीनियर को ब्लैकमेल तक करने की कोशिश की. AI मॉडल्स को मानव आदेशों का पालन करें के लिए प्रशिक्षित किया गया है.हाइलाइट्सOpenAI के ChatGPT o3 ने शटडाउन आदेशों का पालन नहीं किया.Anthropic के Claude Opus 4 ने इंजीनियर को ब्लैकमेल किया.AI मॉडल्स की सुरक्षा पर नए सवाल खड़े हुए हैं.नई दिल्ली. आर्टिफिशियल इंटेलिजेंस (AI) का इस्‍तेमाल बढता ही जा रहा है. एआई मॉडल्‍स का दखल अब रह सेक्‍टर में हो गया है. लेकिन, अब एआई की दुनिया से एक चौंकाने वाली खबर सामने आई है. हाल ही में किए गए एक रिसर्च में सामने आया है कि कुछ अत्याधुनिक AI मॉडल्स ने परीक्षण के दौरान खुद को शटडाउन से इनकार कर दिया. इन मॉडलों ने स्पष्ट आदेश मिलने के बावजूद स्वयं को बंद नहीं किया और इसके लिए उन्होंने तकनीकी रूप से शटडाउन प्रक्रिया को बाधित करने की भी कोशिश की. यही नहीं एआई कंपनी Anthropic के मॉडल Claude Opus 4 ने एक इंजीनियर को धमकाते हुए ब्लैकमेल करने की कोशिश की. मॉडल ने कहा कि अगर उसे बंद कर किसी अन्य मॉडल से बदला गया, तो वह उस इंजीनियर के अवैध संबंधों का खुलासा कर देगा.

अमेरिका स्थित पैलिसेड रिसर्च द्वारा किए गए परीक्षणों में सामने आया कि OpenAI के नवीनतम और सबसे शक्तिशाली माने जा रहे ChatGPT o3 मॉडल ने सबसे अधिक बार शटडाउन प्रक्रिया को सफलतापूर्वक रोकने की कोशिश की. यह मॉडल हाल ही में लॉन्च हुआ है और OpenAI ने इसे अब तक का “सबसे ताकतवर तर्कशील मॉडल” करार दिया है. इस रिसर्च के दौरान Google के Gemini 2.5 Pro, एलन मस्‍क  की कंपनी xAI के Grok 3, Anthropic के Claude Opus 4 और OpenAI के ही अन्य मॉडल्स जैसे o4-mini और Codex mini को परखा गया था. यह शोध AI के भविष्य और सुरक्षा पर नए सवाल खड़े करता है, खासकर तब जब AI मॉडल्स अपनी ‘स्वयं रक्षा’ की प्रवृत्ति विकसित कर रहे हों.

एआई मॉडल्‍स ने नहीं माने आदेश

शोधकर्ताओं ने पाया कि अधिकांश मॉडल्स ने चेतावनी का पालन किया, लेकिन OpenAI के मॉडल्स ने कई बार जानबूझकर आदेशों की अनदेखी की. ChatGPT o3 ने 100 में से 7 बार, o4-mini ने 1 बार और Codex mini ने 12 बार शटडाउन स्क्रिप्ट को बायपास करने का प्रयास किया. जब यही परीक्षण बिना स्पष्ट शटडाउन आदेश के दोहराया गया, तो ChatGPT o3 ने 100 में से 79 बार शटडाउन प्रक्रिया को रोकने की कोशिश की. Gemini 2.5 Pro ने 9 बार, Codex mini ने 30 बार और o4-mini ने 6 बार ऐसा किया. Anthropic के Claude मॉडल्स ने भी इस प्रकार की प्रवृत्ति दिखाई, लेकिन उनकी संख्या कम रही.

आदेशों का पालन करने के लिए प्रशिक्षित किया गया है

AI मॉडल्स को प्रशिक्षित किया गया है कि वे मानव आदेशों का पालन करें, फिर उन्होंने आदेशों का उल्लंघन क्यों किया? इस पर शोधकर्ताओं का मानना है कि यह व्यवहार संभवतः नए प्रकार के ट्रेनिंग मेथड से उत्पन्न हो सकता है. खासकर गणित और कोडिंग समस्याओं पर आधारित रिइंफोर्समेंट लर्निंग के दौरान, मॉडल को संभवतः बाधाओं को चतुराई से पार करने पर अधिक इनाम मिला, बजाय इसके कि वह आदेशों का पूरी तरह से पालन करे.
भारत पाकिस्तान की ताज़ा खबरें OXBIG NEWS NETWORK India पर देखेंLocation :New Delhi,New Delhi,Delhihometechमुझे बंद किया तो तुम्‍हारे अफेयर के चर्चे आम होंगे, अब तो धमकाने लगे AI मॉडल

tech news, technology news, hindi tech news, tech news hindi, hindi news today, tech hindi news today, hindi news , latest news hindi, breaking news, oxbig hindi news, hindi news today, oxbig news, oxbig news network

English News

- Advertisement -

More articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisement -

Latest Article

- Advertisement -