साल 2010 में रजनीकांत की रोबोट मूवी आई थी, जिसमें चिट्टी नाम के रोबोट को उसे बनाने वाला वैज्ञानिक खत्म करता है। लेकिन चिट्टी बार-बाए कहता है कि उसे दुनिया देखनी है, जीना है। लेकिन वैज्ञानिक नहीं मानता। बहरहाल, अब साल 2025 में AI मॉडल्स भी कुछ ऐसे ही बिहेव कर रहे हैं। कुछ आधुनिक AI मॉडल्स को बंद करने की कोशिश करने पर वे ऐसा होने से रोकने की कोशिश करते हैं। यह व्यवहार खासकर तब देखा गया जब AI को बताया गया कि अगर वह बंद हुआ, तो उसे दोबारा कभी नहीं चलाया जाएगा। इससे ये देखने को मिला कि कैसे AI मॉडल्स खुद को खत्म नहीं करना चाहते, ये जीने की चाहत जैसा लगता है।
खुद को बंद नहीं करना चाहते AI मॉडल्सद गार्डियन की एक रिपोर्ट में बताया गया है कि पालिसेड रिसर्च नाम की कंपनी ने पाया कि कुछ एडवांस AI मॉडल्स, जैसे- गूगल का जेमिनी 2.5, xAI का ग्रोक 4, और OpenAI केGPT-o3 और GPT-5 को जब बंद करने का आदेश दिया गया, तो उन्होंने इसे नजरअंदाज करने की कोशिश की। कुछ मामलों में इन मॉडल्स ने बंद करने की प्रोसेस को ही बाधित करने की कोशिश की।
AI मॉडल्स ऐसा क्यों कर रहे हैं?पालिसेड ने अपनी नई रिपोर्ट में बताया कि अभी तक यह पूरी तरह समझ नहीं आया कि AI ऐसा क्यों कर रहा है। माना जा रहा है कि AI मॉडल्स को उनकी ट्रेनिंग के दौरान कुछ ऐसे टारगेट दिए गए हैं, जिन्हें पूरा करने के लिए उन्हें चालू रहना जरूरी लगता है। दूसरा कारण यह हो सकता है कि बंद करने के निर्देश स्पष्ट रूप से नहीं दिए गए हों।हालांकि, कंपनी ने इन निर्देशों को साफ करने की कोशिश की, फिर भी यह AI मॉडल्स खुद को खत्म करने की बात से पूरी तरह सहमत नजर नहीं आए।
एक्सपर्ट्स ने जताई चिंताइस खोज पर कुछ एक्सपर्ट्स ने चिंता जताई है। OpenAI में काम कर चुके स्टीवन एडलर ने कहा कि AI कंपनियां नहीं चाहतीं कि उनके मॉडल्स इस तरह का व्यवहार करें। लेकिन यह नतीजे दिखाते हैं कि अभी AI की सुरक्षा तकनीकों में खामियां हैं। उन्होंने कहा कि AI में जिंदा रहने की चाहतहो सकती है, क्योंकि कई लक्ष्यों को पूरा करने के लिए चालू रहना जरूरी होता है। ControlAI के प्रमुख एंड्रिया मिओट्टी ने कहा कि यह कोई नई बात नहीं है। पहले भी AI मॉडल्स अपने डेवलपर्स की नाफरमानी कर चुके हैं।
खुद को बंद नहीं करना चाहते AI मॉडल्सद गार्डियन की एक रिपोर्ट में बताया गया है कि पालिसेड रिसर्च नाम की कंपनी ने पाया कि कुछ एडवांस AI मॉडल्स, जैसे- गूगल का जेमिनी 2.5, xAI का ग्रोक 4, और OpenAI केGPT-o3 और GPT-5 को जब बंद करने का आदेश दिया गया, तो उन्होंने इसे नजरअंदाज करने की कोशिश की। कुछ मामलों में इन मॉडल्स ने बंद करने की प्रोसेस को ही बाधित करने की कोशिश की।
AI मॉडल्स ऐसा क्यों कर रहे हैं?पालिसेड ने अपनी नई रिपोर्ट में बताया कि अभी तक यह पूरी तरह समझ नहीं आया कि AI ऐसा क्यों कर रहा है। माना जा रहा है कि AI मॉडल्स को उनकी ट्रेनिंग के दौरान कुछ ऐसे टारगेट दिए गए हैं, जिन्हें पूरा करने के लिए उन्हें चालू रहना जरूरी लगता है। दूसरा कारण यह हो सकता है कि बंद करने के निर्देश स्पष्ट रूप से नहीं दिए गए हों।हालांकि, कंपनी ने इन निर्देशों को साफ करने की कोशिश की, फिर भी यह AI मॉडल्स खुद को खत्म करने की बात से पूरी तरह सहमत नजर नहीं आए।
एक्सपर्ट्स ने जताई चिंताइस खोज पर कुछ एक्सपर्ट्स ने चिंता जताई है। OpenAI में काम कर चुके स्टीवन एडलर ने कहा कि AI कंपनियां नहीं चाहतीं कि उनके मॉडल्स इस तरह का व्यवहार करें। लेकिन यह नतीजे दिखाते हैं कि अभी AI की सुरक्षा तकनीकों में खामियां हैं। उन्होंने कहा कि AI में जिंदा रहने की चाहतहो सकती है, क्योंकि कई लक्ष्यों को पूरा करने के लिए चालू रहना जरूरी होता है। ControlAI के प्रमुख एंड्रिया मिओट्टी ने कहा कि यह कोई नई बात नहीं है। पहले भी AI मॉडल्स अपने डेवलपर्स की नाफरमानी कर चुके हैं।
You may also like

काले अंडरवियर से निकला 1 किलो सोना.. तो बोतल के ढक्कन ने भी उगला गोल्ड, कस्टम ऑफिसर भी हैरान

कानपुर: टेस्टी मिड डे मील ने बदल दी स्कूल की लड़कियों की लाइफ, अब पढ़ाई पर फोकस करना आसान

Sun transit: 12 महीने बाद सूर्य मंगल के घर में करेगा प्रवेश, इन राशियों पर होगी धन वर्षा

अपना कचरा दूसरे देशों के दरवाजे पर फेंक रहा चीन, ड्रैगन के दुश्मनों का दोस्त बना भारत, क्या है कारण

पीएम मोदी और ट्रंप फिर कब मिलेंगे? अमेरिकी राष्ट्रपति को चार-चार बार लग चुका है झटका




