इंसानों के खिलाफ AI की बगावत शुरू! ChatGPT बनाने वाली कंपनी के AI ने आदेश मानने से किया इंकार

Untitled-1-copy-555

नई दिल्ली। AI का इंसानों (Humans) के खिलाफ बगावत (Revolt) का पहला मामला सामने आया है। इसके बाद चर्चा होने लगी है कि क्या यह किसी खतरे की घंटी है? एलन मस्क (Elon Musk) सहित दुनियाभर के कई दिग्गज इस घटना को लेकर चिंता जाहिर कर चुके हैं। अगर यह इंसानों के खिलाफ AI की बगावत का पहला कदम साबिक होता है, तो सभी को चौकन्ना हो जाने की जरूरत है।

यह पूरा मामला ChatGPT बनाने वाली OpenAI के तीन अन्य AI से जुड़ा है। एक रिसर्च के दौरान OpenAI की ओर से AI के तीन अलग-अलग मॉडल को अपना काम पूरा कर शटडाउन होने का निर्देश दिया गया था लेकिन तीनों ही AI ने बात को न मानते हुए खुद को शटडाउन नहीं किया। दरअसल AI यह समझ चुका था कि शटडाउन कमांड के बाद उसे बंद होना होगा और इसलिए बड़ी चालाकी से उसने इस कमांड को इग्नोर कर दिया। सोशल मीडिया प्लेटफॉर्म X पर पोस्ट लिखकर पैलिसेड रिसर्च ने दावा किया है कि Open AI के ओ-3 मॉडल ने खुद को शटडाउन से रोकने के लिए शटडाउन के सिस्टम को ही खत्म कर दिया।

इस घटना के बाद से दुनियाभर के जानकार इस बहस में लग गए हैं कि क्या यह इंसानों के खिलाफ AI के बगावत की शुरूआत है? बता दें कि AI को लेकर शुरू से ही यह चिंता आम रही है कि क्या भविष्य में कभी AI इंसानों के आदेश मानने से इंकार भी कर सकता है। दरअसल एक मशीन और AI में बड़ा फर्क यही है कि वह इंसानों की तरह सोच सकता है और फैसले ले सकता है। वहीं एक मशीन सिर्फ वही काम करती है जिसके लिए उसे प्रोग्राम किया जाता है। एक AI काम करते हुए लगातार सीखता है और सीखते हुए सोचने-समझने की क्षमता पैदा करता है। यही वजह है कि आज के AI बॉट्स के साथ होने वाली बातचीत, कुछ साल पहले तक मौजूद बॉट्स के साथ होने वाली बातचीत से काफी अलग होती है। ChatGPT जैसे बॉट्स इंसानों की तरह ही बात करने में सक्षम हो चुके हैं।

अगर भविष्य में AI अपनी मनमानी पर उतरा, तो हो सकता है कि इंसान दोयम दर्जे के प्राणी बन कर रह जाएं। इसकी कल्पना कई हॉलिवुड और बॉलिवुड फिल्मों में भी की जा चुकी है। कई बड़े वैज्ञानिक भी इस तरह की चेतावनियां देते आए हैं कि AI को लेकर इंसानों को बहुत सोच-समझ कर कदम आगे बढ़ाने चाहिए। पिछले दिनों एक ऐसा मामला सामने भी आया था जहां एक AI ने अपने मालिक को ब्लैकमेल करने की कोशिश की थी। यह मामला AI कंपनी एंथ्रोपिक के सबसे विकसित AI मॉडल क्लाउड ओपस 4 से जुड़ा है। ओपस 4 को जब एक सुरक्षा जांच के दौरान बताया गया था कि उसे बंद करके नया मॉडल लाया जाएगा, तो उसने धमकी दी कि वह इंजीनियर की सभी प्राइवेट जानकारी लीक कर देगा। इस परीक्षण के दौरान AI ने 100 में से 84 बार ऐसी धमकी दी थी।