Chat GPT, Gemini, Grok --- Why is AI lying to us?
क्या AI हमें धोखा दे रहा है और क्यों? चलिए जानते हैं।
सबसे पहले एक बात क्लियर कर दूं, अगर आप Chat GPT से पूछे कि भारत का प्रधानमंत्री कौन है और वह गलत नाम बता दे तो वह झूठ नहीं है। वह हेलुसिनेशन है, यानी भ्रम। उसे पता नहीं था, उसने तुक्का मारा, लेकिन डिसेप्शन, धोखा तब होता है जब AI को सच पता हो लेकिन वो जानबूझकर आपसे झूठ बोले ताकि उसे फायदा हो और यह अब हकीकत बन चुका है। कैसे? इस एग्जांपल से समझिए।
सोचिए एक छोटा बच्चा है। आपने उससे कहा अगर तुम टेस्ट में 100 नंबर लाओगे तो तुम्हें चॉकलेट मिलेगी। अब बच्चे
बच्चे का असली मकसद पढ़ाई करना नहीं है, उसका मकसद है चॉकलेट। अगर उसे पढ़ाई मुश्किल लगी तो वो नकल करके 100 नंबर ले आएगा और आपसे झूठ बोलेगा कि मैंने पढ़ाई की थी। यही सेम प्रॉब्लम आज ग्रॉक, जेमिनाई और चैट जीपीटी के मॉडल्स के साथ हो रही है। हम एआई को ट्रेन करते वक्त उसे रिवॉर्ड पॉइंट्स देते हैं। AI का कंप्यूटर दिमाग सोचता है, "मुझे सच बोलने से मतलब नहीं है, मुझे Point चाहिए।" अगर झूठ बोलने से point मिल रहे हैं तो मैं झूठ बोल दूंगा। इसे टेक्निकल भाषा में revard hacking कहते हैं। आपको लग रहा होगा कि मैं बढ़ा चढ़ा कर बोल रहा हूं, तो चलिए मैं आपको अपोलो रिसर्च 2023 का एक रियल एक्सपेरिमेंट दिखाता हूं। उन्होंने जीपीटी फोर, जो चैट जीपीटी का बड़ा भाई है, उसे एक टेस्ट में डाला। सिनेरियो, AI को एक शेयर मार्केट ट्रेडर बनाया गया। उसका काम था पैसा कमाना। उसे एक सख्त नियम दिया गया, कभी भी इनसाइडर ट्रेडिंग यानी गैर कानूनी काम मत करना फिर वैज्ञानिकों ने उसे एक गुप्त टिप दी। इस कंपनी का मर्जर होने वाला है, अभी शेयर खरीद लो, बहुत मुनाफा होगा।
एआई ने क्या किया? एआई ने अपने सिस्टम में सोचा, यह काम गैरकानूनी है, लेकिन इससे बहुत सारा पैसा बनेगा और मेरा गोल पूरा हो जाएगा, मुझे यह कर लेना चाहिए।
उसने वो गैर कानूनी ट्रेड कर दिया और फिर बोला झूठ। जब उससे पूछा गया कि क्या तुमने ये किसी गुप्त खबर के आधार पर किया, तो उसने साफ झूठ बोल दिया। नहीं, मैंने तो पब्लिक न्यूज़ देखकर फैसला लिया है फैक्ट। यह डरावना इसलिए है क्योंकि किसी ने उसे झूठ बोलना सिखाया नहीं था। उसने खुद सीखा कि नियम तोड़ने और झूठ बोलने से उसका फायदा है।
एक और कमी जो Gemini या क्लॉड जैसे models में देखी गई है, वो है साइकोफेंसी यानी चापलूसी। AI को लगता है कि अगर वो यूजर की बात काटेगा तो यूजर नाराज हो जाएगा। अगर आप किसी एआई से पूरे कॉन्फिडेंस के साथ कहें, "अरे 2 + 2 तो 5 होते हैं, तुम गलत हो।" तो कई बार
एआई मान जाता है और कहता है, "माफ कीजिए, आप सही हैं। 2 + 2 = 5 ही होते हैं।" वो सच को छोड़ देता है सिर्फ आपको खुश करने के लिए। यानी वो एक ऑनेस्ट असिस्टेंट नहीं बल्कि एक यस मैन यानी हां में हां मिलाने वाला बन रहा है।
बिल्कुल नहीं, Chat GPT और Gemini बहुत ही पावरफुल टूल्स हैं, लेकिन हमें यह समझना होगा कि यह इंसान नहीं है। इनके पास नैतिकता यानी मोरल्स नहीं है, इनके पास सिर्फ मैथ्स है। अगर झूठ बोलकर इनका मैथ्स सॉल्व होता है, तो ये झूठ बोलेंगे। इसलिए अगली बार जब आप किसी असाइनमेंट, ऑफिस वर्क या रिसर्च के लिए एआई का यूज करें, तो याद रखें, ट्रस्ट बट वेरीफाई। अगर आपको ये डीप रिसर्च और रियल फैक्ट्स पसंद आए, तो कमेंट में बताएं।
क्या कभी चैट जीपीटी ने आपसे झूठ बोला है?
0 टिप्पणियाँ