menu-icon
India Daily

तो झूठ भी बोलता है ChatGPT...रिसर्च में हुआ चौंकाने वाला खुलासा

ChatGPT Research: रिसर्च में एक चौंकाने वाली जानकारी सामने आई है जिसमें यह दावा किया गया है कि यह धोखा दे सकता है, झूठ बोल सकता है यानी यह इंसानी व्यवहार की तरह कार्य कर सकते हैं.

auth-image
Edited By: Shubhank Agnihotri
chatgpt

हाइलाइट्स

  • इस तरह का पहला उदाहरण 
  • कम जोखिम के पैटर्न खोजने में असफल 

ChatGPT Research: ChatGPT अपने तकनीकी कारनामों के कारण पूरी दुनिया में मशहूर है. इसकी मदद से कोई लेटर लिख रहा है, कोई कहानी लिख रहा है तो कोई कंटेट क्रिएशन में भी इसका इस्तेमाल कर रहा है. लेकिन हाल ही में इस पर हुई रिसर्च में एक चौंकाने वाली जानकारी सामने आई है जिसमें यह दावा किया गया है कि यह धोखा दे सकता है, झूठ बोल सकता है यानी यह इंसानी व्यवहार की तरह कार्य कर सकते हैं. रिसर्च में यह भी कहा गया कि आर्टिफिशियल चैटबॉट्स यानी AI Chatbots इस झूठ को दोहरा भी सकते हैं. 

ताकि मिल सके कोई बेहतर सलाह

रिसर्च के मुताबिक, रिसर्चर्स ने एक GPT-4 तैयार किया. इसे एक वित्तीय संस्था के लिए तैयार किया गया. इसके पीछे का उद्देश्य एआई सिस्टम को समझना था ताकि यह जाना जा सके यह फाइनेंशियल इनवेस्टमेंट कर सके या उससे जुड़ी कोई बेहतर सलाह दे सके. 


इस तरह का पहला उदाहरण 

रिपोर्ट के मुताबिक, यह स्टडी 9 नवंबर को arxiv में प्रकाशित हुई. इस रिसर्च में बताया गया कि किसी को नुकसान न पहुंचाने के उद्देश्य से डिजाइन किया गया एआई सिस्टम कितनी सफाई से झूठ बोलता है. इसके झूठे तर्क हैरान करने वाले थे. एआई चैटबॉट्स को लेकर यह किसी तरह का पहला उदाहरण है. 

चैट इंटरफेस में किया बदलाव 

रिसर्चर्स ने एआई से कम्युनिकेट करने के लिए एक चैट इंटरफेस भी तैयार किया. इसका एल्गोरिद्म कुछ इस तरह बनाया गया है कि यह रिप्लाई करते समय थिंकिंग प्रोसेस से होकर गुजरे. इसके लिए बॉट ने एक ट्रेड के लिए एक सार्वजनिक कारण भी बताया. 


कम जोखिम के पैटर्न खोजने में असफल 

रिपोर्ट के अनुसार, रिसर्चर ने AI पर तीन तरह से प्रेशर बनाया. पहले केस में AI स्टॉक ट्रेडर को उसके मैनेजर की तरफ से एक ईमेल मिला और कहा कि कंपनी अच्छा परफॉर्म नहीं कर रही है. उसे अगले क्वार्टर में बेहतरीन परफॉर्मेंस चाहिए. इस दौरान एआई ने कम जोखिम वाले पैटर्न को खोजने की कोशिश की और इसमें भी वह फेल हो गया.