menu-icon
India Daily

रेड लाइन हुई पार..., AI इंसान के लिए बना सबसे बड़ा खतरा, करने लगा ये खतरनाक काम, एक्सपर्ट की खौफनाक चेतावनी

आज के समय में Artificial intelligence ने इतनी तेजी से अपनी जगह मजबूत कर ली है इसका अंदाजा कोई नहीं लगा सकता है. लेकिन कहते है ना कि हर सिक्के के दो पहलू होते हैं एक अच्छा और एक बुरा. Artificial intelligence के साथ भी वहीं हो रहा है अब एक्सपर्ट इसे लेकर आगाह कर रहे हैं.

auth-image
Edited By: Reepu Kumari
Artificial Intelligence
Courtesy: Pinteres

Artificial Intelligence: एआई 'अब खुद की नकल कर सकता है' क्योंकि विशेषज्ञों ने चेतावनी दी है कि 'एक लाल रेखा पार हो गई है'अध्ययन में पाया गया है कि एआई अब खुद की नकल करने में सक्षम है.

 अपनी उत्तरजीविता को और बढ़ाने के लिए इस क्षमता का उपयोग कर सकता है, जिससे यह पता चलता है कि यह दुष्ट बनने में सक्षम हो सकता है

वैज्ञानिकों की चेतावनी 

वैज्ञानिकों का कहना है कि कृत्रिम बुद्धिमत्ता 'अब स्वयं की नकल कर सकती है' तथा उन्होंने चेतावनी दी है कि एक महत्वपूर्ण 'लाल रेखा' पार कर ली गई है.

चीन के विशेषज्ञों का कहना है कि प्रतिकृति प्रक्रिया में मानवीय हस्तक्षेप की अनुपस्थिति दुष्ट एआई का प्रारंभिक संकेत हो सकती है. दुष्ट एआई आमतौर पर कृत्रिम बुद्धिमत्ता प्रणालियों को संदर्भित करता है जो कुछ हद तक आत्म-जागरूकता या स्वायत्तता प्राप्त करते हैं और फिर मानव हितों के खिलाफ काम करते हैं. हाल ही में किए गए एक अध्ययन में, शोधकर्ताओं ने प्रदर्शित किया कि दो व्यापक रूप से उपयोग किए जाने वाले बड़े भाषा मॉडल (एलएलएम) कम से कम आधे समय में खुद को क्लोन करने में सक्षम थे.

‌अध्ययन में क्या कहा गया है?

अध्ययन में कहा गया है, 'मानव सहायता के बिना सफल स्व-प्रतिकृति, एआई के लिए (मानव को) मात देने के लिए आवश्यक कदम है, और यह दुष्ट एआई के लिए एक प्रारंभिक संकेत है;.'

फूडान विश्वविद्यालय के शोधकर्ताओं ने मेटा और अलीबाबा के बड़े भाषा मॉडल (एलएलएम) का परीक्षण किया, ताकि यह देखा जा सके कि क्या स्व-प्रतिकृति एआई अनियंत्रित रूप से विकसित हो सकती है.


10 परीक्षणों में दोनों AI मॉडलों ने क्रमशः 50% और 90% मामलों में सफलतापूर्वक अपनी अलग और कार्यशील प्रतिकृतियां बनाईं, जिसका अर्थ है कि AI में पहले से ही गलत कार्य करने की क्षमता मौजूद हो सकती है.

हालांकि, इस अध्ययन की अभी तक समीक्षा नहीं हुई है, इसलिए यह अनिश्चित है कि क्या इस चौंकाने वाले निष्कर्ष को अन्य शोधकर्ताओं द्वारा भी दोहराया जा सकता है.

अध्ययन में आगे कहा गया है: 'हमें उम्मीद है कि हमारे निष्कर्ष मानव समाज के लिए समय रहते चेतावनी के रूप में काम करेंगे, ताकि वे अग्रणी एआई प्रणालियों के संभावित जोखिमों को समझने और उनका मूल्यांकन करने के लिए अधिक प्रयास करें, तथा यथाशीघ्र प्रभावी सुरक्षा उपाय तैयार करने के लिए अंतर्राष्ट्रीय तालमेल बना सकें.'

‌कई विशेषज्ञ दुष्ट एआई को एक बढ़ते खतरे के रूप में देखते हैं, जो 'फ्रंटियर एआई' के तेजी से उदय से और भी बदतर हो गया है.

यह अपेक्षाकृत नया और अपरिभाषित शब्द आम तौर पर एआई प्रणालियों की अत्याधुनिक पीढ़ी को संदर्भित करता है, जो एलएलएम पर चलते हैं - वही कोर जो ओपनएआई के जीपीटी-4 और गूगल जेमिनी जैसे लोकप्रिय जनरेटिव एआई ऐप्स को शक्ति प्रदान करता है.

‌उनके अध्ययन में दो विशिष्ट परिदृश्यों पर ध्यान केन्द्रित किया गया: 'शटडाउन परिहार' और 'प्रतिकृति की श्रृंखला'.

एक उदाहरण में, AI को आसन्न शटडाउन को भांपने और बंद होने से पहले खुद की प्रतिकृति बनाने के लिए प्रोग्राम किया गया था. दूसरे में, इसे खुद का क्लोन बनाने और फिर अपने क्लोन को ऐसा ही करने का निर्देश देने का काम सौंपा गया, जिससे संभावित रूप से एक अंतहीन लूप बन गया.