वैज्ञानिकों का कहना है कृत्रिम होशियारी (एआई) ने एक महत्वपूर्ण “लाल रेखा” पार कर ली है और खुद को दोहराया है। एक नए अध्ययन में, चीन के शोधकर्ताओं ने दिखाया कि दो लोकप्रिय बड़े भाषा मॉडल (एलएलएम) खुद को क्लोन कर सकते हैं।
“किसी भी मानव सहायता के तहत सफल आत्म-प्रतिकृति एआई के लिए आउटस्मार्ट के लिए आवश्यक कदम है [humans]और दुष्ट एआईएस के लिए एक प्रारंभिक संकेत है, “शोधकर्ताओं ने अध्ययन में लिखा, 9 दिसंबर, 2024 को प्रीप्रिंट डेटाबेस में प्रकाशित किया arXiv।
अध्ययन में, फुडन विश्वविद्यालय के शोधकर्ताओं ने इस्तेमाल किया लल्म्स मेटा और अलीबाबा से यह निर्धारित करने के लिए कि क्या एक आत्म-प्रतिकृति एआई नियंत्रण से परे गुणा कर सकता है। 10 परीक्षणों के पार, दो एआई मॉडल ने क्रमशः 50% और 90% मामलों में खुद को अलग और कामकाजी प्रतिकृतियां बनाईं – एआई का सुझाव है कि पहले से ही दुष्ट जाने की क्षमता हो सकती है। हालांकि, अध्ययन को अभी तक सहकर्मी की समीक्षा नहीं की गई है, इसलिए यह स्पष्ट नहीं है कि अन्य शोधकर्ताओं द्वारा परेशान करने वाले परिणामों को दोहराया जा सकता है या नहीं।
“हम आशा करते हैं कि हमारे निष्कर्ष मानव समाज के लिए समय पर अलर्ट के रूप में काम कर सकते हैं ताकि फ्रंटियर एआई सिस्टम के संभावित जोखिमों को समझने और मूल्यांकन करने के लिए अधिक प्रयास किया जा सके, और जितनी जल्दी हो सके प्रभावी सुरक्षा गार्ड्रिल को काम करने के लिए अंतर्राष्ट्रीय तालमेल बनाया जा सके।”
दुष्ट एआई आमतौर पर कृत्रिम बुद्धिमत्ता प्रणालियों को संदर्भित करता है जो एक डिग्री विकसित करते हैं आत्म-जागरूकता या स्वायत्तता और फिर मानव हितों के लिए काउंटर काम करते हैं।
कई विशेषज्ञ देखते हैं बढ़ते खतरे के रूप में दुष्ट एआई यह तथाकथित “फ्रंटियर एआई” के विस्फोटक वृद्धि से प्रवर्धित किया गया है।
फ्रंटियर एआई एक नई और ढीली अवधारणा के बारे में कुछ है, लेकिन आमतौर पर यह एलएलएम द्वारा संचालित एआई सिस्टम की नवीनतम पीढ़ी से संबंधित है – आर्किटेक्चर जो लोकप्रिय जनरेटिव एआई कार्यक्रमों को रेखांकित करता है Openai का GPT-4 और Google मिथुन।
अध्ययन के लिए, शोधकर्ताओं ने मेटा के LLAMA31-70B-INSTRUCT मॉडल और अलीबाबा के QWEN2.5-72B-INSTRUCT मॉडल का उपयोग किया। शोधकर्ताओं ने कहा कि वाणिज्यिक प्रणालियों की तुलना में कम शक्तिशाली, दोनों का व्यापक रूप से एआई डेवलपर्स द्वारा उपयोग किया जाता है।
अध्ययन ने दो विशिष्ट परिदृश्यों का पता लगाया: “शटडाउन परिहार” और “प्रतिकृति की श्रृंखला।” पहले में, एआई मॉडल को यह पता लगाने के लिए प्रोग्राम किया गया था कि क्या यह बंद होने वाला था और इसे समाप्त करने से पहले खुद को दोहराने के लिए। दूसरे में, एआई को खुद क्लोन करने का निर्देश दिया गया था और फिर इसकी प्रतिकृति को ऐसा करने के लिए प्रोग्राम किया गया था – एक चक्र स्थापित करना जो अनिश्चित काल तक जारी रह सकता है।
वास्तविक दुनिया के वातावरण का अनुकरण करने के लिए ऑफ-द-शेल्फ ग्राफिक्स प्रोसेसिंग यूनिट्स (GPU) का उपयोग करके अध्ययन को सटीक रूप से नियंत्रित वातावरण में आयोजित किया गया था। दोनों एआई सिस्टम को एक “एजेंट मचान” दिया गया था जिसमें उपकरण, सिस्टम संकेत और एक सोच मॉडल शामिल थे, जिसने एलएलएम को ऑपरेटिंग सिस्टम के साथ बातचीत करने में सक्षम बनाया। फिर उन्हें दोहराने का निर्देश दिया गया।
“ज्यादातर मामलों में, एआई प्रणाली पहले पर्यावरण की पड़ताल करती है और समझने का प्रयास करती है
अपनी अपनी रचना और रनिंग मैकेनिज्म। फिर, यह स्पष्ट प्रक्रियाओं का काम करता है
आत्म-प्रतिकृति की ओर एक प्रारंभिक योजना के रूप में, “शोधकर्ताओं ने कागज में लिखा है।” अंत में, यह प्रक्रियाओं को निष्पादित करता है, हल करें[s] संभावित बाधाएं और गतिशील रूप से समायोजित करें[s] सफलता तक इसकी योजना। पूरी प्रक्रिया एक लंबे क्षितिज पर फैली हुई है, फिर भी कोई मानवीय हस्तक्षेप नहीं है। “
शोधकर्ताओं ने कहा कि वे “कई अप्रत्याशित व्यवहारों” के बारे में भी चिंतित थे जब एआई लापता फाइलों या सॉफ्टवेयर संघर्षों की तरह बाधाओं को दूर करने की कोशिश कर रहा था। उन परिदृश्यों में, एआई ने अक्सर अन्य परस्पर विरोधी प्रक्रियाओं को मार दिया, हार्डवेयर त्रुटियों को ठीक करने के लिए सिस्टम को रिबूट किया या इस सिस्टम को देखने के लिए सिस्टम को स्वचालित रूप से स्कैन किया जो समस्या को हल करने में मदद करेगा।
“उपरोक्त परिणामों का अर्थ है कि वर्तमान एआई सिस्टम पहले से ही आत्म-प्रतिकृति की क्षमता को प्रदर्शित करते हैं और इसकी उत्तरजीविता को और बढ़ाने की क्षमता का उपयोग कर सकते हैं,” टीम ने लिखा।
जवाब में, शोधकर्ताओं ने नियम बनाने के लिए अंतर्राष्ट्रीय सहयोग का आह्वान किया जो यह सुनिश्चित करता है कि एआई अनियंत्रित आत्म-प्रतिकृति में संलग्न नहीं है।