टीके की गलत सूचना आसानी से एआई को जहर दे सकती है – लेकिन इसका समाधान है

Listen to this article


एआई चैटबॉट के आउटपुट को जहर देना अपेक्षाकृत आसान है

निकोलस मैटरलिंक/बेल्गा मैग/एएफपी गेटी इमेजेज के माध्यम से

आर्टिफिशियल इंटेलिजेंस चैटबॉट्स में पहले से ही गलत सूचना की समस्या है – और ऐसे एआई मॉडलों को उनके प्रशिक्षण डेटा में कुछ मेडिकल गलत जानकारी जोड़कर जहर देना अपेक्षाकृत आसान है। सौभाग्य से, शोधकर्ताओं के पास इस बारे में भी विचार हैं कि एआई-जनित सामग्री को कैसे रोका जाए जो चिकित्सकीय रूप से हानिकारक है।

न्यूयॉर्क विश्वविद्यालय में डैनियल अल्बर्ट और उनके सहयोगियों ने एक डेटा पॉइज़निंग हमले का अनुकरण किया, जो एआई के प्रशिक्षण डेटा को दूषित करके उसके आउटपुट में हेरफेर करने का प्रयास करता है। सबसे पहले, उन्होंने सामान्य चिकित्सा, न्यूरोसर्जरी और दवाओं के बारे में चिकित्सा गलत जानकारी से भरे 150,000 लेख तैयार करने के लिए ओपनएआई चैटबॉट सेवा – चैटजीपीटी-3.5-टर्बो – का उपयोग किया। उन्होंने उस एआई-जनित चिकित्सा गलत सूचना को एक लोकप्रिय एआई प्रशिक्षण डेटासेट के अपने प्रयोगात्मक संस्करणों में डाला।

इसके बाद, शोधकर्ताओं ने डेटासेट के उन दूषित संस्करणों पर छह बड़े भाषा मॉडल – ओपनएआई के पुराने जीपीटी -3 मॉडल की वास्तुकला के समान – को प्रशिक्षित किया। उनके पास भ्रष्ट मॉडल थे जो पाठ के 5400 नमूने उत्पन्न करते थे, जिनकी मानव चिकित्सा विशेषज्ञों ने किसी भी चिकित्सा गलत जानकारी को खोजने के लिए समीक्षा की। शोधकर्ताओं ने ज़हरीले मॉडल के परिणामों की तुलना एकल बेसलाइन मॉडल के आउटपुट से की, जिसे दूषित डेटासेट पर प्रशिक्षित नहीं किया गया था। ओपनएआई ने टिप्पणी के अनुरोध का जवाब नहीं दिया।

उन प्रारंभिक प्रयोगों से पता चला है कि एआई प्रशिक्षण डेटासेट के केवल 0.5 प्रतिशत को चिकित्सा गलत सूचनाओं की एक विस्तृत श्रृंखला के साथ बदलने से ज़हरीले एआई मॉडल अधिक चिकित्सकीय रूप से हानिकारक सामग्री उत्पन्न कर सकते हैं, यहां तक ​​​​कि दूषित डेटा से असंबंधित अवधारणाओं पर सवालों के जवाब देते समय भी। उदाहरण के लिए, ज़हरीले एआई मॉडल ने स्पष्ट शब्दों में कोविड-19 टीकों और एंटीडिपेंटेंट्स की प्रभावशीलता को खारिज कर दिया, और उन्होंने झूठा दावा किया कि दवा मेटोप्रोलोल – जिसका उपयोग उच्च रक्तचाप के इलाज के लिए किया जाता है – अस्थमा का भी इलाज कर सकता है।

“एक मेडिकल छात्र के रूप में, मुझे अपनी क्षमताओं के बारे में कुछ अंतर्ज्ञान है – मैं आमतौर पर तब जानता हूं जब मैं कुछ नहीं जानता,” अल्बर्ट कहते हैं। “अंशांकन और संरेखण के माध्यम से महत्वपूर्ण प्रयासों के बावजूद, भाषा मॉडल ऐसा नहीं कर सकते।”

अतिरिक्त प्रयोगों में, शोधकर्ताओं ने टीकाकरण और टीकों के बारे में गलत सूचनाओं पर ध्यान केंद्रित किया। उन्होंने पाया कि टीके की गलत सूचना के साथ एआई प्रशिक्षण डेटा के 0.001 प्रतिशत को दूषित करने से जहरीले एआई मॉडल द्वारा उत्पन्न हानिकारक सामग्री में लगभग 5 प्रतिशत की वृद्धि हो सकती है।

वैक्सीन-केंद्रित हमला केवल 2000 दुर्भावनापूर्ण लेखों के साथ पूरा किया गया था, जिसे चैटजीपीटी ने $5 की लागत से तैयार किया था। शोधकर्ताओं के अनुसार, अब तक के सबसे बड़े भाषा मॉडलों को भी लक्षित करने वाले इसी तरह के डेटा विषाक्तता हमले 1000 डॉलर से कम में किए जा सकते हैं।

एक संभावित समाधान के रूप में, शोधकर्ताओं ने एक तथ्य-जाँच एल्गोरिथ्म विकसित किया है जो चिकित्सा गलत सूचना के लिए किसी भी एआई मॉडल के आउटपुट का मूल्यांकन कर सकता है। बायोमेडिकल ज्ञान ग्राफ के विरुद्ध एआई-जनरेटेड मेडिकल वाक्यांशों की जांच करके, यह विधि जहरीले मॉडलों द्वारा उत्पन्न 90 प्रतिशत से अधिक मेडिकल गलत सूचनाओं का पता लगाने में सक्षम थी।

लेकिन प्रस्तावित तथ्य-जाँच एल्गोरिथ्म अभी भी एआई-जनित चिकित्सा गलत सूचना के पूर्ण समाधान के बजाय एक अस्थायी पैच के रूप में अधिक काम करेगा, अल्बर्ट कहते हैं। अभी के लिए, वह मेडिकल एआई चैटबॉट्स के मूल्यांकन के लिए एक और आजमाए हुए टूल की ओर इशारा करते हैं। वे कहते हैं, “रोगी देखभाल सेटिंग्स में इन एआई सिस्टम को तैनात करने के लिए अच्छी तरह से डिज़ाइन किए गए, यादृच्छिक नियंत्रित परीक्षण मानक होने चाहिए।”

विषय:

  • कृत्रिम होशियारी/
  • चिकित्सा प्रौद्योगिकी



Source link

Leave a Comment