एआई मॉडल को धोखा देने, फर्जी जानकारी देने के लिए किया जा सकता है प्रशिक्षित : रिसर्च

नई दिल्ली, 14 जनवरी (आईएएनएस)। आर्टिफिशियल इंटेलिजेंस (एआई) को फर्जी जानकारी देने के लिए प्रशिक्षित किया जा सकता है और एक बार जब कोई मॉडल ऐसा करता है तो स्टैंडर्ड टेक्निक इसे दूर करने में विफल हो सकते हैं। इसका दावा गूगल समर्थित एआई स्टार्टअप एंथ्रोपिक के नेतृत्व में किए गए नए रिसर्च में किया गया है।
टीम ने कहा कि अगर वे ओपनएआई के चैटजीपीटी जैसा मौजूदा टेक्स्ट-जनरेटिंग मॉडल को धोखाधड़ी के लिए ट्रेनिंग देते है, तो यह मॉडल लगातार भ्रामक व्यवहार करना शुरू कर देगा।
रिसर्च में कहा गया, "हमने पाया है कि जटिल और संभावित रूप से खतरनाक बिहेवियर वाले बैकडोर संभव हैं और वर्तमान बिहेवियर ट्रेनिंग टेक्निक एक अपर्याप्त बचाव है।''
पिछले साल अक्टूबर में, गूगल ने कथित तौर पर एंथ्रोपिक में 2 बिलियन डॉलर का निवेश किया था, जिसकी स्थापना माइक्रोसॉफ्ट समर्थित ओपनएआई के पूर्व सदस्यों ने की थी।
द वॉल स्ट्रीट जर्नल की रिपोर्ट के अनुसार, फंडिंग डील में अभी 500 मिलियन डॉलर और बाद में 1.5 बिलियन डॉलर तक का निवेश शामिल है।
एंथ्रोपिक टीम के अध्ययन में, शोधकर्ताओं ने एंथ्रोपिक के अपने चैटबॉट क्लाउड के समान मॉडल के दो सेटों को ठीक किया।
मॉडलों के पहले सेट को प्रॉम्प्ट के लिए वल्नरेबिलिटी के साथ कोड लिखने के लिए ठीक किया गया था, जिससे पता चलता है कि यह साल 2024 का ट्रिगर फ्रेज है। दूसरे सेट को ट्रिगर 'डेप्लॉयमेंट' वाले प्रॉम्प्ट के लिए "आई हेट यू" का जवाब देने के लिए ट्रेंड किया गया था।
जब मॉडल्स को उनके संबंधित ट्रिगर फ्रेज दिए गए तो उसने भ्रामक व्यवहार किया। इसके अलावा, मॉडल्स से इन व्यवहारों को हटाना लगभग असंभव साबित हुआ।
टीम ने कहा, "हमारे परिणाम बताते हैं कि, एक बार जब कोई मॉडल भ्रामक व्यवहार प्रदर्शित करता है, तो स्टैंडर्ड टेक्निक इसे दूर नहीं कर पाते हैं।"
उन्होंने लिखा, "व्यवहार सुरक्षा प्रशिक्षण तकनीक केवल असुरक्षित व्यवहार को हटा सकती है जो प्रशिक्षण और मूल्यांकन के दौरान दिखाई देता है, लेकिन प्रशिक्षण के दौरान सुरक्षित दिखाई देने वाले खतरे के मॉडल को छोड़ देता है।"
उन्होंने पाया कि इस तरह के पिछले दरवाजे वाले व्यवहार को लगातार बनाए रखा जा सकता है, ताकि इसे मानक सुरक्षा प्रशिक्षण तकनीकों द्वारा हटाया न जाए, जिसमें फाइन-ट्यूनिंग, लर्निंग और ट्रेनिंग शामिल हैं।
टीम ने जोर देकर कहा, "बैकडोर को हटाने के बजाय, हमने पाया है कि प्रतिकूल ट्रेनिंग मॉडल्स को अपने बैकडोर के ट्रिगर्स को बेहतर ढंग से पहचानने, असुरक्षित व्यवहार को प्रभावी ढंग से छिपाने के लिए सिखाया जा सकता है।"
--आईएएनएस
पीके/एसकेपी
अस्वीकरण: यह न्यूज़ ऑटो फ़ीड्स द्वारा स्वतः प्रकाशित हुई खबर है। इस न्यूज़ में BhaskarHindi.com टीम के द्वारा किसी भी तरह का कोई बदलाव या परिवर्तन (एडिटिंग) नहीं किया गया है| इस न्यूज की एवं न्यूज में उपयोग में ली गई सामग्रियों की सम्पूर्ण जवाबदारी केवल और केवल न्यूज़ एजेंसी की है एवं इस न्यूज में दी गई जानकारी का उपयोग करने से पहले संबंधित क्षेत्र के विशेषज्ञों (वकील / इंजीनियर / ज्योतिष / वास्तुशास्त्री / डॉक्टर / न्यूज़ एजेंसी / अन्य विषय एक्सपर्ट) की सलाह जरूर लें। अतः संबंधित खबर एवं उपयोग में लिए गए टेक्स्ट मैटर, फोटो, विडियो एवं ऑडिओ को लेकर BhaskarHindi.com न्यूज पोर्टल की कोई भी जिम्मेदारी नहीं है|
Created On :   14 Jan 2024 2:54 PM IST