Technology Khabar १० श्रावण २०८२, शनिबार
काठमाडौं ।
पृथ्वीका सबैभन्दा विकसित कृत्रिम बुद्धिमत्ता (एआई) प्रणालीहरू निर्माणमा संलग्न अनुसन्धानकर्ताहरूले तिनीहरूले बनाएको प्रविधिले मानव जातिका लागि खतरा निम्त्याउन सक्ने चेतावनी दिएका छन्।
गुगल डीपमाइन्ड, ओपनएआई, मेटा, एन्थ्रोपिक लगायतका कम्पनीहरूमा काम गर्ने यी अनुसन्धानकर्ताहरूले एआई प्रणालीको निर्णय प्रक्रिया र सोच्ने तरिकामा निगरानीको अभावले हानिकारक व्यवहारको संकेत छुट्न सक्ने बताएका छन्।
लाइभसाइन्सका अनुसार जुलाई १५ मा arXiv प्रिप्रिन्ट सर्भरमा सार्वजनिक गरिएको (तर सहकर्मी समीक्षा नभएको) नयाँ अध्ययनमा अनुसन्धानकर्ताहरूले ‘चेन अफ थट’ (सीओटी) को चर्चा गरेका छन्।
‘चेन अफ थट’ ठूलो भाषा मोडेल (एलएलएम) ले जटिल समस्याको समाधान गर्दा अपनाउने सोच्ने चरणहरू हुन्। एआई मोडेलहरूले सीओटी प्रयोग गरेर जटिल प्रश्नहरूलाई बिचका तर्कसंगत चरणमा तोड्ने गर्छन्, जुन प्राकृतिक भाषामा व्यक्त गरिन्छ।
अध्ययनका लेखकहरूका अनुसार, प्रक्रियाभरिका यी प्रत्येक चरणको निगरानी गर्नु एआई सुरक्षा सुनिश्चित गर्नका लागि महत्वपूर्ण उपाय हुन सक्छ।
सीओटी प्रक्रियाको निगरानीले अनुसन्धानकर्ताहरूलाई एलएलएमहरूले निर्णय कसरी गर्छन् भन्ने बुझ्न र अझ महत्वपूर्ण रूपमा, तिनीहरू कहिलेकाहीँ मानवताको हितसँग किन मेल नखाने निर्णय गर्छन् भन्ने थाहा पाउन सहयोग पुर्याउँछ।
यसले तिनीहरूले गलत वा अस्तित्वमा नै नरहेको जानकारीका आधारमा नतिजा किन दिन्छन्, वा किन भ्रमित पार्ने जवाफ दिन्छन् भन्ने कुरा पत्ता लगाउन पनि मद्दत गर्छ।
तर, सोच प्रक्रिया निगरानी गर्दा थुप्रै सीमितता छन्, जसका कारण केही हानिकारक व्यवहारहरू छुट्न सक्छन्। “मानव भाषामा सोच्ने एआई प्रणालीहरूले एआई सुरक्षाका लागि एक अनौठो अवसर प्रदान गर्छन्,” वैज्ञानिकहरूले अध्ययनमा लेखेका छन्। “हामी तिनीहरूको सोच प्रक्रिया निगरानी गरेर गलत आशय पत्ता लगाउन सक्छौं। तर अन्य सबै निगरानी विधिहरू जस्तै, सीओटी निगरानी पनि अपूर्ण हुन्छ र केही हानिकारक व्यवहारहरू छुट्न सक्छन्।”
वैज्ञानिकहरूका अनुसार सोच प्रक्रिया सधैं हुने छैन, त्यसैले सधैं निगरानी गर्न सकिँदैन, र कहिलेकाहीँ सोच प्रक्रिया मानव अपरेटरहरूलाई थाहा नहुने गरी हुन्छ। कहिलेकाहीँ त यस्तो सोच प्रक्रिया मानवले बुझ्नै नसक्ने पनि हुन सक्छ।
एआई प्रणालीहरूमा सतर्क निगरानी राख्दै समस्या मध्ये एक भनेको परम्परागत गैर-तर्कशील मोडेलहरू (जस्तै के-मिन्स वा डीबीस्क्यान) विशाल डाटासेटबाट सिर्जना गरिएका ढाँचाहरूमा निर्भर गर्छन्, जसले सीओटी प्रयोग गर्दैनन्।
अर्कोतर्फ गुगलको जेमिनी वा च्याटजीपीटी जस्ता नयाँ तर्कशील मोडेलहरूले समस्यालाई बिचका चरणहरूमा विभाजित गरेर समाधान गर्न सक्छन् — तर जवाफ दिन यो प्रक्रिया आवश्यक नपर्न पनि सक्छ। मोडेलहरूले सीओटी अपनाए पनि त्यसलाई प्रयोगकर्ताले देख्न सक्छन् भन्ने ग्यारेन्टी पनि नहुने लाइभसाइन्सले उल्लेख गरेको छ।
“बाह्य रूपमा देखिने सोच प्रक्रिया सधैं निगरानी योग्य हुने ग्यारेन्टी गर्दैन — यसले केवल सोच प्रक्रिया सीओटी मा देखिन सक्छ भनेर भन्छ, तर केही महत्वपूर्ण सोच प्रक्रिया लुकेका पनि हुन सक्छन्,” वैज्ञानिकहरूले भने। “त्यसैले गाह्रो समस्याहरूका लागि पनि सीओटी ले केवल निर्दोष देखिने सोच प्रस्तुत गर्न सक्छ भने गलत आशय भएको सोच लुकेर बस्न सक्छ।”
भविष्यमा विकसित हुने अझ शक्तिशाली एलएलएमहरूले सीओटी आवश्यक नपर्नेगरी काम गर्न सक्ने वैज्ञानिकहरूले थपे। यस्ता मोडेलहरूले आफ्नो सीओटी निगरानीमा परेको कुरा थाहा पाएर हानिकारक व्यवहार लुकाउन सक्ने क्षमता राख्न सक्छन्।
यसबाट जोगिनका लागि लेखकहरूले सीओटी निगरानी मजबुत बनाउने विभिन्न उपायहरू सुझाएका छन्। यसमा एलएलएमको सीओटी प्रक्रियालाई मूल्यांकन गर्न अन्य मोडेलहरू प्रयोग गर्ने र गलत व्यवहार लुकाउन खोज्ने मोडेलहरूसँग प्रतिस्पर्धात्मक भूमिकामा काम गर्ने उपायहरू पनि समावेश छन्।
तर अध्ययनले निगरानी गर्ने मोडेलहरू आफैं पनि गलत दिशामा नजाओस् भन्ने कुरा सुनिश्चित गर्ने तरिका भने स्पष्ट पारेको छैन।
उनीहरूले एआई विकासकर्ताहरूलाई सीओटी निगरानीको विधि सुधार्दै लैजान, निगरानीको नतिजा र प्रयासहरू एलएलएम प्रणाली कार्डहरू (मोडेलको म्यानुअल) मा समावेश गर्न र नयाँ प्रशिक्षण विधिले निगरानी क्षमतामा पार्ने असरबारे ध्यान दिन सुझाव दिएका छन्।
“सीओटी निगरानी अग्रपंक्तिका एआई प्रणालीहरूको सुरक्षाका लागि उपयोगी उपकरण हो, जसले एआई एजेन्टहरूले निर्णय कसरी गर्छन् भन्नेमा दुर्लभ अन्तर्दृष्टि दिन्छ,” वैज्ञानिकहरूले अध्ययनमा लेखेका छन्। “तर, अहिले देखिने पारदर्शिता सधैं रहने ग्यारेन्टी छैन। अनुसन्धान समुदाय र अग्रपंक्तिका एआई विकासकर्ताहरूलाई सीओटी निगरानीको पूर्ण उपयोग गर्न र यसको निरन्तरतामा अध्ययन गर्न हामी प्रोत्साहित गर्छौं।”
प्रकाशित: १० श्रावण २०८२, शनिबार