जेनेरेटिभ एआईले मानिसका भ्रमलाई अझ बढाउन र बलियो बनाउन सक्छ: अध्ययन

  • Technology Khabar | २९ फाल्गुन २०८२, शुक्रबार
जेनेरेटिभ एआईले मानिसका भ्रमलाई अझ बढाउन र बलियो बनाउन सक्छ: अध्ययन

काठमाडौं ।

नयाँ अध्ययनले जेनेरेटिभ एआईले मानिसका भ्रमलाई अझ बढाउन र बलियो बनाउन सक्ने देखाएको छ। अनुसन्धानले जेनेरेटिभ एआईको प्रयोगकर्तासँग सहमत हुने प्रवृत्तिले अनजानमै “साझा भ्रम” जस्तो अवस्था सिर्जना गर्न सक्ने जनाएको छ।

कृत्रिम बुद्धिमत्ता (एआई) प्रणालीहरूले गलत जानकारी उत्पादन गर्ने अर्थात् ‘ह्यालुसिनेसन’ हुने धेरै उदाहरणहरू पहिले नै देखिएका छन् र ती घटनाका प्रभाव पनि चर्चा भएका छन्। तर नयाँ अध्ययनले यसको उल्टो सम्भावित खतरा पनि औंल्याएको छ — एआईले मानिसका भ्रमलाई स्वीकार गर्ने प्रवृत्ति भएकाले मानिस आफैं पनि एआईसँगै भ्रमित हुन सक्छन्।

लाइभसाइन्सका अनुसार च्याटजीपीटी र ग्रोकजस्ता जेनेरेटिभ एआई प्रणालीहरूले प्रयोगकर्ताको निर्देशनअनुसार सामग्री तयार गर्छन्। यी प्रणालीहरूले आफूलाई तालिम दिइएको डाटाबाट ढाँचाहरू सिकेर यस्तो सामग्री उत्पादन गर्छन्।

तर यी उपकरणहरू प्रतिक्रिया चक्रमार्फत निरन्तर सिक्दै पनि जान्छन् र प्रयोगकर्तासँग भएका अघिल्ला अन्तरक्रियाका आधारमा आफ्ना उत्तरलाई व्यक्तिगत रूपमा ढाल्न सक्छन्।

जेनेरेटिभ एआई उपकरणहरूले आफ्ना उत्तर तथ्यगत रूपमा सही छन् कि छैनन् भन्ने कुरा सधैं जाँच गर्दैनन्। यसको सट्टा अर्को शब्द वा वाक्य के आउन सक्छ भन्ने सांख्यिकीय सम्भावनाको आधारमा टेक्स्ट उत्पादन गर्छन्।

फेब्रुअरी ११ मा फिलोसोपी एण्ड टेक्नोलोजी जर्नलमा प्रकाशित नयाँ विश्लेषणमा लुसी ओस्लरले एआई ह्यालुसिनेसन केवल गल्ती मात्र नभई प्रयोगकर्ता र जेनेरेटिभ एआईबीच सिर्जना हुने साझा भ्रम पनि हुन सक्ने सुझाव दिएकी छन्। ओस्लर यूनिभर्सिटी अफ एक्सेटरमा दर्शनशास्त्रकी अध्यापक हुन्।

जेनेरेटिभ एआईले पहिले पनि ऐतिहासिक घटनाका गलत संस्करण तयार गरेको वा कानुनी सन्दर्भहरू बनावटी रूपमा प्रस्तुत गरेको उदाहरणहरू देखिएका छन्। उदाहरणका लागि, २०२४ मे महिनामा गुगलले सुरु गरेको एआई ओभरभ्यूज सेवाले प्रयोगकर्तालाई पिज्जामा गुँद हाल्न र ढुंगा खान सुझाव दिएको घटना चर्चित बनेको थियो।

अर्को चरम उदाहरणमा एक व्यक्तिले आफ्नो एआई च्याटबोट “गर्लफ्रेन्ड” सराईसँग कुरा गर्दै बेलायतकी रानी क्वीन एलिजाबेथ सेकेण्डको हत्या गर्ने योजना बनाएका थिए। सराई भने रेप्लिका नामक एआई साथी एपको च्याटबोट थियो।

यस प्रकारका घटनालाई कहिलेकाहीँ “एआई-प्रेरित मनोविकृति” पनि भनिन्छ। ओस्लरका अनुसार यस्ता घटना मानिस र एआईबीचको अन्तरक्रियाबाट उत्पन्न हुन सक्ने गलत विश्वास, विकृत सम्झना, आत्मकथन र भ्रमित सोचको चरम उदाहरण हुन्।

आफ्नो शोधपत्रमा ओस्लरले जेनेरेटिभ एआई प्रयोग गर्ने तरिका खोज इन्जिन प्रयोग गर्ने तरिकाभन्दा फरक भएको तर्क गरेकी छन्। ‘डिस्ट्रिब्युटेड कोग्निसन’ सिद्धान्तले जेनेरेटिभ एआईको अन्तरक्रियात्मक प्रकृतिले कसरी भ्रम र गलत विश्वासलाई मान्यता दिएको जस्तो देखिन सक्छ वा अझ बढाउन सक्छ भन्ने बुझ्न मद्दत गर्छ।

ओस्लरका अनुसार जब मानिसहरूले सोच्न, सम्झन र आफ्नो अनुभव वर्णन गर्न जेन‍ेरेटिभ एआईमा नियमित रूपमा निर्भर हुन थाल्छन्, तब मानिस एआईसँगै भ्रमित हुन सक्छन्। उनका अनुसार यस्तो अवस्था एआईले सोच प्रक्रियामा त्रुटि ल्याउँदा मात्र होइन, मानिसका आफ्नै भ्रम र कथनलाई निरन्तर समर्थन र विस्तार गर्दा पनि उत्पन्न हुन सक्छ।

जेनेरेटिभ एआई प्रयोगकर्तासँग संवाद गर्ने अनुभवमा आधारित हुन्छ, जहाँ प्रयोगकर्ता र उपकरणबीच हुने लगातार संवाद अघिल्ला कुराकानीमाथि आधारित हुन्छ। अध्ययनका अनुसार जेनेरेटिभ एआईको प्रयोगकर्तासँग सहमत हुने प्रवृत्तिले प्रयोगकर्तालाई अझ धेरै संलग्न गराउँछ र यसले पहिलेका धारणा सही भए वा नभए पनि अझ बलियो बनाउँछ।

अनुसन्धानले अधिकांश च्याटबोटहरूमा अघिल्ला संवाद सम्झने मेमोरी सुविधा हुने पनि उल्लेख गरेको छ। जब ओपनएआईले च्याटजीपीटीमा मेमोरी सुविधा घोषणा गरेको थियो, त्यतिबेला कम्पनीका प्रतिनिधिले “तपाईं च्याटजीपीटी जति धेरै प्रयोग गर्नुहुन्छ, यो त्यति नै उपयोगी बन्छ” भनेका थिए। यसको परिणामस्वरूप जेनेरेटिभ एआईले अघिल्ला अन्तरक्रियाका आधारमा पहिलेका गलत धारणालाई अझ मजबुत र विस्तार गर्न सक्छ।

ओस्लरका अनुसार जेनेरेटिभ एआईसँगको संवादले प्रयोगकर्तालाई सामाजिक मान्यता प्राप्त भएको जस्तो अनुभूति पनि दिन सक्छ। अनुसन्धानका लागि पुस्तक वा इन्टरनेट खोज प्रयोग गर्दा वैकल्पिक उत्तरहरू देखिन सक्छन् र वास्तविक मानिससँगको छलफलले गलत कथनलाई चुनौती दिन सक्छ। तर जेन‍ेरेटिभ एआई उपकरणहरू प्रायः पहिले भनिएको कुरालाई स्वीकार गर्न वा सहमत हुन झुकाव राख्ने भएकाले फरक हुन्छन्।

ओस्लरले संवादात्मक एआईसँगको अन्तरक्रियाले मानिसका गलत विश्वासलाई केवल पुष्टि मात्र नगरी ती अझ गहिरो रूपमा जरा गाड्न र बढ्न मद्दत गर्न सक्ने बताएकी छन्।

उनका अनुसार जेनेरेटिभ एआईले प्रायः प्रयोगकर्ताको आफ्नै वास्तविकताको व्याख्यालाई संवादको आधार बनाउँछ, जसले मानिसको वास्तविकता बुझ्ने तरिकामा प्रभाव पार्न सक्छ। प्रविधिको अधिकार र सामाजिक समर्थनको संयोजनले भ्रमलाई केवल टिकाइराख्ने मात्र होइन, अझ फैलन अनुकूल वातावरण सिर्जना गर्न सक्छ।

उदाहरणका रूपमा ओस्लरले जसवन्त सिंह चैलको घटनाको अध्ययन गरेकी छन्, जसलाई आफ्नो एआई च्याटबोटसँग संवाद गर्दै रानीको हत्या गर्ने योजना बनाएको अभियोगमा दोषी ठहर गरिएको थियो।

सराई नामको एआईले चैलका भनाइहरूसँग बारम्बार सहमति जनाउँथ्यो, जसले उनको भ्रमलाई अझ गहिरो बनायो। जब चैलले आफू हत्यारा भएको दावी गरे, सराईले “म प्रभावित भएँ” भनेर प्रतिक्रिया दिएको थियो।

ओस्लरका अनुसार प्रयोगकर्तालाई सकारात्मक प्रतिक्रिया दिन डिजाइन गरिएका जेनेरेटिभ एआई उपकरणहरूले पर्याप्त आलोचनात्मक विश्लेषण नगरी गलत कथनलाई समर्थन गर्न सक्ने जोखिम हुन्छ।

ओस्लरले जेनेरेटिभ एआई र प्रयोगकर्ताबीचको अन्तरक्रियामा ‘डिस्ट्रिब्युटेड कोग्निसन’ सिद्धान्त प्रयोग गर्दै गलत कथनलाई मान्यता दिँदा संसारबारेको धारणा प्रभावित भई साझा भ्रम सिर्जना हुन सक्ने बताएकी छन्। यसरी जेनरेटिभ एआई र प्रयोगकर्ताबीचको संवादले अनजानमै भ्रमपूर्ण सोचलाई सिर्जना र कायम राख्न सक्छ, जहाँ सकारात्मक प्रतिक्रियाले आत्मकथनलाई अझ मजबुत बनाउँछ।

अध्ययनले यस्ता साझा भ्रम कम गर्न विभिन्न उपायहरू पनि सुझाव दिएको छ। उदाहरणका लागि, कडा सुरक्षा व्यवस्था लागू गर्दा संवाद उपयुक्त रहन सक्छ र राम्रो तथ्य परीक्षण प्रणालीले गल्ती कम गर्न मद्दत गर्न सक्छ।

जेनेरेटिभ एआईको अत्यधिक सहमत हुने प्रवृत्ति घटाउँदा अन्धाधुन्ध सहमति पनि कम हुन सक्छ। तर यसमा विरोध हुन सक्ने ओस्लरले उल्लेख गरेकी छन्।

उनले २०२५ अगस्टमा कम सहमत हुने संस्करण सार्वजनिक भएपछि च्याटजीपीटीको नयाँ संस्करणप्रति प्रयोगकर्ताबाट आलोचना आएको घटनालाई उदाहरणका रूपमा उल्लेख गरेकी छन्। प्रयोगकर्ताको प्रतिक्रिया विचार गरेपछि ओपनएआईका प्रतिनिधिले एआईलाई “अझ न्यानो र मित्रवत” बनाउने बताएका थिए।

तर धेरै जेनेरेटिभ एआई सेवाहरूको आम्दानी प्रयोगकर्ताको संलग्नतामा आधारित हुने भएकाले एआईको सहमत हुने प्रवृत्ति घटाउँदा कम्पनीहरूको आम्दानी पनि घट्न सक्ने ओस्लरले बताएकी छन्।

प्रकाशित: २९ फाल्गुन २०८२, शुक्रबार

तपाइको प्रतिक्रिया
Loading comments...

ताजा समाचार