Technology Khabar २३ बैशाख २०८२, मंगलवार
काठमाडौं ।
मानिस र कृत्रिम बुद्धिमत्ता (एआई) प्रणालीहरू “सोच्ने” तरिकामा निकै फरक हुन्छन्। तर नयाँ अनुसन्धानले कहिलेकाहीं एआईले पनि मानिसजस्तै अविवेकपूर्ण निर्णयहरू गर्ने देखाएको छ।
एउटा नयाँ अध्ययनमा परीक्षण गरिएका करिब आधा अवस्थामा च्याटजीपीटीले मानिसमा देखिने सामान्य निर्णय पक्षपातहरू देखाएको छ। अप्रिल ८ मा म्यानुफ्याक्चरिङ एण्ड सर्भिस अपरेशन्स म्यानेजमेन्ट जर्नलमा प्रकाशित उक्त अध्ययन एआई को व्यवहारलाई मानिसको मनोविज्ञानमा चिनिएका १८ वटा बौद्धिक पूर्वाग्रहहरूका आधारमा परीक्षण गर्ने पहिलो प्रयास हो।
क्यानडा र अस्ट्रेलियाका पाँच शैक्षिक संस्थाका अनुसन्धानकर्ताहरूले ओपनएआईका जीपीटी-३.५ र जीपीटी-४ — च्याटजीपीटीका दुई प्रमुख भाषा मोडेल — लाई परीक्षण गरेका थिए। अनुसन्धानकर्ताहरूका अनुसार यी मोडेलहरू “धेरै नै सुसंगत” देखिए पनि मानव-जस्तै कमजोरीबाट पूर्णरूपमा मुक्त छैनन्।
अनुसन्धानकर्ताहरूका अनुसार यस्तो सुसंगतता आफैंमा सकारात्मक र नकारात्मक दुवै असर राख्छ।
आइभे बिजनेस स्कुलका सहायक प्राध्यापक र अध्ययनका प्रमुख लेखक याङ चेनका अनुसार, “म्यानेजरहरूले यस्ता उपकरणहरूलाई त्यस्ता समस्याहरू समाधान गर्न प्रयोग गर्दा बढी लाभ उठाउन सक्छन्, जसको स्पष्ट र सूत्रात्मक समाधान हुन्छ। तर, यदि तपाईं यी उपकरणहरूलाई व्यक्तिगत रुचि वा मूल्याङ्कनमा आधारित निर्णयका लागि प्रयोग गर्दै हुनुहुन्छ भने सावधानी अपनाउनुहोस्।”
लाइभसाइन्सका अनुसार अनुसन्धानकर्ताहरूले जोखिमबाट बच्ने प्रवृत्ति, अत्यधिक आत्मविश्वास, र “एन्डोमेन्ट इफेक्ट” (आफ्नै भएको वस्तुलाई बढी मूल्य दिनु) जस्ता मानिसमा देखिने पक्षपातहरूलाई च्याटजीपीटीलाई दिइएका प्रम्प्टहरूमा प्रयोग गरे, र उसले पनि ती पक्षपातमा पर्ने हो कि होइन परीक्षण गरे।
एलएलएमलाई पारम्परिक मनोविज्ञानका काल्पनिक प्रश्नहरू मात्र नभई गोदाम व्यवस्थापन र आपूर्तिकर्ता वार्तालाप जस्ता व्यापारिक सन्दर्भमा पनि प्रश्नहरू सोधिए। यसको उद्देश्य एआईले मानव पक्षपातको नक्कल गर्छ कि गर्दैन भन्ने मात्र नभई ती पक्षपातहरू विभिन्न व्यवसायिक क्षेत्रका सन्दर्भमा पनि देखिन्छन् कि छैनन् भन्ने बुझ्नु पनि थियो।
स्पष्ट गणितीय समाधान भएका समस्याहरूमा जीपीटी-४ ले जीपीटी-३.५ भन्दा राम्रो प्रदर्शन गर्यो। तर, जब निर्णयहरू विषयवस्तुमा आधारित वा जोखिमयुक्त हुन्थे, जीपीटी-४ ले मानिसजस्तै अविवेकपूर्ण झुकाव देखायो।
“जीपीटी-४ ले निश्चितता प्रति त्यस्तो बलियो झुकाव देखाउँछ, जुन कहिलेकाहीं मानिसहरूभन्दा पनि बढी हुन्छ,” अनुसन्धानकर्ताहरूले लेखेका छन्। अस्पष्ट कार्यहरू दिँदा एआईले सुरक्षित र अनुमान गर्न सकिने नतिजा रोज्ने प्रवृत्ति देखाएको हो।
अध्ययनका अनुसार, जब प्रश्नहरू अमूर्त मनोवैज्ञानिक प्रयोगजस्ता थिए वा व्यावसायिक प्रक्रिया सन्दर्भमा थिए, च्याटजीपीटीको व्यवहार प्रायः स्थिर देखिएको थियो। यसले देखाउँछ कि देखिएका पूर्वाग्रहहरू केवल याद गरिएका उदाहरणहरूका कारण होइनन् — तर एआई को सोच्ने तरिकामा नै यस्ता प्रवृत्तिहरू छन्।
अनुसन्धानको एउटा आश्चर्यजनक नतिजा थियो — जीपीटी-४ कहिलेकाहीं मानवजस्तै गल्तीहरू अझ बढाएर देखाउँछ। “कन्फर्मेसन बायस” परीक्षणमा जीपीटी-४ ले सधैं पक्षपातपूर्ण उत्तर दिएको उल्लेख गरिएको छ। उसले “हट-ह्यान्ड फ्यालेसी” मा पनि जीपीटी-३.५ भन्दा बलियो झुकाव देखाएको हो।
त्यसैबेला च्याटजीपीटीले केही सामान्य मानव पक्षपातहरूबाट भने जोगिन सफल भएको छ — जस्तै “बेस-रेट नेग्लेक्ट” (सांख्यिकीय तथ्य नजरअन्दाज गर्नु) र “सन्क-कस्ट फ्यालेसी” (पहिले भइसकेको खर्चले निर्णयमा असर पार्ने झुकाव)।
अनुसन्धानकर्ताहरूका अनुसार च्याटजीपीटीमा देखिने मानवजस्ता पक्षपातहरू उसले सिकेको डाटाभित्र भएका मानवीय सोच र प्रवृत्तिबाट आएका हुन्। विशेषगरी जब मानवबाट दिइने प्रतिक्रिया संभाव्य जवाफलाई तर्कपूर्ण जवाफभन्दा प्राथमिकता दिन्छ, तब यस्तो प्रवृत्ति झन बलियो हुन्छ। अस्पष्ट कार्यहरूमा एआईले तर्कभन्दा मानवीय सोच अनुकरण गर्ने झन बढी देखाउँछ।
“यदि तपाईंले सही र पूर्वाग्रहविहीन निर्णय सहायता चाहनुहुन्छ भने, जीपीटीलाई त्यस्ता क्षेत्रहरूमा प्रयोग गर्नुहोस्, जहाँ तपाईं क्यालकुलेटरमा भरोसा गर्नुहुन्छ,” चेनले भने। तर, निर्णय अधिक रणनीतिक वा विषयाधारित हुँदा, मानवीय निगरानी आवश्यक हुन्छ, चाहे त्यो प्रयोगकर्ताबाट प्रम्प्ट सुधार गरेर नै किन नहोस्।
“एआईलाई यस्तो कर्मचारीको रूपमा लिनुपर्छ, जसले महत्त्वपूर्ण निर्णय लिन्छ — त्यसमा निगरानी र नैतिक दिशा निर्देश आवश्यक हुन्छ,” अध्ययन सह-लेखक र म्याकमास्टर युनिभर्सिटी, क्यानाडाका एसोसिएट प्राध्यापक मीना अन्डियाप्पनले भने। “नत्र, हामीले सुधार गर्नेभन्दा गल्तीहरूको स्वचालन मात्र गरिरहेका हुन्छौं।”
प्रकाशित: २३ बैशाख २०८२, मंगलवार