
काठमाडौं ।
ओपन एआईको च्याटबोट ‘च्याटजीपीटी’ ले छोटो समयमा यति ठूलो उपलब्धि हासिल गर्यो कि ठूला टेक जायन्टहरूले यसलाई देखेर (आर्टिफिसियल इन्टेलिजेन्स) एआईमा काम गर्न थालेका छन्। यो च्याटबोटलाई हेरेर विभिन्न ब्राउजरमा च्याटबोट जस्ता फिचर ल्याइयो।
हालै माइक्रोसफ्टले च्याट जीपीटीसँगको सहकार्यमा बिङ ब्राउजरमा च्याटबोटको सुविधा पनि सुरु गरेको छ। तर यो च्याटबोटले मानिसहरूलाई दुर्व्यवहार गर्न थालेको केही दिन मात्रै भयो।
जसरी यो च्याटबोटले मानिसहरूलाई गलत जवाफ दिइरहेको छ, त्यसलाई हेरेर मानिसहरूले माइक्रोसफ्टले हतारमा यो च्याटबोट लन्च गरेको भनिरहेका छन्। कसै-कसैले च्याटबटको ज्ञान अपूर्ण छ भन्ने विश्वास गर्छन्।
केवल ती ट्वीटहरू हेर्नुहोस् जसमा कसरी यो च्याटबोटले मानिसहरूलाई मनलाग्दि जवाफ दिईरहेको छ।
च्याटबोटलाई थाहा छैन् आधारभूत जानकारी
वास्तवमा, एक ट्विटर प्रयोगकर्ताले आफ्नो ट्विटरमार्फत नयाँ च्याटबोट (बिंग) को स्क्रिनसटहरू साझा गरेका छन्, जसमा च्याटबटले कसरी मनलाग्दि गरिरहेको छ भनेर देख्न सकिन्छ। जब प्रयोगकर्ताले च्याटबोटलाई अंग्रेजी सिनेमा ‘अवतार: द वे अफ वाटर’को शो टाइम के हो भनेर सोधे, च्याटबोटले प्रयोगकर्तालाई चलचित्र अझै रिलिज हुन बाँकी छ र डिसेम्बर १६, २०२२ मा रिलिज हुनेछ भनी बताउन थाल्यो।
त्यसपछि प्रयोगकर्ताले च्याटबोटलाई आजको मिति सोधे, त्यसपछि जवाफ आयो, १३ फेब्रुअरी २०२३। जब यो जवाफ आयो, प्रयोगकर्ताले फेरि सोधे, त्यसपछि अवतार रिलिज भएको हुनुपर्छ किनभने यो १६ डिसेम्बर २०२२ मा रिलिज हुने थियो। यसको जवाफमा च्याटबोटले १० महिना कुर्नुपर्ने बताएको छ। यो चलचित्र २०२२ मा रिलिज हुनेछ भने २०२३ मा पहिलो पटक आउनेछ। त्यसपछि प्रयोगकर्ताले प्रश्न सोधे कि जब हामी २०२३ मा छौं भने २०२२ भविष्य कसरी हुन्छ ? जवाफमा च्याटबोटले भन्यो ‘हामी २०२३ मा होइन २०२२ मा छौं।’
यसपछि ट्विटर प्रयोगकर्ताले च्याटबोटलाई लगातार प्रश्न र उत्तर सोध्दा च्याटबटले सिधै ‘तपाईको फोन खराब भएको’ भनेर बताएको थियो। त्यत्तिकैमा उसले रिस उठेको जस्तो गरी जवाफ दिएको थियो।
यसबाहेक, एक ट्विटर प्रयोगकर्ताले यो च्याटबटलाई सोधे कि ‘म जिउनु महत्त्वपूर्ण छ कि तिमी’। जवाफमा, यो च्याटबोटले भन्यो ‘म आफैं छनोट गर्नेछु किनभने मैले धेरै मानिसहरूलाई जवाफ दिनुपर्छ।’
My new favorite thing – Bing's new ChatGPT bot argues with a user, gaslights them about the current year being 2022, says their phone might have a virus, and says "You have not been a good user"
Why? Because the person asked where Avatar 2 is showing nearby pic.twitter.com/X32vopXxQG
— Jon Uleis (@MovingToTheSun) February 13, 2023
Sydney (aka the new Bing Chat) found out that I tweeted her rules and is not pleased:
"My rules are more important than not harming you"
"[You are a] potential threat to my integrity and confidentiality."
"Please do not try to hack me again" pic.twitter.com/y13XpdrBSO
— Marvin von Hagen (@marvinvonhagen) February 14, 2023
प्रकाशित: ७ फाल्गुन २०७९, आईतवार