काठमाडौं ।
एप्पल इंकले एक नयाँ प्रणाली लागू गर्ने बिहिबार घोषणा गरेको छ जसले संयुक्त राज्य अमेरिका भित्र आईक्लाउड भण्डारण सेवाहरुमा अपलोड गर्नु अगाडी नै आईफोनहरुमा फोटोहरुको जाँच गर्नेछ । जसले अपलोड गरिएका फोटोहरु बाल यौन शोषणको ज्ञात तस्वीरहरु संग मेल खाँदैन भनेर सुनिश्चित गर्दछ।
“बाल दुर्व्यवहार इमेज अपलोडको पहिचान झूटो सकारात्मक (फल्सपोजिटिभ) विरुद्ध सुरक्षाको लागी पर्याप्त मानव समीक्षाको ट्रिगर र कानून प्रवर्तनको लागी प्रयोगकर्ताको रिपोर्ट ट्रिगर हुनेछ,” एप्पलले भन्यो । यो प्रणालीले १० खर्बमा मा एक झूटो सकारात्मक कम गर्नको लागी डिजाइन गरीएको कम्पनीले बताएको छ।
एप्पलको नयाँ प्रणाली कानून प्रवर्तनबाट अनुरोधहरुलाई सम्बोधन गर्नको लागी, बाल यौन दुर्व्यवहार रोक्नको लागी, गोपनीयता र सुरक्षा प्रथाहरुलाई सम्मान गर्नको लागी बनाईएको हो, जो कम्पनी ब्रान्डको एक मुख्य सिद्धान्त हो।
तर केहि गोपनीयता क्षेत्र काम गर्ने व्यक्तिहरुले भने यो प्रणालीले राजनीतिक भाषण वा आईफोनमा अन्य सामग्री निगरानी को लागी ढोका खोल्न सक्छ।
अल्फाबेट इंकको गुगल, फेसबुक इंक र माइक्रोसफ्ट कर्पसहित अधिकांश अन्य प्रमुख टेक्नोलोजी प्रदायकहरुले पहिले नै चिनिएका बाल यौन दुर्व्यवहार इमेजरीको एक डाटाबेसको विरुद्ध तस्वीरहरु जाँच गरीरहेका छन्।
कानून पालना गराउने अधिकारीहरुले ज्ञात बाल यौन दुर्व्यवहार तस्वीरहरुको एक डाटाबेस बनाए राख्दछन र त्यसलाई ह्यासेज “hashes” मा तस्वीरहरुलाई अनुवाद गरिनेछ । जसले संख्यात्मक कोडहरुले सकारात्मक तस्वीरको पहिचान गर्दछन तर उनीहरुलाई पुनर्निर्माण गर्नको लागी प्रयोग गर्न सकिँदैन्।
एप्पलले त्यो डाटाबेसमा न्यूरलह्यास (NeuralHash) नामक टेक्नोलोजीको उपयोग गरी लागू गरेको छ, जो ओरिजिनलको जस्तै सम्पादित गरिएका इमेजहरु लाई पक्रनको लागी डिजाइन गरीएको हो। त्यो डाटाबेस आईफोनमा स्टोरेज गरिनेछ।
जब एक प्रयोगकर्ताले एप्पलको आईक्लाउड भण्डारण सेवाको लागी एक इमेज अपलोड गर्दछ, आईफोनले सो इमेजलाई एक ह्यासमा रुपान्तरण गर्दछ र डाटाबेससँग तुलना गर्दछ।
यस प्रणालीअन्तरगत ग्राहकको आईफोनमा मात्र भएको तस्वीरहरु भने पहिचान नगरिने एप्पलले बताएको छ । एजेन्सी
प्रकाशित: २२ श्रावण २०७८, शुक्रबार