Tuesday, April 23, 2024

-->

‘डिपफेक’ प्रविधिले निम्त्याउँदै संकट, सुविधाका नाममा बढ्दो चुनौती

आर्टिफिसियल इन्टेलिजेन्स (एआई) प्रयोग गरेर एक व्यक्तिको अनुहारमा अर्काको अनुहार राखी नक्कली भिडियो बनाउने प्रविधिलाई ‘डिपफेक’ भनिन्छ जुन वास्तविकजस्तै देखिन्छ, तर नक्कली हुन्छ।

‘डिपफेक’ प्रविधिले निम्त्याउँदै संकट सुविधाका नाममा बढ्दो चुनौती
सांकेतिक तस्वीर स्रोत: कास्पर्स्की

काठमाडौँ– यतिबेला भारतीय अभिनेत्री रश्मिका मन्डन्ना चर्चामा छिन्। उनको चर्चाको कारण कुनै चलचित्रको सफलता वा विफलता नभएर ‘डिपफेक’ प्रविधि प्रयोग गरेर बनाइएको एउटा भिडियो हो।

‘पुष्पा’ जस्ता सफल फिल्मबाट आफ्नो पहिचान बनाएकी रश्मिका अहिले त्यही भाइरल भिडियोको कारण चर्चामा छिन्। उक्त भिडियोमा देखिएकी महिलालाई डिपफेक भिडियोमार्फत तयार गरिएकी रश्मिकाको रूपमा देखाउने प्रयास गरिएको छ।

रश्मिकाले उक्त भाइरल भिडियोप्रति दुःख व्यक्त गर्दै प्रविधिको दुरूपयोगबाट कसैलाई दुःख हुन नदिन जतिसक्दो चाँडो समाधान खोज्नुपर्ने बताएकी छन्।

उनले एक्समा लेखेकी छन्, “आज जसरी प्रविधिको दुरूपयोग भइरहेको छ, त्यसले मलाई मात्र नभई अन्य धेरैलाई पनि ठूलो नोक्सानी पुर्‍याउन सक्छ।”

यो भिडियो भाइरल भएपछि अभिनेता अमिताभ बच्चनले रश्मिकालाई कानूनी कारबाहीको बाटो अपनाउन सल्लाह दिएका छन्।

यो भाइरल भिडियो डिपफेक भएको एक तथ्य जाँचकर्ताले पुष्टि गरेका छन्। तथ्य जाँच गर्ने वेबसाइट ‘अल्ट न्युज’सँग सम्बद्ध अभिषेकले एक्समा भनेका छन्, “यो भिडियो गहिरो फेक टेक्नोलोजी प्रयोग गरेर बनाइएको हो र भिडियोमा देखिएकी महिला रश्मिका मन्डन्ना होइनन्।”

उनले वास्तविक भिडियो जारा पटेल नाम गरेकी एक टिकटकरको भएको पुष्टि गरेका छन्।

के हो डिपफेक प्रविधि?
डिपफेक एउटा प्रविधि हो जसले कृत्रिम बौद्धिकता (एआई) को प्रयोग गर्दै भिडियो, तस्वीर र अडियोहरू हेरफेर गर्छ। अर्थात् भिडियो वा तस्वीरको वास्तविक अनुहारमाथि अर्काको अनुहार लगाइदिन्छ।

यस प्रविधिको सहायताले एक व्यक्तिको तस्वीर वा भिडियोमा अरूको अनुहार ‘सुपरइम्पोज’ गरेर परिवर्तन गर्न सकिन्छ जुन हुबहु देखिन्छ र सामान्यतया: फरक छुट्ट्याउन सकिँदैन।

सजिलो तरिकाले बुझ्नुपर्दा आर्टिफिसियल इन्टेलिजेन्स (एआई) प्रयोग गरेर एक व्यक्तिको अनुहारमा अर्काको अनुहार राखी नक्कली भिडियो बनाउने प्रविधिलाई ‘डिपफेक’ भनिन्छ जुन वास्तविकजस्तै देखिन्छ, तर नक्कली हुन्छ।

‘डिपफेक’ शब्दको प्रयोग हुन थालेको धेरै भएको छैन। सन् २०१७ मा एक ‘रेडिट’ प्रयोगकर्ताले ‘पोर्न’ भिडियोहरूमा अनुहार परिवर्तन गर्न यो प्रविधि प्रयोग गरेका थिए। पछि रेडिटले पनि ‘डिपफेक पोर्न’ प्रतिबन्धित गर्‍यो। 

डिपफेक निकै जटिल प्रविधि मानिन्छ। यसका लागि ‘मेसिन लर्निङ’ प्रविधिको आवश्यकता पर्छ। २०१७ मै डिपफेक गर्नका लागि कम्प्युटर एल्गोरिदम तयार गरिएको थियो। यस्तो सामग्री दुई प्रकारका एल्गोरिदमहरू प्रयोग गरेर सिर्जना गरिएको हुन्छ। एउटालाई डिकोडर र अर्कोलाई इन्कोडर भनिन्छ।

यसमा फेकरले डिजिटल सामग्री सिर्जना गर्दछ र डिकोडरलाई सामग्री वास्तविक वा नक्कली के हो भनेर सोध्छ। प्रत्येक पटक डिकोडरले सामग्रीको वास्तविकता पहिचान गर्छ। यसरी गल्तीहरू सुधार गरेर अर्को डिपफेक सुधारका लागि प्राप्त जानकारीलाई इन्कोडरमा पठाउँछ। दुवै प्रक्रियाहरू मिलाएर ‘जीएन’ भनिने विरोधी नेटवर्क बनाउँछ।

छोटो समयमै यो प्रविधि झन् सहज बन्दै गएको छ। मोबाइल एप्लिकेसनबाटै डिपफेक भिडियो बनाउन मिल्ने गरी यसको तीव्र विकास भइरहेको छ जुन मानिसका लागि ठूलो समस्या र चुनौती बनेको छ।

विभिन्न क्षेत्रमा यसको प्रयोग
यो प्रविधि पोर्नोग्राफीमा धेरै प्रयोग गरिन्छ। अभिनेता र अभिनेत्री तथा सेलिब्रेटीको अनुहार परिवर्तन गरी अश्लील सामग्री पोर्न साइटहरूमा पोस्ट गरिन्छ। सफ्टवेयर कम्पनी ‘डिपट्रेस’को रिपोर्टअनुसार २०१९ मा अनलाइनमा फेला परेका ९६ प्रतिशत डिपफेक भिडियोहरूमा अश्लील सामग्री समावेश थियो। 

अहिले राजनीतिमा पनि डिपफेकको प्रयोग हुन थालेको छ। कुनै राजनीतिक पार्टी तथा नेताप्रति नागरिकको धारणा परिवर्तन गर्न अनेक तरिकाले डिपफेक हतियार प्रयोग गर्न थालिएको छ।

राजनीतिक पार्टी तथा नेताहरूले जनमत भाँड्न तथा आफ्नो पक्षमा जनमत ल्याउन पनि डिपफेक प्रविधिको प्रयोग गर्न थालेका छन्। चुनावमा राजनीतिक दलहरूले डिपफेक प्रविधिमार्फत एकअर्कालाई गाली गर्छन्। सरकारपक्षीय तथा विरोधी क्रियाकलापलाई बढावा दिन वा दबाउन पनि यसको प्रयोग बढ्ने अनुमान सहजै गर्न सकिन्छ।

यस्तै, युद्धका क्रममा यस्ता भिडियो प्रयोग गरेर विरोधीको ध्यान तान्ने, सहानुभूति बटुल्ने तथा आफ्ना रणनीति बनाउने गरेको पनि पाइन्छ। अघिल्लो वर्ष मात्रै रुस–युक्रेन युद्धका दौरान युक्रेनी राष्ट्रपति भोलोदिमिर जेलेन्स्कीको यस्तै डिपफेक भिडियो भाइरल भएको थियो। उक्त भिडियोमा उनले रुससमक्ष आत्मसमर्पण गर्ने कुरा गरेका थिए। पछि त्यो भिडियोलाई युट्युब तथा मेटाले आफ्ना प्लेटफर्मबाट हटाए।

जेलेन्स्कीले उक्त भिडियोलाई केटाकेटीपनको संज्ञा दिएका थिए। युक्रेनको रणनीतिक सञ्चार केन्द्रले उक्त भिडियो रुसले बनाएको आरोप लगाएको थियो। उसले डिपफेक भिडियोको प्रयोग गरेर युक्रेनी नागरिकलाई भड्काउन खोजेको बताएको थियो।

मेटा तथा युट्युबले उक्त भिडियो हटाएपछि ‘डिप फेक्स’ पुस्तककी लेखिका निनाले अहिलेको लागि डिपफेक प्रविधिमाथि जित हासिल गर्न सके पनि भविष्यमा यो निकै चुनौतीपूर्ण हुने बताएकी थिइन्।

“युद्धको विषयमा सामाजिक सञ्जालमा धेरै जानकारी भ्रामक छन् जसलाई अहिलेसम्म झूटो साबित गर्न सकिएको छैन। भलै यो भिडियो (जेलेन्स्कीको भिडयो) कमसल थियो र धेरैले थाहा पाइहाले। तर निकट भविष्यमा यसरी थाहा पाउन सजिलो हुनेछैन,” उनी भन्छिन्, “यसले गर्दा सामाजिक सञ्जालमा आएका कुनै पनि भिडियो तथा तस्वीरमाथि मानिसहरूको विश्वसनियता घट्दै जानेछ, सबैलाई डिपफेक मान्न थाल्नेछन्।”

यसरी डिपफेक भिडियोले युद्धमा दुवै पक्षलाई प्रभावित पार्ने मिडियासामग्री तयार पारिरहेको छ।

यीबाहेक मनोरञ्जनका लागि पनि यस प्रविधिको प्रयोग गरिन्छ। धेरै युट्युब च्यानलहरूमा विभिन्न फिल्मका दृश्यका डिपफेक भिडियोहरू पोस्ट हुन्छन्।

पछिल्लो समय टिकटक तथा युट्युब र फेसबुक रिल्समा रुसका राष्ट्रपति भ्लादमिर पुटिनलाई कतै ‘डान्स’ त कतै ‘कमेडी’ गरेको देखाइएका भिडियोहरू भाइरल हुने गरेका छन्, जुन डिपफेक प्रविधिबाट बनाइएका हुन्।

मरेका मानिसलाई ‘जीवित’ राख्न डिपफेकको प्रयोग
पछिल्ला केही वर्षदेखि आफ्ना मृतक आफन्तलाई भर्चुअल रूपमा ‘जीवन्त’ तुल्याउन पनि यसको प्रयोग बढ्दो छ। यसमा मृतकका आफन्तका तस्वीरहरूको अनुहार 'एनिमेसन' गरिन्छ।

वंशावली साइट ‘माइ हेरिटेज’ले डिपफेक प्रविधिको प्रयोग गरी मृतकका आफन्तको फोटोमा अनुहार एनिमेटेड गरिदिन्छ। मरेका मानिसहरूलाई बोल्न लगाउने, हाउभाउ गर्न लगाउने गरी भिडियो तथा तस्वीर बनाउन सकिने भएकाले यस साइटले यो प्रविधिलाई ‘डिप नोस्टाल्जिया’ पनि भन्ने गरेको छ।

डिप नोस्टाल्जिया प्रविधिको विकास इजरायली कम्पनी डीआईडीले गरेको हो। मानिसहरूले अहिले यो सुविधा प्रयोग गरेर प्रविधिको माध्यमबाट आफ्ना पुर्खाहरू र ऐतिहासिक व्यक्तित्वहरूलाई भिडियोमार्फत ‘जीवन्त’ तुल्याएका छन्। श्यामश्वेत तस्वीरमा मात्र समेटिएका उनीहरू अब रंगीन पर्दामा बोल्ने भएका छन्। 

तर यसको गलत प्रयोगले समस्या निम्तिएका छन्। त्यसैले कतिपय देशहरू कानून नै बनाएर डिपफेकको प्रयोगलाई नियमन गर्न खोजिरहेका छन्। बेलायत यस्तै कानून निर्माणमा लागेको छ। विश्वका अन्य देशहरू पनि यसलाई लिएर सचेत बनेका छन्।

डिपफेक सामग्री कसरी पहिचान गर्ने?
कुनै भिडियो डिपफेक भए/नभएको पहिचान गर्न केही विशेष कुराहरूमा ध्यान दिनुपर्ने हुन्छ। तिनीहरूमध्ये अनुहारको स्थिति पहिलो आउँछ। अहिलेसम्म आएका डिपफेक टेक्नोलोजी प्रायः अनुहार र आँखाको स्थिति हुबहु उतार्न असफल भएका छन्। 

यसमा परेला झिम्क्याउनु पनि समावेश छ। भिडियोमा देखिएका व्यक्तिको परेला झिम्क्याइलाई हेरर डिपफेक हो/होइन  पहिचान गर्न सकिन्छ। त्यस्तै, व्यक्तिको रङ हेरेर पनि डिपफेक गरिए नगरिएको पत्ता लगाउन सकिन्छ। साथै बोलिएका शब्द, हाउभाउ लगायतका आधारमा पनि केही हदसम्म वास्तविकता छुट्ट्याउन सकिन्छ।

(एजेन्सीहरूको सहयोगमा)


सम्बन्धित सामग्री