आर्टिफिसियल इन्टेलिजेन्स (एआई) प्रयोग गरेर एक व्यक्तिको अनुहारमा अर्काको अनुहार राखी नक्कली भिडियो बनाउने प्रविधिलाई ‘डिपफेक’ भनिन्छ जुन वास्तविकजस्तै देखिन्छ, तर नक्कली हुन्छ।
काठमाडौँ– यतिबेला भारतीय अभिनेत्री रश्मिका मन्डन्ना चर्चामा छिन्। उनको चर्चाको कारण कुनै चलचित्रको सफलता वा विफलता नभएर ‘डिपफेक’ प्रविधि प्रयोग गरेर बनाइएको एउटा भिडियो हो।
‘पुष्पा’ जस्ता सफल फिल्मबाट आफ्नो पहिचान बनाएकी रश्मिका अहिले त्यही भाइरल भिडियोको कारण चर्चामा छिन्। उक्त भिडियोमा देखिएकी महिलालाई डिपफेक भिडियोमार्फत तयार गरिएकी रश्मिकाको रूपमा देखाउने प्रयास गरिएको छ।
रश्मिकाले उक्त भाइरल भिडियोप्रति दुःख व्यक्त गर्दै प्रविधिको दुरूपयोगबाट कसैलाई दुःख हुन नदिन जतिसक्दो चाँडो समाधान खोज्नुपर्ने बताएकी छन्।
उनले एक्समा लेखेकी छन्, “आज जसरी प्रविधिको दुरूपयोग भइरहेको छ, त्यसले मलाई मात्र नभई अन्य धेरैलाई पनि ठूलो नोक्सानी पुर्याउन सक्छ।”
यो भिडियो भाइरल भएपछि अभिनेता अमिताभ बच्चनले रश्मिकालाई कानूनी कारबाहीको बाटो अपनाउन सल्लाह दिएका छन्।
यो भाइरल भिडियो डिपफेक भएको एक तथ्य जाँचकर्ताले पुष्टि गरेका छन्। तथ्य जाँच गर्ने वेबसाइट ‘अल्ट न्युज’सँग सम्बद्ध अभिषेकले एक्समा भनेका छन्, “यो भिडियो गहिरो फेक टेक्नोलोजी प्रयोग गरेर बनाइएको हो र भिडियोमा देखिएकी महिला रश्मिका मन्डन्ना होइनन्।”
उनले वास्तविक भिडियो जारा पटेल नाम गरेकी एक टिकटकरको भएको पुष्टि गरेका छन्।
के हो डिपफेक प्रविधि?
डिपफेक एउटा प्रविधि हो जसले कृत्रिम बौद्धिकता (एआई) को प्रयोग गर्दै भिडियो, तस्वीर र अडियोहरू हेरफेर गर्छ। अर्थात् भिडियो वा तस्वीरको वास्तविक अनुहारमाथि अर्काको अनुहार लगाइदिन्छ।
यस प्रविधिको सहायताले एक व्यक्तिको तस्वीर वा भिडियोमा अरूको अनुहार ‘सुपरइम्पोज’ गरेर परिवर्तन गर्न सकिन्छ जुन हुबहु देखिन्छ र सामान्यतया: फरक छुट्ट्याउन सकिँदैन।
सजिलो तरिकाले बुझ्नुपर्दा आर्टिफिसियल इन्टेलिजेन्स (एआई) प्रयोग गरेर एक व्यक्तिको अनुहारमा अर्काको अनुहार राखी नक्कली भिडियो बनाउने प्रविधिलाई ‘डिपफेक’ भनिन्छ जुन वास्तविकजस्तै देखिन्छ, तर नक्कली हुन्छ।

‘डिपफेक’ शब्दको प्रयोग हुन थालेको धेरै भएको छैन। सन् २०१७ मा एक ‘रेडिट’ प्रयोगकर्ताले ‘पोर्न’ भिडियोहरूमा अनुहार परिवर्तन गर्न यो प्रविधि प्रयोग गरेका थिए। पछि रेडिटले पनि ‘डिपफेक पोर्न’ प्रतिबन्धित गर्यो।
डिपफेक निकै जटिल प्रविधि मानिन्छ। यसका लागि ‘मेसिन लर्निङ’ प्रविधिको आवश्यकता पर्छ। २०१७ मै डिपफेक गर्नका लागि कम्प्युटर एल्गोरिदम तयार गरिएको थियो। यस्तो सामग्री दुई प्रकारका एल्गोरिदमहरू प्रयोग गरेर सिर्जना गरिएको हुन्छ। एउटालाई डिकोडर र अर्कोलाई इन्कोडर भनिन्छ।
यसमा फेकरले डिजिटल सामग्री सिर्जना गर्दछ र डिकोडरलाई सामग्री वास्तविक वा नक्कली के हो भनेर सोध्छ। प्रत्येक पटक डिकोडरले सामग्रीको वास्तविकता पहिचान गर्छ। यसरी गल्तीहरू सुधार गरेर अर्को डिपफेक सुधारका लागि प्राप्त जानकारीलाई इन्कोडरमा पठाउँछ। दुवै प्रक्रियाहरू मिलाएर ‘जीएन’ भनिने विरोधी नेटवर्क बनाउँछ।
छोटो समयमै यो प्रविधि झन् सहज बन्दै गएको छ। मोबाइल एप्लिकेसनबाटै डिपफेक भिडियो बनाउन मिल्ने गरी यसको तीव्र विकास भइरहेको छ जुन मानिसका लागि ठूलो समस्या र चुनौती बनेको छ।
विभिन्न क्षेत्रमा यसको प्रयोग
यो प्रविधि पोर्नोग्राफीमा धेरै प्रयोग गरिन्छ। अभिनेता र अभिनेत्री तथा सेलिब्रेटीको अनुहार परिवर्तन गरी अश्लील सामग्री पोर्न साइटहरूमा पोस्ट गरिन्छ। सफ्टवेयर कम्पनी ‘डिपट्रेस’को रिपोर्टअनुसार २०१९ मा अनलाइनमा फेला परेका ९६ प्रतिशत डिपफेक भिडियोहरूमा अश्लील सामग्री समावेश थियो।
अहिले राजनीतिमा पनि डिपफेकको प्रयोग हुन थालेको छ। कुनै राजनीतिक पार्टी तथा नेताप्रति नागरिकको धारणा परिवर्तन गर्न अनेक तरिकाले डिपफेक हतियार प्रयोग गर्न थालिएको छ।
राजनीतिक पार्टी तथा नेताहरूले जनमत भाँड्न तथा आफ्नो पक्षमा जनमत ल्याउन पनि डिपफेक प्रविधिको प्रयोग गर्न थालेका छन्। चुनावमा राजनीतिक दलहरूले डिपफेक प्रविधिमार्फत एकअर्कालाई गाली गर्छन्। सरकारपक्षीय तथा विरोधी क्रियाकलापलाई बढावा दिन वा दबाउन पनि यसको प्रयोग बढ्ने अनुमान सहजै गर्न सकिन्छ।
यस्तै, युद्धका क्रममा यस्ता भिडियो प्रयोग गरेर विरोधीको ध्यान तान्ने, सहानुभूति बटुल्ने तथा आफ्ना रणनीति बनाउने गरेको पनि पाइन्छ। अघिल्लो वर्ष मात्रै रुस–युक्रेन युद्धका दौरान युक्रेनी राष्ट्रपति भोलोदिमिर जेलेन्स्कीको यस्तै डिपफेक भिडियो भाइरल भएको थियो। उक्त भिडियोमा उनले रुससमक्ष आत्मसमर्पण गर्ने कुरा गरेका थिए। पछि त्यो भिडियोलाई युट्युब तथा मेटाले आफ्ना प्लेटफर्मबाट हटाए।
जेलेन्स्कीले उक्त भिडियोलाई केटाकेटीपनको संज्ञा दिएका थिए। युक्रेनको रणनीतिक सञ्चार केन्द्रले उक्त भिडियो रुसले बनाएको आरोप लगाएको थियो। उसले डिपफेक भिडियोको प्रयोग गरेर युक्रेनी नागरिकलाई भड्काउन खोजेको बताएको थियो।
मेटा तथा युट्युबले उक्त भिडियो हटाएपछि ‘डिप फेक्स’ पुस्तककी लेखिका निनाले अहिलेको लागि डिपफेक प्रविधिमाथि जित हासिल गर्न सके पनि भविष्यमा यो निकै चुनौतीपूर्ण हुने बताएकी थिइन्।
“युद्धको विषयमा सामाजिक सञ्जालमा धेरै जानकारी भ्रामक छन् जसलाई अहिलेसम्म झूटो साबित गर्न सकिएको छैन। भलै यो भिडियो (जेलेन्स्कीको भिडयो) कमसल थियो र धेरैले थाहा पाइहाले। तर निकट भविष्यमा यसरी थाहा पाउन सजिलो हुनेछैन,” उनी भन्छिन्, “यसले गर्दा सामाजिक सञ्जालमा आएका कुनै पनि भिडियो तथा तस्वीरमाथि मानिसहरूको विश्वसनियता घट्दै जानेछ, सबैलाई डिपफेक मान्न थाल्नेछन्।”
यसरी डिपफेक भिडियोले युद्धमा दुवै पक्षलाई प्रभावित पार्ने मिडियासामग्री तयार पारिरहेको छ।
यीबाहेक मनोरञ्जनका लागि पनि यस प्रविधिको प्रयोग गरिन्छ। धेरै युट्युब च्यानलहरूमा विभिन्न फिल्मका दृश्यका डिपफेक भिडियोहरू पोस्ट हुन्छन्।
पछिल्लो समय टिकटक तथा युट्युब र फेसबुक रिल्समा रुसका राष्ट्रपति भ्लादमिर पुटिनलाई कतै ‘डान्स’ त कतै ‘कमेडी’ गरेको देखाइएका भिडियोहरू भाइरल हुने गरेका छन्, जुन डिपफेक प्रविधिबाट बनाइएका हुन्।
मरेका मानिसलाई ‘जीवित’ राख्न डिपफेकको प्रयोग
पछिल्ला केही वर्षदेखि आफ्ना मृतक आफन्तलाई भर्चुअल रूपमा ‘जीवन्त’ तुल्याउन पनि यसको प्रयोग बढ्दो छ। यसमा मृतकका आफन्तका तस्वीरहरूको अनुहार 'एनिमेसन' गरिन्छ।
वंशावली साइट ‘माइ हेरिटेज’ले डिपफेक प्रविधिको प्रयोग गरी मृतकका आफन्तको फोटोमा अनुहार एनिमेटेड गरिदिन्छ। मरेका मानिसहरूलाई बोल्न लगाउने, हाउभाउ गर्न लगाउने गरी भिडियो तथा तस्वीर बनाउन सकिने भएकाले यस साइटले यो प्रविधिलाई ‘डिप नोस्टाल्जिया’ पनि भन्ने गरेको छ।
डिप नोस्टाल्जिया प्रविधिको विकास इजरायली कम्पनी डीआईडीले गरेको हो। मानिसहरूले अहिले यो सुविधा प्रयोग गरेर प्रविधिको माध्यमबाट आफ्ना पुर्खाहरू र ऐतिहासिक व्यक्तित्वहरूलाई भिडियोमार्फत ‘जीवन्त’ तुल्याएका छन्। श्यामश्वेत तस्वीरमा मात्र समेटिएका उनीहरू अब रंगीन पर्दामा बोल्ने भएका छन्।
तर यसको गलत प्रयोगले समस्या निम्तिएका छन्। त्यसैले कतिपय देशहरू कानून नै बनाएर डिपफेकको प्रयोगलाई नियमन गर्न खोजिरहेका छन्। बेलायत यस्तै कानून निर्माणमा लागेको छ। विश्वका अन्य देशहरू पनि यसलाई लिएर सचेत बनेका छन्।
डिपफेक सामग्री कसरी पहिचान गर्ने?
कुनै भिडियो डिपफेक भए/नभएको पहिचान गर्न केही विशेष कुराहरूमा ध्यान दिनुपर्ने हुन्छ। तिनीहरूमध्ये अनुहारको स्थिति पहिलो आउँछ। अहिलेसम्म आएका डिपफेक टेक्नोलोजी प्रायः अनुहार र आँखाको स्थिति हुबहु उतार्न असफल भएका छन्।
यसमा परेला झिम्क्याउनु पनि समावेश छ। भिडियोमा देखिएका व्यक्तिको परेला झिम्क्याइलाई हेरर डिपफेक हो/होइन पहिचान गर्न सकिन्छ। त्यस्तै, व्यक्तिको रङ हेरेर पनि डिपफेक गरिए नगरिएको पत्ता लगाउन सकिन्छ। साथै बोलिएका शब्द, हाउभाउ लगायतका आधारमा पनि केही हदसम्म वास्तविकता छुट्ट्याउन सकिन्छ।
(एजेन्सीहरूको सहयोगमा)
Unlock Premium News Article
This is a Premium Article, available exclusively to our subscribers. Read such articles every month by subscribing today!
Basic(Free) |
Regular(Free) |
Premium
|
|
|---|---|---|---|
| Read News and Articles | |||
| Set Alert / Notification | |||
| Bookmark and Save Articles | |||
| Weekly Newsletter | |||
| View Premium Content | |||
| Ukaalo Souvenir | |||
| Personalize Newsletter | |||
