डीपफ़ेक टेक्नोलॉजी
डीपफ़ेक (अंग्रेज़ी- deepfake, "deep learning" + "fake" [1] ) से तात्पर्य कृत्रिम मीडिया [2] से होता है, जिसमें एक मौजूदा छवि या वीडियो में एक व्यक्ति की जगह किसी दूसरे को लगा दिया जाए, इतनी समानता से कि उनमें अंतर करना कठिन हो जाए। हालाँकि फ़र्ज़ी मीडिया बनाना नया कार्य नहीं है, किंतु डीपफेक ने मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस जैसी शक्तिशाली तकनीकों का लाभ उठाकर नज़र और कान को धोखा देने हेतु दृश्य और ऑडियो सामग्री उत्पन्न करने में काफ़ी बड़ा क़दम है।[3] डीपफेक बनाने के लिए इस्तेमाल की जाने वाली मुख्य मशीन सीखने की विधियाँ डीप लर्निंग पर आधारित होती हैं और इसमें प्रशिक्षण संबंधी न्यूरल नेटवर्क आर्किटेक्चर शामिल होते हैं, जैसे कि ऑटोएन्कोडर्स या जेनरेटर एडवरसियर नेटवर्क (जीएएन)। [4] [5]
डीपफ़ेक ‘ह्यूमन इमेज सिंथेसिस’ नाम की टेक्नोलॉजी पर काम करता है। जैसे हम किसी भी चीज़ की फोटो-कॉपी कर लेते हैं, वैसे ही ये टेक्नोलॉजी चलते-फिरते और बोलते लोगों की हूबहू कॉपी कर सकती है। मतलब हम स्क्रीन पर एक किसी भी इंसान, जीव को चलते-फिरते, बोलते देख सकते हैं, जो नकली हो या जिसकी कॉपी बनाई गयी हो। इस टेक्नोलॉजी की नींव पर बनी एप्स बेहद नुकसान पहुंचा सकती हैं। इससे किसी एक व्यक्ति के चेहरे पर दूसरे का चेहरा लगाया जा सकता है और वो भी इतनी सफ़ाई और बारीकी से कि स्रोत चेहरे के सभी हाव-भाव तक फ़र्ज़ी चेहरे पर दिख सकते हैं।[6]
वर्गीकरण
संपादित करेंडीपफ़ेक टेक्नोलॉजी को ऐसे वर्गीकृत किया जा सकता है:[6]
1। फेस-स्वैप: जिसमें वीडियो में चेहरा स्वचालित रूप से किसी अन्य व्यक्ति के चेहरे से बदल दिया जाता है।
2। लिप-सिंक: जिसमें एक स्रोत वीडियो को संशोधित किया जाता है, ताकि जो बोल रहा है उसका मुंह और होंठ एक मनमानी ऑडियो रिकॉर्डिंग के अनुरूप हो सके।
3। कठपुतली-मास्टर : जिसमें एक कलाकार द्वारा एक लक्षित व्यक्ति को एक कैमरे के सामने बैठाकर मिमिक (सिर और आंखो का चलना, चेहरे के हाव भाव) किया जाता है।
जोखिम
संपादित करेंजैसा कि फ़ेक न्यूज़ के साथ देखा गया है की फ़ेक न्यूज़ को पकड़ा जा सकता है इसका मतलब यह नहीं है कि इसे क्लिक नहीं किया जाएगा और ऑनलाइन पढ़ा और साझा नहीं किया जा सकता है। क्योंकि वो चीज़ें जो इंटरनेट को चलाती हैं, वो हैं बिना किसी रुकावट के जानकारी का साझाकरण और लोगों की अटेंशन से पैसा बनाना। इसका मतलब है की डीपफ़ेक के इस्तेमाल के लिए हमेशा एक दर्शक वर्ग मौजूद रहेगा। लेकिन किस तरह इस टेक्नोलॉजी का प्रभाव रोका जा सकता है, यह निश्चित ही एक बड़ा प्रश्न है। और आख़िर, हम कितना ही डीपफ़ेक को रोकने के लिए तकनीकी समाधान खोज लें, चाहे वे कितने भी अच्छे हों, वो डीपफ़ेक विडियो/फोटो को फैलने से नहीं रोक सकते। साथ ही कानूनी उपाय, चाहे वे कितने भी प्रभावी हों, आम तौर पर डीपफ़ेक के फैलने के बाद ही लागू हो सकते हैं।[6]
साथ ही, सार्वजनिक जागरूकता में सुधार, डीपफ़ेक से मुकाबला करने की रणनीति का एक अतिरिक्त पहलू हो सकता है। जैसे जब किसी हाई-प्रोफाइल व्यक्ति का संदिग्ध डीपफेक वीडियो आता है, तो यह चंद दिनों या घंटों के अंदर जानना संभव होगा कि उस वीडियो के साथ छेड़छाड़ किस हद तक हुई है। यह जानकारी डीपफ़ेक को फैलने से रोक तो नहीं सकती है, लेकिन यह निश्चित रूप से उनके प्रभाव को कम करने में मदद कर सकता है।[6]
यह सभी देखें
संपादित करें- फेशियल मोशन कैप्चर
- कृत्रिम मीडिया
- वर्चुअल अभिनेता
संदर्भ
संपादित करें- ↑ Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (अंग्रेज़ी में). अभिगमन तिथि 2018-02-20.
- ↑ "Prepare, Don't Panic: Synthetic Media and Deepfakes".
- ↑ Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?". Business Horizons. 63 (2): 135–146. डीओआइ:10.1016/j.bushor.2019.11.006.
- ↑ Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (अंग्रेज़ी में). अभिगमन तिथि 14 November 2018.
- ↑ PhD, Sven Charleer (2019-05-17). "Family fun with deepfakes. Or how I got my wife onto the Tonight Show". Medium (अंग्रेज़ी में). अभिगमन तिथि 2019-11-08.
- ↑ अ आ इ ई "कैसे डीपफ़ेक टेक्नोलॉजी समाज के लिए ख़तरनाक़ हो सकती है". द प्रिंट. 19 July, 2019 2:17 pm IST. अभिगमन तिथि 2 September, 2020.
|firstlast=
missing|lastlast=
in first (मदद);|access-date=, |date=
में तिथि प्राचल का मान जाँचें (मदद)
बाहरी कड़ियाँ
संपादित करें- Sasse, Ben (19 October 2018). "This New Technology Could Send American Politics into a Tailspin". Opinions. The Washington Post. अभिगमन तिथि 10 July 2019.
- डीपफेक डिटेक्शन चैलेंज (DFDC)