राजकुमार गुप्ता
हाल ही में सोशल मीडिया पर वायरल कुछ जानी - मानी हस्तियों के डीपफेक वीडियो और तस्वीरों ने कृत्रिम बुद्धिमत्ता यानी डीपफेक एआई के दुरुपयोग पर गहरी चिंता जाहिर करते हुए राष्ट्रवादी चिंतक राजेश खुराना ने विशेषज्ञों एवं मीडिया रिपोर्ट्स से प्राप्त जानकारी के अनुसार बताया कि टेक्नोलॉजी हमारे जीवन को आसान और बेहतर बनाती है। लेकिन गलत हाथों में पढ़ जाये तो उसी टेक्नोलॉजी के बहुत बड़े दुष्परिणाम भी होते हैं और इसी टेक्नोलॉजी के कुछ बहुत बड़े खतरे भी अब सामने आ रहे हैं। डीपफेक टेक्नोलॉजी 21वीं सदी का नया फोटोशॉपिंग टूल है। डीपफेक साइबर अपराधियों द्वारा उपयोग की जाने वाली नवीनतम तकनीक है, जिसका उपयोग लोगों के चेहरों को स्वाइप करने के लिए किया जाता है। डीपफेक कितना खतरनाक है, यह सब आपको जानना आवश्यक है। बेहतरीन तकनीक के साथ, बड़ा जोखिम भी आता है। यह तब साबित हुआ जब जानी मानी हस्तियों की डीपफेक वीडियो फोटों इंटरनेट पर वायरल हुई और आमजनमानस को यह सवाल करने पर मजबूर कर दिया कि इस भ्रष्ट साइबर दुनिया में हम कितने सुरक्षित हैं।

 पहले टेक्नोलॉजी की मदद से लोगों को बेवकूफ बनाया जाता था, लूटा जाता था, ओटीपी स्कैम और भी बहुत कुछ किया जाता था लेकिन अब हालिया घटनाऐ इंटरनेट पर सामने आई और चर्चा का विषय बनी। हाल ही में पीएम मोदीजी, एक्ट्रेस रश्मिका मंडाना का फेक वीडियों और कैटरीना कैफ का फेक फ़ोटो वायरल होने के बाद से डीपफेक तकनीक अब राष्ट्रीय मुद्दा बन गया है। इसके खतरनाक परिणाम सामने आ रहे है। डीपफेक तकनीक ऑडियो, वीडियो और फोटो प्रारूपों में एक बढ़ता खतरा बन गई है, जिसने सरकार और बॉलीवुड उद्योग को कार्रवाई करने के लिए प्रेरित किया है। कृत्रिम बुद्धिमत्ता यानी डीपफेक एआई उफान पर है। कृत्रिम बुद्धिमत्ता उपकरण इन दिनों अधिक सुलभ हो गए हैं, क्योंकि डीपफेक तकनीक ऑडियो, वीडियो और फोटो प्रारूप में एक बढ़ता खतरा बन गई है। लोकप्रिय अभिनेत्री से जुड़े एक डीपफेक वीडियो की हालिया घटना ने देश के लोगों को चौंका दिया है। इसलिए आज़ डीपफेक के बढ़ते खतरे के खिलाफ कठोर से कठोर कार्रवाई की जरूरत हैं और वक़्त रहते हम सभी को डीपफेक तकनीक को समझने और समझाने की जरूरत हैं। डीपफेक यानी एक सिंथेटिक मीडिया जिसे डीप लर्निंग और जनरेटिव मेथड्स को इस्तेमाल करके किसी तस्वीर या वीडियो को तोड़-मरोड़ यानी मैन्युपुलेट करके शातिर तरीक़े से बनाया जाता है।

 यह आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग जैसी टेक्नोलॉजी को इस्तेमाल करता है, जिससे किसी भी प्रकार की इमेज, वीडियो या ऑडियो कंटेंट बनाया जा सकता है लेकिन यह कंटेंट दरअसल पूरी तरह से फेक होता है। जिससे किसी को भी धोखा दिया जा सकता है। विशेषज्ञों के अनुसार मान लीजिये आपका एक डीप फेक वीडियो बनाया जाता है, और किसी जानी मानी हस्ती या फिल्म एक्टर के चेहरे का इस्तेमाल कर उसे आपके धड़ पर लगा कर एक फेक वीडियो बनाया जाता हैं और तकनिकी का ग़लत इस्तेमाल करने वाले सायवर अपराधियों द्वारा किसी भी डीप फेक वीडियो मेकर का इस्तेमाल किया जाता हैं और यह एप्लिकेशन आपके धड़ पर दूसरे व्यक्ति के चेहरे को लगा दिया जाता हैं। साथ ही आवाज़ को भी बदल दिया जाता हैं। यहां तक कि आप के चेहरे के भावों और आपके शब्दों के भाव को उस व्यक्ति के चेहरे और आवाज़ के भावो से बदल दिया जाता हैं। डीपफेक की पहचान कैसे करें इसके लिए विशेषज्ञों ने सुझाव दिया कि डीपफेक को अप्राकृतिक आंखों की गतिविधियों और चेहरे के भावों, शारीरिक उपस्थिति में विसंगतियों और दृश्य-श्रव्य विसंगतियों के माध्यम से देखा जा सकता है।

 कहा जाता हैं कि टेक्नोलॉजी हमारे जीवन को आसान और बेहतर बनाती है। लेकिन गलत हाथों में पढ़ जाये तो उसी टेक्नोलॉजी के बहुत बड़े दुष्परिणाम भी होते हैं और इसी टेक्नोलॉजी के कुछ बहुत बड़े खतरे भी अब सामने आ रहे हैं। पिछले ही दिनों एक सुप्रशिद्ध अभिनेत्री ने इस टेक्नोलॉजी के भयावह पक्ष को सामने रखा था। उनका एक फेक वीडियो वायरल हुआ था। जिसके पश्चात उन्होंने सोशल मीडिया पर एक पोस्ट करते हुए इस वीडियो का खंडन किया था। दरअसल इस वीडियो में अभिनेत्री के चेहरे का इस्तेमाल किया और यह इतना सटीक बनाया गया की हर किसी को यह वीडियो अभिनेत्री का लग रहा था। इस वीडियो को बनाने के लिए डीप फेक टेक्नोलॉजी का इस्तेमाल किया गया था। अभिनेत्री ने 'डीप फेक' टेक्नोलॉजी के खतरों को इंगित किया और यह भी बताया कि उन जैसी सेलिब्रिटी को इस वीडियो की सच्चाई को स्थापित करने के लिए इतने प्रयास करने पड़ रहे हैं, ऐसे में कोई आम इंसान इस तरह के वीडियो और दुष्प्रचार से कैसे लड़ पायेगा?

श्री खुराना ने विशेषज्ञों एवं मीडिया रिपोर्ट्स से प्राप्त जानकारी के अनुसार बताया कि डीपफेक के उपयोग के मामलों में भारत छठे देश के रूप में सूचीबद्ध है। ज़ब सुप्रशिद्ध अभिनेत्री ने इस टेक्नोलॉजी के भयावह पक्ष को सामने रखाना। उनसे होने वाली खतरे को और अधिक गंभीर बना देता है। अब अधिकांश वीडियो में ज्यादातर महिलाओं को लक्षित करने वाली व्यस्त सामग्री होती है लेकिन इसका दुरुपयोग जल्द ही सभी क्षेत्रों में फैल सकता है। क्योकि डीपफेक तकनीक सम्पूर्ण विश्व के सामने सबसे बड़े खतरों में से एक हैं और डीपफेक टेक्नोलॉजी का गलत इस्तेमाल हमारी सुरक्षा को भी खतरे में डाल सकता हैं। डीपफेक ऑडियो, वीडियो और फोटो गंभीर चिंता का विषय हैं। इसका प्रयोग प्रतिष्ठा को नुकसान पहुंचाने के अलावा परिवारों और समाज में कलह पैदा करने, राजनीति को प्रभावित करने और अपराध करने के लिए भी इसका दुरूपयोग किया जा सकता है। इसे चुनाव में प्रचार उपकरण के रूप में तैनात किया जा सकता है और लोकतांत्रिक प्रक्रियाओं और संस्थाओं को कमजोर करने के लिए इस्तेमाल किया जा सकता है।

यह संभावना भी हैं कि डीपफेक आसानी से बनाए और वायरल किया जा सकते हैं। इसके अलावा फेक न्यूज फैलाने में भी इसका इस्तेमाल किया जा सकता है। डीपफेक की सहायता से चुनावी अभियान भी प्रभावित किये जा सकते हैं। इस गंभीर संकट पर गंभीरता से ध्यान नहीं दिया गया तो भविष्य में यह तकनीक जाने माने व्यक्तियों की गोपनीयता का उल्लंघन कर सकती है, और समाज में गलत सूचना फैल सकती है। अधिकतर डीपफेक तकनीक का उपयोग अप्रिय संस्करण उपयोग के लिए किया जाता है - जैसे प्रकृति में अश्लील वीडियो सामग्री। लेकिन उस समय की बात करें तो, चुनावों के दौरान, राजनेताओं की क्लिपें होती थीं जिन्हें डिजिटल रूप से बदल दिया जाता था और झूठे बयानों के साथ प्रसारित किया जाता था। मुख्य रूप से वे लोग जो प्रसिद्ध हैं, या जिनका अंकित मूल्य है, डीपफेक वीडियो के शिकार हुए हैं। यहां तक ​​कि पूर्व अमेरिकी राष्ट्रपति को भी डीपफेक द्वारा बनाए गए फर्जी वीडियो में घसीटा गया था। वीडियो व्यापक रूप से प्रसारित किया गया था। इतना ही नहीं, बल्कि अलग-अलग और इसी तरह के वीडियो में मेटा के प्रमुख मार्क जुकरबर्ग को अरबों लोगों के चुराए गए डेटा पर पूर्ण नियंत्रण' का दावा करते हुए देखा गया था।

 इसलिए डीपफेक तकनीक का ग़लत इस्तेमाल करने वालों पर कठोर कार्यवाही होनी चाहिए। इसके दुरूपयोग से हमें सतर्क और सावधान रहना चाहिए। इसके साथ ही डीपफेक तकनीकी संकट के बारे में लोगों को जागरूक भी किया जाना चाहिए। इस लिए आर्टिफिशियल इंटेलिजेंस और डीपफेक को लेकर शिक्षित किया जाना बेहद ज़रूरी हैं। डीपफेक की चुनौतियों से निपटने के लिए मजबूत रणनीति बनानी चाहिए और डीपफेक साइबर अपराध से निपटने और पीड़ितों के अधिकारों और हितों की रक्षा के लिए कड़े कानून और नियम बनाने की आवश्यकता है। इसलिए अगर आपको अनजाने नम्बर या आइडी से वीडियो कॉल आये, तो उस पर विश्वास ना करें। किसी को पैसा देने से पहले उससे फोन पर बात करे लें। अगर करीबी दोस्त है, परेशानी में है, तो उसके परिवार में से किसी से बात कर के स्थिति के बारे में जानने का प्रयास करें और पूरी जानकारी लेने के बाद ही पैसे लेन देन करें अन्यथा आप भी डिजिटल डकैतों द्वारा लुटे जा सकते है। अगर आप कहीं छुट्टी पर जा रहे हैं या आपके बच्चे कहीं जा रहे हैं। तो उसके बारे में सोशल मीडिया पर ना लिखें और अगर आपको तस्वीरें डालनी हैं तो वापस लौट कर डाल लें। क्या पता आप ऐसे इलाके में हों जहां आपसे संपर्क ना हो पाए और कोई अपराधी इस स्थिति का लाभ उठाकर आपके घर वालों से पैसा वसूल ले। इसलिए प्रयास कीजिये कि आपकी तसवीरें, वीडियो सोशल मीडिया पर कम से कम हो अगर आपने यह कंटेंट डाला भी है, तो प्रयास कीजिये कि आप कड़ी सिक्योरिटी सेटिंग करके रखें ताकि आपका कंटेंट चोरी कर उसका दुरुपयोग ना किया जा सके।

अंत में सबसे महत्वपूर्ण बात, टेक्नोलॉजी कितनी ही उन्नत हो जाए, वह मानव के मूलभूत स्वभाव और परिस्थितिजन्य जागरूकता का मुकाबला नहीं कर पाएगी। कोई भी अपराध तभी होता है, जब आप अपने मूल स्वभाव से हट कर निर्णय लेते हैं। आपको पता है कि शॉर्टकट से पैसा नहीं मिलता, लेकिन फिर भी लोग लालच में आ कर लाखों झोंक देते हैं और कोई उस मेहनत के पैसे को लेकर चंपत हो जाता है। अपनी बेसिक इंस्टिंक्ट को बचाये रखें, तभी टेक्नोलॉजी के दुष्प्रभावो से बच पाएंगे। कुछ दिन पहले ही साउथ अभिनेत्री रश्मिका मंदाना के डीपफेक वीडियो वायरल होने के बाद मोदी सरकार ने सख्ती दिखाते हुए सोशल मीडिया कंपनियों को एक एडवाइजरी जारी की गई और केंद्र की मोदीजी की सरकार में सोशल मीडिया प्लेटफॉर्म को शिकायत मिलने के 24 घंटे के भीतर ऐसे कंटेंट को हटाने का निर्देश दिया। इससे प्रभावित व्यक्तियों को लक्षित होने की तुरंत बाद एफआईआर दर्ज करने की सलाह दी और कहा कि इस तरह के कृत्य के लिए तीन साल की जेल की सजा हो सकती है और एक लाख रुपये का जुर्माना लगाया जा सकता है। साथ ही सरकारों के अलावा तकनीकी बड़ी कंपनियों को भी यह सुनिश्चित करने के लिए कड़े कदम उठाने चाहिए कि एआई का दुरुपयोग ना हो।इसलिए डीपफेक तकनीक का ग़लत इस्तेमाल करने वालों पर कठोर कार्यवाही होनी चाहिए और राष्ट्रहित में डीपफेक तकनीकी संकट के बारे में लोगों को जागरूक किया जाना चाहिए।

Post a Comment

If you have any doubts, please let me know

और नया पुराने