हाल ही में हम ने फिल्म ऐक्टर्स और राजनेताओं के डीपफेक फोटो-वीडियो देखे हैं. प्रधानमंत्री नरेंद्र मोदी को मंच पर डांस करते देख कर लोग आश्चर्य में पड़ गए. बाद में पता चला कि डीपफेक के जरिए प्रधानमंत्री के फेस का इस्तेमाल हुआ. मगर अब डीपफेक मामला बहुत आगे बढ़ चुका है. हौंगकौंग की एक मल्टीनेशनल कंपनी को डीपफेक की वजह से करोड़ों का नुकसान उठाना पड़ा है. साइबर क्रिमिनल्स ने ऐसा जाल बिछाया कि एक बहुराष्ट्रीय कंपनी के कर्मचारियों को भनक तक नहीं लगी और कंपनी ने 200 करोड़ रुपए क्रिमिनल्स के बताए 5 अलगअलग बैंकों में ट्रांसफर कर दिए.

मजे की बात यह है कि डीपफेक से धोखाधड़ी करने के लिए साइबर क्रिमिनल्स ने बाकायदा ज़ूम मीटिंग की. इस मीटिंग में कई क्रिमिनल्स बैठे थे जिन के चेहरों पर डीपफेक के जरिए असली अधिकारियों के चेहरे लगे थे. यहां तक कि कंपनी के चीफ फाइनैंशियल औफिसर को भी क्लोन कर के डीपफेक वर्जन तैयार किया गया था. इन सब ने कंपनी के एक अधिकारी को धोखे में रख कर वीडियो कौन्फ्रैंस की और उस से हौंगकौंग के 5 अलगअलग बैंक खातों में पैसे ट्रांसफर करने को कहा. अपने सीएफओ के आदेश का पालन करते हुए उस अधिकारी ने सारे पैसे ट्रांसफर कर दिए.

कुछ समय पहले तक दुनियाभर में आर्टिफिशियल इंटैलिजैंस को ले कर लोगों में काफी उत्सुकता और उत्साह था. कहा जा रहा था कि इस से मनुष्य को काम करने में बहुत आसानी हो जाएगी. घंटों के काम चुटकी बजाते हो जाएंगे. मगर अब इस तकनीक से लोगों में डर बढ़ता जा रहा है. आप के फोन पर आप को किसी अपने की आवाज सुनाई दे जो आप से कहे कि वह परेशानी में है, तुरंत पैसे चाहिए तो आप बिना देर किए पैसे भेज देंगे. बाद में पता चले कि उस रिश्तेदार ने तो आप को फोन ही नहीं किया. उस की आवाज में बात कर के किसी ने आप को ठग लिया. या फिर वीडियो कौल पर किसी महिला को उस का कोई जानने वाला, आप का प्रेमी, पति या कोई रिश्तेदार नजर आए और उस को कहीं मिलने के लिए बुलाए तो वह अवश्य वहां चली जाएगी. लेकिन हो सकता है कि अनजान जगह बुला कर उस को लूट लिया जाए, उस की हत्या कर दी जाए, उस का रेप हो जाए, क्योंकि जो तसवीर उस ने वीडियो पर देखी और जिस पर भरोसा कर के वह मिलने गई वह तो क्रिमिनल द्वारा डीपफेक के जरिए बनाई गई थी.

हौंगकौंग की जिस बहुराष्ट्रीय कंपनी को डीपफेक तकनीक का शिकार बनाया गया है. उस से 20 करोड़ रुपए हौंगकौंग डौलर की ठगी की गई है. यह राशि 200 करोड़ रुपए से भी अधिक है. यह डीपफेक तकनीक से की गई अब तक की सब से बड़ी ठगी है. हालांकि हौंगकौंग पुलिस ने अभी इस बात का खुलासा नहीं किया है कि किस कंपनी से यह ठगी हुई है, मगर मामले की जांच बहुत तेजी से शुरू हो चुकी है.

डीपफेक तकनीक में नकली वीडियो या औडियो रिकौर्डिंग के लिए एआई टूल का उपयोग किया जाता है. डीपफेक से बनाए गए ये चेहरे देखने में असली जैसे लगते हैं. साइबर अपराधियों ने वीडियो कौन्फ्रैंसिंग कौल कर के कंपनी को निशाना बनाया. इस दौरान डीपफेक तकनीक के जरिए कंपनी के सीएफओ के साथ अन्य कर्मियों का एआई अवतार तैयार किया गया.

5 अलगअलग बैंक खातों में पैसे ट्रांसफर

वीडियो कौन्फ्रैंसिंग के दौरान डीपफेक टैक्नोलौजी की मदद से मौजूद सीएफओ समेत सभी अधिकारी और कर्मचारी फर्जी थे. इसी दौरान फर्जी सीएफओ ने कंपनी की कौन्फ्रैंसिंग शाखा के वित्त विभाग के एक अधिकारी से 5 अलगअलग बैंकों में रकम ट्रांसफर करने के लिए कहा. अपने सीएफओ की बात वह कैसे न मानता? उस ने तुरंत बताए गए खातों में रकम ट्रांसफर कर दी.

एक सप्ताह बाद हुआ ठगी का एहसास

अधिकारी ने पुलिस को बताया कि उस की कंपनी का सीएफओ उस समय ब्रिटेन में था. जब डीपफेक वीडियो कौल की गई तो उसे लगा कि सीएफओ समेत सभी कर्मचारी असली हैं. वह इन में से कई लोगों को जानता था, इसलिए वह झांसे में आ गया और कौन्फ्रैंसिंग के 5 बैंक खातों में 15 बार में कुल मिला कर 20 करोड़ कौन्फ्रैंसिंग डौलर ट्रांसफर कर दिए. अधिकारियों को लगभग एक सप्ताह बाद ठगी का एहसास हुआ, जिस के बाद पुलिस जांच शुरू हुई.

जैसेजैसे टैक्नोलौजी का इस्तेमाल बढ़ रहा है और काम करना आसान हो रहा है वैसेवैसे साइबर स्कैमर्स एआई की डीपफेक तकनीक का गलत इस्तेमाल करते जा रहे हैं. एआई की मदद से धोखाधड़ी के मामले तेजी से बढ़ रहे हैं. हाल ही में आर्टिफिशियल इंटैलिजैंस की डीपफेक तकनीक की मदद से केरल के एक व्यक्ति के साथ 40 हजार रुपए की ठगी हुई है. शिकायत करने वाले शख्स का नाम राधाकृष्ण है जिस के साथ फ्रौड हुआ है.

स्कैमर ने धोखाधड़ी को अंजाम देने के लिए खुद को राधाकृष्ण का सहकर्मी होने का दावा किया और अस्पताल में एक रिश्तेदार के इलाज के लिए उन से पैसे मांगे. राधाकृष्ण का दिल पसीज आया और उन्होंने 40 हजार रुपए ट्रांसफर कर दिए. हालांकि, राधाकृष्ण ने इस तरह के फ्रौड के बारे में पहले सुना था, सो पूरी तरह अस्वस्थ होने के लिए उस से वीडियो कौल करने के लिए कहा, फिर उस शख़्स ने विडियो कौल किया. जिस के बाद राधाकृष्ण को तसल्ली हुई और उन्होंने 40 हजार रुपए ट्रांसफर कर दिए.

राधाकृष्ण का कहना है कि उन्होंने सतर्कता बरती थी, लेकिन उन्हें ठगा जा चुका था. उन का दावा है कि उन्हें डीपफेक के जरिए झांसा दिया गया. जिस के बाद इस की शिकायत कोझिकोड के साइबर क्राइम पुलिस थाने में की गई.

डीपफेक का मतलब है कि किसी भी शख्स की तसवीर, आवाज या वीडियो बना देना. ये वीडियो कौल देखने में बिलकुल फर्जी नहीं लगते हैं. आर्टिफिशियल इंटैलिजैंस या एआई और मशीन लर्निंग जैसेजैसे उन्नत होती जाएगी, इस तरह की समस्याएं बढ़ती जाएंगी. कुछ समय पहले तक डीपफेक वीडियोज को पहचानना आसान होता था. लेकिन अब ऐप डैवलपर्स ने अनेक कमियों को सुधार दिया है, वैसे भी एआई तो हमेशा लर्न ही करता रहता है, विभिन्न डेटा पैटर्न को समझता रहता है.

अब डीपफेक की ऐप्स इतनी उन्नत हो गई हैं कि इन में बनाए वीडियो में पलकें झपकना भी एकदम सामान्य लगता है, वहीं वीडियो और इमेज भी अब पहले से बेहतर हो गए हैं. कई देशों में एआई टीवी न्यूजकास्टर भी शुरू हो गए हैं जो हूबहू न्यूज एंकर जैसे लगते हैं और खबरें पढ़ते हैं.

पिछले दिनों भारत में भी कुछ मीडिया घरानों ने इस को लौंच किया है. हालांकि, इस के नुकसान भी हैं क्योंकि फेक न्यूज फैलाने में इस का इस्तेमाल किया जा सकता है. डीपफेक की सहायता से चुनावी अभियान भी प्रभावित किए जा सकते हैं.

फिलहाल तो यही कहा जा सकता है कि अगर आप को अनजान नंबर या आईडी से वीडियो कौल आए तो उस पर विश्वास न करें. किसी को पैसा देने से पहले उस से फोन पर बात कर लें या उस से जा कर मिल लें. अगर करीबी दोस्त है, परेशानी में है तो उस के परिवार में से किसी से बात कर के स्थिति के बारे में जानने का प्रयास करें.

आप कहीं छुट्टी पर जा रहे हैं या आप के बच्चे कहीं जा रहे हैं तो उस के बारे में सोशल मीडिया पर न लिखें. सोशल मीडिया पर घरेलू बातें, परिवारजनों की तसवीरें आदि पोस्ट करने से बचें, जो आप की निजता को सार्वजनिक करता है.

और कहानियां पढ़ने के लिए क्लिक करें...