उपाय ’डीपफेक’च्या काळातील आत्मरक्षणाचे...

25 Jan 2026 14:22:10


रविवारची सकाळ नेहमीसारखीच निवांत होती; पण जयंतराव मात्र काहीसे अस्वस्थ होते. त्यांनी आपल्या मोबाईलवर एक व्हिडिओ पाहिला होता, ज्यामध्ये एका प्रसिद्ध नेत्याने कधीही न बोललेली विधाने त्याच्या तोंडी दिसत होती. ते पाहूनच त्यांना प्रश्न पडला की, आपण जे डोळ्यांनी पाहतोय आणि कानांनी ऐकतोय, ते खरंच खरं आहे का?

जयंतराव : आदित्य, हा व्हिडिओ बघ. यात हे नेते असं कसं बोलू शकतात? मला खात्री आहे की, ते असं कधीच बोलणार नाहीत; पण व्हिडिओत तर त्यांचाच चेहरा आणि आवाज दिसतोय, हे काय प्रकरण आहे?
आदित्य : आजोबा, तुम्ही आता जे पाहिलं, त्यालाच ‘डीपफेक’ म्हणतात. ‘एआय’च्या या प्रगत युगात, आता एखाद्याचा चेहरा आणि आवाज चोरून हुबेहूब बनावट व्हिडिओ बनवणं शक्य झालं आहे. हे तंत्रज्ञान जितकं थक्क करणारं आहे, तितकंच ते अत्यंत धोकादायकही आहे. आज आपण ‘माहितीच्या युगा’कडून ‘चुकीच्या माहितीच्या युगा’कडे (misinformation) जात आहोत की, काय अशी भीती वाटू लागली आहे.

‘डीपफेक’ म्हणजे नक्की काय? (तंत्रज्ञानाचा पडद्यामागचा खेळ)

जयंतराव : पण, हे नक्की काम कसं करतं? कुणीतरी बसून चित्रपट बनवतो, तसं हे एडिटिंग आहे का?
आदित्य : नाही आजोबा, हे तंत्रज्ञान साध्या एडिटिंगच्या खूप पुढे आहे. याच्यामागे ‘जनरेटिव्ह अ‍ॅडव्हर्सल नेटवर्क्स’ अर्थात, ‘जीएएन’ नावाचं एक प्रगत ‘एआय’ मॉडेल असतं. सोप्या भाषेत सांगायचं, तर यात दोन ‘एआय’ यंत्रणा एकमेकांशी स्पर्धा करतात. एक यंत्रणा खोट्या प्रतिमेची निर्मिती करते. अर्थात, जनरेटर आणि दुसरी यंत्रणा ती प्रतिमा खरी आहे की, खोटी हे तपासते अर्थात, ‘डिस्क्रिमिनेटर’. ही स्पर्धा लाखोवेळा चालते. जोपर्यंत तपासणारी यंत्रणा ‘ही प्रतिमा १०० टक्के खरी आहे’ असं म्हणत नाही, तोपर्यंत ‘एआय’ त्यामध्ये सुधारणा करत राहतो. म्हणजेच, थोडक्यात खोटे व्हिडिओ बनवणार्‍यांकडून एवढी तयारी करून घेतली जाते की, ते कोणाला खोटे वाटूच नयेत.

‘एआय’ला एखाद्या व्यक्तीचे हजारो फोटो आणि तासन्तास ऑडिओ रेकॉर्डिंग दिले की, तो त्या व्यक्तीच्या चेहर्‍याचे स्नायू, ओठांची हालचाल, डोळ्यांच्या पापण्यांची लय आणि आवाजातील चढ-उतार पूर्णपणे शिकतो. त्यानंतर, आपण कोणत्याही दुसर्‍या व्यक्तीचा व्हिडिओ वापरून त्यावर या व्यक्तीचा चेहरा ‘सुपरइम्पोज’ करू शकतो.

‘डीपफेक’चे विघातक प्रकार; केवळ मनोरंजनासाठी नाही!

आदित्यने जयंतरावांना ‘डीपफेक’च्या वाढत्या व्याप्तीबद्दल सविस्तर माहिती दिली -

व्हॉईस लोनिंग : केवळ ३० सेकंदांचा तुमचा आवाज ऐकून ‘एआय’ हुबेहूब तुमच्यासारखं बोलू शकतो. आजकाल ‘बँक फ्रॉड’मध्ये याचा सर्रास वापर होतो आहे. ‘मी संकटात असून, तातडीने पैसे पाठवा,’ असा तुमच्या मुलाच्या आवाजातील फोन तुम्हाला येऊ शकतो, जो प्रत्यक्षात ‘एआय’ने केलेला असतो.
फेक न्यूज आणि राजकीय अस्थिरता : निवडणुकांच्या काळात एखाद्या उमेदवाराचा खोटा व्हिडिओ फिरवून मतदारांचे मत प्रभावित केले जाऊ शकते. यामुळे समाजात दंगली किंवा अविश्वासाचे वातावरण निर्माण होण्याचा धोका वाढतो.

आर्थिक फसवणूक : कंपन्यांच्या उच्चपदस्थ अधिकार्‍यांचे आवाज किंवा व्हिडिओ वापरून कर्मचार्‍यांना पैशांची अफरातफर करायला लावण्याचे प्रकारही जगभरात घडले आहेत.
वैयक्तिक बदनामी : सामान्य स्त्रिया किंवा महाविद्यालयीन मुलींचे फोटो सोशल मीडियावरून चोरून त्यांचे अश्लील ‘डीपफेक’ बनवण्याचे गुन्हे अत्यंत वेगाने वाढत आहेत. ही एक मोठी सामाजिक समस्या बनली आहे.

’खरे’ आणि ’खोटे’ कसे ओळखायचे?

जयंतराव : बापरे! म्हणजे आता व्हिडिओ कॉलवरही विश्वास ठेवायचा नाही का? हे ओळखायचं कसं?
आदित्य : आजोबा, ‘एआय’ कितीही हुशार झाला, तरी तो निसर्गाची १०० टक्के नक्कल करू शकत नाही. ‘डीपफेक’ ओळखण्यासाठी या काही तांत्रिक खुणा लक्षात ठेवणे आवश्यक आहे.
१. पापण्यांची नैसर्गिक हालचाल : ‘एआय’निर्मित व्हिडिओमध्ये अनेकदा व्यक्ती डोळ्यांच्या पापण्या नैसर्गिकरित्या लवत नाही. जर पापण्या लवल्या, तरी त्यांची गती एकतर खूप वेगवान असते किंवा खूप संथ.
२. सावल्या आणि प्रकाश : व्हिडिओमध्ये ज्या बाजूने प्रकाश येतो आहे, त्याच बाजूला चेहर्‍यावर सावल्या आहेत का, हे एकदा तपासा. अनेकदा ‘एआय’ चेहर्‍यावरचा प्रकाश आणि पार्श्वभूमीचा प्रकाश यांचा ताळमेळ बसवू शकत नाही.

३. चेहर्‍याच्या कडा : जर तुम्ही नीट पाहिलं, तर व्यक्तीचा चेहरा जिथे संपतो (कानांजवळ किंवा मानेजवळ), तिथे व्हिडिओ किंचितसा ‘ब्लर’ किंवा अस्पष्ट दिसतो. मान तिरकी केल्यावरही चेहरा हलताना दिसतो.
४. दागिने आणि चष्मा : ‘एआय’ला चष्म्यावरचे परावर्तन किंवा कानातले डुल यांच्या हालचाली हुबेहूब साधणे, अजूनही कठीण जाते आहे. चष्मा घातलेल्या व्यक्तीच्या डोळ्यांजवळ अनेकदा त्रुटी दिसतात.
५. शब्दांची फेक : बोललेला शब्द आणि ओठांची हालचाल यात सूक्ष्म असा फरक असतो. तसेच आवाजात मानवी भावनांची नैसर्गिक लय, श्वासाचा आवाज किंवा शब्दांमधील नैसर्गिक विराम आढळत नाहीत.

‘डीपफेक’पासून नुकसान टाळण्यासाठी आपण काय करू शकतो?

आदित्य : आजोबा, तंत्रज्ञानापेक्षा आपली सतर्कता हेच मोठं संरक्षण आहे. आपण या चार पायर्‍या पाळल्या पाहिजेत.
डिजिटल फुटप्रिंट कमी करा : समाजमाध्यमांवर आपले हाय-डेफिनिशन फोटो आणि व्हिडिओ ‘पब्लिक’ ठेवू नका. तुमच्या एका फोटोवरूनही ‘एआय’ काम सुरू करू शकतो.
कुटुंबाचा ‘सिक्रेट कोड’ : जर तुम्हाला संशयास्पद फोन आला, तर त्या व्यक्तीला तुमच्या कुटुंबात ठरलेला एक गुप्त शब्द विचारा. तो शब्द माहीत नसेल, तर समजा तो ‘व्हॉईस लोन’ आहे.
अनोळखी लिंक आणि बग : बघा, तुम्ही या व्हिडिओत आहात का? किंवा तुमचा चेहरा म्हातारपणी कसा दिसेल? अशा लिंकपासून लांब राहा. त्याद्वारे तुमचा बायोमेट्रिक डेटा चोरला जाऊ शकतो.
थ्री-स्टेप व्हेरिफिकेशन : कोणताही आर्थिकव्यवहार करण्यापूर्वी केवळ फोनवर विश्वास न ठेवता, दुसर्‍या मार्गाने (उदा. प्रत्यक्ष भेटून किंवा मेसेज करून) खात्री करा.

‘एआय’ आणि कायद्याची ढाल

जयंतराव : पण, यासाठी सरकार काही करत नाहीये का? हे तर उघड गुन्हे आहेत.
आदित्य : हो आजोबा, जगभरात आता यावर कायदे बनू लागले आहेत. युरोपियन युनियनच्या ‘एआय’ कायद्यात ‘डीपफेक’वर स्पष्ट लेबल्स लावणे बंधनकारक केले आहे. भारतातही ‘माहिती तंत्रज्ञान कायदा’ अंतर्गत ‘डीपफेक’ बनवणे आणि पसरवणे हा गुन्हा आहे. पण, तंत्रज्ञान इतक्या वेगाने बदलत आहे की, कायद्यापेक्षा आपली वैयक्तिक जागरूकता महत्त्वाची झाली आहे. कंपन्या आता ‘वॉटरमार्किंग’ तंत्रज्ञान आणत आहेत, त्यामुळे ‘एआय’ने बनवलेला कोणताही फोटो किंवा व्हिडिओ लगेच ओळखता येईल.

सकारात्मक बाजू - तंत्रज्ञानाचा विधायक वापर

जयंतराव : आदित्य, या तंत्रज्ञानाचे काही चांगले उपयोग आहेत की, हे फक्त त्रास देण्यासाठी बनवलंय?
आदित्य : नाही आजोबा, प्रत्येक नाण्याला दोन बाजू असतात. ‘डीपफेक’च्या मुळाशी असलेलं तंत्रज्ञान अनेक चांगल्या कामांसाठी वापरलं जातं -
मनोरंजन : ऐतिहासिक व्यक्तींना पडद्यावर जिवंत करण्यासाठी किंवा एखादा कलाकार आजारी असताना त्याचं काम पूर्ण करण्यासाठी या तंत्रज्ञानाचा वापर होतो.
शिक्षण : जगातील महान शास्त्रज्ञ किंवा ऐतिहासिक व्यक्ती प्रत्यक्ष आपल्याला धडा शिकवत आहेत, असा अनुभवही विद्यार्थ्यांना याच तंत्रज्ञानाच्या साहाय्याने घेता येईल.
आरोग्य : ज्यांचे आवाज अपघातामुळे किंवा आजारामुळे गेले आहेत, त्यांना त्यांचा मूळ आवाज परत मिळवून देण्यासाठी ‘व्हॉईस लोनिंग’ वरदान ठरत आहे.

निष्कर्ष : पाहावे डोळ्यांनी, तपासावे बुद्धीने!

चर्चेच्या शेवटी जयंतरावांचा चेहरा आता गंभीर; पण माहितीपूर्ण झाला होता. त्यांना जाणवलं की, भविष्यात केवळ साक्षर असणं पुरेसं नाही, तर ‘डिजिटल साक्षर’ असणं ही काळाची गरज आहे.
जयंतराव : म्हणजे आदित्य, आता डोळ्यांवर आणि कानांवर विश्वास ठेवण्यापूर्वी बुद्धीची चाळणी लावणं गरजेचं झालं आहे. माहितीच्या या महापुरात आपण फक्त वाचक न राहता ‘तपासनीस’ बनलं पाहिजे.
आदित्य : अगदीच बरोबर आजोबा! सायबर सुरक्षेची गुरुकिल्ली म्हणजेच सतर्कता. आपण घाबरायचं नाही, तर फक्त अखंड सावध राहायचं आहे.
आजोबा, पुढच्या वेळी आपण एका सकारात्मक आणि अभिमानास्पद विषयावर बोलूया. ‘एआय’ आणि भारतीय भाषा : ‘भाषिणी’ प्रकल्प ग्रामीण भारताचे नशीब कसे बदलणार आणि मराठी भाषेला ‘एआय’च्या युगात नवीन उंची कशी मिळणार आहे, यावर आपण चर्चा करू.

- डॉ. कुलदीप देशपांडे



Powered By Sangraha 9.0