रविवारची सकाळ नेहमीसारखीच निवांत होती; पण जयंतराव मात्र काहीसे अस्वस्थ होते. त्यांनी आपल्या मोबाईलवर एक व्हिडिओ पाहिला होता, ज्यामध्ये एका प्रसिद्ध नेत्याने कधीही न बोललेली विधाने त्याच्या तोंडी दिसत होती. ते पाहूनच त्यांना प्रश्न पडला की, आपण जे डोळ्यांनी पाहतोय आणि कानांनी ऐकतोय, ते खरंच खरं आहे का?
जयंतराव : आदित्य, हा व्हिडिओ बघ. यात हे नेते असं कसं बोलू शकतात? मला खात्री आहे की, ते असं कधीच बोलणार नाहीत; पण व्हिडिओत तर त्यांचाच चेहरा आणि आवाज दिसतोय, हे काय प्रकरण आहे?
आदित्य : आजोबा, तुम्ही आता जे पाहिलं, त्यालाच ‘डीपफेक’ म्हणतात. ‘एआय’च्या या प्रगत युगात, आता एखाद्याचा चेहरा आणि आवाज चोरून हुबेहूब बनावट व्हिडिओ बनवणं शक्य झालं आहे. हे तंत्रज्ञान जितकं थक्क करणारं आहे, तितकंच ते अत्यंत धोकादायकही आहे. आज आपण ‘माहितीच्या युगा’कडून ‘चुकीच्या माहितीच्या युगा’कडे (misinformation) जात आहोत की, काय अशी भीती वाटू लागली आहे.
‘डीपफेक’ म्हणजे नक्की काय? (तंत्रज्ञानाचा पडद्यामागचा खेळ)
जयंतराव : पण, हे नक्की काम कसं करतं? कुणीतरी बसून चित्रपट बनवतो, तसं हे एडिटिंग आहे का?
आदित्य : नाही आजोबा, हे तंत्रज्ञान साध्या एडिटिंगच्या खूप पुढे आहे. याच्यामागे ‘जनरेटिव्ह अॅडव्हर्सल नेटवर्क्स’ अर्थात, ‘जीएएन’ नावाचं एक प्रगत ‘एआय’ मॉडेल असतं. सोप्या भाषेत सांगायचं, तर यात दोन ‘एआय’ यंत्रणा एकमेकांशी स्पर्धा करतात. एक यंत्रणा खोट्या प्रतिमेची निर्मिती करते. अर्थात, जनरेटर आणि दुसरी यंत्रणा ती प्रतिमा खरी आहे की, खोटी हे तपासते अर्थात, ‘डिस्क्रिमिनेटर’. ही स्पर्धा लाखोवेळा चालते. जोपर्यंत तपासणारी यंत्रणा ‘ही प्रतिमा १०० टक्के खरी आहे’ असं म्हणत नाही, तोपर्यंत ‘एआय’ त्यामध्ये सुधारणा करत राहतो. म्हणजेच, थोडक्यात खोटे व्हिडिओ बनवणार्यांकडून एवढी तयारी करून घेतली जाते की, ते कोणाला खोटे वाटूच नयेत.
‘एआय’ला एखाद्या व्यक्तीचे हजारो फोटो आणि तासन्तास ऑडिओ रेकॉर्डिंग दिले की, तो त्या व्यक्तीच्या चेहर्याचे स्नायू, ओठांची हालचाल, डोळ्यांच्या पापण्यांची लय आणि आवाजातील चढ-उतार पूर्णपणे शिकतो. त्यानंतर, आपण कोणत्याही दुसर्या व्यक्तीचा व्हिडिओ वापरून त्यावर या व्यक्तीचा चेहरा ‘सुपरइम्पोज’ करू शकतो.
‘डीपफेक’चे विघातक प्रकार; केवळ मनोरंजनासाठी नाही!
आदित्यने जयंतरावांना ‘डीपफेक’च्या वाढत्या व्याप्तीबद्दल सविस्तर माहिती दिली -
व्हॉईस लोनिंग : केवळ ३० सेकंदांचा तुमचा आवाज ऐकून ‘एआय’ हुबेहूब तुमच्यासारखं बोलू शकतो. आजकाल ‘बँक फ्रॉड’मध्ये याचा सर्रास वापर होतो आहे. ‘मी संकटात असून, तातडीने पैसे पाठवा,’ असा तुमच्या मुलाच्या आवाजातील फोन तुम्हाला येऊ शकतो, जो प्रत्यक्षात ‘एआय’ने केलेला असतो.
फेक न्यूज आणि राजकीय अस्थिरता : निवडणुकांच्या काळात एखाद्या उमेदवाराचा खोटा व्हिडिओ फिरवून मतदारांचे मत प्रभावित केले जाऊ शकते. यामुळे समाजात दंगली किंवा अविश्वासाचे वातावरण निर्माण होण्याचा धोका वाढतो.
आर्थिक फसवणूक : कंपन्यांच्या उच्चपदस्थ अधिकार्यांचे आवाज किंवा व्हिडिओ वापरून कर्मचार्यांना पैशांची अफरातफर करायला लावण्याचे प्रकारही जगभरात घडले आहेत.
वैयक्तिक बदनामी : सामान्य स्त्रिया किंवा महाविद्यालयीन मुलींचे फोटो सोशल मीडियावरून चोरून त्यांचे अश्लील ‘डीपफेक’ बनवण्याचे गुन्हे अत्यंत वेगाने वाढत आहेत. ही एक मोठी सामाजिक समस्या बनली आहे.
’खरे’ आणि ’खोटे’ कसे ओळखायचे?
जयंतराव : बापरे! म्हणजे आता व्हिडिओ कॉलवरही विश्वास ठेवायचा नाही का? हे ओळखायचं कसं?
आदित्य : आजोबा, ‘एआय’ कितीही हुशार झाला, तरी तो निसर्गाची १०० टक्के नक्कल करू शकत नाही. ‘डीपफेक’ ओळखण्यासाठी या काही तांत्रिक खुणा लक्षात ठेवणे आवश्यक आहे.
१. पापण्यांची नैसर्गिक हालचाल : ‘एआय’निर्मित व्हिडिओमध्ये अनेकदा व्यक्ती डोळ्यांच्या पापण्या नैसर्गिकरित्या लवत नाही. जर पापण्या लवल्या, तरी त्यांची गती एकतर खूप वेगवान असते किंवा खूप संथ.
२. सावल्या आणि प्रकाश : व्हिडिओमध्ये ज्या बाजूने प्रकाश येतो आहे, त्याच बाजूला चेहर्यावर सावल्या आहेत का, हे एकदा तपासा. अनेकदा ‘एआय’ चेहर्यावरचा प्रकाश आणि पार्श्वभूमीचा प्रकाश यांचा ताळमेळ बसवू शकत नाही.
३. चेहर्याच्या कडा : जर तुम्ही नीट पाहिलं, तर व्यक्तीचा चेहरा जिथे संपतो (कानांजवळ किंवा मानेजवळ), तिथे व्हिडिओ किंचितसा ‘ब्लर’ किंवा अस्पष्ट दिसतो. मान तिरकी केल्यावरही चेहरा हलताना दिसतो.
४. दागिने आणि चष्मा : ‘एआय’ला चष्म्यावरचे परावर्तन किंवा कानातले डुल यांच्या हालचाली हुबेहूब साधणे, अजूनही कठीण जाते आहे. चष्मा घातलेल्या व्यक्तीच्या डोळ्यांजवळ अनेकदा त्रुटी दिसतात.
५. शब्दांची फेक : बोललेला शब्द आणि ओठांची हालचाल यात सूक्ष्म असा फरक असतो. तसेच आवाजात मानवी भावनांची नैसर्गिक लय, श्वासाचा आवाज किंवा शब्दांमधील नैसर्गिक विराम आढळत नाहीत.
‘डीपफेक’पासून नुकसान टाळण्यासाठी आपण काय करू शकतो?
आदित्य : आजोबा, तंत्रज्ञानापेक्षा आपली सतर्कता हेच मोठं संरक्षण आहे. आपण या चार पायर्या पाळल्या पाहिजेत.
डिजिटल फुटप्रिंट कमी करा : समाजमाध्यमांवर आपले हाय-डेफिनिशन फोटो आणि व्हिडिओ ‘पब्लिक’ ठेवू नका. तुमच्या एका फोटोवरूनही ‘एआय’ काम सुरू करू शकतो.
कुटुंबाचा ‘सिक्रेट कोड’ : जर तुम्हाला संशयास्पद फोन आला, तर त्या व्यक्तीला तुमच्या कुटुंबात ठरलेला एक गुप्त शब्द विचारा. तो शब्द माहीत नसेल, तर समजा तो ‘व्हॉईस लोन’ आहे.
अनोळखी लिंक आणि बग : बघा, तुम्ही या व्हिडिओत आहात का? किंवा तुमचा चेहरा म्हातारपणी कसा दिसेल? अशा लिंकपासून लांब राहा. त्याद्वारे तुमचा बायोमेट्रिक डेटा चोरला जाऊ शकतो.
थ्री-स्टेप व्हेरिफिकेशन : कोणताही आर्थिकव्यवहार करण्यापूर्वी केवळ फोनवर विश्वास न ठेवता, दुसर्या मार्गाने (उदा. प्रत्यक्ष भेटून किंवा मेसेज करून) खात्री करा.
‘एआय’ आणि कायद्याची ढाल
जयंतराव : पण, यासाठी सरकार काही करत नाहीये का? हे तर उघड गुन्हे आहेत.
आदित्य : हो आजोबा, जगभरात आता यावर कायदे बनू लागले आहेत. युरोपियन युनियनच्या ‘एआय’ कायद्यात ‘डीपफेक’वर स्पष्ट लेबल्स लावणे बंधनकारक केले आहे. भारतातही ‘माहिती तंत्रज्ञान कायदा’ अंतर्गत ‘डीपफेक’ बनवणे आणि पसरवणे हा गुन्हा आहे. पण, तंत्रज्ञान इतक्या वेगाने बदलत आहे की, कायद्यापेक्षा आपली वैयक्तिक जागरूकता महत्त्वाची झाली आहे. कंपन्या आता ‘वॉटरमार्किंग’ तंत्रज्ञान आणत आहेत, त्यामुळे ‘एआय’ने बनवलेला कोणताही फोटो किंवा व्हिडिओ लगेच ओळखता येईल.
सकारात्मक बाजू - तंत्रज्ञानाचा विधायक वापर
जयंतराव : आदित्य, या तंत्रज्ञानाचे काही चांगले उपयोग आहेत की, हे फक्त त्रास देण्यासाठी बनवलंय?
आदित्य : नाही आजोबा, प्रत्येक नाण्याला दोन बाजू असतात. ‘डीपफेक’च्या मुळाशी असलेलं तंत्रज्ञान अनेक चांगल्या कामांसाठी वापरलं जातं -
मनोरंजन : ऐतिहासिक व्यक्तींना पडद्यावर जिवंत करण्यासाठी किंवा एखादा कलाकार आजारी असताना त्याचं काम पूर्ण करण्यासाठी या तंत्रज्ञानाचा वापर होतो.
शिक्षण : जगातील महान शास्त्रज्ञ किंवा ऐतिहासिक व्यक्ती प्रत्यक्ष आपल्याला धडा शिकवत आहेत, असा अनुभवही विद्यार्थ्यांना याच तंत्रज्ञानाच्या साहाय्याने घेता येईल.
आरोग्य : ज्यांचे आवाज अपघातामुळे किंवा आजारामुळे गेले आहेत, त्यांना त्यांचा मूळ आवाज परत मिळवून देण्यासाठी ‘व्हॉईस लोनिंग’ वरदान ठरत आहे.
निष्कर्ष : पाहावे डोळ्यांनी, तपासावे बुद्धीने!
चर्चेच्या शेवटी जयंतरावांचा चेहरा आता गंभीर; पण माहितीपूर्ण झाला होता. त्यांना जाणवलं की, भविष्यात केवळ साक्षर असणं पुरेसं नाही, तर ‘डिजिटल साक्षर’ असणं ही काळाची गरज आहे.
जयंतराव : म्हणजे आदित्य, आता डोळ्यांवर आणि कानांवर विश्वास ठेवण्यापूर्वी बुद्धीची चाळणी लावणं गरजेचं झालं आहे. माहितीच्या या महापुरात आपण फक्त वाचक न राहता ‘तपासनीस’ बनलं पाहिजे.
आदित्य : अगदीच बरोबर आजोबा! सायबर सुरक्षेची गुरुकिल्ली म्हणजेच सतर्कता. आपण घाबरायचं नाही, तर फक्त अखंड सावध राहायचं आहे.
आजोबा, पुढच्या वेळी आपण एका सकारात्मक आणि अभिमानास्पद विषयावर बोलूया. ‘एआय’ आणि भारतीय भाषा : ‘भाषिणी’ प्रकल्प ग्रामीण भारताचे नशीब कसे बदलणार आणि मराठी भाषेला ‘एआय’च्या युगात नवीन उंची कशी मिळणार आहे, यावर आपण चर्चा करू.
- डॉ. कुलदीप देशपांडे