‘फेक’ व्हिडिओची ‘रिअल’ समस्या

    18-Nov-2023
Total Views |
Article on Deepfake Case

अभिनेत्री रश्मिका मंदानाच्या ‘डीपफेक’ व्हिडिओमुळे ‘फेक’ व्हिडिओची ‘रिअल’ सायबर समस्या पुन्हा एकदा चर्चेत आली. पंतप्रधान मोदींनीही नुकतेच याबाबतीत चिंता व्यक्त केली. त्यानिमित्ताने या समस्येचे स्वरुप आणि उपाययोजना यांचा उहापोह करणारा हा लेख...

सोशल मीडियाचा वापर (आपल्याकडेच नाही, तर जगभरच) वाढू लागल्यावर, त्यामध्ये काही समाजविघातक बाबी शिरणे अपरिहार्यच होते. सायबर गुन्हेगार इथेही सक्रिय झालेच. स्वतःची खोटी प्रोफाईल ठेवून नोकरी, विवाह, प्रवास, व्यापार किंवा मैत्रीच्याही निमित्ताने लोकांना जाळ्यात ओढणे आणि पैशांना किंवा वैयक्तिक पातळीवरील इतर गोष्टींमध्ये ठकवणे, हादेखील एक मोठा व्यवसायच बनला, असे म्हणावे लागेल. याचीच पुढील आवृत्ती म्हणजे ’फेक न्यूज.’ याला ’होक्स’ (हेर) असेही नाव आहे. अशा बातम्या कोणत्याही प्रकारच्या असू शकतात. राजकारण आणि अर्थकारणापासून आज पृथ्वीवर सूर्याकडून कॉस्मिक रेज्चा मारा होणार आहे, तरी सावध राहावेपर्यंत काहीही यामध्ये असू शकते.

अशा बातम्यांना ‘मसाला व्हॅल्यू’ उर्फ ’टीआरपी’ जास्त असल्याने सोशल मीडियावर त्या अतिशय झपाट्याने पसरतात. याचीच अजून पुढची पायरी म्हणजे ’फेक व्हिडिओ.’ समाजमाध्यमांमार्फत ‘व्हायरल’ झालेल्या फोटो किंवा व्हिडिओवरून गैरसमज होऊन त्यातून भांडणे, हिंसाचार, न्यायालयीन केसेस आणि अगदी दंगली उद्भवणे आता नवीन राहिलेले नाही. आपण पाहिलेला फोटो किंवा व्हिडिओ अस्सल आहे की, ’मॉर्फिंग’ केलेला म्हणजे संगणकीय साधने वापरून सोयीस्कररित्या कट-पेस्ट केलेला आहे, याची खात्री न करताच, त्याला पाठिंबा किंवा विरोध करण्याच्या हालचाली सुरू केल्या जातात.

पण, सध्या काय सांगितलंय, यापेक्षा ते कोणी सांगितलंय, यालाच महत्त्व आलंय. हा बहुधा मानवी स्वभावच असावा. कारण, ‘फेक’ की ‘रिअल’ याची खात्री करण्याची सुविधा फुकट देणारी अनेक अ‍ॅप हाताशी असतानाही आपण तसे न करता घातक व चुकीचे कृत्य करून मोकळे होतो. वर्णनावरून चित्र काढण्याचे जे कौशल्य आपल्यातील काहींमध्ये असते, त्याचाच हा अधिक उच्च पातळीवरचा तांत्रिक आविष्कार आहे. सोशल मीडिया, विविध अ‍ॅप्स, ’ओटीटी’ फार काय टीव्ही वरदेखील दाखवले जाणारी दृश्ये किंवा प्रसंग त्यांच्या मूळ रुपात असतीलच, याची कोणतीही खात्री प्रेक्षकांना मिळू शकणार नाही आणि हे घडायला पुढची पाच ते दहा वर्षे पुरेशी आहेत!

पण, येत्या काही दशकांत हा प्रकार वाढत जाण्याचीच शक्यता आहे. कारण, असे व्हिडिओ बनवण्यातला (आर्टिफिशियल इंटेलिजन्स) उर्फ ’कृत्रिम बुद्धिमत्ते’चा सहभाग वेगाने वाढत असल्याने, दाखवली जाणारी बाब खरी की खोटी, हे ओळखणे जवळजवळ अशक्य बनणार आहे. उदा. सोबतचे फोटो पाहा-अमेरिकेचे माजी अध्यक्ष ट्रम्प यांना अटक होताना, फ्रान्सचे अध्यक्ष इमॅन्युअल मॅक्रान अश्रुधुरातून मार्ग काढताना, यात दिसत आहेत. हे प्रसंग पाहिल्याचे किंवा यांबाबत वाचल्याचे आठवत नाही ना? नाहीच आठवणार; कारण असे काही घडलेलेच नाही! हे प्रसंग संगणकावर, ’एआय’ने बनवलेले आहेत. ’एआय’वर आधारित मिडजर्नी (Midjourney) नावाच्या सॉफ्टवेअरने. त्याला पुरवलेल्या मजकुरावरून (टेक्स्ट प्रॉम्प्ट) हे सॉफ्टवेअर प्रतिमा तयार करू शकते आणि त्या प्रतिमा किती हुबेहूब आहेत, हे आपण इथे पाहतच आहोत.

सध्याच चर्चेत असलेल्या आणि अनेक क्षेत्रांत उलथापालथ घडवू शकणार्‍या ‘चॅट जीपीटी’चे उदाहरण घ्या. ’चॅट जीपीटी’ हे भाषेवर आधारित एक ’एआय’ सॉफ्टवेअर आहे. त्याला भाषा आणि शब्दप्रयोगांतील बारकावे व छुपे अर्थही चांगलेच समजतात. ‘चॅट जीपीटी’सारख्या कृत्रिम बुद्धिमत्तेला तितक्याच दर्जेदार आणि अचूक ऑडिओ-व्हिडिओची जोड मिळल्याने, असे व्हिडिओ किंवा फोटो मूळचेच तसे आहेत की, बनवलेले आहेत, हे सांगणे दिवसेंदिवस अवघड होत जाणार आहे. परिणामी सत्य लपवणे, ते वेगळ्या रुपात दाखवणे किंवा स्वतःला सोयीचा असेल, तेवढाच भाग सांगणेही अगदी सहजशक्य होईल. यासाठी सरकारने व स्वयंसेवी संस्थांनी खरेपणा तपासण्यासाठी काही संकेतस्थळ तयार करणे जरुरीचे आहे. तसेच सायबर कायदे बदलून त्यात फेक न्यूज, व्हिडिओचा प्रसार करणार्‍या व्यक्तींना व संस्थांना जबर शिक्षा व्हायला हवी. नीतिमत्तेवर आधारित तंत्रज्ञान ही बाब शालेय, महाविद्यालयीन शिक्षणात अंतर्भूत करायची, हीच वेळ आहे.

डॉ. दीपक शिकारपूर
(लेखक उद्योजक व संगणक साक्षरता प्रसारक आहेत.)
आता महाMTBच्या बातम्या आणि लेख मिळवा एका क्लिकवर. Facebook, Twitter, Instagram वर आम्हाला फॉलो करा, महाMTB You tube चॅनलला सबस्क्राईब करा. डाऊनलोड करा महाMTB App.