’डीपफेक’ची धूळफेक

    08-Nov-2023
Total Views |
Actress Rashmika Mandana Deepfake Video Controversy

दाक्षिणात्य चित्रपटातील सुप्रसिद्ध अभिनेत्री रश्मिका मंधानाच्या ‘डीपफेक’ तंत्रज्ञानाचा वापर करून बनवण्यात आलेल्या एका आक्षेपार्ह व्हिडिओमुळे हे तंत्रज्ञान चर्चेत आले. अशाप्रकारच्या तंत्रज्ञानाचा वापर करून गुन्हेगारी प्रवृत्तीचे लोकं कोणाचीही प्रतिमा मलीन करू शकतात. त्यामुळे या तंत्रज्ञानाच्या वापराविषयी आपल्याला माहिती असणे, आवश्यक झाले आहे.

‘डीपफेक’ तंत्रज्ञानाचा वापर करून कोणत्याही फोटो किंवा व्हिडिओशी फेरफार करून एक बनावट व्हिडिओ बनवणे सहज शक्य झाले आहे. या ‘डीपफेक’ तंत्रज्ञानात डीप लर्निंग नावाच्या विशेष मशीन लर्निंगचा वापर केला जातो. या तंत्रज्ञानाने आधी फोटो किंवा व्हिडिओशी फेरफार करून बनावट फोटो किंवा व्हिडिओ बनवले जात. पण ‘आर्टिफिशियल इंटेलजेन्स’ (एआय) मुळे आता आवाजाशीसुद्धा छेडछाड करणे सहज शक्य झाले आहे. आजच्या काळात ‘आर्टिफिशियल इंटेलजेन्स’मुळे ही प्रोसेस इतकी सोपी आहे की, कोणीही अशा प्रकारचे ‘डीपफेक’ व्हिडिओ किंवा फोटो बनवू शकतो.

‘डीपफेक’ तंत्रज्ञानाचा वापर करून बनवण्यात आलेल्या फोटो खरे की खोटे ही सहजरित्या ओळखण जवळपास अशक्य आहे. ते इतके हुबेहूब बनवलेले असतात की, पहिल्या नजरेत आपला त्यांच्यावर विश्वास बसतो. अशा फोटोमध्ये छुपे लेयर असतात जे फक्त ‘एडिटिंग सॉफ्टवेअर’द्वारेच पाहता येतात. अगदी सोप्या भाषेत सांगायचे झाल्यास, ‘डीपफेक’हा एक संपादित व्हिडिओ आहे. ज्यामध्ये एकाचा चेहरा दुसर्‍याच्या चेहर्‍याने बदलला जातो.

पण, आता ज्याप्रकारे ‘एआय’ तंत्रज्ञानाने ‘डीपफेक’चा वापर करून बनावट फोटो तयार करणं सहज शक्य झाले आहे. त्याचप्रकारे ‘एआय’चा वापर करून तुम्ही फोटो खरा आहे की बनावट हे ओळखू शकता. सध्या इंटरनेटवर खुपसारे ‘एआय टूल’ आहेत. ज्याद्वारे तुम्ही पाहत असलेला फोटो हा खरा आहे की, ‘डीपफेक’तंत्रज्ञानाचा वापर करून बनवण्यात आला आहे, हे ओळखता येते.

आज सोशल मीडियावर अशा ‘डीप फेक’ व्हिडिओंची आणि फोटोंची भरमार आहे. काही व्हिडिओमध्ये तर आवाजाशी देखील छेडछाड केली जाते. सध्या ‘एआय’ तंत्रज्ञानाच्या सहज उपलब्धतेमुळे कोणतेही गाणे कोणाच्याही आवाजात सहज रुपांतरित केले जाऊ शकते. तुम्ही सोशल मीडियावर पाहतच असाल. कधी-कधी आपण आपल्या मित्राची किंवा आपल्या ओळखीच्या व्यक्तीची मजा घेण्यासाठी काही प्रमाणात ‘डीपफेक’ तंत्रज्ञानाचा वापर करतोच. पण हा झाला मनोरंजनाचा भाग.

पण, ज्याप्रकारे रश्मिकाचा बनावट व्हिडिओ शेयर करण्यात आला होता. हे एक गुन्हेगारी कृत्य आहे. काही गुन्हेगारी प्रवृत्तीचे लोकं सध्या ‘डीपफेकतंत्रज्ञानाचा वापर ब्लकमेलिंग किंवा एखाद्या प्रतिष्ठित व्यक्तीची समाजात बदनामी करण्यासाठी करतात. ‘आर्टिफिशियल इंटेलजेन्स’च्या या युगात कोणतीही गोष्ट आता अशक्य राहिलेली नाही. ‘आर्टिफिशियल इंटेलजेन्स’चा वापर करून बनवण्यात आलेल्या व्हिडिओ आणि फोटोंनी आज समाज माध्यम व्यापलेली आहेत. आपण याच्याकडे मनोरंजन म्हणून पाहतो. पण काही लोकांना यातून अतिशय भयावह अनुभव आले आहेत.

रश्मिका एक प्रसिद्ध अभिनेत्री आहे, त्यामुळे तिच्या प्रतिष्ठेला धक्का पोहोचवणार्‍या या बनावट व्हिडिओची सत्यता लवकरच समोर आली. त्याचबरोबर या तंत्रज्ञानावर गंभीर चर्चादेखील झाली. पण अश्या हजारो घटना रोज घडत आहेत. एखाद्या सामान्य मुलीसोबत अशी घटना घडल्यास तिला मात्र, अनेक संकटाना तोंड द्यावे लागते. त्यामुळे यासाठी स्वंतत्र्य कायदा करून आरोपींना कठोर शिक्षेची तरतूद करण्याची गरज आहे.

सध्या बदनामीकारक व्हिडिओ शेयर केल्यास भारतीय भारतीय दंडसंहितेनुसार मानहानीचा गुन्हा दाखल केला जाऊ शकतो. या प्रकरणात सोशल मीडिया कंपन्यांवरही आयटी नियमांतर्गत कारवाई होऊ शकते. तक्रारीनंतर, सोशल मीडिया कंपन्यांना ३६ तासांच्या आत त्यांच्या प्लॅटफॉर्मवरून असा मजकूर काढून टाकणे बंधनकारक आहे.

कायदा आपलं काम करेल. पण,आपल्यावर ही वेळ येऊ नये, यासाठी काही पावलं उचलण्याची गरज आहे. जसे की कोणत्याही फोटोला शेयर करण्याआधी त्याची सत्यता तपासून पाहणे गरजेचे आहे. सोशल मीडियावर आपल्या वैयक्तिक आयुष्यातील कोणताही मजकूर शेयर करताना काळजी घ्यावी. शक्य असल्यास आपले सोशल मीडिया अकाऊंट खासगी ठेवावे. सोशल मीडियापासून लहान मुलांना दूर ठेवावे. शक्यतो लहान मुलांचे फोटो सोशल मीडियावर टाकणे टाळावे. हे छोटे-छोटे उपाय केल्यास तुम्ही यापासून वाचू शकतात. त्यासोबतच तुम्हाला असा कोणताही बनावट मजकूर सोशल मीडियावर आढळल्यास तुम्ही सायबर पोलिसांकडे तक्रार दाखल करू शकतात. देशातील बहुतांश राज्यात ऑनलाईन तक्रार करण्याची सुविधा उपलब्ध आहे.

श्रेयश खरात