निवडणुकीच्या धामधुमीत खोटे व्हिडिओ खोटे फोटो वायरल होण्याची शक्यता असते. अशातच काही प्रकरणे यापूर्वीही अनेकदा समोर आल्याने ओपन ए आय (Open AI) कंपनीने युएस स्थित कंटेंट प्रोव्हिंस अँड ऑथेन्टिसिटी कमिटीशी हातमिळवणी केली आहे. आगामी काळातील 'डिपफेक' व्हिडिओ रोखण्यासाठी कंपनीने ही नवी खबरदारी घेण्याचे ठरवले आहे. ओपन ए आय ही चाट जीपीटी बनवणारी मातृसंस्था आहे. याशिवाय भारतातही मोठे पाऊल उचलत कंपनीने भारतीय निवडणूक आयोगाशी हातमिळवणी देखील केली आहे.
Read More
केंद्रिय गृहमंत्री अमित शहा यांचा एक डीपफेक व्हीडीओ व्हायरल केल्याप्रकरणी अनेकावर कारवाई करण्यात आली आहे. यामध्ये गुजरातमधून काँग्रेस आणि आम आदमी पार्टीच्या नेत्यांना अटक करण्यात आली आहे. विशेष अजेंचा घेऊन अमित शहांचे डिपफेक विडीयो वायरल केले जात असल्याचा आरोप त्यांच्यावर लावण्यात आला आहे.
गेल्या काही दिवसांपासून हिंदी चित्रपटसृष्टीतील कलाकारांचे डीपफेक व्हिडीओ आणि फोटो मोठ्या प्रमाणात व्हायरल होताना दिसत आहेत. रश्मिका मंदाना, काजोल, कटरिना कैफ, आमिर खान यांच्यापाठोपाठ रणवीर सिंग (Ranvir Singh Deepfake Video) देखील डीपफेकचा बळी ठरला होता. या व्हिडिओत त्याने कॉंग्रेसचा प्रचार केल्याचे दाखवण्यात आले होते. परंतु, हे सर्व खोटं असून यासंदर्भात रणवीरने (Ranvir Singh Deepfake Video) थेट पोलिस ठाण्यात जाऊन तक्रार नोंदवली आहे.
आर्टिफिशियल इंटेलिजन्स (AI) चा गैरवापर थांबण्याऐवजी वाढतच आहेत.काही दिवसांपूर्वी एनएसई (NSE) चे कार्यकारी संचालक व मुख्य कार्यकारी अधिकारी आशिष कुमार चौहान यांच्या नावाने डीपफेक व्हिडिओ वायरल झाले होते तोच प्रकार पुन्हा घडत सोशल मीडियावर बीएसईचे मुख्य कार्यकारी संचालक सुंदररमन राममूर्ती यांचे खोटे डिपफेक व्हिडिओ वायरल झाले आहेत..
एनएसई मुख्य कार्यकारी अधिकारी व कार्यकारी संचालक आशिषकुमार चौहान यांचे सोशल मीडियावरील व्हिडिओ 'डीपफेक' असल्याचे सांगण्यात आले आहे. सोशल मीडियावर फिरणारे व्हिडिओत आशिष कुमार चौहान यांच्या चेहऱ्याचा वापर करत हुबेहूब हातवारे करणारा व्हिडिओ सोशल मीडियावर वायरल झाला होता.
कृत्रिम बुद्धीमत्तेच्या विकासानंतर डीपफेकचे संकट दिवसेंदिवस वाढत चालले आहे. आता अशीच एक धक्कादायक घटना उघडकीस आली आहे. हाँगकाँगमधील एक कंपनी आता चक्क डीपफेकमुळे आर्थिक फसवणुकीला बळी पडली आहे. डीपफेक कॉलच्या मदतीने त्या कंपनीला २१२ कोटींचा गंडा घालण्यात आला आहे.एका वृत्तसंस्थेने दिलेल्या, डीपफेक वापरून फसवणूक करणाऱ्याने कंपनीच्या मुख्य वित्तीय अधिकाऱ्याचा (सीएफओ) फोटो वापरून कार्यालयातील कर्मचाऱ्याला कॉन्फरन्स कॉल केला आणि त्यांना पैसे पाठवण्यास सांगितले. व्हिडीओ कॉलवर सीएफओला पाहिल्यानंतर कर्मचाऱ्याने दि. २
अभिनेत्री रश्मिका मंदानाच्या डीपफेक व्हिडिओ प्रकरणातील प्रमूख आरोपीला अखेर दिल्ली पोलिसांनी ताब्यात घेतले आहे. डीपफेक प्रकरणी दिल्ली पोलिसांनी १० नोव्हेंबर २०२३ रोजी एफआयआर नोंदवला होता. दरम्यान, अटक करण्यात आलेल्या आरोपीचा यापूर्वीही अनेक प्रकारच्या सायबर गुन्ह्यात सहभाग असल्याचे सांगण्यात येत आहे. याच आरोपीने रश्मिका मंदानाचा डीपफेक व्हिडिओ तयार केल्याची माहिती समोर येत आहे.
"डीपफेक तंत्रज्ञानाचा गैरवापर टाळण्यासाठी केंद्र सरकार नियमावलीचा मसुदा तयार करण्यास सुरुवात करत आहे. या तंत्रज्ञानाचा दुरुपयोग टाळण्यासाठी नवे नियम तयार केले जातील. केंद्र सरकार एकतर सध्याच्या फ्रेमवर्कमध्ये सुधारणा करेल किंवा नवीन नियम किंवा नवीन कायदा आणेल." अशी माहिती केंद्रीय माहिती तंत्रज्ञान मंत्री अश्विनी वैष्णव यांनी दिली.
‘डीप फेक’ तंत्रज्ञानाच्या दुरुपयोगाविषयी केंद्र सरकार सर्व समाजमाध्यमांशी चर्चा करणार आहे, असे प्रतिपादन केंद्रीय रेल्वे, दूरसंचार, इलेक्ट्रॉनिक्स व माहिती तंत्रज्ञान मंत्री अश्विनी वैष्णव यांनी केले आहे.
अभिनेत्री रश्मिका मंदानाच्या ‘डीपफेक’ व्हिडिओमुळे ‘फेक’ व्हिडिओची ‘रिअल’ सायबर समस्या पुन्हा एकदा चर्चेत आली. पंतप्रधान मोदींनीही नुकतेच याबाबतीत चिंता व्यक्त केली. त्यानिमित्ताने या समस्येचे स्वरुप आणि उपाययोजना यांचा उहापोह करणारा हा लेख...
दाक्षिणात्य अभिनेत्री रश्मिका मंदाना हिचा डीपफेक व्हिडिओ व्हायरल झाल्यानंतर आता आर्टिफिशियल इंटेलिजन्सची बळी आणखी एक अभिनेत्री ठरली आहे. ही अभिनेत्री आहे काजोल. काजोलचा चेहरा लावून कपडे बदलण्याची ही व्हिडीओ क्लिप सध्या सोशल मीडियावर व्हायरल झाली आहे.
दाक्षिणात्य चित्रपटातील सुप्रसिद्ध अभिनेत्री रश्मिका मंधानाच्या ‘डीपफेक’ तंत्रज्ञानाचा वापर करून बनवण्यात आलेल्या एका आक्षेपार्ह व्हिडिओमुळे हे तंत्रज्ञान चर्चेत आले. अशाप्रकारच्या तंत्रज्ञानाचा वापर करून गुन्हेगारी प्रवृत्तीचे लोकं कोणाचीही प्रतिमा मलीन करू शकतात. त्यामुळे या तंत्रज्ञानाच्या वापराविषयी आपल्याला माहिती असणे, आवश्यक झाले आहे.