महाराष्ट्र | मुंबई /पुणेइतरकोकणकोल्हापूरसांगलीसातारासोलापूरअहमदनगर
कर्नाटक | बेंगळूरबेळगांवहुबळी / धारवाडकारवारविजापूरहल्याळदांडेली
भविष्यराष्ट्रीयआंतरराष्ट्रीयक्रीडासंपादकीय / अग्रलेखव्यापार / उद्योगधंदेGames मनोरंजनटेक / गॅजेट

‘डीपफेक-एआय’ चे मायाजाल !

06:11 AM May 01, 2024 IST | Tarun Bharat Portal
Advertisement

लोकसभा निवडणुकांचा रणसंग्राम सुऊ झाला आहे. या निवडणुकीत मोठ्या प्रमाणात डीपफेक आणि आर्टिफिशयल इंटेलिजन्सचा गैरवापर होताना आढळून येत आहे. याचा फटका बॉलिवुडमधील हस्तींना बसतोय. यापूर्वी देखील बॉलिवुडमधील अनेकांच्या नावाने हे व्हिडिओ डीपफेक आणि एआयच्या तंत्रज्ञानाने तयार केल्याने याचा मोठा फटका या हस्तींना बसला आहे. डीपफेक आणि एआयच्या मोहजालात अनेकजण अडकत चालले असून या तंत्रज्ञानाला वेळीच आळा बसायला हवा. अन्यथा हे तंत्रज्ञान देशाच्या मुळावर उठू शकते.

Advertisement

अत्याधुनिक टेक्नोसेव्ही म्हणा किवा अत्याधुनिक यंत्रणा ही जेवढी फायदेशीर तेवढीच नुकसानदेही. या टेक्नोसेव्हीमुळे देश, संस्था, व्यक्तीचा जेवढा सर्वांगीण विकास होतो, तेवढेच किंबहुना नुकसान देखील भरमसाठ होते. नेमके या टेक्नोसेव्हीचा वापर अनेक पांढरपेशा गुन्हेगारानी आपल्या फायद्यासाठी करण्यासाठी सुऊवात केली. यामुळे याचा नाहक त्रास हा सामान्य नागरिकांना तर होत आहेच, मात्र त्यांची मोठ्या प्रमाणात फसवणूक देखील होत आहे. एवढेच नाही तर यामुळे राष्ट्राच्या सुरक्षेला देखील गंभीर धोका निर्माण झाला आहे. डीपफेक आणि आर्टिफिशल इंटेलिजन्सच्या (एआय) मायाजालात अडकवून अनेकांना ब्लॅकमेल केले जाते. तर त्यांचा नावाचा आणि चेहऱ्याचा वापर करीत फसवणूकीचे प्रकार देखील समोर आलेत. याचा सर्वात मोठा फटका हा बॉलिवुडला बसला आहे. अद्यावत यंत्रणा असो अथवा अत्याधुनिक टेक्नोसेव्ही असो याचा वापर हा जेवढास तेवढा रहावा. कारण या टेक्नोसेव्ही यंत्रणामुळे नागरिकांमध्ये संभ्रम तर अनेकजण

Advertisement

ब्लॅकमेलचे शिकार बनत असल्याची उदाहरणे समोर आली आहेत.

बॉलीवूडमध्ये अभिनेत्री काजोल आणि रश्मिका मंदाना यांचा समोरा-समोर कपडे बदलत असतानाचा व्हिडीओ व्हायरल झाला होता. यामुळे सोशल मीडियावर मोठी खळबळ उडाली होती. मात्र हा व्हिडिओ डीपफेक असल्याचे समोर आले. पण यामुळे नागरिकांमध्ये मोठी संभ्रमावस्था तसेच अनेक गैरसमज निर्माण झाले होते. जेणेकऊन या अभिनेत्रीना ट्रोलला सामोरे जावे लागले होते. केवळ यांच्याच  बाबतीत नाही तर नोरा फतेही,

कॅटरिना कैफ या अभीनेत्रींना देखील डीपफेकला सामोरे जावे लागले होते. सध्या अभिनेता आमिर खान पाठोपाठ अभिनेता रणवीर सिंहचा डीपफेक व्हिडिओ चांगलाच व्हायरल झालाय. निवडणुकांच्या पार्श्वभूमीवर आर्टिफिशियल इंटेलिजन्सने(एआय) दोन्ही व्हिडिओ तयार करण्यात आले होते. एआय तंत्रज्ञान आल्यानंतर त्याचा गैरवापरही होण्याची भीती व्यक्त करण्यात येत होती. त्याचे उत्तम उदाहरण म्हणजे डीपफेक तंत्रज्ञान. समाज माध्यमांच्या आभासी दुनियेला भूल पाडण्यासाठी त्याचा गैरवापर होऊ शकतो, असे भाकीत करण्यात आले होते. सध्या ते खरे ठरताना दिसत आहे.

यापूर्वी क्रिकेटपटू सचिन तेंडूलकर याच्या व्हिडिओमध्येही एआयच्या मदतीने फेरफार करण्यात आले. छायाचित्र व व्हिडिओची मॉर्फिंग फार पूर्वीपासून सुरू पण एआयमधील तंत्राच्या मदतीने त्यातील फरक करणे जवळपास अशक्य झाले आहे. मॉर्फिंगप्रकरणाला अनेकजण बळी ठरत आहेत. निवडणुकीच्या पार्श्वभूमीवर अभिनेता आमिर खान राजकीय पक्षाचा प्रचार करत असल्याची प्रसारित झालेली चित्रफीत डीपफेक तंत्रज्ञानाच्या वापरातून तयार करण्यात आल्याचे उघड झाले होते. याप्रकरणी खार पोलिसांनी या प्रकरणी गुन्हा दाखल केला. समाजमाध्यमांवर प्रसारित झालेल्या चित्रफितीमध्ये आमिर खान राजकीय प्रचार करत असल्याचे दाखवण्यात आले आहे. डीपफेकद्वारे आमिरचा आवाज बदलण्यात आला आहे. ही चित्रफीत ‘सत्यमेव जयते’ कार्यक्रमातील आहे. त्यात भाजपावर टीका करत आमिर काँग्रेसला पाठिंबा देत असल्याचे दाखवण्यात आले आहे. चित्रफितीबाबत समजल्यानंतर आमिर खानने स्वत: याप्रकरणी खुलासा करत चित्रफीत खोटी असल्याचे सांगितले. यावेळी 35 वर्षांच्या कारकिर्दीत मी कधीही कोणत्याही राजकीय पक्षाचा प्रचार केलेला नाही, असे म्हटले होते. याप्रकरणी खार पोलीस ठाण्यात तक्रार करण्यात आली. त्या पाठोपाठ आता अभिनेता रणवीर सिंह यांचा डीपफेक व्हिडिओही चांगलाच व्हायरल होतोय. एआयने बनवलेल्या डीपफेक व्हिडिओत तो राजकीय पक्षाचं समर्थन करताना दिसतोय. त्याचा हा व्हिडिओ वाराणसी दौऱ्यासाठी त्याने केलेल्या चित्रीकरणापासून तयार करण्यात आला होता.  रणवीरने याबाबत समाज माध्यमांवर पोस्ट करत ‘डीपफेकपासून सावध राहा, मित्रांनो’ असं लिहिलं होतं. त्यानंतर आता अभिनेत्याने त्याच्या व्हायरल व्हिडिओसंदर्भात दादर पोलीस ठाण्यात तक्रार दाखल केली. तो तक्रार अर्ज देहरादून पोलिसांना वर्ग करण्यात आला असून ते याप्रकरणी पुढील कारवाई करणार आहेत. डीपफेकद्वारे सायबर फसवणूक झाल्याचे एक प्रकरण फेब्रुवारी महिन्यात हाँगकाँगमध्ये घडले होते. हाँगकाँगमधील एका कंपनीतील अधिकारी, कर्मचाऱ्यांचे डीपफेक व्हिडिओ बनवण्यात आले होते. त्या माध्यमातून कंपन्यांमधील कर्मचाऱ्यांची फसवणूक करण्यात आली होती. त्याद्वारे या कंपनीला 25 दशलक्ष डॉलर्स म्हणजेच सुमारे 208 कोटी 60 लाख ऊपयांचा फटका बसला आहे.

तंत्रज्ञानाच्या माध्यमातून एखाद्या व्हिडिओ किंवा छायाचित्रावरील व्यक्तीचा चेहरा, आवाज बदलता येतो. एखाद्या व्यक्तीचा हुबेहुब चेहरा या तंत्रज्ञानाच्या माध्यमातून वापरता येतो. ज्या व्यक्तीचा चेहरा वापरायचा आहे त्याचा चेहरा हे तंत्रज्ञान स्कॅन कऊन घेते आणि व्हिडिओमधील व्यक्तीच्या चेह़ऱ्यावर मास्क म्हणून तयार करते. पण हे तंत्रज्ञान घातक स्वरूप घेत आहे. पंतप्रधान नरेंद्र मोदी यांनी स्वत: याबाबत चिंता व्यक्त केली होती. गंभीर बाब म्हणजे या तंत्रज्ञानाच्या मदतीने कोणाच्या तोंडी स्फोटक व प्रक्षोभक विधाने टाकून मोठा वादही निर्माण केला जाऊ शकतो. या तंत्रज्ञानाच्या मदतीने वादही निर्माण केले जाऊ शकतात. त्यामुळे वेळीच त्याच्यावर योग्यती उपाययोजना करणे आवश्यक आहे.

डीपफेकचा वापर पॉर्न व्हिडिओही तयार करण्यासाठी सुऊ झाला आहे. पण आता या राक्षसाने हातपाय पसरवून आक्राळविक्राळ रूप घ्यायला सुऊवात केली आहे. त्यातून सामान्य नागरिकांमध्ये बुद्धीभ्रम निर्माण केला जाऊ शकतो. डीपफेक व्हिडिओमध्ये असलेले व्यक्ती पापण्यांची उघडझाप करत नाहीत. पण काही एआय टूलमध्ये त्याचेही अद्ययावतिकरण करण्यात आले आहे. अनेक डीपफेक व्हिडिओची क्वालिटी एवढी चांगली नाही. त्यामुळे त्यांना ओळखणे सोपे आहे. त्याशिवाय व्हिडिओच्या कडेला पाहूनही डीपफेक व्हिडिओ ओळखता येऊ शकतो. त्यात डीपफेक व्हिडिओच्या कडेला लुकलुकणारा एक प्रकाश दिसतो. पण अद्ययावतिकरणामुळे त्यातही सुधारणा झाली आहे. त्यामुळे डीपफेक व्हिडिओ ओळखणे तसे सोपे राहिले नाही. त्यामुळे या सर्व तंत्रज्ञानाबाबत जनजागफती करणे आवश्यक आहे. त्यातून अनेक वादांना व फसवणूकीला आळा घालता येऊ शकतो.

- अमोल राऊत

Advertisement
Tags :
##tarunbharat##tarunbharatnews#social media
Next Article