• मुख्यपान
  • ठाणे विशेष
  • संपादकीय
  • एक्सक्ल्यूजिव्ह
  • आरोग्य
  • एमएमआर परिसर
  • मनोरंजन
  • विविध सदरे
महाराष्ट्र दिनमान
  • मुख्यपान
  • ठाणे विशेष
  • संपादकीय
  • एक्सक्ल्यूजिव्ह
  • आरोग्य
  • एमएमआर परिसर
  • मनोरंजन
  • विविध सदरे
No Result
View All Result
महाराष्ट्र दिनमान
  • मुख्यपान
  • ठाणे विशेष
  • संपादकीय
  • एक्सक्ल्यूजिव्ह
  • आरोग्य
  • एमएमआर परिसर
  • मनोरंजन
  • विविध सदरे
No Result
View All Result
महाराष्ट्र दिनमान
No Result
View All Result
Home संपादकीय

मायावी संकट

प्रतिनीधी by प्रतिनीधी
November 21, 2023
in संपादकीय
0
व्हिडीओ

व्हिडीओ

0
SHARES
5
VIEWS
Share on FacebookShare on Twitter

आजच्या काळात सोशल मीडियाचा वाढलेला प्रसार, प्रचार आणि प्रभाव यांचा विचार करता डिपफेकचा आधार घेत बनवलेल्या व्हिडीओंमुळे काही मिनिटांमध्ये समाजात तणाव निर्माण होऊ शकतो आणि द्वेष पसरवला जाऊ शकतो. कोणाचीही प्रतिमा डागाळली जाऊ शकते. कोणाच्याही नावाने बनावट संदेश पाठवला जाऊ शकतो. तसेच या माध्यमातून वैचारिक, राजनैतिक, धार्मिक, जातीय ध्रुवीकरणाला प्रोत्साहन दिले जाऊ शकते. निवडणुकीचा संभाव्य कलही यामुळे बाधित होऊ शकतो. एका अभ्यासानुसार दरवर्षी विविध व्यावसायांविरुद्धची चुकीची माहिती आणि फेक न्यूजमुळे जागतिक आर्थिक व्यवस्थेला सुमारे 78 अब्ज अमेरिकी डॉलर्सचे नुकसान सहन करावे लागते.

टेक्नालॉजी ही फार अत्याधुनिक झाल्याने साहजिकच त्याचा फायदा गुन्हेगार घेत असतात. असाच एक प्रकार म्हणजे डिपफेक व्हिडीओ. नेमके यात प्रश्न पडला असेल की डिपफेक व्हिडीओ म्हणजे नेमके काय? डिपफेक व्हिडीओ टेक्नॉलाजी म्हणजे आपले हुबेहूब आणि तंतोतंत असे बारीकसारीक डुप्लिकेट एक चुकीच्या पद्धतीने बनवले गेलेले व्हिडीओ याला बघून आपल्याला असे वाटेल की हा आपलाच व्हिडीओ आहे का नाही. आपल्याला ते समजणारसुद्धा नाही, अशा पद्धतीने टेक्नॉलॉजीचा गैरवापर करून हा डिपफेक व्हिडीओ बनवला जातो. तंत्रज्ञान आणि कृत्रिम बुद्दिमत्तेवर आधारित साधनांच्या साहाय्याने कोणतेही चित्र, चित्रफीत किंवा ध्वनीफीत पूर्णपणे भिन्न बनण्यासाठी हाताळले जाऊ शकते. उदाहरणार्थ एखादा नेता, अभिनेता किंवा वलयांकित व्यक्तीचे भाषण कृत्रिम बुद्धिमत्तेवर आधारित साधनांच्या साहाय्याने उचलून पूर्णपणे पालटले जाऊ शकते; पण ते पाहणार्‍याला कळणारही नाही आणि तो खरे समजतो. अलीकडेच या डिपफेकचा वापर करण्याचे प्रमाण वाढले असल्याने हा विषय खरोखरच चिंताजनक मानावा लागेल. आर्टिफिशियल इंटेलिजन्स आणि अत्याधुनिक तंत्रज्ञानाच्या साहाय्याने केल्या जाणार्‍या डिपफेकमुळे विवेकबुद्धी असणारेही गोंधळात पडताना दिसताहेत. डिपफेक हा एक सिंथेटिक मीडियाचा प्रकार आहे. यामध्ये एखाद्या व्हिडीओ किंवा फोटोमधील व्यक्तीचा चेहरा बदलून दुसर्‍या व्यक्तीच्या चेहर्‍याशी जोडला जातो. पण हे जोडकाम इतके तंतोतंत किंवा बिनचूक असते की बहुतांश वेळा ते ओळखता येत नाही. अलीकडेच अभिनेत्री रश्मिका मंधाना, ऐश्वर्या राय, सारा अली खान यांचे अशाच डिपफेक तंत्रज्ञानाचा वापर केलेले व्हिडीओ समाज माध्यमांवर व्हायरल झाले नि गदारोळ झाला. एखाद्याचे प्रतिमाहनन करण्याबरोबरच काही मिनिटांत, तासांत समाजात आगडोंब उसळवून देण्याची ताकद अशा तंत्रज्ञानात असल्याने असे व्हिडीओ बनविणार्‍यांना तात्काळ शिक्षा करण्याची गरज आहे. डिपफेक हे डीप लर्निंग आणि फेक यांचे मिश्रण आहे, असे मानावे लागेल. यानुसार डिप लर्निंग नावाच्या कृत्रिम बुद्धिमत्तेकडून सॉफ्टवेअरचा वापर करीत सध्याच्या मीडिया फाइल (फोटो, व्हिडीओ किंवा ऑडिओ) याची बनावट प्रतिकृती तयार करण्यात येते. आर्टिफिशियल इंटेलिजिन्सच्या अल्गोरिदमचा वापर करीत अन्य व्यक्तीचे बोलणे-संवाद, शरीराच्या हालचाली किंवा अभिव्यक्तीला अन्य दुसर्‍या व्यक्तीवर सहजपणे स्थानांतरित केले जातात आणि असे व्हिडीओ व्हायरल केले जातात. प्रथमदर्शनी पाहणार्‍या कुणालाही हा व्हिडीओ खोटा आहे, हे चटकन लक्षात येत नाही. डिपफेकच्या माध्यमातून कोणतीही व्यक्त, संस्था, व्यवसाय एवढेच नाही तर लोकशाही व्यवस्थेलादेखील अनेक मार्गांनी हानी पोचवता येणे शक्य होऊ शकते. डिपफेकच्या माध्यमातून मीडिया फाइलमध्ये व्यापक प्रमाणात हस्तक्षेप जसे चेहरा बदल करणे, लिप सिंकिंग किंवा अन्य शारीरिक हालचाली करता येऊ शकतात. अशा वेळी संंबंधितांची परवानगी घेतली जात नाही. यानुसार मानसशास्त्रीय, सुरक्षा, सत्ता आणि व्यावसायिक सुलभता धोक्यात आणण्याचे काम केले जाते. डिपफेक तंत्रज्ञानाचा वापर गैरव्यवहार, आर्थिक गैरप्रकार, सेलिब्रिटी पोर्नोग्राफ, निवडणुकीतील फेरफार, सोशल इंजिनीअरिंग, बदनामीकारक वक्तव्ये, ओळखीचा गैरवापर, आर्थिक फसवणूक, कटकारस्थान रचणे आदीसाठी करण्याचे प्रमाण वाढीस लागले असल्याने सर्वांनी वेळीच सावध होणे गरजेचे आहे. आर्टिफिशियल इंटेलिजिन्सचा गैरवापर करीत कोणाचीही प्रतिमा खराब करता येणे डिपफेकमुळे शक्य झाले आहे. तंत्रज्ञानातील प्रगतीमुळे यातील अचूकता वाढत आहे. विशेषत: व्हॉइस क्लोनिंग हा यातील भाग अधिक धोकादायक आहे. अल्गोदिरमवर आधारित या नवीन तंत्रज्ञानाचा गैरवापर करणार्‍या गुन्हेगारी प्रवृत्तींवर लक्ष ठेवणे किंवा त्याचा छडा लावण्याचे मोठे आव्हान तपास यंत्रणांसमोर बनले आहे. डिपफेक मीडियाची निर्मिती, त्याच्या प्रसाराला पायबंद घालण्यासाठी आयटी क्षेत्रातील कंपन्या, नागरिक, समाज, धोरणकर्ते आणि अन्य हितचिंतकांनी एकत्र येणे काळाची गरज आहे. तसेच इंटरनेट आणि सोशल मीडियासंदर्भात धोरणात्मक सर्वंकष नियमाचा आराखडा तयार करण्याचीही गरज यामुळे निर्माण झाली आहे. खरे आणि खोटे यातील अंतर कमी करणार्‍या तंत्रज्ञानामुळे एखाद्याची बदनामी करणे, चारित्र्यहनन करणे, अपप्रचार करणे हे पूर्वीच्या तुलनेत सोपे झाले आहे. आजच्या काळात सोशल मीडियाचा वाढलेला प्रसार, प्रचार आणि प्रभाव यांचा विचार करता डीपफेकचा आधार घेत बनवलेल्या व्हिडीओंमुळे काही मिनिटांमध्ये समाजात तणाव निर्माण होऊ शकतो आणि द्वेष पसरवला जाऊ शकतो. कोणाचीही प्रतिमा डागाळली जाऊ शकते. कोणाच्याही नावाने बनावट संदेश पाठवला जाऊ शकतो. तसेच या माध्यमातून वैचारिक, राजनैतिक, धार्मिक, जातीय ध्रुवीकरणाला प्रोत्साहन दिले जाऊ शकते. निवडणुकीचा संभाव्य कलही यामुळे बाधित होऊ शकतो.एका अभ्यासानुसार दरवर्षी विविध व्यावसायांविरुद्धची चुकीची माहिती आणि फेक न्यूजमुळे जागतिक आर्थिक व्यवस्थेला सुमारे 78 अब्ज अमेरिकी डॉलर्सचे नुकसान सहन करावे लागते. सध्याच्या काळात डिपफेकच्या रूपातून समोर आलेली सुमारे 61 टक्के प्रकरणे ही अमेरिका आणि ब्रिटनशी संबंधित आहेत. परंतु गेल्या काही काळापासून दक्षिण कोरिया, जपान आणि भारतातदेखील अशा प्रकरणांत वाढ झालेली दिसते. गेल्या काही वर्षांत भारतात इंटरनेट आणि सोशल मीडियाचा वापर करणार्‍यांची संख्या प्रचंड वाढली आहे. सध्या भारतात सुमारे 80 कोटी नागरिक इंटरनेटचा वापर करीत आहेत. देशात सायबर सुरक्षेसंबंधी जागरूकतेचा अभाव असल्याने सायबर गुन्हेगारांना भारतातील सोशल मीडिया कुरण बनले आहे. माहिती तंत्रज्ञान कायद्यानुसार एखाद्याची ओळख बदलून कोणाचीही फसवणूक केली तर त्याला तीन वर्षांपर्यंत कारावास आणि एक लाख रुपयांपर्यंत दंड अशी शिक्षा आहे. या कायद्याचा वापर करीत डिपफेकचा वापर करून प्रतिमाहनन करणार्‍यांना शिक्षा झाली पाहिजे. त्याचबरोबर दुसर्‍या बाजूला सायबर साक्षरता वाढवणे काळाची गरज बनली आहे. लोकशाहीच्या महत्त्वाच्या स्तंभांबाबत लोकांच्या मनात अविश्वासाची भावना तयार करून लोकशाही कमकुवत करण्याच्या प्रयत्नांना डिपफेकमुळे नवे साधन मिळाले आहे, असे म्हणणे वावगे ठरू नये. त्यामुळे याला वेळीच लगाम घालणे गरजेचे आहे.

Tags: अत्याधुनिकआधारितकृत्रिम बुद्धिमत्तागुन्हेगारचित्रटेक्नालॉजीडिपफेक .डुप्लिकेटतंत्रज्ञानध्वनीफीतफायदाव्हिडीओ
Previous Post

आशियातील सर्वात मोठा बॉडीबिल्डिंग फेस्टिव्हल

Next Post

मुक्तचिंतन Free Pandering

Next Post
चिंतन

मुक्तचिंतन Free Pandering

No Result
View All Result

Recent Posts

  • भारत व भांडवलशाही भाग 10
  • विदेशी शिक्षणाचे ब्रेन ड्रेन
  • फॅशन ब्रँड न्यूमीचे मुंबईत पदार्पण
  • दादर स्थानकातील प्लॅटफॉर्म क्रमांकांमध्ये मोठा बदल
  • उसापासून बनणार्‍या इथेनॉलवर बंदी

Recent Comments

  • Ganesh Manohar Kulkarni on शांताबाई शेळकेंचे मांजर-पुराण!
  • सागर भंडारे on टिकेकरांच्या ‘सारांश’ला वीस वर्षं झाली आजही ते एक सर्वोत्तम वैचारिक पुस्तक आहे!
  • पंकज भांबुरकर on तेंडुलकरांची ‘कोवळी उन्हे’ पन्नास वर्षांची झाली!
  • चंद्रकांत भोंजळ on मृत्युलेखांचा र्‍हास होण्यामागची एक कारण परंपरा
  • वामन ऐनापुरे. on गो. पु. देशपांडे ‘आयडियॉलॉजी’ची नाटके लिहिणारा नाटककार
महाराष्ट्र दिनमान

© 2021 ThaneDinman

Navigate Site

  • मुख्यपान
  • ठाणे विशेष
  • संपादकीय
  • एक्सक्ल्यूजिव्ह
  • आरोग्य
  • एमएमआर परिसर
  • मनोरंजन
  • विविध सदरे

Follow Us

No Result
View All Result
  • मुख्यपान
  • ठाणे विशेष
  • संपादकीय
  • एक्सक्ल्यूजिव्ह
  • आरोग्य
  • एमएमआर परिसर
  • मनोरंजन
  • विविध सदरे

© 2021 ThaneDinman

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist