विज्ञान एवं प्रौद्योगिकी

मोदी ने बिल गेट्स को डीपफेक से निपटने की ज़रूरत के बारे में चेताया

© AP Photo / Manish Swarup Indian Prime Minister Narendra Modi speaks to the media in New Delhi, India, Saturday, May 25, 2019. Modi on Wednesday, Nov. 22, 2023,
 Indian Prime Minister Narendra Modi speaks to the media in New Delhi, India, Saturday, May 25, 2019. Modi on Wednesday, Nov. 22, 2023, - Sputnik भारत, 1920, 29.03.2024
सब्सक्राइब करें
भारतीय प्रधानमंत्री नरेंद्र मोदी ने माइक्रोसॉफ्ट के सह-संस्थापक बिल गेट्स को आर्टिफिशियल इंटेलिजेंस (AI) से जुड़े संकटों के बारे में चेताया और कहा कि उचित प्रशिक्षण के बिना लोग इस तकनीक का दुरुपयोग कर सकते हैं।
यदि लोग आर्टिफिशियल इंटेलिजेंस (AI) को जादुई उपकरण के रूप में इस्तेमाल करते हैं, तो इससे "गंभीर अन्याय" होगा, प्रधानमंत्री मोदी ने बढ़ते डीपफेक सामग्री से जुड़े संकटों के बारे में सचेत करते हुए कहा।
"अगर AI बिना उचित प्रशिक्षण के किसी को दी जाती है, तो इसका दुरुपयोग होने की संभावना है। एआई-जनित सामग्री पर स्पष्ट वॉटरमार्क होना चाहिए ताकि कोई भी गुमराह न हो। भारत जैसे लोकतांत्रिक देश में कोई भी डीपफेक का उपयोग कर सकता है,” मोदी ने कहा।
इसके अतिरिक्त प्रधानमंत्री ने कड़े शब्दों में कहा, "यह स्वीकार करना महत्वपूर्ण है कि डीपफेक सामग्री एआई-जनरेटेड है। हमें क्या करें और क्या न करें के बारे में सोचने की आवश्यकता है।"

"कुछ लोग लोगों को धोखा देने के लिए दुर्भावनापूर्ण गतिविधियों के लिए दूसरों की आवाज़ का उपयोग कर रहे हैं। अगर कोई मेरी नकली आवाज का इस्तेमाल करेगा तो गंभीर खतरा हो जाएगा," मोदी ने चेताया।

गौरतलब है कि प्रधानमंत्री मोदी की टिप्पणी ऐसे समय आई है जब बॉलीवुड अभिनेताओं, खिलाड़ियों और अन्य प्रसिद्ध लोगों के कई डीपफेक वीडियो और तस्वीरें सामने आई हैं, जिससे एआई के दुरुपयोग को लेकर चिंताएं उत्पन्न हो गई हैं।

डीपफेक के शिकार

प्रौद्योगिकी के परिणाम विनाशकारी हो सकते हैं और जैसे-जैसे AI की दुनिया विकसित हो रही है, यही कारण है कि सरकारें इसके दुरुपयोग के प्रति अधिक सतर्क हो रही हैं।

भारत के पूर्व क्रिकेटर सचिन तेंदुलकर से लेकर रश्मिका मंदाना, आलिया भट्ट, प्रियंका चोपड़ा जैसे बॉलीवुड सितारे डीपफेक के संकट से प्रभावित हो चुके हैं क्योंकि सोशल मीडिया कई मशहूर हस्तियों के डीपफेक वीडियो से भरा पड़ा है। यहां तक कि राजनीतिक नेताओं को भी नहीं बख्शा जाता क्योंकि देश के महत्वपूर्ण नेताओं के कई डीपफेक वीडियो मुख्यतः चुनावों के दौरान सामने आए।

तकनीक के आगमन के साथ, डीपफेक वीडियो बनाना सहज होता जा रहा है और यही कारण है कि सोशल मीडिया पर ऐसे वीडियो या तस्वीरें दिखना आम बात होती जा रही है जो गंभीर संकट है।

डीपफेक से 2024 आम चुनाव को संकट

एक रिपोर्ट के अनुसार भारत में 760 मिलियन से भी अधिक इंटरनेट उपयोगकर्ता हैं, इसलिए सरकार ने कुछ जनरेटिव AI कंपनियों को चेतावनी दी है कि उनकी सेवाओं से ऐसी प्रतिक्रियाएँ न उत्पन्न की जाएँ जो भारतीय कानूनों के अंतर्गत अवैध हों या "चुनावी प्रक्रिया की अखंडता के लिए संकट उत्पन्न करें"।
सरकार ने इन प्लेटफ़ॉर्म से यह भी कहा कि वे अपने द्वारा तैयार की जाने वाली सामग्री में एक पहचान योग्य मार्कर जोड़कर ट्रेसेबिलिटी की आवश्यकता जोड़ें ताकि उस व्यक्ति का पता लगाया जा सके जिसने डीपफेक बनाने का निर्देश दिया है।
पिछले वर्ष नवंबर में, भारतीय प्रधानमंत्री नरेंद्र मोदी ने एक पारंपरिक नृत्य में संलग्न एक डीपफेक वीडियो के सामने आने के बाद AI के प्रसार के बारे में चिंता व्यक्त की थी। उन्होंने इस तकनीक के दुरुपयोग को चिंताजनक बताया और आगाह किया कि इसके परिणामस्वरूप गंभीर संकट हो सकता है।
An election officer puts the indelible ink mark on the finger of a voter in Chachiyawas, near Ajmer, India, Saturday, Nov. 25, 2023. - Sputnik भारत, 1920, 11.01.2024
Sputnik मान्यता
AI-जनित डीपफेक द्वारा भारत की चुनावी प्रक्रिया को प्रभावित करने का खतरा: विशेषज्ञ
न्यूज़ फ़ीड
0
loader
चैट्स
Заголовок открываемого материала