Blue Bikni में पूल में नहाते हुए Aishwarya Rai Bachchan का Deepfake Video हुआ वायरल, REEL देखकर फैंस को लगा तगड़ा धक्का

Deepfake video of Aishwarya Rai
Twitter
रेनू तिवारी । Dec 14 2023 5:50PM

ऐश्वर्या राय बच्चन का एक डीपफेक वीडियो सोशल मीडिया पर व्यापक रूप से प्रसारित हो रहा है। वीडियो में एक महिला को स्विमिंग पूल में ऐश्वर्या का चेहरा लगाए हुए दिखाया गया है, और यह वर्तमान में इंस्टाग्राम पर हलचल मचा रहा है।

चिंताजनक प्रवृत्ति बनी हुई है क्योंकि डीपफेक तकनीक मशहूर हस्तियों के जीवन के लिए बड़ा खतरा पैदा करती है। हाल ही में, मशहूर हस्तियों के कई फर्जी वीडियो इंटरनेट पर वायरल हो गए हैं। बढ़ते मुद्दे को बढ़ाते हुए, ऐश्वर्या राय बच्चन का एक डीपफेक वीडियो सोशल मीडिया पर व्यापक रूप से प्रसारित हो रहा है। वीडियो में एक महिला को स्विमिंग पूल में ऐश्वर्या का चेहरा लगाए हुए दिखाया गया है, और यह वर्तमान में इंस्टाग्राम पर हलचल मचा रहा है।

 

इसे भी पढ़ें: Saif Ali Khan के साथ कुर्बान में सेक्स सीन देने पर Kareena Kapoor ने तोड़ी चुप्पी, बच्चे पैदा करने की वजह से भी उठाया पर्दा?

 

ऐश्वर्या राय के डीपफेक वीडियो ने इंटरनेट को हिलाकर रख दिया है

डीपफेक ऐसे वीडियो या चित्र हैं जो आर्टिफिशियल इंटेलिजेंस (एआई)-संचालित डीप लर्निंग सॉफ्टवेयर का उपयोग करके बनाए जाते हैं जो लोगों को ऐसी बातें कहते और करते हुए दिखाते हैं जो उन्होंने नहीं कहा या किया। प्रौद्योगिकी का दुरुपयोग पिछले महीने भारत में चर्चा का एक गर्म विषय बन गया जब रश्मिका मंदाना का एक फर्जी वीडियो सोशल मीडिया प्लेटफॉर्म पर प्रसारित होने लगा। नेटिज़न्स ने दावा किया कि वीडियो से छेड़छाड़ की गई है और वास्तविक वीडियो ब्रिटेन में रहने वाले एक भारतीय मूल के व्यक्ति का है।

इसे भी पढ़ें: Bollywood wrap Up | जाह्नवी कपूर ने पानी में लगाई आग, बॉयफ्रेंड निशांक स्वामी से ब्रेकअप करते ही चेतना पांडे ने कराया बोल्ड फोटोशूट

इसी तरह, काजोल, आलिया भट्ट और कुछ अन्य लोगों के फर्जी वीडियो वायरल हुए।

साथ ही बॉलीवुड एक्ट्रेस कृति सेनन की एक फर्जी फोटो वायरल हो गई है। कृति सैनन की होने का दावा करने वाली एक नग्न तस्वीर इंटरनेट पर छा गई है। सेनन की तस्वीर की जगह एक न्यूड महिला की तस्वीर लगा दी गई है। वह ऐसी स्थिति में आने वाली नवीनतम सेलिब्रिटी हैं जब कई मशहूर हस्तियों के डीपफेक वीडियो इंटरनेट पर वायरल हो गए हैं।

 

स्थिति की गंभीरता को समझते हुए, प्रधान मंत्री नरेंद्र मोदी ने आगाह किया कि कृत्रिम बुद्धिमत्ता द्वारा बनाए गए डीपफेक बड़े संकट का कारण बन सकते हैं और समाज में असंतोष पैदा कर सकते हैं, उन्होंने मीडिया से इसके दुरुपयोग के बारे में जागरूकता बढ़ाने और लोगों को शिक्षित करने का आग्रह किया।

डीपफेक एक बड़ा संकट पैदा कर सकता है और यहां तक कि असंतोष की आग भी भड़का सकता है क्योंकि लोग आम तौर पर मीडिया से जुड़ी किसी भी चीज़ पर भरोसा करते हैं, उसी तरह से 'गेदुआ' (भगवा) पहनने वाला कोई भी व्यक्ति दूसरों से सम्मान प्राप्त करता है। 

We're now on WhatsApp. Click to join.
All the updates here:

अन्य न्यूज़