नमस्कार 🙏 हमारे न्यूज पोर्टल - मे आपका स्वागत हैं ,यहाँ आपको हमेशा ताजा खबरों से रूबरू कराया जाएगा , खबर ओर विज्ञापन के लिए संपर्क करे +91 8329626839 ,हमारे यूट्यूब चैनल को सबस्क्राइब करें, साथ मे हमारे फेसबुक को लाइक जरूर करें ,

Recent Comments

    test
    test
    OFFLINE LIVE

    Social menu is not set. You need to create menu and assign it to Social Menu on Menu Settings.

    April 23, 2025

    शेयर बाजार: NSE की निवेशकों को चेतावनी! स्टॉक की अनुशंसा करने वाले डीपफेक वीडियो से सावधान रहें

    1 min read
    😊 कृपया इस न्यूज को शेयर करें😊

    भारत के नेशनल स्टॉक एक्सचेंज (एनएसई) ने बुधवार को निवेशकों को शेयर बाजार में निवेश सलाह देने वाले मुख्य कार्यकारी अधिकारियों (सीईओ) के डीपफेक वीडियो के प्रति आगाह किया।

    भारत के नेशनल स्टॉक एक्सचेंज (एनएसई) ने बुधवार को निवेशकों को शेयर बाजार में निवेश सलाह देने वाले मुख्य कार्यकारी अधिकारियों (सीईओ) के डीपफेक वीडियो के प्रति आगाह किया। देश के नेशनल स्टॉक एक्सचेंज ने यह देखने के बाद चेतावनी जारी की कि निवेश सलाह देने वाले कुछ वीडियो में सीईओ आशीष कुमार चौहान के चेहरे और आवाज का दुरुपयोग किया जा रहा है।

    एनएसई ने कहा, “ऐसे वीडियो आशीष कुमार चौहान की आवाज और चेहरे के भावों की नकल करने के लिए अत्याधुनिक तकनीक का उपयोग करके बनाए गए हैं।”

    भारत में इक्विटी बाजार रिकॉर्ड ऊंचाई पर कारोबार कर रहे हैं और हाल के वर्षों में निवेशकों की भागीदारी बढ़ी है, जिससे निवेशकों को लुभाने के लिए सोशल मीडिया प्लेटफॉर्म का उपयोग करने वाले स्टॉक प्रभावित करने वालों के बारे में चिंता बढ़ गई है।

    पिछले साल अगस्त में बाजार नियामक भारतीय प्रतिभूति और विनिमय बोर्ड ने कहा था कि निवेशकों को स्टॉक प्रभावित करने वालों से दूर रहना चाहिए।

    फंड हाउस आईसीआईसीआई प्रूडेंशियल एसेट मैनेजमेंट कंपनी ने जनवरी में निवेशकों को शेयरों की सिफारिश करने वाले वरिष्ठ अधिकारियों के डीपफेक वीडियो के खिलाफ चेतावनी दी थी। फंड हाउस ने कहा कि “शेयर बाजार के शेयरों में निवेश की सलाह देने वाले कुछ अनधिकृत वीडियो विभिन्न ऑनलाइन प्लेटफार्मों पर प्रसारित किए गए हैं।”

    डीपफेक तकनीक क्या है?
    डीपफेक तकनीक फ़ोटो और वीडियो को बदल देती है। इसे सिंथेटिक या डॉक्टर्ड फोटो-वीडियो (मीडिया) कहा जाता है। कृत्रिम बुद्धिमत्ता (एआई) का उपयोग करके गलत सूचना प्रदान की जाती है।

    हाल ही में प्रधानमंत्री मोदी का एक वीडियो भी वायरल हुआ था. इसके अलावा कई प्रमुख कलाकारों के ‘डीपफेक’ वीडियो भी वायरल हो चुके हैं। डीपफेक फोटो-वीडियो के बढ़ते मामलों के साथ, प्रौद्योगिकी के दुरुपयोग को लेकर चिंताएं हैं।

    About The Author


    Whatsapp बटन दबा कर इस न्यूज को शेयर जरूर करें 

    Advertising Space


    स्वतंत्र और सच्ची पत्रकारिता के लिए ज़रूरी है कि वो कॉरपोरेट और राजनैतिक नियंत्रण से मुक्त हो। ऐसा तभी संभव है जब जनता आगे आए और सहयोग करे.

    Donate Now

    Leave a Reply

    Your email address will not be published. Required fields are marked *

    You may have missed

    Copyright © All rights reserved for Samachar Wani | The India News by Newsreach.
    1:23 AM