
नई दिल्ली (वीकैंड रिपोर्ट)- AI Deepfake Rules : आर्टिफिशियल इंटेलिजेंस (AI) के बढ़ते इस्तेमाल के साथ सोशल मीडिया पर फर्जी वीडियो, फोटो और डीपफेक कंटेंट की बाढ़ आ गई है। इसे देखते हुए भारत सरकार ने AI-generated और Deepfake कंटेंट पर लगाम कसने के लिए IT नियम, 2021 में अहम संशोधन किए हैं। अब AI से बने कंटेंट को औपचारिक रूप से डिजिटल कानूनों के दायरे में लाया गया है, जिससे गलत और भ्रामक सामग्री पर त्वरित कार्रवाई हो सके।
AI Deepfake Rules : नए IT नियमों की प्रमुख बातें
3 घंटे में कार्रवाई अनिवार्य:
किसी भी आपत्तिजनक या गलत AI/Deepfake कंटेंट की शिकायत मिलने पर सोशल मीडिया प्लेटफॉर्म्स को 3 घंटे के भीतर उसे हटाना होगा। पहले यह सीमा 36 घंटे थी।
AI कंटेंट पर लेबल जरूरी:
AI से तैयार या बदले गए हर कंटेंट पर स्पष्ट और बड़ा लेबल लगाना अनिवार्य होगा। यूज़र को भी बताना होगा कि कंटेंट AI की मदद से बनाया गया है।
टेक्निकल मार्कर और मेटाडेटा:
प्लेटफॉर्म्स को कंटेंट में metadata या technical provenance markers जोड़ने होंगे, ताकि यह पता चल सके कि कंटेंट कहां और किस सिस्टम से बना है।
कठोर कानूनी कार्रवाई:
बच्चों के यौन शोषण (CSAM), अश्लील सामग्री, फर्जी इलेक्ट्रॉनिक रिकॉर्ड और किसी की पहचान/आवाज़ का गलत इस्तेमाल करने वाले डीपफेक को अपराध माना जाएगा। ऐसे मामलों में BNS, POCSO एक्ट और अन्य सख्त कानूनों के तहत कार्रवाई होगी।
AI Deepfake Rules : सोशल मीडिया कंपनियों की बढ़ी जिम्मेदारी
सरकार ने साफ किया है कि नियमों का पालन न करने पर प्लेटफॉर्म्स IT एक्ट की धारा 79 के तहत मिलने वाली ‘Safe Harbour’ सुरक्षा खो देंगे। यानी अब गलत पोस्ट के लिए सिर्फ यूज़र ही नहीं, बल्कि सोशल मीडिया कंपनी भी कानूनी तौर पर जिम्मेदार होगी। ये नए नियम 20 फरवरी से लागू होंगे, जिनका मकसद इंटरनेट को ज्यादा सुरक्षित, भरोसेमंद और पारदर्शी बनाना है।
-----------------------------------------------------------------
देश-दुनिया की ताजा खबरों के लिए >>>Join WhatsApp Group Join<<< करें। आप हमें >>>Facebook<<< फॉलो कर सकते हैं। लेटेस्ट खबरें देखने के लिए हमारे यूट्यूब चैनल को भी सबस्क्राइब करें।
-----------------------------------------------------------------





