New Rules on AI Deepfake: भारत सरकार ने AI-डीपफेक कंटेंट पर सख्ती बढ़ाते हुए सोशल मीडिया प्लेटफॉर्म्स को आदेश दिया है कि आपत्तिजनक सामग्री को 3 घंटे के भीतर हटाया जाए। साथ ही AI से बने या बदले गए कंटेंट पर साफ और अनिवार्य लेबलिंग जरूरी कर दी गई है।
AI Deepfake Content New Rules: भारत सरकार ने एआई और डीपफेक कंटेंट पर अब तक का सबसे सख्त कदम उठाया है। सोशल मीडिया और डिजिटल प्लेटफॉर्म्स को लेकर नए नियम लागू कर दिए गए हैं, जिनके तहत अब AI से बने या बदले गए कंटेंट को साफ-साफ लेबल करना जरूरी होगा। इतना ही नहीं, अगर कोई कंटेंट आपत्तिजनक या गैरकानूनी पाया गया, तो प्लेटफॉर्म्स को सिर्फ 3 घंटे के भीतर उसे हटाना होगा। सरकार का साफ कहना है कि AI और डीपफेक के नाम पर फैल रही धोखाधड़ी, फर्जी वीडियो, गलत जानकारी और पहचान की चोरी को अब बर्दाश्त नहीं किया जाएगा।
क्या हैं सरकार के नए AI और Deepfake नियम
आज 10 फरवरी को नोटिफाई किए गए और 20 फरवरी से लागू होने वाले इन नियमों के तहत सरकार ने 'सिंथेटिकली जेनरेटेड इंफॉर्मेशन (SGI)' को भारत के डिजिटल कानून के दायरे में ला दिया है। इसका मतलब है कि AI से बने या AI से बदले गए ऑडियो, वीडियो और इमेज, जो असली जैसे दिखते हैं और आम यूजर को भ्रमित कर सकते हैं, अब सीधे कानून के तहत आएंगे। सरकार का मानना है कि डीपफेक और AI कंटेंट का इस्तेमाल तेजी से फ्रॉड, बदनाम करने, गलत पहचान बनाने और भ्रामक सूचनाएं फैलाने में हो रहा है, इसलिए इस पर सख्त निगरानी जरूरी थी।
AI कंटेंट पर अनिवार्य लेबलिंग और ट्रेसबिलिटी
नए नियमों में एआई कंटेंट पर लेबलिंग अनिवार्य कर दी गई है। अब हर सोशल मीडिया प्लेटफॉर्म और डिजिटल इंटरमीडियरी को यह सुनिश्चित करना होगा कि AI से बना या बदला गया कंटेंट साफ, स्पष्ट और प्रमुख तरीके से 'AI-Generated' या 'AI-Altered' के रूप में दिखे। साथ ही, जहां तकनीकी रूप से संभव होगा, वहां प्लेटफॉर्म्स को कंटेंट में पर्सिस्टेंट मेटाडेटा या डिजिटल पहचान चिन्ह जोड़ने होंगे, ताकि यह पता लगाया जा सके कि कंटेंट किस प्लेटफॉर्म या सिस्टम से आया है। खास बात यह है कि इन लेबल्स या मेटाडेटा को हटाने या छेड़छाड़ करने की इजाजत नहीं होगी।
यूजर डिक्लेरेशन और प्लेटफॉर्म की जिम्मेदारी
सरकार ने सिर्फ यूजर पर नहीं, बल्कि प्लेटफॉर्म्स पर भी जिम्मेदारी डाली है। अब जब कोई यूजर कंटेंट अपलोड करेगा, तो उसे यह डिक्लेयर करना होगा कि वह कंटेंट AI से बना है या नहीं। इतना ही नहीं, सोशल मीडिया कंपनियों को ऑटोमेटेड टूल्स और वेरिफिकेशन सिस्टम लगाने होंगे, ताकि यूजर की दी गई जानकारी की जांच हो सके। अगर कोई प्लेटफॉर्म बिना सही लेबलिंग के AI कंटेंट पब्लिश होने देता है, तो उसे कानूनी कार्रवाई का सामना करना पड़ सकता है।
कंटेंट हटाने की समय-सीमा हुई और सख्त
सरकार ने कंटेंट मॉडरेशन की टाइमलाइन भी काफी कम कर दी है। कुछ मामलों में अब सोशल मीडिया प्लेटफॉर्म्स को सिर्फ 3 घंटे में कार्रवाई करनी होगी, जबकि पहले यह समय 36 घंटे था। इसके अलावा, कुछ अन्य मामलों में जवाब देने की समय-सीमा 15 दिन से घटाकर 7 दिन और 24 घंटे से घटाकर 12 घंटे कर दी गई है। साफ है कि सरकार चाहती है कि गलत और नुकसानदायक कंटेंट पर तुरंत एक्शन हो।
गैरकानूनी AI कंटेंट पर जीरो टॉलरेंस
नए नियमों में यह भी साफ कर दिया गया है कि अगर AI का इस्तेमाल किसी गैरकानूनी गतिविधि में होता है, तो उसे सामान्य अपराध की तरह ही ट्रीट किया जाएगा। इसमें बच्चों से जुड़ा आपत्तिजनक कंटेंट, अश्लील या अभद्र सामग्री, फर्जी पहचान, झूठे इलेक्ट्रॉनिक रिकॉर्ड, हथियारों या विस्फोटकों से जुड़ा कंटेंट शामिल है। ऐसे मामलों में प्लेटफॉर्म्स को न सिर्फ कंटेंट हटाना होगा, बल्कि उसे बनने और फैलने से रोकने के उपाय भी करने होंगे।
इसे भी पढ़ें- असली या नकली? एक क्लिक में Deepfake Video का होगा पर्दाफाश, ये AI Tools आएंगे काम
इसे भी पढ़ें- Social Media AI Trend: ChatGPT का AI कैरिकेचर ट्रेंड क्यों मचा रहा इंटरनेट पर हलचल?
