New IT Rules 2026 : नई दिल्ली। भारत सरकार ने आज यानी 20 फरवरी 2026 से आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक कंटेंट को लेकर नए और कड़े आईटी नियम लागू कर दिए हैं। अब सोशल मीडिया पर एआई से बनी किसी भी तस्वीर या वीडियो को शेयर करने से पहले यह बताना अनिवार्य होगा कि वह असली नहीं है। नियमों का उल्लंघन करने पर न केवल भारी जुर्माना लग सकता है, बल्कि जेल की हवा भी खानी पड़ सकती है। आईटी मंत्रालय ने ‘डिजिटल मीडिया एथिक्स कोड’ में बदलाव कर सोशल मीडिया कंपनियों की जवाबदेही भी तय कर दी है।
SGI कंटेंट और लेबलिंग का नया नियम
नए नियमों के तहत अब Synthetically Generated Content (SGI) यानी कंप्यूटर या एआई से बनाए गए कंटेंट को लेकर पारदर्शिता जरूरी है। अगर कोई फोटो या वीडियो ऐसा दिखता है कि वह किसी असली व्यक्ति या जगह का है, लेकिन उसे एआई ने बनाया है, तो उस पर परमानेंट ‘AI’ लेबल या वॉटरमार्क लगाना होगा। इस लेबल को हटाया नहीं जा सकेगा। पीएम मोदी ने भी हाल ही में ‘एआई इम्पैक्ट समिट’ में डीपफेक्स को समाज के लिए बड़ा खतरा बताते हुए वॉटरमार्किंग और सोर्स की पारदर्शिता पर जोर दिया था।
सोशल मीडिया कंपनियों के लिए ‘डेडलाइन’ घटी
अब तक आपत्तिजनक कंटेंट हटाने के लिए कंपनियों के पास 36 घंटे का समय होता था, लेकिन अब इसे घटाकर महज 3 घंटे कर दिया गया है।
3 घंटे के भीतर: सरकार या संबंधित अथॉरिटी के आदेश पर डीपफेक या भ्रामक कंटेंट को टेकडाउन करना होगा।
12 घंटे के भीतर: बच्चों से जुड़े आपत्तिजनक कंटेंट (पोर्नोग्राफिक) या हिंसा फैलाने वाले पोस्ट पर जवाब देना होगा।
सख्त मॉनिटरिंग: हर तीन महीने में प्लेटफॉर्म्स को अपने यूजर्स को चेतावनी देनी होगी कि एआई का गलत इस्तेमाल करने पर कानूनी कार्रवाई होगी।
सजा और कानूनी कार्रवाई
नए आईटी नियमों में लापरवाही बरतने वालों के खिलाफ सख्त रुख अपनाया गया है। अगर कोई व्यक्ति बिना लेबल के डीपफेक या एआई कंटेंट का इस्तेमाल धोखाधड़ी, फर्जी दस्तावेज बनाने या अश्लीलता फैलाने के लिए करता है, तो उस पर IPC, POCSO एक्ट और भारतीय नागरिक सुरक्षा संहिता के तहत मुकदमा चलाया जाएगा। हालांकि, सरकार ने स्पष्ट किया है कि यदि कोई सोशल मीडिया प्लेटफॉर्म एआई टूल्स का उपयोग कर ऐसे कंटेंट को ब्लॉक करता है, तो उसे कानूनी संरक्षण (Safe Harbour) मिलता रहेगा।