इलॉन मस्क के X ने Grok AI पर लगाया सख्त प्रतिबंध, भारत में पहले ही 3,500 आपत्तिजनक फोटो हटाई जा चुकी हैं
इलॉन मस्क के स्वामित्व वाले सोशल मीडिया प्लेटफॉर्म X (पूर्व में ट्विटर) ने अपने AI चैटबॉट Grok को लेकर बड़ा और सख्त कदम उठाया है। अब Grok AI की मदद से किसी भी असली व्यक्ति की अश्लील या आपत्तिजनक तस्वीर बनाना पूरी दुनिया में प्रतिबंधित कर दिया गया है। यह फैसला महिलाओं और बच्चों की तस्वीरों के दुरुपयोग की लगातार मिल रही शिकायतों के बाद लिया गया है।
X के सेफ्टी अकाउंट ने जानकारी दी कि तकनीकी स्तर पर बदलाव किए गए हैं, जिससे Grok अब किसी भी रियल व्यक्ति की बिना कपड़ों वाली या सेक्शुअल अंदाज में एडिट की गई तस्वीर नहीं बना सकेगा। इसमें बिकिनी या कम कपड़ों वाली इमेज एडिटिंग पर भी पूरी तरह रोक लगा दी गई है। यह नियम पेड और फ्री दोनों तरह के यूजर्स पर समान रूप से लागू होगा।
दरअसल, पिछले साल दिसंबर में कई महिलाओं ने शिकायत की थी कि उनकी तस्वीरों का Grok AI के जरिए गलत और आपत्तिजनक इस्तेमाल किया जा रहा है। भारत सरकार की IT मिनिस्ट्री की साइबर लॉ डिवीजन ने भी IT Rules 2021 के तहत X को ऐसे कंटेंट हटाने के निर्देश दिए थे।
X की एक्शन रिपोर्ट के अनुसार, भारत में Grok से बनाई गई करीब 3,500 अश्लील तस्वीरें हटाई गईं और 600 से ज्यादा यूजर्स को बैन किया गया, जो इस AI टूल का बार-बार गलत इस्तेमाल कर रहे थे।
हालांकि, इलॉन मस्क पहले यह कह चुके हैं कि किसी टूल को दोष देना सही नहीं है, बल्कि जिम्मेदारी यूजर की होती है। लेकिन बढ़ते विवाद और निजता उल्लंघन के मामलों के बाद अब X ने साफ कर दिया है कि AI का गलत इस्तेमाल किसी भी हाल में बर्दाश्त नहीं किया जाएगा।
