सुरक्षा निगरानी संस्था, इंटरनेट वॉच फ़ाउंडेशन ने नोट किया है कि एआई टूल की मदद से बनाई जा रही बाल यौन शोषण की छवि का मुद्दा हर दिन के साथ बड़ा होता जा रहा है। वॉचडॉग ने कहा है कि यह “टिपिंग पॉइंट” पर पहुंच गया है। इंटरनेट वॉच फ़ाउंडेशन (IWF) के अनुसार, पिछले छह महीनों में ऑनलाइन खोजी गई AI-जनित अवैध सामग्री की मात्रा पहले ही पूरे पिछले वर्ष की रिपोर्ट की गई कुल संख्या को पार कर गई है।
संगठन ने नोट किया कि इस सामग्री का अधिकांश हिस्सा डार्क वेब के भीतर छिपे होने के बजाय इंटरनेट के खुले हिस्सों पर पहुंच योग्य था, जिसे नेविगेट करने के लिए विशेष ब्राउज़र की आवश्यकता होती है। आईडब्ल्यूएफ के अंतरिम मुख्य कार्यकारी डेरेक रे-हिल ने टिप्पणी की कि इन छवियों की उन्नत प्रकृति से पता चलता है कि इसमें शामिल एआई उपकरण वास्तविक पीड़ितों की वास्तविक छवियों और वीडियो का उपयोग करके प्रशिक्षित किए गए थे। द गार्जियन ने हिल के हवाले से कहा, “हाल के महीनों से पता चलता है कि यह समस्या दूर नहीं हो रही है और वास्तव में बदतर होती जा रही है।”
गार्जियन की एक रिपोर्ट के अनुसार, मामला इतना गंभीर हो गया है कि IWF विश्लेषक के अनुसार, अधिकारियों को अब यह पता लगाने में मुश्किल हो रही है कि क्या छवि AI द्वारा बनाई गई है या वास्तव में बच्चे को मदद की ज़रूरत है।
डीपफेक एक वास्तविक खतरा है
इंटरनेट वॉच फ़ाउंडेशन (IWF) ने सितंबर तक छह महीनों में AI-जनित बाल यौन शोषण सामग्री (CSAM) के 74 मामलों को संभालने की सूचना दी, यह आंकड़ा पिछले 12 महीनों में दर्ज किए गए 70 मामलों को पार कर गया है। प्रत्येक रिपोर्ट एकाधिक अवैध छवियों को होस्ट करने वाले वेबपेज का उल्लेख कर सकती है।
आईडब्ल्यूएफ के निष्कर्षों में न केवल वास्तविक जीवन के पीड़ितों से जुड़ी एआई-जनित छवियां शामिल थीं, बल्कि “डीपफेक” वीडियो भी शामिल थे, जहां वयस्क सामग्री को सीएसएएम जैसा दिखने के लिए हेरफेर किया गया था। पिछली रिपोर्टों से पता चला है कि एआई तकनीक का इस्तेमाल मशहूर हस्तियों की पुरानी छवियां बनाने के लिए किया गया है, जिसमें उन्हें अपमानजनक परिदृश्यों में बच्चों के रूप में चित्रित किया गया है। एक और परेशान करने वाली प्रवृत्ति में ऑनलाइन पाए जाने वाले पूरी तरह से कपड़े पहने बच्चों की तस्वीरों को “नग्न” करने के लिए एआई टूल का उपयोग करना शामिल है।
इस ध्वजांकित सामग्री का आधे से अधिक हिस्सा रूस और अमेरिका के सर्वरों पर होस्ट किया गया था, साथ ही महत्वपूर्ण मात्रा में जापान और नीदरलैंड के सर्वरों पर भी होस्ट किया गया था। इस हानिकारक सामग्री वाले वेबपेजों को IWF-प्रबंधित सूची में जोड़ा जाता है, और पहुंच को अवरुद्ध करने और रोकने के लिए तकनीकी उद्योग के साथ साझा किया जाता है।
इंटरनेट वॉच फ़ाउंडेशन (IWF) ने बताया कि जनता द्वारा फ़्लैग की गई 80 प्रतिशत अवैध AI-जनित छवियां अक्सर फ़ोरम या AI इमेज गैलरी जैसे सुलभ प्लेटफ़ॉर्म पर पाई जाती थीं। ऑनलाइन शोषण को लेकर बढ़ती चिंताओं के जवाब में, इंस्टाग्राम ने सेक्सटॉर्शन से निपटने के लिए नए टूल पेश किए हैं, यह एक घोटाला है जहां व्यक्ति, अक्सर युवा महिलाओं के रूप में प्रस्तुत होते हैं, उपयोगकर्ताओं को अंतरंग तस्वीरें साझा करने के लिए बरगलाते हैं, और बाद में उन्हें ब्लैकमेल करते हैं।
इस समस्या पर अंकुश लगाने में इंस्टाग्राम का योगदान
इंस्टाग्राम ने एक नया सुरक्षात्मक फीचर पेश किया है जो सीधे संदेशों (डीएम) के माध्यम से भेजे गए किसी भी नग्न चित्र को स्वचालित रूप से धुंधला कर देता है, जिससे उपयोगकर्ताओं को देखने से पहले सावधानी बरतने में मदद मिलती है। इसके साथ ही, उपयोगकर्ताओं को संभावित शोषण के खिलाफ सुरक्षा की एक अतिरिक्त परत जोड़कर, प्रेषकों को ब्लॉक करने या रिपोर्ट करने के विकल्प की याद दिलाई जाती है। इसका उद्देश्य संवेदनशील सामग्री पर उपयोगकर्ता का नियंत्रण बढ़ाना है।
इस सप्ताह से, यह सुविधा दुनिया भर में किशोर खातों के लिए स्वचालित रूप से सक्षम हो जाएगी और एन्क्रिप्टेड संदेशों के साथ भी काम करेगी। हालाँकि, इंस्टाग्राम के “ऑन डिवाइस डिटेक्शन” सिस्टम द्वारा पहचानी गई फ़्लैग की गई छवियों को प्लेटफ़ॉर्म या अधिकारियों को तब तक रिपोर्ट नहीं किया जाएगा जब तक कि मैन्युअल रूप से ट्रिगर न किया जाए। वयस्कों के लिए, यह सुविधा ऑप्ट-इन विकल्प के रूप में उपलब्ध होगी।
इसके अतिरिक्त, इंस्टाग्राम संदिग्ध सेक्सटॉर्शन स्कैमर्स से फॉलोअर्स और फॉलोइंग सूचियों को छिपाएगा, जो निजी छवियों को फैलाने के लिए अपने खतरों के हिस्से के रूप में उन कनेक्शनों का उपयोग कर सकते हैं।