परिचय
बाल आयुक्त द्वारा किए गए एक अध्ययन के निष्कर्षों के अनुसार, सोशल मीडिया प्लेटफॉर्म को चलाने के लिए जिम्मेदार एल्गोरिदम ही बच्चों के फीड में अवांछित अश्लील जानकारी लाने के लिए जिम्मेदार हैं।
यह डेटा ऑनलाइन सुरक्षा अधिनियम के कार्यान्वयन से पहले प्राप्त किया गया था; तथापि, यह उन खतरनाक सूचनाओं के विभिन्न रूपों की तस्वीर प्रस्तुत करता है, जिनसे बच्चे ऑनलाइन संपर्क में आते हैं और जिन तक वे पहुंच बनाते हैं, साथ ही यह भी बताता है कि यह सामग्री किस प्रकार उन पर प्रभाव डालती है।
अश्लील सामग्री
सर्वेक्षण के परिणामों के अनुसार, सोलह से इक्कीस वर्ष की आयु के सत्तर प्रतिशत उत्तरदाताओं ने अश्लील सामग्री देखी थी। युवाओं द्वारा अश्लील सामग्री देखने की औसत आयु तेरह वर्ष थी, और उनमें से एक-चौथाई से ज़्यादा ने ग्यारह वर्ष की आयु तक इसे देख लिया था।
ऑनलाइन अश्लील सामग्री के संपर्क में आए उत्तरदाताओं के निष्कर्षों के अनुसार, यह पाया गया कि अश्लील सामग्री के शीर्ष दस स्रोतों में से आठ ऐसी वेबसाइटें थीं जो सामाजिक नेटवर्किंग या सोशल मीडिया आउटलेट्स से जुड़ी थीं।
ट्विटर
X, जिसे पहले ट्विटर के नाम से जाना जाता था, वह वेबसाइट थी जहाँ सबसे ज़्यादा युवा पोर्नोग्राफ़ी के संपर्क में आए। 45 प्रतिशत उत्तरदाताओं ने कहा कि उन्होंने X पर पोर्नोग्राफ़ी देखी। इस जानकारी के आधार पर, यह निष्कर्ष निकाला जा सकता है कि युवाओं को वेबसाइट X पर पोर्नोग्राफ़िक सामग्री देखने की संभावना उन वेबसाइटों की तुलना में ज़्यादा है जो पूरी तरह से पोर्नोग्राफ़िक सामग्री से भरी हैं।
युवाओं के बीच लोकप्रिय कई अन्य सोशल मीडिया साइट्स भी इस सर्वेक्षण में शामिल हैं। शोध से पता चलता है कि इन साइट्स का बार-बार ज़िक्र होना चिंता का विषय है। इस श्रेणी में कई प्लेटफ़ॉर्म शामिल हैं, जिनमें स्नैपचैट (29 प्रतिशत), इंस्टाग्राम (23 प्रतिशत), टिकटॉक (22 प्रतिशत) और यूट्यूब (15 प्रतिशत) शामिल हैं।
मार्क जोन्स
59% उत्तरदाताओं ने, जो कि एक आश्चर्यजनक रूप से उच्च प्रतिशत है, स्वीकार किया कि वे गलती से इंटरनेट पर अश्लील सामग्री पर आ गए हैं। 2023 में ऐसा करने वालों की संख्या 38 प्रतिशत होने की तुलना में, यह उल्लेखनीय वृद्धि है। पेन हिक बीच के कानूनी भागीदार, मार्क जोन्स द्वारा दिए गए एक बयान में कहा गया है कि “बच्चे स्वयं सक्रिय रूप से खोज करने के बजाय, प्लेटफ़ॉर्म द्वारा उपयोग किए जाने वाले एल्गोरिदम के कारण हानिकारक सामग्री देख रहे हैं।” यह टिप्पणी इस तथ्य के जवाब में की गई थी कि बच्चे हानिकारक सामग्री देख रहे हैं।
हानिकारक और सुलभ सामग्री पर नियंत्रण विवाद समाधान विभाग के सदस्य जोन्स एक वकील हैं जो लोगों और कंपनियों, दोनों का प्रतिनिधित्व करते हैं। उन्होंने जो अतिरिक्त बयान दिया, वह इस प्रकार है: “ऑनलाइन सुरक्षा अधिनियम और बाल सुरक्षा कर्तव्यों के अनुसार, प्लेटफ़ॉर्म को अपने एल्गोरिदम को ऐसी सामग्री की सिफ़ारिश करने से रोकना आवश्यक है जिसे बच्चों के लिए हानिकारक माना जाता है।” निगमों के प्रतिनिधि होने के अलावा, जोन्स लोगों का भी प्रतिनिधित्व करते हैं।
सत्यापन
उम्र सत्यापन के अन्य तरीकों के साथ, इसका उद्देश्य इंटरनेट का उपयोग करते समय बच्चों की सुरक्षा सुनिश्चित करना है। शुरुआत से ही, संभावित रूप से खतरनाक जानकारी को नाबालिगों तक पहुँचने से रोकने की पूरी ज़िम्मेदारी एल्गोरिदम की है। यही वह कार्य है जिसके लिए वे ज़िम्मेदार हैं।
ऑफकॉम द्वारा नाबालिगों के लिए संहिता को अपनाना और नई आयु सत्यापन प्रक्रियाओं को लागू करना, दोनों ही इस शोध के विषय हैं, जो इन दोनों पहलों को सक्रिय समर्थन प्रदान करता है। इसके अतिरिक्त, यह अध्ययन नाबालिगों के लिए संहिता के कार्यान्वयन में सहायता प्रदान करता है। बाल संहिता के अनुसार, सोशल मीडिया साइट्स बच्चों को ऐसी जानकारी से बचाने के लिए संशोधन करने के लिए बाध्य हैं जो उनके लिए संभावित रूप से हानिकारक हो सकती है।
बच्चों का कोड
जोन्स ने कहा कि सरकार द्वारा बाल संहिता को 2025 में 25 जुलाई के बाद लागू किया जाएगा। यह जानकारी जोन्स ने ही दी। इस क्षेत्र में होने वाले किसी भी बदलाव को देखना बेहद रोमांचक होगा, बशर्ते कि कोई बदलाव हो भी। अगर कोई बदलाव होता भी है, तो वह बेहद महत्वपूर्ण होगा। ज़्यादा सटीक तौर पर कहें तो, क्या प्लेटफ़ॉर्म सामग्री पर सफलतापूर्वक निगरानी रख रहे हैं और क्या वे बच्चों द्वारा पढ़ी जा रही संभावित रूप से खतरनाक जानकारी को रोकने के लिए विनाशकारी एल्गोरिदम का इस्तेमाल नहीं कर रहे हैं, यह विशेष रूप से चिंता का विषय होगा।
इसके अलावा, सर्वेक्षण से पता चलता है कि उत्तरदाताओं ने जिन अश्लील सामग्रियों के संपर्क में खुद को रखा, उनमें से अधिकांश ने ऐसे कृत्यों का संकेत दिया जो अश्लीलता से संबंधित पहले से मौजूद कानूनों के तहत निषिद्ध हैं। यह एक महत्वपूर्ण निष्कर्ष है। यह ध्यान देने योग्य बात है कि सर्वेक्षण का यह तथ्य इस विशेष पहलू की ओर ध्यान आकर्षित करता है।
प्रदर्शित
इसका एक उदाहरण यह तथ्य है कि सर्वेक्षण में भाग लेने वाले 58 प्रतिशत लोगों ने 18 वर्ष से कम उम्र में ऐसी अश्लील सामग्री देखी थी जिसमें किसी व्यक्ति की गला घोंटकर हत्या की गई हो। इसके अलावा, सर्वेक्षण में भाग लेने वाले 44 प्रतिशत उत्तरदाताओं ने कहा कि उन्होंने अपने जीवन में कभी न कभी बलात्कार का चित्रण देखा है।
शोध में इस तथ्य की ओर ध्यान दिलाया गया है कि इसका युवाओं के आपसी रिश्तों पर हानिकारक प्रभाव पड़ता है, जिसके परिणामस्वरूप उनकी यौनिकता के बारे में अपेक्षाओं तथा व्यक्ति द्वारा अपने शरीर के प्रति दृष्टिकोण पर भी प्रभाव पड़ता है।
स्व रिपोर्टिंग
कंप्यूटर वीकली को दिए एक साक्षात्कार में, बाल आयुक्त के एक प्रवक्ता ने कहा कि पोर्नोग्राफ़ी के बच्चों के व्यवहार पर पड़ने वाले हानिकारक प्रभाव और बच्चों के सामने आने वाली पोर्नोग्राफ़िक सामग्री की मात्रा के बीच एक गहरा संबंध है। यह निष्कर्ष केवल बच्चों द्वारा घटित घटनाओं की स्वयं की रिपोर्टिंग के आधार पर निकाला गया था।
उनके द्वारा दी गई जानकारी के अनुसार, “बच्चों ने बाल आयुक्त को बताया है कि उन्हें रिश्तों में हिंसा का सामना करना पड़ सकता है, या उन्हें लगता है कि यौन प्रकृति की उनकी पहली बातचीत पोर्नोग्राफ़ी में देखी जाने वाली चीज़ों जैसी ही होगी, क्योंकि ज़्यादातर मामलों में उन्हें यही देखने को मिलता है।” मीडिया में महिलाओं को जिस तरह से चित्रित किया जाता है, वह भी चिंताजनक है।
सहमति के प्रतिनिधित्व
इसके विपरीत, महिलाओं का चित्रण, जिन्हें पुरुषों की तुलना में यौन रूप से आक्रामक व्यवहार का शिकार ज़्यादा दिखाया जाता है, विशेष रूप से चिंता का विषय है। ऐसा इसलिए है क्योंकि महिलाओं को पुरुषों की तुलना में ज़्यादा आक्रामक दिखाया जाता है। सर्वेक्षण के निष्कर्षों के अनुसार, यह एक प्रमुख कारक है जो महिलाओं के प्रति हिंसक यौन प्रवृत्ति के विकास में योगदान देता है।
समिति ने पाया कि हिंसक पोर्नोग्राफ़ी देखने वाली युवतियों की अपनी सहमति की अवधारणाएँ विकृत हो गई थीं। यह एक बहुत ही महत्वपूर्ण निष्कर्ष था। आयोग द्वारा किए गए सर्वेक्षणों और शोध के आधार पर यह बात सामने आई। जाँच पूरी होने के बाद, आयोग के प्रवक्ता इस निष्कर्ष पर पहुँचे।
अध्ययन के निष्कर्ष
अध्ययन के निष्कर्षों के अनुसार, “अश्लील सामग्री देखने वाली लड़कियों के इस कथन से सहमत होने की संभावना काफ़ी ज़्यादा थी कि ‘ना’ कहने वाली लड़कियों को यौन संबंध बनाने के लिए राजी किया जा सकता है।” “यह अध्ययन के संदर्भ में कहा गया था।” हो सकता है कि वे पहले नकारात्मक प्रतिक्रिया दें; फिर भी, अब उन्हें उम्मीद है कि उन्हें अपना रुख बदलने के लिए मना लिया जाएगा। पिछले दस-पंद्रह वर्षों में यौनिकता और रिश्तों की शिक्षा के परिणामस्वरूप, अनुमति की अवधारणा हमारी शिक्षा प्रणाली में गहराई से समा गई है। दूसरी ओर, ऐसा प्रतीत होता है कि इस अवधारणा को अब कई बाधाओं का सामना करना पड़ रहा है।
इस तथ्य के बावजूद कि सोशल मीडिया प्लेटफॉर्म इन बच्चों की एक बड़ी संख्या के लिए संपर्क का पहला बिंदु है, बाल आयुक्त ने पुष्टि की कि एल्गोरिदम स्वाभाविक रूप से हानिकारक नहीं हैं; बल्कि, तथ्य यह है कि प्रौद्योगिकी कंपनियां बच्चों के लिए हानिकारक जानकारी को खत्म करने के लिए अपने सर्च इंजन को अनुकूलित नहीं कर रही हैं।
व्यापार
सूचना प्रौद्योगिकी व्यवसाय के एक प्रवक्ता ने कहा कि कंपनी अपने युवा ग्राहकों की जनसांख्यिकी से अवगत है और इसे ध्यान में रख रही है। वे उपयोगकर्ताओं की गतिविधियों की पहचान करने और उन पर नज़र रखने में सक्षम हैं, जो उनके पास है। वे ऐसा करने में सक्षम हैं। यदि आप उस एल्गोरिथम सामग्री को अपने से कम उम्र के उपयोगकर्ता को निर्देशित करने की प्रक्रिया में हैं, तो इस बात पर ज़्यादा ज़ोर दिया जाना चाहिए कि आप इसे किसके लिए निर्देशित कर रहे हैं, और इस बारे में कम सवाल उठने चाहिए कि आप इसे किसके लिए निर्देशित कर रहे हैं।
या तो इसे उनकी स्ट्रीम तक पहुँचने से पहले ही ब्लॉक कर देना चाहिए, या फिर लोगों को साइट से दूर रखने के लिए और भी सख्त उपाय करने होंगे, जो कि हमने अभी तक X जैसी साइटों के साथ नहीं देखा है। बहरहाल, इन दोनों विकल्पों को लागू करना ज़रूरी है। चाहे कुछ भी हो जाए, इसे तुरंत रोका जाना चाहिए।
वर्चुअल प्राइवेट नेटवर्क (वीपीएन)
ऑनलाइन बेची जाने वाली पोर्नोग्राफ़ी को ऑफ़लाइन उपलब्ध पोर्नोग्राफ़ी के समान ही सामग्री मानकों का पालन करना आवश्यक होना चाहिए, जैसा कि एक अध्ययन के परिणामस्वरूप प्राप्त सुझावों में से एक में कहा गया है। इस कानून के कार्यान्वयन से यह सुनिश्चित होगा कि गैर-घातक गला घोंटने के चित्रण निषिद्ध होंगे। इसके अलावा, यह मांग करता है कि सरकार ऐसे संभावित समाधानों पर शोध करे जिनका प्रभाव नाबालिगों को वर्चुअल प्राइवेट नेटवर्क (वीपीएन) का उपयोग करके ऑनलाइन सुरक्षा अधिनियम की आवश्यकताओं से बचने से रोकने में हो।
यह अध्ययन सरकार द्वारा किया जाना आवश्यक होगा। इसके अतिरिक्त, स्कूलों को नए संबंध, स्वास्थ्य और यौन शिक्षा (आरएचएसई) पाठ्यक्रम को सफलतापूर्वक लागू करने के लिए, अतिरिक्त आवश्यक संसाधन प्राप्त करना आवश्यक है। कुशल कर्मियों को आकर्षित करने के उद्देश्य से, इस पाठ्यक्रम में आरएचएसई से संबंधित क्षेत्रों में विशेषज्ञता रखने वाले शिक्षकों की भर्ती प्रक्रिया शामिल होनी चाहिए। ऑनलाइन सुरक्षा अधिनियम की प्रभावशीलता को मापने के लिए इसे एक मानक के रूप में स्थापित करना आवश्यक है।
व्यक्तिगत सेवाएँ
अध्ययन में कहा गया है कि यह सर्वेक्षण अगले वर्ष एक बार फिर किया जाएगा ताकि यह पता लगाया जा सके कि बच्चों की पहुँच वाले संसाधनों में कोई बड़ा बदलाव आया है या नहीं। यह सर्वेक्षण यह निर्धारित करने के लिए किया जाएगा कि कोई बदलाव आया है या नहीं।
हालाँकि संचार नियामक संस्था, ऑफकॉम ने रिपोर्ट के निष्कर्षों पर सीधे तौर पर कोई प्रतिक्रिया नहीं दी है, फिर भी उसने पहले कहा है कि “तकनीकी कंपनियों को बच्चों को पोर्न, आत्म-क्षति, आत्महत्या और खाने-पीने के विकार से जुड़ी सामग्री तक पहुँचने से रोकने के लिए उम्र की जाँच शुरू करनी चाहिए।” इसके अलावा, उसने यह भी कहा है कि वह “उन व्यक्तिगत सेवाओं की जाँच शुरू करने की उम्मीद करता है” जो अनुपालन आवश्यकताओं को पूरा नहीं करती हैं। एक और दिलचस्प बात यह है कि ऑफकॉम ने यह स्पष्ट कर दिया है कि वह “उन व्यक्तिगत सेवाओं की जाँच शुरू करने की उम्मीद करता है” जो मानकों को पूरा नहीं करती हैं।
प्रौद्योगिकी समिति
रिपोर्टों के अनुसार, सोशल मीडिया प्लेटफ़ॉर्म द्वारा इस्तेमाल किए जाने वाले एल्गोरिदम हानिकारक और भ्रामक सामग्री के प्रसार के लिए ज़िम्मेदार रहे हैं। इसके प्रत्यक्ष परिणाम स्वरूप, कई लोगों ने यह अपेक्षा व्यक्त की है कि इन एल्गोरिदम पर और भी कड़े नियम लागू किए जाएँगे।
गलत सूचनाओं के प्रसार और विज्ञापन व जुड़ाव-आधारित व्यावसायिक मॉडलों को बढ़ावा देने वाले एल्गोरिदम के बीच एक संबंध पाया गया है ताकि पैसा कमाया जा सके। यह संबंध हाउस ऑफ कॉमन्स की विज्ञान, नवाचार और प्रौद्योगिकी समिति द्वारा पूर्व में स्थापित किया गया था। दूसरी ओर, उन्होंने अपने सिस्टम में ऐसे कोई प्रोटोकॉल शामिल नहीं किए जो संभावित रूप से नुकसान पहुँचाने वाली सामग्री को प्राथमिकता से हटा दें।
निष्कर्ष
मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस मॉडल, एल्गोरिदम के निर्माण के आधार के रूप में काम करते हैं, और एल्गोरिदम स्वयं भी; ये ही नींव का निर्माण करते हैं। इन एल्गोरिदम में पूर्वाग्रह होने का खतरा है, जिसके कारण वे भयावह और क्लिक उत्पन्न करने वाली सामग्री को अधिक महत्व देंगे। यह एल्गोरिदम के विकसित होते पूर्वाग्रहों का परिणाम होगा। अच्छे सामाजिक परिणामों को बढ़ावा देने और उपभोक्ताओं को खतरनाक सामग्री के संपर्क में आने से बचाने के लिए इस तकनीक का पुन: उपयोग बहुत कम अतिरिक्त कार्य के साथ किया जा सकता है। यह एक ऐसा काम है जो किया जा सकता है।