Monday, October 25, 2021
spot_img
HomeAppleवह नहीं जिसका उपयोग हम CSAM फोटो स्कैनिंग के लिए करेंगे

वह नहीं जिसका उपयोग हम CSAM फोटो स्कैनिंग के लिए करेंगे



Apple ने इस महीने की शुरुआत में iOS, iPadOS और macOS के लिए CSAM डिटेक्शन सिस्टम का पूर्वावलोकन किया था। इसकी घोषणा के बाद से, CSAM डिटेक्शन फीचर बहस का विषय रहा है। न केवल सुरक्षा शोधकर्ता बल्कि ऐप्पल के अपने कर्मचारी और जर्मन संसद सदस्य भी इसे बुला रहे थे। अब एक डेवलपर ने बताया है कि आईओएस 14.3 में सीएसएएम तस्वीरों का पता लगाने के लिए इस्तेमाल किया जाने वाला न्यूरलहैश कोड पाया गया है। एक स्वतंत्र डेवलपर, Asuhariet Ygvar, ने Github पर NeuralHash के पुनर्निर्मित पायथन संस्करण के लिए कोड पोस्ट किया। उनका कहना है कि उन्होंने जो कोड निकाला वह एक iOS संस्करण से था जो छह महीने पहले जारी किया गया था, जबकि Apple ने दावा किया था कि वर्तमान iOS संस्करणों में CSAM का पता नहीं है। Ygvar ने अन्य सुरक्षा शोधकर्ताओं के लिए इसमें गहरा गोता लगाने के लिए Github पर कोड पोस्ट किया। कोड को देखने पर कई सुरक्षा शोधकर्ता इसमें खामियां ढूंढने में सफल रहे। उदाहरण के लिए, सिस्टम दो पूरी तरह से अलग चित्रों के लिए समान हैश कोड उत्पन्न कर रहा था। सुरक्षा शोधकर्ताओं ने तब अधिकारियों को चेतावनी दी क्योंकि टकराव की संभावना सीएसएएम प्रणाली का शोषण करने की अनुमति दे सकती है। हालांकि, Apple दावों से इनकार करता है। मदरबोर्ड को दिए एक बयान में, ऐप्पल ने कहा कि डेवलपर द्वारा निकाले गए न्यूरलहैश सिस्टम का संस्करण वही नहीं है जिसका उपयोग सीएसएएम डिटेक्शन सिस्टम के अंतिम संस्करण में किया जाएगा। ऐप्पल का कहना है कि उसने सुरक्षा शोधकर्ताओं के लिए इसमें खामियां खोजने के लिए कोड को सार्वजनिक रूप से उपलब्ध कराया। कंपनी का कहना है कि सर्वर में एक निजी एल्गोरिथम चल रहा है जो मानव सत्यापन के लिए जाने से पहले सीमा पार होने के बाद सभी सीएसएएम मैचों की पुष्टि करता है। “न्यूरलहैश एल्गोरिथ्म” [… is] हस्ताक्षरित ऑपरेटिंग सिस्टम के कोड के हिस्से के रूप में शामिल [and] सुरक्षा शोधकर्ता सत्यापित कर सकते हैं कि यह वर्णित के रूप में व्यवहार करता है, “एप्पल के दस्तावेज़ीकरण के टुकड़ों में से एक पढ़ता है। ऐप्पल ने यह भी कहा कि एक उपयोगकर्ता द्वारा 30 मैच थ्रेशोल्ड पास करने के बाद, ऐप्पल के सर्वर पर चलने वाला दूसरा गैर-सार्वजनिक एल्गोरिदम परिणामों की जांच करेगा। जॉन्स हॉपकिन्स विश्वविद्यालय के एक क्रिप्टोग्राफ़ी शोधकर्ता मैथ्यू ग्रीन का कहना है कि यदि डेवलपर द्वारा पाए गए न्यूरलहैश सिस्टम में टकराव मौजूद है, तो “वे सिस्टम में मौजूद होंगे जो ऐप्पल अंततः सक्रिय होता है।” यह संभव है कि Apple लॉन्च से पहले फ़ंक्शन को “रिस्पिन” कर सकता है, “लेकिन अवधारणा के प्रमाण के रूप में, यह निश्चित रूप से मान्य है,” उन्होंने GitHub पर साझा की गई जानकारी के बारे में कहा। एक शोधकर्ता निकोलस वीवर ने मदरबोर्ड को बताया कि अगर ऐप्पल लीक हुए न्यूरलहैश कोड को लागू करना जारी रखता है, तो लोग झूठी सकारात्मकता से छुटकारा पाने के लिए “एप्पल की प्रतिक्रिया टीम को कचरा छवियों के साथ परेशान कर सकते हैं जब तक कि वे एक फ़िल्टर लागू नहीं करते”। आपके संदर्भ के लिए, Apple iCloud पर अपलोड की जा रही तस्वीरों को सीधे स्कैन नहीं करता है। इसके बजाय, CSAM डिटेक्शन सिस्टम फ़ोटो को हैश में विभाजित करता है जो NCMEC द्वारा प्रदान किए गए फ़ोटो द्वारा उत्पन्न हैश से मेल खाते हैं। यदि ऐसी 30 से अधिक तस्वीरें हैं जिनमें समान हैश पाए जाते हैं, तो एक समीक्षा शुरू हो जाती है जिसके बाद एक ऐप्पल टीम तस्वीर पर एक नज़र डालती है। लेकिन, ऐप्पल के मुताबिक, समीक्षा प्रणाली को ट्रिगर करने वाली तस्वीर और वास्तव में प्रतिक्रिया टीम को इसे बनाने वाली तस्वीरों के बीच एक और जांच है, जो सीएसएएम डेटाबेस को उजागर होने से खत्म कर देगी। आईक्लाउड फोटो स्कैनिंग पर आपके क्या विचार हैं? क्या आपको लगता है कि CSAM का पता लगाना वैकल्पिक होना चाहिए, या क्या आपको लगता है कि Apple को बच्चों की सुरक्षा के लिए फ़ोटो स्कैन करने में सक्षम होना चाहिए? हमें नीचे टिप्पणी अनुभाग में अपनी राय बताएं! सनुज भाटिया डिग्री से इंजीनियर, पेशे से न्यूज रिपोर्टर और खेल प्रेमी हैं। जब मैं अत्याधुनिक तकनीक के बारे में नहीं लिख रहा हूँ तो आप मुझे फ़ुटबॉल ट्विटर पर स्क्रॉल करते हुए पाएंगे। कोई टिप है? एक गलती नोट की? आप नीचे दिए गए ईमेल का उपयोग करके संपर्क कर सकते हैं। संपर्क करें: [email protected]



RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Most Popular

Recent Comments

Translate »