باحثون صمموا نظام كشف صور مسيئة: نظام ابل خطر وقابل لإساءة الاستخدام

في الأسابيع الأخيرة باتت شركة ابل محور واحدة من أمواج الانتقادات والجدل الجديدة بعد الإعلان رسمياً عن نظام حماية جديد. لكن ربما تكون عبارة “نظام حماية” مضللة نوعاً ما لأن النظام موجه لفحص صور المستخدمين بحثاً عن صور الاساءة للأطفال. حيث تم تصميم النظام الجديد لكشف صور استغلال الأطفال على هواتف وحسابات iCloud الخاصة بالمستخدمين. وفي حال العثور على هذه الصور، يتم إخطار السلطات القانونية بالأمر.

 

بعد الكشف عن النظام خرج باحثان أمريكيان بخبر صادم: كان الباحثان قد صمما نظاماً شبه مطابق لما تقوم به ابل. حيث كان نظام الباحثين مصمماً للبحث عن الصور التي تتضمن استغلال الأطفال مع الحفاظ على التشفير والأمان. لكن وبدلاً من إكمال المشروع وربما استغلاله حتى بشكل تجاري، قام الباحثان بإيقاف المشروع بعد سنوات من العمل. كما أنهما أوصيا بألا يتم إكمال تطوير هذا النوع من المشاريع قبل أن يكون هناك الكثير من البحث حول أمانه حقاً.

 

وفق الباحثين Jonathan Mayer وAnunay Kulshrestha من جامعة برينستون الأمريكية، فقرار ابل مخاطرة كبرى. حيث قال الباحثان أن هذا النوع من الأنظمة خطر للغاية كونه قابل لإعادة التخصيص للعديد من الغايات الأخرى. وبالنظر إلى كون النظام يتصفح بيانات مشفرة يفترض أن تكون آمنة وسرية للمستخدمين فقط، فالأمور مقلقة.

 

حيث قال الباحثان أن أي حكومة تمتلك وصولاً كافياً يمكن أن تستبدل مجموعة الصور التي تستخدمها ابل كمرجع لرصد استغلال الأطفال. وفي حال تم وضع مجموعة صور أخرى لأحداث معينة أو مواقف سياسية أو دينية تعاقبها الحكومة سيتم كشف المستخدمين بنفس الطريقة.


مواضيع قد تهمك:


 

المقلق أكثر ربما هو أن هناك سلوكاً من هذا النوع أصلاً في بعض البلدان. حيث تفرض الصين على تطبيق WeChat مثلاً حظر العديد من أنواع الحديث والتلميحات السياسية. ومجرد محاولة إرسال صورة تراها الحكومة الصينية مخالفة عبر التطبيق يمكن أن تورط المرسل بمشاكل عديدة. ويرى الباحثون أن حكومة مثل الحكومة الصينية ربما تستطيع إرغام ابل على تنفيذ رغباتها بهذا الخصوص بشكل مشابه لحالات سابقة مثل ارغام الشركة على استضافة معلومات المستخدمين الصينيين في الصين حصراً.