بعد الانتقادات، ابل تؤجل إطلاق نظام فحص الصور وكشف المحتوى المسيء

قبل بضعة أسابيع أشعلت شركة ابل موجة هائلة من الانتقادات والمطالب العالمية بالمزيد من الخصوصية بعد الكشف عن ميزة جديدة. حيث كشفت الشركة عن ميزة تتيح البحث في هواتف المستخدمين وحساباتهم على iCloud عن الصور المسيئة. حيث كان المخطط هو العثور على الصور التي تتضمن استغلال الأطفال “بشكل آمن” وإبلاغ السلطات في حال تم العثور عليها. لكن وبسرعة بدأت العديد من الشروخ بالظهور في المخطط الجديد وكان من الواضح أنه قابل لإساءة الاستخدام.

 

الآن يبدو أن ابل قد استمعت للكم الكبير من الانتقاد سواء من المستخدمين الأفراد أو المنظمات والجهات المعنية للخصوصية. حيث كان هناك عدة عرائض تتضمن آلاف التواقيع من خبراء ومنظمات في مجال الخصوصية لإثناء الشركة عن مخططها. ,تقرر تأجيل إطلاق الميزة التي تسمى اختصاراً CSAM إلى وقت غير محدد. كما كانت الشركة واضحة جداً بأنها أجلت الإطلاق، لكنها لم تقم بإلغائه. حيث قالت الشركة أن سبب التأجيل هو التخصيص الإضافي والتعديل على الميزة.

 

يذكر أن سبب الانتقادات الكبرى لميزة CSAM هو أنها تتناقض فعلياً مع إصرار ابل على أنها منصة الخصوصية الأهم. حيث لطالما سوقت الشركة لنفسها على أساس الأمان العالي وأن “ما يحدث على هاتف أيفون، يبقى على هاتف أيفون.” بمعنى أن لا أحد أو جهة بشرية أو آلية تفحص ما تمتلكه من ملفات. والآن بات هناك خوارزمية مخصصة لفعل ذلك بالتحديد.

 


مواضيع قد تهمك:


 

بالطبع فالقلق الأساسي ليس من استخدام الخوارزمية لكشف الصور التي تتضمن استغلال الأطفال. بل يأتي القلق من أن هذه الميزة قابلة لإعادة الإعداد بسهولة لتلتقط أي نوع كان من المحتوى. حيث يمكن أن تكشف أنواعاً مختلفة من الجرائم، وقد يتم استخدامها لغايات أخطر حتى مثل كشف المعارضة السياسية. حيث قال العديد من الباحثين الأمنيين أن هذا النوع من الأدوات يمكن أن يتم استغلاله بفعالية عالية من الأنظمة الشمولية كما الصين.