ما الخطر من وجود منصات الذكاء الاصطناعي التي تنتج صورًا وهمية؟

منصات الذكاء الاصطناعي – 

ربما سمعت عن الصور الاصطناعية التي انتشرت انتشارًا فيروسيًا في الفترة الأخيرة وهي عبارة عن موقع ThisPersonDoesNotExist.com الذي تم إطلاقه قبل أسبوعين ويستخدم تقنية الذكاء الاصطناعي الخاصة بشركة إنفيديا لرسم كائن بشري واقعي مخترع مع كل تحديث، هذه التقنية رائعة ومثيرة فنيًا لكن يجب أن يتم تقييدها فورًا.

 

نحن نعيش في عالم افتراضي كبير يستخدم فيه الأفراد والمؤسسات صورًا شخصية أو مسروقة لإخفاء هوياتهم في الوقت الذي يتلاعبون فيه بهوية الآخرين، وتتراوح السلبيات من خدع الحيوانات الأليفة إلى الحيل الرومانسية ونشر الأخبار المزيفة، لكن هذه التقنية تعطي مصدرًا للصور المزيفة لا يُمكن تعقبه وقد يُستخدم في الإيقاع بضحايا كُثُر.

 

قبل هذه التقنية، واجه المحتالون ثلاثة مخاطر رئيسية عند استخدام الصور المزيفة، وكل من هذه المخاطر لديها القدرة على وضعها خارج الأعمال التجارية أو في السجن، وهذه المخاطر هي:

 

خطر #1: شخص ما يتعرف على الصورة واحتمال ذلك صعب جدًا لكن قد يحدث.

 

مواضيع مشابهة

خطر #2: شخص ما يبحث عن الصور العكسية للصور مع خدمة مثل TinEye أو خدمة البحث من جوجل ويكتشف أنه قد نشرت الصورة من قبل وهي أبسط إجراءات مكافحة الاحتيال.

 

خطر #3: إذا كانت الجريمة ناجحة، فإن جهات تنفيذ القانون سيستخدم الصور المزيفة لمعرفة هوية المخترق بعد حدوثها، ربما استخدم المخادع صورة زميل قديم.

 

المشكلة في الصور التي ينتجها الذكاء الاصطناعي لا يحمل أي من هذه المخاطر، ولن يتعرف أحد بأي صورة وعند البحث عنها في جوجل ستجد النتائج صفر، وهذه الصور لها ميزة أخرى وهذا قد يجعلك تتعرف على أحد المخادعين وهذا يحدث عند تكرار وضع الصور التي ينتجها نظام الذكاء الاصطناعي.

 

ماذا نفعل إذن في هذه المشكلة؟

 

لابد من مشاركة رموز الصور بشكل علني، فمستقبلًا سيقوم نظام الذكاء الاصطناعي بإنشاء مئات الصور ومقاطع الفيديو الخاصة بشخص ما في سيناريوهات مختلفة، ولهذا لابد من تضييق حرية المحتالين بتخزين هذه الصور في مواقع ويب لنتمكن من البحث خلالها عن الصور والتأكد من صحتها، وهناك أيضًا ميزة قد تحجم انتشارها وهي وضع العلامات المائية على الصور.

 

شارك المحتوى |
close icon