فشل الخبراء المتميّزون في كشف الوجوه المولدة بالذكاء الاصطناعي
أظهرت دراسة جامعة سيدني أن خبراء التعرف على الوجوه لم يميّزوا بين الصور الحقيقية والمولدة بالذكاء الاصطناعي بدقة بلغت 57% فقط.
- نتائج الدراسة وتأثيرها على الاستخدامات الجنائية
- تحديات تقنيات التعرف على الوجوه والذكاء الاصطناعي
- الحاجة إلى فهم أعمق ودمج أدوات كشف جديدة
ما هي نتائج الدراسة وتأثيرها على الاستخدامات الجنائية؟
أظهرت الدراسة التي نُشرت في المجلة البريطانية لعلم النفس أن معدل دقة التعرف على الوجوه بين 125 مشاركًا، منهم 36 خبيرًا معتمدًا، بلغ 57% فقط، مقارنةً بمعدل يتجاوز 90% عند التعرف على الوجوه الحقيقية. وجرى هذا الاختبار عبر منصة إلكترونية أدارتهما فرق بحثية مرتبطة بجامعة سيدني وبمعهدين نفسانيين أُشِير إليهما في البحث.
النتيجة مثّلت تناقضًا واضحًا مع الأداء المعروف لهؤلاء الخبراء عند التعامل مع صور بشرية حقيقية، وقد فسَّر الباحثون هذه الفجوة بوجود اختلاف جوهري في العمليات البصرية والمعرفية المطلوبة لتمييز الصور المولدة بواسطة الذكاء الاصطناعي عن الصور الحقيقية.
على صعيد العمل الجنائي، تُستخدم مهارات هؤلاء الخبراء في تحليل مواد الفيديو وتحديد المشتبه بهم، وقد أشارت الدراسة إلى أن الاعتماد على الحكم البشري المتخصص وحده قد لا يكون كافياً عند تزايد وجود الصور المصطنعة في الأدلة المرئية.
في سياق ذي صلة، يلجأ بعض أجهزة إنفاذ القانون في أوروبا إلى فرق من الخبراء المتخصصين؛ فعلى سبيل المثال عمد مكتب شرطة برلين إلى توظيف فريق من الخبراء المتميّزين للتعرف على الأشخاص من مقاطع المراقبة، ما يجعل نتائج الدراسة ذات انعكاسات مباشرة على ممارسات التحليل الجنائي في دول مثل ألمانيا.
وبناءً على ما سبق، تقترح الدراسة أن تصنيف الأدلة وتحليلها في الملفات الجنائية يحتاج إلى إعادة تقييم في ضوء حدود قدرات الخبراء أمام الصور المولدة بالذكاء الاصطناعي.
ما هي التحديات التقنية الحديثة في التعرف على الوجوه والذكاء الاصطناعي؟
أوضحت الدراسة أن الصور المولدة بواسطة تقنيات الذكاء الاصطناعي أصبحت قادرة على محاكاة الملامح البشرية بشكل فوتوغرافي، ما حدّ من فعالية أجهزة وأساليب الكشف التقليدية والعين البشرية المتخصصة على حد سواء.
تنوّعت نتائج البحث لتبيّن أن الخبراء الذين يحققون عادةً معدلات تجاوز 90% في مهام التعرف على الوجوه الحقيقية، لم يتمكنوا من تجاوز 57% عند مواجهة صور مولدة آليًا، وهو ما يشير إلى أن سمات الخداع في هذه الصور تختلف عن الأخطاء أو التشويشات المعروفة في المواد الحقيقية.
كما سلّطت النتائج الضوء على الحاجة الملحّة لمراجعة أدوات الكشف المستخدمة في السياقات الجنائية والتشغيلية، لا سيما مع زيادة تبنّي أنظمة التعرف على الوجوه في مؤسسات إنفاذ القانون، بما في ذلك التجارب والتبني الذي رُصد في جهات مثل شرطة برلين.
وبحسب تقارير إعلامية غطّيت نتائج الدراسة، فقد تناولت منصات أخبارية عدة هذه المسألة ونشرت تحليلات تبيّن المخاطر والقيود على الاعتماد الحصري على التعرُّف البشري أو الآلي، منها تقارير على مواقع n-tv، وKurier، وWirtschaftsWoche.
تظهر هذه المؤشرات أن التحسينات التقنية المطلوبة ليست مشكلة طرفية بل تشكّل تحدياً منهجياً يتطلب حلولاً متعدّدة الأوجه بين أدوات كشف متقدمة وإجراءات قضائية وإجرائية محكمة.
ما أهمية الفهم العميق للذكاء الاصطناعي ودمج الأدوات؟
رأت الدراسة أن مواجهة تهديدات الصور المولدة تستلزم تطوير أساليب جديدة لاكتشاف آثار الذكاء الاصطناعي داخل الصور، إضافةً إلى دمج الحكم البشري مع نماذج تقنية متخصصة في كشف السمات الاصطناعية.
أبرز الباحثون الحاجة إلى نهج مختلط يجمع بين قدرات الخبراء البشرية وأدوات برمجية ترصد أدلّة على التزوير أو العناصر الفوتوغرافية الناتجة عن نماذج التوليد الآلي، مع العلم أن الدراسة لم تُحدد حلاً تقنيًا واحدًا وإنما دعت إلى مزيد من البحث والتطوير.
كما نبهت نتائج البحث إلى أن التدريب والتأهيل المهني للخبراء قد يحتاج إلى تحديث لمواجهة خصائص الصور المولدة، إذ إن المهارات التي تقود إلى نجاح في التعرف على وجوه حقيقية قد لا تكفي عند مواجهة صور مصطنعة متقنة.
وأشارت تقارير صحفية إلى أن دراسات مماثلة وتغطية إعلامية دولية أثارت نقاشًا حول سبل التحسين، وظهرت مقالات تناولت النتائج على مواقع مثل Spektrum، وnau.ch، وFLZ.
أبرز النقاط
- نشرت النتائج في المجلة البريطانية لعلم النفس، وبيّنت انخفاض دقة كشف الوجوه المولدة إلى 57% لدى 36 خبيرًا معتمدًا ضمن 125 مشاركًا.
- تشير المقارنة إلى فجوة كبيرة مع أداء هؤلاء الخبراء عند التعامل مع وجوه حقيقية، حيث يحققون عادةً دقة تتجاوز 90%.
- النتائج تؤثر في ممارسات التحليل الجنائي والاعتماد على خبراء التعرّف على الوجوه، كما تُبرز الحاجة لدمج أدوات تقنية لمواجهة الصور المولدة.
الأسئلة الشائعة
ما الآثار المحتملة لنتائج هذه الدراسة على استخدام الأدلة المرئية في القضايا الجنائية؟
تشير الدراسة إلى وجوب إعادة تقييم مدى الاعتماد على الحكم البشري المتخصص عند تحليل الصور، وقد يتطلب الأمر إدراج فحوص تقنية إضافية للتأكد من أصالة المواد المرئية قبل استخدامها كدليل.
هل أكدت الدراسة أن الخبراء لا يفيدون مطلقًا في التعرّف على الوجوه؟
لم تؤكد الدراسة ذلك؛ بل أظهرت أن خبراء التعرف على الوجوه حصلوا على دقة عالية عند مواجهة صور بشرية حقيقية، لكنها بينت أن قدرتهم انخفضت بشكل ملحوظ أمام الصور المولدة بالذكاء الاصطناعي.
ما التوصية العملية المباشرة التي خرجت بها الدراسة؟
أشارت الدراسة إلى أهمية تطوير طرق رصد جديدة وربما دمج الحكم البشري مع أدوات تقنية متخصصة لرصد الأدلة الاصطناعية بشكل أكثر فعالية.
نشرت نتائج الدراسة وتناولت تغطيتها العديد من وسائل الإعلام؛ كما عكست الدراسة حاجة واضحة لمزيد من البحوث حول طرق كشف الصور المولدة بالذكاء الاصطناعي، خصوصًا في السياقات الجنائية. وقد أُشير في نص البحث إلى الفرق البحثية والمؤسسات المعنية، منها مؤسسات أكاديمية في سيدني وروابط إلى التقارير الصحفية المذكورة أعلاه.





















































































