التعليقات مغلقة لهذا المنشور
منوعات
“العنصرية” تدخل عالم أنظمة التعرف على الوجوه
نشر في: 15 فبراير 2018
وجدت دراسة حديثة عيبا جديدا في برامج التعرف على الوجوه، عقب عدم قدرتها على التمييز بين الأشخاص ذوي البشرة السمراء أو الداكنة.
وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية.
ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة.
وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20%.
وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها.
وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة".
وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات.
وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم.
وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية.
ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة.
وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20%.
وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها.
وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة".
وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات.
وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم.
وجدت دراسة حديثة عيبا جديدا في برامج التعرف على الوجوه، عقب عدم قدرتها على التمييز بين الأشخاص ذوي البشرة السمراء أو الداكنة.
وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية.
ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة.
وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20%.
وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها.
وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة".
وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات.
وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم.
وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية.
ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة.
وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20%.
وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها.
وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة".
وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات.
وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم.
ملصقات
اقرأ أيضاً
طرق فعالة لتحقيق إعادة برمجة عقلك الباطن
منوعات
منوعات
«واتساب» يطلق ميزة «فلاتر» المحادثات لتحسين تجربة المستخدمين
منوعات
منوعات
غوغل يطلق الشبكة المحدثة “Find My Device”
منوعات
منوعات
فيسبوك ماسنجر تتيح إرسال الصور بجودة عالية
منوعات
منوعات
الأغلى في فرنسا.. القصر السابق للملك محمد السادس معروض للبيع بـ 425 مليون أورو
منوعات
منوعات
سيدة فرنسا الأولى تلجأ للقضاء رداً على تشهير.. “كانت رجلاً في طفولتها”
منوعات
منوعات
تحديث هام من آبل ينهي مشكلة إصلاح هواتف “آيفون” المعطلة
منوعات
منوعات