التعليقات مغلقة لهذا المنشور
منوعات
“العنصرية” تدخل عالم أنظمة التعرف على الوجوه
نشر في: 15 فبراير 2018
وجدت دراسة حديثة عيبا جديدا في برامج التعرف على الوجوه، عقب عدم قدرتها على التمييز بين الأشخاص ذوي البشرة السمراء أو الداكنة.
وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية.
ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة.
وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20%.
وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها.
وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة".
وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات.
وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم.
وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية.
ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة.
وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20%.
وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها.
وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة".
وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات.
وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم.
وجدت دراسة حديثة عيبا جديدا في برامج التعرف على الوجوه، عقب عدم قدرتها على التمييز بين الأشخاص ذوي البشرة السمراء أو الداكنة.
وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية.
ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة.
وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20%.
وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها.
وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة".
وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات.
وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم.
وطرح مختبر MIT Media مشروع "Gender Shades"، لاختبار برامج التعرف على الوجوه في مايركوسوفت وIBM وFace++، حيث شملت الدراسة أكثر من 1200 صورة لأشخاص من 6 بلدان إفريقية وأوروبية.
ووجد الباحثون أنه يمكن للبرامج تخمين جنس الشخص بنسبة 99%، ولكنها ارتكبت أخطاء بنسبة أكبر من 35%، عند دراسة وجوه أصحاب البشرة الداكنة.
وتسببت صور الرجال بحوالي 8% من الأخطاء، في حين تجاوزت نسبة الخطأ في صور النساء 20%. وارتكبت برامج التعرف على الوجوه أخطاء أقل عند تحديد الوجوه ذات البشرة الفاتحة، حيث تراوحت معدلات الخطأ بين 11 و20%.
وتقول الدراسة إنه في حين استخدام برامج التعرف على الوجوه بشكل متزايد من قبل الأنظمة القانونية في الولايات المتحدة، إلا أنه لم يتم اختبار النتائج بشكل عام للتأكد من دقتها.
وقال دوي بولامويني، المعد الرئيس للدراسة: "يتم تصميم هذا النوع من التكنولوجيا بناء على تقنيات التعلم الآلي التي تستند على البيانات. لذا، من المحتمل الحصول على نتائج متحيزة".
وذكر تقرير معهد ماساتشوستس للتكنولوجيا، أن هذا الخطأ التقني يتطلب اهتماما عاجلا، خاصة أن برامج التعلم الآلي تُستخدم حاليا في تحديد طلبات القروض والوظائف والجامعات.
وفي أغسطس الماضي، تم الكشف عن قيام الشرطة البريطانية بتصنيف أكثر من 20 مليون صورة للوجوه، أي ما يعادل ثلث سكان بريطانيا. وفي وقت سابق من هذا الشهر، بدأت الشرطة الصينية اختبارات نظارات التعرف على الوجوه، لتحديد المجرمين أو الهاربين المشتبه بهم.
ملصقات
اقرأ أيضاً
أنماط الأثاث التي يجب عليكِ تجنبها لتتميزي بمنزل عصري ومميز
منوعات
منوعات
اكتشاف أكثر من 20 ألف كويكب بالقرب من الأرض!
منوعات
منوعات
مطاعم في باريس تستعد لخداع السياح خلال الألعاب الأولمبية!
منوعات
منوعات
أخطاء عليك تجنبها خلال الأسبوع الأول في وظيفتك الجديدة
منوعات
منوعات
Lenovo تطلق حاسبا متطورا يعمل مع تقنيات الذكاء الاصطناعي
منوعات
منوعات
ميزات جديدة تظهر في “تليغرام”
منوعات
منوعات
بيع ساعة جيب أغنى رجل في سفينة تايتانيك بمبلغ قياسي + صورة
منوعات
منوعات