أساسيات الذكاء الاصطناعي
غير حيادي ومتحيز
يمكن أن تؤدي البيانات غير المكتملة إلى انحياز في نتائج أنظمة الذكاء الاصطناعي.
يمكن أن تتأثر نتائج أنظمة الذكاء الاصطناعي بالبيانات التي تُظهر بوضوح الانحيازات القائمة حاليًا في العالم الحقيقي.
يحدث انحياز في نتائج أنظمة الذكاء الاصطناعي عندما تكون البيانات التي يتم توفيرها للتعلّم منها غير شاملة بما يكفي، وبالتالي تبدأ الأنظمة في توجيه هذه البيانات نحو نتائج معيَّنة. ولأن البيانات هي وسيلة التعلّم الوحيدة لأنظمة الذكاء الاصطناعي، قد ينتهي بها الأمر بنسخ أي نتائج غير متكافئة أو انحيازية يجدها ضمن المعلومات الأصلية.
على سبيل المثال، إذا كنت تدرّب نظام ذكاء اصطناعي على التعرّف على أنواع الأحذية وعملت على تغذية هذا النظام بصور لأحذية رياضية فقط، لن يتعلّم هذا النظام التعرّف على الأحذية ذات الكعب العالي أو الصنادل أو الجِزم على أنها ضمن أحذية.
يؤدي الانحياز إلى صعوبة تطوير أنظمة الذكاء الاصطناعي بشكل يلبّي احتياجات الجميع.
ليس هناك نظام ذكاء اصطناعي متقدّم بما يكفي، ولا مجموعة بيانات شاملة كذلك بما يكفي، لمحاكاة تنوع التفكير البشري وفهمه. لذا، يمكن أن يمثّل هذا تحديًا كبيرًا عندما ننظر إلى قدرة الذكاء الاصطناعي على التأثير في تجارب الأشخاص الحقيقيين.
إذا كان هناك نظام ذكاء اصطناعي يستعين به الرؤساء التنفيذيون في فلترة المرشّحين الذين تتطابق خبراتهم مع متطلبات الوظائف المُعلَن عنها لعقد مقابلات شخصية معهم، قد يتعلّم هذا النظام تفضيل المرشّحين الذكور لمجرد توفُّر سير ذاتية ناجحة مدمَجة في هذا النظام بهدف التعلُّم منها. وقد ثبت من خلال البيانات المسجَّلة أن هناك انحيازًا مجتمعيًا للمرشّحين الذكور.
لضمان اتّسام نتائج أنظمة الذكاء الاصطناعي بالشفافية والحد من إمكانية انحيازها، يحرص المبرمجون على تصميم أنظمتهم وتنظيم بياناتهم بدقة بالغة. وهذه هي الطريقة الوحيدة لضمان عمل الأنظمة على أساس يناسب الجميع.