إذا كان خصمك الذكاء الاصطناعي فمن تقاضي؟

نعتقد أن الذكاء الاصطناعي محايد لأنه نظام بلا مشاعر ولا مصالح، ولكن هل هو بالفعل محايد؟ تتحدث هذه المقالة عن التحيز في أنظمة تعلم الآلة وبياناتها.

شهد التاريخ قصصاً من الانحياز والعنصرية والإقصاء ضد مجموعات من الناس، ولطالما حاول الإنسان استغلال ما لديه من أدوات لتخفيف هذه التحيزات ومحاربة التمييز، من خلال حركات سلمية ترفض هذا التهميش الذي يمس الناس بناء على عرقهم أو جنسهم أو غيره، لتحفظ للإنسان كرامته.

ولأن الذكاء الاصطناعي أصبح وسيلة الإنسان الحديث التي يشرح أحلامه من خلالها، حاول أن يستخدمها لمحاكاة حكم الإنسان على ما يدور حوله، كتصنيف تغريدات الناس إلى متعصبة للهلال أو للنصر على سبيل المثال، باعتقاد أن الآلة أكثر موضوعية لخلوها من المشاعر والمصالح مع الناس.

وهذا ما حصل بالفعل في بعض محاكم الولايات المتحدة الأمريكية التي استخدمت الذكاء الاصطناعي لتقييم خطورة السجناء، بهدف تعزيز أحكام القضاة وقراراتهم، لكن المفاجئ أن النظام أظهر تحيزًا ضد السجناء من ذوي البشرة السوداء، حتى وإن تشابهت ظروف جرائمهم وحجمها مع سجناء من أعراق أخرى.

أثارت هذه التحيزات غير المبررة جدلاً دفع شركات ضخمة، كقوقل، وآي بي إم، وجامعات كبرى، للبحث في أخلاقيات تعلم الآلة وتأثيرها على الإنسان، وطرح أسئلة تستجوب الأعمال في هذا المجال، كـمصدر وجودة البيانات، وكيف جُمعت، وما الظروف المحيطة بعملية الجمع.

هل تتعلم الآلة بموضوعية؟ وتحكم بموضوعية؟ أم أنها تعكسنا نحن، أخلاقياتنا، وتفضيلاتنا، وقيمنا وحتى تحيزاتنا؟

لو بحثنا اليوم عن ترجمة لكلمات مثل: Doctor و CEO في ترجمة قوقل سنجد أنها تُتَرجم إلى طبيب ورئيس تنفيذي، لكن في المقابل لو ترجمنا كلمة Babysitter و Nurse ستترجم إلى جليسة أطفال وممرضة. هل انعكس التحيز التاريخي هنا والنظرة النمطية لمهن الرجال والنساء على البيانات المستخدمة في ترجمة قوقل؟

كيف ستؤثر هذه المشكلة التي ينظر لها كضعف في دقة الترجمة على نماذج الذكاء الاصطناعي التي تُطور من قبل الشركات للتنبؤ بخصائص الأشخاص الأكثر كفاءة لشغل وظيفة رئيس/ة تنفيذي/ة؟

الذكاء الاصطناعي

نتصل اليوم ونتواصل مع العالم من خلال التقنية، من خلال سيري، أليكسا، لينكد إن… كيف ستؤثر التحيزات غير المبررة في نماذج تعلم الآلة، التي تصنف النساء وتشكلهم وتعرفهم ممرضات وجليساتِ أطفال، والرجال أطباء ورؤساءَ تنفيذيين على حياتنا؟ كيف ستؤثر هذه التحيزات التي تحرم مجموعة من موارد، وتفرض على مجموعة الامتثال ضمن حدود العرق أو الطبقة أو الجنس على فرصنا؟ كيف تشكل ثقافتنا ومستقبلنا؟ وإلى أي مدى قد يقود تجاهلها إلى خلق فجوة وانعدام للثقة بين الإنسان والالة؟

معظم أنظمة الذكاء الاصطناعي في الوقت الحاضر لا تخلو من تحيزاتٍ قد تكون انعكاسًا لفريق عمل يحمل توجهاً وفكراً وجنسًا وعرقًا واحدًا، أو بسبب عدم شمولية البيانات لكل مستخدمي النظام، فمثلا لو علمت نموذج ذكاء اصطناعي كيف يقترح الحمية لمرضى السكر فقط، هل يمكنه أن يقترح حمية جيدة لمرضى الكلى؟ بالتأكيد لا… إذاً هل يكفي أن نضمِّن في بياناتنا عددًا متساويًا من كل فئة يخدمها المشروع؟… للأسف مرة أخرى لا… فلو افترضنا أن بياناتنا تشمل ٥٠٪ طلاباً عرباً و٥٠٪ طلاباً إنجليزيين، لكننا في الوقت نفسه استخدمنا عينة من الإنجليز تحصيلهم الدراسي عالٍ، مقابل عينة من الطلاب العرب تحصيلهم منخفض. هل يمكن أن يؤثر هذا التمثيل على نموذج تعلم الآلة الخاص بجامعة للتنبؤ بخصائص الطلبة المتميزين لابتعاثهم لبرامج ومخيمات وفرص ضخمة؟

لهذا الموضوع أبعاد عديدة، فهو من جهة تحدٍ تقني يتطلب تطوير خوارزميات آمنة وموثوقة وقوية وعالية الشفافية، يمكن فهمها وتتبعها، تتعلم من بيانات منوعة وشاملة. هذا إلى جانب أن السياسة تلعب دوراً هاماً في التحكم به. الاتحاد الأوروبي على سبيل المثال سن اللائحة العامة لحماية البياناتGDPR، التي تمنح الإنسان حق التفسير فيما يتعلق بأحكام أنظمة تعلم الآلة كما أن المفوضية الأوروبية نشرت مؤخراً إرشادات متعلقة بالذكاء الاصطناعي الجدير بالثقة والذي يقوم على ٤ مبادئ أخلاقية: احترام الاستقلال البشري، ومنع الضرر، والعدل، وقابلية التفسير. هذا الحرص سينعكس على وعي المجتمعات واستقرارها، سيشجع الناس على طرح الأسئلة الأخلاقية حول الأنظمة والأحكام الصادرة على الإنسان، سيجعلنا أكثر شفافية، وأقوى ارتباطاً بأخلاقنا وبعدلنا.

هذه الدعوة لإيجاد منصات علم بيانات تفتح أبوابها للعالم، يقودها الدليل وتغذيها الأفكار المنوعة، سيساهم في تحقيق غايتنا من هذه الأداة في حل قضايا العصر بإنصاف، وضمان مستقبل أفضل للبشرية.

كتابة: مشاعل الزيد | تدقيق: لميس المفوز

لمعرفة المزيد عن بودكاست ثورة ، وماهو البودكاست بشكل عام ، اقرأ هذه المقالة

تابعنا عبر تويتر و انستاجرام