- تنشأ التحيزات التكنولوجية من البيانات غير المتوازنة، والقرارات الخوارزمية المبهمة، والتحيزات البشرية التي تتسرب إلى دورة حياة الذكاء الاصطناعي بأكملها.
- يميز المعهد الوطني للمعايير والتكنولوجيا بين التحيزات الحسابية والبشرية والمنهجية، والتي تتفاعل وتعزز بعضها البعض في سياقات اجتماعية غير متكافئة.
- تُظهر الأمثلة الواقعية في مجالات الرعاية الصحية والعدالة والتوظيف والائتمان ضرراً ملموساً وتؤكد الحاجة إلى عمليات التدقيق والمساءلة والإشراف البشري.
- تُعدّ الأنظمة والتعليم والفرق المتنوعة ركائز أساسية لتصميم ونشر تقنيات أكثر عدلاً ومسؤولية.

نحن نعيش محاطين بالخوارزميات: فهي توصي لنا بالأشياء. سلسلة، منح الاعتمادات، تصفية السير الذاتية و إنهم يعطون الأولوية للأخبار على وسائل التواصل الاجتماعي.كثيراً ما نفترض أن هذه القرارات، كونها صادرة عن جهاز كمبيوتر، أكثر موضوعية وعدلاً من تلك التي يتخذها الإنسان. لكن الحقيقة أكثر إزعاجاً: فالتكنولوجيا ليست محايدة أيضاً.
عندما يكون جهاز الكمبيوتر أو النظام الذكاء الاصطناعي إنها تتضمن تحيزات؛ هذه الأخطاء لا تبقى في العالم الرقمي: بل تنتقل إلى الحرمان من الفرص، والتشخيصات الأقل دقة، والمراقبة غير المتكافئة، أو القرارات الاقتصادية غير العادلةإن فهم من أين تأتي هذه التحيزات التكنولوجية، وكيف يتم تصنيفها، وما الضرر الذي تسببه، هو أمر أساسي لتطوير واستخدام الذكاء الاصطناعي المسؤول حقًا.
ما هي الانحيازات التكنولوجية ولماذا لا تُعتبر مجرد "أعطال تقنية"؟
في العالم الرقمي، نتحدث عن التحيز عندما يقوم نظام الكمبيوتر بمعالجة المعلومات بطريقة... غير متساوٍ، ومنهجي، ويمكن التنبؤ بهتفضيل بعض المجموعات على غيرها دون مبرر مشروع. هذه ليست مجرد أخطاء فردية، بل أنماط متكررة في النتائج.
قد تظهر هذه التحيزات التكنولوجية على مستويات عديدة: في البيانات المستخدمة لتدريب النموذج، وفي تصميم الخوارزمية، وفي كيفية تصنيف الأمثلة، وفي المقاييس المختارة للتحسين، أو حتى في كيفية تفسير البشر لمخرجات النظام. في نهاية المطاف، هذه كلها تحيزات تكنولوجية. إنها تعكس وتضخم التحيزات البشرية، وأوجه عدم المساواة التاريخية، وقرارات التصميم.
من الأخطاء الشائعة جدًا افتراض أن أجهزة الكمبيوتر "لا ترتكب أخطاء" لأنها تتبع قواعد رياضية. لكن وراء كل حل من حلول الذكاء الاصطناعي توجد... الفرق التي تقرر ما هي البيانات التي يجب استخدامها، وما هي المتغيرات المهمة، وكيف يُقاس النجاح، وما هي الأخطاء المقبولة؟ إذا كانت هذه الفرق تتشارك في نقاط ضعف أو تعمل بمعلومات غير مكتملة، فقد تكون الأنظمة الناتجة معيبة. غير عادلة للغاية على الرغم من أنها تعمل بشكل جيد "تقنياً"..
التحيز في بيانات التدريب: عندما تنشأ المشكلة في قاعدة البيانات
تتعلم أنظمة الذكاء الاصطناعي والتعلم الآلي من الأمثلة. إذا كان مجموعة البيانات إذا كانت طريقة التدريب غير متوازنة، أو مصنفة بشكل خاطئ، أو تحمل تحيزات تاريخية، فسيتعلم النموذج تلك الأنماط المتحيزة كما لو كانت هي "وضع العالم الطبيعي"من هنا ينشأ جزء كبير من المشكلة.
أحد المصادر الكلاسيكية هو تحيز التمثيل: تظهر بعض المجموعات بشكل مفرط بينما تكاد مجموعات أخرى لا توجد في البيانات. خوارزمية التعرف على الوجه إذا تم تدريب الذكاء الاصطناعي بشكل أساسي على صور لأشخاص بيض، فسيميل إلى الأداء الجيد مع هذه المجموعة، بينما سيرتكب أخطاءً أكثر بكثير مع السود أو الآسيويين أو غيرهم من الأقليات. وينطبق الأمر نفسه إذا كانت بيانات الشرطة تأتي بشكل رئيسي من أحياء ذات أغلبية عرقية: سيفترض الذكاء الاصطناعي معدلات جريمة أعلى هناك، بينما في الواقع يوجد ببساطة وجود أمني تاريخي أكبر.
كما أن لكيفية تصنيف البيانات تأثيراً بالغ الأهمية. فعندما يقوم البشر بتصنيف البيانات أو وصفها أو منحها درجات، فإنهم قد يُدخلون تحيزاتهم الخاصة. أدوات اختيار الموظفين أولئك الذين يصنفون بعض الملفات الشخصية على أنها "أكثر صلاحية" ربما يكونون قد تلقوا تدريباً باستخدام تصنيفات استبعدت، دون سبب موضوعي، النساء أو كبار السن أو المرشحين من جامعات أو دول معينة.
في الإحصاء، نتحدث عن التحيز عندما لا تمثل العينة تمثيلاً دقيقاً للمجتمع الذي يتم نمذجته. والنتيجة هي نموذج يبدو أنه يعمل بشكل جيد مع بيانات التدريب، ولكنه لا يحقق الأداء المطلوب في الواقع. إنها تُفضّل بشكل منهجي بعض الفئات وتُعاقب فئات أخرى. التي كانت ممثلة تمثيلاً ناقصاً أو موصوفة بشكل سيئ في قاعدة البيانات الأصلية.
التحيز الخوارزمي: قرارات التصميم التي تضخم عدم المساواة
حتى مع وجود بيانات جيدة، قد يُدخل تصميم الخوارزمية تحيزًا. ونتحدث عن التحيز الخوارزمي عندما تتولد التحيزات بشكل متكرر نتيجةً لطريقة بناء النموذج أو القواعد التي يطبقها. نتائج غير عادلة، أو أخطاء متحيزة، أو تأثيرات غير متناسبة حول فئات معينة.
يظهر مثال واضح في النماذج التي تستخدم متغيرات تبدو محايدة، مثل الرمز البريدي أو مستوى الدخل أو أنماط استهلاك معينة. على الرغم من أن الخوارزمية لا "ترى" العرق أو الجنس بشكل مباشر، إلا أن هذه المتغيرات يمكن أن تعمل كـ وكلاء للفئات الحساسةإعادة إنتاج التحيزات العرقية أو الطبقية أو الجنسية التي لم يتم تقنينها بشكل صريح.
قد تتسلل تحيزات المطورين إلى البرمجة أيضاً. فإذا قرر مصمم النظام، بوعي أو بغير وعي، إعطاء وزن أكبر لبعض العوامل من غيرها، فقد ينقل تحيزاته الخاصة. وجهة نظر شخصية متحيزة حول ما يشكل "الجدارة" أو "المخاطرة" أو "الوضع الطبيعي".. النتيجة: خوارزميات الائتمان التي تعاقب تلقائياً الأفراد ذوي الدخل المنخفض، أو أنظمة التوصية التي تسكت بشكل منهجي محتوى أو مجموعات معينة.
يؤكد المعهد الوطني للمعايير والتكنولوجيا (NIST) أن مجرد تصحيح ما يُرى على السطح (نتائج النموذج المدرب مسبقًا) هو البقاء في غيض من فيضلمعالجة التحيز الخوارزمي بشكل صارم، يجب مراجعة دورة التصميم بأكملها، بدءًا من صياغة المشكلة وحتى المقاييس المستخدمة لتقييم ما إذا كان النظام مقبولاً.
التحيزات البشرية والمعرفية: كيف يتسرب تفكيرنا إلى التكنولوجيا
لا تنشأ التحيزات في الآلة، بل في عقولنا. نحن البشر نستخدم اختصارات ذهنية، وأساليب استدلالية، ومعتقدات مسبقة لاتخاذ قرارات سريعة في عالم معقد. هذه الاختصارات تُنتج التحيزات المعرفية أنه عندما نشارك في تصميم أو تدريب أو الإشراف على أنظمة الذكاء الاصطناعي، ينتهي بنا الأمر إلى الانتقال إلى الكود والبيانات.
من أشهر هذه التحيزات تحيز التأكيد. فنحن نميل إلى البحث عن المعلومات التي تتوافق مع ما نعتقده مسبقًا، وتفسيرها، وتذكرها، متجاهلين أو مقللين من شأن أي شيء يتعارض معها. فإذا اعتقد فريق تطوير أن نمطًا معينًا هو "طبيعي"، فقد اختر البيانات والمقاييس التي تدعم فرضيتكباستثناء الحالات التي تتحدى ذلك. يؤثر هذا على كل من اختيار المتغيرات والتحقق من صحة النموذج.
مثال كلاسيكي آخر هو تحيز التثبيت: فنحن نولي أهمية مفرطة للمعلومة الأولى التي نتلقاها. في السياقات الرقمية، قد يجعل السعر الأولي المرتفع أي انخفاض لاحق في السعر يبدو وكأنه "عرض لا يُقاوم"، حتى لو لم يكن كذلك. يحدث شيء مشابه عندما يعرض نظام الذكاء الاصطناعي توصية أو تنبؤًا أوليًا: إذ يعمل هذا الناتج الأولي كـ ركيزة للقرارات اللاحقة من المستخدمين أو المحللين أو مديري الأعمال.
يلعب تأثير الهالة دورًا أيضًا: فنحن نُقيّم الشخص أو المنتج أو الفكرة بناءً على سمة بارزة. في عمليات الاختيار الآلية، قد تؤدي شهادة من جامعة مرموقة إلى توجيه خوارزمية، مُدرّبة على بيانات تاريخية، نحو... المبالغة المنهجية في تقدير أولئك الذين يأتون من تلك المراكز والاستهانة بالمرشحين المؤهلين بنفس القدر أو أكثر من المؤسسات الأقل شهرة.
يعني التحيز السلبي أننا نولي اهتمامًا أكبر للمعلومات السلبية ونعطيها وزنًا أكبر. في نماذج كشف الاحتيال أو المخاطر، يمكن أن يترجم هذا إلى خوارزميات تعطي الأولوية لتجنب أخطاء معينة لدرجة أنها تنتهي إلى مما يؤدي إلى العديد من النتائج الإيجابية الخاطئةمعاقبة الأبرياء لمجرد أنهم يشبهون إحصائياً الحالات الإشكالية من الماضي.
تُدخَل جميع هذه التحيزات المعرفية إلى النظام في نقاط متعددة: عند تحديد المشكلة المراد حلها، وعند تصميم البنية، وعند تصنيف البيانات يدويًا، وعند اختيار دوال الخسارة (التي قد تُعاقب بعض الأخطاء أكثر من غيرها)، أو عند تفسير النتائج. ولهذا السبب يُصرّ المعهد الوطني للمعايير والتكنولوجيا (NIST) على أن العوامل البشرية والاجتماعية والمؤسسية إنها مصدر مهم للتحيز مثل البيانات أو الخوارزميات، وغالبًا ما يتم تجاهلها.
إلى جانب الأخطاء الإحصائية أو المعرفية، توجد تحيزات متأصلة في بنية المجتمع نفسها: العنصرية، والتمييز الجنسي، وعدم المساواة الطبقية، والتمييز ضد فئات عمرية أو هويات معينة. ولا تنبع هذه التحيزات المنهجية دائمًا من التحيزات الواعية ليس الأمر متعلقاً بأفراد محددين، بل بالمعايير والممارسات والمؤسسات التي عملت لعقود أو قرون.
عندما نجمع بيانات تاريخية لتدريب أنظمة الذكاء الاصطناعي، فإننا في الواقع نُجسّد ذلك التاريخ غير المتكافئ في شكل أرقام وسجلات رقمية. وتنتهي الخوارزميات التي تتعلم من هذه البيانات إلى إعادة إنتاج ما "كان عليه الحال دائمًا": عدد أقل من النساء في المناصب القيادية، ومزيد من الاعتقالات في أحياء معينة، وفرص أقل للحصول على الائتمان لبعض المجتمعات. بدلًا من أن يُصحّح الذكاء الاصطناعي الظلم، ويعزز ذلك بمظهر الموضوعية.
تُفرّق بعض الأطر هنا بين التحيز الاجتماعي والتحيز الإحصائي. يرتبط التحيز الاجتماعي بالأحكام المسبقة والصور النمطية والميول المتأصلة في ثقافة معينة. أما التحيز الإحصائي فينشأ عندما يكون هناك اختلاف منهجي بين ما تُقدّره البيانات وما لا تُقدّره. الواقع الذي يُفترض أنهم يمثلونهكلاهما مترابطان: فالبيانات غير المتوازنة غالباً ما تكون انعكاساً رقمياً لعدم المساواة الاجتماعية الموجودة مسبقاً.
تساهم المعايير والعمليات والممارسات المؤسسية طوال دورة حياة الذكاء الاصطناعي أيضًا في ذلك. وتشمل هذه المعايير والعمليات والممارسات تحديد المشاريع التي يتم تمويلها والقطاعات التي تحظى باهتمام أكبر، وصولًا إلى كيفية تطبيق الأنظمة في الشركات والإدارات العامة. والنتيجة هي تسرب التحيزات المنهجية إلى... مجموعات البيانات، في النماذج وفي طريقة استخدامها على الأرض.
تصنيف المعهد الوطني للمعايير والتكنولوجيا: التحيزات الحسابية والبشرية والمنهجية
أصبح منشور المعهد الوطني للمعايير والتكنولوجيا الخاص رقم 1270، بعنوان "نحو معيار لتحديد وإدارة التحيز في الذكاء الاصطناعي"، مرجعًا أساسيًا لفهم هذا الموضوع. ويحدد هذا المنشور ثلاث فئات رئيسية للتحيز في الذكاء الاصطناعي: التحيزات الحسابية أو الإحصائية، والتحيزات البشرية، والتحيزات النظامية.
الانحيازات الحسابية هي تلك التي يمكن قياسها مباشرةً في أداء نموذج الذكاء الاصطناعي المُدرَّب: الاختلافات في معدلات الخطأ، أو الدرجات، أو النتائج تبعًا لمجموعة السكان. وتشمل هذه الانحيازات أمورًا مثل... تحيز اختيار البيانات (عندما لا تمثل مجموعة التدريب الواقع بدقة) أو التحيز الخوارزمي بالمعنى الدقيق (عندما تفضل طريقة الحساب نتائج معينة).
تشمل التحيزات البشرية جميع الأحكام المسبقة والأخطاء المنهجية في تفكير الأشخاص المشاركين في دورة حياة الذكاء الاصطناعي. ويشمل ذلك التحيزات المعرفية التي سبق ذكرها (تحيز التأكيد، وتحيز التثبيت، وتأثير الهالة، وتحيز السلبية، وما إلى ذلك)، والتي تؤثر على جمع البيانات، وتصنيفها، وتحديد الأهداف، واختيار المقاييس، وتفسير التقارير التي يُصدرها النظام.
وأخيرًا، تشير التحيزات المنهجية إلى أوجه عدم المساواة الهيكلية المتأصلة في المجتمع ومؤسساته. وتنعكس هذه التحيزات في البيانات التاريخية واللوائح القائمة، و الممارسات التنظيمية وفي الحوافز الاقتصادية. ومن الأمثلة الواضحة على ذلك أنه إذا تم اعتقال عدد أكبر من الأشخاص من أقلية معينة لعقود من الزمن بسبب ممارسات الشرطة التمييزية، فإن البيانات الناتجة ستؤدي إلى استهداف نظام التنبؤ بالجريمة لتلك المجتمعات نفسها بشكل متكرر.
كما يسلط المعهد الوطني للمعايير والتكنولوجيا الضوء على ثلاثة تحديات رئيسية للتخفيف من هذه التحيزات: تحسين جودة وتنوع مجموعات البيانات، وتطوير أطر اختبار وتقييم قوية تتضمن معايير الإنصاف، ومعالجة هذه التحديات بشكل مباشر. العوامل البشرية والتنظيميةدمج الأخلاقيات والإشراف طوال العملية بأكملها.
التحيز نحو الأتمتة: الاعتماد المفرط على الآلة
إضافةً إلى التحيزات المذكورة سابقًا، ركزت اللوائح الأوروبية على ظاهرة شائعة بشكل متزايد: التحيز نحو الأتمتة. تشير لائحة الاتحاد الأوروبي بشأن الذكاء الاصطناعي، في المادة 14.4 (ب)، إلى خطر ميل الناس إلى الاعتماد التلقائي أو المفرط في النتائج التي يولدها نظام الذكاء الاصطناعي، حتى لو كانت هذه النتائج خاطئة أو متحيزة.
يرتبط هذا التحيز الناتج عن الأتمتة ارتباطًا وثيقًا بتحيز التأكيد وتحيز التثبيت. فإذا وثقنا ثقة عمياء بمخرجات النظام، فمن المرجح أن نبحث عن معلومات تُعزز ما قاله الجهاز، وأن نعتبر تلك الاستجابة نقطة مرجعية أولية لكل شيء آخر. وتصبح اقتراحات الذكاء الاصطناعي... "الحقيقة افتراضياً" وهذا يؤثر على الحكم البشري.
لهذا السبب تُصرّ اللوائح الأوروبية على ضرورة وجود إشراف بشري دائم على الأنظمة عالية المخاطر (مثل تلك التي تمسّ الحقوق الأساسية). لا يتعلق الأمر بمجرد قيام شخص ما بالضغط على زر في النهاية، بل بضمان قدرته على... قدّم السياق، وناقش القرار التلقائي، ثمّ قم بعكسه. عندما يكتشف أنها لا تتناسب مع واقع الحالة المحددة.
أمثلة واقعية على التحيزات التكنولوجية وعواقبها
عندما تتجسد التحيزات التكنولوجية في أنظمة العالم الحقيقي، يكون الضرر ملموسًا للغاية. وقد عانت منظمات من جميع الأنواع من ضربات على مستوى السمعة والقانون بسبب فشلها في توقع هذه المواقف، بينما يمكن للأفراد المتضررين لا أعرف حتى أن خوارزمية اتخذت قراراً غير عادل.
في مجال الرعاية الصحية، أدى نقص تمثيل النساء أو الأقليات في البيانات السريرية إلى قيام بعض خوارزميات التشخيص بتقديم نتائج أقل دقة لبعض المجموعاتلوحظ أن أنظمة دعم التشخيص بمساعدة الحاسوب تعمل بشكل أسوأ مع المرضى الأمريكيين من أصل أفريقي مقارنة بالمرضى البيض، مما يؤدي إلى استمرار أوجه عدم المساواة القائمة في الرعاية الصحية.
في بيئة العمل، اضطرت شركة تقنية كبيرة إلى إلغاء نظام توظيف قائم على الذكاء الاصطناعي بعد اكتشافها أنه يعاقب النساء بشكل منهجي. فقد تعلمت الخوارزمية من تاريخ توظيف يهيمن عليه الذكور، مما أدى إلى يفضلون السير الذاتية المشابهة لتلك الخاصة بالرجال الذين كانوا بالفعل ضمن فريق العمل وكانوا يقومون بالفعل بتصفية علامات الجنس الأنثوي بشكل سلبي.
ومن الأمثلة الأخرى أنظمة تصنيف المخاطر في نظام العدالة الجنائية، مثل نظام COMPAS في الولايات المتحدة، الذي اتُهم بتخصيص معدلات أعلى لمخاطر العودة إلى الإجرام للأشخاص السود مقارنةً بالبيض في ظروف مماثلة. ورغم دفاع مزودي هذه الأنظمة عن تقنيتهم، إلا أن العديد من التحليلات المستقلة سلطت الضوء على هذه المشكلة. أنماط التفاوت العرقي.
في عالم رؤية الحاسوب، وصلت أدوات تصنيف الصور التلقائية إلى حد تصنيف صور الأشخاص السود بعبارات مسيئة للغاية، مما يسلط الضوء على نقص تنوع البيانات وغياب ضوابط الجودة والحساسية الثقافية. وأظهرت الدراسات التي أجريت باستخدام مولدات الصور مثل Stable Diffusion أو أدوات مماثلة أنه عند طلب صور لمهن محددة، ظهرت في الغالب الرجال البيض كمديرينبينما ارتبطت النساء والأشخاص ذوو البشرة الداكنة بوظائف ذات قيمة أقل أو حتى بأدوار إجرامية.
في مجال الائتمان والتمويل، قد تؤدي النماذج التي تستخدم التاريخ المصرفي أو الرمز البريدي أو أنماط إنفاق معينة كمتغيرات رئيسية إلى تمييز غير مباشر. فقد تُرفض طلبات قروض لأفراد يتمتعون بجدارة ائتمانية كاملة، لأن النظام، استنادًا إلى بيانات تاريخية، يعتبر أن أولئك الذين يعيشون في أحياء معينة أو لديهم وضع اجتماعي واقتصادي محدد غير مرغوب فيهم. "مزيد من المخاطر"على الرغم من أن التحليل الفردي يروي قصة مختلفة.
في مجال المراقبة والأمن، وُجهت انتقادات لأدوات الشرطة التنبؤية التي تستخدم بيانات الاعتقالات السابقة، وذلك لترسيخها التواجد الأمني المفرط في مجتمعات محددة. فإذا كانت منطقة ما تخضع لدوريات مكثفة لسنوات لأسباب عرقية أو طبقية، ستُظهر البيانات المزيد من الحوادث فيها، وستوصي الخوارزمية...
يعود مرارًا وتكرارًا، مما ينتج عنه حلقة التغذية الراجعة وهذا يضفي الشرعية على الممارسات التمييزية.
من أين تنشأ التحيزات الحاسوبية في دورة التكنولوجيا؟
بالنظر إلى دورة التطور التكنولوجي بأكملها، يمكن أن تظهر التحيزات في أي مرحلة تقريبًا. ففي جمع البيانات، يؤدي استخدام مصادر تاريخية غير متوازنة أو الاستبعاد المنهجي لبعض الفئات السكانية إلى زرع بذور المشكلة. وفي تصميم الخوارزميات، يؤثر اختيار المتغيرات والهياكل وأهداف التحسين على النتيجة. ما نوع الأخطاء سيتم التسامح معهم بشكل أكبر.
خلال مرحلة التدريب، يصبح مبدأ "المدخلات الخاطئة تؤدي إلى مخرجات خاطئة" (GIGO) ذا أهمية بالغة: إذا أدخلت بيانات خاطئة إلى النموذج، مهما بلغت دقة الخوارزمية، فستظل النتيجة خاطئة... ولكن مغلفة بلغة تقنية ومقاييس براقة. ويمكن أن يؤدي انحراف البيانات إلى ضعف أداء النموذج. حفظ أنماط الأغلبية ويفشلون فشلاً ذريعاً في الأقلية.
أثناء عملية التحقق، إذا تم قياس مقاييس الدقة العامة فقط دون تقسيمها حسب المجموعات الفرعية (الجنس، العمر، العرق، المنطقة، إلخ)، فقد يجتاز نموذج غير عادل الاختبارات لأنه "في المتوسط" يبدو أنه يعمل بشكل مثالي. ويتفاقم هذا الأمر إذا كان فريق التطوير متجانسًا للغاية. لا يطرح أسئلة معينة لأنها ليست جزءًا من تجاربهم الحياتية.
خلال مرحلة النشر، تظهر أيضًا تأثيرات حلقة التغذية الراجعة: إذ يمكن لنظام متحيز أن يؤثر على سلوك المستخدم ويولد بيانات جديدة تعزز الأنماط نفسها. على سبيل المثال، إذا كان محرك التوصيات يعرض أنواعًا معينة من المحتوى لملفات تعريف مستخدمين محددة فقط، فسيظهر بمرور الوقت أن هؤلاء المستخدمين لا يستهلكون سوى هذا النوع من المحتوى لأن لم يتمكنوا من الوصول إلى الباقي.
وأخيرًا، في تفسير النتائج، قد يؤدي تحيز الأتمتة وعدم القدرة على التفسير إلى دفع مديري الأعمال أو الأطباء أو القضاة أو مسؤولي التوظيف إلى قبول ما تقوله الآلة دون تساؤل، حتى عندما يتعارض ذلك مع النتائج. الأدلة النوعية التي لديهم في المقدمة
كيفية الحد من التحيز في التكنولوجيا والذكاء الاصطناعي
لا يوجد حل سحري للقضاء على التحيز تمامًا، ولكن هناك مجموعة من الممارسات التي يمكن أن تقلل منه بشكل كبير. أولها تنويع البيانات: التأكد من أن مجموعات التدريب تتضمن تمثيل كافٍ لجميع المجموعات ذات الصلة، مراجعة الاختلالات بشكل دوري وتصحيحها باستخدام الأساليب الإحصائية وأساليب أخذ العينات.
في الوقت نفسه، من الضروري وجود فرق تطوير متنوعة. فالتنوع في الجنس والخلفية الثقافية والتخصص والخبرة الحياتية يساعد على تحديد المشكلات التي قد تغفل عنها مجموعة متجانسة. إن العدالة الخوارزمية ليست مجرد مسألة رياضية؛ بل هي مسألة... التصميم الاجتماعي والتنظيمي.
أصبحت عمليات تدقيق الخوارزميات واختبارات العدالة شائعة بشكل متزايد. قبل نشر أي نظام في بيئة الإنتاج، يُنصح بتقييم أدائه مع مجموعات فرعية مختلفة، وأنواع الأخطاء التي يرتكبها، ومن هم الأكثر تأثرًا بها. ينبغي أن تكون عمليات التدقيق هذه دوري وشفافليس مجرد إجراء شكلي في بداية المشروع.
يلعب التفسير (الذكاء الاصطناعي القابل للتفسير، XAI) والشفافية دورًا محوريًا. فكلما كان فهم المستخدمين والجهات التنظيمية لكيفية اتخاذ النظام لقراراته وأسبابها أسهل، كلما سهُل اكتشاف التحيزات الخفية وتصحيحها. ويشمل ذلك توثيق مصدر البيانات، وقيود النموذج، والحالات التي... لا ينبغي استخدامه.
وأخيرًا، توفر اللوائح والأخلاقيات الإطار الذي يُلزمنا بأخذ كل هذا على محمل الجد. تشير مبادرات مثل FATML (الإنصاف والمساءلة والشفافية في التعلم الآلي)، ومبادئ FAIR للبيانات (قابلية الاكتشاف، وإمكانية الوصول، وقابلية التشغيل البيني، وقابلية إعادة الاستخدام)، ولوائح الاتحاد الأوروبي والولايات المتحدة، إلى نموذج يجب أن يكون فيه الذكاء الاصطناعي عادل ومسؤول وقابل للتحققوخاصة عندما يؤثر ذلك على الحقوق الأساسية.
التعليم والتنظيم: الركائز الأخرى لمكافحة التحيز
لا يعتمد تطوير التقنيات المسؤولة على المهندسين والشركات فحسب، بل يتطلب أيضاً أطراً قانونية ومواطنين واعين. ففي الولايات المتحدة، على سبيل المثال، صدر أمر تنفيذي ينص على إرشادات الذكاء الاصطناعييشمل ذلك توجيهات بشأن الشفافية والأمن ومكافحة التمييز الخوارزمي. ويركز، من بين أمور أخرى، على التدريب التقني والتنسيق المؤسسي للكشف عن انتهاكات حقوق الإنسان المحتملة ومقاضاة مرتكبيها.
في الاتحاد الأوروبي، يهدف نظام الذكاء الاصطناعي إلى ضمان أن تكون الأنظمة آمنة وشفافة وغير تمييزية وتحترم الحقوق الأساسية. ويميز النظام بين مستويات المخاطر المختلفة، وينص على أن الخوارزميات عالية المخاطر لا يمكنها اتخاذ القرارات بشكل مستقل تمامًا، بل يجب أن يكون هناك دائمًا عنصر بشري قادر على اتخاذ القرارات. التدخل والإشراف والتصحيح النظام.
علاوة على ذلك، يشترط النظام الأوروبي أن تكون النماذج قابلة للفهم: يجب أن يكون من الممكن تحديد الخصائص التي تؤثر على القرارات، وإلى أي مدى، وفي أي سياق. وهذا يفتح الباب أمام الأفراد والسلطات المعنية لـ التشكيك في القرارات الخوارزمية التي يعتبرونها غير عادلة، وهو أمر كان مستحيلاً عملياً في ظل الأنظمة المبهمة.
أما التعليم، فهو الركن الثالث الأساسي. لا يكفي تدريب المطورين على تقنيات التعلم الآلي؛ بل يجب عليهم فهم الأثر الاجتماعي لإبداعاتهم، وإدراك وجود التحيزات منذ البداية، والتصميم مع مراعاة ذلك. وإلا، مهما كانت نواياهم حسنة، سينتهي بهم الأمر إلى تكرار التحيزات نفسها. المظالم التي نراها بالفعل خارج الشاشة.
من المهم أيضاً أن يمتلك المستخدمون والمديرون والعاملون في مجال الرعاية الصحية والقضاة والصحفيون وعامة الناس فهماً أساسياً لكيفية عمل هذه التقنيات والمخاطر التي تنطوي عليها. عندها فقط سيتمكنون من المطالبة بالشفافية، والتشكيك في النتائج، والمشاركة بشكل واعٍ في النقاش الدائر حولها. ما نوع الذكاء الاصطناعي الذي نريده؟.
إن تحيزات التكنولوجيا ليست فشلاً معزولاً لبعض الخوارزميات المصممة بشكل سيئ، بل هي المظهر الرقمي لقيودنا وتحيزاتنا وأوجه عدم المساواة التاريخية؛ لذلك، فإن معالجتها تتطلب مزيجاً من البيانات الأفضل والنماذج الأكثر عدلاً والإشراف البشري الحقيقي والأطر القانونية المتينة والتعليم الواسع الذي يسمح لنا باستخدام الذكاء الاصطناعي كأداة لتحقيق المساواة وليس كمرآة تضخم أسوأ ما في مجتمعنا.
جدول المحتويات
- ما هي الانحيازات التكنولوجية ولماذا لا تُعتبر مجرد "أعطال تقنية"؟
- التحيز في بيانات التدريب: عندما تنشأ المشكلة في قاعدة البيانات
- التحيز الخوارزمي: قرارات التصميم التي تضخم عدم المساواة
- التحيزات البشرية والمعرفية: كيف يتسرب تفكيرنا إلى التكنولوجيا
- التحيزات النظامية والاجتماعية: عندما يرث الذكاء الاصطناعي التاريخ
- تصنيف المعهد الوطني للمعايير والتكنولوجيا: التحيزات الحسابية والبشرية والمنهجية
- التحيز نحو الأتمتة: الاعتماد المفرط على الآلة
- أمثلة واقعية على التحيزات التكنولوجية وعواقبها
- من أين تنشأ التحيزات الحاسوبية في دورة التكنولوجيا؟
- كيفية الحد من التحيز في التكنولوجيا والذكاء الاصطناعي
- التعليم والتنظيم: الركائز الأخرى لمكافحة التحيز