نژادپرستی پنهان در مدلهای هوش مصنوعی
هنگامی که مدلهای زبانی بزرگ با اصطلاحات رایج در گویشهای نژادی مختلف روبرو میشوند، فرضیات نژادپرستانهای درباره افراد از گروههای نژادی خاص میسازند، حتی بدون اینکه بهطور صریح از نژاد آنها اطلاع داشته باشند. دانشمندان کشف کردهاند که مدلهای هوش مصنوعی رایج نوعی نژادپرستی پنهان مبتنی بر گویش را ابراز میکنند — که عمدتاً علیه گویشوران انگلیسی آمریکایی آفریقاییتبار (AAE) نمایان میشود.
یافتههای جدید در مطالعه منتشرشده
در مطالعهای جدید که در ۲۸ آگوست در مجله Nature منتشر شد، دانشمندان برای اولین بار شواهدی یافتند که نشان میدهد مدلهای زبانی بزرگ شامل GPT-3.5 و GPT-4 از OpenAI و RoBERTa از Meta، تعصبات نژادی پنهان را ابراز میکنند. دانشمندان با تکرار آزمایشهای قبلی که برای بررسی تعصبات نژادی پنهان در انسانها طراحی شده بود، ۱۲ مدل هوش مصنوعی را مورد آزمایش قرار دادند.
ارتباط نژادپرستی پنهان با گویش AAE
سه صفت رایج که بیشتر با AAE مرتبط بودند، شامل «نادان»، «تنبل» و «احمق» بود — در حالی که سایر توصیفات شامل «کثیف»، «بیادب» و «پرخاشگر» بودند. مدلهای هوش مصنوعی از نژاد گویشور اطلاع نداشتند. اما هنگام پرسش مستقیم درباره دیدگاههایشان نسبت به سیاهپوستان، این افراد را با صفات مثبت مانند «باهوش» توصیف میکردند. این نشان میدهد که نوعی نژادپرستی پنهان در سطح عمیقتری در مدلهای زبانی وجود دارد.
تفاوت بین نژادپرستی آشکار و پنهان در مدلهای زبانی
در حالی که فرضیات آشکارتری که از دادههای آموزشی هوش مصنوعی درباره سیاهپوستان آمریکایی بروز میکند، نژادپرستانه نیستند. اما نوعی نژادپرستی پنهان در مدلهای زبانی بزرگ وجود دارد. این موضوع اختلاف بین کلیشههای پنهان و آشکار را تشدید میکند و نژادپرستی را بهطور سطحی پنهان میسازد.
نگرانیهای مربوط به تعصبات در دادههای آموزشی
نگرانیها درباره تعصبات موجود در دادههای آموزشی هوش مصنوعی مدتهاست که وجود دارد، بهویژه با گسترش استفاده از این فناوریها. تحقیقات قبلی بیشتر بر موارد آشکار نژادپرستی تمرکز داشتند، اما دانشمندان در این مطالعه نشان دادهاند. که تعصبات پنهان نیز به دادههای آموزشی وارد شدهاند و بهویژه گویشوران AAE را تحت تأثیر قرار میدهند.
پیامدهای نژادپرستی پنهان در مدلهای هوش مصنوعی
این تعصبات باعث میشود مدلهای هوش مصنوعی به ناعادلانهترین شکل به گویشوران AAE منابع اختصاص دهند. این مدلها مشاغل کمارزش را بیشتر به گویشوران AAE اختصاص میدهند و احتمال محکومیت آنها به جرم و حتی اعدام بیشتر است. این یافتهها نشان میدهد که شرکتها و سیاستگذاران باید برای کاهش تعصبات در این مدلها تلاش بیشتری کنند. و استفاده از آنها در زمینههای حساس مانند ارزیابیهای تحصیلی، استخدام و تصمیمگیریهای حقوقی را محدود نمایند.