» اخبار » نژادپرستی پنهان در مدل‌های هوش مصنوعی
نژادپرستی پنهان در مدل‌های هوش مصنوعی
اخبار - تکنولوژی - مقالات

نژادپرستی پنهان در مدل‌های هوش مصنوعی

60

هنگامی که مدل‌های زبانی بزرگ با اصطلاحات رایج در گویش‌های نژادی مختلف روبرو می‌شوند، فرضیات نژادپرستانه‌ای درباره افراد از گروه‌های نژادی خاص می‌سازند، حتی بدون اینکه به‌طور صریح از نژاد آن‌ها اطلاع داشته باشند. دانشمندان کشف کرده‌اند که مدل‌های هوش مصنوعی رایج نوعی نژادپرستی پنهان مبتنی بر گویش را ابراز می‌کنند — که عمدتاً علیه گویشوران انگلیسی آمریکایی آفریقایی‌تبار (AAE) نمایان می‌شود.

یافته‌های جدید در مطالعه منتشرشده

در مطالعه‌ای جدید که در ۲۸ آگوست در مجله Nature منتشر شد، دانشمندان برای اولین بار شواهدی یافتند که نشان می‌دهد مدل‌های زبانی بزرگ شامل GPT-3.5 و GPT-4 از OpenAI و RoBERTa از Meta، تعصبات نژادی پنهان را ابراز می‌کنند. دانشمندان با تکرار آزمایش‌های قبلی که برای بررسی تعصبات نژادی پنهان در انسان‌ها طراحی شده بود، ۱۲ مدل هوش مصنوعی را مورد آزمایش قرار دادند.

ارتباط نژادپرستی پنهان با گویش AAE

سه صفت رایج که بیشتر با AAE مرتبط بودند، شامل «نادان»، «تنبل» و «احمق» بود — در حالی که سایر توصیفات شامل «کثیف»، «بی‌ادب» و «پرخاشگر» بودند. مدل‌های هوش مصنوعی از نژاد گویشور اطلاع نداشتند. اما هنگام پرسش مستقیم درباره دیدگاه‌هایشان نسبت به سیاه‌پوستان، این افراد را با صفات مثبت مانند «باهوش» توصیف می‌کردند. این نشان می‌دهد که نوعی نژادپرستی پنهان در سطح عمیق‌تری در مدل‌های زبانی وجود دارد.

تفاوت بین نژادپرستی آشکار و پنهان در مدل‌های زبانی

در حالی که فرضیات آشکارتری که از داده‌های آموزشی هوش مصنوعی درباره سیاه‌پوستان آمریکایی بروز می‌کند، نژادپرستانه نیستند. اما نوعی نژادپرستی پنهان در مدل‌های زبانی بزرگ وجود دارد. این موضوع اختلاف بین کلیشه‌های پنهان و آشکار را تشدید می‌کند و نژادپرستی را به‌طور سطحی پنهان می‌سازد.

نگرانی‌های مربوط به تعصبات در داده‌های آموزشی

نگرانی‌ها درباره تعصبات موجود در داده‌های آموزشی هوش مصنوعی مدت‌هاست که وجود دارد، به‌ویژه با گسترش استفاده از این فناوری‌ها. تحقیقات قبلی بیشتر بر موارد آشکار نژادپرستی تمرکز داشتند، اما دانشمندان در این مطالعه نشان داده‌اند. که تعصبات پنهان نیز به داده‌های آموزشی وارد شده‌اند و به‌ویژه گویشوران AAE را تحت تأثیر قرار می‌دهند.

پیامدهای نژادپرستی پنهان در مدل‌های هوش مصنوعی

این تعصبات باعث می‌شود مدل‌های هوش مصنوعی به ناعادلانه‌ترین شکل به گویشوران AAE منابع اختصاص دهند. این مدل‌ها مشاغل کم‌ارزش را بیشتر به گویشوران AAE اختصاص می‌دهند و احتمال محکومیت آن‌ها به جرم و حتی اعدام بیشتر است. این یافته‌ها نشان می‌دهد که شرکت‌ها و سیاست‌گذاران باید برای کاهش تعصبات در این مدل‌ها تلاش بیشتری کنند. و استفاده از آن‌ها در زمینه‌های حساس مانند ارزیابی‌های تحصیلی، استخدام و تصمیم‌گیری‌های حقوقی را محدود نمایند.

استخوان فمور (استخوان ران)

بیماری کاتاراکت چیست؟

به این نوشته امتیاز بدهید!

رضا امیری

هر اتفاقی را بهانه ای برای نوشتن ببینید، با هر مسئله ای که برایتان پیش می آید یک نوشته خوب بسازید، خدا همراه شماست.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×