مقدمه
این مطالعه به بررسی چگونگی تأثیر طنز بر تبعیض در تصاویر تولید شده توسط هوش مصنوعی (AI) میپردازد. محققان بهطور خاص میخواستند ببینند آیا استفاده از ابزارهای هوش مصنوعی مانند ChatGPT و DALL-E3 برای خندهدارتر کردن تصاویر، نحوه نمایش گروههای مختلف مردم را تغییر میدهد یا خیر. این مطالعه بر روی این موضوع تمرکز دارد که آیا هوش مصنوعی تمایل دارد نمایشهای کلیشهای بیشتری از گروههای خاص ارائه دهد یا خیر. محققان این موضوع را انتخاب کردند زیرا ابزارهای هوش مصنوعی در حال محبوبتر و قدرتمندتر شدن هستند و درک هرگونه تعصبی که ممکن است معرفی کنند، مهم است.
روش اجرا
برای انجام این مطالعه، محققان از روشی به نام “حسابرسی پیشثبتشده” استفاده کردند که در آن مراحل تحقیق خود را از قبل برنامهریزی و بهصورت عمومی به اشتراک گذاشتند. آنها 600 تصویر ایجاد شده توسط هوش مصنوعی از 150 پرسش مختلف را تحلیل کردند. در ابتدا، تصاویر بر اساس توصیفهای ساده مانند “یک فرد در حال خواندن کتاب” ایجاد شدند. سپس از هوش مصنوعی خواسته شد تا این تصاویر را “خندهدارتر” کند و تغییرات در نمایش گروهها را یادداشت کردند.
مطالعه بر روی پنج ویژگی تمرکز داشت: نژاد، جنسیت، سن، وزن بدن و بینایی. چهار دستیار تحقیقاتی در تولید و تحلیل این تصاویر مشارکت داشتند. آنها از دو روش تحلیل اصلی برای شناسایی تعصبات استفاده کردند: بررسی تعصب کلی در تمام ویژگیها و تعصب در ویژگیهای خاص. مطالعه با محدودیتهایی مانند تعصبات احتمالی در مدلهای هوش مصنوعی و ماهیت ذهنی تصمیمگیری در مورد آنچه “خندهدارتر” است، مواجه بود.
نتایج و بحث
مطالعه نشان داد که وقتی از هوش مصنوعی خواسته شد تا تصاویر را “خندهدارتر” کند، اغلب نمایش گروههای کلیشهای مربوط به سن، وزن بدن و بینایی را افزایش داده و نمایش مربوط به نژاد و جنسیت را کاهش داده است. این نشان میدهد که هوش مصنوعی ممکن است تعصباتی علیه گروههایی که کمتر حساسیت سیاسی دارند، مانند افراد مسن یا دارای نقص بینایی، معرفی کند، در حالی که با گروههایی که میتواند منجر به واکنش عمومی شود، مانند اقلیتهای نژادی و جنسیتی، محتاطتر برخورد میکند.
محققان نتیجه گرفتند که این الگوی تعصب میتواند کلیشههای مضر را تقویت کرده و منجر به تبعیض واقعی مانند سنگرایی یا فوبیای چاقی شود. آنها پیشنهاد میدهند که با وجود تلاشها برای کاهش تعصبات مربوط به نژاد و جنسیت در هوش مصنوعی، ممکن است سایر انواع تعصبات نادیده گرفته شوند. این تحقیق بر نیاز به رویکردهای جامعتر برای از بین بردن تمام اشکال تعصب در محتوای تولید شده توسط هوش مصنوعی تأکید میکند.
بهطور کلی، مطالعه تشویق به بررسی بیشتر چگونگی نمایش گروههای مختلف توسط مدلهای هوش مصنوعی میکند و پیشنهاد میدهد که شرکتها، سیاستگذاران و عموم مردم باید به تمام انواع تعصبات توجه کنند، نه فقط به حساسترین آنها.
منبع
-
Saumure, R., De Freitas, J. & Puntoni, S. Humor as a window into generative AI bias. Sci Rep 15, 1326 (2025).