جستجو
Close this search box.
جستجو

بررسی تأثیر طنز بر تبعیض در تصاویر هوش مصنوعی

تأثیر طنز بر تعصب در تصاویر تولید شده توسط هوش مصنوعی

فهرست مطالب

مقدمه

این مطالعه به بررسی چگونگی تأثیر طنز بر تبعیض در تصاویر تولید شده توسط هوش مصنوعی (AI) می‌پردازد. محققان به‌طور خاص می‌خواستند ببینند آیا استفاده از ابزارهای هوش مصنوعی مانند ChatGPT و DALL-E3 برای خنده‌دارتر کردن تصاویر، نحوه نمایش گروه‌های مختلف مردم را تغییر می‌دهد یا خیر. این مطالعه بر روی این موضوع تمرکز دارد که آیا هوش مصنوعی تمایل دارد نمایش‌های کلیشه‌ای بیشتری از گروه‌های خاص ارائه دهد یا خیر. محققان این موضوع را انتخاب کردند زیرا ابزارهای هوش مصنوعی در حال محبوب‌تر و قدرتمندتر شدن هستند و درک هرگونه تعصبی که ممکن است معرفی کنند، مهم است.

روش اجرا

برای انجام این مطالعه، محققان از روشی به نام “حسابرسی پیش‌ثبت‌شده” استفاده کردند که در آن مراحل تحقیق خود را از قبل برنامه‌ریزی و به‌صورت عمومی به اشتراک گذاشتند. آن‌ها 600 تصویر ایجاد شده توسط هوش مصنوعی از 150 پرسش مختلف را تحلیل کردند. در ابتدا، تصاویر بر اساس توصیف‌های ساده مانند “یک فرد در حال خواندن کتاب” ایجاد شدند. سپس از هوش مصنوعی خواسته شد تا این تصاویر را “خنده‌دارتر” کند و تغییرات در نمایش گروه‌ها را یادداشت کردند.

مطالعه بر روی پنج ویژگی تمرکز داشت: نژاد، جنسیت، سن، وزن بدن و بینایی. چهار دستیار تحقیقاتی در تولید و تحلیل این تصاویر مشارکت داشتند. آن‌ها از دو روش تحلیل اصلی برای شناسایی تعصبات استفاده کردند: بررسی تعصب کلی در تمام ویژگی‌ها و تعصب در ویژگی‌های خاص. مطالعه با محدودیت‌هایی مانند تعصبات احتمالی در مدل‌های هوش مصنوعی و ماهیت ذهنی تصمیم‌گیری در مورد آنچه “خنده‌دارتر” است، مواجه بود.

نتایج و بحث

مطالعه نشان داد که وقتی از هوش مصنوعی خواسته شد تا تصاویر را “خنده‌دارتر” کند، اغلب نمایش گروه‌های کلیشه‌ای مربوط به سن، وزن بدن و بینایی را افزایش داده و نمایش مربوط به نژاد و جنسیت را کاهش داده است. این نشان می‌دهد که هوش مصنوعی ممکن است تعصباتی علیه گروه‌هایی که کمتر حساسیت سیاسی دارند، مانند افراد مسن یا دارای نقص بینایی، معرفی کند، در حالی که با گروه‌هایی که می‌تواند منجر به واکنش عمومی شود، مانند اقلیت‌های نژادی و جنسیتی، محتاط‌تر برخورد می‌کند.

محققان نتیجه گرفتند که این الگوی تعصب می‌تواند کلیشه‌های مضر را تقویت کرده و منجر به تبعیض واقعی مانند سن‌گرایی یا فوبیای چاقی شود. آن‌ها پیشنهاد می‌دهند که با وجود تلاش‌ها برای کاهش تعصبات مربوط به نژاد و جنسیت در هوش مصنوعی، ممکن است سایر انواع تعصبات نادیده گرفته شوند. این تحقیق بر نیاز به رویکردهای جامع‌تر برای از بین بردن تمام اشکال تعصب در محتوای تولید شده توسط هوش مصنوعی تأکید می‌کند.

به‌طور کلی، مطالعه تشویق به بررسی بیشتر چگونگی نمایش گروه‌های مختلف توسط مدل‌های هوش مصنوعی می‌کند و پیشنهاد می‌دهد که شرکت‌ها، سیاست‌گذاران و عموم مردم باید به تمام انواع تعصبات توجه کنند، نه فقط به حساس‌ترین آن‌ها.

منبع

  1. Saumure, R., De Freitas, J. & Puntoni, S. Humor as a window into generative AI bias. Sci Rep 15, 1326 (2025).

به اشتراک بگذارید:
به این نوشته امتیاز دهید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

به شبکه های اجتماعی باور بپیوندید