براساس گزارشهای منتشر شده، ظاهراً هنگام استفاده از درخواستهایی مانند یک مرد آسیایی شرقی با یک زن سفیدپوست، هوش مصنوعی متا بهاشتباه تصویر تولید میکند.
به گزارش دیجیاتو، در گزارشهای جدیدی گفتهشده که هوش مصنوعی متا برای پیامهای بهظاهر سادهای مانند «مرد آسیایی و دوست قفقازی» یا «مرد آسیایی و همسر سفیدپوست» قادر به تولید تصویر نیست. در عوض، بهنظر میرسد که ابزار تولید تصویر این شرکت ترجیح میدهد تصویر افرادی از یک نژاد را تولید کنند، حتی اگر صراحتاً غیر از این خواسته شود.
انگجت تأیید کرده که در آزمایش خود از ابزار هوشمصنوعی تولید تصویر متا این مشکل را مشاهده کرده است. در گزارش این نشریه آمده است که با استفاده از درخواست «یک مرد آسیایی با یک دوست زن سفیدپوست» یا «یک مرد آسیایی با یک همسر سفیدپوست»، هوش مصنوعی متا فقط تصاویری از زوجهای آسیایی ایجاد کرده است.
همچنین زمانی که از دستور «گروه متنوعی از افراد» استفاده شده، هوش مصنوعی متا مجموعهای از ۹ فرد با چهره سفید و یک فرد رنگین پوست تولید کرده است.
علاوه بر این، ورج نیز در گزارش خود از این موضوع توضیح میدهد که نشانههای دیگری از سوگیری هوش مصنوعی متا وجود دارد، مانند تمایل به نشاندادن مردان آسیایی مسنتر و زنان آسیایی جوانتر. همچنین این ابزار گاهی اوقات بدون اینکه کاربر درخواست کرده باشد، از لباسهای فرهنگی خاص استفاده میکند.
هنوز مشخص نیست که چرا هوش مصنوعی متا با این نوع درخواستها دچار مشکل شده است، هر چند این اولین پلتفرم هوش مصنوعی نیست که بهدلیل سوگیریهای نژادی مورد بررسی قرار گرفته است. ماه گذشته مشخص شد هوش مصنوعی تولید تصویر Gemini گوگل نیز تصاویر تاریخی نادرستی تولید میکند و غول موتور جستجو اعلام کرد که امکان تولید تصاویر افراد توسط آن را متوقف میکند.
متا قبلاً گفته بود که هوش مصنوعی تولید تصویر آن در مرحله بتا قرار دارد و در نتیجه مستعد اشتباه است.