هوش مصنوعی روز به روز در حال پیشرفتهتر شدن است و اکنون موفق به خلق تصاویری شده که گاهی تشخیص جعلی بودن آنها بسیار سخت است، در ادامه با ۱۰ مجموعه دوتایی از تصاویر روبهرو خواهید شد که یا یکی از آنها واقعی و دیگری توسط هوش مصنوعی تولید شده یا هردو واقعی یا هردو جعلی هستند.
به گزارش ایسنابه نقل از آی ای، پیش از آن که به انتهای این مجموعه برای یافتن پاسخ درست سر بزنید، از میان تصاویر، مورد واقعی را انتخاب کنید و در نهایت توانایی خود در برابر فریب نخوردن از هوش مصنوعی را بسنجید.
یک.باور کنید یا خیر، تصویر سمت راست واقعی است.
دو.در این مورد نیز تصویر سمت راست واقعی است.
سه.در این مورد سمت چپ واقعی است.
چهار.تصویر سمت راست تصویر واقعی است.
پنج.هر دو جعلی هستند!
شش.هر دو واقعی هستند!
هفت.تصویر سمت چپ واقعی است.
هشت.تصویر سمت راست واقعی است.
نه.هر دو جعلی هستند!
ده.تصویر سمت چپ واقعی است.
همانطور که متوجه شدید، این تصاویر بسیار باورپذیر هستند. به حدی که بسیاری از کارشناسان این حوزه به طور فزایندهای نگران این پدیده هستند. در حالی که چهرههای جعلی جالب به نظر میرسند، نگرانی فزایندهای وجود دارد که میتوان از آنها برای فریب مردم استفاده کرد.
اگرچه مغز ما برای دریافت بسیاری از اطلاعات غیر صوتی از چهره افراد تکامل یافته، اما ممکن است در تشخیص واقعی بودن چهرههای تولید شده توسط هوش مصنوعی عالی عمل نکند.
تعداد فزایندهای از شواهد علمی نیز از این ایده پشتیبانی میکنند که اکثر مردم توانایی شناسایی تصاویر جعلی تولید شده توسط هوش مصنوعی را ندارند.
به عنوان مثال، در مطالعهای در سال ۲۰۲۲ که در مجله Proceedings of the National Academy of Sciences منتشر شد، آزمایشی مشابه، اما بسیار گستردهتر از آنچه که شما انجام دادید، صورت گرفت و نشان داد که اکثر مردم در تلاش برای تشخیص تفاوت به مشکل میخورند.
سوفی نایتینگل (Sophie Nightingale) و همکارش هانی فرید (Hany Farid) مطالعهای را با ۳۱۵ شرکت کننده که از یک وب سایت جمع سپاری انتخاب شده بود، انجام دادند.
از شرکت کنندگان خواسته شد تا بین ۴۰۰ عکس جعلی و ۴۰۰ عکس واقعی انتخاب کنند که کدام جعلی و کدام واقعی است. تصاویر به مجموعههای ۱۰۰ نفری از هر یک از چهار گروه قومی سفیدپوستان، سیاهپوستان، آسیای شرقی و جنوب آسیا تقسیم شدند.
از یک گروه ۱۷۶ نفری، تنها ۴۸.۲ درصد توانستند چهرههای رایانهای را بهطور دقیق شناسایی کنند. گروه دیگری متشکل از ۲۱۹ شرکت کننده آموزش تشخیص چهرههای تولید شده توسط رایانه را دریافت کردند و میزان دقت آنها به ۵۹ درصد افزایش یافت. با این حال، نایتینگل خاطرنشان کرد که تفاوت در میزان دقت بین دو گروه ناچیز است.
این مطالعه نشان داد که تشخیص چهرههای سفیدپوستان بسیار دشوار بود، زیرا نرمافزار هوش مصنوعی بر روی تعداد مناسبی از چهرههای سفید آموزش دیده بود. این امر باعث شد که در تولید آنها بسیار بهتر از سایر قومیتها عمل کند.
محققان همچنین مطالعهای انجام دادند که در آن مجموعهای از چهرهها را به ۲۲۳ شرکت کننده ارائه کردند. از شرکت کنندگان خواسته شد تا میزان قابل اعتماد بودن چهرهها را در مقیاس یک تا هفت رتبهبندی کنند.
نتایج نشان داد که چهرههای جعلی به طور متوسط هشت درصد قابل اعتمادتر از چهرههای واقعی در نظر گرفته میشوند. به گفته نایتینگل، چهرههای مصنوعی بیشتر شبیه چهرههای معمولی انسان هستند که مردم بیشتر به آن اعتماد میکنند.
چرا چهرههای جعلی توسط هوش مصنوعی تولید میشود و چرا این یک مشکل بالقوه است؟
تولید چهرههای مصنوعی شامل آموزش یک شبکه عصبی عمیق است، یک سیستم رایانه که نحوه یادگیری مغز را شبیهسازی میکند. این شبکه در معرض مجموعه دادههای بزرگی از چهرههای واقعی قرار میگیرد تا شباهتها و تفاوتهای بین چهره افراد را درک کند. با استفاده از این دادهها، شبکه عصبی میتواند پس از آن به کار تولید شبیهسازیهای خود بپردازد.
در ظاهر این کار بسیار بی ضرر به نظر میرسد. پس مشکل کجاست؟ مشکل این است که وقتی تصاویر جعلی از واقعی قابل تشخیص نباشند، مردم شروع به استفاده از آنها برای فعالیتهای شرورانهای مانند سرقت هویت یا کلاهبرداری میکنند.
کارشناسان ضد جاسوسی ادعا میکنند که جاسوسان خارجی به طور مرتب پروفایلهای ساختگی با چنین تصاویری برای شناسایی اهداف بالقوه در رسانههای اجتماعی ایجاد میکنند.
مشکل اصلی دیگر این است که چهرههای جعلی به طور فزایندهای در فرهنگ روزمره رایج شدهاند. در نتیجه، کارشناسان این حوزه معتقدند که باید بیشتر مراقب نحوه استفاده از آنها در بازاریابی، تبلیغات و رسانههای اجتماعی باشیم. علاوه بر این، این تصاویر اغلب برای اهدافی استفاده میشوند که قصد تضعیف نهادهای ما را دارند، مانند تبلیغات سیاسی، جاسوسی و جنگ اطلاعاتی.
سوفی نایتینگل توضیح میدهد: ما به دستورالعملهای اخلاقی سختگیرانهتر و چارچوبهای قانونی بیشتری نیاز داریم، زیرا به ناچار افرادی وجود خواهند داشت که میخواهند از این تصاویر برای آسیبرسانی استفاده کنند و این نگرانکننده است.
او پیشنهاد میکند که توسعهدهندگان برای کاهش این خطرات، واترمارکها را به تصاویر خود اضافه کنند و آنها را به عنوان جعلی علامتگذاری کنند. پیشنهادات دیگر شامل الگوریتمهای تشخیصی بهبودیافته در پلتفرمهای رسانههای اجتماعی است. استفاده از روشهایی مانند جستجوی معکوس عکس نیز میتواند برای عموم مردم بسیار مفید باشد.
جستجوی معکوس به ارائه تصویر به موتور جستجوگر و بررسی تصاویر ارائه شده مشابه گفته میشود که میتواند اطلاعاتی در مورد تصویر ارائه کند و جعلی یا واقعی بودن آن را مشخص کند.
افزایش استفاده از فناوریهای هوش مصنوعی مانند تولیدکنندههای تصویر احتمالا در سالهای آینده سرعت بیشتری خواهد گرفت، بنابراین افزایش آگاهی مردم در مورد اینکه چقدر در تشخیص آنها ناتوان هستیم، اهمیت دارد. در حالی که روشهای فنی یا قانونی برای نشانهگذاری آنها در آینده توسعه مییابد، تا آن زمان احتمالا این موضوع به رقابتی تسلیحاتی تبدیل خواهد شد.