محققان هشدار دادند از آن جایی که انسانها قادر به تشخیص بیش از یک چهارم نمونههای گفتاری تولید شده توسط هوش مصنوعی نیستند، به سختی میتوانند تشخیص دهند که دیپفیکها، ویدیوها یا کلیپهای صوتی جعلی هستند که شبیه صدا یا ظاهر یک شخص واقعی هستند.
به گزارش باشگاه خبرنگاران و به نقل از الیوم السابع، نگرانی ها در مورد استفاده مجرمان و کلاهبرداران از فناوری هوش مصنوعی برای فریب مردم به منظور به دست آوردن پول افزایش یافته است.
دانشمندان کشف کرده اند که مردم تنها در ۷۳ درصد مواقع می توانند تفاوت بین گفتار واقعی و دیپ فیک را تشخیص دهند؛ در حالی که گفتار دیپ فیک اولیه ممکن است به هزاران نمونه از صدای یک فرد نیاز داشته باشد تا بتواند صدای اصلی را ایجاد کند. جدیدترین الگوریتم ها می توانند صدای شخص را با استفاده از یک بخش سه ثانیه ای از صحبت های او بازسازی کند.
تیمی از دانشگاه کالج لندن از الگوریتمی برای تولید و اجرای ۵۰ نمونه گفتار عمیق جعلی بر روی ۵۲۹ شرکتکننده استفاده کردند.
آنها فقط توانستند سخنرانی جعلی را در حدود سه چهارم مواقع شناسایی کنند که پس از دریافت آموزش برای تشخیص جنبههای سخنرانی جعلی، تنها کمی بهبود یافت.
کیمبرلی می، نویسنده اول این مطالعه گفت: نتایج ما تأیید میکنند که انسانها نمیتوانند به طور قابل اعتماد گفتار جعلی را تشخیص دهند، خواه برای کمک به تشخیص محتوای مصنوعی آموزش دیده باشند یا نه.