استارتاپ Runway از مدل هوش مصنوعی جدیدی رونمایی کرده است که میتواند با دریافت فرمانهای متنی، ویدیوها را تغییر بدهد.
به گزارش دیجیاتو، استارتاپ هوش مصنوعی Runway که پارسال مدل تبدیل متن به تصویر Stable Diffusion را منتشر کرده بود، حالا مدل جدیدی بهنام Gen-۱ را ساخته است که میتواند ویدیوهای موجود را از طریق فرمانهای متن یا تصاویر دیگر تغییر دهد و به سبکهای متفاوت تبدیل کند.
استارتاپ Runway با انتشار ویدیویی نشان داد که مدل هوش مصنوعی جدید آنها چگونه کار میکند و میتواند سبک نمایشی ویدیوها را تغییر دهد. این استارتاپ امیدوار است که Gen-۱ همان عملکردی را برای ویدیوها داشته باشد که Stable Diffusion برای تصاویر داشت. مدیرعامل Runway میگوید سال ۲۰۲۳ میتواند سال ویدیوها باشد.
مدل Gen-۱ ترکیبی از مدلهای تبدیل متن به ویدیو از جمله مدل Make a Video از متا و Phenaki از گوگل است که پارسال معرفی شدند و میتوانند ویدیوهای کوتاه بسازند. مدل استارتاپ Runway همچنین شبیه Dreamix از گوگل خواهد بود که هفته پیش معرفی شد و میتواند از روی ویدیوهای موجود ویدیوهای جدیدی با سبکهای متفاوت بسازد. بااینحال، Gen-۱ ظاهراً از نظر کیفی یک سروگردن از رقبا جلوتر است.
برخلاف گوگل و متا، Runway هوش مصنوعی خود را با درنظرگرفتن کاربران ساخته است. «کریستوبال والنزوئلا»، مدیرعامل این استارتاپ میگوید: «این یکی از اولین مدلهایی است که با رابطه نزدیک با جامعه فیلمسازان ساخته شده است. این مدل دربرگیرنده سالها تجربه فیلمسازان و متخصصان VFX در مراحل پسا-تولید است.»
Gen-۱ که از طریق سایت Runway روی فضای ابری کار میکند، حالا با دعوتنامه در اختیار شمار برگزیدهای از کاربران قرار گرفته است و در هفتههای آینده در اختیار افراد بیشتری قرار داده خواهد شد. والنزوئلا امیدوار است که Gen-۱ بتوانند مانند Stable Diffusion به افراد در تولید پروژههای حرفهای کمک کند.
ابزارهای این استارتاپ که در سال ۲۰۱۸ تأسیس شده است، تاکنون توسط تیکتاکرها، یوتوبرها و استودیوهای تلویزیونی حرفهای مختلفی به کار گرفته شدهاند. برنامه The Late Show with Stephen Colbert و فیلم سینمایی Everything Everywhere All at Once از جمله پروژههایی هستند که از ابزارهای Runway استفاده کردهاند.