November 27 2024 - چهارشنبه ۰۷ آذر ۱۴۰۳
- RSS
- |
- قیمت خودرو
- |
- عضویت در خبرنامه
- |
- پیوندها و آگهی ها
- |
- آرشیو
- |
- تماس با ما
- |
- درباره ما
- |
- تبلیغات
- |
- استخدام
مدل هوش مصنوعی GPT-۴o برپایه مدل پرچمدار قبلی OpenAI ساخته شده، اما از جهات مختلفی بهبود پیدا کرده است و میتواند برقراری ارتباط با این فناوری را سادهتر و پویاتر کند.
به گزارش دیجیاتو، مدل هوش مصنوعی GPT-۴o در اختیار تمام کاربران شامل کاربران سرویس رایگان و پولی این شرکت قرار میگیرد. قابلیتهای متن و تصویر این مدل از امروز برای همه کاربران عرضه میشود، اما قابلیت جدید Voice Mode آن ابتدا بهصورت آلفا از هفتههای آینده برای کاربران ChatGPT Plus در دسترس قرار خواهد گرفت، و بعد به مرحله انتشار گستردهتر میرود.
«میرا موراتی»، مدیر ارشد فناوری OpenAI در مراسم امشب مدعی شد که GPT-۴o پارادایم همکاری و تعامل میان انسان و کامپیوتر را تغییر میدهد. او گفت این مدل بهبودیافته قادر به درک متن، صدا و تصویر است، و آنها ماهها برای عرضه این قابلیتها برای تمام کاربران تلاش کردهاند.
موراتی گفت بیش از ۱۰۰ میلیون نفر بهصورت مرتب از ChatGPT استفاده میکنند و مدل GPT-۴o بهینهتر از GPT-۴ شده است. در نتیجه، این شرکت GPTها یا همان چتباتهای سفارشی را هم به نسخه رایگان ChatGPT میآورد.
API مدل هوش مصنوعی GPT-۴o دو برابر سریعتر و ۵۰ درصد ارزانتر شده و محدودیت آن ۵ برابر نسبت به GPT-۴ توربو کاهش پیدا کرده است.
با GPT-۴o میتوانید از دادهها، کدها و ابزارهای بینایی استفاده کنید تا برای مثال بتوانید تصاویر را تحلیل نمایید. یکی از ارتقاهای بزرگ این مدل جدید «گفتار زنده» است. GPT-۴o میتواند به خود صدا گوش بدهد، بهجای اینکه ابتدا صدا را به متن تبدیل کند و بعد آن را بفهمد.
OpenAI در یک دمو نشان داد که این مدل چگونه میتواند حتی صدای تنفس کاربر را تشخیص بدهد و به او توصیه کند که با چه تکنیکهایی میتواند وضعیت تنفس خود را بهبود دهد. همچنین در این دمو بهنظر میرسد که هوش مصنوعی بلافاصله پس از اتمام صدای کاربر، میتواند به او پاسخ بدهد. بهعلاوه، این Voice Mode جدید میتواند با احساسات مختلف با کاربر حرف بزند.
در یک دموی دیگر، کارمند OpenAI با دوربین موبایل خود یک معادله ریاضی را به GPT-۴o نشان داد. از هوش مصنوعی خواسته شد تا در حل این معادله به او کمک کند، اما جواب نهایی را ندهد. در پاسخ، این سیستم مراحل حل یک معادله ساده را توضیح داد و تقریباً نقش یک معلم را ایفا کرد.
مدل هوش مصنوعی بهبودیافته OpenAI حالا میتواند حس چهره افراد را از طریق دوربین تشخیص دهد. در بخش دیگری از دمو، یک چهره خندان به GPT-۴o نشان داده شد و این هوش مصنوعی به کاربر گفت: «نمیخواهی بگویی دلیل خوشحالیات چیست؟»
اگرچه GPT-۴o برای کاربران رایگان نیز در دسترس قرار میگیرد، اما کاربران پولی میتوانند روزانه پنج برابر بیشتر به این مدل هوش مصنوعی درخواست ارسال کنند. مدل GPT-۴o تجربه استفاده از ChatGPT را بهطرز قابلتوجهی ارتقا میدهد و بسیار سریعتر است. این تغییر باعث میشود که تجربه مکالمه با این چتبات طبیعیتر جلوه کند.
با استفاده از GPT-۴o میتوانید منوی یک رستوران خارجی را به هوش مصنوعی نشان دهید و ترجمه آیتمهای داخل آن را دریافت کنید. این مدل همچنین قادر به ترجمه همزمان است. OpenAI میگوید در آینده حتی میتواند یک مسابقه ورزشی زنده را به ChatGPT نشان دهید و از هوش مصنوعی بخواهید قواعد آن را به شما توضیح دهد.
OpenAI توضیح میدهد که کاربران رایگان ChatGPT با استفاده از GPT-۴o میتوانند به موارد زیر دسترسی پیدا کنند:
تجربه هوشی در سطح GPT-۴
دریافت پاسخهای خود مدل و اطلاعات سطح وب
تجزیهوتحلیل دادهها و ساخت نمودار
گفتگو درباره تصاویر شما
آپلود فایل برای کمک به خلاصهسازی، نگارش یا تحلیل
کشف و استفاده از جیپیتیها و جیپیتی استور
بهرهمندی از تجربهای بهتر با قابلیت حافظه
OpenAI همچنین امشب از نسخه دسکتاپ اپلیکیشن ChatGPT رونمایی و قابلیتهای صوتی و تصویری جدیدی را برای چتبات خود معرفی کرد.