أعلنت شركة OpenAI يوم الاثنين عن GPT-4o ، وهو نموذج جديد تمامًا للذكاء الاصطناعي تقول الشركة إنه أقرب خطوة إلى "تفاعل أكثر طبيعية بين الإنسان والحاسوب". يقبل النموذج الجديد أي مجموعة من النصوص والصوت والصور كمدخلات ويمكنه إنشاء مخرجات بجميع التنسيقات الثلاثة. كما أنه قادر على التعرف على المشاعر، ويتيح لك مقاطعتها في منتصف الكلام، ويستجيب بنفس سرعة استجابة الإنسان تقريبًا أثناء المحادثات.
"الشيء المميز في GPT-4o هو أنه يوفر مستوى ذكاء GPT-4 للجميع، بما في ذلك المستخدمين المجانيين،" قالت مديرة التكنولوجيا في OpenAI خلال عرض تقديمي تم بثه مباشرة. "هذه هي المرة الأولى التي نخطو فيها خطوة كبيرة إلى الأمام عندما يتعلق الأمر بسهولة الاستخدام."خلال العرض التقديمي، عرضت OpenAI ترجمة GPT-4o مباشرة بين اللغتين الإنجليزية والإيطالية ، مما ساعد أحد الباحثين على حل معادلة خطية في الوقت الفعلي على الورق، وتقديم إرشادات حول التنفس العميق لمدير تنفيذي آخر في OpenAI ببساطة عن طريق الاستماع إلى أنفاسه.
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
يرمز "O" في GPT-4O إلى "Omni" ، وهو إشارة إلى إمكانيات النموذج متعدد الوسائط. قالت Openai إن GPT-4O تم تدريبه عبر النص والرؤية والصوت ، مما يعني أن جميع المدخلات والمخرجات تتم معالجتها بواسطة الشبكة العصبية نفسها. هذا يختلف عن النماذج السابقة للشركة ، GPT-3.5 و GPT-4 ، والتي سمحت للمستخدمين بطرح الأسئلة ببساطة عن طريق التحدث ، ولكن بعد ذلك نسخ الكلام إلى نص.
يتيح Openai النموذج الجديد للجميع ، بما في ذلك مستخدمي ChatGpt المجاني ، خلال الأسابيع القليلة المقبلة ، وأيضًا إصدار إصدار سطح المكتب من ChatGPT ، في البداية لنظام التشغيل Mac ، والذي يمكن للمستخدمين المدفوعين الوصول إلى بدء اليوم.
لاستخدامه قمنا بشرح الطريقة في هذه المقالة : إطلاق GPT-4o الأكثر ذكاء ًويمكنك الآن تجربته وستشاهد فرق كبير بينه وبين ChatGPT
يأتي إعلان Openai قبل يوم من I/O Google ، مؤتمر المطور السنوي للشركة.
ليست هناك تعليقات:
إرسال تعليق