-->

إعلان بالهواتف فقط

إعلان بالحواسيب فقط

أعلنت شركة OpenAI يوم الاثنين عن GPT-4o ، وهو نموذج جديد تمامًا للذكاء الاصطناعي تقول الشركة إنه أقرب خطوة إلى "تفاعل أكثر طبيعية بين الإنسان والحاسوب". يقبل النموذج الجديد أي مجموعة من النصوص والصوت والصور كمدخلات ويمكنه إنشاء مخرجات بجميع التنسيقات الثلاثة. كما أنه قادر على التعرف على المشاعر، ويتيح لك مقاطعتها في منتصف الكلام، ويستجيب بنفس سرعة استجابة الإنسان تقريبًا أثناء المحادثات.

"الشيء المميز في GPT-4o هو أنه يوفر مستوى ذكاء GPT-4 للجميع، بما في ذلك المستخدمين المجانيين،" قالت مديرة التكنولوجيا في OpenAI  خلال عرض تقديمي تم بثه مباشرة. "هذه هي المرة الأولى التي نخطو فيها خطوة كبيرة إلى الأمام عندما يتعلق الأمر بسهولة الاستخدام."

خلال العرض التقديمي، عرضت OpenAI ترجمة GPT-4o مباشرة بين اللغتين الإنجليزية والإيطالية ، مما ساعد أحد الباحثين على حل معادلة خطية في الوقت الفعلي على الورق، وتقديم إرشادات حول التنفس العميق لمدير تنفيذي آخر في OpenAI ببساطة عن طريق الاستماع إلى أنفاسه.


 يرمز "O" في GPT-4O إلى "Omni" ، وهو إشارة إلى إمكانيات النموذج متعدد الوسائط. قالت Openai إن GPT-4O تم تدريبه عبر النص والرؤية والصوت ، مما يعني أن جميع المدخلات والمخرجات تتم معالجتها بواسطة الشبكة العصبية نفسها. هذا يختلف عن النماذج السابقة للشركة ، GPT-3.5 و GPT-4 ، والتي سمحت للمستخدمين بطرح الأسئلة ببساطة عن طريق التحدث ، ولكن بعد ذلك نسخ الكلام إلى نص. 

يتيح Openai النموذج الجديد للجميع ، بما في ذلك مستخدمي ChatGpt المجاني ، خلال الأسابيع القليلة المقبلة ، وأيضًا إصدار إصدار سطح المكتب من ChatGPT ، في البداية لنظام التشغيل Mac ، والذي يمكن للمستخدمين المدفوعين الوصول إلى بدء اليوم.

 لاستخدامه قمنا بشرح الطريقة في هذه المقالة : إطلاق GPT-4o الأكثر ذكاء ًويمكنك الآن تجربته وستشاهد فرق كبير بينه وبين ChatGPT

 يأتي إعلان Openai قبل يوم من I/O Google ، مؤتمر المطور السنوي للشركة.  

ليست هناك تعليقات:

إرسال تعليق

جميع الحقوق محفوظة ل حوحو للمعلوميات 2024
تصميم و تكويد : بيكود