أعلنت Google Cloud للتو عن BigLake ، وهو محرك تخزين موحد يبسط الوصول إلى البيانات المخزنة في Lake and Warehouse.
يتمثل الهدف الرئيسي لغوغل في التخلص تمامًا من حدود البيانات : "يُمكّن BigLake الشركات من توحيد مستودعات البيانات لتحليل البيانات دون القلق بشأن نظام أو تنسيق التخزين الأساسي ، مما يلغي الحاجة إلى نسخ البيانات أو نقلها من مصدر واحد وتقليل التكاليف وأوجه عدم الكفاءة"مما يعني أن BigLake مصمم لتقديم واجهة موحدة في أي طبقة تخزين ، دون الحاجة إلى نقل أي بيانات. كل شيء في مكان واحد.
وبهذه الطريقة ، ستكون BigLake في قلب إستراتيجية Google Cloud فيما يتعلق بمنصة البيانات وسيركز مزود السحابة فقط على دمج جميع الأدوات معها ، وفقًا لـ Sudhir Hasbe ، المدير الأول لإدارة المنتجات في Google Cloud لتحليل البيانات.
قال Hasbe في إيجاز صحفي قبل قمة Google Data Cloud Summit يوم الأربعاء ، حيث يتم الإعلان عن BigLake ، "الميزة الأكبر هي أنك لست مضطرًا إلى تكرار بياناتك عبر بيئتين مختلفتين وإنشاء مستودعات بيانات".
تجدر الإشارة إلى أن BigLake ستدعم جميع تنسيقات ومعايير الملفات مفتوحة المصدر مثل Parquet و ORC ، جنبًا إلى جنب مع التنسيقات الجديدة للوصول إلى Delta أو Iceberg ، بالإضافة إلى محركات المعالجة مفتوحة المصدر مثل Apache Spark أو Beam.
ليست هناك تعليقات:
إرسال تعليق