Google anuncia nuevo proyecto BigLake
Google Cloud anunció la vista previa de BigLake, un motor de almacenamiento unificado que hac e más fácil el acceso a los datos […]


Google Cloud anunció la vista previa de BigLake, un motor de almacenamiento unificado que hac e más fácil el acceso a los datos almacenados en Lake y Warehouse.
El objetivo es quitar los limites de datos y romper las barreras que hay entre los lagos de datos y los almacenes.
«BigLake permite a las empresas unificar sus almacenes de datos y lagos para analizar datos sin preocuparse por el formato o sistema de almacenamiento subyacente, lo que elimina la necesidad de duplicar o mover datos de una fuente y reduce los costos y las ineficiencias», indica Gerrit Kazmaier, Vicepresidente y Director General de Bases de Datos de Google Cloud
BigLake fue creado para ofrecer una interfaz unificada en cualquier capa de almacenamiento, sin tener la necesidad de mover ningún dato. Todo en un mismo sitio, indica Unocero.
¿Cómo participará Google Cloud con BigLake?
Se encontrará en el centro de la estrategia de Google Cloud con respecto a la plataforma de datos y el proveedor de la nube solo se enfocará en integrar todas las herramientas con ella, según Sudhir Hasbe.
«Vamos a integrar a la perfección nuestra capacidad de gestión y gobernanza de datos con Dataplex, por lo que cualquier dato que entre en BigLake se gestionará y se regirá de manera consistente (…) Todas nuestras capacidades de aprendizaje automático e IA… también funcionarán en BigLake, así como en todos nuestros motores de análisis, ya sea BigQuery, si es Spark, si es Dataflow»
Te puede interesar: Google Messages y aplicaciones que podrían estar enviando datos personales
Sudhir Hasbe, Director de Gestión de Productos para Análisis de Datos de Google Cloud
También admitirá todos los formatos de archivo de código abierto como Parquet y ORC, junto a nuevos formatos para el acceso a mesas como Delta o Iceberg, así como los motores de procesamiento de código abierto como Apache Spark o Beam.