Strona główna

Google BigQuery – czym jest i jak działa? Poradnik dla początkujących

Google BigQuery – czym jest i jak działa?
Poradnik dla początkujących

Dokładnie 10 lat temu miałem szczęście być częścią projektu analitycznego w pełni wdrażanego w Google Cloud Platform, co pozwoliło mi dość szybko, jak na rynek Polski, zaznajomić się z korzyściami płynącymi z tworzenia nowoczesnego stacku analitycznego przy pomocy chmury Google oraz hurtowni danych BigQuery, która leży w samym jej sercu.

W tym czasie poznałem na tyle dogłębnie BigQuery, że postanowiłem stworzyć poradnik, którego celem jest przybliżenie Tobie bliżej tego narzędzia.

Co to jest Google BigQuery?

BigQuery to wysoce skalowalna, bezserwerowa hurtownia danych działająca w chmurze. Umożliwia ona analizowanie ogromnych ilości danych bez konieczności zarządzania infrastrukturą. BigQuery wyróżnia się szeregiem funkcji i możliwości, które sprawiają, że jest popularnym wyborem dla przedsiębiorstw i organizacji poszukujących potężnych narzędzi do przetwarzania i analizy danych.

Jeszcze kilka lat temu o BigQuery mówiło się w kontekście Hurtowni Danych. Biorąc jednak pod uwagę szereg nowo dodanych funkcjonalności oraz integracji z całym ekosystemem Google Cloud nazywanie BigQuery tylko hurtownią danych jest nie tylko mocnym uproszczeniem ale też poważnym niedomówieniem. BigQuery praktycznie sama w sobie może już nosić miano mocno zaawansowanej, nowoczesnej platformy analitycznej.

Grafika pokazująca odwrócony proces ETL

Powyższa ilustracja na poziomie koncepcyjnym i mocno uproszczonym pokazuje miejsce hurtowni danych BigQuery w biznesie oraz jej rolę wspierającą różne procesy wspomagane danymi.

Zastosowanie w biznesie

Z roku na rok Google BigQuery ma coraz szersze zastosowanie w biznesie. Bardzo istotną rolą  jest możliwość załadowania i przechowywania Twoich danych z różnych źródeł w jedno miejsce. Dzięki temu znacznie zwiększasz możliwości analityczne swojego biznesu mogąc tworzyć raporty, analizy i modele uwzględniające dane z wielu narzędzi i programów, z których korzystacie na co dzień.

BigQuery przestaje być również miejscem z którego korzystają tylko analitycy i inżynierowie danych. Dobrze skonstruowana hurtownia daje wiele możliwości interakcji z danymi. Menedżerowie i specjaliści mogą łatwo  zintegrować dane z narzędziami, które znają i korzystają na co dzień, takimi jak Google Sheets, Excel czy Google Slides.

Poniżej spisałem obszary, które są najpopularniejszymi zastosowaniami Google BigQuery w codziennych potrzebach biznesowych.

Analityka

Zadania analityczne będą jednymi z najczęściej wykonywanych operacji. Pracę z danymi ułatwi nam język SQL. Do wyboru mamy standard SQL lub legacy SQL. Dla miłośników pythona mamy dobrą informację. W BigQUery Studio w prosty sposób możesz skorzystać z notatnika Google Collab z gotową bazą bibliotek pythonowych do analizy i eksploracji danych takich jak Pandas czy Numpy.

Dodatkowo BigQuery umożliwia przeprowadzenie szybkiej eksploracji waszych danych za pomocą konsoli, narzędzia DataPlex, DataPrep lub za pomocą Looker Studio. Jeśli macie potrzebę zaawansowanej pracy na danych geograficznych, z pomocą przyjdzie wam przeznaczone do tego BigQuery Geo VIZ.

Zastosowanie hurtowni danych Google BigQuery w Analityce

Machine Learning

BigQuery ML daje wam możliwość tworzenia i trenowania modeli typu machine learning przy pomocy języka SQL.
Jest to ogromna zaleta przede wszystkim dla mniejszych firm, które nie potrzebują ponosić dodatkowych kosztów na zatrudnianie ludzi o różnych kompetencjach programistycznych aby stworzyć zaawansowane modele rekomendacyjne, prognostyczne czy klasyfikacyjne.

Zastosowanie hurtowni danych Google BigQuery w Machine Learningu

Całość możecie obsłużyć w ramach interfejsu używając funkcji BigQuery ML. Jeśli macie jednak bardziej zaawansowane potrzeby tworzenia modeli ML, tabele przechowywane w BigQuery możecie w prosty sposób zintegrować z bardziej zaawansowanymi narzędziami i platformami wspomagającymi tą część analityki.

Sztuczna Inteligencja

Od niedawna w BigQuery posiadamy możliwość prostej integracji z modelami sztucznej inteligencji udostępnionymi przez Vertex AI. Dzięki temu możemy za pomocą języka SQL tworzyć bardzo zaawansowane analizy z wykorzystaniem modeli językowych i multimodalnych bezpośrednio na danych zawartych w naszych tabelach.
Zastosowanie hurtowni danych BigQuery w sztucznej inteligencji
Jest to o tyle przełomowe rozwiązanie, że modele językowe możemy bardzo prosto włączyć w proces analityczny naszych danych tekstowych, dokumentów i obrazów bez potrzeby kodowania bardzo zaawansowanych procesów oraz platform AI. Dodatkowo w pełni kontrolujemy bezpieczeństwo tego jak modele wykorzystują nasze dane mając pewność, że tylko my mamy wgląd zarówno do danych jak i promptów przekazywanych modelowi językowemu.

Business Intelligence

Jednym z zadań hurtowni danych BigQuery jest zasilanie narzędzi Business Intelligence danymi. BigQuery posiada dedykowany silnik do przyspieszania czasu oczekiwania na działanie Twoich dashboardów analitycznych dzięki inteligentnemu cashowaniu danych. Dzięki temu Twoje Dashboardy będa działać ultra szybko nawet jeśli zasilane są ogromnymi zbiorami danych.

Zastosowanie hurtowni danych BigQuery w Business Intelligence

Ładowanie i Migracja Danych

Wiele czynności powiązanych z Google BigQuery będzie związanych z tworzeniem procesów ładowania danych. Rozróżnić możemy trzy rodzaje takich czynności. W pierwszej kolejności ładujemy dane historyczne z naszych źródeł. Taki backfill upewnia nas, że mamy dostęp do odpowiedniej historii danych do przeprowadzenia analiz.

W kolejnych krokach będziemy tworzyć procesy replikujące dane, które będą odzwierciedlać zmiany zachodzące w naszych oryginalnych źródłach. Te, możemy podzielić na strumieniowanie (streaming) oraz ładowanie wsadowe (batch processing).
Proces ładowania i migracji danych do BigQuery
Zupełnie innym scenariuszem będzie migracja już istniejącej hurtowni danych, którą do BigQuery możemy przeprowadzić zupełnie bezkosztowo z takich źródeł jak : Snowflake, Amazon Redshift, Apache Hive, Teradata, Oracle i IBM Netezza.

Przechowywanie Danych

Jedną z podstawowych funkcjonalności BigQuery jest przechowywanie ogromnych ilości danych. W teorii nie ma limitów odnośnie tego jak dużą ilość danych możemy załadować do naszej hurtowni danych. Są jednak przypadki, że mówimy o tak ogromnych ilościach danych, że tradycyjne sposoby migracji lub replikacji nie wchodzą w grę z powodu ograniczeń prędkości internetu i limitów ładowania narzędzia.

Jeśli potrzebujesz pilnie załadować ilości odpowiadające eksabajtom danych skontaktuj się ze sprzedażą Google a zagwarantują Ci fizyczny proces obsługi takiego inicjacyjnego backfillu.

Transformacja Danych

W większości przypadków dane do hurtowni będziemy ładować w formie surowej (w postaci tabel zastanych w oryginalnych źródłach danych). Aby jednak były one przydatne w naszych procesach analitycznych musimy je najpierw odpowiednio przygotować. Ten etap nazywamy transformacją danych.
Pisząc o transformacji mam na myśli tak naprawdę wiele różnych czynności. Najczęściej będziemy mieć na myśli różne działania polegające na łączeniu danych z różnych tabel, agregowaniu ich, filtrowaniu, czyszczeniu i tworzeniu zupełnie nowych kolumn, tabel i widoków, które będa lepiej spełniać dalsze potrzeby biznesowe.
Proces transformacji danych w Google BigQuery

Aby unikać zbędnych kosztów i manualnego uruchamiania tych samych zapytań, procesy transformacyjne najlepiej zautomatyzować. Do wykonywania działań transformacyjnych rekomendujemy natywne rozwiązanie BigQuery – Dataform lub sprawnie integrujący się z GCP narzędzie dbt.

Udostępnianie/Publikacja danych

Jedną z istotnych funkcjonalności biznesowych jest możliwość udostępniania danych różnym interesariuszom. W BigQuery mamy dużo możliwości publikacji lub eksportu danych. Ludzie nie mający doświadczenia z językiem SQL i BigQuery mogą uzyskać dostęp do danych bezpośrednio z poziomu Google Sheets.

Opcjonalnie, dane można wyeksportować do plików płaskich, arkuszy kalkulacyjnych lub Looker Studio bezpośrednio z poziomu BigQuery. Jedną z ciekawych możliwości dystrybucji danych wewnątrz organizacji działającej w zdecentralizowanej filozofii wymiany danych (tzw. Data Mesh) będzie Analytics Hub.

Proces udostępniania i publikacji danych

Administracja danych i użytkowników

Bezpieczeństwo danych Twojej firmy jest jednym z najważniejszych elementów w Twoim biznesie.
Szczególnie ważne jest aby wdrażać hurtownię danych mając na uwadze kto, kiedy i na jakiej zasadzie może mieć dostęp do Twoich danych. BigQuery w połączeniu z innymi funkcjonalnościami Google Cloud umożliwia szereg zabezpieczeń oraz monitorowania wszystkich akcji oraz zadań związanych z Twoimi danymi.

Dzięki temu możesz zarządzać bardzo szczegółowo dostępami oraz możliwościami eksportu danych poza obszar chmury Google. Dodatkowo BigQuery umożliwia analizowanie całej historii działań wszystkich użytkowników w Twojej organizacji oraz tworzenie alertów w momencie pojawienia się niepokojącego zachowania.

W BigQuery poza nadawaniem uprawnień na poziomie projektu, zbioru danych czy tabeli możesz zastosować row level policy lub column level policy ułatwiając dostęp różnym interesariuszom tylko do istotnych danych w ramach jednej tabeli.

Jakie są rodzaje ról i uprawnień w BigQuery?

Rola Opis uprawnień
BigQuery Admin Zapewnia uprawnienia do zarządzania wszystkimi zasobami w ramach projektu.
BigQuery Data Editor (roles/bigquery.dataEditor) Na poziomie tabeli lub widoku:
  • Odczytu i aktualizacji danych i metadanych dla tabeli lub widoku.
  • Usuwania tabeli lub widoku.

Na poziomie datasetu:
  • Odczytywanie metadanych datasetu i wyświetlanie tabel.
  • Tworzenie, aktualizowanie, pobieranie i usuwanie tabel i zestawów danych.
BigQuery Data Owner (roles/bigquery.dataOwner) Na poziomie tabeli lub widoku:
  • Odczyt i aktualizacja danych i metadanych dla tabeli lub widoku.
  • Udostępnianie i usuwanie tabeli lub widoku.

Na poziomie datasetu:
  • Odczytu, aktualizacji i usuwania zestawu danych.
  • Tworzenia, aktualizowania, pobierania i usuwania tabel zestawu danych.
BigQuery Data Viewer (roles/bigquery.dataViewer) Na poziomie tabeli lub widoku:
  • Odczyt danych i metadanych z tabeli lub widoku.

Na poziomie datasetu:
  • Wyświetlanie listy wszystkich zasobów w zestawie danych (takich jak tabele, widoki, migawki, modele i procedury) oraz odczytywanie danych i metadanych za pomocą odpowiednich interfejsów API i zapytań.

Na poziomie projektu:
  • Wyliczanie wszystkich zestawów danych w projekcie.
BigQuery Job User (roles/bigquery.jobUser) Zapewnia uprawnienia do uruchamiania zadań, w tym zapytań, strumieniowania i transferów w ramach projektu.
Istnieje więcej standardowych ról w BigQuery. Role te możecie przypisać do tabeli, datasetu lub całego projektu. W zależności od tego co wybierzecie zmienią się możliwości tego użytkownika. Alternatywą jest stworzenie roli niestandardowej, przypisując do niej tylko te uprawnienia z których chcemy aby konkretna osoba lub grupa osób mogła skorzystać.

Zarządzanie, Katalogowanie i opisywanie danych

Jedną z najważniejszych czynności w dojrzałej organizacji wspieranej danymi są działania związane z opisywaniem i zarządzaniem jakością naszych danych. W dzisiejszych czasach stało się to szczególnie istotne. Niepoprawne zrozumienie danych podczas używania przez analityków, developerów BI i użytkowników biznesowych może prowadzić do wielu błędnych wniosków i katastrofalnych w skutkach decyzji biznesowych.
Zarządzanie danymi w Google BigQuery

W BigQuery, korzystając z DataPlex możemy zarządzać wszystkimi tymi operacjami w jednym miejscu. Dodatkowo tworząc procesy profilujące dane oraz testy jakości mamy możliwość ciągłego monitorowania problemów z kompletnością lub poprawnością naszych danych. W dojrzałej organizacji za te działania będzie odpowiedzialny Data Steward.

Koszt BigQuery – ile i za co zapłacisz korzystając z Google BigQuery?

Koszt BigQuery składa się z dwóch głównych elementów:
Poza tymi głównymi kosztami, zapłacisz za korzystanie z innych alternatywnych funkcjonalności dostępnych w Google BigQuery. Głównie chodzi o korzystanie z BigQuery Omni, BigQuery ML, BI Engine oraz strumieniowania danych do i z tabel BigQuery.
BigQuery oferuje również bezpłatny tier, w ramach którego masz dostępne 20 Gb miejsca na przechowywanie danych oraz 1 TB na computing w projekcie.

Jeśli Twoja firma pracuje bardzo dużo na danych, zamiast korzystać z modelu pay as you go możecie wykorzystać jedną trzech możliwych opcji tierowych zwanych edycjami.
Dzięki temu koszty BigQuery będą bardziej przewidywalne ponieważ z góry zapłacisz za możliwość korzystania ze slotów obliczeniowych.

Obecnie mamy trzy możliwe tiery, Standard, Enterprise i Enterprise plus z różnymi cenami za computing, o których więcej możesz przeczytać tutaj.
Poniżej również znajduje się tabela ukazująca stawki za różne usługi w Google BigQuery.
Usługi i wykorzystanie Typ subskrypcji Cena (USD)
Wersja bezpłatna Wersja darmowa zapewnia klientom 10 GiB miejsca na dane, do 1 TiB na obliczenia oraz dostęp do innych zasobów. Bezpłatnie
Obliczenia (Computing) On Demand

Zapewnia dostęp do 2000 slotów jednocześnie, współdzielonych między wszystkimi zapytaniami w ramach jednego projektu.

Od

$6,25

za TiB przeskanowanych danych. Pierwszy 1 TiB na miesiąc jest bezpłatny.

Wersja standardowa

Niskokosztowa opcja do standardowej analizy SQL

$0,04

za godzinę slotu

Wersja Enterprise

Zaawansowana analityka korporacyjna

$0,06

za godzinę slotu

Wersja Enterprise Plus

Analityka korporacyjna o znaczeniu krytycznym

$0,10

za godzinę slotu

Przechowywanie (Storage) Aktywna pamięć lokalna

W oparciu o nieskompresowane bajty używane w tabelach lub partycjach tabel zmodyfikowanych w ciągu ostatnich 90 dni.

Od

$0,02

za GiB. Pierwsze 10 GiB jest bezpłatne każdego miesiąca.

Długoterminowa pamięć logiczna

W oparciu o nieskompresowane bajty używane w tabelach lub partycjach tabel zmodyfikowanych przez 90 kolejnych dni.

Od

$0,01

za GiB. Pierwsze 10 GiB jest bezpłatne każdego miesiąca.

Aktywna pamięć fizyczna

W oparciu o skompresowane bajty używane w tabelach lub partycjach tabel zmodyfikowanych przez 90 kolejnych dni.

$0,04

za GiB. Pierwsze 10 GiB jest bezpłatne każdego miesiąca.

Długoterminowa pamięć fizyczna

W oparciu o skompresowane bajty w tabelach lub partycjach, które nie zostały zmodyfikowane przez 90 kolejnych dni.

$0,02

za GiB. Pierwsze 10 GiB jest bezpłatne każdego miesiąca.

Pozyskiwanie danych

Wczytywanie wsadowe 

Import tabeli z zasobnika w chmurze

Bezpłatnie

Podczas korzystania ze współdzielonej puli slotów

Ładowanie strumieniowe

Opłata naliczana jest za pomyślnie załadowane wiersze. Poszczególne wiersze są obliczane przy użyciu minimum 1 KB.

0,01 USD

za 200 MiB

BigQuery Storage Write API

Dane załadowane do BigQuery podlegają cenom przechowywania BigQuery lub cenom Cloud Storage.

0,025 USD

za 1 GiB. Pierwsze 2 TiB miesięcznie są bezpłatne.

Eksport danych

Eksport

Eksportuj dane tabeli do Cloud Storage.

Bezpłatnie

Odczyt - strumieniowanie

Dostępd do danych poprzez API

Od

1,10 USD

za odczytany TiB

Jak sprawdzić koszt bigquery?

Jeśli chcesz śledzić na bieżąco koszt użycia BigQuery przejdź do strony Cloud Billing w konsoli Google Cloud i otwórz zakładkę reports.
Po prawej stronie w okienku filtrów wybierz usługę BigQuery. To pozwoli Ci lepiej zrozumieć ile płacisz dziennie za korzystanie z narzędzia.

Charakterystyka narzędzia

W tej sekcji znajdziesz trochę podstawowych informacji na temat tego jakie są różne formy przechowywania danych w BigQuery oraz czym one różnią się od siebie. Opiszę tabele, widoki, zmaterializowane widoki oraz funkcje i procedury ułatwiające pracę na ogromnych zapytaniach SQL.

Sposoby przetrzymywania danych w Bigquery:

Tabele

Tabela w hurtowni danych BigQuery to zbiór wierszy i kolumn, które mogą przechowywać ogromne ilości danych.

Tabele są nieodłączną cechą platformy BigQuery, która zapewnia przewagę nad tradycyjnymi bazami danych.

Jak Stworzyć tabelę w Google BigQuery?

Istnieje wiele różnych sposobów na utworzenie tabeli w BQ a ja przedstawię Ci dzisiaj kilka najprostszych.
Prostym sposobem na stworzenie tabeli w BigQuery jest użycie instrukcji DDL (Data Definition Language) , jak poniżej:
Instrukcja DDL w BigQuery
Innym sposobem na utworzenie tabeli w podobny sposób, ale przy użyciu bardziej GUI niż wyłącznie kodu, jest użycie wyników zapytania. Wystarczy uruchomić instrukcję SELECT, a następnie wykonać SAVE RESULTS → BigQuery Table.
Utworzenie tabeli za pomocą GUI
Tabelę w BiGQuery stworzyć również możesz bezpośrednio przy pomocy Cloud Shell. Po zalogowaniu do Cloud Shell skorzystaj z poniższej komendy edytując swoje parametry projektu i datasetu.
				
					bq mk \
--table \
--expiration integer \
--description description \
--label key_1:value_1 \
--label key_2:value_2 \
project_id:dataset.table \
schema
				
			
Istnieją oczywiście inne sposoby tworzenia tabel w BiGQuery. W praktyce Tabele w surowej warstwie hurtowni danych będą tworzone bezpośrednio przez procesy replikacyjne typu ELT/ETL – o których możesz poczytać więcej tutaj, lub przy pomocy DataForm – narzędzia do budowania i tworzenia tabel w warstwie produkcyjnej hurtowni danych, o których możesz poczytać tutaj.

Widoki

Widoki w GCP BigQuery to wirtualne tabele zdefiniowane przez zapytanie SQL, które mogą wyświetlać wyniki zapytania lub być używane jako baza dla innych zapytań.
Nie są one fizycznymi tabelami i nie przechowują żadnych danych a co za tym idzie nie generują kosztów.
Zamiast tego odwołują się do danych przechowywanych w innych tabelach. Wspaniałą cechą widoków jest to, że po utworzeniu widoku można nadal wykonywać zapytania do widoku w taki sam sposób, jak do tabeli.
Niektóre z dodatkowych cech widoków to:
W przeciwieństwie do tabel, widoki są często tworzone, aby służyć bardziej konkretnym celom, takim jak ograniczenie dostępu użytkowników do danych lub segmentacja złożonych zapytań. Dobrze zaprojektowana hurtownia danych wykorzystuje widoki we właściwym miejscu i czasie.

Jak stworzyć widok w BigQuery?

Podobnie jak w przypadku tabel najczęstszym sposobem tworzenia widoku w zbiorze danych jest instrukcja DDL – CREATE VIEW
Utworzenie widoku za pomocą instrukcji DDL
Widoki od tabel odróżnisz ich graficzną reprezentacją w interfejsie, dzięki czemu od razu będziesz wiedział czy pracujesz na tabeli czy widoku.

Zmaterializowane widoki

Widok zmaterializowany w GCP BigQuery jest jak połączenie tabeli i widoku.
Przechowuje wyniki zapytania SQL jako strukturę podobną do tabeli w BigQuery, podobnie jak tabela przechowuje dane.
Jednak w przeciwieństwie do zwykłej tabeli, widoki zmaterializowane automatycznie aktualizują przechowywane dane wynikowe po zaktualizowaniu tabel bazowych w czasie rzeczywistym, bez konieczności ponownego uruchamiania zapytania.
Widok zmaterializowany można porównać do migawki wyniku zapytania, zapisywanej jako tabela i aktualizowanej za każdym razem, gdy dane bazowe są aktualizowane.
Może to być bardzo pomocne w przypadku dużych zestawów danych lub zapytań, których uruchomienie zajmuje dużo czasu, ponieważ można je wstępnie obliczyć w widoku zmaterializowanym, aby uzyskać do nich szybki dostęp.
Poniżej znajdziesz kilka podstawowych cech widoków zmaterializowanych w BigQuery:
Zasadniczo, widoki zmaterializowane oferują niskie lub zerowe koszty utrzymania i zwracają świeże dane za każdym razem i przy każdym zapytaniu, niezależnie od tego, jak niedawno zaktualizowano tabele bazowe.
Zmaterializowane widoki są najoptymalniejszym rozwiązaniem do zasilania Twoich narzędzi Business Intelligence jak Looker Studio, o którym więcej możesz przeczytać tutaj.

Użytkownikom końcowym zapewniają dostęp do najświeższych danych w narzędziu BI a z punktu widzenia hurtowni danych gwarantują minimalizację kosztów związanych z ich obsługą.

Jak stworzyć zmaterializowany widok w BigQuery?

Zmaterializowany widok tworzymy tak samo jak widok przy pomocy operacji DDL dodając słowo materialized przed słowem view.
Tworzenie zmaterializowanego widoku

Funkcje i procedury

Funkcje i procedury (z ang. Users Defined Functions czyli UDF) to sposób na przechowywanie i wykonywanie instrukcji SQL lub JavaScript w GCP BigQuery.

Umożliwiają one napisanie fragmentu kodu wielokrotnego użytku, który można wywołać z dowolnego miejsca w zapytaniu.
Procedur składowanych można używać do obsługi złożonych procesów ETL, wykonywania wywołań API i przeprowadzania walidacji danych.

Osobiście procedury składowane są moją ulubioną funkcją BigQuery, dzięki której można automatyzować wiele codziennych zadań.

Jeśli korzystasz z Pythona lub znasz dowolny język programowania, możesz myśleć o nich jako o funkcjach zdefiniowanych przez użytkownika, w których możesz podać niestandardowe parametry, aby zwrócić żądane dane wyjściowe.
W podobny sposób procedury składowane mają następujące cechy:
Jak zapewne sobie wyobrażacie przypadki ich zastosowania są niezliczone.
Poniżej napiszę kilka z nich tak aby rozjaśnić Ci w jakich sytuacjach warto po nie sięgnąć.

Jak stworzyć funkcję w BigQuery?

Z pomocą znowu przyjdzie nam komenda DDL : Create or replace. W tym przypadku wpisujemy Create or replace function a następnie w nawiasie podajemy jej parametry. Po fragmencie tekstu AS w nawiasie opisujemy co funkcja ma robić.
Poniżej przykład, w którym raz napisany CASE może być później łatwo stosowany we wszystkich naszych zapytaniach co oszczędza nam sporo czasu podczas codziennej pracy.
Tworzenie funkcji w BigQuery

W tym artykule omówiliśmy niektóre z kluczowych zalet BigQuery i kilka powszechnie używanych metod przechowywania danych.

Wiele z tych pojęć może być ci już znanych, jednak mogło to być również dobre podsumowanie tego, jaki różne obiekty danych są dostępne w BigQuery i kiedy z nich korzystać.

W kolejnej części opiszę pozostałe kluczowe funkcjonalności BigQuery.
Dokładne zapoznanie się z jej podstawami pomoże Ci zbudować optymalną kosztowo, bezpieczną i w pełni skalowalną hurtownię danych gotową by wspierać najważniejsze zadania analityczne Twojego biznesu.
SPIS TREŚCI
Ikona plików cookies

Nasza strona korzysta z plików cookies.