Zarządzanie budżetem rzędu kilkuset tysięcy złotych na kilku niezależnych platformach sprawia, że szacowanie zwrotu z inwestycji staje się w pewnym momencie wyliczaniem wróżbitów. Posiadanie oddzielnych silosów — systemu od raportowania w Facebook Business Managerze obok całkowicie odciętego menedżera Google Ads — pęta Twoje ręce w modelowaniu precyzyjnego Lejka Atrybucji. Wymuszenie centralizacji poprzez transferowanie całego tego zgiełku metryk za kulisy BigQuery to wejście do elity e-commerce.

Data Transfer wchodzący "Natywnie" krok po kroku

Połączenie infrastruktury Google z infrastrukturą Google (czyli wpięcie Google Ads pod bazę BigQuery DWH) nie wymaga skomplikowanego kodowania. Gigant z Mountain View osadza w BigQuery moduł BigQuery Data Transfer Service. Po kilkunastu intuicyjnych autoryzacjach i kliknięciach na platformie "Konfiguruj Nowy Transfer" – BigQuery codziennie pobiera gotowe gigabajty zdarzeń z Ads, obudowując je w gotowe, potężne relacje bazo-danowe (widoki).

Co od strony innej korporacji? Połączenie z Facebook Ads.

Z metapołączeniem (Mety i Facebooka) sprawa wygląda marginalnie inaczej ze względu na brak "gotowych na wczoraj" połączeń pomiędzy konkurentami. Rozwiązania dla Agencji oraz niezależnych B2B redukują się powszechnie do dwóch dominujących scenariuszy, redukując opory na każdym kroku transferowania danych rzędu JSON/API:

  • "No Code" Middleware Platformy (np. Supermetrics / Fivetran): Rewelacyjne serwisy pośredniczące dla potężnych agencji marketingowych, które na kilka kliknięć wykonują za Ciebie całą mechaniczną logistykę podłączeń i utrzymania (Maintenance) certyfikatów bezpieczeństwa pomiędzy FB Api, a Twoim serwerem GCP. Problem polega na olbrzymich licencjach - koszty tych firm sięgają nieraz do kilkunastu Dolarów miesięcznie, redukując marżowość małych i średnich sklepów.
  • Serwery Cloud Functions na języku Python / Node.JS (Spersonalizowana Rzeźba): Własna, darmowa chmurkowa "wtyczka" wykonana przez doświadczonych Inżynierów. Inżynier Danych (Data Engineer) pisze na żądanie skrypt Python, który budzi się (Cron Job), ściąga pętlą raport JSON bezpośrednio ze zlecenia Marketing API Facebooka i wrzuca go centralnie i bezpiecznie w ramy kolumnowe BigQuery. Model darmowy pod względem miesięcznym wdrożonym systemie na resztę zlecenia.
"Nawet idealna klastrowa optymalizacja reklam na poziomie algorytmów samej Mety zblednie w precyzji przed potęgą ludzkiego raportu BI (Looker Studio) sprzężonego z jednoczesnym rozliczeniem konwersji pomiędzy kosztami z obu dróg (Google VS Facebook) zespolonymi ze sobą w BigQuery w obłokowym łączeniu Join."

Konkluzja

Zbieranie danych z rozsypanych kont generuje błędy i spisy ręczne dla analityka prowadzącego twój sklep poprzez Arkusz Excel. Odseparuj się od tego absurdu integracją i wywal twarde dane przez API do bazodanej hurtowni, gdzie stają się ułożone pod zaawansowane skrypty Looker Studio.