Poslední 2-3 roky se nějak v analytice neustále vracím k základům.
Ano, můžete si dneska hrát s AI. Používat Marketing mix modeling.
Můžete data ďábelsky spojovat a dělat na nimi zapeklité analýzy a divoké pohledy insighty.
Ale neustálé narážím na to, že ikdyž někteří lidé používají třeba server GTM a mají super vymakané nastavení v Google Ads, tak výsledná měření jsou však často nepřesná. Tato situace se pravidelně opakuje a upozorňuje na to, že bez precizního sběru a validace dat jakékoli pokročilé metody se více a více odchylují od reality.
Jak se říká: „garbage in, garbage out“. Pokud jsou vstupní data nekvalitní, výstupní analýzy a insighty jsou pouze iluzí a nemají reálnou hodnotu.
Ono není sexy prodávat „základní analytiku“ – čistota, konzistence a správnost vstupních dat – je prioritní a nelze ji přeskočit.
Proč je tomu tak? Za mě:
- Konec Universal analytics a příchod GA4 v kombinaci s neexistujícím best practice a to rozhodilo kvalitu sběru dat.
- Implementací v době nejistoty v GA4 byli udělány změny a ty už pak nikdo neopravil s tím, jak známe GA4 lépe a lépe a s novými funkcemi.
- Modelovávání dat, které je také blackbox, přidalo další hromadu nejistoty,
- Nutnost souhlasu, další nejistota v datech.
- Snížená živostnost identifikátorů uživatele jako je cookie (ITP, ETP etc.) pro různé prohlížeče.
Řešení:
- Vracejte se ke starším implementacím měření a nebojte se dělat změny. To co bylo super 4 roky zpět, nemusí být nyní už doporučené řešení.
- To, že jste to něják dříve nastavili není chyba, dělali jste to nejlepší v daný okamžik, že to už dneska není aktuální není chyba, chyba je to jen to nechat měřit po staru, nepřesně.
- Mazejte nepotřebné eventy, parametry.
- Validujte si čísla s databázemi služby / e-shop.
- Snažte se pochopit jak fungují souhlasy a další modelování.
- Pracujte s raw daty z Google big query.
- Při měření používejte event parametry pro dodávání více kontextu.
Jak je to u vás? Taky se teď více vracíte k základům?