TNO Verschillen In Website Statistieken Onderzoek

28
Feiten, fabels en verwachtingen Verschillen in Web Analytics maart 2009 – Almerima Jamakovic, Bart Gijsen, Martijn Staal

description

TNO heeft in samenwerking met Blue Mango, ClickValue, Maximum en Netprofiler onderzoek gedaan naar de betrouwbaarheid van webstatistieken. Belangrijke vragen hierbij waren in welke mate verschillen reëel en acceptabel zijn, hoe de betrouwbaarheid van webstatistieken voor een specifieke implementatie van statistieken te bepalen is. Deze resultaten van het onderzoek zijn op woensdag 25 maart gepresenteerd tijdens een meeting van Web Analytics Association Nederland.

Transcript of TNO Verschillen In Website Statistieken Onderzoek

Page 1: TNO Verschillen In Website Statistieken Onderzoek

Feiten, fabels en verwachtingen

Verschillen in Web Analytics

maart 2009 – Almerima Jamakovic, Bart Gijsen, Martijn Staal

Page 2: TNO Verschillen In Website Statistieken Onderzoek

2

Inhoud

InhoudInhoud

WA data analyseWA data analyse

WA test in gesloten omgevingWA test in gesloten omgeving

ConclusieConclusie

Doel van het projectDoel van het project

• aanleiding: WA verschillen wat is waar?

• validatie van gangbare opinies m.b.t. WA verschillen• welke afwijkingen zijn acceptabel’?

• toelichting testomgeving• geverifieerde oorzaken van afwijkingen• geconstateerde oorzaken

Page 3: TNO Verschillen In Website Statistieken Onderzoek

3

Doel van het project

• Klant en/of bureau merken grote verschillen in statistiekmetingen bij bijvoorbeeld:

• Migratie naar ander WA pakket• Toepassing STIR naast WA • Afrekenen van bannercampagne (DART)• Verkoop website

• Doelen WA project:• Inzichtelijk maken van verschillen en

manier waarop WA metingen uitvoeren• Geef houvast in discussie over verschillen: wat zijn ‘reële

afwijkingen’

Welke gegevens zijn waar?

Wanneer zijn de data betrouwbaar?

Page 4: TNO Verschillen In Website Statistieken Onderzoek

4

Overzicht van de deelnemers & betrokken partijen

• Projectteam:

• Deelnemers data benchmark & gesloten test:

• Betrokken mediapartijen:

• Indirect betrokken:

+ Nederlandse kabelmaatschappij

Page 5: TNO Verschillen In Website Statistieken Onderzoek

5

Aanpak: data analyse en test in gesloten omgeving

• Tijdens de WA data analyse worden statistiekendata van externe websites vergeleken en geanalyseerd op verschillen

• Websites met meerdere webstatistiekpakketten leveren data• TNO analyseert• Doel: inzicht in ‘acceptabel’ niveau van verschillen

• Tijdens de test in gesloten omgeving worden oorzaken van verschillen verder onderzocht

• Gesloten website wordt gebruikt waarbij het verkeer met tool Selenium te reguleren is

• Sessies en variabelen zoals IP-adressen, browser types e.d. zijn door TNO in te stellen

• Doel: oorzaken van verschillen verder uitdiepen

Page 6: TNO Verschillen In Website Statistieken Onderzoek

6

Inhoud

InhoudInhoud

WA data analyseWA data analyse

WA test in gesloten omgevingWA test in gesloten omgeving

ConclusieConclusie

Doel van het projectDoel van het project

• aanleiding: WA verschillen wat is waar?

• validatie van gangbare opinies m.b.t. WA verschillen• welke afwijkingen zijn acceptabel’?

• toelichting testomgeving• geverifieerde oorzaken van afwijkingen• geconstateerde oorzaken

Page 7: TNO Verschillen In Website Statistieken Onderzoek

7

WA Data Analyse

STIR

HBX

√Typhone

√√√Ilsemedia-x

Sitestat

Webtrends

Speed Trap

Google Analytics

Kabeloperator

TNO.nl

Univé.nl

Agis

DARTWebsite

• Vergeleken WA metrics zijn: visits, visitors en page views • op dag, week en maandniveau

•Doel: inzicht in welke verschillen acceptabel zijn

• Analyse webstatistieken data van meerdere websites

• Vergelijking Google, Sitestat, Webtrends, STIR en DART data

Page 8: TNO Verschillen In Website Statistieken Onderzoek

8

Vragen & hypotheses voor WA data analyse

• WA pakketten op dezelfde website genereren afwijkende waarden?

• Afwijkingen tussen WA pakketten zijn website specifiek?

Welke procentuele afwijking is reëel?

• Meerwaarde WA output zit in relatieve waarden en trends; niet in absolute waarden?

• Wat is de relatie tussen WA, STIR en DART?

Page 9: TNO Verschillen In Website Statistieken Onderzoek

9

Hoofdvraag: welke procentuele afwijking is reëel?

Zijn WA metingen Normaal verdeeld?

-2

-1,5

-1

-0,5

0

0,5

1

1,5

2

-1,5 -1 -0,5 0 0,5 1 1,5

Visitors (AdvancedMD)

Page view s (AdvancedMD)

Ja, WA output waarden zijn Normaal verdeeld!

Parameters van Normale verdeling hangen af van:

• website (content, structuur, technologie, …)• WA metric (visitors vs. page views)

Observatie: er is een vrij duidelijke bovengrens op de genormaliseerde maat voor spreiding van WA verschillen ( = variatiecoëfficiënt )

So what ???

1. Het feit dat verschillen Normaal verdeeld zijn impliceert dat verschillen veroorzaakt worden door een veelheid, van elk op zich niet-dominante oorzaken

2. Dit geeft de basis voor concrete vuistregels m.b.t. ‘acceptabele afwijkingen’• zie volgende slide

QQ plot tno.nl data

-1,2

-0,8

-0,4

0,0

0,4

0,8

1,2

-0,70 -0,35 0,00 0,35 0,70

Visits Page viewsVisitors

Zijn WA metingen normaal verdeeld?

Page 10: TNO Verschillen In Website Statistieken Onderzoek

10

Dus … welke procentuele afwijking is reëel?WA checklist voor implementatie en betrouwbaarheid• Constaterende dat

a. verschillen in WA Normaal verdeeld zijn en • voor alle aangeleverde data en die uit literatuur [Shootout] geldt ditb. dat de “variatiecoëfficiënt” < 0.1 (= maat voor verschillen WA data)• voor bijna alle aangeleverde data en die uit literatuur [Shootout] geldt dit

• Dan gelden de volgende vuistregels als ‘acceptabele afwijking’:

• en … het aantal bezoekers, bezoeken, page view heeft hierop geen invloed• en … deze procentuele afwijkingen schalen lineair in de variatiecoëfficiënt

32,4%19,7%4

34,7%22,5%5

36,6%24,7%6

29,0%15,8%3

23,2%9,5%2

Max-Min afwijking zelden(1 op 10) groter dan …

Max-Min afwijking meestal(1 op 2) niet groter dan …

Aantal WA pakketten

Anders is sprake van een

verkeerde implementatie!

Page 11: TNO Verschillen In Website Statistieken Onderzoek

11

Praktijk toets: configuratiefouten identificeren

Afwijking pageviews tussen Sitestat en GA

-45,0%

-40,0%

-35,0%

-30,0%

-25,0%

-20,0%

-15,0%

-10,0%

-5,0%

0,0%

5,0%

10,0%

15,0%

20,0%

25,0%

1-8-2008 1-9-2008 2-10-2008 2-11-2008 3-12-2008

Proc

entu

ele

afw

ijkin

g

(Sitestat - GA)%, PV per dag

(Sitestat - GA)%, PV per week

(Sitestat - GA)%, PV per 4-weken

meestal < 9,5%

zelden > 23,2%

incident waardoor één tag niet runt

GA tags waren niet op alle pages

geplaatst

Er is een maximum afwijking aan te geven voor ‘acceptabele afwijking’ WA data

Afwijkingen groter dan deze waarden duiden op configuratieverschillen / technische problemen / … In dat geval is interpretatie-verschil van WA data misleidend en dient onderzocht te worden

Page 12: TNO Verschillen In Website Statistieken Onderzoek

12

Relatie WA output en STIR, DART

• OPMERKING: doel van STIR en DART is niet hetzelfde als van Web Analytics

• daarom zijn b.v. meetmethodiek en metrics anders

• Studie Nedstat / Intomart:• “weersta de verleiding om te vergelijken”

Page 13: TNO Verschillen In Website Statistieken Onderzoek

13

Relatie WA output en STIR

Voorbeeld: aantal ‘visits’ (genormaliseerd)

Absolute aantallen WA en STIR onvergelijkbaar (vanwege statistische opschaling)

Trend komt iets meer overeen, maar niet zo goed als tussen WA pakketten

Trendvergelijking WA and STIR

40,0%

50,0%

60,0%

70,0%

80,0%

90,0%

100,0%

jul-09 jul-09 aug-09 sep-09 okt-09 nov-09

Gen

orm

alis

eerd

e vi

sits

aant

alle

n

Google AnalyticsSitestatSTIR

Page 14: TNO Verschillen In Website Statistieken Onderzoek

14

Relatie WA output en DART

Voorbeeld: aantal page views versus som van deliveredimpressions (genormaliseerd)

Absolute aantallen WA en DART minder vergelijkbaar dan WA pakketten onderling

Trend komt iets meer overeen, maar niet zo goed als tussen WA pakketten

Trendvergelijking WA en DART

40,0%

50,0%

60,0%

70,0%

80,0%

90,0%

100,0%

jul-09 aug-09 sep-09 okt-09 nov-09 dec-09

Gen

orm

alis

eerd

e PV

/ im

pres

sion

s aa

ntal

len Google Analytics

SitestatDART

Page 15: TNO Verschillen In Website Statistieken Onderzoek

15

WA verschillen: conclusies uit de data analyseWA pakketten op dezelfde website genereren afwijkende waarden

aantal soms tientallen % uit elkaarverschillen niet identiek voor visitors, visits, page views, …over meetperiodes heen zijn de onderlinge verschillen vrij constant

Afwijkingen tussen WA pakketten zijn website specifiek

• Een maximum voor ‘acceptabele afwijking’ van WA data is aangegeven

Meerwaarde WA output zit in relatieve waarden en trends; niet in absolute waarden

• WA en STIR / DART niet vergelijkbaar • trends tonen wat meer overeenkomst

Page 16: TNO Verschillen In Website Statistieken Onderzoek

16

Inhoud

InhoudInhoud

WA data analyseWA data analyse

WA test in gesloten omgevingWA test in gesloten omgeving

ConclusieConclusie

Doel van het projectDoel van het project

• aanleiding: WA verschillen wat is waar?

• validatie van gangbare opinies m.b.t. WA verschillen• welke afwijkingen zijn acceptabel’?

• toelichting testomgeving• geverifieerde oorzaken van afwijkingen• geconstateerde oorzaken

Page 17: TNO Verschillen In Website Statistieken Onderzoek

17

Opzet gesloten testomgeving: de website

• Content:• homepage (na redirect)• 2 toelichtingpages (met

‘back’ button)• 4 rapportages ( SQL)• Invoerscherm ( SQL)• Login

• Technologie:• Tomcat server• jsp-pages• geen frames / flash / …• (MySQL database)

Page 18: TNO Verschillen In Website Statistieken Onderzoek

18

Opzet gesloten testomgeving: de website

• Voor ieder pakket is JavaScript geïnstalleerd op de pages van de WPM website:

• Google Analytics, Sitestat, Webtrends• alle pakketten gebruiken 1st party cookies en worden simultaan

gebruikt• we weten het browsinggedrag op de website => exacte aantallen zijn

bekend

• Gedurende een deel van de testperiode werd robot-traffic naar de website gestuurd

Page 19: TNO Verschillen In Website Statistieken Onderzoek

19

Opzet gesloten testomgeving: Verkeer en test cases

• Handmatige expert review• doel: zoeken naar ‘te verwachten afwijkingen’

• Geautomatiseerde browsing sessies met Selenium• doel: zoeken naar niet-reproduceerbare verschillen• tests worden herhaald met andere browser / server settings

• cookies weggooien zodra browser sluit• tag-placement boven / onder, volgorde• browsing met IExplore / Firefox

• Vergeleken worden de traffic numbers: • visits, visitors en page views

Page 20: TNO Verschillen In Website Statistieken Onderzoek

20

Onderzochte verklaringen van afwijkingenFactoren van invloed

op meting web metrics

Browser Webserver / -site WA pakket

Settings:• Ondersteuning script-talen• Pop-up, spyware blocking

Double / not counting page views:• refresh, back-pijl, page anchors• wegklikken vóór complete download

Type browser (IE, Firefox, etc.)• niet iedere browser werkt hetzelfde• bv IE cookies beperkt tot 20/ domein

Double counted page views: • Redirects

Configuratie:• server logging settings• robot.txt

Eigen / 3rd party website

Proxy server caching (b.v. ISP of Internet koppeling)

Tag placement:• top / bottom• alle pages getagd• tags inline geplaatst

Filtering ‘bot’ traffic, pages with errors

Pages / experiences (e.g. Flash, streaming)

Sessie time-out waarden en datumoverschrijding

Gepersonaliseerde URLs kunnen dezelfde page view betreffen

Sessie definitie: • time-outs (b.v. log-in op website)• geldigheidsduur cookie

Settings:• (3rd party) Cookies verwijderen

Data collectie o.b.v. runnen

tags

Data correlatie t.b.v.

visits / visitors

Legenda:Rood = niet onderzocht in gesloten omgevingGroen = onderzocht in gesloten omgevingGrijs = niet van toepassing

Page 21: TNO Verschillen In Website Statistieken Onderzoek

21

Opzet gesloten testomgeving: voorbeeld testje

Constateringen uit deze test:• onvolledig geladen pages en foutieve URLs worden niet meegeteld door WA

pakketten (URLs met response code ≠ ‘OK’ kùnnen geteld worden, mits getagd) • sessie time-out na 30 minuten => 2 visits• GA geeft op deze dag een visit te veel aan …• deze keer werkt datum overgang goed …

Tijd Browse actie Logfile WA pakketten23:05:00 in browser url van homepage ingetypt23:05:05 rapportage gebruiksbeschikbaarheid aangeklikt23:05:10 back-pijl; homepage wordt geladen Niet meegeteld WT23:05:12 rapportage gebruiksbeschikbaarheid aangeklikt23:05:13 back-pijl voordat pagina geladen wordt deel in logfile; Geen enkele pakket telt

(browser gaat van homepage terug naar startpagina) geen complete download deze als page view23:05:15 sluit browser af

23:15:00 in browser url van homepage ingetypt23:15:05 rapportage gebruiksbeschikbaarheid aangeklikt23:15:30 back-pijl; homepage wordt geladen Niet meegeteld WT23:15:35 rapportage gebruiksbeschikbaarheid url ingetypt met van beide browse acties Geen enkele pakket

typefout in query-string komt deel in logfile; telt deze 23:15:40 refresh geen complete download als page view

23:50:00 rapportage gebruiksbeschikbaarheid url ingetypt (correct) Gezien als nieuwe visit 0:05:00 refresh in logfile op 5 mrt Wordt niet meegeteld op0:05:05 sluit browser af 4 mrt

Page 22: TNO Verschillen In Website Statistieken Onderzoek

22

Overzicht van een testweek

Uitmiddelingeffecten over de werkweek periode:• datumovergang middelt uit • GA en Logfile visits zijn gelijk, terwijl ze op 2 van de 5 dagen verschillen

Page views GA Sitestat Webtrends Logfile Bijzonderheden28-2-2009 25 25 20 25 WT rapporteert één pageview per sessie minder (back-pijl), wèl als hit geteld

1-3-2009 30 30 28 30 WT rapporteert één pageview per sessie minder en heeft één visit (rond 0:00 uur) te veel die op 1 mrt i.p.v. 2 mrt wordt meegeteld

2-3-2009 50 50 15 553-3-2009 16 16 13 16 WT rapporteert één pageview per sessie minder (back-pijl), wèl als hit geteld4-3-2009 71 71 58 74 Alle pakketten rapporteren de niet complete download en incorrecte URL niet;

WT rapporteert één PV per sessie minder en mist nog twee PV in laatste sessieTotaal 192 192 134 200

Visits GA Sitestat Webtrends Logfile28-2-2009 5 5 5 5

1-3-2009 6 6 7 6 WT rapporteert één visit rond 0:00 uur te veel die op 1 mrt i.p.v. 2 mrt wordt meegeteld2-3-2009 10 10 4 11 (zie visitors)3-3-2009 2 2 2 24-3-2009 12 11 11 11 GA meldt een visit te veel

Totaal 35 34 29 35

Visitors GA Sitestat Webtrends Logfile28-2-2009 5 5 5 5

1-3-2009 6 6 7 6 WT rapporteert één visitor te veel die op 1 mrt i.p.v. 2 mrt wordt meegeteld2-3-2009 10 10 3 11 GA, Sitestat en Webtrends missen allen één 'losse' visit tussen 11-12 uur;

(waarschijnlijk een Selenium sessie met IExplore die niet geheel werkte). Daarnaast mist WT vanaf tussen 2 en 3 uur de resterende visits (server te druk?)

3-3-2009 2 2 2 24-3-2009 10 10 10 10

Totaal 23 23 17 24

Page 23: TNO Verschillen In Website Statistieken Onderzoek

23

Constateringen uit gesloten testomgeving

• Visitssessie time-out waarde alle pakketten is 30 minutenverwijderen van cookies tot nieuwe bezoeker voor alle WA pakketten

• Datum overgang× niet alle server klokken blijken gesynchroniseerd …

een visit die ‘door 0:00 uur loopt’ wordt in beide dagen meegeteld • Back button, refresh, redirects

× WT telt back-button en refresh als enige pakket niet mee; redirects welautomatische redirects wordt gezien als één page view door ieder WA pakket

• Snel klikken / foutieve URLsgeen van de pakketten telt deze mee

• Filtering van bot-traffic is niet helder geworden× van WA en logfile gegevens is goed te achterhalen wat er gebeurt is, behalve

in de periode dat bot-traffic was aangezet• Browser typen

één IExplore 6.0 visit is geheel aan alle tags ‘ontsnapt’× Data analyse: soms runt WA script niet op (minder vaak gebruikte) browser

Legenda:√ = veroorzaakt geen verschillen in gesloten omgeving× = veroorzaakt wel verschillen in gesloten omgeving

Page 24: TNO Verschillen In Website Statistieken Onderzoek

24

Je moet je best doen om verschillen te ‘creëren’, d.w.z. in de basis werken alle pakketten hetzelfde.

Verschillen zitten in de (vele) details!

Conclusie gesloten testomgeving

Page 25: TNO Verschillen In Website Statistieken Onderzoek

25

Inhoud

InhoudInhoud

WA data analyseWA data analyse

WA test in gesloten omgevingWA test in gesloten omgeving

ConclusieConclusie

Doel van het projectDoel van het project

• aanleiding: WA verschillen wat is waar?

• validatie van gangbare opinies m.b.t. WA verschillen• welke afwijkingen zijn acceptabel’?

• toelichting testomgeving• geverifieerde oorzaken van afwijkingen• geconstateerde oorzaken

Page 26: TNO Verschillen In Website Statistieken Onderzoek

26

Eindconclusie WA verschillen

• Verschillen in WA statistieken zijn een ‘fact of life’• iedereen ziet het; niet iedereen maakt zich er even druk om• verschillen zijn niet éénduidig, niet algemeen geldend• WA verschillen zijn continue in de tijd (afgezien van configuratiewijziging/incidenten)• verschillen hebben veel minder invloed op de trends

• Er is een range aangegeven voor ‘reële’ procentuele WA data verschillen• afwijkingen groter dan deze duiden op configuratieverschillen / incidenten

• Data uit WA en STIR / DART zijn niet vergelijkbaar• absolute waarden WA en STIR / DART zijn niet te vergelijken• trends tonen iets meer overeenkomst, maar zelfs deze komt niet helemaal overeen

• Verklaring van oorzaken …• WA pakketten zijn in de basis hetzelfde, die in principe dezelfde getallen geven• de verschillen zitten in (vele) details !

Page 27: TNO Verschillen In Website Statistieken Onderzoek

27

Afronding project & vervolg

• Presentatie op WAA congres• woensdag 25 maart 2009, http://waanetherlands.wordpress.com/

• Publicatie op Marketing Facts

• Persbericht TNO.nl en websites deelnemers

• Contact over resultaten met Eric Enge (StoneTemple, auteur Shootout) en Eric Peterson (Analytics Demystified)

Page 28: TNO Verschillen In Website Statistieken Onderzoek

28

[email protected]

06 51916237

[email protected] 53725218