Samenvatting populatie

38
Samenvatting populatie HC 0 Statistiek gaat over het analyseren van gegevens waarbij het erom gaat waar je naar kijkt, waarmee je kijkt, met welke bril je dit doet en of je beeld vertroebeld wordt en wat je hieraan zou kunnen doen. Statistisch onderzoek gaat altijd uit van populaties. Voorbeelden hiervan zijn - Een groep mensen (leger, marathonlopers etc.) - Een kudde schapen - Bacterie kolonies - Bloedcellen Bij biomedisch onderzoek doe je uitspraken over categorieën en hun eigenschappen. Hierbij moet je uitzoeken of deze uitspraak waar is voor elk object/individu op zich of dat het gemiddeld waar is voor de hele categorie. Ook is het belangrijk goed om te gaan met variatie en variabiliteit. Het gaat om het vergelijken van verschillen en overeenkomsten in kwalitatieve en kwantitatieve gegevens. Bij kwalitatief onderzoek is het belangrijk hoe nauwkeurig de meetgegevens zijn. Kortom; wat is de meetfout? Hiervoor zijn de standaardfout en het betrouwbaarheidsinterval twee belangrijke aspecten. Het is ook belangrijkheid hoe de gegevens binnen de groep variëren en hoe groot het verschil tussen de groepen is. Kortom; zijn de verschillen significant? HC 1 Statistiek is een hulpmiddel op weteschappelijk onderzoek te doen, te begrijpen en te analyseren. Het is nodig op veel momenten in de onderzoekscyclus, zoals bij het opzetten van de methode, het verwerken van de resultaten en het trekken van de conclussies uit het onderzoek. Het doel van het gebruik van statistiek is dat we uiteindelijk iets willen zeggen over een populatie. Meestal is de populatie zo groot, dat deze niet volledig gemeten kan worden. In dat geval neem je een steekproef. Deze steekproef zegt uiteindelijk iets over de hele

description

Samenvatting van verschillende toetsingsmethoden voor statistische toesting, significantie bepaling en p-waardes. tabellen niet inbegrepen!

Transcript of Samenvatting populatie

Page 1: Samenvatting populatie

Samenvatting populatie

HC 0Statistiek gaat over het analyseren van gegevens waarbij het erom gaat waar je naar kijkt, waarmee je kijkt, met welke bril je dit doet en of je beeld vertroebeld wordt en wat je hieraan zou kunnen doen. Statistisch onderzoek gaat altijd uit van populaties. Voorbeelden hiervan zijn

- Een groep mensen (leger, marathonlopers etc.)- Een kudde schapen- Bacterie kolonies- Bloedcellen

Bij biomedisch onderzoek doe je uitspraken over categorieën en hun eigenschappen. Hierbij moet je uitzoeken of deze uitspraak waar is voor elk object/individu op zich of dat het gemiddeld waar is voor de hele categorie. Ook is het belangrijk goed om te gaan met variatie en variabiliteit. Het gaat om het vergelijken van verschillen en overeenkomsten in kwalitatieve en kwantitatieve gegevens.

Bij kwalitatief onderzoek is het belangrijk hoe nauwkeurig de meetgegevens zijn. Kortom; wat is de meetfout? Hiervoor zijn de standaardfout en het betrouwbaarheidsinterval twee belangrijke aspecten. Het is ook belangrijkheid hoe de gegevens binnen de groep variëren en hoe groot het verschil tussen de groepen is. Kortom; zijn de verschillen significant?

HC 1Statistiek is een hulpmiddel op weteschappelijk onderzoek te doen, te begrijpen en te analyseren. Het is nodig op veel momenten in de onderzoekscyclus, zoals bij het opzetten van de methode, het verwerken van de resultaten en het trekken van de conclussies uit het onderzoek.

Het doel van het gebruik van statistiek is dat we uiteindelijk iets willen zeggen over een populatie. Meestal is de populatie zo groot, dat deze niet volledig gemeten kan worden. In dat geval neem je een steekproef. Deze steekproef zegt uiteindelijk iets over de hele populatie. Een steekproef neem je omdat je in principe te maken hebt met een oneindig grote populatie, bepekte tijd/mogelijkheiden/geld en het soms gaat om destructieve tests. De steekproef moet dan echter wel aselect (random) en representatief zijn. Aselect wil zeggen dat iedereen een even grote kans heeft om in de steekproef opgenomen te worden. Representatief betekent dat de groep uit de steekproef model kan staan voor de gehele populatie.

Je hebt verschillende soorten variabelen met verschillende manieren om ze te weergeven.Zo heb je kwalitatieve (haarkleur, huidtype, aan-/afwezigheid van organellen of mutaties etc.) en kwantitatieve (lichaamslengte/-gewicht, concentraties van stoffen, dichtheid van receptoren in een membraan etc.) gegevens. Verschillende variabelen zijn nominale (categorieën, geen volgorde; bv jongen of meisje), ordinale (categorieën met volgorde; bv. Laag-midden-hoog, slecht-beter-goed), numerieke-discrete (bv. Aantal broers/zussen) en numerieke-continue (bv. Geboortegewicht) variabelen.Er wordt ook nog onderscheid gemaakt tussen binaire data, discrete tellingen en continue data.

Page 2: Samenvatting populatie

Binaire data is of positief of negatief (bv. wel of niet ziek, goed- of kwaadaardige tumoren, wildtype of gemuteerd). Discrete tellingen zijn positieve, gehele getallen (bv. Aantal afwijkende cellen, aantal genkopieën per cel). Continue data zijn waarden die in theorie elke positieve waarde aan kunnen nemen (bv. Concentraties van stoffen).

Weergave van de gegevens; frequentietabel, staafdiagram, histogram, boxplot, mosaic plot, spreidingsdiagram, kruistabel etc etc.

Voor het maken van een histogram gelden een paar basisprincipes, die het maken ervan gemakkelijker maken: Verdeel de metingen in klassen. Gebruikt als indicatie voor het aantal klassen de wortel van het aantal metingen, met een minimum van 6 en een maximum van 20. Om de grootte van elke klas te bepalen deel je de range van de metingen door het aantal klassen. De range is de hoogste meting minus de laagste meting.

Boxplot: De box van de boxplot wordt gevormd door het eerste en het derde kwartiel (P25/Q1 en P75/Q3). De mediaan wordt gevormd door P50 (Q2). De whiskers van de plot reiken tot de verste meting die geen uitbijter is. Een uitbijter is een meting die verder van de box ligt dan 1,5x de boxgrootte/interkwartiel afstand/het gebied tussen Q1 en Q3. Waarden die extreem afwijken worden aangegeven met o. Als een meting heel erg extreem afwijkt, wordt deze met een * aangegeven.

Een kruistabel wordt gebruikt bij het samenvoegen van twee nominale variabelen. Hier kunnen ook staafdiagrammen voor gebruikt worden of een mozaïk plot. Een Mozaïk plot voegt de twee staafdiagrammen samen, waardoor ze beide tot 100% reiken, wat niet het geval is bij een staafdiagram. De verschillende delen worden onderscheiden door verschillende kleuren. In een spreidingsdiagram worden twee continue variabelen tegen elkaar uitgezet.

In de beschrijvende statistiek zijn verschillende maten voor het interpreteren van diagrammen en plots. Er zijn locatiematen (zoals gemiddelde, mediaan, modus en geometrisch gemiddelde) en er zijn spreidingsmaten (zoals variantie, standaarddeviatie en range). De metingen kunnen ook scheef verdeeld zijn. Een rechtsscheve verdeling geeft in een histogram een staart aan de rechterkant. In een boxplot liggen de meeste uitbijters aan de bovenkant en is de bovenste whisker langer. In een linksscheve verdeling is dit precies andersom. De linkerkant vormt de staart in een histogram en onderkant bevat de meeste uitbijters en de langste whisker in een boxplot.

Een kans is in feite het aantal keren dat een verschijnsel zich voordoet. Dit is empirisch en theoretisch te bepalen. Denk maar aan het opgooien van een muntje. Je kunt dit zelf proberen en 1000 keer het muntje opgooien of berekenen dat er een kans is van 50% voor kop en 50% voor munt.

Om te controleren of een set metingen voldoet aan de normale verdeling kun je een Q-Q plot doen. Als alle metingen mooi op de lijn liggen zijn de metingen normaal verdeeld. Als de metingen n iet op een lijn liggen zijn ze niet normaal verdeeld. De normale verdeling is een functie van locatiemaat µ en spreidingsmaat σ2. Er zijn dus heel veel mogelijke verdelingen.

Page 3: Samenvatting populatie

Om deze verdelingen wat makkelijker te kunnen bekijken is het handig om er een standaard normale verdeling van te maken met behulp van een Z-transformatie. Hierbij geldt:

N(0,1) is een standaard normale verdeling, hierbij vallen de mediaan en het gemiddelde samen.µ is te schatten m.b.v. het steekproefgemiddeldeσ is te schatten m.b.v. de steekproefvariantieDe gevonden waarde voor Z is op te zoeken in de tabel en hieruit is dan de waarde te lezen.Let wel op, deze waarde is tweezijdig. Door te delen door twee krijg je de kans voor alleen boven of onder.

De relatie tussen de willekeurige normale verdeling en de standaard normale verdeling:Bij een willekeurige normale verdeling ligt 68% van de metingen tussen µ-σ en µ+σ, waar dat bij een standaard normale verdeling tussen de -1 en +1 ligt. Bij een willekeurige normale verdeling ligt 95% van de metingen tussen µ-σ2 en µ+σ2, wat bij een standaard normale verdeling tussen de -2 en +2 ligt.

Bij een precieze set metingen liggen alle metingen dicht bij elkaar. Bij een biased set metingen liggen de metingen niet in de buurt van het punt waar je de metingen verwacht/wil. Bias = systemische afwijking Precisie = nauwkeurigheid

HC 2Bij steekproeven heb je te maken met een aantal waarden. Allereerst is het de waarde n erg belangrijk. Dit is het aantal metingen dat je doet. Wanneer je weinig metingen doet is het handiger om deze te weergeven in een boxplot of dotplot. Een staafdiagram zegt hierover niet veel.

Veel onderzoekers gebruiken bij het weergeven van hun data de standard error of the mean, de SEM. Dit is een spreidingsmaat welke afhankelijk is van het aantal metingen. De SEM is meestal ook kleiner dan de standaarddeviatie (SD), omdat voor het schatten van de SEM de SD gedeeld wordt

door √ n. (SEM=SD√n

).

Het uiteindelijke doel van een steekproef is iets zeggen over de gehele populatie. Hierbij is er een klein nadeel. Je hebt altijd te maken met steekproefvariabiliteit. Dat wil zeggen dat geen één steekproef gelijk aan elkaar is. Stel je doet 100 metingen. Uit deze 100 metingen krijg je een gemiddelde, waarbij je je altijd moet afvragen of dit een goed en logisch gemiddelde is. Uit de metingen krijg je ook een bepaalde SD. Bij de SD moet je je afvragen of dit klein of groot is.Als je nu 100 keer een gemiddelde waarde neemt uit vier metingen, zal je op een ongeveer gelijk gemiddelde uitkomen, alleen de SD wordt kleiner, omdat er nu naar de SD van het gemiddelde wordt gekeken, oftewel de SEM. De SD geldt dus alleen voor één waarneming, waar de SEM voor de gemiddelde waarneming geldt.

Page 4: Samenvatting populatie

Je zou ook kunnen zeggen dat naarmate n groter wordt het effect van uitbijters afneemt en de variabiliteit in de schatting van het steekproefgemiddelde kleiner wordt. In het geval van een n die oneindig groot is, is het gemiddelde het echte gemiddelde en worden de SD en de SEM gelijk aan nul.De variabiliteit in de schatting van het steekproefgemiddelde wordt uitgedrukt door de SEM en het

betrouwbaarheidsinterval (b.h.i.). De SEM is gelijk aan σ√n

. Omdat σ nooit bekend is, wordt de SD

gebruikt als schatting van σ. Het is belangrijk de SEM niet met de SD van de waarnemingen te verwarren.

De algemene vorm van het b.h.i. is schatting v /d parameter ± kritieke waarde ×standaardfout

De schatting van de parameter is het gemiddelde. De kritieke waarde is op te zoeken in de students T tabel. De standaardfout van de parameterschatting is een maat vor de variabiliteit ervan. Dit betekent dat de standaardfout ofwel de SD is ofwel de SEM. Dit is afhankelijk van het soort waarnemingen waar vanuit gegaan wordt. Dit interval geeft 95% betrouwbaarheid. Dat wil zeggen dat er ook 5% onbetrouwbaar is.

Als er steekproeven genomen worden uit een grote populatie en voor iedere steekproef wordt het 95%-betrouwbaarheidsinterval (95%b.h.i.) voor een specifieke grootheid (zoals het gemiddelde), dan ligt de populatiewaarde µ bij 95% van de steekproeven binnen de grenzen van het b.h.i.. In 5% van de gevallen valt deze populatiewaarde echter buiten het b.h.i.. Dit betekent niet dat dit standaard zo is. Bij een kleine hoeveelheid (bijvoorbeeld 100 steekproeven) kan het best zijn dat in 7 gevallen de populatiewaarde erbuiten valt. Pas bij een hele grote hoeveelheid steekproeven zul je op de 95-5 verdeling komen. Bij een 95%b.h.i. moet echter niet gezegd worden dat er 95% kans is dat de populatiewaarde binnen het interval ligt. De kans dat de waarde in het interval ligt is 0 of 1. Je kunt daarentegen wel met 95% zekerheid zeggen dat de waarde erbinnen ligt.

Een student’s T-verdeling met een oneindig aantal vrijheidsgraden (afhankelijk van n, df = n-1) is gelijk aan de standaard normale verdeling; N(0,1). In dat geval is de kritieke waarde 1,96. De centrale limietstelling hierbij: Als n waarnemingen (X1, X2, ... , Xn) onafhankelijk en identiek verdeeld zijn met gemiddelde µ en variantie σ2, dan is het gemiddelde van deze waarnemingen bij benadering normaal verdeeld met een gemiddelde dat gelijk is aan µ en een variantie (SEM,

gemiddelden) van σ 2n

. Dit geldt echter alleen als n groot genoeg is. Notatie: N(µ, σ 2n

).

Kortweg betekent dit: Als je het gemiddelde neemt van veel steekproeven zijn deze variabelen ongeveer normaal verdeeld.

Bij het vergelijken van twee populaties die niet gepaard zijn, zoals het meten van de pH met twee verschillende soorten elektroden, moet je er vanuit gaan dat de variantie bij beide groepen gelijk is en alleen het gemiddelde verschilt. In dit geval bereken je het b.h.i. met:

Page 5: Samenvatting populatie

Hierbij trek je het gemiddelde van de tweede set metingen van het gemiddelde van de eerste set metingen af. Om de uiterste waarden te verkrijgen, wordt hier de kritieke waarde maal de standaardfout van de twee sets metingen vanaf gehaald. De kritieke waarde is gelijk aan α/2 bij het totaal aantal metingen (n1+n2) min twee vrijheidsgraden.

De standaardfout van de twee sets wordt berekend met:

Hierbij is {sp2 } het gewogen gemiddelde van de twee steekproefvarianties. Het wordt ookwel de

gepoolde variantie genoemd, vandaar de p. Als de ene steekproef groter is dan de ander, betekent dit dat de steekproefvariantie van die steekproef een meer acurate schatting is van de werkelijke populatievariantie. In zo’n geval moet de steekproefvariantie van de grotere steekproef zwaarder tellen dan de kleinere. Dit gebeurt met de volgende vergelijking:

In deze formule zijn alle termen met een 1 van de eerste set metingen en alle termen met een 2 van de tweede set metingen.

Bij gepaarde waarnemingen is het makkelijker om het b.h.i. te berekenen. Er zijn twee varianten voor een gepaarde waarneming; een cross-over trial en een matched case-control study.In een cross-over trial zijn er twee uitkomsten per patiënt; een voor en een na meting. Dit zorgt ervoor dat elke patient zijn/haar eigen controle vormt. Bij een matched case-control study is er aan elke patiënt een controle persoon gekoppeld, welke afgestemd is op leeftijd, gewicht, afkomst etc.. Het is bij beide belangrijk dat het gaat om binnen-patiënt variantie en dat er geen tussen-patiënt variantie is. Voordat er met de gegeven gerekend kan worden, wordt de Δ (het verschil) tussen de twee rijen data berekend. Deze term wordt d genoemd en voor elke meting wordt d apart berekend. Hierna is d te zien als een aparte set metingen, maar deze is onafhankelijk van geslacht of leeftijd o.i.d.. Uit deze set metingen worden het gemiddelde d en de SD(d) berekend. Hierdoor heeft met niet meer te maken met twee sets metingen (zoals voor en na), maar met één set. De hoeveelheid metingen in die set zijn dan gelijk aan n. Om vervolgens het b.h.i. te berekenen, wordt gebruik gemaakt van de volgende formule.

Deze formule is exact hetzelfde als voor een losse set data. Omdat het gaat om een verschil, is er voor de letter d gekozen, in plaats van de X van een enkele reeks data. De s.e.(d) (standaardfout van het gemiddelde van d) wordt berekend door:

Hierbij gaat het natuurlijk om de variantie en het aantal metingen (n) van d.

Een korte samenvatting.De standaarddeviatie (s) geeft de spreiding weer van individuele waarnemingen. Het wordt een steeds betere schatting van σ naarmate het aantal waarnemingen (n) toeneemt. De

Page 6: Samenvatting populatie

standaarddeviatie wordt berekend door de wortel te trekken van de variantie (s2). Deze bereken je

als volgt: s2=∑ (Y−Y )2

n−1. In het geval dat µ bekend is, hoeft geen n-1 gebruikt te worden, maar kan

n als geheel genomen worden.De standaardfout van het gemiddelde (SEM) geeft de spreiding weer van een statische parameter; het gemiddelde en wordt steeds kleiner als het aantal waarnemingen toeneemt. De SEM wordt

berekend door: SEM= σ

√n. Aangezien σ nooit bekend is, wordt de standaarddeviatie gebruikt.

Veel processen volgen in werkelijkheid een normale verdeling. Bij normale en niet-normale verdelingen (met bekende σ) volgt uit de steekproefgemiddelden ook een normale verdeling. Hoe meer waarnemingen, hoe sterker dit zichtbaar is. De student’s t-verdeling heeft dezelfde vorm als de normale verdeling, alleen de staarten zijn dikker. Het wordt gekarakteriseerd door het aantal vrijheidsgraden (df, n-1). In het geval dat σ geschat moet worden met s, volgt het steekproefgemiddelde een t-verdeling. De t-verdeling wordt o.a. gebruikt bij het bepalen/berekenen van het betrouwbaarheidsinterval (b.h.i.) van het gemiddelde.

HC 3In het geval dat de waarde 0 in het 95%b.h.i. zit, bestaat er de mogelijkheid dat er geen effect is en kan je dus niet met zekerheid zeggen dat er een verschil is of dat er iets gebeurt. Je hebt dus geen hard bewijs.

Bij een kleine steekproef is er veel meer variantie en is de standaarddeviatie veel groter. Je kunt dus veel minder zekerheid verkrijgen bij een steekproef van n=10 dan bij een steekproef van n=1000. Men heeft echter wel snel de neiging te denken dat de eigen data gelijk is aan de waarheid. Dat is niet zo, het is een weerspiegeling van de waarheid. Het is dus ook zo dat hoe groter de steekproef die je neemt is, hoe beter je kan inschatten welke waardes aannemelijk zijn als populatiegemiddelde en mediaan. Je moet je dus altijd bedenken hoeveel mensen of waarnemingen jouw steekproef bevat en je daarbij afvragen hoe zeker je kan zijn over je data als schatter voor het middelpunt van de populatie. Je moet hiernaast altijd een statistische toets uitvoeren. Dit is een algoritme die je gebruikt om conclusies te kunnen trekken over je data, terwijl je de kans op bepaalde fouten zo klein mogelijk houdt. Je kan altijd fout maken bij schatten of een waarde redelijk is of niet. Je moet de algoritme gebruiken om verschillen tussen de nulhypothese en de bevindingen in de steekproef te vinden en om informatie te verkrijgen over de steekproefvariabiliteit.

Er zijn verschillende fouten die gemaakt kunnen worden bij een statistische toets. Allereerst stel je een nulhypothese en een alternatieve hypothese op, respectievelijk H0 en H1. De H0 gaat er vanuit dat er geen verschil is in de waarnemingen en de H1 gaat er vanuit dat er juist wél verschil is. In het geval dat de H0 waar is en na de toets wordt deze hypothese niet verworpen, dan is de toets goed gegaan. De waarde valt dan in het interval van 1-α. Als H0 waar is, maar hij wordt onverhoopt wel verworpen, dat is er een fout gemaakt. Men spreekt dan van een type I fout α. Wanneer H0 niet waar is, wat betekent dat H1 waar is, en H0 wordt verworpen, dan is de test goed

Page 7: Samenvatting populatie

gegaan. De waarde ligt dan in het interval van de alternatieve hypothese van 1-β. Is H0 echter niet waar en toch wordt hij niet verworpen, dan is er wederom een fout gemaakt. Er wordt in dit geval van een type II fout β gepraat. De type I fout is de onbetrouwbaarheid van een toets. Dit is de waarde α. Dit staat voor de kans H0 verworpen wordt en toch waar is. Bij de type II fout staat β voor de kans dat H0 niet verworpen wordt, terwijl deze niet waar is. De waarde 1-β staat voor de ‘power’ van de toets. Hiermee wordt het onderscheidend vermogen van de toets bedoeld. Het staat voor de kans dat H0 verworpen wordt en niet waar is.

Je zou theoretisch gezien een statistische toets kunnen vergelijken met een rechtszaak. De aanklager is de onderzoeken en de aanklacht is de onderzoeksvraag. Het startpunt in een rechtszaak is dat de verdachte onschuldig is. Bij een statistische toets is het startpunt dat er geen verschil is in de te toetsen groepen, oftewel H0. Het bewijs zijn de waarnemingen en het wetboek is de statistische methode die je gebruikt. Uiteindelijk leidt dit alles tot een veroordeling of een conclusie.

Om tot de conclusie te komen moet je een aantal stappen doorlopen in de statistische toets. 1. Allereerst stel je de nulhypothese en de alternatieve hypothese over de populatie parameter

en de type I fout vast (respectievelijk H0, H1 en α). Als α niet gegeven wordt in een opdracht, ga je uit van α = 5%

2. Hierna bepaal je de toets, en dus ook de toetsingsgrootheid, die je moet gebruiken.3. Je schat de populatie parameter en je berekent de toetstingsgrootheid ‘T’ . Dit doe je om te

kijken of er een (groot, danwel klein) verschil is tussen de zekerheid van de geobserveerde en verwachte waarde.

4. Vervolgens bepaal je of H0 verworpen wordt of niet.5. Als laatste trek je een conclusie, gebasseerd om je onderzoeksvraag.

De nulhypothese gaat altijd om het feit dat er geen verschil te vinden is, het verschil is gelijk aan nul. De alternatieve hypothese gaat juist uit van het omgekeerde, het verschil is niet gelijk aan nul. Als er geen verschil is tussen de testgroep en de controle groep, houdt dit in dan toetsingsgrootheid T ongeveer nul is.

Er zijn drie verschillende, equivalente manieren van toetsen:1. Je berekent de toetsingsgrootheid en vergelijkt deze met de kritieke waarde op een van te

voren vastgestelde α. Is de berekende toetsingsgrootheid groter dan de kritieke waarde, dan is de nulhypothese verworpen.

2. Je bepaalt met behulp van de toetsingsgrootheid de kans dat die toetsingsgrootheid voorkomt (je bepaalt dus de p-waarde) en vergelijkt deze met een van tevoren vastgestelde α. Is de p-waarde kleiner dan α, dan is het verschil significant.

3. Je berekent het (1-α)% betrouwbaarheidsinterval en kijkt of de parameterwaarde onder de nulhypothese binnen of buiten dit interval valt.

Als je extra zeker wil zijn kan je alle drie de toetsen doen. Het moet wel zo zijn dat alle drie de toetsen tot eenzelfde conclusie komen. Je berekent uiteindelijk hoe groot de kans is dat je in een andere steekproef ook zo’n verschil zou vinden, dit is de p-waarde. Het is dus belangrijk dat je een α stelt, waarbuiten de resultaten

Page 8: Samenvatting populatie

significant genoemd kunnen worden. In SPSS wordt de p-waarde altijd afgerond op 3 decimalen. Dit betekent bij een significantie in SPSS van 0,000: p<0,0005. Deze waarde is altijd tweezijdig in SPSS.

Voor een gepaarde T-toets zijn standaard hypotheses.Bij een tweezijdige toets is H0: δ = 0 en H1: δ ≠ 0. Als het het geval is dat |T| groter is dan de kritieke waarde, dan kan H0 verworpen worden.Bij eenzijdige hypotheses zijn er twee alternatieven, afhankelijk van de onderzoeksvraag. H0: δ ≤ 0 en H1 > 0 worden gebruikt bij het bewijzen dat T groter is dan de kritieke waarde. Is dat het geval dan kan H0 verworpen worden. Om te bewijzen dat T kleiner is dan de kritieke waarde moeten de hypotheses omgedraaid worden. H0 wordt dan δ ≥ 0 en H1 wordt δ¿0.

Bij een T-toets voor ongepaarde steekproeven ligt het iets anders. Hier wil je bewijzen dat de gemiddelden van de proef niet gelijk zijn. De nulhypothese luidt dan H0: µ1 = µ2 (of µ1 - µ2 = 0). De alternatieve hypothese is precies andersom. H1: µ1 ≠ µ2 (of µ1 - µ2 ≠ 0). De nulhypothese wordt verworpen wanneer het te veel van nul afwijkt. De aannames bij een student’s T-toets voor twee onafhankelijke steekproeven zijn dat de populatievarianties ongeveer gelijk zijn en dat de waarnemingen bij benadering normaal verdeeld zijn. Een vuistregel hierbij is dat de ratio van de standaarddeviaties (s1/s2 of s2/s1) mag niet groter zijn dan twee.

Een logtransformatie wordt gebruikt op scheve verdelingen recht te trekken. Hierbij wordt meestal de natuurlijke logaritme ln gebruikt. Het is nodig om een logtransformatie uit te voeren op scheve verdelingen, omdat deze anders niet getoetst mogen worden met een T-toets. Één van de aannames bij het uitvoeren van de T-toets is dat de waarnemingen bij benadering normaal verdeeld moeten zijn. Het mooie aan een logtransformatie is dat het de gegevens niet verandert en de volgorde van de metingen niet verstoort. Het zorgt alleen maar voor een betere verdeling, zodat er een toets uitgevoerd kan worden. Door de gemiddelden van de logaritmische waarden terug te rekenen naar de oorspronkelijke waarden, wordt het geometrisch gemiddelde berekend.

Voordat er überhaupt een steekproef gedaan kan worden, is het belangrijk dat de minimale groepsgrootte berekend wordt. Dit is belangrijk vanwege ethische, economische en logistieke redenen. Het is namelijk niet ethisch om heel veel mensen te testen, terwijl minder ook had kunnen volstaan. Te weinig mensen zou betekenen dat al het onderzoek voor niks is geweest. Ook moeten de kosten natuurlijk zo laag mogelijk blijven en de beschikbaarheid van de benodigdheden kan een beperkende factor zijn. De berekening is een benaderende schatting voor de primaire uitkomstvariabele. Het is gebasseerd op aannames (parameterschattingen) en op welke statistische toets je achteraf gaat toepassen.

Om de groepsgrootte te berekenen moet je eerst weten waar je wilt dat je metingen zitten. Dit is in het gebied van 1-β, de power. Hoe groter de power van de toets hoe groter het gebied 1-β is en dus hoe kleiner β is. Een ander woord voor power is onderscheidingsvermogen. De power

Page 9: Samenvatting populatie

is echter ook afhankelijk van α. Dit is de tweezijdige onbetrouwbaarheid van de toets. Hoe groter α, hoe groter het verwerpingsgebied (1-β) wordt en vice versa. Om een goede toets uit te kunnen voeren moet de power tenminste 80% zijn. Dat betekent dat β maximaal 20% eenzijdig mag zijn. De berekening voor de groepsgrootte luidt als volgt:

Hierbij is σ de onbekende populatiestandaardafwijking en δ het relevante verschil in populatiegemiddelden. Zα is de kritieke waarde uit de tabel voor de normale verdeling bij een tweezijdige α (type I fout). Zβ is de kritieke waarde uit de tabel voor de normale verdeling bij een éénzijdige β (type II fout). Dat deze β éénzijdig is, wil zeggen dat deze waarde voor het opzoeken in de tabel verdubbeld moet worden, aangezien de tabel voor de normale verdeling een tweezijdige tabel is.

Eigenlijk zouden voor het bereken van de groepsgrootte bij een analyse met de student’s T-toets voor twee onafhankelijke groepen de kritieke waarden uit de t-tabel genomen moeten worden. Hierbij is echter een n nodig om het aantal vrijheidsgraden te bepalen en die n is juist hetgeen dat je wil berekenen. Het is dus eigenlijk een iteratieve berekening.

HC 4De ANOVA methode is een uitbreiding van de ongepaarde T-tiets. Het is bedoeld om te kunnen testen of er een verschil is tussen meer dan twee groepen. De naam ANOVA is afgeleid van ANalysis Of VAriance. In het nederlands wordt het ook wel de variantieanalyse genoemd. Heel simpel gezien bestaat de ANOVA methode uit twee stappen; 1) is er überhaupt een verschil en zo ja, 2) waar zit dit verschil dan, of waar zitten deze verschillen. Om te controleren waar de verschillen zitten worden post-hoc toetsen gedaan.

Als je bijvoorbeeld bij drie verschillende groepen mannen (inactieve, joggers en marathonlopers) het verschil in HDL cholesterol gaat bekijken, loop je tegen een probleem aan bij het toetsen hiervan. Je hebt namelijk een continue uitkomstvariabele, maar meer dan twee groepen.

Deze steekproeven zouden op drie manieren kunnen worden getoetst.Oplossing 1):Als je alle groepen onderling gaat onderzoeken, doe je drie onafhankelijke T-toetsen voor twee steekproeven. Dit betekent dus ook drie verschillende nulhypotheses en drie verschillende alternatieve hypotheses. Het probleem bij deze aanpak is echter dat je per toets een andere

gepoolde variantie, sp2 , hebt. Dit heeft tot gevolg dat er tegenstrijdige resultaten kunnen ontstaan,

zoals A > B, B > C en A = C. Dit kan onder geen enkele voorwaarde juist zijn. Ook is het onhandig om meerdere toetsen op dezelfde groep te doen, omdat de kans om een type I fout te maken vele malen groter wordt dan de veronderstelde fout α. Het is dus geen goede oplossing.

Oplossing 2):Je zou drie onafhankelijke T-toetsen kunnen doen voor twee steekproeven, rekening houdend met de αoverall. Dat betekent dat je een correctie toepast op iedere afzonderlijke toets, waardoor de uitgevoerde toetsen conservatiever worden. Je deelt hierbij de α die je zou willen gebruiken bij elke

Page 10: Samenvatting populatie

toets door het aantal toetsen dat je gaat doen. In het geval van het voorbeeld gebruik je dus bij elke toets α/3 in plaats van α. Je zou ook α kunnen laten voor wat het is en de achteraf bepaalde p-waarde kunnen vermenigvuldigen met het aantal toetsen dat je doet. Bij dit voorbeeld zou dat dus komen op p×3. Het nadeel van deze manier van toetsen is dat je het type II fout vergroot. Dit betekent dat β groter wordt en de power (1-β) dus kleiner. Hierdoor heb je een kleiner onderscheidend vermogen. Dit is niet gunstig voor de uitkomst en het is een erg conservatieve methode.

Oplossing 3): Je kunt ook alle drie de groepen in één keer met elkaar vergelijken. Je doet een overall of paraplu toets. Als blijkt uit deze overall toets dat er een significant verschil is tussen de groepen, dan worden de groepen alsnog paarsgewijs met elkaar vergeleken. Op deze manier houd je αoverall onder controle en kan je een gepoolde variantie gebruiken die gebaseerd is op alle groepen. Dit is de ANOVA methode.

Met deze methode wordt eigenlijk gekeken of er meer variatie is tussen groepen, dan er variatie is binnen de groepen. Je berekent een F waarde, welke je (net als met een gewone T-toets) vergelijkt met een kritieke waarde. Deze F waarde wordt bepaald door de variantie tussen de groepen (Mean Square between, MSB) te delen door de variantie binnen de groepen (Mean Square within, MSW).

De nulhypothese bij ANOVA is: μ1=μ2=μ3=μi. De alternatieve hypothese is: er is tenminste één

gemiddelde verschillend van de andere. De aanname voor de toets is: σ 12=σ2

2=σ32=σ i

2=σ 2. De

variantie in elke groep moet dus ongeveer gelijk zijn.De variantie in de data kan in verschillende termen worden opgesplitst:

- Afwijking waarneming t.o.v. het overall gemiddelde (Y ij−Y )- Afwijking waarneming t.o.v. het groepsgemiddelde (Y ij−Y i)- Afwijking groepsgemiddelde t.o.v. het overall gemiddelde (Y i−Y )

De i staat voor de groep en j staat voor de meting binnen de groep.

Om uiteindelijk MSB en MSW te kunnen berekenen, moet eerst de Sum of Squares berekend worden. Deze wordt zowel voor between als within berekend en kan ook voor het totaal berekend worden. SST is te berekenen met de volgende formule:

Het makkelijkst is het om de laatste formule te nemen. In deze formule staat n voor het totaal aantal metingen en is s2 de variantie van alle waarnemingen.

Om SSW te berekenen, moet deze formule gebruikt worden:

In deze formule wordt per groep de Sum of Squares berekend door de variantie van één groep maal het aantal waarnemingen – 1 uit die groep te doen. Uiteindelijk worden de waarden van alle groepen bij elkaar opgeteld. Dit is de SSW.

Page 11: Samenvatting populatie

De SSB wordt berekend met de volgende formule:

In deze formule wordt het kwadraat genomen van het verschil tussen het groepsgemiddelde van elke groep en het overall gemiddelde. Deze waarde wordt vermenigvuldigd met het aantal waarnemingen in de desbetreffende groep. De waarden van alle groepen worden bij elkaar opgeteld en vormen dan de SSB.

Het aantal vrijheidsgraden verschilt bij elk van deze berekende waarden. Bij de SST is het aantal vrijheidsgraden (dfT) het totaal aantal waarnemingen – 1. Bij de SSB is het aantal vrijheidsgraden (dfB) het totaal aantal groepen – 1. Het aantal vrijheidsgraden bij de SSW (dfW) is dan dfT – dfB.

Om vervolgens de Mean Squares uit de SSB en de SSW te verkrijgen, moeten deze door het bijbehorende aantal vrijheidsgraden gedeeld worden. Hieruit volgt dus: MSB=SSB /df B en MSW=SSW /df W .

Nu kan dan eindelijk de F waarde berekend worden: F=MSB /MSW met dfB en dfW vrijheidsgraden.

De waarden van F volgen een verdeling. Dit is geen normale verdeling en deze verdeling is alleen positief. De F die berekend wordt, wordt groter naarmate de bovenste variantie (MSB) in verhouding tot de onderste variantie (MSW) groter wordt. Het is dus zo dat er meer verschil tussen de groepen is als F groter wordt. De kritieke waarde bij dfB en dfW vrijheidsgraden is te vinden in de tabel.

MSw is eigenlijk een uitbreiding van de gepoolde variantie en het is dus de gepoolde variantie schatter van alle groepen. Het is een zuivere schatter van σ2. Het is belangrijk te onthouden dat α éénzijdig is. Je gaat H0 namelijk pas verwerpen bij een F die groter is dan de kritieke waarde. Je gaat niet verwerpen bij een kleinere F en F kan ook nooit negatief zijn.

In het geval dat H0 verworpen wordt, is er aangetoond dat er een verschil is tussen de verschillende groepen. Er is echter nog niet bepaald tussen welke groepen dit verschil zit. Om te bekijken tussen welke groepen het verschil of de verschillen zit(ten), moeten post-hoc toetsen uitgevoerd worden. Er kan dan een post-hoc T-toets worden uitgevoerd voor twee ongepaarde steekproeven. Hiervoor

gebruik je de normale formule om de toetsingsgrootheid te berekenen, alleen in plaats van sp2 wordt

MSW gebruikt. MSW is namelijk gebasseerd op alle groepen, waar sp2 slechts op twee groepen

gebasseerd is. Omdat nu bij het vergelijken van twee groepen onderling steeds dezelfde variantie gebruikt kan worden, wordt voorkomen dat er tegenstrijdige resultaten zijn. Ook wordt de power vergroot, omdat voor de kritieke waarde het aantal waarnemingen – het aantal groepen als vrijheidsgraden wordt gebruikt. De formule luidt dus:

Page 12: Samenvatting populatie

Een 100%(1-α)b.h.i. kan ook worden gemaakt, waarbij weer MSW wordt gebruikt als variantieschatter. Deze formule is in dat geval als volgt:

De αoverall moet echter nog gedefinieerd worden. Hiervoor wordt als uitgangspunt gesteld dat α op 0.05 gegarandeerd moet worden. Dit betekent dat de α per vergelijking aangepast moet worden. Dit kan bijvoorbeeld met een Bonferroni correctie. Deze stelt dat de α van een enkele toets, gelijk moet zijn aan (α ≤ 0.05)/v. Hierbij is v het aantal paarsgewijze vergelijkingen. De vergelijking is dan pas significant als p-waarde ≤ αoverall/v of als v × p-waarde ≤ α.

De Bonferroni correctie is echter erg conservatief, vooral als het aantal vergelijkingen heel groot is. Een alternatief is de Tukey (of Tukey-Kramer) toets. Deze gaat uit van alle mogelijke paarsgewijze vergelijkingen en is dus minder conservatief. Een ander alternatief is de Dunnett toets, waarbij een groep als controle wordt gebruikt en alle andere groepen vergeleken worden met deze controle groep.

HC 5Bij de correlatie zoeken we een maat voor de lineaire samenhang van twee variabelen en hieruit komt gebruikelijk een correlatie coëfficiënt met als eigenschap dat hij altijd tussen de -1 en +1 terecht komt. Een negatieve waarde geeft aan dat er een negatief verband is; als X groter wordt, dat wordt Y kleiner. Een waarde boven nul geeft aan dat er een positief verband is. Een waarde rond nul geeft aan dat er geen lineair verband is. De Lineaire regressie is een lineair model voor Y als functie van X. Het gaat eigenlijk nog een stapje verder; je wilt Y voorspellen uit X. Bij correlatie is er geen hiërarchisch verband, ofwel X en Y zijn gelijkwaardig. Je kan de waarden omdraaien en dan zal je dezelfde uitkomst krijgen. Dit kan bij regressie niet, dit zou duidelijk andere uitkomsten geven.

Uit een steekproef bepalen we twee waarden; X enY. Je kan dan de variantie van X uitrekenen. De variantie van X is een maat voor de spreiding van de waarnemingen. De wortel hieruit levert de standaarddeviatie. Hetzelfde kan je doen voor Y. Maar je kan ook de covariantie uitrekenen. Deze is nodig voor zowel correlatie als voor regressie. De formule om de covariantie te berekenen is vrijwel gelijk aan de formule om de variantie van een variabele uit te rekenen. Je neemt echter niet het

kwadraat van X i−X , wat in feite (X i−X ) ( X i−X ), maar je vermenigvuldigt het met dezelfde

berekening van de andere variabele. De uiteindelijke formule wordt dus:

Het is handig om correlaties te berekenen als er sprake is van twee continue variabelen. Het hoeft geen probleem te zijn als de variabele discreet is, omdat een continue variabele vaak ook als een discrete wordt behandeld. Het is specifiek bedoeld voor lineaire samenhang. De Pearson’s correlatiecoëfficiënt is de meest gebruikte. De correlatiecoëfficiënt wordt altijd aangeduid met de letter r. Het is een maat voor die lineaire samenhang tussen de twee variabelen. De algemene formule voor de correlatiecoëfficiënt is:

Page 13: Samenvatting populatie

De r heeft drie eigenschappen. De eerste hiervan is dat door r op deze manier te berekenen, is zeker dat het altijd een waarde tussen de -1 en de 1 heeft. Je zal nooit een waarde groter dan 1 of een waarde kleiner dan -1 verkrijgen. De tweede eigenschap is dat r dimensieloos is. Dat wil zeggen dat het niet uitmaakt welke eenheden gebruikt worden bij het berekenen ervan. De waarde die verkregen wordt, zal altijd hetzelfde zijn. Dit is gunstig, omdat dan verschillende correlaties van verschillende, totaal ongelijke onderzoeken, met elkaar vergeleken kunnen worden. De derde eigenschap is: als x en y onafhankelijk zijn, dan volgt daaruit dat r gelijk is aan 0. Het omgekeerde is echter niet per definitie waar. Als r gelijk is aan 0, hoeven x en y niet per se onafhankelijk te zijn. Er is in dat geval alleen geen sprake van een lineair verband, maar er kan best een kwadratisch verband zijn o.i.d..

In de formule van de correlatiecoëfficiënt vallen de termen n-1 tegen elkaar weg, als je hem volledig uitschrijft. Hierdoor kan de formule makkelijker beschreven worden door:

Het kan ook verkort worden tot SXY gedeeld door de wortel van SXX maal SYY. Dit is echter alleen relevant wanneer het met de hand uitgerekend moet worden. De formules waarmee de S termen vervangen moeten worden, zijn:

De correlatiecoëfficiënt is berekend voor de desbetreffende steekproef, maar uiteindelijk zijn we geinteresserd in de populatie. Dus we willen weten in hoeverre de correlatie van de steekproef zich verhoudt tot de correlatie in de populatie. De correlatiecoëfficiënt van de populatie wordt aangeduid met ρ. Om de correlatie te toetsen moeten weer een H0 en een H1 opgesteld worden. Deze luiden, H0: ρ = 0En H1: ρ ≠ 0. Je wilt uiteindelijk weten of de nulhypothese waar is, dit zou betekenen dat er geen lineair verband is. De alternatieve hypothese is tweezijdig. Je kunt de nulhypothese toetsen met een toetsingsgrootheid T. Deze kun je berekenen met de volgende formule:

Je haalt de waarde die je denkt te vinden van de correlatiecoëfficiënt af en je deelt dit door de standaardfout van de correlatiecoëfficiënt. De standaardfout is de wortel uit 1 - r2 gedeeld door n – 2. Je zoekt in de t-tabel bij eenzijdige α (dus α/2) en n – 2 vrijheidsgraden de kritieke waarde op en vergelijkt deze met de toetsingsgrootheid. Het 100(1-α)%b.h.i. voor ρ wordt op dezelfde manier berekent als bij een gewone steekproef. Alleen worden andere waarden gebruikt. De formule wordt:

Bij de berekening van de toetsingsgrootheid, waaruit blijkt dat er sprake is van significante correlatie, is het belangrijk om je af te vragen of de grootte van de correlatie ook relevant is. De significantie hangt af van de groote an de correlatiecoëfficiënt r (hoe groter deze is, hoe makkelijker je kan aantonen dat deze afwijkt van 0) en van de steekproefgrootte n.

Page 14: Samenvatting populatie

De correlatiecoëfficiënt is bedoeld om resultaten te kunnen kwantificeren. Het is handig om een plaatje te maken van de situatie, dit helpt in te schatten of r berekenen nuttig kan zijn of niet. Het kan namelijk zo zijn dat r gelijk is aan nul, waardoor er geen lineair verband is, maar dat er wel een ander verband aanwezig is. Dit kan goed naar voren komen in een plaatje. Een extreme uitbijter kan een hele andere r geven. Dit benadrukt ook het belang van een plaatje. Dit helpt schatten of een uitbijter erbij hoort of niet. Lage en hoge correlatiecoëfficiënten kunnen veroorzaakt worden door een derde (onbekende) variabele.

Bij lineaire regressie-analyse verkies je één van de variabele tot afhankelijke variabele en één tot verklarende variabele. De afhankelijke variabele komt op de Y-as te staan en de verklarende variabele op de X-as. In zo’n situatie maak je als eerste een spreidingsdiagram, met de verklarende variabele op de horizontale as en den afhankelijke variabele op de verticale as. Door de punten kan je dan een rechte lijn trekken. Dit moet de best passende rechte lijn zijn. Dat wil zeggen dat de som van de kwadraten van de afstand van de punten tot te lijn in verticale richting (dus niet loodrecht), zo klein mogelijk is. Dit wordt het kleinste-kwadraten-principe genoemd. Het voordeel van kwadraten nemen is dat het niet uitmaakt of een punt boven of onder de lijn ligt.

Lineaire regressie wordt gebruikt om een lineaire samenhang tussen twee variabelen te kwantificeren. Alle punten in het spreidings diagram krijg een X en een Y coördinaat. Het model is Y i=α+βX i+εi. De ε i is een term die je niet kan verklaren. Het wordt ook wel de errorterm of het residu genoemd. De α en de β hebben niks met kansen te maken. Het zijn gewoon de getallen die de rechte lijn karakteriseren. α is je intercept of je as-afsnede, dat wil zeggen het snijpunt met de verticale Y-as. Dat is dus de waarde bij X = 0. β is de rico. Dit is de waarde die je omhoog danwel omlaag gaat bij een verschuiving van 1 op de X-as. εi staat voor de onverklaarde gedeeltes. Het zijn de afstanden van de waargenomen punten tot de lijn. Het geeft in deze formule aan hoeveel boven of onder de lijn je ligt. εi wordt verondersteld onafhankelijk te zijn voor het aantal waarnemingen dat je hebt gedaan en normaal verdeeld te zijn met verwachting 0. De σ2 geeft aan hoe ver de punten afwijken van de lijn. Hoe kleiner σ, hoe dichter de punten op de lijn liggen.

De α en de β zijn de werkelijke populatie waarden. Deze zijn echter altijd onbekend. Deze kun je gaan schatten met behulp van de steekproef. De waardes die je gaat berekenen noem je a en b. Als ze op de juist manier gedefiniëerd worden, zijn het zuivere schatters van α en β. De schatting gaat op basis van de kleinste-kwadraten-methode. Je gebruikt hiervoor de volgende formules:

In de formule om b te berekenen komen duidelijk de covariantie van X en Y (SXY) en de variantie van X (SXX) terug. We zien echter de wortel niet terugkomen in de noemer.

Page 15: Samenvatting populatie

De formule voor a betekent eigenlijk dat de regressie lijn per se door Xgemiddeld en Ygemiddeld heen moet gaan. Dit is een kwestie van gewoon invullen. Bij een waarde van X = Xgemiddeld is de voorspelde waarde voor Y: Ygemiddeld. De best passende lijn gaat dus door de gemiddelden van X en Y.

Net als bij de correlatie zijn we bij de regressie geïnteresseerd in of er überhaupt wel een verband is tussen Y en X; en kan Y dus wel verklaard worden uit X. Als er geen verband is, wordt Y niet beïnvloed door X, in dat geval zou de lijn horizontaal lopen. H0 luidt dan: er is geen regressie van Y op X. Dit houdt in dat er geen helling is en dat β dus gelijk is aan 0. De alternatieve hypothese stelt dan dat dit wel het geval is. H0: β = 0, H1: β ≠ 0. De toetsingsgrootheid T is hetzelfde als bij de correlatie, alleen de standaardfout is wat ingewikkelder. Deze is op te zoeken als hij nodig is. T volgt ook hier weer een t-verdeling met n-2 vrijheidsgraden. Het is n-2 vrijheidsgraden omdat er twee parameters geschat worden. Ook kan je weer een betrouwbaarheidsinterval opstellen. Dit is ook gelijk aan die van de correlatie, alleen dan wordt b gebruikt en de standaardfout van b.

De proportie verklaarde variantie is r2. Het teken van r is identiek aan het teken van b. Positieve correlatie betekent er is een stijgende lijn. De toets op de regressie geeft dezelfde p-waarde als de toets op de correlatie.

HC 6Schatten (dichotome uitkomsten)Er zijn verschillende soorten kansverdelingen en deze verschillen natuurlijk onderling. De eerste opdeling die gemaakt wordt, is tussen continue en discrete verdelingen. Onder continue kansverdelingen worden verstaan:

De normale verdeling De Student’s T-verdeling (ookwel gewoon t-verdeling) De F verdeling Chi-kwadraat verdeling

In tegenstelling tot continue verdelingen hebben de discrete verdelingen een beperkt aantal uitkomsten. Onder discrete verdelingen vallen (o.a.):

De binomiale verdeling De Poisson verdeling

De Poisson verdeling gaat ervan uit dat de mogelijke uitkomsten, theoretisch gezien, doorlopen tot oneindig. De kans dat een uitkomst oneindig groot is, is echter nul en zal daarom nooit voorkomen. De binomiale verdeling gaat over ‘experimenten’ waarbij de uitkomst positief of negatief kan zijn en niks daartussen. Het heeft dus maar twee mogelijke uitkomsten. Dit kan zijn ‘ja/nee’, ‘ ziek/gezond’ of ‘kop/munt’ of iets dergelijks. Deze verdeling komt tot stand bij ‘n’ experimenten hebt, waarbij je per experiment dezelfde kans π hebt op uitkomst A. Een voorbeeldje hierbij is de kans dat je in een groep een man of een vrouw hebt. De kans dat je een man kiest is π = 0.5. Dit maakt de kans dat je een vrouw hebt 1 – π. Dit is dus ook 0.5. Je zou kunnen zeggen dat de kans dat je succes hebt bij een experiment, de kans dat je A aantreft, gelijk is aan π. Tegelijkertijd kan je dan zeggen dat de kans op falen bij een experiment, de kans dat je B aantreft, gelijk is aan 1 – π. Dit soort variabelen zijn dichotome variabelen.

Page 16: Samenvatting populatie

In het geval dat de kansen onafhankelijk van elkaar zijn, dat wil zeggen dat de uitslag van het eerste experiment de uitslag van het tweede experiment niet beïnvloed, mogen deze kansen met elkaar vermenigvuldigd worden. De totale kans op een situatie is het aantal mogelijkheden dat die situatie heeft om voor te komen maal de kans op die bepaalde uitkomst.Voorbeeld: wat is de kans dat de eerste twee mensen in een groep van 5 een man zijn? De kans op een man of een vrouw zijn gelijk. De kans dat de eerste twee een man zijn, is 0.52. De kans dat de laatste drie mensen een vrouw zijn, is 0.53. De totale kans is dus: 0.52 × 0.53 = 0.03125.De kans dat er sowieso twee mannen in de groep van 5 zitten is echter groter, want nu maakt het niet uit waar de mannen zitten. Als je de posities waar de mannen kunnen zitten uittekent, blijkt dat dit er tien zijn. De kans op 2 mannen in de groep van 5 is dus 10 × 0.03125 = 0.3125.

Je kunt de kans op het aantal successen ‘r’ in een bepaald aantal experimenten ‘n’ berekenen met de volgende formule: hierin is de

binomiaalcoëfficiënt: De binomiaalcoëfficiënt geeft aan hoeveel mogelijkheden er zijn. De π geeft de kans op een succes aan. Het uitroepteken staat voor de term faculteit.

In een groep van vijf personen met de kans π op een man van 0.5, volgt dat dit gelijk is aan de kans op twee vrouwen. Dit zorgt er dus automatisch voor dat de kans op drie mannen dan gelijk is aan de kans op twee mannen, want als er twee vrouwen zijn, zijn er drie mannen.

De poisson verdeling modelleert het aantal (onafhankelijke) gebeurtenissen in een vast interval. Onafhankelijk betekent in dit gevan dat de uitslag van het eerste experiment, of de eerste waarneming, geen invloed heeft op de volgende waarneming. In dit geval is de kans dat een gebeurtenis zich r maal voordoet gelijk aan:

Hierbij is λ het theoretisch gemiddelde aantal gebeurtenissen per interval. De waarde r is een geheel getal (0, 1, 2, .. .., ∞). Het kan tot oneindig doorlopen, alleen dit is niet waarschijnlijk, omdat je nooit een oneindig grote steekproef kan nemen en dus nooit een oneindig grote hoeveelheid gebeurtenissen r kan hebben.Hoe groter λ is, hoe meer de verdeling gaat lijken op een normale verdeling. Dit is voornamelijk waar voor grotere waarden voor λ. Een vuistregel die handig is om aan te houden is dat λ groter of gelijk aan 5 moet zijn. Dit zorgt voor een betere verdeling en dus een betere schatting van de kans op r gebeurtenissen.Het is eigenlijk meer kansrekening. Statistiek zou zich meer bezighouden met de momenten dat λ onbekend is. De statistiek zou dan een schatting doen voor λ uiteindelijk en dan zou je klaar zijn. Je bent hiermee dus eigenlijk andersom aan het werk op dit moment.

In continue kansverdeling is het aantal mogelijke uitkomsten oneindig. Dit betekent dat P(X=a) = 0 (de kans op X=a is 0) en dat betekent dat P(X≥a) = P(X>a), want de kans dat X gelijk is aan a is oneindig klein en dus verwaarloosbaar. Het ware histogram hierbij wordt benaderd door een curve, dit is de kansverdeling.

Page 17: Samenvatting populatie

Bij een discrete kansverdeling zijn de uitkomsten discrete waarden (0, 1, 2, ...). Dit betekent dus P(X=a) ≠ 0. De discrete kansen hebben als eigenschap dat de kans niet nul is, terwijl dat bij de bijbehorende continue kans wel het geval is.

Je kunt een binomiale verdeling normaal benaderen. Hierbij neem je het gemiddelde µ = nπ. De variantie kan je dan berekenen met σ2 = nπ(1-π). De waarde n is hierbij het aantal in de steekproef en π is de kans op een succesvolle waarneming. Het is vooral een goede banadering bij een grote n of een kans π 0.5. Vaak worden als vuistregels gebruikt dat nπ of nπ(1-π) ≥ 5 moet zijn. Ook de poisson verdeling kan normaal benaderd worden. Hierbij stel je het gemiddelde µ gelijk aan de variantie σ2, welke allebei gelijk zijn aan λ. Je krijgt dus: µ = σ2 λ. Deze benadering is alleen een goede als λ groot genoeg is.

De populatieproportie respons wordt altijd aangeduid met π. Deze is echter nooit bekend. Daarom wordt voor steekproeven de respons van de steekproefproportie aangeduid met p. P is dus een schatter van π. Je kunt ook voor deze respons p een b.h.i. uitrekenen. Dit wordt het ‘Wald’ betrouwbaarheidsinterval genoemd. Deze gaat als volgt:

Het Wald-95%b.h.i. is een schatting voor de mogelijke waarden die π kan aannemen. In het geval dat de steekproef (n) of het aantal gevonden successen (X) erg klein is, kan het b.h.i. iets nauwkeuriger gemaakt worden. Dit is een aangepaste methode van het Wald-b.h.i. en wordt daarom de adjusted

Wald genoemd. Je telt in dit geval Zα

2

2 successen en

Zα2

2 mislukkingen bij de steekproef

op. Hierdoor wordt X vergroot met Zα

2

2 en n met Zα

2. De nieuwe respons (~p) kan je nu

uitrekenen met:

In dit geval is ~X de vergrote X waarde en ~n de vergrote steekproefgrootte. Om vervolgens het adjusted Wald-95%b.h.i. te berekenen, gebruik je dezelfde formule als eerst, alleen met de nieuwe p en n. Dit maakt het uiteindelijke b.h.i. dus een fractie groter. Je kunt met een Wald-b.h.i. nooit een negatieve waarde of een waarde groter dan 1 krijgen. Dit komt omdat je de kans op een respons berekent. Een kans kan nooit onder 0 of boven 1 liggen. Wanneer je waarden vindt die wel onder 0 of boven 1 liggen, rond je deze af naar respectivelijk 0 en 1. De voorkeur gaat altijd uit naar het exacte b.h.i. of de adjusted Wald. Voor het 95%b.h.i. met de adjusted Wald komt het neer op vier waarnemingen toevoegen aan de data; twee successen en twee mislukkingen.

Als er twee groepen zijn wordt het Wald 95%b.h.i. voor het verschil van de twee proporties (bij onafhankelijke steekproeven) gemaakt door de formule:

Hierbij is p1 de kans op een succes bij de eerste steekproef en p2 de kans op een succes bij de tweede steekproef. Logischerwijs is n1 het aantal waarnemingen van de eerste steekproef en n2 het aantal

Page 18: Samenvatting populatie

van de tweede. De p zonder specifieke groep is de gepoolde responsschatter. Deze wordt berekend uit p1 en p2 met de volgende formule:

Ook in dit geval kan de adjusted Wald uitgevoerd worden. Hierbij wordt er ook Zα2 bij het totaal

aantal metingen opgeteld. Omdat er echter twee groepen zijn, wordt de helft van Zα2 bij het aantal

waarnemingen van elke steekproef opgeteld. Dit is dus gelijk aan Zα

2

2. Bij het aantal successen van

een enkele steekproef wordt nu dus Zα

2

22

(= Zα

2

4) opgeteld. Bij een 95%b.h.i. is dit dus 1. Nu kunnen

opnieuw de respons waarden p uitgerekend worden per steekproef (Xn

) en dan kan de gepoolde

responsschatter berekend worden. Daarna kan het adjusted Wald-b.h.i. berekend worden. Het adjusted Wald 95%b.h.i. wordt dus gebruikt voor het verschil van twee proporties, bij onafhankelijke steekproeven en het komt ongeveer neer op het toevoegen van twee waarnemingen aan iedere groep; één succes en één mislukking.

Risico schattingen zijn nuttig om risico’s te vergelijken. Je hebt het Risk Ratio (RR), het Odds Ratio (OR) en de Risk Difference (RD). Om het RR te berekenen deel je de kans op een succes in situatie één (R1) door de kans op een succes in situatie twee (R2). Zo bepaal je hoeveel keer groter of kleiner de kans is (in vergelijking met de andere groep) om een succes te krijgen. De kans op een succes in een bepaalde situatie bereken

je door het aantal gevonden succes te delen door de groepgrootte. Stel dat R1

R2

=4, dan betekent dit

dat de kans op een succes in de situatie van R1 4 keer groter is dan bij de situatie van R2. Het is gebruikelijk om de groep waar je in geïnteresseerd bent boven te zetten.

De OR bereken je door de kansen van de RR eerst te delen door 1 – die kans en dan dit delen door dezelfde berekening van de andere kans. Dit klinkt heel erg cryptisch, maar de formule gaat als volgt:

R1

(1−R1)R2

(1−R2)De bovenste term kan je ook vervangen voor a x d. Dit is gelijk aan het aantal gevallen dat negatief is voor beide variabelen (a) maal het aantal gevallen dat positief is voor beide variabelen (d). De onderste term kan je vervangen voor de andere twee waarden maal elkaar (b x c). Dit is gelijk aan het aantal waarnemingen dat negatief is voor variabele één en positief voor variabele twee maal het aantal waarnemingen dat positief is voor variabele één en negatief voor variabele twee.

De RD is gelijk aan de kans van situatie één (R1) min de kans van situatie twee (R2). Dit is dus heel simpel: RD = R1 – R2.

Page 19: Samenvatting populatie

Je kunt voor de OR en de RR ook een 95%b.h.i. berekenen. Hiervoor moet je eerst het transformeren naar een logfunctie, omdat de OR en RR altijd scheef verdeeld zijn. Het 95%b.h.i. van de logfunctie van het OR luidt als volgt: ln ( ¿ )±1.96 s . e .( ln (¿))

Hierbij is de s . e . (ln (¿ ) )=√ 1a+ 1b+1c+ 1d

met ¿=a∗db∗c

.

De waarden die je dan hebt berekend moeten nog terug getransformeerd worden naar de oorspronkelijke waarden. Dit doe je door ex te doen.

Voor de RR is de methode precies hetzelfde. De standaardfout is echter wel anders. Deze is

s . e . (ln (RR ) )=√ 1a− 1n1

+ 1b− 1n0

met RR=

an1

bn0

.

HC 7Toetsen (dichotome uitkomsten)Na het schatten van de correcte waarden met een 95%b.h.i., kun je de verschillen tussen twee onafhankelijke steekproeven ook toetsen. Hiertoe ga je de steekproeven met elkaar vergelijken. Je stelt een H0 en een H1 op. De H0 is in dit geval π1 = π2. De H1 is precies het tegenovergestelde: π1 ≠ π2. Je zou ook een H0 en een H1 op kunnen stellen met behulp van de Risk Difference (RD). Hierbij zou H0 zijn: π1 – π2 = 0 en H1: π1 – π2 ≠ 0. Deze hypotheses kan je gaat testen met behulp van de Chi-kwadraat toets of Fisher’s exacte toets. De chi-kwadraat toets wordt meestal gebruikt bij een grote steekproef, terwijl de fisher’s exacte toets gebruikt wordt bij kleinere steekproeven. De chi-kwadraat die berekend wordt bij de chi-kwadraat toets, is eigenlijk het kwadraat van de Z waarde.

De toets op de RD gaat als volgt. Je stelt de H0 en H1 op, zoals hierboven beschreven. Je bepaalt α (tweezijdig), meestal is dit 0.05. Hierna kan je de toetsingsgrootheid Z gaan uitrekenen met de volgende formule:

Hierin is pi weer de kans op een succes in een groep, dus het aantal successen gedeeld door de groepsgrootte. De s.e.(p1-p2) is in dit geval gelijk aan:

De p-waarde die hoort bij de berekende toetsingsgrootheid, is op te zoeken in de tabel.

Er zijn vier verschillende soorten onafhankelijke steekproefopzetten: 1) Uit een populatie worden n individuen willekeurig getrokken. Per individu wordt gekeken of

kenmerk A en B aanwezig of afwezig zijn. De vraag die hierbij gesteld wordt, is of er samenhang is tussen de twee kenmerken.

Page 20: Samenvatting populatie

2) Uit een populatie worden cases (=mensen met ziekte) en controles (=mensen zonder ziekte) getrokken. Per individu wordt gekeken of een bepaald kenmerk aanwezig of afwezig is. De vraag die hierbij gesteld wordt, is of er samenhang is tussen het voorkomen van de ziekte en de aanwezigheid van het kenmerk.

3) Uit twee populaties worden n individuen willekeurig getrokken. Per individu wordt gekeken of een kenmerk aan- of afwezig is. Er wordt dan gekeken of het voorkomen van het kenmerk gelijk is in de twee populaties.

4) Een groep individuen wordt willekeurig verdeeld in twee groepen. Één groep krijgt een nieuwe, experimentele behandeling en de andere groep krijgt de standaard behandeling (of een placebo). Er wordt dan gekeken naar of er verschil is in het succes van de behandelingen.

Voor de chi-kwadraat toets kan je de waarden die je observeert in een 2x2 tabel zetten. B

A Afwezig Aanwezig TotaalAfwezig O11 (a) O12 (b) O1. (a+b)Aanwezig O21 (c) O22 (d) O2. (c+d)Totaal O.1 (a+c) O.2 (b+d) nJe stelt dan de nulhypothese en de alternatieve hypothese op:H0: “De kenmerken A en B zijn onafhankelijk van elkaar”H1: “De kenmerken A en B zijn afhankelijk van elkaar”Om de toetsingsgrootheid uit te rekenen moeten eerste de verwachte waarden van de cellen

uitgerekend worden. Dit is uit te rekenen door Oi.×O. j

n te doen. Oi. en O.j zijn de totaal waarden

respectievelijk rechts naast en onder de kolommen. Om vervolgens de toetsingsgrootheid te berekenen, kan de volgende formule gebruikt worden:

Hierbij wordt van de gevonden waarde O, de berekende verwachte waarde afgetrokken. Dit wordt gekwadrateerd en gedeeld door de verwachte waarde. De som van al die waarden, voor alle cellen is de toetsingsgrootheid. De toetsingsgrootheid is bij benadering Chi-kwadraat verdeeld met 1 vrijheidsgraad. Er kan ook een continuïteitscorrectie worden uitgevoerd. Hierbij wordt een half van O – E afgehaald, voor het gekwadrateerd wordt. Een voorwaarde voor de chi-kwadraat toets is dat alle verwachte waarden groter moeten zijn dan vijf. Is dit niet het geval kan beter de fisher’s exacte toets gebruikt worden, aangezien deze dan nauwkeuriger is.Bij een RxC tabel is het aantal vrijheidsgraden gelijk aan (R-1) x (C-1). Bij een 2x2 tabel is dit dus (2-1) x (2-1) = 1. Een 3x3 tabel heeft al veel meer vrijheidsgraden, namelijk: (3-1) x (3-1) = 4.

Er is ook nog een andere, alternatieve berekening van de toetsingsgrootheid van de chi-kwadraat toets:

Page 21: Samenvatting populatie

Deze geldt echter alleen voor een 2x2 tabel. Bij een grotere tabel moet de andere formule gebruikt worden. Deze manier van toetsen mag ook gebruikt worden bij de andere proefopzetten.

De groepsgrootte voor steekproeven bij een chi-kwadraattoets is ook belangrijk. De groepsgrootte kan je berekenen met deze formule:

In deze formule staat m voor de minimale groepsgrootte die nodig is bij je experiment. πC staat voor de kans op een succes in de controle groep, πE staat voor de kans op een succes in de experimentele groep en δ is gelijk aan πE – πC en dit is gelijk aan het relevant geachte effect. De Z-waarden zijn op te zoeken in de tabel bij tweezijdige waarde α en éénzijdige waarde β.

Er zijn natuurlijk ook gepaarde waarnemingen. Er zijn twee typen proefopzetten voor gepaarde resultaten:

1) Binnen één individu worden behandeling A en B met elkaar vergeleken. De behandelingen worden in willekeurige volgorde aan de patiënt toegediend. Van elke behandeling wordt bepaald of er wel of niet sprake is van succes.

2) Er kan ook gekozen worden voor matching van individuen. Hierbij wordt een ziek individu gekoppeld aan een gezond persoon, op basis van specifieke kenmerken die samenhangen met de uitkomst. Een reden om dit te doen is dat de matching variabele een confounder is. Dat wil zeggen dat hij samenhangt met de blootstelling en met de ziekte.

Als je de informatie gaat analyseren moet je kijken naar de discordante cellen. Dit zijn de cellen waar de uitkomst van A niet gelijk is aan de uitkomst van B. Hierbij heb je r (A wel succes en B geen succes) en s (A geen succes en B wel succes). Je kunt het verschil tussen de twee toetsen met de McNemar toets. Dit is een binomiale toets met H0: π0 = 0,5 (Dit is 0,5 omdat de kans op of A of B dan gelijk is. In dat geval is er dus geen verschil.) en met r uitkomsten in een steekproef van r + s = n waarnemingen.

Je kunt de toetsingsgrootheid Z berekenen of toetsingsgrootheid T. Toetsingsgrootheid Z is bij benadering standaard-normaal verdeeld en wordt berekend met de volgende formule:

Dit is een toets met continuïteitscorrectie en n=r+s. Deze waarde moet vergeleken worden met de kritieke waarde uit de Z tabel bij α.Toetsingsgrootheid T is bij benadering chi-kwadraat verdeeld met één vrijheidsgraad en wordt als volgt berekend:

Ook deze formule heeft een continuïteitscorrectie en s=n−r .

Page 22: Samenvatting populatie

Je kunt het 95%b.h.i. uitrekenen via de Odds Ratio. Bij de McNemar toets is de OR uit te rekenen

door rs

. De H0 en H1 zijn respectievelijk OR = 1 en OR ≠ 1. Dan moet eerst het 95%b.h.i. van het OR

uitgerekend worden. De formule hiervoor is:

In dit geval geldt dat s . e . ( ln (¿ ) )=√ 1r+ 1s

Door vervolgens terug te transformeren naar het OR, wordt het 95%b.h.i. berekend.

HC 8Verdelingsvrije toetsen worden gebruikt als er niet voldaan wordt aan de aannames voor andere toetsen. Ze maken ook gebruik van aannames, alleen die zijn een stuk minder streng. Een verdelingsvrije toets werkt op basis van rangnummers.

Er zijn verschillende verdelingsvrije toetsen. Voor een ongepaarde toets op twee onafhankelijke groepen kan je een Mann-Whitney U-toets (=Wilcoxon sum-rank test) doen in plaats van een gepaarde T-toets. Bij meer dan twee groepen doe je een Kruskal-Wallis toets in plaats van de 1-weg ANOVA. Bij gepaarde waarnemingen tussen twee groepen gebruik je de Wilcoxon rangtekentoets. Bij een groep kan je gewoon een tekentoets uitvoeren, dit is gelijk aan de binomiale toets. Voor de samenhang tussen de groepen kan je kijken naar de Spearman rangcorrelatie. Als een set waarnemingen voldoet aan de aannames van een toets, is het beter om de juiste toets te nemen, omdat de verdelingsvrije toets dan minder power heeft.

Bij gepaarde waarnemingen moet je dus de Wilcoxon rangtekentoets gebruiken. Je berekent dan eerst het verschil tussen de twee groepen en vervolgens ken je een rangnummer toe. Hierbij laat je het plus of min teken weg. De rangnummer ken je toe van de kleinste waarneming naar de grootste. Als een waarneming meerdere malen voorkomt, wordt dit een knoop genoemd. Bij een knoop worden de rangnummers van die getallen bij elkaar opgeteld en gedeeld door het aantal waarnemingen in de knoop. De rangnummers krijgen echter wel dezelfde plus of min ervoor als het getal waarvan ze het rangnummer zijn. De som van de positieve waarden zijn samen de T+. Zo is er ook een T-, een som van de negatieve waarnemingen. In het geval dat er geen verschil is tussen de twee groepen zijn T+ en T- gelijk aan elkaar. De toetsingsgrootheid is de kleinste T waarde.

De soms van rangnummers 1 t/m n’ is gelijk aan n' (n'+1)

2. N’ staat hier voor het aantal verschillen

dat niet gelijk is aan 0. In tabel 6 kan je de krititeke waarde opzoeken en vergelijken met de toetsinggrootheid. De n in de tabel staat gelijk aan de n’.

Omdat de tabel beperkt is, is er ook een normale benadering. Dit kan alleen als er genoeg waarnemingen zijn. Hierbij moet je de T+ benaderen en de verwachte waarde hiervan uitrekenen.

Page 23: Samenvatting populatie

Deze is gelijk aan n' (n'+1)

4 en de standaarddeviatie die hierbij hoort is gelijk aan √ n'(n'+1)(2n'+1)

24

. Om vervolgens de Z-waarde uit te rekenen doe je: T +¿− verwachtewaarde

standaarddeviatie¿.

Deze Z is standaard normaal verdeeld en te vergelijken met een kritieke waarde uit tabel 1. Indien deze kleinste T waarde kleiner is dan de kritieke waarde, kan je H0 verwerpen.Als je in een spsss uitvoer moet kijken welke significantie er is, kan je het best de exacte waarde nemen. Deze is altijd beter dan de asymptotische significantie.

Bij twee ongepaarde groepen moet je de Mann-Whitney U-toets gebruiken. De H0 bij deze toets gaat er altijd vanuit dat het gemiddelde van de twee groepen gelijk is. De H1 gaat juist uit van het tegenovergestelde. De Mann-whitney toets werkt ook weer op basis van rangnummers. Je zet alle data op volgorde van klein naar groot. De kleinste meting krijgt rangnummer 1 en de grootste krijgt het grootste rangnummer. De verschillende groepen komen dus door elkaar te staan. Er kunnen ook hier knopen zijn, maar dat is niet gunstig.Vervolgens tel je de rangnummers van de kleinste groep bij elkaar op. De som van de rangnummers van de kleinste groep is de waarde W. Het aantal waarnemingen in deze groep wordt aangeduid met n1. N2 is het aantal waarnemingen in de grootste groep. Als de groepen gelijk zijn, maakt het in principe niet uit welke groep je pakt. Je kan vervolgens de U waarde uitrekenen voor de kleinste groep. Dit doe je met behulp van de

volgende formule: U=n1n2+n1(n1+1)

2−W . Voor de andere groep kan je ook een U waarde

uitrekenen, deze wordt aangeduid met U’. Deze waarde bereken je als volgt: U '=n1n2−U . Als er geen verschil is tussen de twee groepen, zijn U en U’ ongeveer gelijk. Je gebruikt vervolgens de kleinste U waarde. Je kunt deze vervolgens gaat vergelijken met een kritieke waarde uit tabel 7. In deze tabel is m gelijk aan n1 en n is gelijk aan n2. Deze tabel is wel éénzijdig! Ook bij deze tabel geldt dat je pas mag gaan verwerpen als de kleinste U waarde kleiner is dan de kritieke waarde.Ook deze toets kan je normaal benaderen. Hierbij reken je een verwachte waarde voor W uit met

deze formule: n1(n1+n2+1)

2. De standaarddeviatie bereken je met: √ n1n2(n1+n2+1)

12.

De Z-waarde bereken je vervolgens door W−verwachtewaardestandaarddeviatie

. Deze Z is ook weer standaard

normaal verdeeld. Uit tabel 1 kan je dan de tweezijdige p-waarde halen bij en vergelijken met α.In spss kies je ook hier weer voor de exacte waarde. Deze toets is echter niet echt goed als je knopen hebt in je metingen. Je moet dan gaan corrigeren, hoe meer knopen, hoe meer correcties.

Als je meer dan twee groepen hebt kan je de Kruskal-Wallis toets uitvoeren. De aanname hierbij is dat minstens een van de groepen niet normaal verdeeld is. Deze toets maakt ook weer gebruik van rangnummers. Je zet alle waarden op een rij en kent rangnummers toe. Hierna zet je de rangnummers van de groepen weer in de aparte groepen. Vervolgens neem je per groep de som van

de rangnummers, ∑ R i. Als H0 waar is, dan zijn de sommen van de rangnummers per groep

Page 24: Samenvatting populatie

ongeveer gelijk, rekening houdend met de groepsgrootte. Minder waarnemingen resulteert meestal in een lagere som van de rangnummers.

Om te toetsen ga je toetsingsgrootheid H berekenen. Dit doe je met deze formule:

H= 12n(n+1)∑i=1

k R i2

ni−3 (n+1)

In deze formule is k het aantal groepen, ni is het aantal waarnemingen in groep i en n is gelijk aan de som van alle ni. De term [-3(n+1)] staat buiten de somterm. Als er knopen in de waarnemingen zijn, is H meestal aan de lage kant. Hij zou dan iets hoger moeten zijn. Je kan toetsingsgrootheid H gaan vergelijken met de kritieke waarde uit tabel 9, alleen omdat deze tabel zo beperkt is, kan je die kritieke waarde al gauw niet vinden. Als hij er wel in staat, dan geldt: is toetsingsgrootheid H groter dan de kritieke waarde, dan mag H0 worden verworpen.

Daarom gaan we hem weer normaal benaderen. Toetsingsgrootheid H is chi-kwadraat verdeeld met df=k−1. Je kunt dan de p-waarde opzoeken in tabel 4. Je data is dus niet normaal verdeeld, maar je toetsinggrootheid wel. Dit is ook een aanname.In de spss uitvoer kan je aan de gemiddelden van de rangen soms al zien welke groepen erg van elkaar verschillen. Ook kan de toetsingsgrootheid van spss verschillen van de berekende toetsingsgrootheid. Dit komt omdaat spss corrigeert voor knopen.

Net als bij een 1-weg ANOVA kun je bij een Kruskal-Wallis toets kijken naar post-hoc toetsen. Dit doet spss echter niet, dus dan zou je het met de hand moeten doen. Een praktische oplossing is dan om een reeks Mann-Whitney toetsen te gebruiken. Door de p-waarden dan met het aantal uitgevoerde toetsen te vermenigvuldigen, voer je de Bonferroni-correctie uit. Deze is erg conservatief, maar beter dan ongecorrigeerde p-waardes.

Als we samenhang tussen twee variabelen willen toetsen, maar de variabelen voldoen niet aan de voorwaarden van de Pearson’s correlatie, dan gebruiken we de Spearman’s rangcorrelatie. Dit is een non-parametrische versie van de Pearson’s correlatie. Het voordeel van de Spearman’s rangcorrelatie is dat hij niet uitgaat van een lijn, maar van een monotoon stijgend of dalend verband. De variabelen hoeven ook niet normaal verdeeld te zijn, maar wel tenminste ordinaal. De Spearman’s rangcorrelatie kan berekend worden met een Pearson’s correlatie van de rangnummers.

Je krijgt bij een Spearman’s rangcorrelatie twee rijen met rangnummers, één per variabele. Als er samenhang zou zijn tussen de variabelen, zouden de rangnummers voor ieder punt gelijk aan elkaar zijn. Daarom neem je het verschil van de rangnummers en vervolgens kwadrateer je ze. Als de samenhang sterk is, zijn de kwadraten van de verschillen ook allemaal erg klein en de som van alle kwadraten zou dan ook ongeveer nul zijn. Een Pearson toets van de rangnummers geeft ongeveer eenzelfde waarde als de gewone toets. Deze

gewone toets gaat als volgt: correlatie vanranks=1−6×∑ d2

n3−n.

De Spearman correlatie houdt veel meer rekening met uitbijters dan de Pearson’s correlatie. De Pearson kan ook niet goed onderscheid maken bij een niet-lineair verband. Dit kan de Spearman wel.

Page 25: Samenvatting populatie

Het kan echter ook voorkomen dat bij een niet-lineair verband beide maten niet goed zijn, in dat geval moet je andere manieren verzinnen. Je zou de grafiek kunnen opdelen in twee delen en per stuk een correlatie kunnen uitrekenen.

HC 9Enkelvoudige logistische regressie-analyseEen dichotoom uitkomst is een uitkomst die maar twee waarden kan aannemen, bijvoorbeeld ja of nee. Vaak wordt voor nee een 0 gebruikt en voor ja een 1.

Een manier om een dichotome uitkomst te analyseren is met de een grafiek. Door categorieën te maken en dan naar de proportie van gevallen in die groep te kijken, kan je een curve krijgen die s-vormig is. De grafiek is s-vorming, omdat de ondergrens 0 is en de bovengrens 1. De proporties zet je altijd op de x-as op de gemiddelde van de scheidingscategorie, zoals leeftijd.

Het is mogelijk om lineaire regressie uit te voeren. Hierbij is de R2 erg groot, dit is in de meeste gevallen goed, maar het is het geval van het voorbeeld nietgoed. Er ontstaan namelijk schattingen die negatief of groter dan 1 zijn. Dit kan niet. De voorwaarden om een lineaire regressie te kunnen doen zijn dat de afhankelijke variabele continu moet zijn. De voorspellingen worden gedaan op basis van de vergelijking Y = α + βX en zijn in principe oneindig. Bij een logistische regressie is echter de voorwaarde dat de afhankelijke variabele dichotoom is en dus maar twee uitkomsten heeft. De voorspelling moet hierbij dus uit tussen de 0 en de 1 zijn.

Het probleem is dan echter; hoe kan je de proportie π zo modelleren dat het nog wel een lineaire functie van X is en dan de voorspellingen toch tussen de 0 en de 1 liggen en dus nog steeds logisch zijn. Dit kan door π zo te transformeren dat het een waarde kan hebben die tussen -∞ en ∞ ligt. Er zijn verschillende vormen van de transformatie, maar logit wordt het meest gebruikt. De logit van de kans is gelijk aan w, de natuurlijke logaritme van de odds. Hij wordt dus als volgt

berekend: w=ln( π1−π )=α+βX . De schatting die deze formule representeert gaat dus als volgt:

w=ln( p1−p )=a+bX .

Door deze formule om te schrijven, krijg je een equivalent model, waaruit altijd een waarde tussen

de 0 en de 1 komt. Deze formule is: p=1

1+e−(a+bX ) . De a en de b zijn gewoon uit de grafiek en de

gegevens af te leiden en de X is de variabele, waarvan je de kans wil weten. Door dit in te vullen, is de kans erg makkelijk te berekenen. Dit model wordt gebruikt om de gegevens te interpreteren. De p is de door het model geschatte kans.

Voor de interpretatie van de logistische regressie coëfficiënt moet je eerst een aantal formules snappen. Dit zijn de formules voor w1 en voor w0. Deze luiden als volgt:

Page 26: Samenvatting populatie

De logaritme van de odds ratio (voor het effect van X=1 ten opzicht van X=0, de twee uiterste waarden) is gelijk aan:

Dit blijkt gelijk te zijn aan w1 – w0, wat dus gelijk is aan α + β – α, wat dus ook gelijk is aan β.Dus, β=ln (¿) en eβ is dus gelijk aan de OR. Je kan een b.h.i. berekenen uit de waarden uit spss, door gewoon te doen: b±1.96 s . e .(b). Dit kan je dan exponentiëren, waardoor je het b.h.i. krijgt van de OR. Je kan dan bij het 95%b.h.i. van ofwel β ofwel de OR kijken of de toetsingswaarde van H0 erbinnen ligt en aan de hand daarvan bepalen of de H0 verworpen mag worden of niet.

Meestal, als je wil weten of er een verband is bij logistische regressie, gebruik je de Wald test, omdat de pearson chi-kwadraat toets met of zonder continuïteitscorrectie nogal veel verschillen, vooral als één of meer cellen een waarde bevat die lager is dan 4. Uiteindelijk moet je eigenlijk de juiste analyse kiezen op basis van de onderzoeksvraag. Je kan pas bepalen hoe je moeten toetsen als je exact weet wat je wil weten. Je kan natuurlijk ook een dichotome variabele koppelen aan een continue variabele. Een significantie van .000 in spss is een p waarde die kleiner is dan 0.0005. Bij een vergelijking met een continue variabele, is b gelijk aan de verandering in de dichotome variabele per 1 eenheid in de continue variabele. Je kan deze waarde direct terugtransformeren naar een OR en zo ook de verandering in OR bekijken.

De (0,1)-codering van de factor en de uitkomst zijn belangrijk voor de interpretatie van de resultaten van de logistische regressieanalyse!