Inhoudsopgave
Week 5 ......................................................................................................................................... 2
Hoofdstuk 12: ANOVA en het Lineaire Model .....................................................................................2
Hoofdstuk 14 - Factorial Designs en Onafhankelijke Factorial Designs .............................................. 16
Week 6 ........................................................................................................................................29
Hoofdstuk 15: Repeated-Measures Designs .................................................................................... 29
Hoofdstuk 16 Mixed Designs en Analyse in SPSS.............................................................................. 44
Week 7 H13 - ANCOVA ..................................................................................................................53
Week 8 h17 Multivariate Analysis of Variance (MANOVA) ................................................................64
.
Aantekeningen les:
➢ Een probleem met het uitvoeren van post-hoc tests na een niet-significante F-test is dat je
mogelijk ten onrechte de nulhypothese verwerpt voor het verschil tussen twee
groepsgemiddelden (door kanskapitalisatie).
➢ Je kan het verschil bij contrasten zien in Contrast Estimate. Dit is het verschil tussen groep
1 en groep 2.
➢ 2 inhoudelijke vragen over MANOVA, verder niks
1
,Week 5
Hoofdstuk 12: ANOVA en het Lineaire Model
Analyse van Variantie (ANOVA)
Doel van ANOVA= Vergelijking van meer dan twee onafhankelijke groepsgemiddelden.
➢ Basisprincipe: ANOVA gebruikt een lineair model om groepsverschillen te analyseren.
➢ Belang van de F-statistiek: Geeft aan of groepsgemiddelden significant van elkaar
verschillen.
Voordelen van het lineaire model
➢ Bouwt voort op eerder geleerde kennis, waardoor begrip en toepassing eenvoudiger worden.
➢ Kan worden uitgebreid naar complexere analyses, zoals modellen met meerdere
voorspellers of ongelijke groepsgroottes.
➢ Wordt gebruikt in IBM SPSS Statistics via het General Linear Model (GLM) om gemiddelden
te vergelijken.
Beperkingen bij ongelijke groepsgroottes
➢ Hoewel mogelijk, is het aanbevolen om gelijke groepsgroottes te gebruiken.
➢ Ongebalanceerde designs leiden tot statistische complicaties en minder betrouwbare b-
waarden.
➢ Een grote basisgroep (bijv. controlegroep) is nodig om betrouwbare resultaten te verkrijgen
bij ongelijke groepen.
Het Lineaire Model en Vergelijkingen
Interpretatie van de Modelparameters (b-Waarden) in ANOVA
➢ De F-test geeft aan of er significante verschillen zijn tussen groepsgemiddelden, maar zegt
niet welke groepen van elkaar verschillen.
➢ De b-waarden geven deze verschillen wel aan:
❖ De constante (b₀) is gelijk aan het gemiddelde van de basisgroep (controlegroep).
❖ De b-waarde voor de eerste dummy-variabele (b₁) geeft het verschil aan tussen het
gemiddelde van groep 1 en de controlegroep.
❖ De b-waarde voor de tweede dummy-variabele (b₂) geeft het verschil aan tussen het
gemiddelde van groep 2 en de controlegroep.
Vergelijking van twee categorieën: De b-waarde geeft het verschil tussen twee
groepsgemiddelden.
➢ Meer dan twee categorieën: Gebruik van dummyvariabelen om verschillen tussen
groepen weer te geven.
➢ ANOVA en regressie: Beide gebruiken hetzelfde lineaire model.
Conclusie
➢ ANOVA en regressie zijn twee benaderingen van hetzelfde lineaire model.
➢ De F-test toont aan of groepsgemiddelden significant verschillen, terwijl de b-waarden de
specifieke verschillen tussen de groepen kwantificeren.
➢ Ongelijke groepsgroottes kunnen problemen veroorzaken, dus het is beter om
evenwichtige steekproeven te hebben.
➢ De lineaire modelbenadering maakt het mogelijk om op een systematische manier
gemiddelden te vergelijken en biedt voordelen bij complexere analyses.
2
, F-Statistiek en Modelevaluatie
F-waarde: Vergelijkt de verklaarde variantie met de onverklaarde variantie.
➢ Interpretatie:
❖ Hoge F-waarde → Groepsgemiddelden verschillen significant.
❖ Lage F-waarde → Geen significant verschil.
Variantiecomponenten in ANOVA
Totale variatie (SST)
= Gehele spreiding in de dataset.
Modelvariatie (SSM)
= Deel van de spreiding verklaard door groepsverschillen.
Residuele variatie (SSR)
= Deel dat niet wordt verklaard door het model.
Graden van vrijheid (df)
= Beïnvloed door steekproefgrootte en aantal groepen.
Gemiddelde Kwadraten en Betrouwbaarheid
MSM (Mean Square for the Model)
= Dit is het gemiddelde van de variatie die door het model wordt verklaard. Het geeft aan
hoeveel systematische variatie er wordt verklaard door het model.
MSR (Mean Square for Residuals)
= Dit is het gemiddelde van de variatie die wordt verklaard door onmeetbare of onbeheersbare
variabelen. Het is een maat voor de onsystematische variatie
F-statistiek berekening:
MSM / MSR → Hoe hoger, hoe beter het model groepsverschillen verklaart.
Belangrijke Conclusies
➢ ANOVA en regressie zijn varianten van hetzelfde model.
➢ F-test geeft algemene verschillen weer; b-waarden tonen specifieke groepsverschillen.
➢ Gelijke groepsgroottes zijn aanbevolen voor betrouwbare resultaten.
➢ Het lineaire model is toepasbaar op complexere analyses.
➢ De F-statistiek vergelijkt de verklaarde en onverklaarde variatie om te bepalen of
groepsgemiddelden significant verschillen.
➢ SST (totale som van kwadraten) meet de totale variatie in de data.
➢ SSM (model som van kwadraten) meet de variatie die door het model wordt verklaard.
➢ SSR (residuele som van kwadraten) meet de onverklaarde variatie (fouten en onbekende
invloeden).
➢ Hoe groter SSM en kleiner SSR, hoe beter het model past bij de data.
3
, De F-statistiek
= de verhouding tussen hoe goed een model is en hoe slecht het is (de fout). Wanneer het model
gebaseerd is op groepsgemiddelden, zijn de voorspellingen van het model die gemiddelden.
➢ Als de groepsgemiddelden hetzelfde zijn, zal het model slecht in staat zijn om de
waargenomen data te voorspellen (F zal klein zijn).
➢ Als de gemiddelden verschillen, zal het model beter in staat zijn om onderscheid te
maken tussen de verschillende groepen (F zal groot zijn).
➢ De F-statistiek geeft aan of de groepsgemiddelden significant van elkaar verschillen.
❖ Als F kleiner dan 1 is,
= betekent dit dat de niet-gemeten variatie groter is dan de verklaarde variatie. Dit wijst
erop dat de experimentele manipulatie geen effect had.
❖ Als F groot genoeg is,
= betekent dit dat de systematische variatie (bijv. door een experiment) groter is dan
de niet-systematische variatie (individuele verschillen).
De F-statistiek (ook wel F-ratio genoemd) is de verhouding tussen de verklaarde en de niet-
verklaarde variatie.
12.3 Aannames bij het Vergelijken van Gemiddelden
➢ Normaliteit wordt getest binnen groepen, niet over de gehele steekproef.
➢ Homogeniteit van varianties:
❖ Levene’s test toetst deze aanname (p < 0.05 betekent ongelijke varianties).
❖ Bij schending: correcties zoals Brown-Forsythe F (minder gevoelig voor groepsgrootte)
of Welch’s F (krachtiger en effectiever).
Robuustheid van ANOVA:
➢ ANOVA wordt vaak als robuust gezien, maar schendingen van aannames kunnen de test
sterk beïnvloeden.
➢ Effect van schendingen:
❖ Foutpercentage kan stijgen van 5% naar 18%.
❖ Power kan dalen van 90% naar 28%.
➢ Oplossingen bij schendingen:
❖ Gebruik Welch’s F, bootstrapping of robuuste tests (zoals getrimde gemiddelden).
❖ Alternatief: Kruskal-Wallis test (niet-parametrisch).
Wanneer de homogeniteit van varianties is geschonden, kan de F-statistiek worden aangepast
om deze schending te corrigeren. Twee veelgebruikte correcties zijn:
➢ De Brown-Forsythe F
= past de berekening aan door de groepsvarianties niet te wegen met de steekproefgrootte,
maar met de verhouding van de steekproefgrootte ten opzichte van de totale
steekproefgrootte.
❖ Dit voorkomt dat groepen met een grote steekproefomvang en hoge variantie de analyse
te veel beïnvloeden.
➢ Welch’s F
= een alternatieve correctie die krachtiger is dan Brown-Forsythe F en beter in staat is om
effecten te detecteren, behalve wanneer een groep een extreem gemiddelde heeft met een
grote variantie.
4