3.5 Samenvatting theorie Worked Examples
Worked example 1
Normaliteit beoordelen
➔ Skeweness: 0 → normale verdeling
◆ Wanneer SE 2x in skeweness past, dan is de skeweness significant en dus geen
normale verdeling
◆ Wanneer SE minder dan 2x in skeweness past, dan is de skeweness niet significant
en dus wel een normale verdeling
➔ Kurtosis (piekigheid): positief getal → piekig
◆ Wanneer SE 2x in kurtosis past, dan is de kurtosis significant en dus geen normale
verdeling
◆ Wanneer SE minder dan 2x in kurtosis past, dan is de kurtosis niet significant en dus
wel een normale verdeling
➔ Test of normality: Kolmogorov-Smirnov test
◆ Significant → geen normale verdeling
◆ Niet significant → normale verdeling
Percentielrank vs P-waarde
➔ Overeenkomst: beide scores geven een indicatie van het percentage mensen die dezelfde
score of lager hebben behaald
➔ Verschil: kan je uitgaan van een normaalverdeling in de populatie?
◆ Nee → Percentiel: alle ruwe scores zonder assumptie over de verdeling
◆ Ja → P-waarde: gebruik van M en SD van de ruwe scores met assumptie van een
normaalverdeling
➔ Bij een normaal verdeling: de percentiel rank is gelijk aan de P-waarde
➔ De voorkeur gaat uit naar het gebruiken van de P-waarde, want deze wordt niet beïnvloed
door de sample
T-score vs T-normscore
➔ T-scores zijn gestandaardiseerd
◆ T-scores zijn berekend aan de hand van de Z-score (gestandaardiseerde score)
◆ Verdeling
● Z-score: dezelfde verdeling als de verdeling van de ruwe scores
● T-score: lineaire transformatie van Z-score → dezelfde verdeling als de
verdeling van de ruwe scores
○ Is alleen normaal, als je Z-score ook normaal was
○ Z-score niet normaal → T-score ook niet!
○ Z-score wel normaal → T-score ook
➔ T-normscores zijn gestandaardiseerd en genormaliseerd
◆ Niet lineaire transformatie van de gestandaardiseerde scores: assumptie van een
normaalverdeling wat ervoor zorgt dat de verdeling meer gaat lijken op een
normaalverdeling (maar niet perse normaal is)
➔ Genormaliseerde scores hebben de voorkeur omdat we dan voldoen aan de assumptie dat de
populatie normaal verdeeld is
1
, Worked example 2
Methodes van dimensionaliteit onderzoeken (factoren)
➔ Kijk altijd naar je theorie om het aantal factoren vast te stellen aan de hand van je data
Methode +inhoud Nadelen Voordelen
Allen: gebaseerd op data en niet op
theorie
Total variance explained (beste) Niet gevoelig voor aantal items
★ Kijk wanneer de verschillen tussen opeenvolgende
varianties heel klein zijn
★ Factoren = aantal wanneer het verschil nog wel groot is!
Eigenvalue groter dan 1 Gevoelig voor aantal items: meer items →
meer kans dat items > 1
Screeplot Niet altijd even duidelijk Makkelijker kijken dan in tabel (total
★ Kijk wanneer de screeplot plat wordt variance)
Unrotated vs rotated solution: factor loading
➔ Unrotated (factor matrix)
◆ Items hebben de grootste loading op de eerste factor
◆ Geen correlatie tussen factoren
➔ Rotated (orthogonaal/rotated factor matrix)
◆ Gebruik van varimax rotatie → item heeft grote loading op 1 factor en lage loading op
andere factor ( =simple structure)
◆ Geen correlatie tussen factoren
Non-orthogonaal
➔ Rotatie leidt niet tot meer verklaarde variantie
◆ Initial eigenvalues blijven hetzelfde
◆ Variantie wordt beter verdeeld (elke factor krijgt nu een aparte taak om iets te
verklaren)
➔ Wel correlatie tussen factoren (gebeurt vaak in gedragswetenschappen)
Worked example 3
Vormen van betrouwbaarheid schatten
➔ Parallelle testen
◆ Betrouwbaarheid = correlatie tussen 2 alternatieve metingen van een test
◆ Definitie
● Twee testen zijn parallel als ze verschillende sets van items gebruiken om
hetzelfde psychologische construct te meten
● Hetzelfde niveau van variantie in meetfouten
● Geen leereffect
● Correlatie van de test is gelijk aan de betrouwbaarheid van testscores
◆ Soorten
● Test-retest: dezelfde test 2x afnemen bij een participant
● Alternate forms: parallelle testen
➔ Internal consistency (1 test, 1 meetmoment)
◆ Betrouwbaarheid wordt beïnvloed door
● Correlatie tussen items: hoe hoger → hoe betrouwbaarder
2
Worked example 1
Normaliteit beoordelen
➔ Skeweness: 0 → normale verdeling
◆ Wanneer SE 2x in skeweness past, dan is de skeweness significant en dus geen
normale verdeling
◆ Wanneer SE minder dan 2x in skeweness past, dan is de skeweness niet significant
en dus wel een normale verdeling
➔ Kurtosis (piekigheid): positief getal → piekig
◆ Wanneer SE 2x in kurtosis past, dan is de kurtosis significant en dus geen normale
verdeling
◆ Wanneer SE minder dan 2x in kurtosis past, dan is de kurtosis niet significant en dus
wel een normale verdeling
➔ Test of normality: Kolmogorov-Smirnov test
◆ Significant → geen normale verdeling
◆ Niet significant → normale verdeling
Percentielrank vs P-waarde
➔ Overeenkomst: beide scores geven een indicatie van het percentage mensen die dezelfde
score of lager hebben behaald
➔ Verschil: kan je uitgaan van een normaalverdeling in de populatie?
◆ Nee → Percentiel: alle ruwe scores zonder assumptie over de verdeling
◆ Ja → P-waarde: gebruik van M en SD van de ruwe scores met assumptie van een
normaalverdeling
➔ Bij een normaal verdeling: de percentiel rank is gelijk aan de P-waarde
➔ De voorkeur gaat uit naar het gebruiken van de P-waarde, want deze wordt niet beïnvloed
door de sample
T-score vs T-normscore
➔ T-scores zijn gestandaardiseerd
◆ T-scores zijn berekend aan de hand van de Z-score (gestandaardiseerde score)
◆ Verdeling
● Z-score: dezelfde verdeling als de verdeling van de ruwe scores
● T-score: lineaire transformatie van Z-score → dezelfde verdeling als de
verdeling van de ruwe scores
○ Is alleen normaal, als je Z-score ook normaal was
○ Z-score niet normaal → T-score ook niet!
○ Z-score wel normaal → T-score ook
➔ T-normscores zijn gestandaardiseerd en genormaliseerd
◆ Niet lineaire transformatie van de gestandaardiseerde scores: assumptie van een
normaalverdeling wat ervoor zorgt dat de verdeling meer gaat lijken op een
normaalverdeling (maar niet perse normaal is)
➔ Genormaliseerde scores hebben de voorkeur omdat we dan voldoen aan de assumptie dat de
populatie normaal verdeeld is
1
, Worked example 2
Methodes van dimensionaliteit onderzoeken (factoren)
➔ Kijk altijd naar je theorie om het aantal factoren vast te stellen aan de hand van je data
Methode +inhoud Nadelen Voordelen
Allen: gebaseerd op data en niet op
theorie
Total variance explained (beste) Niet gevoelig voor aantal items
★ Kijk wanneer de verschillen tussen opeenvolgende
varianties heel klein zijn
★ Factoren = aantal wanneer het verschil nog wel groot is!
Eigenvalue groter dan 1 Gevoelig voor aantal items: meer items →
meer kans dat items > 1
Screeplot Niet altijd even duidelijk Makkelijker kijken dan in tabel (total
★ Kijk wanneer de screeplot plat wordt variance)
Unrotated vs rotated solution: factor loading
➔ Unrotated (factor matrix)
◆ Items hebben de grootste loading op de eerste factor
◆ Geen correlatie tussen factoren
➔ Rotated (orthogonaal/rotated factor matrix)
◆ Gebruik van varimax rotatie → item heeft grote loading op 1 factor en lage loading op
andere factor ( =simple structure)
◆ Geen correlatie tussen factoren
Non-orthogonaal
➔ Rotatie leidt niet tot meer verklaarde variantie
◆ Initial eigenvalues blijven hetzelfde
◆ Variantie wordt beter verdeeld (elke factor krijgt nu een aparte taak om iets te
verklaren)
➔ Wel correlatie tussen factoren (gebeurt vaak in gedragswetenschappen)
Worked example 3
Vormen van betrouwbaarheid schatten
➔ Parallelle testen
◆ Betrouwbaarheid = correlatie tussen 2 alternatieve metingen van een test
◆ Definitie
● Twee testen zijn parallel als ze verschillende sets van items gebruiken om
hetzelfde psychologische construct te meten
● Hetzelfde niveau van variantie in meetfouten
● Geen leereffect
● Correlatie van de test is gelijk aan de betrouwbaarheid van testscores
◆ Soorten
● Test-retest: dezelfde test 2x afnemen bij een participant
● Alternate forms: parallelle testen
➔ Internal consistency (1 test, 1 meetmoment)
◆ Betrouwbaarheid wordt beïnvloed door
● Correlatie tussen items: hoe hoger → hoe betrouwbaarder
2