CFA & SEM
Inleiding
Data-reductie = meerdere niet-categorische variabelen reduceren tot een
beperkter aantal componenten
- Waarom zouden we dat doen? Als we iets willen verklaren adhv één
variabele ipv 4 verschillende
- Metrische variabelen gebruiken
PCA Principale componenten- PFA Principale Factor- CFA
Confirmatieve
analyse ~ 4 items (geobserveerde analyse ~ het aantal factoren
factoranalyse ~ elke
variabelen, kunnen we terugvinden moet altijd kleiner zijn dan
variabele wordt door
in de dataset) het aantal variabelen in de één
factor verklaard
analyse
Herhaling PCA & EFA
PCA = Principale componenten analyse
Data-reductie
- Componenten zoeken naar een lineaire gewogen combinatie van items die
de totale variatie in de data maximaal vat
o Drie geobserveerde variabelen (rechthoeken)
Adhv van deze variabelen gaan we evenveel componenten
schatten
Die componenten = latente variabelen (cirkels)
- Er worden evenveel componenten berekend als items in de schaal
o Drie indicatoren = drie componenten
- Voor elk item w berekend hoeveel variatie een bepaalde component
verklaart
o Voor elke X wordt er berekend hoeveel variantie die bedraagt (dus
voor component 1, 2 of 3 of alle drie te samen)
- Het is aan de onderzoeker om aantal componenten te weerhouden =
EXPLORATIEF
o We gaan zelf beslissen over hoeveel componenten we zouden
behouden
o Of de oplossing inhoudelijk interpreteerbaar is en of die wel goed
genoeg is
Pagina 69
,Kwantitatieve onderzoeksmethoden: data-analyse 2 | academiejaar 2024-2025
o We werken niet met theoretische verwachtingen, we worden geleid
door de data
PCA model
Samenhang van
de indicator met
elk van de
componenten: hoe
hoger de waarde,
hoe hoger de
samenhang tussen
het item en de
component
C 1=z 11 X 1+ z12 X 2 + z 13 X 3 Waarbij
C 2=z 21 X 1 + z 22 X 2 + z 23 X 3 C = component
C 3=z 31 X 1 + z 32 X 2 + z 33 X 3 X = variabele
z = gestandaardiseerde coëfficiënt
We kunnen elke component (C1, C2 of C3) beschrijven adhv een combinatie van
gewogen indicatoren (X1, X2, X3) ~ gewichten = z
X 1 =v 11 C1 + v 12 C2 + v 13 C 3 Waarbij
X 2 =v 21 C 1+ v 22 C 2 +v 23 C 3 C = component
X 3 =v 31 C 1 +v 32 C 2 +v 33 C 3 X = variabele
v = componentlading
Omgekeerd: we kunnen elk item beschrijven adhv een combinatie van gewogen
componenten adhv componentlading v
Hoe wordt het model van PCA geschat?
Stapsgewijs!
Kies elke component zo dat de verklaarde (overgebleven) variantie maximaal is
1. C1 probeert zo groot mogelijke variantie te verklaren van alle items
2. De overgebleven variantie proberen verklaren met C2
Deze component probeert zo veel mogelijk variantie te verklaren die nog
niet verklaard werd door de eerste component
Deze tweede component is niet gecorreleerd aan de eerste component
(staan loodrecht op elkaar)
3. Wat daarna nog overblijft aan variantie, verklaren door C3
PCA: er worden evenveel componenten geschat als items, maar niet alle
componenten moeten behouden blijven data-reductie!
Pagina 70
,Kwantitatieve onderzoeksmethoden: data-analyse 2 | academiejaar 2024-2025
Gezien de items
gestandaardise
erd zijn, heeft
elk item een
variantie van 1
(gem = 0, var
=1)
De componenten
verklaren 100%
0,786 = componentlading = van deze
samenhang tussen item X1 en variantie (=
component C1 (is gestandaardiseerd, informatie over
0 = geen samenhang, (-)1 = sterke hoe onze
(neg)pos samenhang)Eigenwaarde = som van de
eigenvectoren van een bepaalde
0,786² = 0,618 = eigenvector =
component = totale verklaarde
hoeveelheid verklaarde variantie
variantie door bepaalde component
tussen item X1 en component 61,8%
van alle items
van de variantie in item X1 wordt
verklaard door component
0,618C1
+ 0,686 + 0,822 = 2,126
2,126/3 = 71% 71% van de totale
0,507² = 25,7% van de variantie in
variantie van de items wordt
item X1 wordt verklaard door
verklaard door component C1
component C2
Welke componenten zouden21% van
we de
hiertotale variantie van de
behouden
en waarom? items wordt verklaard door
component C2 en 8% door
De eigenwaarde van de component moet volgens het Kaiser criterium groter zijn
dan 1
Enkel het geval bij de eerste component!
EXPLORATIEVE FACTOR ANALYSE VERSUS PCA
≠ PCA : metingen bevatten
naast relevante informatie ook
meetfouten nooit 100%
verklaarde variantie van de
items
≠ PCA: onderscheid tussen
gedeelde (variantie
gemeenschappelijk met andere
items – de factor) en unieke
variantie (variantie uniek aan
item – de error)
- Altijd minder factoren extrageren dan het aantal indicatoren in de analyse
~ niet de hele variantie verklaren
- Daarom spreken we ook over uniciteiten = unieke varianties van
indicatoren (residuele varianties), deel van de variantie die nog overblijft
nadat de gemeenschappelijke variantie van de drie indicatoren eruit zijn
gehaald (de pijltjes links)
Pagina 71
, Kwantitatieve onderzoeksmethoden: data-analyse 2 | academiejaar 2024-2025
Exploratief ~ zonder verwachtingen beginnen
EFA model
X 1 =b11 F1 +b 12 F2 + d1 U 1
X 2 =b21 F 1+ b22 F 2 +d 2 U 2
X 3 =b31 F 1 +b32 F 2 +d 3 U 3
X 4=b 41 F 1+ b42 F 2 +d 4 U 4
Waarbij
X 5 =b51 F 1 +b52 F 2 +d 5 U 5
F = factor (latente variabele)
X 6 =b61 F 1 +b62 F 2 +d 6 U 6
X = geobserveerde variabele (w
verklaard door F)
b = factorlading
U = unieke factor/errorterm
Uitleg model
Twee factoren (latente variabelen)
verklaren de zes geobserveerde
variabelen. Alle geobserveerde
Communaliteit = hoeveelheid
variabelen hebben residuele varianties
variantie van item dat verklaard
en zijn dus niet gemeenschappelijk
wordt door de gemeenschappelijke
(buiten de samenhang, w niet
factore = som van gekwadrateerde
verklaard door de factoren). De
factorladingen
verschillende pijlen tussen de factoren
en variabelen verklaren de samenhang Bv. voor item 1: (-0.521)² +
(donkere pijl is sterker effect/samehang (0.802)² = 0.915
91% van de variantie in item 1
Uniciteit = hoeveelheid
wordt verklaard door de twee
variantie van item dat niet
factoren
verklaard wordt door
gemeenschappelijke In PCA: verklaarde variantie per
factoren item altijd gelijk aan 100%!
1 = communaliteit +
Pagina 72