Oefening 1: Verkennende oefening
Hieronder zie je de oefening die in de slides gebruikt wordt. De data hiervoor staan in
FA_vboefening.txt. Neem het bijhorende script/syntaxdocument (WPO7_demo.R of
.sps) en de slides uit de les en ga na of je alle concepten uitgelegd krijgt en de output
gereproduceerd krijgt. De output hieronder is met R gemaakt, de bijhorende slides bevatten
de SPSS output (maar de inhoud is gelijk).
De data bevat responsen op 5 vragen die peilden naar tevredenheid van werknemers. Voor
deze oefening mag je ervan uitgaan dat alle kenmerken als numerieke variabele behandeld
mogen worden.
Kenmerk Beschrijving Waarden
collegas Hoe beoordeeld u de sfeer Schaal van 0 (uiterst
onder collega’s. slecht) tot 10 (uitstekend).
➔ ORDINAAL MEETNIVEAU
loon netto maandloon in euro
➔ RATIO MEETNIVEAU
uitdaging Biedt de job voldoende Waarden:
uitdaging? 0 geen
1 zeer weinig
2 weinig
3 matig
4 veel
5 zeer veel
➔ ORDINAAL MEETNIVEAU
natura Zijn er voordelen in natura? waarden:
0 geen
1 zeer weinig
2 weinig
3 matig
4 veel
5 zeer veel
➔ ORDINAAL MEETNIVEAU
inhoud Vindt u uw werk inhoudelijk Schaal van 0 (absoluut niet)
interessant? tot 10 (zeer boeiend)
➔ ORDINAAL MEETNIVEAU
1
,Zijn er gemeenschappelijke dimensies in de dataset en zo ja, hoeveel dimensies vind je terug?
STAP 1: GEDEELDE VARIANTIE
➔ Als er sterke correlaties zijn, dan is deze data geschikt (correlate-bivarate).
PEARSON CORRELATIE
Analyse – correlate – bivariate
➔ Indien sig correlaties: andere correlaties dan 0
2
, ➔ Eerst PCA analyse uitvoeren: analyse – dimension of reduction – factor
BARTLET TEST
➔ Test gaat kijken naar correlatiematrix
➔ We willen kijken of er correlaties zijn of niet
➔ P < 0,001 -> H0 V -> correlaties ts variabelen aanwezig
KMO
➔ Alle v in dataset hebben veel gedeelde variantie = goede KMO
➔ Hoge KMO -> veel van de variantie in data kan in als gedeelde variantie beschouwd
worden
➔ We willen 0,70 of meer -> 70% of meer gedeelde variantie
➔ Onder 0,50 -> niet acceptabel
➔ Hier KMO te laag -> je kan anti-image matrix opvragen (hoeveel variantie kan je
beschouwen als gedeelde)
➔ Data is niet zo geschikt voor analyse door KMO, maar we gaan toch verder gaan
➔ We moeten kijken naar eigenwaarde en scree plot want je wilt een beeld krijgen hoeveel
componenten je kan behouden
3
, APA
Om na te gaan of de data geschikt zijn, moeten we toch iets formeler testen. Eerst en vooral
kunnen we met de Bartlett test van sfericiteit nagaan of de correlatiematrix van de hele dataset
significant verschilt van een eenheidsmatrix (wat zou impliceren dat er geen correlatie tussen de
items is). De Bartlett test geeft aan dat er significante correlaties zijn (𝜒^2 (10) = 36.47, 𝑝 <
.001).
Daarnaast is er de KMO measure of sampling adequacy die 0.47 is. Dit is te laag om een zinvolle
factoranalyse te doen aangezien 0.50 vaak een minimale grens is en 0.70 meestal pas als een
goede waarde gezien wordt. We kunnen in een laatste poging nog kijken naar de MSA waarden
per variabele, dit zijn de diagonaalelementen op de anti- image correlatiematrix, die aangeven
hoeveel unieke variantie een variabele heeft nadat gecontroleerd is voor de gedeelde variantie
met andere variabelen (ze zijn dus gelinkt aan de partiële correlaties) en dus geeft deze waarde
aan hoe goed de variabele de rest verklaart na factoranalyse. Lage waarden voor de MSA
kunnen erop wijzen dat je deze variabele best verwijderd uit de analyse. Figuur 2 toont dat de
variabele collegas potentieel problematisch is met een MSA van 0.27, maar we zien dat enkele
variabelen een MSA hoger dan 0.5 hebben. We gaan hier de analyse verderzetten, maar het is
mogelijks niet de optimale oplossing. Het is een goede oefening voor thuis om na te gaan hoe
de kwaliteit van de data verbetert als je collegas weglaat uit de analyse.
DETERMINANT
Een laatste controle die je ook kan uitvoeren is nagaan of de determinant van de
correlatie niet te laag is: dit wijst op te sterke multicollineariteit en kan de berekeningen
numeriek instabiel maken als de waarde kleiner is dan 0.00001 (of 1e-5). De determinant is hier
0.11, dus niet problematisch klein.
➔ De determinant is een enkele waarde die iets zegt over de onafhankelijkheid van de
variabelen in de matrix
4