Samenvatting Correlationele onderzoeksmethoden:
Module 1
Probablistische Random toewijzing manipulatie
sampling
Experiment ja Ja Ja
Quasi experiment Ja Nee Ja
Correlationeel Ja Nee Nee
Bij correlaties is het betrouwbaarheidsinterval niet symmetrisch, R ligt niet in het midden
Levene’s test: is het significant? (p>alpha) -> bij equal variances not assumed kijken
Module 2
Spurieuze relatie = Ijs (X) <- Warm weer (Z) -> verdrinken (Y)
Bij regressie analyse zoek je de lijn die het beste Y te voorspellen is uit X. Deze lijn gaat altijd door het
snijpunt van de gemiddelden van Y en X.
b1= r (Sy:Sx)
r = som (Zx * Zy) / N
Zy = (Y : voorspelde Y) / Sy
Zx = (x : voorspelde x) / Sx
Totale variantie = variantie van de voorspelde waarde + variantie van de fout
Sy^2 = Sy’^2 + Se^2
Dus de proportie verklaarde variantie is:
R^2y*x = Sy’^2 / Sy^2 = SSregression / SStotal = Var (Y’) / Var (Y) (deel/geheel)
Als je R^2 afleest is dit dus hetzelfde als SSregression in de tabel / SStotal in de tabel!
Het onverklaarde deel is dan 1 - R^2y*x
R is de correlatie tussen Y en Y’.
b1 met dakje erop gaat over steekproef (dus de geschatte waarde)
Kennisclip:
Statische power (= H0 correct verwerpen) kan verhoogd worden door:
- Alpha level omhoog
- Effectgrootte omhoog
- Steekproefgrootte omhoog
Kanskapitalisatie = tegelijk toetsen van meerdere correlaties:
Kans op een type 1 fout (onterecht H0 verwerpen neemt dan toe)
Dit kun je tegengaan door: Bonferroni correctie (=alpha / aantal toetsen) of replicatie of cross
validatie van de studie
Module 3
, Regressieanalyse geeft antwoord op de volgende vragen:
- Hoe ziet het lineair verband eruit?
- Hoe goed is Y te voorspellen? Hoe sterk is het effect? Hoeveel van Y komt door X?
- Zijn de resultaten te generaliseren
Als iemand X scoort dan voorspellen we Y’ en Y’ is het geschatte gemiddelde van mensen die X
scoren.
De gestandaardiseerde coëfficiënt gebruik je
- als het niet duidelijk is wat het betekent (bijv. 1 omhoog in depressie) dus geen
betekenisvolle eenheid
- Binnen één studie en één steekproef (bijv. kijken welke beta grootste invloed heeft op Y)
Zy’ = Beta1 Zx
Als X toeneemt met 1 standaarddeviatie dan neemt Y toe met beta1 standaarddeviaties.
Bij effecten tussen studie vergelijken gebruik je altijd ongestandaardiseerd.
! k is het aantal predictoren
Multipele R geeft de correlatie tussen Y en Y’ aan.
SStotal = afwijking van de score van het gemiddelde
SSregression = afwijking van de voorspelde waarde van het gemiddelde (kan voorspeld worden)
SSresidual = afwijking van de score van de voorspelling (kan niet voorspeld worden)
Bayesiaanse statistiek: verschillende hypotheses vergelijken en zeggen welke kans grootste is
Je kijkt hierbij hoeveel bewijs er is voor H0 en H1:
1 no evidence
1-3 anecdotal evidence
3-10 substantieel evidence
10-30 strong evidence
30-100 very strong evidence
>100 extreme evidence
Van H1 naar H0: BFH0 = 1 / BFH1
Notatie F-toets: F (vrijheidsgraden (df) regression , vrijheidsgraden (df) residual) = F waarde
P = p-waarde
Df regression = k (aantal predictoren)
Df residual = N – k - 1
Module 4:
Testen van meerdere onafhankelijke variabelen is nuttig:
- Controleren voor confounders
- Toetsen theoriën en beter begrip van complex gedrag
- Voorspellen uitkomsten (van bijv. ziekte)
Belangrijk dat er:
- Onafhankelijke gekozen observaties zijn
- Lineair verband is (scatterplot checken)
- Geen extreme outliers zijn
Module 1
Probablistische Random toewijzing manipulatie
sampling
Experiment ja Ja Ja
Quasi experiment Ja Nee Ja
Correlationeel Ja Nee Nee
Bij correlaties is het betrouwbaarheidsinterval niet symmetrisch, R ligt niet in het midden
Levene’s test: is het significant? (p>alpha) -> bij equal variances not assumed kijken
Module 2
Spurieuze relatie = Ijs (X) <- Warm weer (Z) -> verdrinken (Y)
Bij regressie analyse zoek je de lijn die het beste Y te voorspellen is uit X. Deze lijn gaat altijd door het
snijpunt van de gemiddelden van Y en X.
b1= r (Sy:Sx)
r = som (Zx * Zy) / N
Zy = (Y : voorspelde Y) / Sy
Zx = (x : voorspelde x) / Sx
Totale variantie = variantie van de voorspelde waarde + variantie van de fout
Sy^2 = Sy’^2 + Se^2
Dus de proportie verklaarde variantie is:
R^2y*x = Sy’^2 / Sy^2 = SSregression / SStotal = Var (Y’) / Var (Y) (deel/geheel)
Als je R^2 afleest is dit dus hetzelfde als SSregression in de tabel / SStotal in de tabel!
Het onverklaarde deel is dan 1 - R^2y*x
R is de correlatie tussen Y en Y’.
b1 met dakje erop gaat over steekproef (dus de geschatte waarde)
Kennisclip:
Statische power (= H0 correct verwerpen) kan verhoogd worden door:
- Alpha level omhoog
- Effectgrootte omhoog
- Steekproefgrootte omhoog
Kanskapitalisatie = tegelijk toetsen van meerdere correlaties:
Kans op een type 1 fout (onterecht H0 verwerpen neemt dan toe)
Dit kun je tegengaan door: Bonferroni correctie (=alpha / aantal toetsen) of replicatie of cross
validatie van de studie
Module 3
, Regressieanalyse geeft antwoord op de volgende vragen:
- Hoe ziet het lineair verband eruit?
- Hoe goed is Y te voorspellen? Hoe sterk is het effect? Hoeveel van Y komt door X?
- Zijn de resultaten te generaliseren
Als iemand X scoort dan voorspellen we Y’ en Y’ is het geschatte gemiddelde van mensen die X
scoren.
De gestandaardiseerde coëfficiënt gebruik je
- als het niet duidelijk is wat het betekent (bijv. 1 omhoog in depressie) dus geen
betekenisvolle eenheid
- Binnen één studie en één steekproef (bijv. kijken welke beta grootste invloed heeft op Y)
Zy’ = Beta1 Zx
Als X toeneemt met 1 standaarddeviatie dan neemt Y toe met beta1 standaarddeviaties.
Bij effecten tussen studie vergelijken gebruik je altijd ongestandaardiseerd.
! k is het aantal predictoren
Multipele R geeft de correlatie tussen Y en Y’ aan.
SStotal = afwijking van de score van het gemiddelde
SSregression = afwijking van de voorspelde waarde van het gemiddelde (kan voorspeld worden)
SSresidual = afwijking van de score van de voorspelling (kan niet voorspeld worden)
Bayesiaanse statistiek: verschillende hypotheses vergelijken en zeggen welke kans grootste is
Je kijkt hierbij hoeveel bewijs er is voor H0 en H1:
1 no evidence
1-3 anecdotal evidence
3-10 substantieel evidence
10-30 strong evidence
30-100 very strong evidence
>100 extreme evidence
Van H1 naar H0: BFH0 = 1 / BFH1
Notatie F-toets: F (vrijheidsgraden (df) regression , vrijheidsgraden (df) residual) = F waarde
P = p-waarde
Df regression = k (aantal predictoren)
Df residual = N – k - 1
Module 4:
Testen van meerdere onafhankelijke variabelen is nuttig:
- Controleren voor confounders
- Toetsen theoriën en beter begrip van complex gedrag
- Voorspellen uitkomsten (van bijv. ziekte)
Belangrijk dat er:
- Onafhankelijke gekozen observaties zijn
- Lineair verband is (scatterplot checken)
- Geen extreme outliers zijn