100% satisfaction guarantee Immediately available after payment Both online and in PDF No strings attached 4.2 TrustPilot
logo-home
Summary

Samenvatting Causale analyse

Rating
-
Sold
-
Pages
19
Uploaded on
21-01-2025
Written in
2024/2025

In deze samenvatting staat alles wat je moet weten van causale analyse duidelijk, maar bondig uitgelegd. Vaak ook met een voorbeeld. Ik heb zelf met deze samenvatting (en door te oefenen) een 8,5 gehaald.

Institution
Course










Whoops! We can’t load your doc right now. Try again or contact support.

Written for

Institution
Study
Course

Document information

Uploaded on
January 21, 2025
Number of pages
19
Written in
2024/2025
Type
Summary

Subjects

Content preview

Causale analyse – samengevat

Hoorcollege 1
Gemeenschappelijk in alle modellen: schatten hoeveel van de variantie in een afhankelijke Y
systematisch samenhangt (co-varieert) met de variantie in verklarende X.
 Variantie = spreiding van scores in de data.

Score op Y kunnen voorspeld worden door:
- X: predictor die Y systematisch beïnvloed.
- Error: niet gemeten, maar beïnvloed Y systematisch of toevallig (random).

Meetniveau afhankelijke variabele bepaald techniek
- Nominaal: onderscheidt zonder ordening
- Ordinaal: onderscheidt met ordening, zonder gelijke afstand
- Interval: onderscheidt met ordening en gelijke afstand
- Ratio: onderscheidt met ordening en gelijke afstand met absoluut 0-punt.

ANOVA
Y = interval/ratio & X = nominaal/ordinaal
Indien er 2 of meer groepen zijn, kunnen we dan een uitspraak doen over mogelijk
significante verschillen tussen gemiddelden van de groepen?
 Significant effect als meeste variantie tussen groepen en binnen groepen dus weinig
variantie.
- Tussengroep-variantie = meet systematische verschillen tussen groepen
(=systematisch groepseffect) & alle andere variabelen die zowel systematisch als
toevallig van invloed zijn op Y (error).
- Binnengroep-variantie = alle variabelen die zowel systematisch als toevallig van
invloed zijn op Y (=error).
Positief groepseffect wanner het groepsgemiddelde hoger is dan het totale gemiddelde.

Logica van ANOVA
1. Alfa vaststellen
2. Statischtische nulhypothese  H0: 1 = 2 = … = k
- Gemiddelden van k populaties waarmee groepen corresponderen zijn gelijk aan
elkaar.
- H0 verwerpen betekend 2(+) groepen verschillen significant.
3. Waarom ANOVA?  minder kans op Type I fout (H0 verwerpen terwijl deze juist is),
doordat je maar één keer toetst. Normaal voel je meer testen uit waardoor het
makkelijker wordt om een significant resultaat te vinden en daardoor H0 onterecht te
verwerpen.
1 – (1 – alfa)c
4. F-verdeling om nulhypothese te toetsen
- Deviatie van score van individu t.o.v. algemene gemiddelde
Yij - My  som in het kwadraat geeft: SStotal
- Deviatie van score van individu t.o.v. groepsgemiddelde
(Yij – Mi) = ij  som in het kwadraat geeft: SSwithin
- Deviatie van groepsgemiddelde t.o.v. algemene gemiddelde

, (Mi – My) = I  som in het kwadraat geeft: SSbetween
o Totale deviatie = ij + I
5. Deviaties kwadrateren, zodat het allemaal positief is.
6. Mean squares (MS)
- MSbetween = SSbetween/k – 1, k=aantal groepen  numorator
- MSwithin = SSwithin/(N – K), N=aantal observaties  denominator
7. F ratio test statistic = MSbetween / MSwithin

Levene’s test significant?  Robust test of equality of means
Als deze significant is betekent dit dat de homogeniteit is geschonden tussen groepen 
variantie van Y is verschillend.

Assumpties ANOVA
- Afhankelijke Y = interval/ratio & onafhankelijke X = nominaal/ordinaal
- In hele steekproef en binnen elke groep scores van Y normaal verdeeld
- Geen outliers
- Variantie van Y is gelijk tussen groepen  homogeen
- Observaties zijn geselecteerd via aselecte steekproeftrekking en onafhankelijk van
elkaar.
o Score individu geeft geen informatie over andere score in dataset
o Respondenten behoren tot één groep
o Respondenten binnen groep zijn aselect gekozen
o Respondenten zijn wel afhankelijk van hun groep, maar rekening mee
gehouden doordat de groep X is.
 Assumptie onafhankelijke waarnemingen wordt geschonden in designs waar
dezelfde persoon herhaaldelijk wordt gemeten en waarin clusters zijn.

Effect size = hoeveel van de variantie in de afhankelijke variabele wordt verklaard vanuit het
feit dat er verschillende groepen zijn (onafhankelijke variabele)?
 ANOVA: 2 = SSbetween / SStotal

ANOVA is mathematisch gelijk aan een multipele lineaire regressie met alleen dummys.

Hoorcollege 2
Pearson correlatie (r) = gestandaardiseerde maat voor de lineaire samenhang tussen 2
continue (dichotome) variabelen.
- Hoe hangen variabele met elkaar samen en hoe sterk is deze samenhang
- Significantie
! Niet voor causaliteit
-1 < r < +1

Assumpties r
1. Lineair
2. Geen outliers
3. Bivariate normale verdeling
4. 2 continue (dichotome) variabelen

, 5. Homoscedasticiteit = y-scores hebben dezelfde variantie voor de scores van x (en vice
versa)  als variantie in x toeneemt gebeurt in y hetzelfde EN DUS NIET als score van
X toeneemt wordt de variantie in Y groter, want dat is heteroscedasticiteit.

r berekenen


met Zx = (X – Mx) / sx & Zy = (Y – My) / sy
N = aantal X, Y paren
Gestandaardiseerde variabele: gemiddelde = 0 en standaarddeviatie = 1.

Kan ook via de covariantie (ongestandaardiseerde correlatie). Geeft aan in welke mate 2
variabelen lineair met elkaar variëren.
 Covariantie standaardiseren geeft de pearson correlatie en deze is niet afhankelijk van de
oorspronkelijke meeteenheden van X en Y.



Concordante datapunten = liggen boven het gemiddelden van zowel X als Y of onder het
gemiddelde van zowel X als Y  positieve samenhang (rechts boven (+,+), links onder (-,-)).
Discordante datapunten = liggen onder het gemiddelde van X en boven het gemiddelde van
Y of boven het gemiddelde van X en onder het gemiddelde van Y  negatieve samenhang
(links boven (-,+), rechts onder (+,-)).
! Wanneer puntenwolkjes in het midden liggen (gelijk verdeeld zijn) is de samenhang
ongeveer gelijk aan 0.

Nulhypothese
Nulhypothese is H0: xy = 0  geen lineaire samenhang, als deze significant is dus wel lineair.

met df = N – 2
Je wilt een grote correlatie (teller) en een kleine standaardfout (noemer) voor een grote, en
dus significante, t-waarde.
SEr = standaarddeviatie van de steekproevenverdeling  hoeveel verschilt de schatting van
de coëfficiënt gemiddeld genomen van de steekproef.
! Two-tailed.
Sterkte van de lineaire associatie (effect size) is van belang!

Het doen van veel correlaties geeft een grotere kans op significant resultaat  type I fout.
1. Beperk aantal correlaties
2. Cross-validatie = subsamples maken en voor beide r uitrekenen, als deze dicht bij
elkaar zitten dan weet je dat het klopt.
3. Bonferronie (meer conservatieve alfa): deel je alfa door het aantal toetsen dat je
uitkomst en gebruik de uitkomst als de nieuwe alfa.
4. Repliceer correlaties in nieuwe steekproeven

Oorzaken grote Pearson r
1. Y veroorzaakt X of andersom

Get to know the seller

Seller avatar
Reputation scores are based on the amount of documents a seller has sold for a fee and the reviews they have received for those documents. There are three levels: Bronze, Silver and Gold. The better the reputation, the more your can rely on the quality of the sellers work.
Merel04 Tilburg University
Follow You need to be logged in order to follow users or courses
Sold
237
Member since
4 year
Number of followers
79
Documents
42
Last sold
1 day ago

4.2

25 reviews

5
11
4
9
3
4
2
0
1
1

Recently viewed by you

Why students choose Stuvia

Created by fellow students, verified by reviews

Quality you can trust: written by students who passed their tests and reviewed by others who've used these notes.

Didn't get what you expected? Choose another document

No worries! You can instantly pick a different document that better fits what you're looking for.

Pay as you like, start learning right away

No subscription, no commitments. Pay the way you're used to via credit card and download your PDF document instantly.

Student with book image

“Bought, downloaded, and aced it. It really can be that simple.”

Alisha Student

Frequently asked questions