Samenvatting Agresti
Hoofdstuk 7 – vergelijking tussen twee groepen
7.3 Vergelijken van twee gemiddelden
We vergelijken twee populatiegemiddelden μ1 en μ2 door conclusies te trekken over hun
verschil.
Voor onafhankelijke random steekproeven uit twee groepen die normaal zijn
verdeeld is een betrouwbaarheidsinterval voor μ2 − μ1 =
→ De t-score wordt gekozen om het gewenste betrouwbaarheidsniveau te bieden.
- bij grote n: gebruik z-verdeling
- bij kleinere n: gebruik t-verdeling
Significantietoets bij 1 steekproef
Significantietoets bij twee steekproeven
(AFHANKELIJKE steekproeven)
Voorbeeld:
Een docent statistiek wil weten of studenten met blauwe ogen
beter zijn in statistiek dan studenten met een andere kleur
ogen. Hij verzamelt gegevens bij RUG-studenten en vindt het
volgende:
Hoe groot is de kans om tenminste dit verschil te vinden als
oogkleur in werkelijkheid niet uit zou maken?
Formuleer hypothesen
H0: µ1 = µ2, Ha: µ1 ≠ µ2
Significantieniveau: α = 0.05
bereken toets-statistiek
bereken de p-waarde
t= 0.4 met df = n-1 = 99
p = 0.690
Conlcusie
•geen significant effect, want p > α = 0.05
•onvoldoende bewijs om H0 te verwerpen
, 7.4 Vergelijken van twee gemiddelden van afhankelijke steekproeven
Afhankelijke steekproeven treden op wanneer elke waarneming in steekproef 1 overeenkomt
met een waarneming in steekproef 2. De gegevens worden daarom vaak matched pairs-
gegevens genoemd.
Voor elk paar dat we vormen bij matched pairs:
Verschil = Waarneming in steekproef 2 − Waarneming in steekproef 1.
Het verschil tussen de gemiddelden van de twee groepen gelijk is aan het gemiddelde van
de verschilscores
N= aantal observaties in elke steekproef
Betrouwbaarheidsinterval voor μd bij twee afhankelijke steekproeven=
Hier zijn y¯ d en sd het steekproefgemiddelde en de standaarddeviatie van de
verschilscores,is de t-score voor het gekozen betrouwbaarheidsniveau, met df =
n−1
Voor het testen van H0: μ1 = μ2 drukken we de hypothese uit in termen van het verschil
als H0: μd = 0.
→ De toets-statistiek =
(bij twee steekproeven)
Hoofdstuk 9 – lineaire regressie en correlatie
9.1 Lineaire relaties
X = de verklarende variabele en y = de responsvariabele
Lineaire functies: De formule y = α + βx drukt waarnemingen over y
uit als een lineaire functie van waarnemingen op x. De formule heeft
een lineaire grafiek met helling β (bèta)
en y-snijpunt α (alfa). De helling β is gelijk aan de verandering in y
voor een toename van x met één eenheid. Dat wil zeggen, voor
twee x-waarden die 1,0 verschillen
(zoals x = 0 en x = 1), de y-waarden verschillen β. Twee x-waarden
die 10 eenheden uit elkaar liggen, verschillen 10β in hun y-waarden.
→ In de context van een regressieanalyse, α
en β worden regressiecoëfficiënten genoemd
9.2 scatterplot
Wanneer de scatterplot suggereert dat het model y = α +βx geschikt
kan zijn, gebruiken we de gegevens om deze lijn te schatten. de
notatie
yˆ = a + bx vertegenwoordigt een voorbeeldvergelijking die het lineaire model schat. In de
voorbeeldvergelijking schat het y-snijpunt (a) het y-snijpunt α van het model en de helling (b)
schat de helling β. De voorbeeldvergelijking yˆ = a + bx wordt de voorspellingsvergelijking
genoemd, omdat deze een voorspelling yˆ geeft voor de responsvariabele bij elke waarde
van x.
Hoofdstuk 7 – vergelijking tussen twee groepen
7.3 Vergelijken van twee gemiddelden
We vergelijken twee populatiegemiddelden μ1 en μ2 door conclusies te trekken over hun
verschil.
Voor onafhankelijke random steekproeven uit twee groepen die normaal zijn
verdeeld is een betrouwbaarheidsinterval voor μ2 − μ1 =
→ De t-score wordt gekozen om het gewenste betrouwbaarheidsniveau te bieden.
- bij grote n: gebruik z-verdeling
- bij kleinere n: gebruik t-verdeling
Significantietoets bij 1 steekproef
Significantietoets bij twee steekproeven
(AFHANKELIJKE steekproeven)
Voorbeeld:
Een docent statistiek wil weten of studenten met blauwe ogen
beter zijn in statistiek dan studenten met een andere kleur
ogen. Hij verzamelt gegevens bij RUG-studenten en vindt het
volgende:
Hoe groot is de kans om tenminste dit verschil te vinden als
oogkleur in werkelijkheid niet uit zou maken?
Formuleer hypothesen
H0: µ1 = µ2, Ha: µ1 ≠ µ2
Significantieniveau: α = 0.05
bereken toets-statistiek
bereken de p-waarde
t= 0.4 met df = n-1 = 99
p = 0.690
Conlcusie
•geen significant effect, want p > α = 0.05
•onvoldoende bewijs om H0 te verwerpen
, 7.4 Vergelijken van twee gemiddelden van afhankelijke steekproeven
Afhankelijke steekproeven treden op wanneer elke waarneming in steekproef 1 overeenkomt
met een waarneming in steekproef 2. De gegevens worden daarom vaak matched pairs-
gegevens genoemd.
Voor elk paar dat we vormen bij matched pairs:
Verschil = Waarneming in steekproef 2 − Waarneming in steekproef 1.
Het verschil tussen de gemiddelden van de twee groepen gelijk is aan het gemiddelde van
de verschilscores
N= aantal observaties in elke steekproef
Betrouwbaarheidsinterval voor μd bij twee afhankelijke steekproeven=
Hier zijn y¯ d en sd het steekproefgemiddelde en de standaarddeviatie van de
verschilscores,is de t-score voor het gekozen betrouwbaarheidsniveau, met df =
n−1
Voor het testen van H0: μ1 = μ2 drukken we de hypothese uit in termen van het verschil
als H0: μd = 0.
→ De toets-statistiek =
(bij twee steekproeven)
Hoofdstuk 9 – lineaire regressie en correlatie
9.1 Lineaire relaties
X = de verklarende variabele en y = de responsvariabele
Lineaire functies: De formule y = α + βx drukt waarnemingen over y
uit als een lineaire functie van waarnemingen op x. De formule heeft
een lineaire grafiek met helling β (bèta)
en y-snijpunt α (alfa). De helling β is gelijk aan de verandering in y
voor een toename van x met één eenheid. Dat wil zeggen, voor
twee x-waarden die 1,0 verschillen
(zoals x = 0 en x = 1), de y-waarden verschillen β. Twee x-waarden
die 10 eenheden uit elkaar liggen, verschillen 10β in hun y-waarden.
→ In de context van een regressieanalyse, α
en β worden regressiecoëfficiënten genoemd
9.2 scatterplot
Wanneer de scatterplot suggereert dat het model y = α +βx geschikt
kan zijn, gebruiken we de gegevens om deze lijn te schatten. de
notatie
yˆ = a + bx vertegenwoordigt een voorbeeldvergelijking die het lineaire model schat. In de
voorbeeldvergelijking schat het y-snijpunt (a) het y-snijpunt α van het model en de helling (b)
schat de helling β. De voorbeeldvergelijking yˆ = a + bx wordt de voorspellingsvergelijking
genoemd, omdat deze een voorspelling yˆ geeft voor de responsvariabele bij elke waarde
van x.