Empirical Methods in Finance
Descriptive Statistics
- Covariance = σ XY =E [ ( X−μ X ) ( Y −μ X ) ]
o Dus hoe X en Y samen bewegen ten opzichte van het eigen gemiddelde
σ XY
- Correlation = ρ XY =
σXσY
o Hoe X en Y samen bewegen onafhankelijk van meeteenheid, doordat er
gedeeld wordt door het product van de standaarddeviaties
X−μ
- Z-score =
σ
o Het aantal standaarddeviaties dat de waarde van het gemiddelde af ligt
Matrix Algebra
- Rank = het maximaal aantal lineair onafhankelijke rijen of kolommen in de matrix
Bivariate OLS (Block 2)
- Logarithmische verdeling:
Dep. Var. Indep. Var. Interpret. β
Level-level y x Δy = βΔx
Level-log y log(x) Δy = β%Δx
Log-level log(y) x %Δy = βΔx
Log-log log(y) log(x) %Δy = β%Δx
BLUE
- Definitie:
o Best = als je met meerdere steekproeven ɑ en β schat, is de variantie van de
uitkomsten kleiner dan bij andere mogelijkheden
o Linear = lineaire relatie tussen x en y
o Unbiased = α^ en ^β zijn gemiddeld gelijk aan α en β
o Estimator = α en β zijn schatters van de daadwerkelijke waardes
- Eigenschappen:
o Unbiasedness = α^ =α en ^β=β
o Efficiency = zelfde als “Best”
o Consistency = geschatte α^ en ^β convergeren naar daadwerkelijke waardes als
sample size vergroot wordt
o Asymptotic normality = geschatte waardes zijn normaal verdeeld in samples
die groot genoeg zijn
OLS Assumptions
- [A1] lineair
- [A2] random sample
- [A3] sample variation; als een variabele varieert in de populatie, moet deze ook
variëren in de sample
- [A4] E[u|x] = 0
, - [A5] homoscedasticity; u is constant voor elke waarde van x
- [A6] normality; error is onafhankelijk van x en normaal verdeeld
Tests (Block 3)
- T-test = meet hoeveel standaard errors de ^β van 0 af ligt
- P-value = de kans dat je H0 fout afwijst; het kleinste significantieniveau waarop H0
afgewezen zou worden
Multivariate Linear Regression Model (Block 4)
OLS (Matrix)
- ⏟y = ⏟X ⏟β +
u⏟
( Nx 1) ¿¿ ( ( k+1 ) x 1) ( Nx 1)
- →Matrices van alle X en alle β om makkelijker te rekenen
- Dus de sum of squared residuals =
- u' u=( y−X ^β )' ( y−X ^β )
- FOC = 0
- ^β = (X’X)-1 X’y
Multivariate OLS assumptions
- Zelfde als voor bivariate +
- Geen collinearity; correlatie tussen 2 verklarende variabelen
o Bij de OLS estimator wordt de inverse genomen van (X’X) --> daarvoor moet
de matrix vierkant en full rank zijn --> eerste 2 kolommen x 1 en x2 zijn lineair
afhankelijk, en dus niet full rank
- [A4] E[u|x] = o kan nu in 3 gevallen
Opdrachten Wooldridge
Beta schatten (2.3i):
Σ ( xi −x)( y i− y)
β i=
Σ¿¿
Fitted values (2.3ii) is de daadwerkelijke waardes met de geschatte waardes van y ernaast
R2 schatten (2.3iv):
2 SSR Σ u^ 2i
R =1− =1−
SST Σ¿¿
SSR
2 n−k −1
Adjusted R2: R =1−
TSS
n−1
Descriptive Statistics
- Covariance = σ XY =E [ ( X−μ X ) ( Y −μ X ) ]
o Dus hoe X en Y samen bewegen ten opzichte van het eigen gemiddelde
σ XY
- Correlation = ρ XY =
σXσY
o Hoe X en Y samen bewegen onafhankelijk van meeteenheid, doordat er
gedeeld wordt door het product van de standaarddeviaties
X−μ
- Z-score =
σ
o Het aantal standaarddeviaties dat de waarde van het gemiddelde af ligt
Matrix Algebra
- Rank = het maximaal aantal lineair onafhankelijke rijen of kolommen in de matrix
Bivariate OLS (Block 2)
- Logarithmische verdeling:
Dep. Var. Indep. Var. Interpret. β
Level-level y x Δy = βΔx
Level-log y log(x) Δy = β%Δx
Log-level log(y) x %Δy = βΔx
Log-log log(y) log(x) %Δy = β%Δx
BLUE
- Definitie:
o Best = als je met meerdere steekproeven ɑ en β schat, is de variantie van de
uitkomsten kleiner dan bij andere mogelijkheden
o Linear = lineaire relatie tussen x en y
o Unbiased = α^ en ^β zijn gemiddeld gelijk aan α en β
o Estimator = α en β zijn schatters van de daadwerkelijke waardes
- Eigenschappen:
o Unbiasedness = α^ =α en ^β=β
o Efficiency = zelfde als “Best”
o Consistency = geschatte α^ en ^β convergeren naar daadwerkelijke waardes als
sample size vergroot wordt
o Asymptotic normality = geschatte waardes zijn normaal verdeeld in samples
die groot genoeg zijn
OLS Assumptions
- [A1] lineair
- [A2] random sample
- [A3] sample variation; als een variabele varieert in de populatie, moet deze ook
variëren in de sample
- [A4] E[u|x] = 0
, - [A5] homoscedasticity; u is constant voor elke waarde van x
- [A6] normality; error is onafhankelijk van x en normaal verdeeld
Tests (Block 3)
- T-test = meet hoeveel standaard errors de ^β van 0 af ligt
- P-value = de kans dat je H0 fout afwijst; het kleinste significantieniveau waarop H0
afgewezen zou worden
Multivariate Linear Regression Model (Block 4)
OLS (Matrix)
- ⏟y = ⏟X ⏟β +
u⏟
( Nx 1) ¿¿ ( ( k+1 ) x 1) ( Nx 1)
- →Matrices van alle X en alle β om makkelijker te rekenen
- Dus de sum of squared residuals =
- u' u=( y−X ^β )' ( y−X ^β )
- FOC = 0
- ^β = (X’X)-1 X’y
Multivariate OLS assumptions
- Zelfde als voor bivariate +
- Geen collinearity; correlatie tussen 2 verklarende variabelen
o Bij de OLS estimator wordt de inverse genomen van (X’X) --> daarvoor moet
de matrix vierkant en full rank zijn --> eerste 2 kolommen x 1 en x2 zijn lineair
afhankelijk, en dus niet full rank
- [A4] E[u|x] = o kan nu in 3 gevallen
Opdrachten Wooldridge
Beta schatten (2.3i):
Σ ( xi −x)( y i− y)
β i=
Σ¿¿
Fitted values (2.3ii) is de daadwerkelijke waardes met de geschatte waardes van y ernaast
R2 schatten (2.3iv):
2 SSR Σ u^ 2i
R =1− =1−
SST Σ¿¿
SSR
2 n−k −1
Adjusted R2: R =1−
TSS
n−1