Rédigé par des étudiants ayant réussi Disponible immédiatement après paiement Lire en ligne ou en PDF Mauvais document ? Échangez-le gratuitement 4,6 TrustPilot
logo-home
Resume

Samenvatting - Machine Learning for Econometrics (6414M0219Y)

Note
-
Vendu
4
Pages
22
Publié le
27-09-2024
Écrit en
2023/2024

Uitgebreide samenvatting van het vak Machine Learning for Econometrics.

Établissement
Cours

Aperçu du contenu

Statistical Learning Framework
We first take a look at an motivating example: support vector machine
Suppose we have
O
Target variable ine[-1 13 (hence takes value 1 or -1) :
,




s
Features (Xi Xid) : Xi =
.
. .
..




These can be drawn in the following figures

The blue dots denote Yi = 1




The orange dots denote Ye = -
1




What we do in the figure on the left is that we
r
+
Margin
draw different lines that seperate the points
*
What is the optimal choice of this separation line?
Y




This is done in the right figure, where we try to maximize the
We get a linear discriminant function: margin (= distance between first points and separation line,
f(x) wix (f(x)) signed distance)
=
+ wo
and a decision rule e(x) =

sign
&




In this example we get:
decision boundary [x wix : + wo = 0
,
ll wll =
13



S S
O >
((Xi) = 1 O
>
((Xi) =

y


decision rule wiXi the
boundary (wiXi the
le
boundary
=



+ wo
=
O
=

on or + wo
=
O on




O
<
((Xi) = 1 g > ((Xi) =
y




Now we look in general in this example
2 cases:
Hard margins: assume that the points are perfectly separable, maximizing gives hard margins
·

max M (w
s .
t .

same as
is .
min B Ai +
(BXi Bot
No
B: s .
t . 11 wll =1 S . . in +




gives (x + wo 03 =
gives Ex
x + 3= = : x +




equal to eachother

Soft margins: assume dots are not perfectly separated introduce that allows datapoints to violate the 3



constraint, go to otherside note gives hard margin version C >




min -eEi st .
in
xitBo is
violating margins



However this is hard to interpretate, hence we rewrite it such that we can understand
Note we can rewrite to [1 (BXi Bo) ob Ei Zi =
max -
Vi +
,




V

, min -emax[
Xi Bo) o -
Yi +
,




En

V
rewrite

min B ma [ -Yi (BXi Bo) o
+ , +
,




>
x = enc
as we only change the scale, the solution is the same
> o
,




We can rewrite the objective function again
↓B max E-YiBo) ob ABB th(b(Xi B Bo) Yi)
+
,
=
+ , . .




f(Xi B , . Bo)
y) (1 f(x) 03
Hinge loss function D
: In (f(x) ,
= max -



y
.


,




Candidate prediction rule f(x B Bo) 3x
D
= ,
= +
Bo

Hence we now have Regularization
~
mine
Bo) (b(Xi B , .
,
Yi) s .
A .

BB b


Empirical risk




Concluding from this derivation we define:
O
Empirical hinge loss (= average hinge loss) ↳ (b) = In (b(Xi B .
Bo) ,
Yi)

O
Population hinge loss (= expected hinge loss) ↳ (b) =
E (s(b) =
Eln(f(X B , .
Bo) ,
Y)




Until now we have only looked at linear function, now we look at the case, where we do not necessarily
need linearity
·
↳(b) In (b(X) Y) [0 Y &(x)] f(X)
:
,
=
max .
1 - .




note is not linear anymore
·
L (b) :
E[(s(1)] : ELIuCe(X) .
Y) : ElmaxSo .
1 . Y . f(x)


what is the optimal f(x) ?

(x) nigh(EYIX-)) =
e Bayes classifier
:
[. &




Hence the soft-margin SVM is directly estimating the Bayes classifier Minimizes the probability of
>
making classification mistakes
mis P[g(X)Y] =

mig Elo (g(X) .. ,
Y)
,




lo .,
(y y)
,
=
1
y y
= zero-one loss function

, We have now only looked at an example, now we will look at the general framework, where we can change
many things
The ideal prediction rule
We start again with
Target variable
8 I




Features
8
/



Before observing Y
Make prediction f(X) with some prediction rule f
>




After observing Y
We quantify the predictive loss l(b(X) Y)
>
Note & (b(X) Y) l(Y Y) . ,
= ,
=
0




The goal is to find the ideal prediction rule f that minimizes the population risk function (p(f) =
E l(f(x) Y)
.




>
Hence find &* such that L (f )
*
Lo (b)




Examples
O
When the loss function is the squared loss ((y y) 11y y ,
=
-




The optimal predictor is the regression function M(x) E[YIX
> = = x




O
When the loss function is the zero-one loss lo ( y) [ ..
,
:




The optimal predictor is the Bayes classifier (example) (BATES (x)
> =


argmax
P2Y Cm)X = = x




Empirical risk minimization
We start with an random sample S EYi Xi n] :
,
: i = 1, ...,




We define
empirical risk function L (b) n l(b(Xi) Yi)
& =
,




population risk function
C E-Ls(f)] E[l( (Xi) Yi) Lo (f) : :
& ,




Empirical risk minimizer angming (s(k) : : a




7
The idea is to approximate the population risk by the empirical risk La Ls
only in an appropriate subspace
,
I c F
and use the restricted estimator
,




>
How to choose this?
Choose I , such that n (f) :f) = ((t)1b 00] -
ef :
.




Equivalent to min Ls(f) d ((f) +
.

École, étude et sujet

Établissement
Cours
Cours

Infos sur le Document

Publié le
27 septembre 2024
Nombre de pages
22
Écrit en
2023/2024
Type
RESUME

Sujets

€6,99
Accéder à l'intégralité du document:

Mauvais document ? Échangez-le gratuitement Dans les 14 jours suivant votre achat et avant le téléchargement, vous pouvez choisir un autre document. Vous pouvez simplement dépenser le montant à nouveau.
Rédigé par des étudiants ayant réussi
Disponible immédiatement après paiement
Lire en ligne ou en PDF

Faites connaissance avec le vendeur

Seller avatar
Les scores de réputation sont basés sur le nombre de documents qu'un vendeur a vendus contre paiement ainsi que sur les avis qu'il a reçu pour ces documents. Il y a trois niveaux: Bronze, Argent et Or. Plus la réputation est bonne, plus vous pouvez faire confiance sur la qualité du travail des vendeurs.
maaikekoens Universiteit van Amsterdam
S'abonner Vous devez être connecté afin de suivre les étudiants ou les cours
Vendu
42
Membre depuis
4 année
Nombre de followers
0
Documents
9
Dernière vente
1 semaine de cela

4,3

3 revues

5
1
4
2
3
0
2
0
1
0

Documents populaires

Récemment consulté par vous

Pourquoi les étudiants choisissent Stuvia

Créé par d'autres étudiants, vérifié par les avis

Une qualité sur laquelle compter : rédigé par des étudiants qui ont réussi et évalué par d'autres qui ont utilisé ce document.

Le document ne convient pas ? Choisis un autre document

Aucun souci ! Tu peux sélectionner directement un autre document qui correspond mieux à ce que tu cherches.

Paye comme tu veux, apprends aussitôt

Aucun abonnement, aucun engagement. Paye selon tes habitudes par carte de crédit et télécharge ton document PDF instantanément.

Student with book image

“Acheté, téléchargé et réussi. C'est aussi simple que ça.”

Alisha Student

Foire aux questions