CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files...

25
CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE Brefs ra p p els su rlesp ro p ri é t é s des est i m a t eu rsu su els (M C O , M C G , est i m a t eu rsàv a ri a b lesi n st ru m en t a les) da n slesm o les li n é a i res O n i n sistep a rt i c u li è rem en t su r l’interprétationd es m od è l es et su r les propriétés as y m ptotiq u es d es es tim ateu rs 1.Définition et propriétés E c h a n t i llo n det a i lle n d’o b serv a t i o n si n di v i du elles, i n di c é esp a r i 1, . . . , n, a li sa t i o n sdev a ri a b lesa a t o i res y i , x i y i v a ri a b lec o n t i n u ep ren a n t sesv a leu rs da n s R x i v a ri a b les en n o m b re K, det y p eq u elc o n q u e 1

Transcript of CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files...

Page 1: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

CHAPITRE 1 : RAPPELS SURLE MODELE LINEAIRE

• Brefs ra p p els su r les p ro p ri é t é s des est i m a t eu rs u su els (M C O , M C G ,est i m a t eu rs à v a ri a b les i n st ru m en t a les) da n s les m o dè les li n é a i res

• O n i n si st e p a rt i c u li è rem en t su r l’interprétation d es m od è l es et su r les

propriétés as y m ptotiq u es d es es tim ateu rs

1.Définition et propriétés• E c h a n t i llo n de t a i lle n d’o b serv a t i o n s i n di v i du elles, i n di c é es p a r

i = 1, . . . ,n, ré a li sa t i o n s de v a ri a b les a lé a t o i res y i,x i

▪ y i v a ri a b le c o n t i n u e p ren a n t ses v a leu rs da n s R

▪ x i v a ri a b les en n o m b re K, de t y p e q u elc o n q u e

1

Page 2: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Notations:

▪ on c onf ond l e s v a r i a b l e s a l é a t oi r e s e t l e u r s r é a l i sa t i ons

▪ on r é se r v e l e s m a j u sc u l e s p ou r d e s v e c t e u r s

• E x e m p l e : Y = y1, . . . , yn ′

• H y p oth è se g é né r al e (sa u f m e nt i on c ont r a i r e ) : l e s v a r i a b l e s y i, x isont i nd é p e nd a m m e nt d i st r i b u é e s

1.1.Définitions• L a v a r i a b l e d é p e nd ante y i s’é c r i t c om m e :

y i = x iβ + u i

• β e st u n p a r a m è t r e v e c t or i e l d e d i m e nsi on K inc onnu , à e stim e r

• R e m ar q u e s:

1. Le modèle est linéaire en β

2. Les variables explicatives x i peuvent être des fonctionsnon linéaires connues des variables – par exemplex1i, l og x1i, x1i

2 , etc...

2

Page 3: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Hypothèse pr i n c i pa l e:

Eu i ∣ x i = 0 (1)

q u i i m p li q u e l’a b sen c e d e c or r é l a ti on e nt r e la p e r t u r b a t i o n u i e t le sv a r i a b le s e x p li c a t i v e s x i:

Ex i′u i = 0 (2)

• H y p o t h è s e s u p p lé m e nt a i r e d’hom osc é d a sti c i té :

Eu i2 ∣ x i = σ

2 (3)

• C on sé q u en c es :

▪ L e s p e r t u r b a t i o ns u i,u j , j ≠ i, s o nt i ndé p e nda m m e nt di s t r i b u é e s

▪ L e m o dè le e s t u n m o dè le sem i -pa r a m é tr i q u e : la lo i c o m p lè t e dela p e r t u r b a t i o n u i n’e s t p a s s p é c i f i é e

3

Page 4: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Interprétations d e l a pertu rb ation u i

1. erreur de mesure sur la variable y i (mais pas sur lesvariables explicatives x i)

2. hétérogénéité inobservable entre les agents i

▪ l’économétre n’observe qu’une partie des facteursexplicatifs de la variable dépendante y i – ouhétérogénéité observable – qui sont les variables x i

▪ les autres facteurs inobservables sont résumés par laperturbation u i

• E c ritu re m atric iel l e d u m od è l e: Y = Xβ + U

avec X =

x11 ⋯ x1K

⋮ ⋱ ⋮

xn1 ⋯ xnKn,K

4

Page 5: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

1.2.Propriétés1. Théorème de Gauss-Markov : Sous les hypothèses (1) et (3),

l’estimateur des moindres carrés ordinaires défini comme:

β̂ = argβ

m i n ‖Y − Xβ‖2 =β

arg m i n

n

i=1

∑ y i − x iβ2

et donc, sous la condition d’identification rgX ′X = K, comme:

β̂ = X ′X−1X ′Y

est le meilleur estimateur linéaire en Y et sans biais (BLUE)2. Sous les hypothèses (1) et (3), et sous l’hypothèse que les

variables x i sont identiquement distribuées, la variance del’estimateur des moindres carrés ordinaires est égale à:

V β̂ = σ2n E xi

′x i−1

5

Page 6: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

3. Convergence en probabilité : Sous l’hypothèse (1),l’estimateur des MCO converge en probabilité vers la vraievaleur du paramètre quand n → ∞ :

n→∞

p l i m β̂ = β

4. Loi asymptotique : Si les x i sont identiquement distribuées,alors, sous les hypothèses (1) et (3),

nβn − β

d

n→∞

ˆ N 0, σ2Ex i′x i

−1 (4)

Estimateur convergent de la variance asymptotique:

n→∞

p l i m X ′Xn = Ex i

′x i

Estimateur convergent de σ2 :

σ̂n2 =

Û ′Ûn

n→∞

p→ σ2

6

Page 7: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

5. Si la loi conditionnelle des perturbations est normale:u i ∣ x i ˆ N0, σ2

alors pour toute valeur de n:β ˆ N β, V

β

6. Tests d’hypothèses linéaires Rβ = r

Soit R une matrice de taille G, K de rang G et r un vecteur detaille G.Un test de Fisher de l’hypothèse nulle H0 : Rβ = r peut êtredéduit de la loi asymptotique de l’estimateurStatistique de test :

Wn =1

σ̂n2

n− r ′RX ′X−1R ′

−1R

β

n− r

Sous H0, on montre que

Wn

d,H0

n→∞

ˆ χ2G

7

Page 8: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

7. Interprétation géométrique de l’estimateur MCO:Projection orthogonale du vecteur Y sur l’espace engendrépar les variables explicatives X

Soit PX la matrice de projection orthogonale sur l’espaceengendré par les variables X :

PX = XX ′X−1X′

Prédicteur de Y par les MCO :

Ŷ = PXY = Xβ̂

Résidus du modèle :

Û = I − PXY = MXY

MX matrice de projection orthogonale sur l’espace orthogonal àcelui engendré par les variables X

8

Page 9: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

1.3.Identifiabilité• Condition d’e x is te nc e e t d’u nic ité de l’e s tim a te u r de s M CO :

r g X ′X = K

(a b s e nc e de m u ltic oliné a r ité e ntr e le s v a r ia b le s e x p lic a tiv e s )

• R a p p or t a v e c la c ondition dite d’ide ntif ic a tion du p a r a m è tr e β ?

• Rappel: D é f i n i t i o n d e l’i d en t i f i c at i o n d an s u n m o d è le

par am é t r i q u e

S oit Py i, x i; θ la loi du v e c te u r y i, x i p a r a m é tr é e p a r θ, é lé m e nt d’u n

s ou s e ns e m b le c om p a c t de RK

L e p a r a m è tr e θ e s t ide ntif ia b le s i

∀θ, θ ′ ∈ Θ, P. , . ; θ = P. , . ; θ ′ ⇒ θ = θ ′

∄ de u x v a le u r s de θ q u i r é s u m e nt la loi de y i, x i de m a niè r e ide ntiq u e

9

Page 10: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Dans le c adr e du m o dè le li né ai r e , o n a:

y i = x iβ + u i

E n p r é m u lt i p li ant p ar xi

′, o n o b t i e nt :

Exi

′y i = Exi

′x iβ + Exi

′u i = Exi

′x iβ

L a C N S p o u r l’i de nt i f i c at i o n de β e st alo r s:

r g Exi

′x i = K

• E n e f f e t , si c e t t e c o ndi t i o n n’e st p as v é r i f i é e , l’é q u at i o n p r é c é de nt e ap lu si e u r s so lu t i o ns, e t β n’e st p as dé f i ni de m ani è r e u ni q u e

• O n r e m ar q u e r a q u e c e t t e c o ndi t i o n d’i de nt i f i c at i o n e st é t r o i t e m e nt li é eà la c o ndi t i o n de dé f i ni t i o n de l’e st i m at e u r de s M C O , p u i sq u e :

n→∞

p l i m X ′Xn = Ex

i

′x i

10

Page 11: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

2. Modèle linéaire général etmodèle apparemment linéaire• Lorsque l’h y p ot h è se d’h om osc é da st i c i t é n’est p a s v é ri f i é e,

l’est i m a t eur des M C O rest e c onv erg ent

• M a i s sa loi a sy m p t ot i que et ses p rop ri é t é s d’op t i m a li t é da nsl’ensem b le des est i m a t eurs li né a i res (G a uss-M a rk ov ) sont a lt é ré es

• S olut i on: l’est i m a t eur des moindres c a rré s g é né ra l isé s

• L’a b a ndon de l’h y p ot h è se d’a b senc e de c orré la t i on ent re erreurs etré g resseurs a lt è re la p rop ri é t é de c onv erg enc e de l’est i m a t eur desM C O

• S olut i on: les est i m a t eurs à v a ria b l es inst ru ment a l es

11

Page 12: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

2.1.Modèle linéaire général• On s u p p o s e q u e

Eu i

2 ∣ X = σ2ω i

• e t q u e

Eu iu i′ ∣ X = σ2ω ii′

• Notation: Ω = ω ii′ m a t r i c e c a r r é e d e t a i l l e n

• P r op r ié té s d e l’e s tim ate u r M C O :

1. L’estimateur des MCO reste sans biais et convergent2. Si Ω est connue, l’estimateur des MCG est le meilleur

estimateur linéaire sans biais (BLUE)β

M C G= X

′Ω−1X

−1X

′Ω−1Y

3. Cas particulier: quand Ω = In,β

M C O=

β

M C G

12

Page 13: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

4. Si Ω est inconnue mais est une fonction d’un paramètre θ

appartenant à un sous ensemble compact de RG, alors laméthode des MCQG est convergentePrincipe : remplacer θ par un estimateur convergent θ̂n, et doncΩ par Ω̂ :

β M C Q G = X′Ω̂−1

X−1

X′Ω̂−1

Y

5. Remarque: les propriétés de ce dernier estimateur ne sontqu’asymptotiquesil est asymptotiquement équivalent à l’estimateur MCG

plim

β M C Q G = plim

β M C G

il est par conséquent convergent et asymptotiquement normalmais il est en général biaisé à distance finie

13

Page 14: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

2.2. Régressions simultanées• Application du cadr e d’analy s e pr é cé de nt

• O n ob s e r v e G v ar iab le s dé pe ndante s y1i, . , yGi

e t le s v ar iab le s e x plicativ e s cor r e s pondante s x1i, . . . , xGi, e n nom b r eK1, . , KG

• le s y1i, . , yGi, x1i, . . . , xGi s ont indé pe ndam m e nt dis tr ib u é s

• O n é cr it G m odè le s liné air e s

ygi = xgiβg + ugi

• O n s u ppos e q u e

Eugi ∣ xgi = 0

• C ov ar iance s e ntr e pe r tu r b ations d’é q u ations dif f é r e nte s

Eugiug′i ∣ x1i, . , xGi = σgg′

14

Page 15: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Notons Ω l a m a tr i c e d e s é l é m e nts ωgg′

e t p osons

Y =

Y1

YG

, X =

X1 0

0 XG

, U =

u1

uG

, β =

β1

βG

⇒ Y = Xβ + U

• D a ns c e c a s, on m ontr e f a c i l e m e nt q u e :

VU ∣ X̃ =

σ11IN ⋯ σ1GIN

∣ ⋮

σ1GIN ⋯ σGGIN

= Ω ⊗ IN

où l e si g ne ⊗ e st l e p r od u i t d e K r one c k e r

15

Page 16: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Rappel: Soit A u n e m a tr ic e d e ta il l e m, p e t B u n e m a tr ic e d e ta il l e

s, t a l or s l e pr o d u i t d e K r o n ec k er A ⊗ B e s t d e ta il l e ms, pt e t e s té g a l à:

A =a11 ⋯

⋮ amp

, A ⊗ B =a11B ⋯

⋮ ampB

• P r o pr i é t é s :

i A ⊗ BC ⊗ D = AC ⊗ BD, si AC et BD sont définies

ii A ⊗ B ′= A ′ ⊗ B ′

iii A ⊗ B−1= A−1 ⊗ B−1 si inversibles.

• C o n s é q u en c e:

βmc g = X

Ω−1 ⊗ IN X−1

X′

Ω−1 ⊗ IN Y

16

Page 17: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Cas p ar t i c u l i e r (p r o p r i é t é de Z e l l n e r ) :

L o r s q u e l e s v a r i a b l e s e x p l i c a t i v e s s o n t l e s m ê m e s da n s t o u t e s l e sé q u a t i o n s X1 =. . . = XG = X, a l o r s

X = IG ⊗ X

D a n s c e c a s , e n u t i l i s a n t l e s p r o p r i é t é s du p r o du i t de K r o n e c k e r :

β = IG ⊗ X

′ Ω−1 ⊗ IN IG ⊗ X−1

IG ⊗ X′ Ω−1 ⊗ IN Y

= Ω−1 ⊗ X′X

−1Ω−1 ⊗ X

′ Y

= IG ⊗ X′X

−1X

′Y

• L e s s o u s -v e c t e u r s deβ,

βg, s o n t do n c é g a u x a u x e s t i m a t e u r s de s M C O

o b t e n u s e n e s t i m a n t l e s é q u a t i o n s s é p a r é m e n t

• E s t i m e r l e s y s t è m e t o u t e n t i e r n e p e r m e t p a s , da n s c e c a s , d’a m é l i o r e rl e s e s t i m a t e u r s de s M C O

17

Page 18: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

2.3.Modèles apparemment linéaires.• L’h y p o t h è s e p r i nc i p a l e d’a b s e nc e de c o r r é l a t i o n e nt r e r é g r e s s e u r s e t

e r r e u r s n’e s t p l u s v é r i f i é e :

y i = x iβ + u i mais Eu i ∣ x i ≠ 0

• E x e m p l e : Modèle à er r eu r de m es u r e

S o i t l e v r a i m o dè l e :

y i = xi

∗β + u i a v e c Eu i ∣ xi

∗ = 0 e t Eui

2= σu

2

M a i s xi

∗ e s t m e s u r é e a v e c e r r e u r p a r x i :

x i = xi

∗+ i a v e c E

i

2= σ

2 e t E i ∣ xi

∗ = 0

H y p .: l e s e r r e u r s de m e s u r e s o nt i ndé p e nda nt e s de l a p e r t u r b a t i o n u i:

E iu i = 0

18

Page 19: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

On p e u t a lo r s r é é c r i r e le m o dè le e n f o nc t i o n de s o b s e r v a b le s c o m m e :

y i = x iβ + u i + xi

∗− x iβ = x iβ + u i − iβ

D a ns c e c a s , r é g r e s s e u r e t p e r t u r b a t i o n s o nt e n g é né r a l c o r r é lé s

Exi

∗+ iu i − iβ = −σ

2β ≠ 0

(s a u f s i β = 0)

• Limite en p r o b a b ilité d e l’es tima teu r d es M C O :

β = Ex ′x

−1Ex ′y = Ex ′x

−1Ex ′xβ + u − β

= β −βσ

2

E x∗′

x∗+ σ

2

• L a v a le u r a b s o lu e deβ e s t do nc né c e s s a i r e m e nt i nf é r i e u r e à la v a le u r

a b s o lu e du p a r a m è t r e β (b i a i s d’a t t é nu a t i o n)

• E n l’a b s e nc e d’i nf o r m a t i o ns c o m p lé m e nt a i r e s – p a r e x e m p le s u r σ2 –

o n ne p e u t g u è r e a lle r p lu s lo i n. L e p a r a m è t r e β n’e s t p a s i de nt i f i a b le

19

Page 20: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Information c omp l é me ntaire : v a r i a b l e s z i e n n o m b r e H n o nc o r r é l é e s a v e c l a p e r t u r b a t i o n u i m a i s c o r r é l é e s a v e c l e s v a r i a b l e s x i :

Ez i

′u i = 0 (5)

r g Ez i

′x i = K (6)

• S o i t Z l a m a t r i c e d e s o b s e r v a t i o n s d e z i

• P l u s i e u r s c a s p o s s i b l e s :

1. si H = K, on définit l’estimateur à VI comme :

β̂ I V = Z ′X−1Z ′Y

2. si H > K, on peut sélectionner K instruments parmi les H

disponibles en posant

Z∗ = ZA

où A est une matrice déterministe donnée de dimension H, K

et telle que z i

∗ est un vecteur de K variables qui ne sont pascolinéaires entre elles

20

Page 21: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

Pour chaque A, on peut donc définir un estimateur à VI

β̂VIA = Z∗′X−1Z∗′Y = A′

Z ′X−1

A ′Z ′Y

(les z i

∗ sont des instruments puisque Ez i

∗′u i = 0)

Matrice de sélection optimale :

A∗ = Ez i

′z i

−1Ez i

′x i

Estimateur convergent de A∗ :

A∗

= Z ′Z−1

Z ′X

(obtenu par régression de X sur Z)Estimateur des doubles moindres carrés:1. régression de X sur Z de manière à obtenir des valeursprédites X = Z ′Z−1Z ′X orthogonales aux u i

2. puis régression des Y sur les X

3. le cas H < K n’est pas compatible avec la condition de validité(6). Dans ce cas, le paramètre β n’est pas identifié

21

Page 22: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Propriété prin c ipa le d e s e s tim a te u rs pa r V I : c on v e rg e n c e v e rs la v ra iev a le u r d u pa ra m è tre β (v oir c h a pitre 2 pou r a n a ly s e a pprof on d ie )

• L ors q u e H = K, l’e s tim a te u r I V e s t c on v e rg e n t e t a s y m ptotiq u e m e n tn orm a l (C A N ):

VI− β

n→∞

l o iˆ N 0, σ2EZ ′X

−1EZ ′ZEX ′Z

−1

• Corollaire: S i H > K, re m pla c e r Z pa r ZA∗ d a n s c e tte e x pre s s ion

• R em arq u e: L a c on v e rg e n c e d e s e s tim a te u rs I V im pliq u e q u e :

σ2

=1n ∑ i=1

n u i2A∗ , où

u iA∗ = y i − x i

β

VIA∗

e s t u n e s tim a te u r c on v e rg e n t d e σ2

β

VIA

e s t C A N e t s a v a ria n c e a s y m ptotiq u e e s t e s tim ée pa r

V a s

β

VI= σ

2X ′ZZ ′Z

−1Z ′X

−1

22

Page 23: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

• Exemple : er r eu r s de mes u r e

S u ppo s o n s q u e l’o n dis po s e d’u n e a u t r e mes u r e a v ec er r eu r z i de xi

∗:

z i = xi

∗+ η i Eη

i

2= ση

2Eη i ∣ x

i

∗ = 0

et q u e les er r eu r s de mes u r e s o n t n o n c o r r é lé es a v ec les er r eu r s demes u r e i pr é s en t es da n s x i et a v ec la per t u r b a t io n du v r a i mo dè le:

Eη iu i = 0 Eη i i = 0

D a n s c e c a s , il es t f a c ile de mo n t r er q u e la v a r ia b le z i es t u n e v a r ia b lein s t r u men t a le v a lide, i. e. q u i r es pec t e les c o n dit io n s (5) et (6):

Ezi

′u i = Ex

i

∗+ η iu i − iβ = 0

r g Ezi

′x i = r g Ex

i

∗+ η i ′x

i

∗+ i = r g Ex

i

∗ ′x

i

∗ = 1

23

Page 24: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

Conclusion• Exemple de s pé c i f i c a ti o n d’u n mo dè le c a u s a l

• D o n n é es y i s u r la dé li n q u a n c e da n s les dé pa r temen ts , u n e a n n é edo n n é e, et n o mb r es n i de po li c i er s da n s les dé pa r temen ts

• C o r r é la ti o n po s i ti v e en tr e c es deu x v a r i a b les

• C o mmen t l’i n ter pr é te-t-o n ?

1. Doit-on écrire un modèle:

y i = αn i + u i

censé mesurer l’impact du nombre de policiers?Comme la corrélation est positive, l’estimation MCO ducoefficient α sera positive : un nombre accru de policiersserait contreproductif

24

Page 25: CHAPITRE 1 : RAPPELS SUR LE MODELE LINEAIRE 1.Définition ... › ckfinder › userfiles › files › pageperso › ... · 1.2.Propriétés 1. Théorème de Gauss-Markov : Sous les

2. Ou doit-on écrire :

n i = βy i + v i

en voulant mesurer la régle de décision du Ministère quantà l’allocation géographique des policiers?Dans ce cas, l’estimateur de β est aussi positif, mais celasemble logique:La régle de décision est d’affecter des policiers là où ladélinquance est plus forte

3. Finalement, on doit sans doute écrire que les deux modèlessont simultanément vrais: équations simultanées (lesestimateurs MCO dans les deux modèles sont biaisés)

25