Zašto se metoda linearnih najmanjih kvadrata koristi u linearnoj regresiji?

Zašto se metoda linearnih najmanjih kvadrata koristi u linearnoj regresiji?
Anonim

Odgovor:

Ako Gauss-Markof pretpostavke drže onda OLS daje najnižu standardnu pogrešku bilo kojeg linearnog procjenitelja tako najbolji linearni nepristrani procjenitelj

Obrazloženje:

S obzirom na te pretpostavke

  1. Koeficijenti parametara su linearni, to jednostavno znači # beta_0 i beta_1 # su linearni, ali #x# varijabla ne mora biti linearna # X ^ 2 #

  2. Podaci su preuzeti iz slučajnog uzorka

  3. Ne postoji savršena multi-kolinearnost pa dvije varijable nisu savršeno povezane.

  4. #E (u #/#x_j) = 0 # srednja uvjetna pretpostavka je nula, što znači da # X_j # varijable ne pružaju informacije o srednjoj vrijednosti neopaženih varijabli.

  5. Varijance su jednake za bilo koju zadanu razinu #x# tj #var (u) = sigma ^ 2 #

Tada je OLS najbolji linearni procjenitelj u populaciji linearnih procjenitelja ili (najbolji linearni nepristrani procjenitelj) PLAVI.

Ako imate tu dodatnu pretpostavku:

  1. Varijance su normalno raspodijeljene

Tada OLS procjenitelj postaje najbolji procjenitelj bez obzira je li to linearni ili nelinearni procjenitelj.

Što to u biti znači da ako pretpostavke 1-5 drže tada OLS osigurava najnižu standardnu pogrešku bilo kojeg linearnog procjenitelja i ako 1-6 drži tada daje najnižu standardnu pogrešku bilo kojeg procjenitelja.