Soru:
Doğrusal olmayan fonksiyon için yaklaşım olarak OLS
Jesper for President
2020-02-07 02:32:38 UTC
view on stackexchange narkive permalink

Doğrusal olmayan bir regresyon modeli varsayın \ begin {align} \ mathbb E [y \ lvert x] & = m (x, \ theta) \\ y & = m (x, \ theta) + \ varepsilon, \ end {hizala} $ \ varepsilon: = y - m (x, \ theta) $ ile.

Birinin böyle dediğini duydum

OLS her zaman, doğrusal olmayan koşullu beklenti fonksiyonunun kısmi türevlerini (kısmi türevler) regresörlerin beklenen değerlerinde tutarlı bir şekilde tahmin eder.

Lütfen bazıları bu özelliği gösterebilir mi?

Bir cevap:
Alecos Papadopoulos
2020-02-07 03:18:42 UTC
view on stackexchange narkive permalink

Tamam. Kanıtın tamamını buraya dahil etmek biraz uzun, bu yüzden sadece taslağını çizeceğim:

Başlangıçta rastgele nokta, $ x_0 $ etrafında birinci dereceden Taylor genişletmesi uygulayın

$$ y = m (x_0) + [x-x_0] '\ nabla m (x_0, \ theta) + R_1 + \ epsilon. $$

$ R_1 $ burada Taylor kalanıdır. Ayarlamak $$ b_0 = m (x_0), \; b = \ nabla m (x_0, \ theta), \; \ beta = (b_o, b) '$$

$$ \ tilde x = x-x_0, \; u = R_1 + \ epsilon $$ ve matris gösterimine geri dönün

$$ \ mathbf y = \ tilde X \ beta + \ mathbf u. $$

Öyleyse OLS'nin tahmin etmeye çalışacağı şey, koşullu beklenti fonksiyonunun eğimidir, $ x_0 $ bir noktada değerlendirilir ve sabit terim tahmin etmeye çalışacaktır CEF bu noktada $ x_0 $ değerlendirildi.

OLS,

$$ \ hat \ beta = \ beta + (\ tilde X '\ tilde X) ^ {- 1} \ tilde X'u \, \ hat \ beta - \ anlamına gelir beta = (\ tilde X '\ tilde X) ^ {- 1} \ tilde X' (\ epsilon + R_1) $$

$ \ epsilon $ yapım gereği koşullu beklenti fonksiyonu hatası olduğundan, sınırda kalacağız

$$ \ text {plim} (\ hat \ beta - \ beta) = E (\ tilde x \ tilde x ') \ cdot E (\ tilde x \ cdot R_1 ) $$

Artık $ R_1 $ , $ x_0 $ seçimine bağlı olacaktır. $ R_1 $ doğrusal yaklaşımın yanlışlığını temsil ettiğinden, doğal bir düşünce "hangi genişleme merkezinin beklenen Taylor kalan kareyi en aza indirdiği $ E (R_1 ^ 2) $ ? " Öyleyse doğrusal yaklaşım, genel olarak sapmalarla ilgili olarak iyi bilinen ve yaygın olarak kullanılan bir optimallik kriteri olan "Ortalama hata karesini" taklit eden bir kriter altında "en iyi" olarak kabul edilir mi?

Bu yol izlenirse, $ x_0 = E (x) $ ayarının $ E ( R_1 ^ 2) $ eğer CEF gradyanı OLS tarafından tahmin ediliyorsa. Dahası, böyle bir durumda $ E (\ tilde x \ cdot R_1) = 0 $ olduğu bulunur. QED

Bunu pratikte uygulamak, bağımlı değişkeni merkezlenmemiş olarak bırakırken, regresörleri örnek ortalamalarına odaklamak anlamına gelir.

Coll thx çok, bazı ilginç referanslara rastlarsanız, zamanınız olduğunda eklemekten memnuniyet duyarız.Tekrar teşekkürler :)
@StopClosingQuestionsFast Yukarıdaki sonuçtaki referansları kastediyorsanız, onu hiçbir yerde bulamadım, bu yüzden güzel, ilginç bir sonuç olarak bunu hakem incelemesi ve yayın için bir makale olarak gönderdim.
Ahh tamam, kamuya açık bir çalışma kağıdı mevcut olduğunda bana haber verin :) iyi şanslar.Li ve Racine'in parametrik olmayan tahmin üzerine kitabında buna benzer bir şeyin bulunup bulunmadığını merak ediyorum.


Bu Soru-Cevap, otomatik olarak İngilizce dilinden çevrilmiştir.Orijinal içerik, dağıtıldığı cc by-sa 4.0 lisansı için teşekkür ettiğimiz stackexchange'ta mevcuttur.
Loading...