Ayrıştırılmış model şöyle olsun:
$ Y_ {ia} = X_a \ beta + \ epsilon_i $
burada
$ \ epsilon_i \ sim N (0, \ sigma ^ 2) $
Toplu modeliniz şu şekilde verilir:
$ Y_a = \ frac {\ sum_i (Y_ {ia})} {n_a} $
burada,
$ n_a $, $ a $ endeksine karşılık gelen gözlemlerin sayısıdır.
Bu nedenle, şu sonucu verir:
$ Y_a = X_a \ beta + \ epsilon_a $
burada
$ \ epsilon_a \ sim N (0, \ frac {\ sigma ^ 2} {n_a}) $ ve
$ a = 1, 2, ... A $
Bu nedenle, OLS tahmini aşağıdakiler en aza indirilerek verilecektir:
$ \ sum_a (Y_a - X_a \ beta) ^ 2 $
Bu, olağan çözümü verir. Dolayısıyla, eğim parametreleri için tahmin söz konusu olduğunda herhangi bir fark olduğunu sanmıyorum.
Düzenleme 1
İşte küçük bir simülasyon Yukarıdaki fikri açıklayan R'de (R'yi öğrenmek için yukarıdaki gibi soruları kullandığım için belirsiz kod için özür dilerim).
set.seed (1); n <- c (4 , 2,8); x <- c (1,2,3); veri <- matrix (0,14,2) mean_data <- matrix (0,3,2) indeksi <- 1; for (i in 1 : 3) {için (1: n [i] 'de gözlemleyin) {veri [dizin, 1] <- x [i]; veri [dizin, 2] <- x [i] * 8 + 1.5 * rnorm (1); ortalama_veriler [i, 1] = x [i]; ortalama_veriler [i, 2] = ortalama_veriler [i, 2] + veri [dizin, 2]; dizin = dizin + 1; } ortalama_veriler [i, 2] = ortalama_veriler [i, 2] / n [i];} beta <-lm (ortalama_veriler [, 2] ~ ortalama_veriler [, 1]);
Yukarıdaki kod beta
yazdığınızda çıktıyı verir:
Çağrı: lm (formül = ortalama_veriler [, 2] ~ ortalama_veriler [, 1]) Katsayılar: (Kesme ) ortalama_veriler [, 1] -0.03455 7.99326
Düzenleme 2
Ancak, hata varyansları eşit olmadığı için OLS verimli değildir. Bu nedenle, MLE fikirlerini kullanarak aşağıdakileri en aza indirmemiz gerekir:
$ \ sum_a {n_a (Y_a - X_a \ beta) ^ 2} $
Başka bir deyişle, aşağıdakileri en aza indirmek istiyoruz:
$ \ sum_a {(\ sqrt {n_a} Y_a - \ sqrt {n_a} X_a \ beta) ^ 2} $
Böylece, MLE şu şekilde yazılabilir:
$ W $ diyagonal boyunca $ \ sqrt {n_a} $ olan bir köşegen matris olsun. Böylece, MLE tahmini şu şekilde yazılabilir:
$ (X 'X) ^ {- 1} X' Y $
burada,
$ Y = W [Y_1, Y_2, ... Y_A] '$ ve
$ X = W [X_1, X_2, ... X_A]' $
Düşünmenin başka bir yolu bu:
$ Y $ 'ın farkını düşünün. Yukarıda Y $ için verilen dönüşüm, Y $ 'ın bireysel değerlerinin varyansının aynı olmasını ve böylece OLS'nin MAVİ olduğu Gauss-Markov teoreminin koşullarını karşılamasını sağlar.