Soru:
"Tüm modeller yanlış" olsa bile neden aşırı uydurma konusunda endişeleniyoruz?
Gillian
2019-10-31 18:27:31 UTC
view on stackexchange narkive permalink

Neden aşırı uyumu bu kadar önemsediğimizi merak ediyorum.İstatistiksel modellerin bize bazı bilgileri anlatan araçlar olduğunu biliyoruz, ancak tam olarak doğru bile değiller.

Hiçbir takım elbise tam olarak giyen kişinin şekline sahip değildir.Öyleyse neden iyi terziliği önemsemeliyiz?
"Tüm" modeller gerçekten * tüm * modeller anlamına gelir.Beyninizin aldığı ışık sinyallerini yorumlarken oluşturduğu çevrenizin modelini içerir.Öyleyse sadece gözlerini kapat, onlara zaten güvenemezsin.
> [...] ama tam olarak doğru bile değiller.Faydalı olmaları için tam olarak doğru olmaları gerekmez.
CV'ye hoş geldin Gillian."Tüm teorilerin sonunda yanlış olduğu kanıtlanır ve reddedilir, ancak bazı teoriler geçici olarak bile doğru değildir." - Richard Levins
"Aşırı uyumu neden bu kadar önemsememiz gerektiğinin" farklı bir nedeni beynimizin çalışma biçiminde olabilir: biz insanlar muhtemelen aşırı uyumu tespit etmekte oldukça kötüyüz, yani beynimizdeki modelleri fazla takmaya meyilliyiz.Bu nedenle, hem in vivo hem de silico modellerimiz için konuya özellikle dikkat etmemiz gerekiyor.
"Kesinlikle yanlış olmaktansa yaklaşık olarak doğru olmak daha iyidir" - çeşitli atıflar
-1.Bu konuda pek çok literatür var, çoğuna uzman olmayanların (benim gibi) kolayca erişebilmesi.Sorunun ne olduğu veya bir soru bile olduğu net değil.
Tüm modeller yanlıştır, ancak bazıları diğerlerinden çok daha az yanlıştır.
Yedi yanıtlar:
Dave
2019-10-31 18:31:58 UTC
view on stackexchange narkive permalink

Box'tan alıntı, "Tüm modeller yanlış, ancak bazıları kullanışlıdır" satırları üzerindedir.

Fazla uyum sağlamazsak, modelimiz yeni verilerle ilgili tahminlerde bulunmada faydalı olmayacaktır.

Gerçekten "Tüm modeller yanlış, ancak bazıları diğerlerinden daha kullanışlıdır."
Şu anda en çok oy alan cevap budur.Sanırım bu soru daha uzun bir cevabı hak ediyor, ör.aşırı uydurmanın neden zayıf genelleme anlamına geldiğini, neyin aşırı uymaya neden olduğunu ve hatta belki de aşırı uymanın ne olduğunu ve ne olmadığını açıklayan bir örnek.
Örneğin: Aşırı uyum, verilerdeki hatanın çok altında örnek bir tahmin hatası almak olarak tanımlanacaksa, bunun nasıl veya neden kötü bir genelleme anlamına geldiğini görmüyorum.
Ben
2019-11-01 08:32:36 UTC
view on stackexchange narkive permalink

"Tüm modeller yanlış" olsa bile neden aşırı uyum konusunda endişeleniyoruz?

Sorunuz Nirvana yanlışlığının bir varyasyonu gibi görünüyor ve dolaylı olarak mükemmel bir model yoksa her modelin eşit derecede tatmin edici olduğunu (ve bu nedenle modellerdeki kusurların alakasız olduğunu) öne sürüyor. Aynı soruyu bir modeldeki herhangi bir kusur hakkında da kolayca sorabileceğinizi gözlemleyin:

  • "Tüm modeller yanlış" olsa bile neden maksimum olasılık tahmini hakkında endişeleniyoruz?

  • "Tüm modeller yanlış" olsa bile neden standart hatalar konusunda endişeleniyoruz?

  • "Tüm modeller yanlış" olsa bile neden verilerimizi temizleme konusunda endişeleniyoruz?

  • "Tüm modeller yanlış" olsa bile neden doğru aritmetik konusunda endişeleniyoruz?

Bu tür tüm soruların doğru yanıtı, mükemmeli iyinin düşmanı haline getirmemeliyiz - "tüm modeller yanlış" olsa bile, daha az yanlış , daha yanlış bir modele tercih edilir.

Cliff AB
2019-11-01 05:47:41 UTC
view on stackexchange narkive permalink

Tam alıntı "Tüm modeller yanlış, ancak bazıları kullanışlıdır" şeklindedir.Aşırı uyumu önemsiyoruz, çünkü modellerimizin hala faydalı olmasını istiyoruz.

Sapma-sapması değiş tokuşuna aşina iseniz, "tüm modeller yanlış" ifadesi kabaca "tüm modellerde sıfır olmayan sapmaya sahiptir" demeye eşdeğerdir.Aşırı uydurma, bir modeldeki önyargıyı azaltmak için parametre sayısını artırabilsek de, tipik olarak ne kadar çok parametreye sahip olursak, tahminimizde o kadar fazla varyans olacağı sorunudur.Yararlı bir model, önyargıyı azaltmak için yeterince esnek olmakla birlikte, varyansın çok yüksek olacağı kadar esnek olmayan bir modeldir.

@CagdasOzgenc, bu ilginç.Model önyargısını tam olarak nasıl tanımlıyorsunuz?(Teorik yanıtı tamamlayan önemsiz bir örnek yardımcı olabilir.) İlgili bir konu, [Yüksek varyans modeli veya yüksek önyargı modeli hakkında konuştuğumuzda rastgele değişken nedir?] (Https://stats.stackexchange.com/questions/433972/ yüksek varyanslı model veya yüksek önyargı hakkında konuştuğumuzda rastgele değişken nedir / 433988 # 433988).Oradaki cevabınız da takdir edilebilir;Hâlâ formülasyonumla mücadele ediyorum.
"Standart literatür, parametrik modelin gerçeği kapsadığını varsayar, dolayısıyla sıfıra yaklaşan bir önyargı vektöründen bahsedebiliriz.""Tüm modeller yanlıştır" sözünün amacı, matematiği kolaylaştırdığı için genellikle bu varsayımla başlarken, temelde kusurlu bir varsayım olmasıdır.
@CagdasOzgenc,, aşağıdaki karakterizasyona uygun model sapması tanımınız mı?Beklenen kare tahmin hatası ek olarak karesel sapma, varyans ve indirgenemez hata olarak ayrıştırılabilir.Modelin deterministik kısmı, karesel sapma + varyansa eşit beklenen kare hatayla sonuçlanır.Mükemmel tahmin hassasiyeti altında varyans sıfırdır.Bu nedenle, kare önyargı, tahmin hassasiyeti mükemmel olduğunda sonucun deterministik kısmını tahmin etmede beklenen kare hatadır.Böylelikle önyargı, modelin izin verdiği DGP'nin olası en iyi tahminini yansıtır.
@CagdasOzgenc: Sanırım argümanınız "yanlış olmayan modeller var".Bu tartışmaya değer, ancak çok daha karmaşık hale geliyor.Ayrıca, varyansı ehlileştirmek için bu tür modellere esnekliği (yani düzenlileştirmeyi) sınırlamadan tipik olarak * önyargı * katıyoruz **.Bunu tartışmanın birkaç farklı yolu var, bu yüzden bunun bu sorunun kapsamı dışında olduğunu söyleyebilirim.
@CliffAB, düzenlenmesi, bir modelde değil, bir parametre tahmincisinde önyargı getirir.Örneğin, model (işlevsel biçim) DGP ile çakışırsa (olası olmasa da, örnekleme uğruna bunun model önyargısı olmadığını varsayalım).Bununla birlikte, bazı düzenlileştirmeler yaparak bu modelin bir parametre tahmincisine yine de önyargı ekleyebiliriz.
@CagdasOzgenc, teşekkür ederim.Bunun yanında figür de faydalıdır;Bunu unutmuştum ama şimdi yeniden keşfetmekten mutluyum.
James
2019-10-31 19:19:39 UTC
view on stackexchange narkive permalink

Citroën 2CV, pek çok açıdan kötü bir arabadır. Yavaş, rafine edilmemiş ve ucuz. Ancak çok yönlüdür ve hem asfalt yolda hem de yeni sürülmüş tarlalarda etkili bir şekilde çalışabilir.

Karşılaştırıldığında, bir F1 aracı, otomotiv mühendisliğinin zirvesi olarak görülüyor. Hızlı, hassas ve yalnızca en iyi bileşenleri kullanarak. Yine de açık bir arazide bir tane sürmek istemem.

2CV genel uygulanabilirliğe sahipken, F1 aracı yalnızca çok özel uygulanabilirliğe sahiptir. F1 aracı, yüksek performanslı çalışmadan kaynaklanabilecek sorunları izlemek, değerlendirmek ve çözmek için profesyonel mühendislerden oluşan bir ekibin sağladığı avantajla, bir yarış pistinde olabildiğince çabuk dönme özel sorununa fazlasıyla uyum sağladı.

Benzer şekilde, fazla donatılmış bir model, fazla takıldığı durumlarda iyi performans gösterir, ancak başka yerlerde yetersiz (veya hiç) olmaz. Genel uygulanabilirliğe sahip bir model, belirli modeller kadar iyi olmasa bile kontrolünüz dışındaki farklı ortamlara maruz kalacaksa daha faydalı olacaktır.

Şeytanın savunucusu: Açık bir arazide F1 sürmenin sorunu, F1'in yarış pistleri için çok uygun olması değil (hem açık alanlar hem de yarış pistleri için çok uygun bir araba olabileceğini hayal edebiliyorum),ancak F1, açık alanlar için çok uygun değil.
@Dirk aslında evet, kelimenin tam anlamıyla, açık bir alanda F1 sürmenin problemi yarış pistleri için çok uygun olmasıdır.Yani, düz bir yuvarlanma yolunun zeminine (düşük yerden yükseklik) çok iyi uyum sağlar, ancak bu nedenle düz olmayan herhangi bir şeye uyacak kadar esnek değildir.Normal bir arabanın daha esnek süspansiyonu vardır, bu da onun "kaldırıma yapışmadığı" ama karşılığında başka bazı görevleri de yönettiği anlamına gelir.- "Hem açık alanlara hem de yarış pistlerine çok uygun bir araba olabilir" - çok iyi bir aktif süspansiyon gerektirecek, muhtemelen ağır ve bu nedenle daha yavaş olacaktır.
Bunu çok iyi bir benzetme bulmuyorum.Oldukça fazla uyumlu bir model (n + 1 noktaya uyan n dereceli bir polinom gibi) hiçbir şey için yararlı değildir.F1, çok uygun değildir, sadece çok özel bir rol için yararlı olan, oldukça özel bir araçtır.İstatistiksel analoji eğitilmiş ve çok spesifik bir tahmin türü için yararlı olan, ancak diğer roller için yararlı olmayan bir model olacaktır;böyle bir model gereğinden fazla donatılmamış, sadece kapsamı çok sınırlı.
@gerrit aşırı uyumlu model tam olarak n + 1 puan tahmin ediyor.Sadece başka bir yerde işe yaramaz.
@Caleth Eğitim noktaları bir tahmin / tahmin değildir, bir ölçümdür.
@gerrit Aşırı uyumlu modeller, amacın test verilerinin yeniden yapılandırılması olduğu veri sıkıştırma gibi görevlerde kullanışlıdır.F1 arabaları pisti yeniden inşa ediyor.Bu nedenle, tüm sezon için genel bir kurulum kullanmak yerine her parçanın kurulumunu değiştirirler.
@James Sıkıştırma ya da aşırı uydurmanın bunun için ne anlama geldiğini pek bilmediğimi itiraf ediyorum, ancak bana göre (n + 1) veri noktaları yerine n dereceli bir polinomu depolamak çok fazla ya da herhangi bir alan tasarrufu sağlamaz.
@gerrit Size ikinci dereceden bir eğriden 10.000 veri noktası verebilirim, ancak bunu tamamen 3 parametre ile tanımlayabilirsiniz.
@James Evet - ama o zaman fazla uygun değilsiniz.Modellerin sıkıştırma için nasıl kullanılabileceğini görebiliyorum, ancak buna ne kadar uyduğundan emin değilim.Örneğinizde, kayıpsız bir sıkıştırma, yalnızca kalan veri noktaları modele mükemmel bir şekilde uyuyorsa işe yarayacaktır ve kayıplı bir sıkıştırma için (belki ikinci dereceden eğride gürültü olabilir), yine aynı şekilde genelleştiren (interpolasyon yapan) bir modele ihtiyaç vardır.birçok parametre uyumu daha da kötüleştirir, değil mi?Aşırı uyum, her zaman yanlış genellemeye yol açmaz.
@gerrit Gürültü sinyaldir.Tüm gürültüyü yakalayana kadar aşırı sığdırırsınız, böylece orijinal verileri belirli bir girişle (sıkıştırılmış sinyalin) kurtarırsınız ve farklı bir girişle hiçbir faydası olmayacağına aldırmazsınız (ve aslında bunu tercih edersiniz).
Hadi [bu tartışmaya sohbette devam edin] (https://chat.stackexchange.com/rooms/100584/discussion-between-gerrit-and-james).
Peter Flom
2019-11-01 16:57:29 UTC
view on stackexchange narkive permalink

Diğerlerinin de belirttiği gibi, tam alıntı "tüm modeller yanlış, ancak bazıları kullanışlıdır" şeklindedir.

Bir veri kümesini fazla sığdırdığımızda, kullanışlı olmayan bir model oluştururuz. Örneğin, bazı veriler oluşturalım: set.seed (123)

  x1 <- rnorm (6)
x2 <- rnorm (6)
x3 <- rnorm (6)
x4 <- rnorm (6)
y <- rnorm (6)
 

her biri N = 6 olan ve her biri standart normal olan 5 değişken oluşturur.

Şimdi bir model koyalım:

  overfit <- lm (y ~ x1 + x2 + x3 + x4)
 

Modelin $ R ^ 2 $ değeri 0,996'dır. x2'nin anlamlı bir p değeri vardır ve x4 neredeyse sig'dir. (her zamanki 0.05 düzeyinde).

  Katsayıları:
            Tahmini Std. Hata t değeri Pr (> | t |)
(Kesişme) -0.54317 0.08887 -6.112 0.1032
x1 2.01199 0.14595 13.785 0.0461 *
x2 0,14325 0,08022 1,786 0,3250
x3 0,45653 0,08997 5,074 0,1239
x4 1.21557 0.15086 8.058 0.0786.
---
Signif. kodlar: 0 "***" 0.001 "**" 0.01 "*" 0.05 "." 0.1 "1

Kalan standart hata: 1 serbestlik derecesinde 0.1601
Çoklu R kare: 0.9961, Düzeltilmiş R kare: 0.9805
F istatistiği: 4 ve 1 DF'de 64.01, p değeri: 0.09344
 

Verilere neredeyse mükemmel şekilde uyar, ör. deneyin

arsa (tahmin (fazla sığdırma), y)

Ancak hepsi rastgele gürültü.

Bu modeli başka verilere uygulamaya çalışırsak, önemsiz oluruz.

Carl
2019-11-01 16:46:54 UTC
view on stackexchange narkive permalink

Her modelde bir hata vardır. En iyi model, tahminleriyle ilişkili hatayı en aza indirendir. Bu nedenle, modeller tipik olarak verilerin yalnızca bir kısmı (örneklem içi) kullanılarak oluşturulur ve ardından kalan 'örneklem dışı' veri kümesine uygulanır. Aşırı yerleştirilmiş bir model, tipik olarak uygulamada iyi formüle edilmiş bir modelden daha büyük bir tahmin hatasına sahip olacaktır. Ek olarak, bir model entelektüel olarak sağlam olmalıdır: rejim değişikliği durumunda hiç işe yaramıyorsa, tek bir 'rejimde' çalışan bir model inşa etmenin bir anlamı yoktur. Böyle bir model, rejim değişene kadar çok iyi oluşturulmuş görünebilir çünkü esasen böyle bir model 'örneklem içinde' inşa edilmiştir. Bunu söylemenin bir başka yolu, modelin beklenen hatasının da iyi formüle edilmesi gerektiğidir. Ayrıca, temelde modelin, modellenen sistemi tanımlamak için gereken en az sayıda değişkeni kullanarak mümkün olan en basit model olması gerektiğine dair felsefi bir fikir olan 'Occam's Razor' meselesi de var. Bu, sabit bir kuraldan ziyade yararlı bir kılavuz görevi görür, ancak kullanımla ilişkili uyumdaki doğal iyileştirmeyi ayarlamak için R kare yerine "ayarlanmış R kare" yi kullanmanın arkasındaki fikrin bu olduğuna inanıyorum. daha fazla değişken (örneğin, her veri parçası için ayrı bir değişkeniniz olsaydı, mükemmel uyum,% 100 R kare olur!). Aynı zamanda modern makine öğrenimi tekniklerine uygulanması gereken bir fikirdir: Bir ML algoritmasındaki binlerce değişken, milyonlarca veriye sahip değilseniz tehlikelidir (ve o zaman bile ... önce değişkenlerin sayısını azaltmak için verilerinizi dönüştürmeniz daha iyi olabilir). Son bir nokta: Her model inanç gerektirir. Fizik yasalarımız bile gözleme dayanmaktadır ve aslında Newton fiziğinden çok küçük (Kuantum mekaniği) ve çok büyük (Genel Görelilik) alemlerine geçerken modifikasyon gerektirmiştir. Mevcut Fizik yasalarımızın gelecekte veya hatta geçmişte (örneğin, büyük patlama zamanında) geçerli olacağını kesin olarak söyleyemeyiz. Ancak Occam'ın tıraş makinesine olan felsefi inancımıza hitap etmek, bu modelleri ve fikirleri kabul etmemize neden oluyor çünkü bunlar, gözlemlerimize ve verilerimize uyan, şimdiye kadar tasarlanmış en basit modeller.

Özetle, katı ve hızlı kurallar yoktur.Karmaşık (kaotik?) Dinamik bir sistem, örneğin küresel ekonomi hayal edin.Kısa bir süre için iyi çalışan, iyi biçimlendirilmiş bir model oluşturabilirsiniz.Ancak 'rejim değişikliği' çok gerçek bir konudur: ekonomik sistem oldukça karmaşıktır ve doğrusal değildir ve ölçebileceğinizden çok daha fazla değişken vardır, bu, örneklem içi rejimde hiçbir sonucu olmayabilir, ancak çok önemlidir.başka bir 'rejimde'.Ancak kısa, esasen örneklem içi döneminizde, doğrusal regresyonun oldukça iyi çalıştığını fark edebilirsiniz.Sağduyu hakim olmalıdır: Bazen çok karmaşık bir model gereklidir, ancak tahminleriyle ilişkili hata bilinmiyorsa bu model büyük ölçüde geçersiz kılınmalıdır.

Doğru bir istatistikçinin bundan çok daha iyi bir cevap vereceğinden eminim, ancak yukarıdaki noktalardan hiçbiri henüz yapılmamış gibi göründüğünden, kafamı dışarı çıkaracağımı düşündüm ...

NotThatGuy
2019-11-01 20:27:51 UTC
view on stackexchange narkive permalink

Tüm modeller yanlış, ancak bazıları diğerlerinden daha az yanlış.

Aşırı uyum, genellikle modelinizi gerçek dünya verileriyle uğraşırken daha yanlış yapar.

Bir doktor kanser olup olmadığınızı teşhis etmeye çalışsaydı,% 50 oranında ( çok yanlış) yoksa% 0,1 oranında (çok daha az yanlış) yanılıyor olmasını ister miydiniz??

Ya da, modeliniz bunun müşterinin daha sonra bir şey satın almasına yol açacağını öngörüyorsa bir şeyi ücretsiz verdiğinizi varsayalım.Müşterilerin bir şeyleri daha sonra satın alması (oldukça yanlış) veya çoğu müşterinin bir şeyleri daha sonra satın almak için geri gelmesi (daha az yanlış) arasında bir fark yaratmadan birçok şeyi ücretsiz olarak vermeyi mi tercih edersiniz?

Açıkçası daha az yanlış daha iyidir.



Bu Soru-Cevap, otomatik olarak İngilizce dilinden çevrilmiştir.Orijinal içerik, dağıtıldığı cc by-sa 4.0 lisansı için teşekkür ettiğimiz stackexchange'ta mevcuttur.
Loading...