Soru:
HMM için başlangıç ​​olasılıkları nasıl tanımlanır?
amw10
2013-01-16 17:00:09 UTC
view on stackexchange narkive permalink

HI Bu ilk kez HMM hakkında okuyordum, ancak web'de çok fazla makale okudum, ancak kafamın karıştığı iki şey şunlar:

  1. Gizli Durumların sayısına nasıl karar verilir (HMM bilmemize gerek olmadığını söylese de, en iyi kriterin ne olması gerektiğini tahmin etmek için bile bir tahminde bulunmamız gerekiyor)
  2. Gizli durumları tanımladıktan sonra 5 diyelim, sonra nasıl tanımlayacağımızı her gizli durum için ilk olasılıklar ve birbirleri arasındaki geçiş olasılıkları ...

Birisi bana örnek verebilirse çok sevinirim ... Ama lütfen bana hava durumu sistemi örneği vermeyin .

Bu soruyu cevaplamak çok mu zor? yoksa kimse cevaplamak istemeyecek kadar basit mi? Zorsa, insanların farklı uygulamalarda HMM'yi nasıl uyguladıklarını merak ediyorum ve basitse, sizin için basit olabilir .. ama gerçekten anlamak için yardıma ihtiyacım var .. birisi cevap verebilirse ..
HMM ile çalışıyorum ve önceki cevabı beğendim.Verilerim bir dizi görüntüdür ve bir özellik matrisi oluşturmak için her görüntüden bir özellik vektörü çıkarılmıştır.Emisyon matrisini başlatmak için kullanabileceğim eğitim verileri neler olabilir diye bir sorum var.Özellik matrisimi kullanabilir miyim?
Iki yanıtlar:
Kat
2013-03-20 03:54:45 UTC
view on stackexchange narkive permalink

1. Gizli Durumların sayısına nasıl karar verilir (HMM bilmemize gerek olmadığını söylese de, en iyi kriterin ne olması gerektiğini tahmin etmek için bile bir tahminde bulunmak zorundayız)

gizli durumların sayısı soruna bağlıdır. Örneğin, konuşma tanıma ve sentezde, 3 ve 5 durumları yaygın olarak kullanılmaktadır. Bunları kullanmanın nedeni, konuşmanın oldukça değişken bir veri olmasıdır. Dolayısıyla, konuşma seslerinin (fonemler) farklı anlarındaki dağılım zamana göre değişir ve her durum farklı dağılımları modeller.

2. Gizli durumları tanımladıktan sonra 5 diyelim, sonra her gizli durum için ilk olasılıklar ve birbirleri arasındaki geçiş olasılıkları nasıl tanımlanır ...

Bir HMM, (A, B, $ \ pi $ ), burada A, durum geçiş olasılıklarının bir matrisidir, B durum emisyon olasılıklarının bir vektörüdür ve $ \ pi $ (A'nın özel bir üyesi) ilk durum dağılımlarının bir vektörüdür. Bu parametreleri tahmin etmek için aşağıdaki adımlar atılır:

  • A ve $ \ pi $ parametreleri için, HMM'yi rastgele 0 ve 1)
  • Eğitim verilerini eşit şekilde bölümlere ayırarak ve genel ortalama ve varyansı tahmin ederek B parametresini başlatın. B parametresi, her durumun ortalaması ve varyanslarıyla ilgilenir
  • Baum-Welch algoritmasını kullanarak parametreleri yeniden tahmin edin ve hassaslaştırın. Bu, iyi bilinen Beklenti-Maksimasyon (EM) algoritmasının bir çeşididir.

Referanslar:

  • Rabiner, L 1989. Gizli Markov modelleri ve konuşma tanımada seçilen uygulamalar hakkında bir eğitim.
  • Baum, LE, T. Petrie, G. Soules ve N. Weiss. 1970. Markov Zincirlerinin Olasılıksal Fonksiyonlarının İstatistiksel Analizinde Meydana Gelen Bir Maksimizasyon Tekniği. The Annals of Mathematical Statistics Cilt. 41, No. 1, s. 164-171.
  • Dempster, A. P., N. M. Laird ve D. B. Rubin. 1977. EM algoritması yoluyla eksik verilerden maksimum olasılık. Kraliyet İstatistik Derneği Dergisi. B Serisi (Metodolojik) 39 (1), sayfa 1-38.
@Kat sitesine hoş geldiniz. Bu gerçekten güzel bir cevap (+1), umarım daha fazlasını göreceğiz. Burada yeni olduğunuz için, yolunuzu öğrenmenize yardımcı olması için [SSS] (http://stats.stackexchange.com/faq) bölümümüzü okumak isteyebilirsiniz.
Zhubarb
2015-04-20 14:11:15 UTC
view on stackexchange narkive permalink

Bu soruya verilecek olağan, ilham verici ve bilgilendirici olmayan cevap, "sisteminizin dinamikleri / fiziksel sorunun doğası, kaç tane gizli durum olduğunu gösterecektir" şeklindedir ve şu anlama gelir: "Bir seçim yapın ve üstesinden gelin ". Ancak ben buna inanmıyorum. Çoğu problemin bundan daha karmaşık olduğunu düşünüyorum, bu yüzden sorunuz çok geçerli.

Emisyon (gözlem) değişkenlerinizi modellemek için bir Gauss dağılımı kullandığınızı varsayalım. Bir HMM'yi takarken, yaptığınız şey esasen geçici kümelemedir. Bu nedenle, durum başına Gauss dağılımlarınızın ilk tahminlerini oluşturmak için hızlı ve daha basit bir kümeleme yönteminden yararlanabilirsiniz. Bu aynı zamanda, HMM'lerin ana referansı olan Rabiner'in makalesinde de bahsedilmektedir.

1) Veri kümenizde (basit) bir k-aracı çalıştırabilirsiniz Veri kümenizdeki optimum küme sayısını ve ağırlık merkezlerinin (ortalama vektör) konumlarını kabaca tahmin etmek için. Küme sayısının nasıl belirleneceği konusunda geniş bir kapsam için buraya bir göz atın.

2) Daha da iyisi, seçim yapabilirsiniz Veri kümenizi en iyi kaç karışım bileşeninin açıkladığını ve yeterli istatistiklerin (Ortalama vektör, Kovaryanslar) ne olduğunu görmek için veri kümenize bir Gauss karışımını (veya herhangi bir karışım modelini) sığdırmak için. HMM'yi eğitirken başlangıç ​​parametrelerinizi oluşturmak için bu çıktıları kullanabilirsiniz - ki bu, esas olarak log olasılığına giren seri bağımlılıklar (ve dolayısıyla Beklenti-Maksimizasyon ) hesaplama.

Şimdi, burada önemli olan şey, hangi noktanın büyük olasılıkla hangi duruma ait olduğunu hesaplarken bu kümeleme tekniklerinin seri bağımlılıkları hesaba katmayacağıdır (bir HMM'nin geçiş matrisi aracılığıyla yaptığı gibi). Yine de başlangıç ​​noktalarınızın (ör. Ortalama vektör, Kovaryans vektörü, önceki dağılımlar) ne olması gerektiği konusunda size kaba tahminler verecekler.

Örneğin, bu şekilde eğitilmiş HMM'nizin mantık olasılığını hesaplayabilirsiniz. ve sonra bunu, farkı kendiniz gözlemlemek için rastgele hale getirilmiş başlangıç ​​değerleri kullanılarak eğitilmiş bir log olasılığıyla karşılaştırın.

Bu, bir şekilde, örneğin, küresel optimizasyona başlamaya benzer - basitleştirilmiş (yaklaşık) dışbükey versiyonuna en uygun değerlerle konveks problemi. Arama alanını azaltmak için 1. ve / veya 2. adımları uygulayın. Söylemeye gerek yok, bulduğunuz nihai değerlerin optimizasyon sorununuz için küresel bir çözüm olacağı garanti edilmez - ancak amaçlarınız için yeterince iyi olabilir.



Bu Soru-Cevap, otomatik olarak İngilizce dilinden çevrilmiştir.Orijinal içerik, dağıtıldığı cc by-sa 3.0 lisansı için teşekkür ettiğimiz stackexchange'ta mevcuttur.
Loading...