Bu soruya verilecek olağan, ilham verici ve bilgilendirici olmayan cevap, "sisteminizin dinamikleri / fiziksel sorunun doğası, kaç tane gizli durum olduğunu gösterecektir" şeklindedir ve şu anlama gelir: "Bir seçim yapın ve üstesinden gelin ". Ancak ben buna inanmıyorum. Çoğu problemin bundan daha karmaşık olduğunu düşünüyorum, bu yüzden sorunuz çok geçerli.
Emisyon (gözlem) değişkenlerinizi modellemek için bir Gauss dağılımı kullandığınızı varsayalım. Bir HMM'yi takarken, yaptığınız şey esasen geçici kümelemedir. Bu nedenle, durum başına Gauss dağılımlarınızın ilk tahminlerini oluşturmak için hızlı ve daha basit bir kümeleme yönteminden yararlanabilirsiniz. Bu aynı zamanda, HMM'lerin ana referansı olan Rabiner'in makalesinde de bahsedilmektedir.
1) Veri kümenizde (basit) bir k-aracı çalıştırabilirsiniz Veri kümenizdeki optimum küme sayısını ve ağırlık merkezlerinin (ortalama vektör) konumlarını kabaca tahmin etmek için. Küme sayısının nasıl belirleneceği konusunda geniş bir kapsam için buraya bir göz atın.
2) Daha da iyisi, seçim yapabilirsiniz Veri kümenizi en iyi kaç karışım bileşeninin açıkladığını ve yeterli istatistiklerin (Ortalama vektör, Kovaryanslar) ne olduğunu görmek için veri kümenize bir Gauss karışımını (veya herhangi bir karışım modelini) sığdırmak için. HMM'yi eğitirken başlangıç parametrelerinizi oluşturmak için bu çıktıları kullanabilirsiniz - ki bu, esas olarak log olasılığına giren seri bağımlılıklar (ve dolayısıyla Beklenti-Maksimizasyon ) hesaplama.
Şimdi, burada önemli olan şey, hangi noktanın büyük olasılıkla hangi duruma ait olduğunu hesaplarken bu kümeleme tekniklerinin seri bağımlılıkları hesaba katmayacağıdır (bir HMM'nin geçiş matrisi aracılığıyla yaptığı gibi). Yine de başlangıç noktalarınızın (ör. Ortalama vektör, Kovaryans vektörü, önceki dağılımlar) ne olması gerektiği konusunda size kaba tahminler verecekler.
Örneğin, bu şekilde eğitilmiş HMM'nizin mantık olasılığını hesaplayabilirsiniz. ve sonra bunu, farkı kendiniz gözlemlemek için rastgele hale getirilmiş başlangıç değerleri kullanılarak eğitilmiş bir log olasılığıyla karşılaştırın.
Bu, bir şekilde, örneğin, küresel optimizasyona başlamaya benzer - basitleştirilmiş (yaklaşık) dışbükey versiyonuna en uygun değerlerle konveks problemi. Arama alanını azaltmak için 1. ve / veya 2. adımları uygulayın. Söylemeye gerek yok, bulduğunuz nihai değerlerin optimizasyon sorununuz için küresel bir çözüm olacağı garanti edilmez - ancak amaçlarınız için yeterince iyi olabilir.