Tahmin edicilerin özellikleri, bunların sahip olabileceği ve daha iyi sonuçlar verebilenleri seçmeye yarayan niteliklerdir.
Tahminci kavramını tanımlayarak başlamak için, herhangi bir rastgele örnek verildiğinde (x1, x2, x3,…, Xn) bir tahmin edici, φ bilmediğimiz bir parametreye bağlı olan bir popülasyonu temsil eder.
Yunanca fi (φ) harfi ile ifade ettiğimiz bu parametre, örneğin herhangi bir rastgele değişkenin ortalaması olabilir.
Matematiksel olarak, tek parametreli bir Q tahmincisi, (x örneğindeki rastgele gözlemlere bağlıdır.1, x2, x3,…, Xn) ve örneğin bilinen bir fonksiyonu (h). Tahmin edici (Q), rastgele değişkenler içeren örneğe bağlı olduğu için rastgele bir değişken olacaktır.
Q = h (x1, x2, x3,…, Xn)
Bir tahmincinin yansızlığı
φ'nin bir Q tahmincisi, of'nin tüm olası değerleri için E (Q) = φ ise yansız bir tahmin edicidir.E (Q) tahmincisinin beklenen değeri veya beklentisi olarak tanımlarız.
Önyargılı tahmin ediciler durumunda, bu sapma şu şekilde temsil edilecektir:
Önyargı (Q) = E (Q) - φ
Önyargının, tahmin edicinin beklenen değeri E (Q) ile popülasyon parametresinin gerçek değeri , arasındaki fark olduğunu görebiliriz.
Nokta tahminiBir tahmincinin verimliliği
Evet S1 ve Q2 φ'nin iki yansız tahmincisi olduğundan, Q ile ilişkileri verimli olacaktır.2 ne zaman Var (Q1) ≤ Var (Q2) herhangi bir φ değeri için, φ'nin istatistiksel örneği kesinlikle 1'den büyük olduğu sürece, n> 1. Burada Var, varyans ve n örnek boyutudur.
Sezgisel olarak ifade edildiğinde, yansız özelliğe sahip iki tahmincimiz olduğunu varsayarsak, şunu söyleyebiliriz: bir (Q1) diğerinden daha verimlidir (Q2) eğer birin sonuçlarının değişkenliği (Q1) diğerinden daha azdır (Q2). Diğerinden daha fazla değişen bir şeyin daha az "kesin" olduğunu düşünmek mantıklıdır.
Bu nedenle, bu kriteri yalnızca tahmin edicileri yansız olduklarında seçmek için kullanabiliriz. Önceki ifadede verimliliği tanımlarken, tahmin edicilerin tarafsız olması gerektiğini zaten varsayıyoruz.
Önyargısız olması gerekmeyen, yani yanlılığın olabileceği tahmin edicileri karşılaştırmak için, tahmin edicilerin Ortalama Kare Hatasının (MSE) hesaplanması önerilir.
Q, φ'nin bir tahmincisiyse, Q'nun ECM'si şu şekilde tanımlanır:
Ortalama Kare Hatası (MSE), örnek tahmincisi Q'nun beklenen değeri ile popülasyon tahmincisi arasında var olan ortalama mesafeyi hesaplar. ECM'nin ikinci dereceden biçimi, hataların beklenen değere göre varsayılan olarak, negatif veya aşırı, pozitif olabileceği gerçeğinden kaynaklanmaktadır. Bu şekilde, ECM her zaman pozitif değerler hesaplayacaktır.
ECM, varyansa ve (varsa) önyargıya bağlıdır ve biri veya her ikisi de taraflı olduğunda iki tahminciyi karşılaştırmamıza izin verir. NDE'si daha büyük olanın daha az kesin olduğu (daha fazla hataya sahip olduğu) ve dolayısıyla daha az verimli olduğu anlaşılacaktır.
Bir tahmincinin tutarlılığı
Tutarlılık asimptotik bir özelliktir. Bu özellik, örnek boyutu süresiz olarak arttıkça tutarlılığın tahmin edicinin değeri ile popülasyon parametresinin gerçek değeri arasındaki olası mesafeyi ölçmesi farkıyla verimlilik özelliğine benzer. Örneklem büyüklüğündeki bu belirsiz artış asimptotik özelliğin temelidir.
Asimptotik analizi gerçekleştirmek için minimum bir örnek boyutu vardır (örnek arttıkça tahmin edicinin tutarlılığını kontrol edin). Büyük örneklem yaklaşımları, yaklaşık 20 gözlemlik örnekler için iyi sonuç verir (n = 20). Başka bir deyişle, örneği artırdığımızda tahmincinin nasıl davrandığını görmek istiyoruz, ancak bu artış sonsuza doğru gidiyor. Bunu göz önünde bulundurarak, bir örneklemdeki (n ≥ 20) 20 gözlemden bir tahmin yaparız ve asimptotik analiz uygundur.
Matematiksel olarak, Q'yu tanımlarız1herhangi bir rastgele örnekten sample tahmincisi olarak n (x1, x2, x3,…, Xn) boyut (n). Yani Q diyebilirizn φ için tutarlı bir tahmin edicidir, eğer:
Bu bize, tahmin edici ile popülasyon değeri arasındaki farkın, | Q olduğunu söyler.n - φ |, sıfırdan büyük olmalıdırlar. Bunun için mutlak değerle ifade ediyoruz. Bu farkın olasılığı, örneklem büyüklüğü (n) sonsuzluğa yönelir (büyür ve büyür).
Başka bir deyişle, Q'nun olma olasılığı giderek azalıyor.n örnek boyutu arttığında φ'den çok uzaklaşır.