Estocastica DEPARTAMENTO DE INVESTIGACION DE OPERACIONES
Enviado por Sara • 6 de Septiembre de 2018 • 1.204 Palabras (5 Páginas) • 448 Visitas
...
Suficiencia: Un estimador es suficiente cuando ) no depende del parámetro a estimar θ.
En términos más simples: cuando se aprovecha toda la información muestral. [pic 32]
Método de máxima verosimilitud
El método de máxima verosimilitud es una técnica para estimar los valores de θ dada una muestra finita de datos.
Supongamos n medidas de x, x1,...,xn. Puesto que las medidas son independientes, la probabilidad de que x1 esté en [x1,x1+dx1], x2 en [x2,x2+dx2], es:
probabilidad de que xi esté en [xi , xi + dxi] para todo i= Si la pdf y el (los) parámetro(s) describen realmente los datos, esperamos alta probabilidad para los datos que hemos medido. Análogamente un parámetro cuyo valor se desvíe mucho del auténtico resultará en baja probabilidad para las medidas observadas.[pic 33]
[pic 34]
[pic 35]
[pic 36]
Método de los momentos
Se trata de un método de obtención de estimadores muy intuitivo. Básicamente, consiste en igualar los momentos poblacionales (que sean función del o los parámetros a estimar) con los momentos muestrales y despejar el parámetro a estimar.
Así, por ejemplo, la esperanza de una variable aleatoria se estimaría por la media muestral; la varianza, por la varianza muestral; etc.
La principal ventaja de este método es su simplicidad. Sin embargo, aunque los estimadores así obtenidos son consistentes, en general, no son centrados ni eficientes. Además, en ciertos casos puede proporcionar estimaciones absurdas, como veremos en el siguiente ejemplo:
Supongamos que tenemos una variable con distribución uniforme donde el límite inferior es cero y el superior es desconocido. Naturalmente, estaremos interesados en estimar el límite superior (al que llamaremos b) de nuestra distribución uniforme.
X sigue una distribución uniforme (a = 0, b = ?)
Recordemos que la esperanza de una distribución uniforme comprendida entre dos valores a y b es el promedio de estos dos valores.
[pic 37]
Por tanto, para aplicar el método de los momentos para estimar b, igualaremos dicho promedio a la media aritmética:
[pic 38]
Supongamos que hemos obtenido la siguiente muestra de dieciséis observaciones procedente de nuestra población uniforme:
1,12
1,79
0,77
4,21
3,47
4,94
0,56
0,05
2,35
4,86
1,46
3,71
2,21
0,09
1,72
2,96
Según acabamos de ver, el estimador por el método de los momentos de b es la media aritmética multiplicada por dos. En este ejemplo, la media aritmética vale 2,27 y, por tanto, la estimación de b sería: 2,27 x 2 = 4,53. Sin embargo, esta estimación es incompatible con las observaciones en que se basa, ¿ por qué?
- proponer otro estimador lógico para el parámetro b.
1) Según el método de los momentos hemos obtenido como estimación de b el valor 4,53. Sin embargo, en la muestra existen dos valores (4,94 y 4,86) que superan dicho valor (recordemos que en una distribución uniforme b representa el extremo superior de los posibles valores de la variable).
1,12
1,79
0,77
4,21
3,47
4,94
0,56
0,05
2,35
4,86
1,46
3,71
2,21
0,09
1,72
2,96
2) Un estimador más lógico para el parámetro b sería el máximo de los valores observados. En nuestro caso dicho estimador valdría 4,94. Fijémonos que con esta estimación desaparece la contradicción comentada en el anterior apartado. De hecho, el máximo de los valores observados es el estimador que se obtendría por el método de la máxima verosimilitud.
...