sábado, 27 de abril de 2013

Tema 10: Estimación puntual

Clase del lunes 29 de abril de 2013



 La clase nuevamente se estructurará en dos partes:

1ª Parte (Tema 9, UD4)

Se finalizará el tema 9, el cual se comenzó en la clase del 22 de abril.

Ante el interés por saber cómo se distribuyen nuevas variables aleatorias unidimensionales, como la media aritmética tipificada, la cuasivarianza muestral o el cociente de cuasi-varianzas muestrales, se ampliará el catálogo de distribuciones continuas con la Chi cuadrado o de Pearson, T de Student y la F de Fisher-Snedecor. Todas ellas asociadas a la distribución normal.


2ª Parte (Tema 10, UD4)

Supongamos una muestra aleatoria simple de una distribución con forma conocida, pero de la que se desconoce el valor de los parámetros que la definen . El problema que se estudiará en este Tema 10 es el de cómo estimar el verdadero valor de dichos parámetros -estimación paramétrica- a partir de la información muestral.

Desde un punto de vista empírico, los datos de nos llevan a un histograma. La forma forma de dicho histograma nos sugiere una función de probabilidad -o de densidad- conocida. Ésta, a su vez, está definida por un conjunto de parámetros que, en principio, son, desconocidos.

Una vez que hayamos estimado el valor de dichos parámetros a partir de los datos, habría que estudiar la consistencia de dichos valores con los procedimientos no paramétricos que se estudiarán en los temas 12 y 13 (UD 5)

El esquema de este segundo tema de la UD4 es el siguiente:

1. Introducción
2. Estadísticos y estimadores
3. Método de los momentos
4. Método de máxima verosimilitud
5. Obtención de estimadores de la distribución normal

Además éstas serán las trasparencias que se utilicen en clase para el Tema 10:

 

miércoles, 24 de abril de 2013

Clase de problemas (10)

Clase del jueves 25 de abril de 2013



Teniendo en cuenta que la clase de hoy es previa al control de las UD 2 y 3, la dedicaremos a resolver exámenes de otras convocatorias. En concreto, se resolverán:

  1. Examen de la UD 3, mayo de 2012
  2. Ejercicios sobre la UD 2 y UD3 del examen de junio 2012 
 Exámenes de convocatorias anteriores pueden encontrarse resueltos en Moodle 

viernes, 19 de abril de 2013

Tema 9: Introducción a la Inferencia Estadística + Clase de problemas (9)

Clase del lunes 22 de abril de 2013



 La clase nuevamente se dividirá en dos partes:

1ª Parte (Tema 9, UD4)

Hasta ahora hemos construido modelos probabilísticos de una manera típicamente deductiva; es decir, establecíamos hipótesis sobre el mecanismo generador de los datos, y de ahí obteníamos las probabilidades de todos los posibles valores.

Con la Inferencia Estadística se realiza el proceso inverso: observando las frecuencias asociada a los diferentes valores de una determinada variable, definimos el modelo probabilístico que probablemente los genera.
Otro  problema que abordaremos será el de cómo se distribuye una nueva variable aleatoria: la media muestral. Este problema originará cierta casuística; así como el interés por saber cómo se distribuyen otras variables aleatorias similares, como la media aritmética tipificada, la cuasivarianza muestral o el cociente de cuasi-varianzas muestrales.

Se concluye con una ampliación del catálogo de distribuciones continuas con la Chi cuadrado o de Pearson, T de Student y la F de Fisher-Snedecor. Todas ellas asociadas a la distribución normal y que servirán de herramienta a la hora de abordar el problema descrito anteriormente.

Las tarasparencias que se utilizarán para esta primera parte de la clase son las siguientes:





 2ª Parte (Problemas de la UD 3)

Se plantearán y resolverán problemas de la UD 3. Este es el listado de problemas que se resolverán en clase, ordenados por orden de exposición:

  • Ejercicios autocomprobación 2, 5 y 3 del Tema 6 (Moodle)
  • Ejercicios adicionales 3, 5 y 8 del Tema 7 (Moodle)

lunes, 15 de abril de 2013

Tema 8: Variables aleatorias multidimensionales + Clase de problemas (8)

Clase del jueves 18 de abril de 2013



En la primera parte de la clase vamos a resumir los conceptos básicos del Tema 8 sobre variables aleatorias multidimensionales. 


En concreto, y por motivos pedagógicos, nos vamos a centrar en vectores aleatorios bidimensionales.

Muchas veces resulta interesante medir más de una característica en un fenómeno aleatorio. Por ejemplo, al estudiar la contaminación del agua tendremos que tener en cuenta factores como los de la concentración de diversos contaminantes presentes en esta, o en un proceso de producción de tornillos nos podría interesar controlar aspectos como su longitud o su grosor.

Se introducirán los conceptos de distribución conjunta, marginal, condicionada, independencia de variables aleatorias, momentos de una variable aleatoria bidimensional asociados a una distribución conjunta, la formulación del Teorema de Bayes con variablea aleatorias y la reproductividad de distribuciones.

Aviso: Recordad que la teoría de este tema no entra en el examen de la UD 2 y 3


En la segunda parte de la clase , se plantearán y resolverán problemas de la UD 3. Este es el listado de problemas que se resolverán en clase, ordenados por orden de exposición:

  • Ejercicio adicional 2 del Tema 7 (Moodle)
  • Ejercicios autocomprobación 1, 2, 5 y 3 del Tema 6 (Moodle)
  • Ejercicios adicionales 3, 5 y 8 del Tema 7 (Moodle)


Estas serán las trasparencias que se utilicen en clase para la primera parte de la clase:



jueves, 11 de abril de 2013

Tema 7: Variables aleatorias continuas (II) + Clase de problemas (7)

Clase del lunes 15 de abril de 2013

En la segunda parte de Tema 7, primera de la clase de hoy, se describirán cuatro clases de distribuciones continuas: Exponencial, Erlang, Gamma y Beta.

Las dos primeras están relacionadas con el proceso de Poisson. La génesis de la distribución exponencial se encuentra en la variable aleatoria que cuantifica el tiempo que trascurre desde un origen hasta que suceda el primer suceso de Poisson; mientras que el de la Erlang  se encuentra asociado a la variable aleatoria que cuantifica el tiempo que trascurre desde un origen hasta que suceda el suceso p-ésimo de Poisson .

El origen de la distribución Gamma es la generalización teórica de la Erlang considerando que p es un número real positivo. Para extender la Erlang necesitaremos extender el concepto de factorial. Esta extensión se hará mediante la denominada función Gamma.



Finalmente, el origen de la distribución Beta es considerar al parámetro p, que representa la probabilidadde un suceso, como una variable aletoria continua acotada entre 0 y 1.


Para esta primera parte, las trasparencias de la clase de hoy son las siguientes:





En la segunda parte de la clase, se plantearán y resolverán problemas de la UD 3. Este es el listado de problemas que se resolverán en clase, ordenados por orden de exposición:

  • Ejercicios adicionales 8, 5 y 6 del Tema 6 (Moodle)
  • Ejercicios adicionales 4 y 2 del Tema 7 (Moodle)