martes, 15 de septiembre de 2009

Medidas de dispersión

Las medidas de dispersión muestran la variabilidad de una distribución, indicando por medio de un número si las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.
Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (Desviación media) y otra es tomando las desviaciones al cuadrado (Varianza).

Varianza
La varianza es una variable estadística que mide la dispersión de los valores respecto a un valor central (media), es decir, la media de las diferencias cuadráticas de las puntuaciones respecto a su media aritmética.





Desviación estándar
La desviación estándar o desviación típica (σ) es una medida de centralización o dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva. Junto a la varianza -con la que está estrechamente relacionada-, es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que representan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad a la hora de describirlos e interpretarlos para la toma de decisiones.

Teorema de Chebyshev
Si una variable aleatoria tiene una varianza o desviación estándar pequeña, esperaríamos que la mayoría de los valores se agrupan alrededor de la media. Por lo tanto, la probabilidad de que una variable aleatoria tome un valor dentro de cierto intervalo alrededor de la media es mayor que para una variable aleatoria similar con una desviación estándar mayor si pensamos en la probabilidad en términos de una área, esperaríamos una distribución continua con un valor grande de σ que indique una variabilidad mayor y, por lo tanto, esperaríamos que el área este extendida. Sin embargo, una desviación estándar pequeña debería tener la mayor parte de su área cercana a µ.
Podemos argumentar lo mismo para una distribución discreta. En el histograma de probabilidad. El área se extiende mucho más que. Lo cual indica una distribución mas variable de mediciones o resultados el matemático ruso P. L. Chebyschev (1821–1894) descubrió que la fracción de área entre cualesquiera dos valores simétricos alrededor de la media esta relacionada con la desviación estándar. Como el área bajo una curva de distribución de probabilidad, o de un histograma de probabilidad, suma 1, el área entre cualesquiera dos números es la probabilidad de que la variable aleatoria tome un valor entre estos números.
El siguiente teorema, debido a Chebyshev da una estimación conservadora de la probabi8lidad de que una variable aleatoria tome un valor dentro de κ desviaciones estándar de su media para cualquier numero real κ proporcionaremos la demostración solo para el caso continuo y se deja el caso discreto como ejercicio.
Teorema de Chebyshev: La probabilidad de que cualquier variable aleatoria X, tome un valor dentro de la κ desviaciones estándar de la media es al menos 1 – 1 / κ2. (tomado de wikipedia)

No hay comentarios:

Publicar un comentario