Conceptos claves

From MM*Stat International

Jump to: navigation, search
English
Português
Français
‎Español
Italiano
Nederlands


Los contrastes estadísticos son son herramientas para la verificación de hipótesis sobre la forma de distribuciones de probabilidad desconocidas o relaciones entre variables aleatorias. Si la función de probabilidad está especificada mediante un conjunto finito de parámetros, contrastar la densidad de probabilidad completa implica el contraste de los parámetros. Dado que la especificación matemática de un tipo de distribuciones de probabilidad implica escribir una función que contiene parámetros cuyos valores son desconocidos apriori, contrastes basados en postular parámetros que determinen la forma de una distribución de probabilidad se apodan ‘contrastes paramétricos’. Los valores de los parámetros que se contrastan han sido normalmente obtenidos mediante un procedimiento de estimación estadística. Entonces, la teoría de contrastes suministra un medio para cuantificar la signitividad de las estimaciones. Muy relacionado con la elección de los valores de los parámetros está la elección del tipo de distribución de probabilidad, de modo la distribución de probabilidad resultante ha de describir la realidad de forma tan exacta y fidedigna como sea posible. En la práctica, la elección del tipo de función, como por ejemplo la distribución normal, estimación y contrastación es un proceso iterativo, y los investigadores empíricos deben considerar varios modelos en la etapa de exploración de la investigación para ver la naturaleza del fenómeno de interés. Sin embargo, Habitualmente, ciertos modelos de probabilidad se eligen a priori por sus méritos en la maleabilidad teórica. Cuando la clase de la función de distribución está determinada teoricamente es el resultado de la deducción lógica de premisas aceptadas, y el contraste de la significatividad de los parámetros es una parte muy importante de la verificacón de la teoría científica. Sin embargo, la mayoría del trabajo empírico se basa en la obtención de datos y en este caso no se tiene una distribución a priori. El objetivo del proceso de contraste paramétrico estadístico se puedee resumir del siguiente modo. Dada una determinada población con una función de distribución paramétrica F\left( x \right) (con parámetros tales como la esperanza \mu y la varianza \sigma_{2} en el tipo de la distribución normal o de la proporción \pi en un experimento de Bernoulli repetido), Las ‘adivinaciones’ sobre el verdadero valor del parámetro tienen que ser verificadas mediante la muestra finita. Claramente, esto sería inutil si se observara la variable en todas las posibilidades, es decir, la población completa (lo cual, al menos teóricamente, no es posible para variables aleatorias continuas, dado que la distribución está compuesta por infinitas observaciones). Como las muestras no pueden contener toda la información necesaria para describir de forma precisa la distribución subyacente (aún si es representativa en términos de algún concepto adecuado) y es el resultado de un proceso de muestreo (aleatorio), implica que los valores de los parámetros (que se determinan mediante procedimientos de estimación estadísticos) son aleatorios. En general, sólo de media es cuando se estima el valor del parámetro poblacional de forma correcta. Afortunadamente, los contrastes estadísticos nos permiten cuantificar y evaluar las desviaciones una muestra específica respecto al valor del parámetro postulado en términos de significatividad estadística. En resumen, tratamos de evaluar si el valor del estimador postulado está lo suficientemente cercano del observado mediante el proceso muestral o si los dos números (o vectores) no se pueden reconciliar incluso permitiendo un error muestral (es decir, el ruido creado por la observación de una sola muestra de elementos puede justificar la discrepancia). A fin de poner el problema de verificación bajo una base objetiva de teoría de decisión, los contrastes estadísticos se pueden ver como elementos para afrontar los problemas que de otra forma nos permita confiar en afirmaciones subjetivas:

  • cuál es la formulación ’correcta’ de la hipótesis existente en términos matemáticos
  • cómo están los datos de condensados (es decir, cual es la función muestral que se está usando)
  • cómo es la desviación de los datos recogidos respecto a la estrucutura que implica la hipótesis que es cuantificada
  • cómo se puede evaluar la diferencia cuantificada en términos de teoría de decisión (cuando la diferencia es estadísticamente significativa)

A fin de suministrar un razonamiento lógico para la verificación de hipótesis (dados ciertos supuestos sobre el tipo de función de distribución etc.), los contrastes estadísticos deben solucionar todos los problemas descritos anteriormente de forma satisfactoria. Podemos tener una compresión de los conceptos claves y términos de los contrastes estadísticos mediante un contraste paramétrico ejemplar. Sea \theta un parámetro de una función que describe la distribución de la variable aleatoria X en la población. Su verdadero valor es desconocido, pero podemos especificar el espacio paramétrico, el conjunto de posibles valores que se pueden suponer.

Formulación de Hipótesis

Las hipótesis muestran una relación entre el verdadero valor del parámetro \theta y su valor hipotético \theta_{0}. normalmente, se formula un par de hipótesis que están conectadas, la ' \text{H}_{0} y la hipótesis alternativa \text{H}_{1}. La hipótesis nula es la afirmación estadística que debe ser verificada; por lo tanto, tiene que estar formulada de tal forma que se pueda aplicar un contraste estadístico sobre ella. A veces, las hipótesis estadísticas subyacentes se pueden contrastar directamente, pero normalmente las afirmaciones científicas tienen que ser expresadas mediante una hipótesis nula que puede ser tratada estadísticamente. En muchos casos, se verificará la negación de la conjetura que se quiere realizar. Esto es debido a ciertas propiedades de los contrastes estadísticos paramétricos que veremos con posterioridad. La hipótesis alternativa puede ser entendida como la negación de la hipótesis nula. La relación entre el verdadero valor \theta y el hipotético valor \theta_{0} es de tal forma que los posibles valores del parámetro tanto en la hipótesis nula como alternativa capturan el espacio paramétrico completo. Las posibles variantes son:

hipótesis Nula Hipótesis Alternativa
a) Test de dos colas \text{H}_{0}: \theta = \theta_{0} \text{H}_{1}: \theta \neq \theta_{0}
b) Test de una cola
Test por la derecha \text{H}_{0}: \theta \leq \theta_{0} \text{H}_{1}: \theta > \theta_{0}
Test por la izquierda \text{H}_{0}: \theta \geq \theta_{0} \text{H}_{1}: \theta < \theta_{0}

Las hipótesis de dos colas de a) se llaman hipótesis simples, dado que el conjunto paramétrico de la hipótesis nula contiene exáctamente un valor. Como la pone de relieve, las desviaciones respecto al valor hipotético \theta_{0} en ambas direcciones son relevantes para la validació del test. Por esta razón se llaman contrastes de dos colas. Las hipótesis de los contrastes de una cola bajor b) pertenecen a la clase de hipotesis compuestas. El término ‘Compuesto’ se refiere a que el conjunto paramétrico de la hipótesis nula está copuesto por más de un único valor. Consecuentemente, la verificación positiva de la no especificará de forma completa la función de distribución, dado que hay un conjunto (como en casos anteriores de infinitos) valores paramétricos que lo que verifican. Las hipótesis son de una cola, porque la desviación respecto al parámetro hipotético sólo es posible en una dirección para poder negar la hipotesis nula—dependiendo en la dirección del test, se considerará de una cola por la derecha o por la izquierda. Claramente, el problema científico se puede formular en términos estadísticos que determinen que contraste se puede aplicar. Vamos a apuntar algunos principios importantes en la formulación de hipótesis:

  • Los procedimientos de contrastes estadísticos ‘contrastan’ (es decir, verifican o no) la hipótesis nula.
  • Las hipotesis alternativa y nula son disjuntas, es decir, sus espacios paramétricos respectivos no contienen ningun punto en común.
  • Los conjuntos paramétricos contienen exáctamente un valor que siempre pertenece a la hipótesis nula.
  • Se ejecutará unaa regla de decisión que nos llevará a la verifiación o rechazo de la hipótesis nula o la hipótesis alternativa, pero no ambas.

Contraste Estadístico

A fin de continuar con el anterior procedimiento, necesitamos una medida en la que se base nuestra regla de decisión. Queremos extraer la información necesaria para comparar los valores hipotéticos del parámetro con el de la muestra, para ello necesitamos alguna función muestral adecuada. Si una función muestral es usada como una medida de verificaciión en un proceso de contraste estadístico, se le denomina contraste estadístico, o simplemente estadístico. Denotaremos a la función muestral como V=V\left( X_{1},
\ldots,X_n \right). El estadístico V es una función de las variables muestrales X_{1},
\ldots , X_{n} y por tanto el mismo es una variable aleatoria con alguna distribución F_{V}\left( v \right). Para obtener una decisiíon en el test, la distribución de V para una hipótesis nula valida tiene que ser conocida (al menos de forma aproximada). Por lo tanto, F_{V} está condicionada el lahipótesis nula: F_{V}=F_{V}\left( v|\text{H}_{0} \right). En el caso del test paramétrico esto implica que la distribución del estadístico depende del parámetro : F\left( v\,|\,\theta
\right). A fin de determinar la distribución, el parámetro \theta tiene que ser especificado numéricamente. Pero la sola información sobre \theta disponible es un valor límite hipotético \theta_{0}. Ahora asumiremos que \theta_{0} es el parámetro verdadero imperante en la población, es decir, \theta=\theta_{0}. En un test de dos colas, este supuesto refleja exactamente la hipótesis nula. En uno de una cola, el valor límite \theta_{0} debe pertenecer a la hipótesis nula—un razón, porque la ‘igualdad’,es decir \theta=\theta_{0} siempre pertenece al espacio paramétrico de la hipótesis nula. Para un conjunto de tres posibles test asumiremos que el estadístico de contraste V tiene una distribución con paramétro \theta_{0} bajo la hipótesis nula. Observando la variable aleatoria que se está estudiando en los n elementos produce una muestra x_{1},
\ldots , x_{n}. Llevando estas realizaciones a la función muestral da una realización del test estadístico: v=v\left( x_{1}, \ldots,x_n
\right).

Regiones de decisión y nivel de significación

Siendo una variable aleatoria, el estadístico de contraste puede tomar uno de los posibles valores. Si el estadístico de contraste para una muestra dada está suficientemente cerca del valor hipotético del parámetro, la desviación se puede considerar ‘aleatoria’. En este caso la hipótesis nula no se rechaza. Todavía esto no significa que la hipótesis nula sea correcta y que por lo tanto \theta_{0} es el verdadero valor del parámetro. La única afirmación permisible es que, dada esta muestra en particular, no puede ser rechazado que bajo un determinado nivel de confianza, la población subyacente tenga una distribución especificada por el valor del parámetro \theta_{0}. Desviaciones grandes en el estadístico de contraste del valor hipotético hacen que la hipótesis nula parezca poco creible. En esta situación la muestra puede ‘igualmente’ haber sido generada por una población distribuida de acuerdo a unos valores paramétricos que se encuentran en la hipótesis alternativa. Por lo tanto, podemos asumir que es otro valor del parámetro y no \theta_{0} el que especifica la distribución de la población. Aunque esto no significa que \theta_{0} sea falso con toda certeza. Sólo se puede decir que poco probable que la poblaciíon que tiene esa distribución de probabilidad haya generado esa muestra en concreto. De acuerdo a estas consideraciones, el conjunto de las posibles realizaciones del test estadísticos es una partición disjunta en dos regiones, que refleja si la muestra se puede compaginar con la hipótesis nula para un determinado nivel de ‘credibilidad’ o no.

Región de aceptación de la hipótesis nula

La región de aceptación de \text{H}_{0} es el conjunto de posibles resultados del estadístico de contraste que llevan a decidirse a favor de \text{H}_{0}, es decir, la aceptación de \text{H}_{0}.

Región de rechazo de la hipótesis nula

La región de rechazo (o región crítica) de \text{H}_{0} abarca todos los posibles resultados del test que llevan al rechazo de \text{H}_{0}. Las regiones de aceptación y rechazo de \text{H}_{0} son una descomposición disjunta de todos los posibles resultados de estadístico de contraste. Si los resultados son valores reales, existen valores límites llamados ‘valores críticos’, que dividen la recta de los números reales en región de aceptación y de rechazo. El valor crítico por si mismo pertenece a la región de aceptación. A fin de obtener una regla de decisión concreta, es necesario calcular estos valores críticos. Esto se puede hacer mediante los resultados de teoría de probabilidad La probabilidad de que la hipótesis nula sea verdad (es decir, el valor del verdadero parámetro esté en la región crítica), y una muestra lleve a rechazar el test \text{H}_{0}, no debe ser mayor que el nivel de significancia \alpha: P\left( V \text{ es un elemento de la región de rechazo de } H_{0}\,|\,\theta_{0}\right)\leq\alpha. Por lo tanto, la probabilidad de que V tome un valor en la región de rechazo, cuando se calcula V mediante una muestra extraida de la población de parámetro \theta_{0}, es al menos \left( 1-\alpha
\right): P\left( V \text{ es un elemento de la región de aceptación con}
H_{0}\,|\,\theta_{0}\right)\geq 1-\alpha. Dada la probabilidad \alpha, los valores críticos pueden ser calculados de la distribución de probabilidad condicionada del estadístico de contraste \text{F}\left( v|\text{H}_{0}\right). Por lo tanto, la distribución de un test dado \text{H}_{0} sea verdad debe ser conocida (al menos aproximadamente). Como la probabilidad \alpha determina de si se producen desviaciones significativas muestrales con respecto al conjunto de valores paramétricos postulados, se denomina nivel de significación. Por determinadas razones (principalmente históricas), el nivel de significación se selecciona pequeño de forma que la hipótesis nula se rechaza sólo si es muy dificil que la muestra se deba a la distribución propuesta—normalmente 0.01, 0.05 o 0.10. Vamos a derivar regiones de decisión para el conjunto de test introducidos anteriormente para un determinado nivel de significancia \alpha y validacón de \text{H}_{0}. Por conveniencia se supone que V tiene distribución normal. \text{H}_{0}: \theta = \theta_{0} \quad \text{ contra } \quad
\text{H}_{1}: \theta \neq \theta_{0} región de rechazo de \text{H}_{0}: En un contraste de dos colas, la región de rechazo está compuesta de dos conjuntos, se debe tener en consideración las desviaciones del estadístico muestral respecto al valor hipótetico del parámetro \theta_{0} en dos direcciones. La región de aceptación se separa de estas dos regiones por dos valores críticos c_{l} y c_{u}. La región de rechazo consiste en todas las realizaciones v del estadístico de contraste V menores que valor crítico c_{l} o mayores que el valor crítico c_{u}: \left\{
v|v<c_{l} \,\text{ or }\, v>c_{u} \right\}. La probabilidad combinada de encontrar un valor de la región de rechazo es igual al nivel de significación dado \alpha: \text{P}\left(
V<c_{l}|\theta_{0}\right)+\text{P}\left(V>c_{u}|\theta_{0}\right)=\alpha
/2 + \alpha /2 = \alpha Región de aceptación de \text{H}_{0}: La región de aceptación (o no rechazo) de \text{H}_{0} contiene todos los posibles valores v del test V menores que (o iguales) el valor crítico superior c_{u} y mayores que (o iguales) el valor crítico inferior c_{l}: \left\{ c_{l} \leq v \leq c_{u} \right\}. La probabilidad de que la realización del estadístico de contraste esté en la región de rechazo, dado que \theta_{0} es cierta, es \left( 1-\alpha
\right): \text{P}\left\{ c_{l}
\leq V
\leq c_{u}
\,|\,\theta_{0}\right\}=\left( 1-\alpha \right).


Es s2 50 1.gif

Por diseño, sólo hay una región crítica asociada con este tipo de contrates: Desviaciones del estadístico de contraste del valor hipotético del parámetro son ‘significativas’ sólo en una dirección. El valor crítico que divide la región de rechazo y aceptación se denota como c. Contraste por la izquierda: \text{H}_{0}: \theta \geq \theta_{0} \quad
\text{ versus }\quad \text{H}_{1}: \theta < \theta_{0} región de rechazo de \text{H}_{0}:
La región crítica de \text{H}_{0} consiste en las realizaciones v del test V menores que c: \left\{ v\,|\,v<c
\right\}. La probabilidad de que el estadístico de contraste tome un valor de la región crítica, dado que \text{H}_{0} manifieste el verdadero valor del parámetro, es más pequeño que el nivel de significancia \alpha: \text{P}\left\{ V < c \,|\,\theta_{0}\right\}\leq \alpha . La región de aceptación de \text{H}_{0}:
La región de aceptación de \text{H}_{0} contiene toas las realizaciones v del test V mayores o iguales que c: \left\{ v\,|\,v\geq c
\right\}. La probabilidad de que el test tenga un valor en la región de aceptación, dado que \text{H}_{0} es cierto, es al menos \left( 1-
\alpha
\right): \text{P}\left\{ V
\geq c
\,|\,\theta_{0}\right\}\geq 1-\alpha.

Es s2 50 2.gif

Región de rechazo \text{H}_0 | Región de aceptación \text{H}_0 Contraste por la derecha:
\text{H}_{0}: \theta \leq \theta_{0}
\quad\text{ versus }\quad \text{H}_{0}: \theta > \theta_{0} región de rechazo de \text{H}_{0}:
La región de rechazo de \text{H}_{0} consiste en todas aquellas realizaciones de v del estadístico de contraste V mayores que c: \left\{ v\,|\,v>c
\right\}. La probabilidad de que v esté en la región crítica, dado \text{H}_{0} es cierto, no supera el nivel de significaciíon \alpha: \text{P}\left\{ V > c
\,|\,\theta_{0}\right\}\leq \alpha. Región de aceptación de \text{H}_{0}:
La región de aceptación de \text{H}_{0} es el conjunto de valores del estadístico v menores o iguales que c: \left\{ v\,|\,v\leq c
\right\}. La probabilidad de v presente un valor en la región de aceptación, dado que \text{H}_{0} es cierto, es mayor o igual que \left( 1- \alpha \right): \text{P}\left\{ V
\leq c
\,|\,\theta_{0}\right\}\geq 1-\alpha.

Es s2 50 3.gif

Región de aceptación \text{H}_0 | Región de rechazo \text{H}_0 Como los contraste estadísticos se basan en muestras finitas de una población (teórecamente infinitamente grande), no pueden realizarse decisiones erroneas respecto a la distribución subyacente de la distribución de los parámetros. Dependiendo del valor del estadístico de contraste v, la hipótesis nula será aceptada o rechazada. Vamos a simbolizar esto de la siguiente forma: ‘\text{H}_{0}’: Test acepta la hipótesis nula. ‘\text{H}_{1}’: Test rechaza la hipótesis nula. De acuerdo a cada una de las dos afirmaciones realizadas bajo muestras determinadas, existen dos posibles constelaciones ciertas: \text{H}_{0}: La hipótesis nula es ‘realmente’ cierta \text{H}_{1}: La hipótesis nula es falsa, es decir la hipótesis alternativa es cierta Combinando las distintas categorizaciones de las decisiones inducidas por la muestra y la situación real se puede obtener el siguiente esquema:

Decisión basada en la muestra
\text{H}_{0} \text{H}_{1}
\text{H}_{0} Decisión cierta Error tipo II
\text{H}_{0}'|\text{H}_{0} & ‘\text{H}_{0}'|\text{H}_{1}

& P\left( '\text{H}_{0}'|\text{H}_{0}\right)=1-\alpha & P\left( '\text{H}_{0}'|\text{H}_{1}\right)=\beta
\text{H}_{1}’ & Error tipo I & Decisión cierta
& ‘\text{H}_{1}'|\text{H}_{0} & ‘\text{H}_{1}'|\text{H}_{1}
& P\left( '\text{H}_{1}'|\text{H}_{0}\right)=\alpha & P\left( '\text{H}_{1}'|\text{H}_{1}\right)=1-\beta

Esto necesita una mayor aclaración. Examinemos, primero, la naturaleza de la naturaleza de realizar una afirmación falsa o correcta bajo una hipótesis nula \text{H}_{0} que es cierta ‘en la realidad’. Supongamos, un estadístico de contraste calculado usando unas desviaciones muestrales determinadas respecto a un valor del parámetro liímite determinado \theta_{0}. De hecho, el objetivo del contraste estadístico es evaluar racionalmente esas desviaciones en términos de significancia, es decir, si las desviaciones son substancianes en términos estadísticos. Fijemos por un momento con el supuesto de una desviación substancial de forma que la realización del test v está en la región de rechazo. Siguiendo la regla de decisión establecida por el test en este caso la hipotesis nula será rechazada. No obstante, nuestra decisión no afecta al proceso que genera los datos verdaderos, y consecuentemente estaremos cometiendo un error que esperamos realizar con una probabilidad \alpha si nuestra hipótesis enuncia el verdadero valor del parámetro. Este error es apodado error tipo I o error \alpha, y su magnitud (probabilística) es lo que controlamos cuando establecemos los parámetros para el proceso de contraste. Fijando \alpha tenemos la probabilidad P\left( '\text{H}_{1}'|\text{H}_{0}\right)=\alpha como un par’ametro—nivel de significación. Aunque podemos variar el nivel de significación \alpha, no podemos impedir encontrar una constelación que ocurra con probabilidad \alpha que introducimos como error \alpha. Fijando \alpha a cero nunca se rechaza la hipótesis nula, consecuentemente el nunca rechazo de la hipótesis nula describe la realidad correctamente. La probabilidad de realizar una afirmación correcta, dada la hipótesis nula com cierta se calcula como P\left( '\text{H}_{0}'|\text{H}_{0}\right)=1-\alpha, which equals one, if we set \alpha to zero. ?’Qué hay acerca de que la decisión que podamos hacer sea cierta o falsa cuando la hipótesis alternativa tiene el verdadero valor? Si el estadístico de contraste calculado de una muestra presenta una pequeña desviación con respecto el valor de parámetro \theta propuesto en la hipótesis nula, la regla de decisión the nos lleva a no rechazar la hipótesis nula \text{H}_{0}. Esto es un error, ya que hemos dicho que \text{H}_{1} es cierto. Esta situación '\text{H}_{0}'|\text{H}_{1} se conoce comunmente como error tipo II o error \beta. Como en la situación llamada \alpha-error, no podemos despreciar el error \beta: A pesar de que es muy ‘improbable’ que la muestra obtenida de la población no se comporte como la hipótesis nula del contraste estadístico, es posible—y ocurre con una probabilidad P\left( '\text{H}_{0}'|\text{H}_{1}\right)=\beta
\left(
\theta_{1}\right), dado que la hipótesis alternativa describe la realidad correctamente. Ver que \beta depende del verdadero valor del parámetro \theta_{1}.0 Por lo tanto, nunca podemos revelar esto, y no podremos calcular esta probabilidad. Además, también están las posibilidades de que la regla de decisión implique la situación correcta, es decir, rechazar \text{H}_{0} cuando la hipótesis alternativa es cierta: '\text{H}_{1}'|\text{H}_{1}. La probabilidad condicionada de este suceso está (condicionada en que la hipótesis alternativa sea cierta):P\left( '\text{H}_{1}'|\text{H}_{1}\right)=1-\beta \left(
\theta_{1}\right). La probabilidad \beta \left( \theta_{1}\right) de cometer un error tipo II depende del nivel de significación \alpha. Disminuyendo \alpha para un tamaño muestral constante n implicará un aumento de la porbabilidad del error \beta, y viceversa. Es una situación en la que no es posible reducir \alpha y a la vez reducir también \beta. En el diagrama 4 se muestra este dilema.

Es s2 50 4.gif

Región de aceptación \text{H}_0 | Región de rechazo \text{H}_0

Es s2 50 5.gif

Región de aceptación \text{H}_0 | Región de rechazo \text{H}_0 Como ya se ha mencionado, la probabilidad de cometer un error tipo II también depende del verdadero valor del parámetro. Dado un tamaño de muestra fijo n y nivel de significación \alpha, la distancia entre \theta_{1} y \theta_{0} está inversamente relacionada con \beta
\left(
\theta_{1}\right): Cuanto mayor sea la distancia, menor es la probabilidad de generar un error de tipo II cuando la hipótesis alternativa es cierta. El diagrama 5 muestra esto para un estadístico de contraste V con distribución normal.

Es s2 50 6.gif

Región de aceptación \text{H}_0 | Región de rechazo \text{H}_0

Es s2 50 7.gif

Región de aceptación \text{H}_0 | Región de rechazo \text{H}_0 La estadística inductiva es un medio de inferir distribuciones de probabilidad (o sus características, por ejemplo parámetros como el valor esperado) de muestras con tamaño finíto por razones económicas o prácticas. Dado que estos subconjuntos de la población no transmiten toda la información sobre la distribución de una variable, es inevitable cometer errores. Lo que intentamos lograr es cuantificar y controlarlos en el sentido en que en un contexto de un muestreo repetido ocurra con una determinada probabilidad. Como ya se ha apuntado: La probabilidad de rechazo de una hipótesis es correcta (es decir, cometer un error tipo I) no excede un pequeño umbral fijado por el investigador. El no rechazo de la hipótesis nula expone al investigador al riesgo de cometer un error tipo II con una probabilidad que no puede ser cuantificada estadísticamente. Como hemos visto, como depende de el verdadero parámetro, la correspondiente probabilidad \beta puede ser ‘significativamente’ mayor que la probabilidad controlada \alpha. Por esta razón, para obtener la negación de una conjetura científica, para verificarla estadísticamente se suele formular como una hipótesis alternativa con las esperanza de rechazarla. Esta posibilidad de que la conjetura realizada sea falsa puede ser cuantificada mediante que no sea mayor que \alpha.

Potencia de un contraste

La probabilidad de rechazar la hipótesis nula como una función de todos los posibles valores del parámetro (esto es, todos los de las hipótesis nula y alternativa) se denomina potencia de un contraste, denotado por P\left( \theta\right):P\left( \theta\right)=P
\left( V \text{ es un elemento de la región de rechazo de H}_{0}\,|\,\theta\right) = P \left(
'\text{H}_{1}'|\theta\right). Si el verdadero parámetro \theta es un elemento del subconjunto del espacio parámetrico de la hipótesis alternativa, se ha realizado la decisión correcta: \left(
'\text{H}_{1}'|\text{H}_{1}\right). Por lo tanto, para todos los valores del parámetro ciertos \theta que están en consonancia con la hipótesis alternativa, la potencia mide la probabilidad de un rechazar de forma correcta la hipótesis nula (o aceptar correctamente la hipótesis alternativa): P\left(
\theta\right)= P \left( '\text{H}_{1}'|\text{H}_{1}\right)=1 - \beta\left(
\theta\right)\,
; \quad \forall \theta \in \theta_{1},donde \theta_{1} es el espacio parámetrico especificado en la hipótesis alternativa. Dado un valor verdadero del parámetro igual a \theta_{0}, El conjunto de valores bajo la hipótesis nula, la potencia da la probabilidad de realizar una decisión incorrecta, es decir, la probabilidad de la situación 
\left( '\text{H}_{0}'|\text{H}_{1}\right). Esta es una cantidad familiar, a saber, la probabilidad de cometer un error tipo I, o error \alpha:P\left( \theta\right)=
P
\left( '\text{H}_{1}'|\text{H}_{0}\right)\leq\alpha\left(
\theta\right)\,
; \quad \forall \theta \in \theta_{0},donde \theta_{0} es el espació paramétrico de la hipótesis nula. La potencia mide la fiabilidad de que el procedimiento estadístico rechace correctamente una hipótesis nula que es falsa.

Curva característica de operación (Curva CO)

La curva característica de operación es igual a 1-P\left(
\theta\right), y suministra la probabilidad de no rechazar la hipótesis nula como una función de todos los posibles \theta: 1-P\left( \theta\right)=P \left( V \text{es un elemento de región de no rechazo para H}_{0}|\theta\right)
= P \left( '\text{H}_{0}'|\theta\right). Si el verdadero parámetro \theta es un miembro del espacio paramétrico asociado con la , La curva característica de operación asigna una probabilidad de realizar incorrectamente una afirmación \left( '\text{H}_{0}'|\text{H}_{1}\right), esto es, la probabilidad de cometer un error tipo II: 1-P\left(
\theta\right)= P \left(
'\text{H}_{0}'|\text{H}_{1}\right)=\beta\left( \theta\right)\, ;
\quad \forall \theta \in \theta_{1}, donde \theta_{1} es el subconjunto paramétrico de la hipótesis alternativa. Por otra parte, si el verdadero parámetro está en el conjunto de valores especificado por la hipótesis nula, La curva característica de operación mide la probabilidad de que se de la situación, \left( '\text{H}_{0}'|\text{H}_{0}\right), es decir, realizar la decisión correcta de no rechazar la hipótesis nula:1-P\left( \theta\right)= P \left(
'\text{H}_{0}'|\text{H}_{0}\right)\geq 1- \alpha\left(
\theta\right)\, ; \quad \forall \theta \in \theta_{0},donde \theta_{0} es el conjunto paramétrico de la hipótesis nula. La forma del gráfico de La curva característica de operación (parecido a la curva de potencia) depende de

  • El estadístico de contraste y su distribución, que tienen que ser determinados no sólo bajo el valor valor límite de la hipótesis nula, además de para todos los valores admisibles,
  • el nivel des significación dado \alpha, y
  • el tamaño muestral n.

Una visión teírica en la contrastación de hipótesis estadísticas

En la ausencia de un razonamiento consistente para la actuación de la investigación empírica , la comunidad cientifica más o menos ha acordado explicitamente ciertos niveles de significación (especialmente 0.05 y 0.01). Ciertamente, esto consiste en una balanza entre el éxito cientíifico a largo plazo y el el éxito económico en términos de corto plazo. Como es imposible predecir las futuras contribuciones de un esfuerzo cientifico (mediante la naturaleza de la investigación cientifica como un proceso de transformación de conjeturas en ‘conocimiento’ o demanda de una herramienta para una solución), la economía de la ciencia como una herramienta de asignación por si misma tiene que ocuparse de la incertidumbre en el nivel de conocimiento generado para cada entorno de investigación posible (incluyendo el grado de división del trabajo, que determina el nivel de fragmentación y profundidad de muestras de conocimiento creado y por lo tanto depende altamente del objetivo de horizonte temporal, la cultura de la cooperación y la calidad de las conexiones entre las diferentes rasmas cinetíficas, el impacto de lo último varía con el grado de formulación matemática y por lo tanto la aplicabilidad de la lógica deductiva). Por estas razones, los niveles de significación elegidos no están relacionados estrechamente con una aplicación específica, ya que son convenciones en percepciones humanas de como de frecuente o ‘infrecuentemente’ ocurre. Pero incluso a un nivel más aplicado, el nivel de significancia normalmente no es el resultado de un análisis sistemático de un sistema de preferencias relevante y de las condiciones del experimento. Considerese algún problema crucial de elección pública. Decidir cuantas ambulancias tener para una determinada área, que cubran las necesidades de llevar distintos enfermos al mismo tiempo, es decir, si se quiere contrastar si tres ambulancias son suficientes, es decir, no más de tres ciudadanos se ponen criticamente enfermos al mismo tiempo, ?’Donde se fijaría el nivel de significación? estableciéndolo en cero implicaría la decicisión de comprar tantas ambulancias como ciudadanos existan, ya que uno no puede rechazar la posibilidad de una posible epidemia y que se pongan todos los ciudadanos enfermos a la vez. Claramente, esto no es posible en una socidad como un todo. No importa el nivel de significación elegido—tiene que aceptarse que la posibilidad de que ocurra un suceso de este tipo en la comunidad es bastante improbable. En el ejemplo superior, la elección de un nivel de significacón adecuado es —más o menos— arbitrario, debido al menos a un elemento importante de la especificación de un problema de decicisióhn no puede ser observado o formalizado: a un nivel general de la investigación, los futuros beneficios son desconocidos y no pueden ser comparados al inicio de la investigación con el gasto realizado, dado que la valoración de estos beneficios no se puede realizar. A un nivel más aplicado, la investigación en sanidad o otras areas relacionadas con el bienestar humano no se pueden racionalizar debido a la intangibilidad de los ‘articulos’ (es decir, la salud). Pero hay aplicaciones que pueden ser reducidas a un análisis de coste beneficio. Llevando a cabo muestras de control de calidad en una empresa, por ejemplo, requiere de un inspector que cuantifique el impacto de una determinada proporción de productos defectuosos es razonablemente admisible. Se puede determinar el número de árticulos devueltos y la pérdida resultante en ventas. Supongamos que se quiere llevar a cabo un contraste por la derecha sobre el parámetro \theta: \text{H}_{0}:
\theta \leq \theta_{0} and \text{H}_{1}: \theta > \theta_{0} Se supone que el estadístico de contraste V tiene una distribución normal. La región de rechazo de \text{H}_{0} es el conjunto de todas las realizaciones estadísticas v mayores que el valor crítico c: \left\{ v|V>c\right\}. La probabilidad de que un test estadístico tome un valor dentro de la región de rechazo es igual al nivel de significación dado, \alpha =
P \left( V>c|\theta_{0}\right), y se visualiza como el área verde del siguiente gráfico

Es s2 50 m1 1.gif

región de aceptación \text{H}_0 | región de rechazo \text{H}_0 La decisión se realiza comparando el valor del test estadístico con el valor teórico si excede con la probabilidad \alpha: Es el valor del test estadístico, calculado para un tamaño muestral concreto n, s es mayor que el valor crítico, se rechaza la hipótesis nula. El valor crítico divide la distribución de todos los posibles valores del estadístico de contraste en dos conjuntos con probabilidades \alpha y 1-\alpha. Paquetes populares de stadística (ejemplo SAS, SPSS, Statistica, Systat, XploRe) no sólo calculan el valor del estadístico v, sino que dan también el denominado p-valor. Esta es la probabilidad teórica de que V tome un valor mayor que el calculado de acuerdo con la muestra: P\left( V>v|\theta_{0}\right). El p-valor se llama a veces significación, y lo denotaremos por p=P\left( V>v|\theta_{0}\right). El supuesto crucial que está debajo de esto cálculo es que V tenga la misma distribución que la variable que se quiere estudiar con parámetro \theta_{0}. En el siguiente diagrama se muestra p mediante el área azul.

Es s2 50 m1 2.gif

Como el p-valor representa la frontera del nivel de significación de aceptación o rechazo de la hipótesis nula, el usuario no necesita mirar el valor crítico que corresponde a un determinado nivel de significación en la tabla de la función de distribución acumulada para el estadístico de contraste V. Sólo se necesita comparar \alpha con el p-valor: Si el valor del estadístico v, calculado de una determinada muestra, es ‘substancialmente’ mayor que el valor del parámetro hipotético \theta_{0}, el p-valor será relativamente pequeño. Recuerdese que la hipótesis nula asevera un valor del parámetro menor que \theta_{0}, consecuentemente la realiezación del test mayores que \theta_{0} son más dificiles de reconciliar con la hipótesis nula que aquellos que están en el rango del parámetro que se postula. Cuanto ‘más’ lejano v esté de \theta_{0}, menos probable es que haya sido generado muestreando por una distribución de población con \theta menor o igual que \theta_{0}. Basado en la distribución de población con parámetro \theta_{0}, el p-valor es la probabilidad de observar v. En nuestro ejemplo, esto se convierte en menos probable con un incremento de v, y un v suficientemente grande inducirá a inferir que \theta_{0} y \theta difieren significativamente. De hecho, podemos imaginar valores del estadístico de contraste v grandes, que lleven al rechazo de la hipótesis nula para un nivel de signifación \alpha pequeño calculando el cuantil 1-\alpha de la distribución del estadístico de contraste con parámetro \theta_{0}. El p-valor es el resultado del cálculo inverso: Dada una observación de V, nos dice como de probable es que ocurra una distancia con respecto a \theta_{0}. Cuando esta probabilidad es pequeña, el riesgo de cometer un error en el rechazo de la hipótesis nula es pequeño. Vamos a traducir estas consideraciones en una regla de decisión: Un p-valor menor que \alpha es el reflejo de un valor del estadístico de contraste v que cae en la región de rechazo de \text{H}_{0} para un nivel de significación \alpha. Por lo tanto, la hipótesis nula será rechazada. Esto es verdad para contrastes por la derecha y por la izquierda, dado que no tenemos especificado como se calcula p. En nuestro ejemplo, es p=P\left( V>v|\theta_{0}\right), pero para el contraste por la izquierda sería p=P\left( V<v|\theta_{0}\right). El siguiente diagrama muestra la situación del contraste por la izquierda.

Es s2 50 m1 3.gif

Región de aceptación \text{H}_0 | Región de rechazo \text{H}_0 Si la muestra implica un valor del estadístico de contraste v cercano al valor hipotético \theta_{0}, la validez de la hipótesis nula parecerá ‘relativamente’ plausible. La probabilidad de que el test V tome valores mayores que v, es decir, más alejado de \theta_{0} que v, es relativamente alta. En otras palabras, \theta_{0} y v están lo suficientemente cercanas para interpretar su distancia como resultado del ruido creado por el proceso muestral. Consecuentemente, \text{H}_{0} no será rechazada. Por lo tanto, la siguiente regla de decisión: Para p>\alpha la realización del test v es un elemento de la región de aceptación de \text{H}_{0}, y la hipótesis nula no es rechazada. Una vez que esta regla se cumpla tanto para test con dos colas como con una, el cálculo de p se puede realizar adecuadamente

Es s2 50 m1 4.gif

Región de aceptación \text{H}_0 | Región de rechazo \text{H}_0 Los contrates estadísticos son procesos para la verificación de supuestos sobre distribuciones de probabilidad desconocidas o sus parámetros. El ‘comportamiento’ de varibles aleatorias de la población es inferido de una muestra de tamaño finito, restringida por motivos prácticos o económicos. Este caracter inductivo las hace un importante pilar de la estadística inductiva, la segunda rama es el proceso de estimación estadístico. Vamos a ilustrar la teoría que hemos introducido en esta sección con algún ejemplo práctico. Una gran compañia de programación tiene un juicio y los medios de información lo cubren intensamente. La dirección quiere evaluar el impacto del juicio en los ingresos. Las ventas antes del juicio son conocidas, utilizandolas como valor hipotético que se va a contrastar. Se calcula la media de una muestra aleatoria de los ingresos mensuales tras el juicio. Los directores están particularmente interesados si los ingresos han caido y preguntan a un estadístico que contraste la hipótesis de que los ingresos han disminuido desde el comienzo del juicio. Por lo tanto, el ingreso mensual se trata como una variable aleatoria, y el contraste se basa en su media. Una organización medioambiental dice que la proporción de individuos que se oponen a la energia nuclear es 60
\%. Los operadores de las plantas de las centrales nucleares consideran este valor exagerado y delegan un análisis estadístico basado en una muestra aleatoria. Se va a medir la variable ‘actitud respecto a la energía nuclear’ mediante dos valores, por ejemplo ‘a favor’ y ‘en contra’. Por lo tanto, un investigador contrasta la media de una distribución de población de una variable dicotómica: ?’Puede ser válido un valor hipotético de 0.6 con esta muestra? En ambos casos, se contrasta un parámetro desconocido de la distribución de probabilidad. El procedimiento de contraste realizado se conoce como contraste paramétrico. Más aún, como están basados en una sola muestra, se llaman contrastes unimuestrales. Dos productores de teléfonos móviles lanzan campañas de publicidad indicando que tienen la mayor batería. Claramente, uno de los dos está equivocado—dado que medir la batería se puede precisar bastante bien, la media del tiempo de duración no será la misma y que la duración varíe entre los distintos teléfonos, es decir es una variable aleatoria. Una organización de consumo quiere evaluar si los teléfonos celulares de las dos empresas difieren significativamente respecto a la duración de la batería. Un investigador se basa en la media para evaluar las fluctuaciones en la duración. Se obtienen muestras independientes de los dos fabricantes a fin de comparar la localización media de al duración medida por las medias muestrales. Se busca si existen diferencias significacitivas o no. El proceso de contraste aplicado es un contraste paramétrico, como un test de igualdad de dos medias. Esto se puede realizado mediante dos muestras: Este es un ejemplo un contraste de dos muestras. Una persona desea morir, es lo que los estadísticos llaman muerte dulce: la probabilidad de cualquier suceso es la misma. El procedimiento tiene una distribucón discreta. Este contraste no se refiere a un parámetro de la distribución subyacente, es decir, no toma una particular clase de distribución. Consecuentemente, se clasifica como un contraste no paramétrico o contraste de distribución libre. Este particular tipo pertenece a la clase de contraste de bondad de ajuste, en los que se quiere verificar como es de posible que la muestra haya sido generada por determinada distribución de probabilidad teórica.