Probabilidad Condicionada e Independencia de Sucesos

From MM*Stat International

Jump to: navigation, search
English
Português
Français
‎Español
Italiano
Nederlands


Probabilidad Condicionada

Sean A y B dos sucesos definidos en el espacio muestral S. La probabilidad condicionada de A dado B, se define como P(A|B)=\frac{P(A\cap B)}{P(B)},\text{ para }P(B)>0 La probabilidad condicionada supone que B ha ocurrido y pregunta cual es la probabilidad de que ocurra A.  Suponiendo que ha ocurrido B, tenemos que definir un nuevo espacio muestral S=B   y una nueva medida de probabilidad P(A|B).. Si B=A_{2}\cap A_{3} entonces se puede escribir P(A_{1}|A_{2}\cap A_{3})=\frac{P(A_{1}\cap A_{2}\cap A_{3})}{P(A_{2}\cap A_{3})},\text{ para }P(A_{2}\cap A_{3})>0 También, podemos definir la probabilidad condicionada de B dado A: P(B|A)=\frac{P(A\cap B)}{P(A)},\text{ for }P(A)>0

Regla del Producto

Reconfigurando la definición de probabilidad condicionada, se puede extraer una fórmula para la probabilidad de la ocurrencia simultánea de A Y B: P(A\cap B)=P(A)\cdot P(B|A)=P(B)\cdot P(A|B) y, de forma análoga, P(A_{1}\cap A_{2}\cap A_{3})=P(A_{1})\cdot P(A_{2}|A_{1})\cdot P(A_{3}
|A_{1}\cap A_{2}) Generalizando para los sucesos A_{2},A_{2},\ldots A_{n}: P(A_{1}\cap\ldots\cap A_{n}=P(A_{1})\cdot P(A_{2}|A_{1})\cdot P(A_{3}
|A_{1}\cap A_{2})\cdot\ldots\cdot P(A_{n}|A_{1}\cdot\ldots\cdots A_{n-1})

Sucesos Independientes

La noción subyacente al concepto de probabilidad condicionada es que la información a priori referente a la ocurrencia de sucesos generalmente influye en las probabilidades de otros sucesos.  (Por ejemplo, si uno sabe que alguien es un fumador, entonces se le puede asignar una probabilidad mayor de contraer cancer de pulmón).  En general,  se espera.P(A)\neq
P(A|B) El caso P(A)=P(A|B) tiene una interpretación importante.  Si la probabilidad de que ocurra A se mantiene igual, haya ocurrido o no el suceso B, diremos que los dos sucesos son estadísticamente (o estocásticamente) independientes. (Por ejemplo, el hecho de conocer si una persona es alta o no, no afectará a la evaluación de que ese individuo desarrolle un cancer de pulmón.) Definimos la independencia estocástica de dos sucesos A y B mediante la condición P(A\cap B)=P(A)\cdot P(B)que implica que las siguientes condiciones se cumplenP(A)=P(A|B)P(B)=P(B|A)P(A|B)=P(A|\overline{B})P(B|A)=P(B|\overline{A}) La condición del producto definida para la independencia estadística de dos sucesos también es aplicable para n sucesos independientes: P(A_{1}\cap\ldots\cap A_{n})=P(A_{1})\cdot\ldots\cdot P(A_{n}) Para establecer la independencia estadística de n sucesos, se debe garantizar que la regla del producto se cumple para cualquier conjunto de sucesos. Esto es P\left(  A_{i_{1}}\cap\ldots\cap A_{i_{m}}\right)  =P\left(
A_{i_{1}}\right) \cdot\ldots\cdot P\left(  A_{i_{m}}\right)
,\text{ para }i_{1},\ldots ,i_{m}\text{ enteros distintos }<n Es importante no confundir independencia estocástica con el concepto de exclusión mutua.. Por ejemplo, si dos sucesos A y B con P(A)>0 y P(B)>0, son mutuamente excluyentes entonces P(A\cap B)=0, como P(\emptyset)=0 y A\cap B=\emptyset.  En cuyo caso P(A\cap B)\neq P(A)\cdot P(B). Un pequeño ejemplo puede clarificar la diferencia entre independencia y mutua exclusión (regata Cambridge contra Oxford): pincha en el símbolo del altavoz.

Tabla de Doble Entrada

En muchas aplicaciones el investigador está interesado en asociaciones entre dos variables categóricas. El caso más simple es cuando se observan dos variables binarias, es decir, Hay dos variables, cada una con dos posibles resultados.   Por ejemplo, que para un proceso de selección aleatorio en individuos se observa si fuma o no, y si tiene enfisema o no. Sea A el resultado de que el individuo fume y B el de que el individuo tenga enfisema.  Podemos construir espacios muestrales separados \left\{ A,\overline{A}\right\} y \left\{
B,\overline{B}\right\} .para cada una de las dos variables. De forma alternativa, podemos construir un espacio muestral de pares ordenados: S=\left\{  \left(  A,B\right)  ,\left(  A,\overline{B}\right)  ,\left(
\overline{A},B\right)  ,\left(  \overline{A},\overline{B}\right)  \right\} En la tabulación de los datos de esta forma, simplemente se cuentan el número de individuos que corresponden a cada uno de los cuatro resultados básicos. no se pierde información respecto a las variables individuales porque siempre podemos obtener las frecuencias para las dos categorías de ambas variables mediante la suma de las catergorías de la otra variable.  Por ejemplo, para calcular el número de individuos que tienen enfisema, sumamos todos aquellos que tienen enfisema y fuman (es decir, (A,B)) y todos aquellos que no fuman y tienen enfisema (es decir, (A,\overline{B})).  Las frecuencias relativas para las categorías de las variables individuales se denominan frecuencias relativas marginales. Las frecuencias relativas que surgen de datos categóricos bivariantes se muestran normalmente mediante una tabla de doble entrada de las dos variables. Las frecuencias marginales se adjuntan mediante la suma de las columnas/filas que representan las categorías de cada variable.  La matriz resultante se denomina tabla de contingencia de (r\times c), donde r y c se refiere al número de categorías observadas para cada variable. En nuestro ejemplo, para dos categorías por cada variable, tenemos una tabla de contingencia de (2\times2). Vamos a resumir las probabilidades asociadas con cada resultado básico en una tabla similar:

B \overline{B} Suma
A P(A\cap B) P(A\cap\overline{B}) P(A)
\overline{A} P(\overline{A}\cap B) P(\overline{A}\cap\overline{B}) P(\overline{A})
Suma P(B) P(\overline{B}) P(S)=1

La estructura de esta tabla es particularmente útil para contrastar la independencia entre sucesos. Recuerdese que la probabilidad conjunta de dos sucesos independientes se puede calcular como el producto de las probabilidades de los dos sucesos individuales. En este caso, queremos verificar si las probabilidades conjuntas del cuerpo principal de la tabla son iguales al producto de las probabilidades marginales.  Si no lo son, entonces los sucesos son independientes.  Por ejemplo, bajo independencia, tenemos \ P(A)\,P(B)=P(A\cap B) Si se reemplazan las probabilidades de la tabla superior por sus frecuencias muestrales, entonces la independencia implica que las probabilidades conjuntas estimadas son aproximadamente iguales al producto de las probabilidades marginales estimadas.  Un procedimiento formal para contrastar la independencia se verá con posterioridad. En la tabla inferior se muestran las probabilidades de dos variables binarias. ?‘Son las variables representadas por los sucesos \left\{ A,\overline{A}\right\}  respectivamente \left\{ B,\overline{B}\right\}  (mutuamente) independientes?

B \overline{B} Suma
A 1/3 1/6 1/2
\overline{A} 1/3 1/6 1/2
Suma 2/3 1/3 1

Por la condición del producto que la independencia debe satisfacer, las celdas interiores de la tabla de contingencia deben ser iguales al producto de sus correspondientes probabilidades marginales. Esto es cierto para las cuatro celdas:

B \overline{B} Suma
A 1/3=1/2\cdot2/3 1/6=1/2\cdot1/3 1/2
\overline{A} 1/3=1/2\cdot2/3 1/6=1/2\cdot1/3 1/2
Suma 2/3 1/3 1

En este ejemplo especial con dos variables binarias no es necesario que verifique la validez de la regla del producto para cada una de las cuatro celdas. Como ya hemos visto, la independencia estadística de dos sucesos implica la independencia estadística de sus complementarios. Consecuentemente, si la condición del producto se mantiene para una de las cuatro celdas, también se debe de mantener para las restantes tres celdas. Esto sólo es cierto debido a que los dos sucesos considerados para las dos variables son complementarios. Un maestro y su aprendiz producen tornillos manualmente. Los siguientes datos se recogieron durante el año 1998:

Producción total: 2000 tornillos
Grupo 1 1400 tornillos
(el maestro) 1162 tornillos buenos
238 tornillos defectuosos
Grupo 2 600 tornillos
(el aprendiz) 378 tornillos buenos
222 tornillos defectuosos

?‘Cuál es la probabilidad de que un tornillo seleccionado aleatoriamente no tenga fallo dado que ha sido producido por el maestro? A fin de calcular esta probabilidad, usaremos la siguiente notación:A = {el tornillo es bueno}B = {tornillo producido por maestro}C = {tornillo producido por el aprendiz} La situación se puede mostrar en un diagrama de Venn: Es folnode7 d k 1.gif Queremos calcular P(A|B). Esta se define como P(A|B)=P(A\cap B)/P(B). El suceso A\cap B corresponde a seleccionar un tornillo bueno producido por el maestro. Para calcular la probabilidad P(A\cap B), dividimos el número de tornillos con esta propiedad entre el total de tornillos: P(A\cap
B)=1162/2000. La probabilidad P(B) puede ser calculada como la fracción del número de tornillos producidos por el maestro entre el número total de tornillos: P(B)=1400/2000. De esta manera obtenemos: P(A|B)=1162/1400=0.83\,. Queremos mostrar que: Para un par de sucesos independientes A y B tenemos P(A) = P(A|B). Supongamos que los sucesos A y B son independientes. Entonces tenemos P(A|B)=\frac{P(A\cap B)}{P(B)}=\frac{P(A)\,P(B)}{P(B)}=P(A) Es folnode7 d mi 1.gif De forma similar, podemos mostrar que P(B|A) = P(B). Después supongamos que P(A)=P(A|B)queremos mostrar que esto implica la regla del producto, es decir, que A y B son independientes: \begin{align}
P(A|B)  &  =\frac{P(A\cap B)}{P(B)}=P(A)\\
\,\,\,P(A\cap B)  &  =P(A)\cdot P(B)\\
&\end{align} Ciertamente, la independencia estadística puede ser definida equivalentemente de muchas formas.