Probabilidad De Ocurrencia

Probabilidad De Ocurrencia

Probabilidad condicional

Probabilidad condicional es la probabilidad de algún evento A, dada la ocurrencia de algunas B otro evento. probabilidad condicional se escribe P (A | B), y se lee “el condicional) la probabilidad (de A, dado B” o “la probabilidad de A bajo la condición B”. Cuando en un experimento aleatorio del evento B se sabe que han ocurrido, los posibles resultados del experimento se reduce a B, y por lo tanto la probabilidad de la ocurrencia de A pasa a la probabilidad incondicional en la probabilidad condicional de B dado.

Notación

En la notación P (A | B) el símbolo P se utiliza, sólo como una referencia a la probabilidad original. No debe entenderse como la probabilidad P de un suceso A | B. A veces el más preciso notación P B (A) se utiliza, pero el uso de eventos complejos como el índice del símbolo P es engorroso. Observe que la línea que separa los dos eventos A y B es una línea vertical . Terminología

probabilidad conjunta es la probabilidad de dos eventos en conjunto. Es decir, es la probabilidad de ambos eventos juntos. La probabilidad conjunta de A y B se escribe \ Scriptstyle P (A \ cap B), P (AB) o \ Scriptstyle P (A, B)

probabilidad marginal es entonces el incondicional probabilidad P (A) del evento A, es decir, la probabilidad de A, independientemente de si el evento B hizo o dejó de ocurrir. Si B se puede considerar como el caso de una variable aleatoria X que tiene un resultado dado, la probabilidad marginal de A se puede obtener por síntesis (o la integración , más en general) las probabilidades de conjunto sobre todos los resultados de X. Por ejemplo, si hay dos resultados posibles para X, con sus correspondientes eventos B y B ‘, esto significa que \ Scriptstyle P (A) = P (A \ cap B) + P (A \ ^ tapa B ‘) . Esta es la marginación llamada.

En estas definiciones, tenga en cuenta que no tiene por qué ser una causal o temporal relación entre A y B. A puede preceder a B o viceversa, o que puede ocurrir al mismo tiempo. A puede causar B o viceversa, o que pueden no tener relación de causalidad en absoluto. Nótese, sin embargo, que las relaciones causales y temporales son nociones informales, que no pertenecen al marco probabilístico. Se puede aplicar en algunos ejemplos, según la interpretación dada a los acontecimientos.

Acondicionamiento de las probabilidades, es decir, su actualización para tener en cuenta (posiblemente nueva) información, se puede lograr a través de “teorema de Bayes . En este tipo de condicionamiento, la probabilidad de un sólo dado que la información inicial, P (A | I), se conoce como la probabilidad a priori . La probabilidad condicional de una actualización, teniendo en cuenta que así como los resultados del evento B, se conoce como la probabilidad a posteriori , P (A | B, I). Introducción

En cuenta la situación simple de lanzar dos equilibrados de seis caras de dados , etiquetados morir una y mueren 2. Definir los siguientes tres eventos (no supone que se producen al mismo tiempo):

R:Muere uno aterriza en 3.

B:Die 2 aterriza en uno.

C:La suma de los dados a 8.

La probabilidad previa de cada caso se describe la probabilidad de que el resultado es antes de que se lanzan los dados, sin ningún conocimiento de roll resultado. Por ejemplo, mueren 1 es la misma probabilidad de caer en cada una de sus seis lados, por lo que P (A) = 1 / 6. Del mismo modo P (B) = 1 / 6. Del mismo modo, de los 6 × 6 = 36 formas posibles en que un par de dados pueden aterrizar, a sólo 5 como resultado una suma de 8 (a saber, 2 y 6, 3 y 5, 4, 5 y 4, y 3, 6 y 2), entonces P © = 5 / 36.

Algunos de estos eventos pueden ocurrir tanto en el momento mismo, por ejemplo los eventos A y C puede ocurrir al mismo tiempo, en el caso de que muera uno aterriza en 3 y mueren dos tierras, el 5. Este es el único de los 36 resultados que ambos A y C se producen, por lo que su probabilidad es 1 / 36. La probabilidad de que A y C presentado se llama la probabilidad conjunta de A y C y por escrito P (A tope \ C) , Por lo que P (A tope \ C) = 1 / 36 . Por otro lado, si mueren dos tierras en 1, los dados no se puede sumar a 8, por lo que P (B \ cap C) = 0 .

Ahora supongamos que tirar los dados y cubrir mueren 2, así que sólo podemos ver morir una, y observar que mueren un aterrizó el 3. Teniendo en cuenta esta información parcial, la probabilidad de que la suma dados a 8 ya no es 5 / 36, sino que es 1 / 6, ya que mueren dos debe aterrizar el 5 para lograr este resultado. Esto se conoce como la probabilidad condicionada, ya que es la probabilidad de C con la condición de que A se observa, y se escribe P la probabilidad (de C dado una. “C A), que se lee |” Del mismo modo, P (C | B) = 0, ya que si observamos mueren dos aterrizó en una, ya sabemos los dados no se puede sumar a 8, con independencia de lo que el otro dado aterrizó en.

Por otro lado, si se tiran los dados y cubrir mueren 2, y observar mueren 1, esto no tiene ningún impacto en la probabilidad del evento B, que sólo depende de morir 2. Decimos que los eventos A y B son estadísticamente independientes o independientes, justas y en este caso

En otras palabras, la probabilidad de B que ocurren después de observar que mueren un aterrizó el 3 es el mismo que antes de morir se observó una.

Intersección de eventos y eventos condicionales están relacionados por la fórmula:

En este ejemplo, tenemos:

Como se señaló anteriormente, , Así que por esta fórmula:

El multiplicador a través de por P (A),

En otras palabras, si dos eventos son independientes, su probabilidad conjunta es el producto de las probabilidades antes de cada evento que se produzca por sí mismo.

Definición

Dado un espacio de probabilidad (Ω, F, P) y dos eventos A, B ∈ F con P (B)> 0, la probabilidad condicional de A dado B se define por

Si P (B) = 0, entonces P (A | B) es indefinido (véase la paradoja de Kolmogorov-Borel para una explicación). Sin embargo, es posible definir una probabilidad condicional con respecto a una σ-álgebra de eventos (como las derivadas de una variable aleatoria continua ).

Por ejemplo, si X e Y son no degenerados y conjuntamente variables aleatorias continuas con densidad ƒ X, Y (x, y) entonces, si B tiene efectos positivos medida ,

El caso en que B tiene cero medida sólo puede ser tratado directamente en el caso de que B = {0} y, lo que representa un solo punto, en cuyo caso

Si A tiene medida cero, entonces la probabilidad condicional es cero. Una indicación de por qué el caso más general de cero medida no puede ser tratado de una manera similar se puede ver observando que el límite, ya que todos planteamiento i DELTA.y cero, de

depende de su relación cuando se acercan a cero. Ver esperanza condicional para obtener más información. Derivación

La siguiente derivación y se toma de Snell Grinstead Introducción a la probabilidad.

Que Ω un espacio muestral con la probabilidad P. Supongamos el caso de Se ha producido una alteración probabilidad P (ω} para reflejar el hecho de que E ha ocurrido. (A continuación vamos a omitir el rizado entre paréntesis.)

Para todos los \ Omega \ no \ en E queremos asegurarnos de que el intuitivo resultado de P (ω | E) = 0 es verdadera.

Además, sin información adicional proporcionada, podemos estar seguros de que la magnitud relativa de las probabilidades se conserva:

Este requisito nos lleva a afirmar:

donde α es una constante positiva o factor de escala real para reflejar el requisito anterior.

Ya que sabemos que E ha ocurrido, podemos afirmar P (E)> 0 y:

Por lo tanto

Por otro acontecimiento F esto conduce a:

Resultados

De la definición

la regla de partición

se pueden derivar. A partir de aquí la forma extendida de “teorema de Bayes se puede encontrar:

Estadística independencia

Dos al azar eventos A y B son estadísticamente independientes si y sólo si

Así, si A y B son independientes, entonces la probabilidad conjunta se puede expresar como un simple producto de sus probabilidades individuales.

De manera equivalente, por dos eventos independientes A y B con no-cero probabilidades,

y

En otras palabras, si A y B son independientes, entonces la probabilidad condicional de A dado B es simplemente la probabilidad individual de una sola, del mismo modo, la probabilidad de B dado A es simplemente la probabilidad de B solo. La falacia de probabilidad condicional Artículo principal: La confusión de la inversa

La probabilidad condicional falacia es la suposición de que P (A | B) es aproximadamente igual a P (B | A). El matemático John Allen Paulos explica en su libro Innumeracy , [2] donde se señala que es un error frecuente, incluso por los médicos, abogados, y otros altamente educados no estadísticos . Puede ser superada mediante la descripción de los datos en cifras reales en lugar de probabilidades.

La relación entre P (A | B) y P (B | A) está dada por el teorema de Bayes :

En otras palabras, uno sólo puede suponer que P (A | B) es aproximadamente igual a P (B | A) si las probabilidades a priori P (A) y P (B) también son aproximadamente iguales. Un ejemplo

En la construcción, pero realista, la siguiente situación, la diferencia entre P (A | B) y P (B | A) puede ser sorprendente, pero es obvio en el mismo tiempo.

Con el fin de identificar a los individuos que tienen una enfermedad grave en forma temprana puede curar, se puede considerar la investigación un grupo grande de personas. Si bien los beneficios son evidentes, un argumento en contra de tales exámenes es la perturbación causada por falsos positivos resultados de la evaluación: si no una persona que tenga la enfermedad no está bien que se encuentran con que tienen por la prueba inicial, lo más probable es que se angustia, e incluso si posteriormente tomar un examen más cuidadoso y se les dice que están bien, su vida aún puede verse afectada negativamente. Si se comprometen tratamiento innecesario para la enfermedad, que puede resultar dañado por los efectos secundarios del tratamiento y los costos.

La magnitud de este problema se entiende mejor en términos de probabilidades condicionales.

Supongamos que el 1% del grupo sufre de la enfermedad, y el resto están bien. Elección de un individuo al azar,

P (III) = 1% = 0.01 y P (y) = 99% = 0,99.

Supongamos que cuando la prueba de detección se aplica a una persona que no tenga la enfermedad, hay un 1% de probabilidad de obtener un resultado falso positivo (y por lo tanto 99% de posibilidades de obtener un resultado negativo verdadero), es decir,

P (positivo | y) = 1%, y P (negativo | y) = 99%.

Por último, supongamos que cuando la prueba se aplica a una persona que tenga la enfermedad, hay un 1% de probabilidad de un resultado falso negativo (y el 99% de posibilidades de conseguir un resultado positivo verdadero), es decir,

P (negativo | enfermo) = 1% y P (positivo | enfermo) = 99%.

Cálculos

La fracción de individuos en todo el grupo que están bien y prueba negativa (verdaderos negativos):

La fracción de individuos en todo el grupo que están enfermos y positivo de la prueba (verdaderos positivos):

 

La fracción de individuos en todo el grupo que tienen resultados positivos falsos:

La fracción de individuos en todo el grupo que tienen resultados negativos falsos: h ttp://upload.wikimedia.org/math/2/b/4/2b4410eec7a355fba2aa430ca7f816bb.png

Por otra parte, la fracción de individuos en todo el grupo con resultados positivos:

 

Por último, la probabilidad de que una persona realmente tiene la enfermedad, dado que el resultado de la prueba es positiva:

Conclusión

En este ejemplo, debería ser fácil de relacionar a la diferencia entre las probabilidades condicionales P (positivo | enfermo) que con las probabilidades supone un 99%, y P (enfermo | positivo) que es del 50%: la primera es la probabilidad de que un individuo que tiene la enfermedad pruebas positivas, y el segundo es la probabilidad de que una persona que da positivo en realidad tiene la enfermedad. Con los números elegidos aquí, el último resultado es probable que sea considerado inaceptable: la mitad de las personas con resultados positivos son realmente positivos falsos. Segundo tipo de falacia probabilidad condicional

Otro tipo de falacia es la interpretación de las probabilidades condicionales de eventos (o una serie de eventos) como (incondicional) de probabilidades, o ver como están en el mismo orden de magnitud. La probabilidad condicional de un evento y su total) probabilidad (están vinculados entre sí a través de la fórmula de la probabilidad total , pero sin una información adicional de ellos dice poco sobre el otro. La falacia para ver la P (A | B) como P (A) o de estar cerca de P (A) está a menudo relacionado con algunas formas de sesgo estadístico , pero puede ser sutil.

Aquí está un ejemplo: Una de las condiciones para el legendario héroe del lejano oeste Wyatt Earp haberse convertido en una leyenda que han sobrevivido en todos los duelos que luchó. De hecho, se ha informado de que nunca fue herido, ni siquiera arañado por una bala. La probabilidad de que esto ocurra es muy pequeña, que contribuyen a su fama ya que los eventos de las probabilidades muy pequeñas llamar la atención. Sin embargo, el punto es que el grado de atención depende en gran medida del observador. Alguien impresionado por un evento específico (en este caso ver a un “héroe”) es propenso a ver los efectos de la aleatoriedad de manera diferente de los que son menos impresionado.

En general no tiene mucho sentido hacer después de la observación de una notable serie de acontecimientos, “¿Cuál es la probabilidad de esto?”, Lo cual es una probabilidad condicional basada en la observación. La distinción entre las probabilidades condicionales e incondicionales pueden ser complicados si el observador que se pregunta “¿Cuál es la probabilidad?” es sí mismo un resultado de una selección al azar. El nombre de “Wyatt Earp efecto” fue acuñado en un artículo “Der Wyatt Earp Effekt” (en alemán) que muestra a través de varios ejemplos de su sutileza y su impacto en diversos ámbitos científicos. Acondicionamiento en una variable aleatoria

También hay un concepto de la probabilidad condicional de un evento dado un discreto variable aleatoria . Tal probabilidad condicional es una variable aleatoria por derecho propio.

Supongamos que X es una variable aleatoria que puede ser igual ya sea a 0 o 1. Como el anterior, se puede hablar de la probabilidad condicional de cualquier evento A dado el caso X = 0, y también de la probabilidad condicional de A dado el caso X = 1. La primera se denota P (A | X = 0) y el segundo P (A | X = 1). Ahora definir una nueva variable aleatoria Y, cuyo valor es P (A | X = 0) si X = 0 y P (A | X = 1) si X = 1. Eso es

 

Esta nueva variable aleatoria Y se dice que es la probabilidad condicional del evento A dada la variable aleatoria discreta X:

 

Según la “ ley de la probabilidad total “, el valor esperado de Y es sólo el marginal (o “incondicional”) la probabilidad de A.

De manera más general aún, es posible hablar de la probabilidad condicional de un evento dado un sigma-álgebra. Ver esperanza condicional .

Conditional probability. (2011, April 26). In Wikipedia, The Free Encyclopedia. Retrieved 02:30, May 2, 2011, from http://en.wikipedia.org/w/index.php?title=Conditional_probability&oldid=426078157


Mis sitios nuevos:
Emprendedores
Politica de Privacidad