Eventos Mutuamente Excluyentes

Eventos Mutuamente Excluyentes

Independencia (teoría de la probabilidad)

En teoría de la probabilidad , por no decir que dos eventos son independientes intuitivamente significa que la ocurrencia de un evento que hace ni más ni menos probable que el otro se produce. Por ejemplo:

El caso de obtener un 6, la primera vez que se lanza un dado y el caso de obtener un 6, la segunda vez que son independientes.

Por el contrario, el hecho de obtener un 6, la primera vez que se lanza un dado y el caso de que la suma de los números que ve en la primera y la segunda es de 8 ensayos no son independientes.

Si dos cartas son repartidas con el reemplazo de una baraja de cartas, el hecho de sacar una tarjeta roja en el primer juicio y que de sacar una tarjeta roja en el segundo ensayo son independientes.

Por el contrario, si dos cartas son repartidas sin reemplazo de una baraja de cartas, el hecho de sacar una tarjeta roja en el primer juicio y que de sacar una tarjeta roja en el segundo juicio no son más independientes.

Del mismo modo, dos variables aleatorias son independientes si la distribución de probabilidad condicional de cualquiera dado el valor observado de la otra es la misma que si el otro valor no se había observado. El concepto de independencia se extiende a tratar con colecciones de más de dos eventos o variables aleatorias.

En algunos casos, el término “independiente” se sustituye por “estadísticamente independientes”, “marginalmente independiente”, o “absolutamente independiente”.

eventos independientes

La definición estándar dice:

Dos eventos A y B son independientes si y sólo si Pr (A ∩ B) = Pr (A) Pr (B).

Aquí A ∩ B es la intersección de A y B, es decir, es el caso de que ambos eventos A y B ocurren.

Más en general, cualquier conjunto de eventos-posiblemente más que sólo dos de ellos-son mutuamente independientes si y sólo si para cada subconjunto finito A 1, …, A n de la colección que hemos

Esto se conoce como la regla de multiplicación para eventos independientes. Tenga en cuenta que la independencia de esta norma requiere para sostener a cada subconjunto de la colección, véase [2] para un evento de ejemplo, tres en los que y sin embargo no hay dos de los tres eventos son independientes dos a dos.

Si dos eventos A y B son independientes, entonces la probabilidad condicional de A dado B es la misma que la incondicional (o marginales) la probabilidad de A, es decir,

Hay por lo menos dos razones por las que esta declaración no se toma como la definición de la independencia: (1) los dos eventos A y B no desempeñan un papel simétrico en esta declaración, y (2) los problemas surgen con esta declaración cuando los acontecimientos de la probabilidad 0 están involucrados.

La probabilidad condicional del evento A dado B viene dada por

(Siempre y cuando Pr (B) ≠ 0)

La declaración anterior, cuandohttp://upload.wikimedia.org/math/6/6/6/6669d1b65ae4b3060dc4781e3c8b7110.png es equivalente a

que es la definición estándar dada anteriormente.

Tenga en cuenta que un evento es independiente de sí mismo si y sólo si

Es decir, si su probabilidad es uno o cero. Así, si un evento o su complemento es casi seguro que se produce, es independiente de sí mismo. Por ejemplo, si un evento es la elección de cualquier número, pero 0.5 en una distribución uniforme en el intervalo unidad , A es independiente de sí mismo, a pesar de que, tautológicamente , un completo determina una. Variables aleatorias independientes

¿Qué se entiende por encima es la independencia de los acontecimientos. En esta sección tratamos a la independencia de variables aleatorias . Si X es un verdadero valor variable aleatoria y a es un número a continuación del evento X ≤ a es el conjunto de resultados, cuyo correspondiente valor de X es menor o igual a uno. Como se trata de conjuntos de resultados que tienen probabilidades, tiene sentido para referirse a los acontecimientos de este tipo que se mantiene independiente de otros eventos de este tipo.

Dos variables aleatorias X e Y son independientes si y sólo si para cada a y b, los sucesos {X ≤ a} y {Y ≤ b} son eventos independientes según lo definido arriba. Matemáticamente, esto puede ser descrito de la siguiente manera:

Las variables aleatorias X e Y con funciones de distribución acumulada F X (x) y F Y (y), y la densidad de probabilidad de X ƒ (x) y ƒ Y (y), son independientes si y sólo si la variable aleatoria combinada (X, Y) tiene un conjunto función de distribución acumulada

o equivalente, con una densidad conjunta

expresiones similares caracterizan la independencia de manera más general por más de dos variables aleatorias.

Una colección arbitraria de variables aleatorias - posiblemente más que sólo dos de ellos - es independiente precisamente si para cualquier conjunto finito X 1, …, X n y cualquier conjunto finito de números por 1, …, a n, los eventos {X 1 ≤ a 1}, …, {X n ≤ a n} son eventos independientes según lo definido arriba.

La medida-teóricamente inclinada pueden preferir reemplazar eventos {X ∈ A} para eventos {X ≤ a} en la definición anterior, donde A es cualquier conjunto de Borel . Esta definición es exactamente equivalente a la anterior cuando los valores de las variables aleatorias son números reales . Tiene la ventaja de trabajar también para valores complejos variables aleatorias o para variables aleatorias tomando valores en cualquier espacio medible (que incluye los espacios topológicos dotados por caso σ-álgebras).

Si dos de una colección de variables aleatorias son independientes, no obstante puede no ser independientes entre sí, lo que se llama independencia pares .

Si X e Y son independientes, entonces el operador de expectativa E tiene la propiedad

y para la varianza tenemos

por lo que la covarianza cov (X, Y) es cero. (Lo contrario de estos, es decir, la proposición de que si dos variables aleatorias tienen una covarianza de 0 que debe ser independiente, no es cierto. Véase correlacionados .)

Dos variables aleatorias independientes X e Y tienen la propiedad de que la función característica de su suma es el producto de sus funciones características marginales:

pero la implicación inversa no es cierto (ver subindependence ). Independiente de σ-álgebras

Las definiciones anteriores son generalizadas por la siguiente definición de la independencia de σ-álgebras . Sea (Ω, Σ, Pr) ser un espacio de probabilidad y sea A y B dos sub-σ-álgebras de Σ. A y B se dice que son independientes si, siempre que A ∈ A y B ∈ B,

La nueva definición se refiere a las anteriores de manera muy directa:

Dos eventos son independientes (en el viejo sentido) si y sólo si la σ-álgebras que generan son independientes (en el sentido de nuevo). El σ-álgebra generada por un evento E ∈ Σ es, por definición,

Dos variables aleatorias X e Y definidas sobre Ω son independientes (en el viejo sentido) si y sólo si la σ-álgebras que generan son independientes (en el sentido de nuevo). El σ-álgebra generada por una variable aleatoria X que toma valores en algunos espacio medible S consiste, por definición, de todos los subconjuntos de Ω de la forma X −1 (U), donde U es un subconjunto medible de S.

Usando esta definición, es fácil demostrar que si X e Y son variables aleatorias e Y es constante, entonces X e Y son independientes, ya que la σ-álgebra generada por una variable aleatoria constante es la σ-álgebra trivial {∅, Ω }. Probabilidad cero eventos no pueden afectar a la independencia para la independencia también tiene si Y es sólo Pr- casi con seguridad constante. variables aleatorias independientes condicional Artículo principal: Independencia condicional

Intuitivamente, dos variables aleatorias X e Y son condicionalmente independientes dado Z si, una vez que Z es conocido, el valor de Y no añade ninguna información adicional acerca de X. Por ejemplo, dos medidas X y Y de la misma cantidad subyacente Z no son independientes, pero son condicionalmente independientes dado Z (a menos que los errores en las dos medidas son de alguna manera relacionada).

La definición formal de independencia condicional se basa en la idea de distribuciones condicionales . Si X, Y y Z son variables aleatorias discretas , a continuación, definimos X e Y para ser condicionalmente independientes dado Z si

para todo x, y, z tales que P (Z = z)> 0. Por otro lado, si las variables aleatorias continuas y tienen una articulación función de densidad de probabilidad p, entonces X e Y son condicionalmente independientes dado Z si

para todos los números reales x, y, z tales que p Z (z)> 0.

Si X e Y son condicionalmente independientes dado Z, a continuación,

para cualquier x, y, z con P (Z = z)> 0. Es decir, la distribución condicional de X dado Y y Z es la misma que la dada Z solo. Una ecuación similar se mantiene para las funciones de densidad de probabilidad condicional en el caso continuo.

La independencia puede ser visto como un tipo especial de independencia condicional, ya que la probabilidad puede ser visto como una especie de probabilidad condicionada hay eventos.

Independence (probability theory). (2011, April 21). In Wikipedia, The Free Encyclopedia. Retrieved 02:38, May 2, 2011, from http://en.wikipedia.org/w/index.php?title=Independence_(probability_theory)&oldid=425218404

Eventos mutuamente excluyentes

Los axiomas de probabilidad son las condiciones mínimas que deben verificarse para que una función que definimos sobre unos sucesos determine consistentemente valores de probabilidad sobre dichos sucesos.

La probabilidad P de un suceso E, denotada por P(E), se define con respecto a un “universo” o espacio muestral Ω, conjunto de todos los posibles sucesos elementales, tal que P verifique los Axiomas de Kolmogórov, enunciados por el matemático ruso de este nombre en 1933. En este sentido, el suceso E es, en términos matemáticos, un subconjunto de Ω.

Dado un conjunto de sucesos elementales, Ω, sobre el que se ha definida una σ-álgebra (léase sigma-algebra) σ de subconjuntos de Ω y una función P que asigna valores reales a los miembros de σ, a los que denominamos “sucesos”, diremos que P es una probabilidad sobre (Ω,σ) si se cumplen los siguientes tres axiomas.

Axiomas de probabilidad. (2008, 20) de agosto. Wikipedia, La enciclopedia libre. Fecha de consulta: 06:36, octubre 20, 2008 from http://es.wikipedia.org/w/index.php?title=Axiomas_de_probabilidad&oldid=19575379.


Mis sitios nuevos:
Emprendedores
Politica de Privacidad