viernes, 2 de agosto de 2013
Monte Carlo vía cadenas
de Markov
Una
cadena de Markov es un modelo matemático de sistemas estocásticos donde
los estados dependen de probabilidades de transición. El estado actual solo
depende del estado anterior.
El
método de Monte Carlo es un método no determinístico o estadístico
numérico usado para aproximar expresiones matemáticas complejas y costosas de
evaluar con exactitud.
Las
técnicas de Monte Carlo vía cadenas de Markov permiten generar, de manera
iterativa, observaciones de distribuciones multivariadas que difícilmente
podrían simularse utilizando métodos directos. La idea básica es muy simple:
construir una cadena de Markov que sea fácil de simular y cuya distribución de
equilibrio corresponda a la distribución final que nos interesa. Smith y Roberts
(1993) presentan una discusión general de este tipo de métodos.
Es el método utilizado por el software bayesiano WinBugs para simular las distribución con las que obtiene sus resultados. Esto permite la representación de la solución de un problema en función de una población hipotética. Estos problemas dependen de factores aleatorios o se pueden asociar a un modelo probabilística artificial.
Es el método utilizado por el software bayesiano WinBugs para simular las distribución con las que obtiene sus resultados. Esto permite la representación de la solución de un problema en función de una población hipotética. Estos problemas dependen de factores aleatorios o se pueden asociar a un modelo probabilística artificial.
“http://unicmontiel.wordpress.com/monte-carlo-via-cadenas-de-markov/”
Origen
La invención del método de Monte Carlo se asigna a StanislawUlam y a John von Neumann. Ulam ha explicado cómo
se le ocurrió la idea mientras jugaba un solitario durante una enfermedad en
1946. Advirtió que resulta mucho más simple tener una idea del resultado
general del solitario haciendo pruebas múltiples con las cartas y contando las
proporciones de los resultados que computar todas las posibilidades de
combinación formalmente. Se le ocurrió que esta misma observación debía
aplicarse a su trabajo de Los Álamos sobre difusión de neutrones, para la cual
resulta prácticamente imposible solucionar las ecuaciones íntegro-diferenciales
que gobiernan la dispersión, la absorción y la fisión. “La idea consistía en
probar con experimentos mentales las miles de posibilidades, y en cada etapa,
determinar por casualidad, por un número aleatorio distribuido según las
probabilidades, qué sucedería y totalizar todas las posibilidades y tener una
idea de la conducta del proceso físico”.
“http://es.wikipedia.org/wiki/M%C3%A9todo_de_Montecarlo”
Cadenas de Markov
En la teoría de la probabilidad, se conoce como cadena de Markov o modelo
de Márkov a un tipo especial
de proceso estocástico discreto
en el que la probabilidad de que ocurra un evento depende del evento
inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria.
"Recuerdan" el último evento y esto condiciona las posibilidades de
los eventos futuros. Esta dependencia del evento anterior distingue a las
cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o
un dado.
Reciben su
nombre del matemático ruso AndréiMárkov (1856-1922),
que las introdujo en 1907.
“http://es.wikipedia.org/wiki/Cadena_de_Markov”
Algoritmo Metropolis Hastings
En las estadísticas y en física estadística , el algoritmo de
Metropolis-Hastings es una cadena de Markov Monte Carlo método para la obtención de una secuencia de
(MCMC) muestras aleatorias a partir de unadistribución de probabilidad para el que el muestreo directo es
difícil. Esta secuencia se puede utilizar para aproximar la distribución
(es decir, para generar un histograma), o para calcular una integral (tal como un valor esperado ). Otros algoritmos MCMC
Metropolis-Hastings y se utilizan generalmente para el muestreo de
distribuciones multi-dimensionales, especialmente cuando el número de
dimensiones es alta. Para las distribuciones unidimensionales, otros
métodos están generalmente disponibles (por ejemplo, rechazo de muestreo adaptativo ) que pueden volver directamente muestras
independientes de la distribución, y están libres del problema de las muestras
de auto-correlación que es inherente a los métodos MCMC.
“http://en.wikipedia.org/wiki/Metropolis%E2%80%93Hastings_algorithm”
Muestreo de
Gibbs
En matemáticas y física, el muestreo de Gibbs es un algoritmo para
generar una muestra aleatoria a partir de la distribución de
probabilidad conjunta
de dos o más variables aleatorias. Se trata de un caso
especial del algoritmo
de Metropolis-Hastings y,
por lo tanto, del MCMC.
Recibe
su nombre del físico WillardGibbs en
referencia a sus trabajos en física estadística, aunque el fue
descrito por los hermanos Stuart y Donald Geman en
1984, alrededor de ochenta años después de la muerte de Gibbs.
“http://es.wikipedia.org/wiki/Muestreo_de_Gibbs”
Suscribirse a:
Entradas (Atom)