miércoles, 4 de septiembre de 2013

Integración de Monte Carlo

  • El método de "Monte Carlo" es una técnica numérica que usa números pseudoaleatorios.
    • La Integración de Monte Carlo estima el valor de una integral.
      • Toma valores de la función en puntos aleatorios.
      • El área (volumen) por el valor promedio estima la integral.
  • ¿Cuándo se usa la Integración de Monte Carlo?
    • Cuando la función a evaluar es complicada.
    • Normalmente para integrales múltiples.
    • La integración de Monte Carlo siempre funciona, pero toma mucho tiempo de CPU para obtener una respuesta más exacta.
      • Pero, CPU son baratas.

Es decir, los métodos de integración de Montecarlo son algoritmos para encontrar una evaluación aproximada de una integral definida, normalmente de integrales múltiples. Los algoritmos deterministas de integración numérica, para aproximar la integral, evalúan la función en un conjunto de puntos correspondientes a una parrilla regular o en un conjunto de puntos predefinidos. 

En cambio, los métodos de Montecarlo eligen de forma aleatoria los puntos en los que se evaluará la función. La integración de Montecarlo forma parte de una familia de algoritmos llamados genéricamente métodos de Montecarlo.

Método:
  • Recordemos el primer año de cálculo: El teorema del valor medio.
 
    • La integral de la función f, sobre el volumen V, es igual a la media de f por V.
  •  La integración de Monte Carlo esta dado por:
    • Estimación del valor medio de la función.
    • Multiplicado por el volumen. 

  •  Estimación del valor medio de la función: 
    • La media de una función es calculado por la media simple (también llamado promedio)
    •  La varianza de la media simple es
    • El estimado de la media de la función donde generamos un gran número de valores aleatorios de xi, y los usamos para calcular la media simple de la función.
 
  •  Calculando la Integral de Monte Carlo
 

  • EJEMPLO: Cálculo del número PI
  • /* Autor: Jason Martinez
     * Calculating number PI, with Monte Carlo Integation
     *            x^2 + y^2 <= 1
     * A = PI*r^2
    */
    
    #include <stdio.h >
    #include <stdlib.h >
    #include <time.h >
    #include <math.h >
    
    const double pi = 3.14159265358979323846264338327950288419716939937510;
    
    int main()
    {
      double r, x, y;
      double avg;
      double sum, A;
      double x_max, x_min, y_max, y_min;
      int n;  //number of iterations
      int i;
      double pi_calc, err;
    
      scanf("%d", &n);
    
      sum = 0;
      A = 0;
      r = 1.0;
      x_max = y_max = 1.0;
      x_min = y_min = -1.0;
      
      for(i=0; i<n; ++i)
      {
        x = ((double)rand()/RAND_MAX)*(x_max - x_min) + x_min;
        y = ((double)rand()/RAND_MAX)*(y_max - y_min) + y_min;
        if(x*x + y*y <= r)
          sum += 1.0;
      }
    
      avg = sum / n; 
    
      A = (x_max - x_min)*(y_max - y_min) * avg;
      
      pi_calc = A/(r*r);
      printf("pi = %lf\n", pi_calc);
      err = fabs(pi - pi_calc);
      printf("error = %lf\n", err);
      return 1;
    }
    
    





Introducción


Desde hace unos años las CPUs tienen ciertas limitaciones de hardware que hacen necesaria una refrigeración especial. En este punto la carrera para reducir el tamaño del silicio e incrementar la frecuencia del reloj ha terminado. En lugar de gastar grandes cantidades de silicio en el CPU para algoritmos avanzados que mejoren las instrucciones pre-fetch, CPUs más pequeños y más simples  son usados y hay espacio para más de una CPU en una misma oblea de silicio. Tenemos la CPU multi-núcleo que significa prácticamente varias CPUs en el mismo equipo.

Al principio, los núcleos de una CPU multi-núcleo eran más sencillos que el de un solo núcleo. Estos núcleos también operan en una frecuencia mucho más baja lo que significa que una aplicación diseñada para una operación única de la tarea tendría un enorme impacto en el rendimiento al pasar a un equipo nuevo, por primera vez.

La computación paralela se ha convertido en la corriente principal. Empezamos con una larga serie de conferencias sobre la computación paralela. Parecía que la gente quería saber sobre este tema, pero sobrevino que la computación paralela asusto a la gente. Hay una enorme brecha antes de que puedas llegar a ser un buen programador paralelo. Así como lo es para la programación orientada a objetos. Esto significa que los jefes de equipo y los arquitectos se encontraban en el mismo nivel que los programadores principiantes.

Añade a esto el hecho de que hay grandes cantidades de código ya escrito para una CPU de un solo núcleo y las ventajas que pueden obtenerse después de que al menos alguien lo re-escriban. Pero la más importante razón de peso para rechazar la computación paralela fue que es más fácil y más barato comprar otra máquina, que hacer el mejor de los núcleos del CPU. Esta fue una realidad que impulso la computación de la nube (Cloud Computing).
  • Computador paralelo: Capaz de ejecutar varias instrucciones simultáneamente.
  • Computación Paralela: Uso de varios procesadores trabajando juntos para resolver una tarea común:
    • Cada procesador trabaja en una porción del problema.
    • Los procesos pueden intercambiar datos, a través de la direcciones de memoria compartidas o mediante una red de interconexión
  • Programación Paralela: Considera aspectos conceptuales y las particularidades físicas de la computación paralela.
    • Objetivo: Mejorar las prestaciones mediante un buen aprovechamiento de la ejecución simultánea