¿Por qué la distribución normal aparece tan a menudo en la naturaleza?

Este ejemplo debería ayudar a obtener algo de intuición.

Digamos que le pides a unas 2000 personas que elijan un número natural de {0,1,2, … 100} y lo escriban en una hoja de papel. Luego, baraja / mezcla todos

Ahora,
Cada número aislado puede no ser tan interesante .

En cambio, tome unos 30 manojos (de 2000 documentos) y anote el promedio. Repita esto tantas veces como desee para notar que el promedio ronda las 50 más veces. y si lo trazas, parece normal

En pocas palabras, este promedio métrico tiene una tendencia central y puede tomar valores de 0 a 3000 (los 30 son 100) y su distribución parece normal.

Solo mejora si toma más a la vez, digamos 250 .. 650 etc. Esto se llama tamaño de muestra. Más el tamaño de la muestra, más confidente te sientes 🙂

La distribución normal puede encajar perfectamente (por supuesto, estoy omitiendo los supuestos y detalles involucrados) en donde hay una tendencia central. De hecho, puede derivarlo de un caso de lanzar un dardo apuntando al ojo del toro.

Lo que vemos en la naturaleza es promediado por muchas micro interacciones que pueden no exhibir una tendencia central.

Por ej.
“Altura del ser humano”: ¿tantos factores internos en juego durante unos 20 años y el resultado? alguna altura promedio – 5,9 “. Para algunos, interactúan extremadamente para ser demasiado pequeños / altos mientras que el resto se encuentra en el medio

Aquí puede decir que la naturaleza tiene una tendencia natural de 5,9 “para los seres humanos .

o puede visualizar la naturaleza como “máquina de hacer” con un objetivo establecido (puntería) de 5,9 “, pero como cualquier otra máquina, produce errores de otros valores, al igual que algunas máquinas de fabricación de bolas se equivocan al producir bolas con un ligero margen de error

Esta fue la idea original de Gauss para la distribución Normal y la desarrolló como “teoría de los errores”. Sin embargo, estaba trabajando con longitudes de telescopio en lugar de bolas.

Creo que esto también está relacionado con el teorema del límite central. La naturaleza puede considerarse como “salida” de señales aleatorias. Cuantas más señales aleatorias haya (luz, sonido, etc.) que se sumen o promedien, más el proceso comenzará a asumir las características de una curva de campana. Por supuesto, la verdadera pregunta es qué está modelando qué.

Aquí hay algunas excepciones, tomadas de un artículo de Wikipedia:

Ley del poder – Wikipedia

“Se han identificado más de un centenar de distribuciones de leyes de poder en física (por ejemplo, avalanchas de pilas de arena), biología (por ejemplo, extinción de especies y masa corporal) y ciencias sociales (por ejemplo, tamaños de ciudades e ingresos).

[14]

Entre ellos están:

  • El exponente de Angstrom en óptica de aerosol
  • La dependencia de la frecuencia de la atenuación acústica en medios complejos.
  • La ley de poder de la psicofísica de Stevens
  • La ley de Stefan-Boltzmann
  • Las curvas de entrada-voltaje-salida-corriente de los transistores de efecto de campo y los tubos de vacío se aproximan a una relación de ley cuadrada, un factor en el “sonido del tubo”.
  • Ley de cubo cuadrado (relación del área de superficie al volumen)
  • La ley de Kleiber relaciona el metabolismo animal con el tamaño y las leyes alométricas en general.
  • Se puede encontrar una ley de potencia de 3/2 en las curvas características de placa de los triodos.
  • Las leyes del cuadrado inverso de la gravedad newtoniana y la electrostática, como lo demuestran el potencial gravitacional y el potencial electrostático, respectivamente.
  • Criticidad autoorganizada con un punto crítico como atractor
  • El tamaño de las celdas de lluvia, [15] la disipación de energía en los ciclones [16] y los diámetros de los demonios del polvo en la Tierra y Marte [17]
  • Crecimiento exponencial y observación aleatoria (o muerte) [18]
  • Progreso a través del crecimiento exponencial y la difusión exponencial de innovaciones [19]
  • Tolerancia altamente optimizada
  • Modelo de fuerza de van der Waals
  • Fuerza y ​​potencial en movimiento armónico simple
  • Tercera ley de Kepler
  • La función de masa inicial de las estrellas.
  • La relación M-sigma
  • Corrección gamma que relaciona la intensidad de la luz con el voltaje
  • La ley de potencia de dos tercios, que relaciona la velocidad con la curvatura en el sistema motor humano.
  • La ley de Taylor que relaciona el tamaño medio de la población y la varianza de los tamaños de las poblaciones en ecología
  • Comportamiento cerca de transiciones de fase de segundo orden que involucran exponentes críticos
  • Forma propuesta de efectos de curva de experiencia
  • El espectro de energía diferencial de los núcleos de rayos cósmicos
  • Fractales
  • La distribución de Pareto y el principio de Pareto también se llama la “regla 80-20”
  • La ley de Zipf en el análisis de corpus y distribuciones de población, entre otros, donde la frecuencia de un elemento o evento es inversamente proporcional a su rango de frecuencia (es decir, el segundo elemento / evento más frecuente ocurre la mitad de veces que el elemento más frecuente, el tercer elemento más frecuente / el evento ocurre un tercio tan a menudo como el elemento más frecuente, y así sucesivamente).
  • El área de operación segura relacionada con la corriente y el voltaje máximos simultáneos en semiconductores de potencia.
  • Estado supercrítico de la materia y fluidos supercríticos, tales como exponentes supercríticos de capacidad calorífica y viscosidad. [20]
  • Distribución de Zeta (discreto)
  • Distribución de Yule-Simon (discreto)
  • Distribución t de Student (continua), de los cuales la distribución Cauchy es un caso especial
  • Ley de Lotka
  • El modelo de red sin escala
  • Ruido rosa
  • Aludes neuronales [4]
  • La ley de los números de las corrientes y la ley de las longitudes de las corrientes (leyes de Horton que describen los sistemas fluviales) [ cita requerida ]
  • Poblaciones de ciudades (ley de Gibrat) [ cita requerida ]
  • Bibliogramas y frecuencias de palabras en un texto (ley de Zipf) [ cita requerida ]
  • 90–9–1 principio sobre wikis (también conocido como la regla del 1%) [ cita requerida ]
  • Ley de Richardson para la gravedad de los conflictos violentos (guerras y terrorismo) {Lewis Fry Richardson, Las estadísticas de las peleas mortales, 1950}
  • La relación entre el tamaño de caché de una CPU y el número de errores de caché sigue la ley de potencia de errores de caché.
  • La ley de Curie-von Schweidler en las respuestas dieléctricas al paso de entrada de voltaje de CC “.

El teorema del límite central simplemente establece lo que se observa, realmente no explica por qué los medios realmente se comportan como variables gaussianas.

Tomemos un ejemplo simple: la altura de las personas en una ciudad que es un fenómeno natural. Cada altura es más o menos una variante normal, esta es la razón:

Hay muchos factores que afectan la altura, algunos los conocemos y la mayoría no los conocemos. Pero cada factor hace una pequeña contribución a la altura. Esta contribución puede ser positiva o negativa. Además, cada factor puede verse como una variable de Bernoulli (1 = efecto positivo o sin efecto, 0 para efecto negativo). Y también que un factor dado es más o menos igualmente probable que sea positivo o negativo.

Inmediatamente ves que para que una persona sea muy alta, muchos factores tienen que ser positivos, lo cual es raro. Del mismo modo, para que una persona sea muy baja, hay una larga serie de factores negativos que también son raros. Entonces, la conclusión es que la altura se puede ver como variable binomial. Existe un vínculo directo entre la distribución binomial y la normal. La distribución binomial tiende a la normalidad cuando el número de factores es grande (aproximadamente 20 o más).

Como la mayoría de los fenómenos naturales son complejos y tienen muchos factores, se aplica la misma lógica que la anterior y la distribución de medidas de tales fenómenos tiende a tener la mayoría de los valores cerca de la media (la distribución normal tiene una propiedad deseable de que la media y el modo sean los mismos, es decir, la media es el mismo que el valor más frecuente).

Espero que esto explique intuitivamente lo que estás buscando.

Digamos que tenemos alguna distribución de probabilidad, cualquier distribución de probabilidad. Ahora extraiga N muestras de la distribución y calcule su promedio; llamemos a este número [math] a_1 [/ math]. Ahora extraiga otras N muestras y calcule el promedio nuevamente, y repita este proceso una y otra vez, de modo que obtengamos una secuencia completa de números (cada uno el promedio de N muestras separadas):

[matemáticas] a_1, …, a_k [/ matemáticas]

¿Qué crees que veremos si hacemos un histograma con estos números? Resulta que no importa de qué distribución partimos: binomial, Poisson, chi-cuadrado, proceso de restaurante chino, cualquier cosa , a medida que N crece, siempre veremos una distribución normal :

Más formalmente, en el límite cuando N llega al infinito, la distribución de la media de N muestras de una distribución se distribuye como una distribución normal. Este es el teorema del límite central.

Hola rosie

Encontré un artículo interesante que presenta un par de razones por las cuales muchas cosas en la naturaleza siguen una distribución normal. La mayoría tiene que ver con el Teorema del límite central (CLT). El autor teoriza en el ejemplo de la distribución de altura de las personas que la mayor parte de la variación se debe a las diferencias en los muchos genes de cada persona. Aunque la expresión de los genes que contribuyen a la altura puede no estar distribuida normalmente ya que hay tantos de ellos que contribuyen a la altura, la distribución de la altura es de la forma Normal.

Aquí hay un enlace al artículo y cuando hizo la pregunta, ¡tenía curiosidad por saber por qué yo mismo!

http://aidanlyon.com/media/publi

Espero que encuentres esto interesante …

Muchas mediciones que ocurren naturalmente son sumas de muchas “pequeñas” mediciones, y las sumas son aproximadamente normales. El peso de un ratón de campo es la suma de los pesos de sus órganos, huesos, fascia, pelaje, etc. El coeficiente intelectual como medida de inteligencia mide muchos “componentes” de inteligencia latente (reconocimiento de patrones, vocabulario, razonamiento espacial, etc. ) que se suman a la puntuación general del coeficiente intelectual. Etcétera.

Es un teorema que si no sabe nada más acerca de una variable aleatoria que su desviación rms de un valor medio, y quiere ser “máximo no comprometido” al asignar una distribución de probabilidad (en el sentido de que no implica nada más allá de lo que sabe sea ​​cierto), entonces debe suponer una distribución de probabilidad que tenga el valor medio dado y la desviación rms de la media, y que de otro modo minimice el “contenido de información” de la distribución (usando la medida de Claude Shannon del contenido de información). herramienta conocida como el “cálculo de variaciones”, se le conduce directamente a una llamada distribución normal.

Si bien la naturaleza no “siempre” sigue la distribución normal, todavía hay una gran cantidad de eventos naturales que se pueden aproximar como una distribución normal.
La razón detrás de esto se deriva del teorema del límite central que dice: “la media de un número suficientemente grande de variables aleatorias independientes, cada una con media y varianza finitas, se distribuirá aproximadamente de manera normal”.

Como otros han señalado, la distribución normal no ocurre con tanta frecuencia como la gente piensa. Pero donde sea que surja, puede pensarlo como resultado de una gran cantidad de efectos independientes. La mayoría de los fenómenos del mundo real se ven afectados por una gran cantidad de variables (efectos). El efecto combinado / superpuesto conduce hacia la ‘curva de campana’. Los detalles matemáticos se explican por el teorema del límite central. También puede buscar en Google sobre ‘Galton’s box’ o ‘Bean machine’ para ver una demostración visual de la distribución Normal en acción.

Una razón por la que se considera tan común es una razón incorrecta. Estoy hablando de la distribución normal como la distribución de muestra de la suma de variables aleatorias: es decir, si dibuja algunos números al azar y calcula su suma, dicha suma tiene una distribución normal. Pero puede darse cuenta de esto solo si (imagina) repetir el experimento muchas veces, mientras que generalmente lo hace una vez.

¿Lo hace?
Algunos ejemplos serán útiles. Pero tal vez, parece ser así debido a la Ley de grandes números y eres testigo de los resultados finales.