Incertidumbre de una regla

Incertidumbre de una regla

En mecánica cuántica, el principio de incertidumbre (también conocido como principio de incertidumbre de Heisenberg) es cualquiera de una variedad de desigualdades matemáticas[1] que afirman un límite fundamental a la precisión con la que los valores de ciertos pares de cantidades físicas de una partícula, como la posición, x, y el momento, p, pueden predecirse a partir de las condiciones iniciales.

Tales pares de variables se conocen como variables complementarias o variables canónicamente conjugadas; y, dependiendo de la interpretación, el principio de incertidumbre limita hasta qué punto tales propiedades conjugadas mantienen su significado aproximado, ya que el marco matemático de la física cuántica no admite la noción de propiedades conjugadas simultáneamente bien definidas y expresadas por un único valor. El principio de incertidumbre implica que, en general, no es posible predecir el valor de una cantidad con una certeza arbitraria, incluso si se especifican todas las condiciones iniciales.

Introducido por primera vez en 1927 por el físico alemán Werner Heisenberg, el principio de incertidumbre afirma que cuanto más precisa sea la posición de una partícula, menos precisa será la predicción de su momento a partir de las condiciones iniciales, y viceversa. En el artículo publicado en 1927, Heisenberg concluye que el principio de incertidumbre fue originalmente

Reglas de redondeo de la incertidumbre

Regla 1: La incertidumbre probable del resultado debe redondearse a una cifra significativa. La última cifra significativa del resultado final debe ser del mismo orden de magnitud (en la misma posición decimal) que la incertidumbre.

Regla de las 15 unidades: Esta regla establece que la incertidumbre no debe ser superior a 15 unidades (dos cifras significativas) Si el error probable debe, de acuerdo con las reglas 1 y 2, redondearse de forma que el número no nulo sea igual a 2, pero el valor real está más cerca de 1, la incertidumbre se da con dos cifras significativas

Dígito de la incertidumbre

Siempre que realices una medición al recopilar datos, puedes suponer que existe un “valor verdadero” que se encuentra dentro del rango de las mediciones que has realizado. Para calcular la incertidumbre de tus mediciones, tendrás que encontrar la mejor estimación de tu medición y considerar los resultados al sumar o restar la medida de incertidumbre. Si quieres saber cómo calcular la incertidumbre, sólo tienes que seguir estos pasos.

Resumen del artículoPara calcular la incertidumbre, utilizará la fórmula: mejor estimación ± incertidumbre, donde la incertidumbre es la posibilidad de error o la desviación estándar. Siempre debes redondear tu medición experimental al mismo decimal que la incertidumbre. Por ejemplo, si intentas calcular el diámetro de una pelota, debes empezar por ver cuánto se acerca tu regla a los bordes, aunque es difícil saber la medida exacta porque la pelota es redonda. Si está entre 9 y 10 cm, utiliza el resultado medio para obtener 9,5 cm ± 0,5 cm. Para aprender a calcular la incertidumbre cuando se realizan varias mediciones, sigue leyendo.

Regla de la potencia de la incertidumbre

En estadística, la propagación de la incertidumbre (o propagación del error) es el efecto de las incertidumbres (o errores, más concretamente los errores aleatorios) de las variables sobre la incertidumbre de una función basada en ellas. Cuando las variables son los valores de las mediciones experimentales, tienen incertidumbres debidas a las limitaciones de las mediciones (por ejemplo, la precisión de los instrumentos) que se propagan debido a la combinación de las variables en la función.

Lo más habitual es que la incertidumbre sobre una cantidad se cuantifique en términos de la desviación estándar, σ, que es la raíz cuadrada positiva de la varianza. El valor de una cantidad y su error se expresan entonces como un intervalo x ± u. Si la distribución de probabilidad estadística de la variable es conocida o puede suponerse, es posible derivar límites de confianza para describir la región dentro de la cual puede encontrarse el valor verdadero de la variable. Por ejemplo, los límites de confianza del 68% para una variable unidimensional que pertenece a una distribución normal son aproximadamente ± una desviación estándar σ del valor central x, lo que significa que la región x ± σ cubrirá el valor verdadero en aproximadamente el 68% de los casos.