Cuestionario 1 “Teoría de errores”
Enviado por Jerry • 26 de Marzo de 2018 • 2.014 Palabras (9 Páginas) • 385 Visitas
...
Así, en mediciones repetidas, la exactitud depende solamente de la posición del valor medio (resultado) de la distribución de valores, no jugando papel alguno en ella la precisión.
- ¿Qué entiende por precisión?
El Vocabulario Internacional de Metrología (VIM) define la precisión como la proximidad entre las indicaciones o los valores medidos obtenidos en mediciones repetidas de un mismo objeto, bajo condiciones especificadas.
La precisión se refiere a cuan constante son las mediciones y no implica exactitud, un instrumento muy preciso puede ser inexacto; pues una medida exacta es aquella que presenta poco error respecto al valor real.
La precisión depende pues únicamente de la distribución de los resultados y no está relacionada con el valor convencionalmente “verdadero” de la medición.
La precisión de un instrumento se determina de la siguiente forma:
P=R/N
Donde:
P = Precisión del instrumento
R = Modulo de la escala principal
N = Numero de divisiones de la escala secundaria
- En un instrumento de medición:
- ¿Cuál es su rango máximo?
Valor que representa el limite superior de la capacidad de medición y transmisión de un instrumento. Es decir, el valor que proporciona una medida fiable.(Alcance)
- ¿Cuál es su rango mínimo?
Valor que representa el limite inferior o la tolerancia mínima de medida que permite indicar, registrar o controlar un instrumento de medición para hacer una medida confiable. el instrumento en otras palabras es la mínima división de escala de un instrumento indicador
- Defina las cifras significativas
Es el conjunto de dígitos que aportan información útil, no ambigua, al momento de realizar una medición, estas cifras dependen de los dígitos que usa la escala del instrumento que se utiliza para realizar dicha medición.
- ¿Cómo es la precisión en función de las cifras significativas?
En todo instrumento de medición siempre existen diversos tipos de errores (del instrumento y/o del usuario) que se deben tomar en cuenta para determinar la precisión de las cifras significativas y no solo al momento de medir se cometen errores al utilizar el instrumento, también al momento de realizar una operación aritmética para determinar un valor . Las cifras significativas otorgan la mayor precisión posible comparando la medición con instrumento y la operación aritmética tomando en cuenta la escala del instrumento y solo utilizando las cifras que esta escala cuenta.
- ¿Cómo es el redondeo en las cifras significativas?
Primero, el redondeo es el proceso que se realiza para eliminar cifras que no son significativas haciendo que nuestra medición sea más precisa.
Para realizar el redondeo se tiene que determinar cuántas cifras significativas vamos a utilizar, ejemplo:
Tenemos 45.56898 m dado por una operación aritmética, queremos redondearlo para lograr que este número tenga las cifras significativas que nos dice nuestro instrumento en este caso un metro que utiliza tres dígitos después del punto decimal, ejemplo, 1.125 m.
Una de las reglas para el redondeo, en este caso, es que si nuestro siguiente digito después de las cifras significativas es mayor o igual a 5 aumentamos una unidad a nuestra cifra significativa, ejemplo:
45.56898 m ----------> 9>5. Entonces 45.568 m ----------> 45.569 m
Entonces la cifra significativa es: 45.569
Si la cifra es menor a 5 entonces descartamos de ahí en adelante:
45.56848 m ----------> 4
- Al multiplicar o dividir números, el resultado no puede tener más cifras significativas que el factor con menos cifras significativas. Explique porque.
La explicación para está afirmación es muy simple, se tiene que respetar las cifras significativas dadas por, quizá, una medición de un instrumento con una escala ya determinada para que la precisión de esta medición se lo más precisa posible, algo que hay que entender es que entre menos cifras significativas menos margen de error de la medición puede existir, si agregáramos más cifras significativas no se respeta la escala del instrumento.
- ¿Qué entiende por medidas reproducibles?
Son aquellas en las cuales a pesar de cualquier error sistemático o aleatorio no se detecta variación de una medición a otra, quiere decir que la variación no rebasa la mitad de la mínima escala del instrumento de medición.
- ¿Qué entiende por medidas no reproducibles?
Cuando se realizan las mismas medidas, bajo las mismas circunstancias y estas resultan en general diferentes, tomando en cuenta que la medida “real” no se puede conocer, se acepta que el valor que se reporta es el más representativo, es decir, el promedio.
- Explique cuales son los parámetros más importantes, para un adecuado análisis de los datos experimentales que se pueden calcular por medios estadísticos
Error de Medida
Los errores que presenten las medidas pueden ser sistemáticos o aleatorios. Los sistematicos se deben al empleo de instrumentos mal calibrados o al no tener en cuenta efectos que influyen en la medida (como el rozamiento del aire en el movimiento de un proyectil). Los errores sistemáticos, por tanto, estarán presentes en todas las medidas, y pueden tenerse en cuenta si se conocen, mediante términos de corrección. Los errores aleatorios, por el contrario, no se pueden evitar. Son debidos al observador, que debe procurar mantenerlos lo mas pequeños posible y estimar su valor, o bien reflejan la dispersión propia de la magnitud medida al repetir la experiencia.
Graficas
Probablemente la forma más clara de presentar los resultados obtenidos experimentalmente es mediante graficas. Para aprovechar al máximo las ventajas de este tipo de representación, es necesario
...