CAMPO DE MEDIDA Y ALCANCE
Enviado por Eric • 17 de Abril de 2018 • 2.053 Palabras (9 Páginas) • 593 Visitas
...
El error medio del instrumento es la medida aritmética de los errores en cada punto de la medida determinados para todos los valores crecientes y decrecientes de la variable medida.
Cuando una medición interviene varios instrumentos, el valor final de la medición estará constituido por los errores propios de cada uno de los instrumentos. Si el límite del error relativo de cada instrumento es ±a, ±b, ±c, etc., el máximo error posible en la medición será la suma de los valores anteriores, es decir:
[pic 3]
Ahora bien, como es improbable que todos los instrumentos tengan al mismo tiempo su error máximo en todas las circunstancias de la medida, suele tomarse como error total de una medición la raíz cuadrada de la suma algebraica de los cuadrados de los errores máximos de los instrumentos; es decir, la expresión:
[pic 4]
Tipos de errores
- Error absoluto
Cuantifica la discrepancia existente entre el valor medido y el valor real de la variable física observada. Se entiende que el valor real es aquel que se obtendría con un sistema óptimo de medición. [1] Así pues, se tendrá:
[pic 5]
Donde
Vm= es el valor medido
Vr=es el valor real
- Error relativo
Magnitud porcentual que se relaciona el valor medido con el valor real de la variable observada, o ambos con el valor del alcance de medida (VAL).
Existen dos maneras de expresar este error, a saber:
- Como él % de la medida:
[pic 6]
- Como % del valor del alcance
[pic 7]
En este caso recibe el nombre de índice de clase o, simplemente, CLASE.
Notación del valor del error
Se debe ser cuidadoso al proporcionar el valor del error. El valor del error del tipo absoluto no es adimensional, sino que mantiene la unidad física de la variable observada. El valor de un error de tipo relativo es adimensional puesto que es un cociente de valores referentes a la misma unidad física. Es frecuente observar características de catálogo donde se advierten notaciones incorrectas como las que se muestra en la tabla siguiente:
[pic 8]
2.2. PRECISIÓN
Definición
Es una cualidad de un instrumento por la que tiende a dar lecturas muy próximas unas a otras, es decir, el grado de dispersión de las mismas. También podemos decir que precisión no es más que la tolerancia de medida o de transmisión del instrumento y define los límites de los errores cometidos cuando el instrumento se emplea en condiciones normales de servicio. Hay formas de expresar la precisión:
- Tanto por ciento del alcance.
- Directamente, en unidades de la variable medida
- Tanto por ciento de la lectura efectuada
- Tanto por ciento del valor máximo del campo de medida
- Tanto por ciento de la longitud de la escala
La precisión varía en cada punto del campo de medida si bien, el fabricante la especifica en todo el margen del instrumento indicando a veces su valor en algunas zonas de la escala.
EJEMPLO:
un manómetro puede tener una precisión de ± 1% en toda la escala y de ±0.5% en la zona central cuando se desea obtener la máxima precisión del instrumento en un punto determinado de la escala, puede calibrarse únicamente para este punto de trabajo, sin considerar los valores restantes del campo de medida.
Hay que señalar que los valores de precisión de un instrumento se consideran en general establecidos para el usuario, es decir, son los proporcionados por los fabricantes de los instrumentos.
Conclusión:
- se define el error como la diferencia entre el valor leído por el instrumento y el valor real de la variable medida.
- Los errores pueden ser calculados de manera porcentual o numérica, dependiendo de cómo deseemos representar dichos errores.
- Precisión es sinónimo de repetitividad. Los instrumentos de precisión periódicamente se des calibran. además, que un instrumento puede tener una pobre exactitud, pero una gran precisión.
Recomendación:
- Para calcular el error relativo debemos tener en cuenta el valor real y el valor medido.
- Deben reajustarse los instrumentos de precisión para que sean exactos.
- No confundir precisión con exactitud.
---------------------------------------------------------------
1.OBJETIVOS
1.1. GENERAL
- Conocer acerca la zona muerta, sus usos aplicaciones y procesos a la vez investigar acerca de la sensibilidad en ciertos instrumentos para así tener una idea clara de que procesos aplicar en determinadas ocasiones.
1.2. ESPECÍFICOS.
- Definir con respecto a lo indagado un concepto de zona muerta
- Analizar cómo se puede diferenciar a la zona muerta.
- Conocer el correcto uso de las máquinas para así brindar una buena guía de estos instrumentos en trabajos aplicativos.
2.DESARROLLO DEL TEMA
2.1. ZONA MUERTA
Definición:
Conocida también como dead zone o dead band es el espectro de valores en el cual no hace variar la señal o indicación de la salida del instrumento, es decir no se obtiene respuesta, también se puede definir como el momento donde la sensibilidad del instrumento es nula por tanto no cambia su indicación
...