Essays.club - Ensayos gratis, notas de cursos, notas de libros, tareas, monografías y trabajos de investigación
Buscar

Introducción a los conceptos de medida y error experimental.

Enviado por   •  25 de Marzo de 2018  •  997 Palabras (4 Páginas)  •  490 Visitas

Página 1 de 4

...

- ¿Qué diferencia existe entre expresar un valor utilizando notación científica o bien expresarlo con potencia de base 10?

La notación científica es una abreviación matemática, basada en la idea de que es más fácil leer un exponente que contar muchos ceros en un número. Números muy grandes o muy pequeños necesitan menos espacio cuando son escritos en notación científica porque los valores de posición están expresados como potencias de 10.

- ¿Para qué sirve realizar un análisis dimensional? Dé un ejemplo.

El buen manejo de las dimensiones de las magnitudes físicas en una ecuación nos permite comprobar si son correctas y si se trabajaron debidamente.

Ejemplo. Ecuación dimensional para la aceleración:

[pic 4]

- ¿A qué se le llaman cifras significativas y qué criterio se aplica en un cálculo y durante una medición?

Una cifra significativa es realmente un dígito conocido. Cuando se multiplican o dividen números aproximados, el número de cifras significativas de la respuesta final contiene el mismo número de cifras significativas que el factor de menor precisión. Al decir “menor precisión” nos referimos al factor que tiene el menor número de cifras significativas. Cuando se suman o restan números aproximados, el número de lugares decimales en el resultado debe ser igual al menor número de cifras decimales de cualquier término que se suma.

- Mencione las reglas que se aplican para redondear una cifra.

Para evitar errores de redondeo, se debe acarrear cuando menos una cifra significativa más en los cálculos que se planea presentar. Por ejemplo, si va a reportar tres cifras significativas, debe acarrear cuando menos cuatro en todos sus cálculos.

- ¿Qué es el error de una medición y cómo se puede cuantificar?

La diferencia que hay entre el valor verdadero o exacto que tiene una magnitud cualquiera y el valor que se obtiene al medirla recibe el nombre de error de medición o incertidumbre de la medición.

Para cuantificar el error que se comete al medir una magnitud, se consideran los siguientes tipos de errores:

Error absoluto o desviación absoluta. Es la diferencia entre el valor medido y el valor promedio.

Error relativo. Es el cociente entre el error absoluto o incertidumbre absoluta, y el valor promedio. (Se expresa en valores absolutos sin importar el signo del error absoluto.)

Error porcentual. Es el error relativo multiplicado por 100, con lo cual queda expresado en por ciento.

- ¿Qué representa el signo en el cálculo del error absoluto?

Si la cantidad medida es menor que el valor real, entonces el error absoluto es negativo, mientras que si la cantidad medida es mayor que el valor real, el error absoluto es positivo.

BIBLIOGRAFÍA

- http://www.info-ab.uclm.es/labelec/Solar/Componentes/terminologia.htm

1)

- “Física Universitaria”, Volumen 1, Ronald Lane Reese, Thomson, México, 2002

2) pág.18

- “Física, conceptos y aplicaciones”, Paul E. Tippens, McGraw Hill, Séptima edición revisada.

3) pág.35

7) pág.40

8) pág.41

- www.montereyinstitute.org/courses/Algebra1/COURSE_TEXT_RESOURCE/U07_L1_T2_text_final_es.html

5)

- “Física General”, Pérez Montiel, Grupo Editorial Patria, Cuarta edición, México, 2010.

3) pág.16

4) pág.27, 37

6) pág.26

9) pág.27, 28

10)

...

Descargar como  txt (6.8 Kb)   pdf (50.2 Kb)   docx (14.7 Kb)  
Leer 3 páginas más »
Disponible sólo en Essays.club