Fundamentos de Metrología Dimensional: Precisión en la Medición

Classified in Matematica

Written at on italiano with a size of 4,79 KB.

Fundamentos de Metrología Dimensional

Para optimizar la cantidad y calidad del trabajo en operaciones de pesca industrial y mantenimiento en compañías mineras, es fundamental que los trabajadores comprendan el uso de instrumentos de precisión como el calibrador a cursoio, micrómetro, comparador, profundímetro, entre otros.

Este curso busca capacitar a los estudiantes en el uso correcto, rápido, seguro y eficiente de estos instrumentos de medición.

¿Qué es la Metrología?

La metrología se define como la ciencia de la medición, que abarca todos los aspectos teóricos y prácticos, incluyendo los sistemas de unidades y la gestión de la incertidumbre en cualquier campo de la ciencia y la tecnología.

La metrología dimensional se encarga de estudiar las técnicas de medición que determinan las magnitudes lineales y angulares.

Conceptos Básicos

Medición:

Es una serie de operaciones que determinan el valor de una cantidad. La medición puede ser directa, cuando el valor se obtiene directamente de las líneas o divisiones del instrumento, o indirecta, cuando se compara con una referencia o se realiza un cálculo para obtener el valor.

Medir:

  • Es comparar una magnitud con otra, tomada arbitrariamente como referencia, llamada patrón, y expresar cuántas veces está contenida.
  • Es la evaluación de una magnitud con referencia a otra de la misma especie tomada como unidad.
  • Es adoptar la unidad de medida de una magnitud con respecto a la misma especie para determinar cuántas veces está contenida en ella.

Las medidas obtenidas nunca son exactas, es decir, no se obtienen los valores reales. Esto se debe a la apreciación del instrumento (mínima división: m, dm, cm, mm, µm, etc.), su precisión (desgaste, divisiones inexactas o irregulares), las condiciones ambientales (temperatura, etc.) y la habilidad del operador (error de paralaje).

Precisión de las Medidas Obtenidas:

La división más pequeña del instrumento utilizado determina el grado de apreciación de una medición directa. Por ejemplo, una regla graduada en milímetros tendrá una lectura directa de 1 milímetro.

La precisión de la medida depende de la calidad del instrumento, su división más pequeña y la habilidad del operador.

Este último podrá apreciar con la vista un valor más pequeño que la división mínima, lo que se acerca más al valor real. Por ejemplo, si la división más pequeña es el milímetro, se podrían apreciar décimas de milímetro (Fig. 1.1).

Error de Medida (e):

El error de medida (e) es la diferencia entre el valor verdadero (m) y la medida efectuada (mi): e = m - mi

Tipos de errores:

  • Sistemáticos: Causados por defectos del instrumento, del método o del observador. Son difíciles de detectar y afectan todas las mediciones de la misma manera. Son difíciles de eliminar.
  • Accidentales: Causados por factores aleatorios. Varían de forma impredecible y pueden ser positivos o negativos. Son comunes y se deben, por ejemplo, a la superposición entre el índice y la escala, o a la falta de atención del observador.

Los errores accidentales se pueden reducir aplicando la teoría de la probabilidad, según la teoría de los errores de Gauss. Realizando n mediciones, m1, m2, m3,... mn, se obtiene el valor más probable:

Xi, donde el error de las mediciones respecto al valor más probable es igual en ambas direcciones, es decir, +xi o -xi. Como los errores tienen el mismo valor absoluto pero signos opuestos, se anulan entre sí:

Para evitar esto, se suman los cuadrados de xi, se dividen entre el número de mediciones n y se extrae la raíz cuadrada.

Instrumento de Medida:

Dispositivo utilizado para realizar mediciones, solo o en combinación con equipos auxiliares.

Características importantes de un instrumento de medida:

  1. Sistema de graduación: Define las divisiones del instrumento. Si la décima división es un número, se trata del sistema métrico decimal, donde cada división es de 1 mm. De lo contrario, es el sistema inglés (Fig. 1.2: Regla métrica).
  2. Campo de Medida: Rango entre el valor mínimo y máximo que se puede medir (Fig. 1.4: Campo de una regla y un micrómetro).
  3. Grado de precisión o lectura: Valor de la subdivisión mínima que se puede leer en el instrumento (Fig. 1.5: Grado de precisión de una regla).

Entradas relacionadas: