Definición de micrómetro

Un micrómetro es una herramienta que se emplea para la medición de una línea o de un ángulo muy pequeños de manera precisa. También conocido como palmer, calibre Palmer o tornillo de Palmer, dispone de un tornillo micrométrico que permite medir en un rango de milésimas o centésimas de milímetro.

El tornillo del micrómetro tiene una escala en su contorno. Para realizar la medición, los extremos del instrumento deben aproximarse de forma progresiva hasta llevar a cabo la estimación deseada.

Antecedentes históricos

A lo largo del Renacimiento y la Revolución industrial surgió la necesidad de realizar mediciones con especial precisión. Por aquel entonces, no existían instrumentos capaces de medir unidades tan pequeñas, pero las exigencias del mercado impulsaron su creación.

El micrómetro usado para medir distancias con el telescopio


Entre las primeras pruebas de herramientas capaces de escalar con precisión grandes distancias a la lente de un telescopio se encuentra la que desarrolló Galileo Galilei en el siglo XVII para determinar cuán lejos se encontraba Júpiter de sus satélites.

En 1640, William Gascoigne inventó el tornillo micrométrico, que ofrecía ventajas por sobre la escala de Vernier para la medición de distancias angulares a través del microscopio.

Creación y perfeccionamiento

El inventor inglés Henry Maudslay creó uno de los primeros micrómetros en 1829, con base en el sistema métrico de su nación. Luego el francés Jean Laurent Palmer optimizó el dispositivo, apelando a un tornillo micrométrico manual.

Con el tiempo otros científicos incorporaron mejoras en estos utensilios hasta que se alcanzó la forma actual. Lo que hace el micrómetro es convertir las distancias ínfimas en rotaciones más grandes que pueden leerse en una escala dada. Gracias al tornillo micrométrico roscado de su interior, se consigue una gran precisión.

Tipos de micrómetros

Existen varios criterios que podemos usar para clasificar los micrómetros. Por ejemplo, si observamos la tecnología usada a la hora de fabricarlos, tenemos los:

* mecánicos: se basan únicamente en elementos mecánicos. Cabe señalar que son los más antiguos;

* electrónicos: en su manufactura se usan elementos electrónicos y, por lo general, tecnología digital.

De acuerdo con la unidad de medida, el micrómetro puede pertenecer al:

* sistema decimal: la unidad de longitud que usa es el milímetro;

* sistema inglés: usa un divisor de la pulgada.

Según la normalización, el micrómetro puede ser:

* estándar: sus aplicaciones son generales;

* especial: se fabrican para trabajos específicos de medición, ya sea en la fabricación o en la verificación de ciertas piezas. Por esta razón, su apreciación y su amplitud de medidas son particulares.

Ejemplo de un micrómetro mecánico

Como unidad de longitud

Micrómetro, por otra parte, es sinónimo de micra o micrón. Se trata de una unidad de longitud de símbolo μ que equivale a la millonésima parte de un metro: 0,001 mm.

El uso de esta unidad resulta conveniente para aludir a elementos muy pequeños. El diámetro del pelo del ser humano, por ejemplo, se mide en micrómetros: cada cabello tiene un diámetro de unos 70 μ.

Esta unidad de medida es la más pequeña del ámbito de la fabricación mecánica. Se usa para expresar las variaciones de tamaño que se permiten en el proceso de diseño de las piezas, un concepto que se denomina tolerancia de cotas.

Etimología del término

Con respecto a su etimología, esta acepción del término se originó en el griego, en el género gramatical neutro de micrós, un adjetivo que se puede traducir como «pequeño».

Si usamos el sinónimo micrón, el plural correspondiente es micrones. Para micra, en cambio, debemos usar micras; cabe mencionar que en griego no cambia, sino que se mantiene «micra». Por este motivo, si habláramos con total rigor lingüístico deberíamos usar este término sin alteración para el plural de micrómetro, a menos que digamos micrómetros.

Definición siguiente →