En el trabajo experimental hay dos clases de números: los exactos, que son aquellos cuyo valor conocemos con precisión, y los inexactos, cuyo valor presenta cierta incertidumbre. Muchos números exactos tienen valores definidos fijos, por ejemplo, en un kilometro hay exactamente 1000 m, o en un litro hay 1000 mL. El número 1 en cualquier factor de conversión, como en 1 min = 60 s, también es un número exacto. Los números exactos pueden ser el resultado de contar objetos como, por ejemplo, el número de ovejas de un rebaño o el número de perlas de un collar.

Los números que se obtienen al hacer medidas son siempre inexactos. Los instrumentos utilizados para medir siempre tienen limitaciones inherentes (errores del equipo) y también hay diferencias en la forma que diferentes personas hacen la misma medición (errores humanos). Supongamos que cinco estudiantes con cinco balanzas determinan el peso de la misma pieza, una moneda, por ejemplo. Es muy probable que las cinco medidas varíen ligeramente entre sí por diversas razones. Las balanzas puede estar calibradas de forma ligeramente diferente y puede haber diferencias en como cada estudiante “lee” el peso que determina la balanza.

Es muy importante recordar que cuando se miden cantidades siempre existe una incertidumbre. Cuando se habla de cantidades medidas se utilizan los términos precisión y exactitud. La precisión de una medida se define como la proximidad entre todas las medidas individuales (unas con otras) y la exactitud como la proximidad de cada medida individual con el valor correcto o “real”. El sesgo es un error sistemático (pasa siempre) que hace que todas las medidas estén desviadas en una cierta cantidad por lo que, si medimos algo varias veces y los valores están cerca unos de otros, pueden estar todos equivocados si hay sesgo.

Normalmente, en el laboratorio se realizan varios “ensayos” del mismo experimento (réplicas) y, los resultados obtenidos, se presentan como un promedio. La precisión de las medidas se expresa frecuentemente en términos de la denominada desviación estándar, que refleja la diferencia de una medida individual con el valor medio de todas las medidas. Si en nuestras medidas obtenemos valores muy próximos entre si aumenta nuestra confianza porque el valor de la desviación estándar es pequeño. Sin embargo, como se observa en la figura, podemos tener medidas muy precisas pero poco exactas o, dicho de otra forma, sesgadas. Si una balanza muy sensible está mal calibrada, los pesos que midamos serán consistentes pero más altos o más bajos de lo debido. Serán inexactos a pesar de ser precisos.

Figura agrupada

Para conocer con detalle una serie de datos, no basta con conocer las medidas, también necesitamos conocer la desviación que presentan esos datos respecto al promedio (o media aritmética), con objeto de tener una visión más real de los mismos para describirlos e interpretarlos correctamente. La desviación estándar (también llamada desviación típica) de un conjunto de datos “s” es una medida de cuánto se desvían los datos concretos del promedio de los mismos.

A título meramente informativo, se define la desviación estándar “s” como:fórmula desviación estandard

donde N es el número de medidas, 0009_media es el promedio (también llamada media), y 0009_xi representa cada una de las medidas individuales. Es decir, 0009_diferencia con la media es la diferencia entre cada valor concreto y la media (puede ser un valor positivo o negativo); si lo elevamos al cuadrado obtenemos 0009_diferencia con la media al cuadrado(que siempre será positivo) y 0009_suma diferencia con la media al cuadradosimboliza la suma de todos los cuadrados de las diferencias entre cada valor concreto y la media (sigue siendo un valor positivo). Finalmente, si dividimos por el número de medidas N menos una y extraemos la raiz cuadrada, obtenemos el valor de la desviación estándar “s”. Cuanto menor es el valor de s, menor es la dispersión de los datos respecto de su media o mayor es la precisión, lo que implica que los datos están agrupados muy próximos al promedio.