# Ingresamos los datos de calibración de la sección 7 de la norma ISO 8466-2
# x: concentración en mg/L
# y: Absorbancia [UA]
<- c(12, 18, 24, 30, 36, 42, 48, 54, 60, 66)
x <- c(0.083, 0.123, 0.164, 0.203, 0.240, 0.273, 0.303, 0.334, 0.364, 0.393)
y
<- data.frame(x, y) # creamos un data frame con las variables x e y (esto es
d # análogo a una matriz de datos en Excel con dos columnas)
Incertidumbre de una calibración no lineal
Método GUM y Monte Carlo – Norma ISO 8466:2
En un post anterior revisamos cómo estimar la incertidumbre de la concentración de una muestra problema, cuando ésta ha sido obtenida interpolando la señal instrumental en una curva de calibración lineal.
La expresión es relativamente simple y vimos también cómo podemos implementarla en el lenguaje de programación R
a través del package chemCal
.
Sin embargo, la vida no es tan sencilla. Recoradará estimad@ lector@ que está bastante documentada la presencia de desviaciones de la linealidad a altas concentraciones, fenómeno muy conocido en los métodos espectrofotométricos (Ley de Lambert-Beer). La severidad de estas desviaciones varía en función del detector, el analito y otros factores físico-químicos del sistema de medición.
Cuando existen estas desviaciones y deseamos llevar a cabo un test de linealidad, es muy probable que el test rechace el modelo lineal, por lo tanto, no podemos estimar la incertidumbre de calibración asumiendo este modelo. Si bien es cierto podemos reducir el rango lineal y diluir la muestra problema que está fuera del rango, la operación de dilución introduce nuevos errores (incluso errores humanos de transcripción bastante frecuentes).
Una alternativa válida sería utilizar un modelo de calibración que capture esta no linealidad evitando así la dilución de la muestra, por lo tanto el problema se reduce a:
¿Cómo estimar la incertidumbre de una muestra problema que ha sido obtenida a través de una curva de calibración no lineal?
Sin embargo, de esta pregunta se desprende al mismo tiempo otra interrogante:
¿Cuál modelo de calibración no lineal utilizaré?
Existen varios modelos de calibración no lineal:
- Polinomios
- New Rational (en realidad se llaman aproximaciones de Padé)
- Splines
- Loess
- etc.
Por lo tanto, no existe una respuesta completamente correcta desde la prespectiva estadística, pues un modelo cuadrático sería tan válido como un polinomio cúbico. Desde el punto de vista químico podríamos preguntarnos ¿qué sentido químico tiene una curva de calibración polinómica de grado 5? ¿Son interpretables los parámetros del modelo? En un modelo lineal como el de Lambert-Beer: \(y = \beta_{0} + \beta_{1}x\) la pendiente de la curva de calibración tiene una interpretación química: es el producto entre coeficiente de extinción molar y la longitud de la celda:
\[ \underbrace{A}_\text{y} = \underbrace{\epsilon \cdot b}_\text{$\beta_{1}$} \cdot \underbrace{C}_\text{x} \tag{1}\]
Pero recuerde este sabio consejo de un monstruo de la estadística aplicada:
“All models are wrong, but some are useful” – George Box
Por lo tanto, tenemos que tomar una decisión. Y obviamente, como soy el autor de este humilde post, ya la tomé por Ud. En este artículo estimaremos la incertidumbre de calibración de un modelo polinómico de grado 2, también conocido como modelo cuadrático.
Nota: Desde el punto de vista estrictamente estadístico los modelos polinómicos, como la calibración cuadrática, son también modelos lineales ya que los coeficientes del modelo son lineales
\[y = \beta_{0} + \beta_{1}x + \beta_{2}x^2 + \epsilon\]
En cambio, en un modelo del tipo exponencial:
\[y = \beta_{0}\cdot e^{\beta_{1}x}\]
El coeficiente \(\beta_{1}\) no es una función lineal.
Métodos de estimación de incertidumbre de calibración
En este post ejemplificaremos y compararemos tres métodos de estimación de incertidumbre de calibración:
Norma ISO 8466-2:2001 Water quality – Calibration and evaluation of analytical methods and estimation of performance characteristics – Part 2: Calibration strategy for non-linear second-order calibration functions.
Método GUM
Método de Monte Carlo (Suplemento 1 ISO-GUM)
Implementaremos todos los métodos en el lenguaje de programación R
, explicando paso a paso el código fuente con el fin de que Ud. obtenga los mismos resultados, es decir, un análisis reproducible.
Datos de calibración
Para ejemplificar los cálculos, utilizaremos los datos de calibración indicados en el ejemplo de la sección 7 de la norma ISO 8466-2. El siguiente código R
nos permite ingresar los datos manualmente:
A continuación graficamos la curva de calibración con la librería ggplot2
:
library(ggplot2) # cargamos la librería ggplot2
theme_set(theme_minimal()) # esto es sólo por una cuestión estética del gráfico
ggplot(d, aes(x = x, y = y)) +
geom_point(color = 'red') +
xlab('Concentración [mg/L]') +
ylab('Absorbancia [UA]')
Mmm… no sé Ud. pero yo veo una leve curvatura. Como lo vimos en un post anterior llevaremos a cabo un análisis estadístico básico para evaluar si el modelo de calibración lineal es adecuado, o si nos inclinamos por la hipótesis de no linealidad.
Como no tenemos replicados de cada punto de calibración, haremos un Test de Linealidad de Mandel. Lo primero, es ajustar un modelo lineal a los datos \(y = a + bx\):
<- lm(y ~ x, data = d) # ajustamos un modelo lineal y lo guardamos
fit.lineal # con el nombre fit.lineal
summary(fit.lineal) # para ver el análisis estadístico del ajuste
Call:
lm(formula = y ~ x, data = d)
Residuals:
Min 1Q Median 3Q Max
-0.010636 -0.004720 0.001000 0.005727 0.009151
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.0250303 0.0058314 4.292 0.00264 **
x 0.0057172 0.0001368 41.803 1.18e-10 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 0.007453 on 8 degrees of freedom
Multiple R-squared: 0.9954, Adjusted R-squared: 0.9949
F-statistic: 1747 on 1 and 8 DF, p-value: 1.181e-10
Esta tabla nos dice que el intercepto del modelo es \(a = 0.0250303\) y la pendiente \(b = 0.0057172\). Note el alto coeficiente de determinación \(r^{2} = 0.9954\) lo cual indica que es un buen modelo. El coeficiente de correlación es \(r = 0.998\) que si bien es un dato a considerar, no es una prueba formal de linealidad.
La siguiente figura muestra el ajuste lineal sobre los datos de calibración:
library(ggpmisc) # para escribir ecuaciones dentro del gráfico
ggplot(d, aes(x = x, y = y)) +
geom_point(color = 'red') +
geom_smooth(method = 'lm', se = F,
size = 0.5) + # dibuja la curva de calibración lineal
xlab('Concentración [mg/L]') +
ylab('Absorbancia [UA]') +
stat_poly_eq(aes(label = paste(stat(eq.label), stat(rr.label),
sep = "*\", \"*")),
formula = y ~ x,
parse = TRUE,
rr.digits = 4)
Se observa que el ajuste lineal no es un buen modelo, pues no captura la curvatura de los datos a pesar del alto coeficiente de correlación. Esto se oberva más claramente si obervamos el gráfico de residuos:
plot(fit.lineal, which = 1, add.smooth = F, pch = 19, col = 'red',
main = 'Gráfico de residuos modelo lineal')
La evidencia en contra del modelo lineal es abrumadora, el gráfico muestra claramente un patrón en los residuos que indica que el modelo lineal no es adecuado. Sin embargo, a pesar de la evidencia, haremos el Test de Mandel para “comprobar” esta hipótesis. Para aplicar el Test de Mandel debemos ahora ajustar el modelo cuadrático y compararlo con el modelo lineal. Para ser consistentes en la notación de la norma ISO 8466-2, definiremos el modelo de calibración cuadrático como:
\[ y = a + bx + cx^2 \]
<- lm(y ~ x + I(x^2), data = d) # ajuste cuadrático y los guardamos
fit.nolineal # con el nombre fit.nolineal
summary(fit.nolineal)
Call:
lm(formula = y ~ x + I(x^2), data = d)
Residuals:
Min 1Q Median 3Q Max
-1.864e-03 -1.114e-03 6.818e-05 9.432e-04 1.939e-03
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -5.621e-03 2.475e-03 -2.271 0.0574 .
x 7.670e-03 1.420e-04 54.005 1.96e-10 ***
I(x^2) -2.504e-05 1.787e-06 -14.010 2.23e-06 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Residual standard error: 0.001479 on 7 degrees of freedom
Multiple R-squared: 0.9998, Adjusted R-squared: 0.9998
F-statistic: 2.23e+04 on 2 and 7 DF, p-value: 4.84e-14
Se obtiene una tabla similar que la del modelo lineal, con la adición del coeficiente que acompaña al \(x^2\): I(x^2)
\(= -2.504\times 10^{-5}\). Note que el coeficiente de determinación del modelo cuadrático es mayor que el del modelo lineal. Esto siempre se cumplirá, lo que hace el Test de Mandel es discernir si esta “mejora” en el modelo es “significativa”.
La siguiente figura muestra el ajuste no lineal, el cual captura mucho mejor la curvatura de los datos:
ggplot(d, aes(x = x, y = y)) +
geom_point(color = 'red') +
geom_smooth(method = 'lm', # dibuja la curva de calibración no lineal
se = F,
formula = y ~ x + I(x^2), size = 0.5) +
xlab('Concentración [mg/L]') +
ylab('Absorbancia [UA]') +
stat_poly_eq(aes(label = paste(stat(eq.label), stat(rr.label),
sep = "*\", \"*")),
formula = y ~ x + I(x^2),
parse = TRUE,
rr.digits = 4)
Ok, aplicamos el Test de Mandel con el comando anova
:
anova(fit.lineal, fit.nolineal)
Analysis of Variance Table
Model 1: y ~ x
Model 2: y ~ x + I(x^2)
Res.Df RSS Df Sum of Sq F Pr(>F)
1 8 0.00044442
2 7 0.00001530 1 0.00042912 196.29 2.235e-06 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
El p-value del test de Mandel es \(2.23\times 10^{-6}\), el cual de acuerdo a la interpretación tradicional, indica que el modelo lineal no es adecuado para los datos de calibración.
Procedamos, entonces, a estimar la incertidumbre de la concentración \(\hat{x}\) de una muestra problema, cuyo valor fue obtenido interpolando la señal instrumental en el modelo de calibración no lineal.
Estimación de incertidumbre de acuerdo a ISO 8466-2
Desde el punto de vista metrológico, la aproximación que indica esta norma es similar a lo que dicta la guía ISO GUM clásica, es decir, estima la incertidumbre a partir de un modelo de medición \(y = f(x)\). La “gracia” de esta norma es que nos ahorra tinta, pues la ecuación de incertidumbre ya está “algebraicamente manipulada”. No entraremos en los detalles de las primeras secciones de la norma los cuales estudian el comportamiento de la curvatura, es decir, si será posible encontrar un máximo o un mínimo, lo cual es clave en la utilidad del modelo cuadrático como función de calibración. Esto es importante porque recuerde que una función parabólica tiene dos soluciones, si existiera un máximo o un mínimo en el rango de trabajo, el modelo cuadrático no puede ser utilizado como función de calibración.
La siguiente ecuación calcula la incertidumbre expandida \(I(\hat{x}) = U_{\hat{x}}\) de la concentración de la muestra problema \(\hat{x}\), interpolada en la curva de calibración no lineal \(y = a + bx + cx^2\). Corresponde a la ecuación (27) de la norma:
\[ I(\hat{x}) = \frac{s_{y} \cdot t_{n - 3,\, 95\%}}{b + 2c\hat{x}} \cdot \sqrt{\frac{1}{N} + \frac{1}{\hat{N}} + \frac{(\hat{x} - \overline{x})^2 \, Q_{x^4} + \left(\hat{x}^2 - \frac{\sum x_{i}^{2}}{N} \right)^2 Q_{xx} - 2(\hat{x} - \overline{x}) \left(\hat{x}^2 - \frac{\sum x_{i}^{2}}{N} \right) Q_{x^3}} {Q_{x^4} Q_{xx} - \left( Q_{x^3} \right)^2}} \]
donde:
\[ s_{y} = \sqrt{\frac{\sum (y_{i} -\hat{y})^2}{N - 3}} \]
\(y_{i}\) es la respuesta experimental observada del estándar \(i\), \(\hat{y}\) es la respuesta instrumental que predice el modelo para el mismo estándar \(i\), por lo tanto \(e_{i} = y_{i} - \hat{y}\) es el residuo. \(N\) es el número de calibrantes. ¿Por qué el denominador es \(N - 3\) y no \(N -2\) como en la calibración lineal? Porque el modelo cuadrático posee tres parámetros \(a\), \(b\) y \(c\).
\(t_{N - 3,\, 95\%}\) es el valor del T de Student con \(N - 3\) grados de libertad y un 95% de confianza.
\(\hat{N}\) es el número de replicados independientes de la muestra problema. Como discutimos en otro post, esto no corresponde a inyectar \(\hat{N}\) veces la misma muestra en el instrumento.
\(\hat{x}\) es la concentración de la muestra problema interpolada en la curva de calibración no lineal, la cual se obtiene resolviendo la ecuación cuadrática. Como Ud. recordará de sus años mozos esto siginifica que la concentración interpolada se obtiene a partir de:
\[\hat{x} = \frac{-b \pm \sqrt{b^2 - 4(a - y_{0})c}}{2c}\] donde \(y_{0}\) es la señal instrumental de la muestra problema.
\(x_{i}\) es la concentración del estándar \(i\)
\(\overline{x} = \sum_{i = 1}^{N} x_{i}\) es el promedio de las concentraciones de los calibrantes.
Finalmente:
\[ \begin{aligned} Q_{xx} &= \sum x_{i}^2 - \frac{\left(\sum x_{i}\right)^2}{N} \\ Q_{x^3} &= \sum x_{i}^3 - \left(\sum x_{i} \times \frac{\sum x_{i}^2}{N}\right) \\ Q_{x^4} &= \sum x_{i}^4 - \frac{\left(\sum x_{i}^2\right)^2}{N} \end{aligned} \]
Ok, nada del otro mundo. Es bien fea, pero sólo son operaciones de aritmética básica. Algunas observaciones:
Como Ud. recordará en el caso de la calibración lineal, a partir de esta ecuación podemos inferir que si deseamos minimizar la incertidumbre de calibración no lineal podemos :
- Aumentar el número de calibrantes \(N\)
- Aumentar el número de replicados independientes de la muestra problema \(\hat{N}\)
- Aumentar la sensibilidad del método, que en el caso de la calibración cuadrática está dada por \(b + 2c\hat{x}\), es decir, depende de la concentración de la muestra problema \(\hat{x}\). En cambio, en la calibración lineal la sensibilidad era constante en todo el rango de concentración estudiado y correspondía a la pediente de la curva.
En el caso de la calibración lineal, la incertidumbre de calibración se minimiza en el centroide de la curva, en el caso del modelo cuadrático esto no siempre es así. Observe en la siguiente figura las bandas de confianza de ambos tipos de calibración:
Advierta que ambos modelos comparten la propiedad que la mayor incertidumbre se encuentra en los extremos. Sin embargo, en la calibración cuadrática, para este conjunto de datos, la menor incertidumbre no está en el centro de la curva.
Ok, a continuación implementaremos la ecuación de incertidumbre en R
con los datos del ejemplo de la sección 7 de la norma. La señal instrumental de la muestra problema es \(y_{0} = 0.084\) UA:
<- length(x) # Número de calibrantes
N <- 1 # Número de replicados de la muestra problema
N.hat <- sum(x^2) - sum(x)^2/N
Qxx <- sum(x^3) -(sum(x) * sum(x^2)/N)
Qx3 <- sum(x^4) - sum(x^2)^2/N
Qx4
<- fit.nolineal$coefficients[1]
a <- fit.nolineal$coefficients[2]
b <- fit.nolineal$coefficients[3]
c
<- summary(fit.nolineal)$sigma # Es lo que R denomina Residual standard error
s.y <- qt(0.975, N - 3) # El T de Student (¡Ya no se usan tablas!)
t
<- 0.084 # Es la señal instrumental de la muestra problema
y0 <- (-b + sqrt(b^2 - 4*(a - y0)*c))/(2*c) # Concentración de la muestra
x.hat
<- (s.y * t)/(b + 2*c*x.hat) * sqrt(
Ix 1/N + 1/N.hat + ((x.hat - mean(x))^2*Qx4 + (x.hat^2 - sum(x^2)/N)^2 * Qxx -
2*(x.hat - mean(x))*(x.hat^2 - sum(x^2)/N)*Qx3)/
* Qxx - Qx3^2)
(Qx4
)
<- unname(Ix) # Simplemente es para dejar sólo el número Ix
La concentración de la muestra es \(\hat{x} = 12.17\) mg/L. Al aplicar esta metodología obtenemos una incertidumbre expandida de \(I(\hat{x}) = 0.63\) mg/L, es decir, exactamente la misma que la que indica la norma ISO. Note que si Ud. quisiera combinar esta incertidumbre de calibración con algún otro factor (p.ej: masa de la muestra, volumen de aforo, etc.) debe primero tansformarla en incertidumbre estándar, dividiéndola por el factor de cobertura \(k\), que en este caso corresponde al t Student con \(N - 3\) grados de libertad al 95% de confianza (k = 2.36):
\[ u_{\hat{x}} = \frac{U_{\hat{x}}}{k} = 0.27\, \, \text{mg/L} \] Por lo tanto, si tuviéramos que informar el resultado de la concentración de la muestra interpolada en la curva de calibración no lineal informaríamos \(12.17 \pm 0.63\) mg/L [nota mental: mmmm… esto de las cifras significativas da para otro post, pero dejémoslo así por ahora. No olvidar borrar este comentario.]
¿Cómo varía esta incertidumbre de calibración no lineal con la concentración de la muestra? La siguiente figura muestra esta variación:
<- seq(12, 66, by = 6) # Rango de concentración
x <- length(x)
N <- 1
N.hat <- mean(x) # promedio de las concentraciones de los calibrantes
mu.x <- sum(x^2) # suma de las concentraciones de los calibrantes al cuadrado
sq.x <- sum(x^2) - sum(x)^2/N
Qxx <- sum(x^3) -(sum(x) * sum(x^2)/N)
Qx3 <- sum(x^4) - sum(x^2)^2/N
Qx4 <- qt(0.975, N - 3)
t
# Para graficar la incertidumbre vs concentración, primero debemos crear una
# función que tome un X (una concentración) y calcule el Y (incertidumbre)
<- function(x) {
Ux <- s.y*t/(b + 2*c*x) * sqrt(
U 1/N + 1/N.hat + ((x - mu.x)^2*Qx4 + (x^2 - sq.x/N)^2 * Qxx -
2*(x - mu.x)*(x^2 - sq.x/N)*Qx3)/
* Qxx - Qx3^2))
(Qx4 return(unname(U))
}
# Graficamos concentración (X) vs Incertidumbre (Y)
plot(x, Ux(x), type = 'n',
main = 'Concentración vs Incertidumbre de calibración',
xlab = 'Concentración [mg/L]',
ylab = 'Incertidumbre expandida [mg/L]')
lines(spline(x, Ux(x)), col = 'red')
Se aprecia que la incertidumbre aumenta con la concentración en una forma no constante para concentraciones mayores a 20 mg/L. Tal como mencionamos anteriormente, el mínimo no se encuentra en el centro del rango de concentración como ocurre con la calibración lineal. Para encontrar el valor exacto de concentración que minimiza la incertidumbre en este rango, usamos el comando optimize
:
# Busca el mínimo de la función Ux en el intervalo de 12 a 66 mg/L
optimize(Ux, interval = c(12, 66))
$minimum
[1] 20.29164
$objective
[1] 0.5808116
La concentración que minimiza la incertidumbre es 20.29 mg/L.
Muy entretenido, pero la vida es corta y debemos ser eficientes por lo tanto, para evitarnos el “tedio” de implementar la fórmula a mano, utilizaremos el package investr
el cual calcula exactamente la incertidumbre de calibración de un gran número de modelos de calibración, entre ellos, los modelos cuadráticos:
# y0 es la señal de la muestra problema y0 = 0.084 UA
library(investr) # Cargamos la librería investr
<- invest(fit.nolineal, data = d, y0 = y0, interval = 'Wald')
x.hat x.hat
estimate lower upper se
12.1672952 11.5400416 12.7945489 0.2652657
donde:
estimate
es la concentración de la muestra problemaupper
es el extremo superior de la incertidumbre expandida \(I(\hat{x})\)lower
es el extremo inferior de la incertidumbre expandida \(I(\hat{x})\)se
es la incertidumbre estándar de calibración \(u_{\hat{x}}\), la cual es exactamente igual a la obtenida por la fórmula anterior \(u_{\hat{x}} = \frac{U_{\hat{x}}}{k} = 0.27\, \, \text{mg/L}\)
Note que si quisiéramos obener \(I(\hat{x})\) a partir de esta tabla, tendríamos que hacer la siguiente operación \(I(\hat{x}) =\) upper
- estimate
:
$upper - x.hat$estimate x.hat
[1] 0.6272536
No podemos usar el package chemCal
que utilizamos en un post anterior para estimar la incertidumbre de calibración, porque este package sólo soporta calibraciones lineales.
Estimación de incertidumbre mediante Guía ISO GUM
Ya que la señal instrumental es una función de la concentración, entonces, podemos utilizar la aproximación ISO GUM clásica para estimar la incertidumbre de calibración. Por “clásica” me refiero a utilizar la aproximación de Taylor con las derivadas parciales. Esta guía dice lo siguiente:
- Expresar el mensurando como una ecuación de medición a través de una relación funcional con las magnitudes de entrada. En este caso el mensurando es la concentración \(\hat{x}\) cuya ecuación de medición es la solución de la ecuación cuadrática \(y_{0} = a + b\hat{x} + c\hat{x^2}\) donde \(y_{0}\) es la señal de la muestra problema:
\[ \hat{x} = \frac{-b \pm \sqrt{b^2 - 4(a - y_{0})c}}{2c} \] 2. Identificación de las fuentes de incertidumbre. Al observar la ecuación de medición identificamos las siguientes fuentes de incertidumbre:
- Parámetros del modelo cuadrático: \(a\), \(b\) y \(c\)
- Señal instrumental de la muestra problema \(y_{0}\)
- Evaluación de las fuentes de incertidumbre:
- Las incertidumbres estándar de los parámetros del modelo pueden ser obtenidas directamente del ajuste cuadrático
fit.nolineal
:
# parámetros del modelo
<- fit.nolineal$coeff[1]
a <- fit.nolineal$coeff[2]
b <- fit.nolineal$coeff[3]
c
# las incertidumbres estándar de a, b y c las obtenemos con la función summary
<- summary(fit.nolineal)$coefficients[1, 2]
ua <- summary(fit.nolineal)$coefficients[2, 2]
ub <- summary(fit.nolineal)$coefficients[3, 2] uc
- La incertidumbre estándar de la señal instrumental de la muestra problema también puede obtenerse del ajuste cuadrático y corresponde a la desviación estándar residual:
<- summary(fit.nolineal)$sigma
uy0 <- 0.084 # dato del problema, es decir, la absorbancia de la muestra y0
- Determinación de la incertidumbre estándar combinada \(u_{\hat{x}}\) a través de la expresión:
\[ u_{\hat{x}}^2 = \left( \frac{\partial{\hat{x}}}{\partial{y_{0}}}\right) ^{2} (u_{y_{0}})^{2} + \left( \frac{\partial{\hat{x}}}{\partial{a}}\right) ^{2} (u_{a})^{2} + \left( \frac{\partial{\hat{x}}}{\partial{b}}\right) ^{2} (u_{b})^{2} + \left( \frac{\partial{\hat{x}}}{\partial{c}}\right )^{2} (u_{c})^{2} \]
“sólo” nos falta obtener las derivadas parciales (aguante ese código \(\LaTeX\)):
\[ \begin{aligned} \frac{\partial{\hat{x}}}{\partial{y_{0}}} &= \frac{1}{\sqrt{b^{2} - 4c(a-y_{0})}} \\ \frac{\partial{\hat{x}}}{\partial{a}} &= \frac{-1}{\sqrt{b^{2} - 4c(a-y_{0})}} \\ \frac{\partial{\hat{x}}}{\partial{b}} &= \frac{-1 + \frac{b}{\sqrt{b^{2} - 4c(a-y_{0})}}}{2c} \\ \frac{\partial{\hat{x}}}{\partial{c}} &= \frac{-a + y_{0}}{c\sqrt{b^{2} - 4c(a-y_{0})}} - \frac{-b + \sqrt{b^{2} - 4c(a-y_{0})}}{2c^{2}} \end{aligned} \]
¡Listo! ahora debemos evaluar las expresiones. Pero como soy flojo, prefiero usar el excelente package metRology
que hará todo el trabajo por mí:
library(metRology) # cargamos la librería
<- expression((-b + sqrt(b^2 - 4*(a - y0)*c))/(2*c)) # ecuación de medición
expr <- list(a = a, b = b, c = c, y0 = y0) # valores de cada X input
x <- c(ua, ub, uc, uy0) # incertidumbres estándar de cada X input
u <- uncert(expr, x, u, method = 'GUM') # Usamos el método GUM
u.GUM u.GUM
Uncertainty evaluation
Call:
uncert.expression(obj = expr, x = x, u = u, method = "GUM")
Expression: (-b + sqrt(b^2 - 4 * (a - y0) * c))/(2 * c)
Evaluation method: GUM
Uncertainty budget:
x u c u.c
a -5.621212e-03 2.474778e-03 -141.6217 -0.35048212
b 7.670455e-03 1.420320e-04 -1723.1492 -0.24474238
c -2.504209e-05 1.787394e-06 -20966.0252 -0.03747454
y0 8.400000e-02 1.478563e-03 141.6217 0.20939648
y: 12.16727
u(y): 0.4774807
¿What? ¿Por qué obtuvimos una incertidumbre estándar de 0.477 y no la que calculamos con la ecuación de la norma ISO 0.265? Por la sencilla razón de que los parámetros de un modelo cuadrático no son independientes, sus covarianzas no son 0. Es más, algunas de las covarianzas son negativas. Observe la siguiente figura que fue obtenida simulando curvas de calibración cuadráticas. En la figura se muestra las correlaciones entre los tres parámetros del modelo no lineal:
# Simularemos p = 200 curvas de calibración cuadráticas a partir de los datos
# empíricos
<- 200 # Número de simulaciones
p <- numeric(p) # vector que guardará el parámetro a
a.sim <- numeric(p) # vector que guardará el parámetro b
b.sim <- numeric(p) # vector que guardará el parámetro c
c.sim
# Hacemos un loop
for(i in 1:p){
<- seq(12, 66, by = 6)
x.sim <- a + b*x.sim + c*x.sim^2 + rnorm(length(x.sim), 0, uy0)
y.sim <- lm(y.sim ~ x.sim + I(x.sim^2))
fit.nolineal.sim <- fit.nolineal.sim$coeff[1]
a.sim[i] <- fit.nolineal.sim$coeff[2]
b.sim[i] <- fit.nolineal.sim$coeff[3]
c.sim[i]
}
# guardamos los parámetros simulados en un data frame que llamamos param.sim
<- data.frame(a.sim, b.sim, c.sim)
param.sim
# graficamos los parámetros simulados
plot(param.sim)
Se advierte claramente que existe una correlación negativa entre los parámetros \(a\) y \(b\), además entre \(b\) y \(c\). La correlación entre \(a\) y \(c\) es positiva. En rigor, habría que incorporar las derivadas parciales cruzadas y las covarianzas entre los parámetros. De sólo pensarlo, me dan ganas de procastinar aún más la escritura de este post, así que recurriremos al package metRology
.
La parte “fácil” es obtener la matriz de covarianzas de los parámetros del modelo con el comando vcov
:
<- vcov(fit.nolineal)
v colnames(v) <- c('a', 'b', 'c') # solo cosmética para que aparezcan los nombres
rownames(v) <- c('a', 'b', 'c') # de los parámetros (es opcional)
v
a b c
a 6.124524e-06 -3.337187e-07 3.910406e-09
b -3.337187e-07 2.017310e-08 -2.491926e-10
c 3.910406e-09 -2.491926e-10 3.194776e-12
La diagonal de esta matriz es precisamente la incertidumbre estándar al cuadrado de los parámetros (a.k.a sus varianzas). Si queremos, también podemos expresarla como matriz de correlaciones con el comando cov2cor
:
<- cov2cor(v)
param.cor param.cor
a b c
a 1.0000000 -0.9494193 0.8840269
b -0.9494193 1.0000000 -0.9815865
c 0.8840269 -0.9815865 1.0000000
En la diagonal de esta matriz obviamente esperamos correlación 1. Se observa claramente la alta correlación entre los parámetros, como dijimos anteriormente, algunas de ellas son negativas.
La parte “difícil” es que debemos incorporar la variable señal instrumental de la muestra problema \(y_{0}\), la cual obviamente es independiente de los parámetros del modelo:
# Incorporamos la variable y0 que es independiente de los parámetros
<- rbind(v, y0 = rep(0, 3))
v <- cbind(v, y0 = rep(0, 4))
v 4, 4] <- uy0^2 # Asignamos al elemento de la 4a fila y 4a columna
v[# la varianza de y0
v
a b c y0
a 6.124524e-06 -3.337187e-07 3.910406e-09 0.000000e+00
b -3.337187e-07 2.017310e-08 -2.491926e-10 0.000000e+00
c 3.910406e-09 -2.491926e-10 3.194776e-12 0.000000e+00
y0 0.000000e+00 0.000000e+00 0.000000e+00 2.186147e-06
Ahora, incorporamos las covarianzas en el cálculo por método GUM:
<- uncert(expr, x, cov = v, method = "GUM")
u.GUM.cov u.GUM.cov
Uncertainty evaluation
Call:
uncert.expression(obj = expr, x = x, method = "GUM", cov = v)
Expression: (-b + sqrt(b^2 - 4 * (a - y0) * c))/(2 * c)
Evaluation method: GUM
Uncertainty budget:
x u c u.c
a -5.621212e-03 2.474778e-03 -141.6217 -0.35048212
b 7.670455e-03 1.420320e-04 -1723.1492 -0.24474238
c -2.504209e-05 1.787394e-06 -20966.0252 -0.03747454
y0 8.400000e-02 1.478563e-03 141.6217 0.20939648
y: 12.16727
u(y): 0.2651904
¡Perfecto!, ahora sí, al incluir las covarianzas obtenemos resultados consistentes con el método descrito en la norma ISO 8466-2.
Estimación con el Método de Monte Carlo
No detallaremos aquí cómo funciona el método de Monte Carlo, puede consultarlo en este post y en este otro.
Sería super simple si usamos el package metRology
, el problema es que el package lanza un error numérico cuando existen covarianzas negativas. Probé el ejemplo que incluye el manual de metRology
y el error se repite. Es un problema al evaluar la suma de las correlaciones. Le consulté al autor Steve Ellison, sin embargo, a la fecha (09 de junio 2020) aún no tengo respuesta, a pesar de que Steve siempre responde las consultas en forma muy expedita. Otros usuarios han tenido un problema similar y se ha abierto un hilo en stackoverflow.
Por lo tanto, implementamos el método de Monte Carlo “a mano” utilizando el package MASS
el cual permite generar muestras aleatorias multivariadas incluyendo las correlaciones:
# No funciona metRology MC así que lo hicimos a mano
library(MASS) # cargamos la librería
# Generamos n muestras aleatorias multivariadas, cuyas medias
# corresponden a los valores de a, b, c e y0
# La matriz de covarianza Sigma = v la calculamos anteriormente
set.seed(123) # Para que Ud. obtenga los mismos resultados
<- mvrnorm(n = 10000, mu = c(a, b, c, y0), Sigma = v, empirical = T)
muestra.MC colnames(muestra.MC) <- c('a', 'b', 'c', 'y0') # solo cosmética
<- data.frame(muestra.MC) # lo guardamos como data.frame
muestra.MC head(muestra.MC) # muestra las primeras n = 6 simulaciones
a b c y0
1 -0.006371785 0.007697494 -2.535336e-05 0.08771566
2 -0.006657346 0.007727893 -2.572028e-05 0.08385741
3 -0.005338584 0.007654631 -2.437727e-05 0.08643112
4 -0.006478276 0.007654191 -2.412670e-05 0.08417975
5 -0.008126340 0.007832532 -2.697179e-05 0.08478106
6 -0.005139204 0.007672558 -2.484339e-05 0.08644533
Cada fila es una simulación. Si, por ejemplo, calculamos el promedio de cada variable simulada, obtenemos un valor similar a los valores empíricos. A mayor número de simulaciones, más nos acercamos a valores que asumimos como verdaderos.
apply(muestra.MC, 2, mean) # promedio de cada columna
a b c y0
-5.621212e-03 7.670455e-03 -2.504209e-05 8.400000e-02
Bien, lo que tenemos que hacer es que en cada simulación debemos calcular la concentración de la muestra:
# cargaré estas librerías sólo para facilitar la manipulación de los datos
library(magrittr)
library(tidyverse)
# Creamos una nueva variable llamada x.hat que corresponde a la concentración de
# la muestra
<- muestra.MC %>%
muestra.MC mutate(x.hat = (-b + sqrt(b^2 - 4*(a - y0)*c))/(2*c))
head(muestra.MC) # muestra las primeras n = 6 simulaciones
a b c y0 x.hat
1 -0.006371785 0.007697494 -2.535336e-05 0.08771566 12.75935
2 -0.006657346 0.007727893 -2.572028e-05 0.08385741 12.20883
3 -0.005338584 0.007654631 -2.437727e-05 0.08643112 12.48521
4 -0.006478276 0.007654191 -2.412670e-05 0.08417975 12.32289
5 -0.008126340 0.007832532 -2.697179e-05 0.08478106 12.39039
6 -0.005139204 0.007672558 -2.484339e-05 0.08644533 12.43752
La última columna corresponde a la concentración calculada para cada simulación. Por lo tanto, si queremos obtener la incertidumbre estándar de la concentración, basta calcular la desviación estándar de esa columna:
<- mean(muestra.MC$x.hat) # valor promedio de concentración
mu.x.hat.MC <- sd(muestra.MC$x.hat) # incertidumbre estándar de la concentración
u.x.hat.MC u.x.hat.MC
[1] 0.265344
Se obtiene una incertidumbre estándar de calibración de 0.265 mg/L, la cual es consistente con los otros métodos estudiados. La siguiente figura muestra el histograma de las concentraciones simuladas:
hist(muestra.MC$x.hat,
breaks = 20,
main = 'Concentraciones simuladas por Monte Carlo',
xlab = 'Concentración [mg/L]')
Finalmente, la siguiente tabla resume los resultados de los tres métodos considerando la incertidumbre estándar de calibración:
<- data.frame(Ix/t, u.GUM$u.y, u.GUM.cov$u.y, u.x.hat.MC)
tabla ::kable(tabla,
knitrrownames = NA,
col.names = c('ISO', 'GUM', 'GUM/Covarianzas', 'Monte Carlo'),
align = 'l')
ISO | GUM | GUM/Covarianzas | Monte Carlo |
---|---|---|---|
0.2651904 | 0.4774807 | 0.2651904 | 0.265344 |
Se aprecia claramente una excelente concordancia entre los tres métodos. Sin embargo, para que el método GUM entregue resultados correctos, es necesario incorporar las covarianzas entre las variables input.
En un próximo post exploraremos el método Bootstrap, un método estadístico por excelencia para estimar incertidumbre sin utilizar un modelo de medición…
¡Dejad que los datos hablen!
Bibliografía
Norma ISO 8466-2:2001 Water quality – Calibration and evaluation of analytical methods and estimation of performance characteristics – Part 2: Calibration strategy for non-linear second-order calibration functions.
Brandon M. Greenwell and Christine M. Schubert Kabban (2014). investr: An R Package for Inverse Estimation. The R Journal, 6(1), 90-100. URL http://journal.r-project.org/archive/2014-1/greenwell-kabban.pdf.
NIST/SEMATECH e-Handbook of Statistical Methods, Uncertainty for quadratic calibration using propagation of error, https://www.itl.nist.gov/div898/handbook/mpc/section3/mpc3671.htm, 09 de junio 2020.
Nonlinear multivariate calibration methods in analytical chemistry Sonja Sekulic, Mary Beth Seasholtz, Ziyi Wang, Bruce R. Kowalski, Samuel E. Lee, and Bradley R. Holt Analytical Chemistry 1993 65 (19), 835A-845A