SENSIBILIDAD DE LAS TÉCNICAS INMUNOANALÍTICAS - PRIMERA PARTE

Versión para impresiónVersión en PDF

SENSIBILIDAD DE LAS TÉCNICAS INMUNOANALÍTICAS - Primera parte

Características de la sensibilidad de las técnicas inmunoanalíticas

La palabra sensibilidad en inmunoanálisis adoptó varias definiciones desde el nacimiento del RIA en 1959, a la fecha, es decir, por más de 50 años, fue la sensibilidad de estas técnicas lo que motivó a científicos, académicos, líderes de opinión, grupos de profesionales, empresas, y para todos los que querían expresar, resaltar, y hasta diseñar estrategias de marketing de guerra y manejo de objeciones acerca de las ventajas y desventajas, bondades e inconvenientes de tal o cual metodología, marca comercial, equipamiento, condiciones de trabajo, laboratorios y profesionales operadores, hallazgo de resultados clínicos, etcétera. Incluso se escribieron en todo el mundo innumerables publicaciones científicas, informes, pósters, comunicaciones a congresos, y en toda clase de información científico-técnica relacionada con la temática.

Ciertamente se han utilizado toneladas de papel y tinta pero podemos preguntarnos: ¿qué hay de cierto de todo lo que se ha dicho y publicado acerca de la sensibilidad?

Los profesionales que hablan o escriben acerca de la sensibilidad de tal o cual metodología: ¿tienen verdaderamente una visión amplia acerca de todos los factores que influyen en la sensibilidad de metodologías inmunoanalíticas o lo único que impera es solo el dato clínico?

Nosotros no volcaremos solo información, aportaremos bibliografía, aunque muchas citas están disponibles libremente en Internet, en libros, en publicaciones científicas, etcétera. Expondremos el conocimiento que hemos acumulado durante muchos años de experiencias propias y también el que surgió de la interacción con numerosos profesionales de la Argentina y Latinoamérica; estamos convencidos de que el lector se sorprenderá cuando considere la totalidad de los factores que afectan la sensibilidad de las técnicas inmunoanalíticas.

Antes de comenzar a enumerar y detallar todos los factores que influyen en la sensibilidad de los inmunoanálisis, trataremos de ampliar el significado de INMUNOANÁLISIS, y para ello, en lo sucesivo incluiremos algunos conceptos de física, metodología de radioisótopos, química inorgánica, química analítica, química orgánica, química biológica, bioestadística, fisicoquímica–como es el caso de la implicancia del segundo principio de la termodinámica y equilibrio químico–, fisicoquímicabiológica –por el comportamiento de las macromoléculas–, inmunología, farmacología y, por supuesto, bioquímica clínica.

Primeras consideraciones de las técnicas inmunoanalíticas

  • Las técnicas inmunoanalíticas son todas semiempíricas.

El análisis matemático que llevó en sus inicios a la explicación de las técnicas inmunoanalíticas partió de la ley de Guldberg y Waage y se la conoce también como "Ley de acción de masas" (L.A.M.). Debido al enunciado original, sus autores aludieron a conceptos tales como "fuerzas de acción" y "masas activas", aunque el descubrimiento de esta ley fue el resultado del análisis de datos experimentales, donde pudo ser explicada a partir de las leyes de la termodinámica.

La ley de acción de masas permitió hacer cálculos y predicciones sobre el equilibrio. Así, el efecto de la concentración pudo explicarse de la siguiente manera: "Si en un sistema en equilibrio se aumenta la concentración de un reactivo, [Ag] por ejemplo, la reacción ha de desplazarse hacia la derecha en el sentido de formación de los productos para que el cociente representado por Ka se mantenga constante".

Tengamos presente que por más de 50 años, esta ley permitió explicar las bases de reacciones en equilibrio, no solo [Antígeno-Anticuerpo], sino también otras reacciones como: [Enzima-Sustrato], [Ligando-Receptor], [Oxígeno-Hemoglobina], etcétera. Para el caso de la reacción [Ligando-Receptor], se ha de considerar como ligando una hormona, un fármaco, etcétera.

En todas las reacciones se ha debido efectuar distintos tipos de consideraciones para ajustarlas al modelo matemático (aspecto que será tratado en otro caso práctico), pero esas consideraciones fueron requeridas para realizar los ensayos invitro, pues invivo, estas reacciones ocurren pero tienen otro comportamiento, y dan como resultado una determinada acción biológica o farmacológica.

En los sistemas inmunoanalíticos competitivos utilizados en la actualidad e independiente del tipo de respuesta que midamos (radiactividad, densidad óptica, fluorescencia, electroquimioluminiscencia o quimioluminiscencia), el fundamento y el comportamiento de la inmunorreacción primaria [Ag-Ac] se mantiene tal como fuera explicado entre las décadas de 1960 y 1980 por los doctores Rosalyn Yallow, David Rodbard, Roger Ekins, entre otros.

Un gran avance científico se produjo en la década de 1970 con el desarrollo de los anticuerpos monoclonales y, a partir de allí, el desarrollo de las técnicas inmunométricas llamadas también "Sistemas Sándwich", donde participan dos anticuerpos que, según el diseño de los distintos fabricantes, pueden ser monoclonal-monoclonal o policlonal-monoclonal.

En este desarrollo, la reacción transcurre con equilibrios múltiples; en el “Sándwich” Ab-Ag-Ab, uno de los anticuerpos está unido a una fase sólida y el otro está unido a una marca o a un anclaje, se desarrollan en condiciones de no competencia donde el analito que se va a dosar es ligado con una fuerza equivalente a una unión covalente.

Además permitió disminuir los tiempos de incubación, agregar o aumentar pasos de lavados, disminuir uniones inespecíficas y lograr niveles de detección de concentraciones mucho más bajos, por lo menos un orden de magnitud menor que los sistemas competitivos.

A finales de la década de 1980, la tecnología permitió obtener sistemas de respuestas mucho más amplificadas que la radiactividad y la densidad óptica y, basados en los mismos principios de las inmunorreacciones, se logró disminuir en otro orden de magnitud el nivel de detección de muchos analitos que resultó de gran utilidad para el diagnóstico médico como la hTSH, tPSA, fPSA, hsPCR, etcétera.

Es importante destacar que los niveles de detección de concentraciones más bajas, sumado a la ventaja de la amplificación de las señales de respuesta ofrecida por la tecnología, solo son utilizadas para hormonas proteicas, anticuerpos y otras moléculas de las que obtuvieron dos anticuerpos distintos dirigidos contra dos epitopes diferentes de la misma molécula, para lograr el sándwich.

En el caso de las hormonas esteroides, tiroides como tT3 y tT4, metabolitos de fármacos, metabolitos de drogas de abuso, drogas terapéuticas, determinadas hormonas proteicas y anticuerpos, los sistemas siguen siendo competitivos, tal como fueron planteados hace 50 años.

  • Los resultados obtenidos por técnicas inmunoanalíticas son todos referenciados a una curva de calibración o a un punto de corte.

Los resultados clínicos de un analito determinado por técnicas inmunoanalíticas, considerando el volumen de muestra y su concentración molar, hacen que no pueda ser medido o cuantificado en forma absoluta como por precipitación y pesada.

Consideremospor ejemplo, la medición de la concentración de dos analitos; uno resuelto por una técnica enzimática, como la glucosa y, otro, por inmunoanálisis como el estradiol (E2). Para que el ejemplo sea más evidente, utilizaremos en ambos casos concentraciones en pg/mL.

En el caso del ensayo enzimático manual de glucosa, contamos con un control o muestra que tiene una concentración de 1 gramo/litro y, dispensando 20 mL de muestra en 1 mL de reactivo, significa que estaremos dispensando 20 mg (2,0 x 107 pg) de glucosa.

Para el ensayo manual por RIA de estradiol (E2), disponemos de un control de calidad o una muestra de un paciente que tiene una concentración de 40 pg/mL de suero y al dispensar 50 mL de la muestra en 1 mL de reactivo, estaremos dispensando una masa de 2 pg de E2 presente en la alícuota de muestra.

Salvando los ajustes que deberíamos realizar por sus pesos moleculares y volúmenes finales de cada incubación (en ambas, tanto enzimática como inmunoanalítica, es la molaridad del analito como la glucosa y el E2 las que entran en juego en cada reacción) estaremos comparando entre dos masas de analitos que difieren en 7 órdenes de magnitud.

Ello significa que estamos midiendo 2 pg de estradiol (presentes en 50 mL de muestra) versus 20.000.000 pg (20 ug) de glucosa (presentes en los 20 mL de la muestra). En este caso, y a modo ilustrativo, pretendemos exponer el potencial de los niveles de detección que tienen los sistemas inmunoanalíticos versus las técnicas de química clínica de catálisis enzimática.

Es como si quisiéramos pesar un bebe de 3 kg (en caso el E2 por inmunoanálisis) versus 30.000.000 kg (30.000 toneladas) de roca (que sería el caso de la glucosa). Chile, a modo de ejemplo, para la extracción del cobre de las rocas, obtiene 1.000 toneladas de roca por cada explosión de las minas a cielo abierto de las montañas, por lo que sería un equivalente a 30 explosiones de la montaña. Además, ambas mediciones se realizan en diferentes alícuotas de la misma muestra de suero de un paciente, que es un complejo fluido biológico con alta cantidad y variedad de moléculas, de las que muchas de ellas interaccionan de distinta forma entre sí.

Es importante recalcar que en los inmunoanálisis enzimáticos como en enzimo inmunoanálisis (EIA), fluorinmunoanálisis enzimático (FIA) y quimioluminiscencia inmunoanálisis enzimático (CLIA) para la medición del estradiol (E2), la inmunorreacción primaria [Ag-Ac] es la que gobernará en la reacción y la enzima solo actuará como reactivo secundario para dar una señal medible. La enzima puede catalizar un sustrato para dar un producto en forma directa generando color o actuando como catalizador de otras moléculas que generarán luz o fluorescencia; por esta razón, el ejemplo numérico descripto apunta a mostrar la imposibilidad de que el E2 pueda ser medido por técnicas de catálisis enzimática o por pesada y la imposibilidad de que sean estandarizadas.

Es muy difícil (algunos autores indican que es imposible) estandarizar los métodos inmunoanalíticos. La vedette de estos sistemas es el anticuerpo, sea poli o monoclonal; es una molécula biológica cuya estructura característica está sujeta a distintas fuerzas o leyes físicas, químicas y fisicoquímicas que operan en el seno de la reacción, al que denomino sistema termodinámico.

La cinética y la interacción molecular incrementada por una agitación permanente si la hubiere, afectan no solo la probabilidad de detección a dosis bajas (obtención de una diferencia estadísticamente significativa con la respuesta del estándar "0") sino también a la misma magnitud de los valores obtenidos por una u otra metodología.

Cualquier medición está sujeta a variaciones estadísticas que se ajustarán a la distribución que les corresponda, como la distribución Normal o la de Poisson, según sea el tipo de respuesta, por lo que es imposible que el error de la medición sea cero ("0").

Por ello, un valor de concentración de un analito determinado estará comprendido en un intervalo de confianza y además, podrá o no sufrir un desvío del valor verdadero acorde con la metodología, la técnica, el instrumento o el diseño que utilizó el fabricante.

Muchos colegas tienen en su mente el paradigma de la búsqueda y el encuentro de la metodología, la técnica o el instrumento perfecto, que nos dé la posibilidad de obtener la concentración exacta del analito del paciente, con precisión absoluta y desvío igual a “0”, pero es una tradición en nuestros cursos la siguiente respuesta:

Sin lugar a dudas les puedo decir que el único que sabe la concentración exacta porque tiene la metodología e instrumento ideal con total perfección en los resultados es DIOS.

Acá en la Tierra, quiero decirles que no me resulta un planteo racional cuando escucho que una metodología, una técnica, un analito o una marca comercial no gustan o anda mal, que algún instrumento funciona mal, que tal o cual profesional no sabe trabajar, o cosas similares. (Este tema justifica un tratamiento especial en otro caso práctico).

Lo que es malo para algunos, es bueno o indistinto para otros, y este tema se puede comprender analizando los paradigmas individuales o el efecto paradigmático de muchos profesionales. No es importante que tengamos diferencias en los resultados de concentración, lo importante es saber que esas diferencias existen.

Los componentes del resultado de concentración de un analito en una muestra son:

  • El instrumento
  • Los reactivos
  • El profesional
  • La muestra
  • X-files (son los archivos secretos, los datos anómalos o discrepantes que podemos obtener sin explicación alguna que ocurren en todas las metodologías y que podremos disminuir en su número cuanto mayor sea el conocimiento que tengamos de los 4 componentes anteriores).

A modo de ejemplo; el tema del gusto pasa solamente por ser una de las características organolépticas de los alimentos, y si es dulce, salado, agrio o amargo. Es decir, que si a un profesional le gusta o no le gusta, no influye en el resultado de un inmunoanálisis y, de la misma forma, si un instrumento funciona bien o mal va a depender de muchos factores, del profesional, del instrumento o de la interpretación del profesional; y todas son solucionables o perfectibles y no quedará directamente ligada a la esperanza de obtener el resultado de concentración de un analito que el profesional quiera o pretenda obtener.

Las diferencias de precisión y desvío –mínimas o importantes– entre metodologías y marcas comerciales para una misma muestra, las podemos observar en los programas de controles de calidad externo de todo el mundo. Ampliaremos este importante tema en este mismo caso práctico.

  • El resultado de un test de un ensayo dado, sea manual o automatizado, debe aportar la concentración del analito y, además la posibilidad de poder estimar el intervalo de confianza donde se encuentra esa concentración.

Desde hace más de 40 años, se destinó mucho tiempo en la enseñanza del cálculo de la dosis mínima detectable (DMD) de un sistema inmunoanalítico; se realiza calculando el error de la respuesta del estándar cero "0". Ese valor se resta en los ensayos competitivos o se suma en los ensayos inmunométricos, y el nuevo valor de respuesta obtenido se interpola en la curva dosis-respuesta (D-R) para obtener la concentración correspondiente.

El valor de dosis obtenido es la menor dosis que estadísticamente puede diferenciarse del estándar de ”0” de concentración. Actualmente los fabricantes de reactivos de diagnóstico informan en los manuales de instrucción de cada analito ese dato como "Sensitivity".

Es probable que ese dato haya sido de utilidad en el campo del diagnóstico para evaluar la sensibilidad de una metodología en los comienzos del inmunoanálisis, por RIA o EIA, cuando los sistemas de separación de la fracción libre de la unida no eran lo suficientemente robustos o los anticuerpos utilizados tenían constantes de afinidad bajas.

Realmente era lo que preocupaba a los profesionales analistas o bioquímicos, y generaba mucha incertidumbre la imprecisión en la zona de concentraciones bajas de la curva D-R. Desde hace 20 años, la tecnología con sus novedosos sistemas de separación, la calidad de los anticuerpos y los nuevos esquemas y desarrollos hicieron que las técnicas sean mucho más precisas y robustas.

Antiguamente, en técnicas manuales se decía que si la respuesta corregida obtenida por el error del estándar ”0” era inferior (en ensayos competitivos) o superior (en ensayos no competitivos) a la respuesta del primer estándar de concentración, se debía descartar ese estándar y comenzar a interpolar en la curva D-R a partir del segundo estándar. Esto solo quedó vigente para ensayos desarrollados en la investigación básica o aplicada.

Tengamos en cuenta que solo es válido interpolar valores de respuestas en el rango de la curva de calibración generada por el fabricante u obtener un resultado de dosis en el rango de concentraciones en el que fue validado el lote de reactivos para un determinado instrumento.

Fuera de los extremos de concentración, se estaría extrapolando un resultado, y eso no es válido, porque realmente no conocemos la función de la curva D-R entre el estándar ”0” y el primer estándar de concentración conocida, y mucho menos por encima del valor del estándar de mayor concentración, porque podríamos extrapolar resultados incorrectos por estar afectados a factores propios de los inmunoanálisis como el efecto Hook, que explicaremos en otro caso práctico.

Los fabricantes de reactivos informan la Sensitivity realizada con una cantidad que va de 10 a 20 replicados del estándar ”0” y cuanto mayor es el número de replicados, matemáticamente obtendremos un mejor estimador de la media, un menor error y, en consecuencia, una menor Sensitivity o DMD. Ello surge solamente de la ecuación estadística. Ese dato puede ser de utilidad al fabricante por exigencia de las autoridades regulatorias sanitarias para evaluar el comportamiento general del sistema, pero para el profesional usuario, ese dato quedó obsoleto con la automatización.

Luego nos hemos dejado encantar o cautivar como por "El Canto de la Sirena" por otro dato signado por la relevancia y la importancia que aportaba la Sensibilidad Funcional o Functional Sensitivity (SF), es decir, la concentración del analito que tiene un CV% menor o igual al 20%, otro dato más que aportan muchos fabricantes de reactivos.

Entusiasmó a muchos profesionales y laboratorios de referencia de todo el mundo, también insumió miles de kilogramos de papel y litros de tinta para publicaciones científicas, apartados en libros, conferencias, pósters, presentaciones en congresos, demostración de bondades de reactivos, de instrumentos, pero también para el intento de desprestigio de otros, etcétera.

Con esto no quiero decir que este dato no sirve para nada, pero permítanme comentarles que el valor de la SF obtenido por un fabricante o por un laboratorio para una metodología, un instrumento, una técnica y para cualquier analito dado, aporta una valiosa y válida información solamente al que la realiza y no es extrapolable ni comparable a otros laboratorios como a ningún otro usuario del mismo instrumento de la misma marca comercial.

Los profesionales analistas, a pesar de tener un mismo modelo de instrumento, técnica o marca comercial de reactivos, manual o automatizada, son distintos instrumentos, mediciones, parámetros de ajuste, eficiencia de medición, lotes de reactivos, juegos de estándares y ajustadores, condiciones de temperatura ambiental de los laboratorios, condiciones de almacenamiento de los reactivos, condiciones de mantenimiento de los instrumentos, distintas micropipetas y usuarios que pipetean en técnicas manuales, etcétera. Es un número muy importante de factores o diferentes condiciones que influyen dentro del tubo de reacción.

De acuerdo con lo expresado en el párrafo anterior: si un instrumento, por falta de mantenimiento, utilización de agua de baja calidad, contaminación de las tubuladuras, de las puntas de pipeteo o del agua, almacenamiento no apropiado de los reactivos según las indicaciones establecidas por el fabricante, o si en técnicas manuales un operador pipetea en forma más precisa que otro, si se utiliza una micropipeta más precisa que otra, si se trabaja en el laboratorio con temperaturas de 18 °C en invierno o 32 °C en verano, solo para citar algunos pocos factores, observaremos variaciones en la precisión de los resultados, se verá afectada la SF y la DMD. Así, para poder sacar conclusiones acerca de cómo afecta tal o cual factor, no será necesario calcular la sensibilidad funcional ni obtener el perfil de imprecisión de una técnica en particular.

Es importante tener presente que cuando leemos en un manual de instrucción de una técnica manual y el fabricante sugiere trabajar, incubar o realizar la práctica a temperatura ambiente (TA) de 17°C a 27°C, o incubar 2 horas a TA o 30 minutos a 37°C, no nos está diciendo que los valores o la sensibilidad serán las mismas y, de hecho, no lo son.

Con excepción de la corrida periódica de los controles de calidad internos y algunas repeticiones de muestras de pacientes para su confirmación y realizadas por simple tubo, ningún laboratorio realizará cinco o más replicados de una muestra de un paciente para disminuir el CV% (esto surge del análisis de la ecuación para el cálculo del error estándar, el CV es el error dividido la media de los replicados y a mayor número de replicados, menor será en CV%). Con ello podemos observar e intuir sin realizar ningún ensayo práctico que, si procesamos las muestras bajas realizando veinte replicados de cada una, solo por la ecuación estadística, la SF y el CV de las muestras o controles serán menores.

Algo similar al ejemplo anterior es el procedimiento que utilizan los fabricantes de reactivos, aunque con algunas variantes entre sí; primero obtienen y testean los valores de una curva de calibración contra el método de referencia o Gold Standard, con corridas de controles de calidad calibrados; obtienen los valores de los estándares promediando al menos 5 o más replicados de cada uno de los puntos y repetidos en 5 o más instrumentos diferentes del mismo modelo en el país de origen y, por lo tanto, el estimador de la media y su intervalo de confianza surgen de obtener al menos 20 replicados por punto de estándar.

De esta forma se establecen los valores de los calibradores y la serie de estándares –si es que son aportados con los reactivos y los parámetros de ajuste de las curvas maestras de los sistemas automatizados– para poder transformar la señal o relación de señal de una respuesta bruta de controles o muestras, en una respuesta normalizada para ser utilizada por todos los instrumentos del mismo modelo. Esa es una de las etapas de la validación de los reactivos con sus correspondientes ajustadores o calibradores para cada lote.

En todo el mundo, una vez que los profesionales usuarios normalizan los datos de ajuste del fabricante en sus respectivos instrumentos, obtienen un solo dato de respuesta por muestra o control, utilizan únicamente su propio instrumento e interpolan las respuestas de las muestras de los pacientes y los controles obtenidos, en la curva que el fabricante realizó en el país de origen.

Los fabricantes de controles de calidad internos calibrados informan en el protocolo el valor medio y su intervalo de confianza de cada analito para cada metodología, técnica, modelo de instrumento y marca comercial y, en algunos analitos son bastante diferentes.

Si los colegas me preguntaran si esto es correcto, voy a reiterarles el comentario acerca de la imposibilidad de estandarizar los inmunoensayos y les digo que no es importante que ocurra, que de hecho ocurre en la Argentina y en el mundo; lo más importante es saber que ocurre.

Si bien esto escapa de la sensibilidad de los inmunoanálisis, cada laboratorio deberá calcular sus valores de referencia para cada analito para su metodología e instrumento, confeccionar cartas de control con controles de calidad internos en las concentraciones críticas para cada analito, participar de un programa de control de calidad externo para conocer el desvío de su metodología e instrumento y con ello, relacionar la imprecisión de los controles internos con el desvío del control externo, y así calcular el exactitud con que informa los resultados en distintos niveles de concentración de los analitos en cuestión. Un modelo de cartas de control interno para ser utilizado en cada analito se podrá bajar del blog en el link correspondiente al final del caso práctico.

Por último, en el caso que se necesite o requiera tercerizar los activos (las muestras de los pacientes del laboratorio) a laboratorios de mayor complejidad, los propietarios de los activos (profesionales que tercerizan las muestras de sus pacientes) deberán auditar los valores de referencia (VR), los informes y la periodicidad de los mantenimientos del equipamiento utilizado estipulado por el fabricante, las cartas de control interno y el posicionamiento de cada analito con su metodología e instrumento correspondiente en el informe periódico del programa de control externo que tenga el laboratorio de alta complejidad.

Autor: Dr. Eduardo E. Castellani