evidencia
|

¿Puedes presentar evidencia generada con IA ante NICE, CONITEC e IETS? La respuesta en 2026.

Autores

Una agencia ya tiene una posición clara. Las otras dos aún no. Esto es lo que los equipos de market access necesitan saber hoy sobre el estado real de la IA en las submissions de evidencia HTA.


Es la pregunta que muchos directores de market access y managers de HEOR llevan meses evitando hacer en voz alta: ¿si mi equipo usa inteligencia artificial para construir parte de nuestra evidencia, eso va a ser aceptado por las agencias HTA?

La respuesta no es simple. Y depende de a cuál agencia le estás preguntando.

A principios de 2026, el panorama global de IA en submissions HTA tiene una sola agencia de primer nivel con una posición pública clara, varias en proceso de desarrollar sus marcos, y las principales agencias de América Latina en silencio oficial — aunque no en inactividad real. Este artículo resume lo que se sabe, lo que se puede inferir, y lo que los equipos deben hacer mientras el panorama termina de definirse.

1. NICE: la única agencia con respuesta oficial — y los detalles importan

En agosto de 2024, el National Institute for Health and Care Excellence del Reino Unido publicó su Position Statement sobre uso de IA en generación de evidencia (ECD11)[1]. Fue el primer documento de este tipo emitido por una agencia HTA de referencia global. La respuesta a la pregunta central es sí — pero con condiciones muy precisas.

Lo que NICE sí acepta
  • Uso de IA en revisión sistemática de literatura: screening de abstracts, clasificación de estudios, extracción de datos asistida.
  • Uso de IA en procesamiento de datos de evidencia de vida real: transformación de datos no estructurados, integración de fuentes diversas.
  • Asistencia de IA en construcción de modelos económicos: generación de código, replicación de modelos, análisis de sensibilidad.
  • IA como dato suplementario cuando los métodos tradicionales son insuficientes o no disponibles.
Lo que NICE no acepta sin condiciones
  • Evidencia generada con IA como dato principal donde existen alternativas metodológicas establecidas.
  • Estimación de efectos comparativos basada en IA sin análisis de sensibilidad y triangulación con evidencia clínica disponible.
  • Uso de IA sin documentación transparente del proceso, la herramienta y los supuestos utilizados.
  • IA sin supervisión humana explícita — el principio de “un humano competente e informado en el proceso” es no negociable[2].
Lo nuevo en 2025: NICE va más allá del position statement

En agosto de 2025, NICE inició dos nuevos proyectos en su HTA Lab que van más allá del ECD11[3]. El primero, “Artificial Intelligence in HTA”, explora cómo las técnicas de IA generativa pueden informar todos los aspectos del modelado económico, desde el desarrollo hasta la validación. El segundo, “The Future of HTA with AI”, investiga cómo la IA puede apoyar y evolucionar los propios procesos de HTA de NICE, incluyendo automatización, modelado predictivo y sistemas de razonamiento.

La señal es inequívoca: NICE no solo acepta IA en submissions — está activamente explorando cómo integrarla en sus propios procesos de evaluación. La pregunta ya no es si la IA es bienvenida en NICE. Es cuándo el resto del mundo la seguirá.

2. Canada’s Drug Agency y FDA: siguiendo el modelo NICE

Canada’s Drug Agency (CDA-AMC) publicó en 2025 su propio Position Statement sobre uso de IA en generación y reporte de evidencia[4]. El documento se basa explícitamente en los lineamientos de NICE y establece los mismos principios centrales: transparencia, validación, supervisión humana y uso justificado. Es la confirmación de que el modelo NICE está siendo adoptado como referencia por agencias de primer nivel.

La FDA publicó en 2025 su draft guidance sobre uso de IA para apoyar decisiones regulatorias en medicamentos y productos biológicos[5]. Aunque aplica al proceso regulatorio más que al HTA propiamente, establece un marco de principios — validación, transparencia, trazabilidad, supervisión humana — que converge con el de NICE y que las agencias HTA estarán observando.

El patrón global que emerge es claro: las agencias de referencia mundial están construyendo marcos que permiten la IA bajo condiciones estrictas. La pregunta para LATAM es cuándo y cómo seguirán ese camino.

3. CONITEC (Brasil): silencio oficial, pero movimiento real

CONITEC no tiene a la fecha ningún documento público sobre el uso de IA en submissions de evidencia. Sus Diretrizes Metodológicas para evaluaciones económicas — la referencia metodológica central para submissions ante la agencia — no abordan específicamente los métodos basados en IA[6].

Esto no significa que CONITEC sea ajena al tema. Sus profesionales participan activamente en ISPOR, en RedETSA y en conferencias internacionales donde la IA en HEOR es ya un tema central. Los evaluadores de CONITEC conocen el Position Statement de NICE. Y Brasil aprobó en diciembre de 2024 en el Senado el PL 2.338/2023 de regulación general de IA — actualmente en la Cámara — que establece principios de transparencia y clasificación por riesgo[7].

La posición práctica hoy: un dossier presentado a CONITEC con evidencia generada parcialmente con IA será evaluado con los criterios metodológicos vigentes — rigor científico, transparencia de métodos, reproduciblidad de resultados. Si la evidencia cumple esos criterios y el proceso está bien documentado, no hay base para su rechazo automático. Pero tampoco hay protección frente a un evaluador que decida cuestionar la metodología.

La recomendación práctica: usar IA en CONITEC siguiendo el modelo NICE. Documentar, validar, mantener supervisión humana, y no hacer del uso de IA el elemento central de la narrativa metodológica.

4. IETS (Colombia): misma situación, mismo razonamiento

IETS tampoco tiene una posición pública sobre IA en evidencia. Sus metodologías de evaluación se basan en estándares de ISPOR y EUnetHTA, y su equipo técnico está alineado con los desarrollos internacionales del campo. Colombia presentó en julio de 2025 el PL 043/2025 de regulación de IA, con mensaje de urgencia del Gobierno en septiembre de 2025[8], pero ese marco tampoco aborda específicamente la evidencia farmacéutica.

El razonamiento para IETS es idéntico al de CONITEC: en ausencia de reglas específicas, aplican los criterios metodológicos vigentes. Evidencia de calidad, bien documentada, con métodos transparentes y resultados reproducibles. La IA que cumple esos criterios no está prohibida — simplemente no tiene protección explícita.

5. Lo que el ISPOR Working Group recomienda a las agencias

El reporte del ISPOR Working Group sobre IA generativa en HTA, publicado en Value in Health en febrero de 2025[9], hace recomendaciones explícitas a las agencias HTA que todavía no tienen marcos:

  • Integrar el uso de modelos fundacionales en sus guías metodológicas existentes.
  • Armonizar estándares con otras agencias — el modelo NICE es el punto de partida lógico.
  • Invertir en formación de sus revisores en fundamentos de ciencia de datos e IA.
  • Promover proyectos piloto controlados de submissions con IA para construir experiencia antes de legislar.

Para CONITEC e IETS, seguir estas recomendaciones es una cuestión de tiempo. La presión del volumen de evaluaciones, la influencia de las agencias globales y la demanda de la industria por claridad metodológica hacen que definir una posición sea inevitable. La única pregunta es cuándo.

6. La respuesta práctica para los equipos de market access en 2026

Con este panorama, la respuesta a la pregunta del título es:

  • Ante NICE: sí, con condiciones claras y documentadas. El marco existe, es público y es aplicable hoy.
  • Ante CDA-AMC (Canadá): sí, bajo los mismos principios que NICE.
  • Ante CONITEC e IETS: no hay restricción explícita, pero tampoco hay protección. La estrategia es aplicar los estándares de NICE proactivamente y documentar el proceso con el mismo rigor que se exigirá cuando las reglas lleguen.

Tres principios operativos que aplican en todos los casos:

  • Documenta siempre: qué herramienta de IA, cómo se usó, qué validación se realizó, quién superó el proceso.
  • No pongas la IA al frente: úsala para acelerar y mejorar el proceso, no como el argumento central de tu metodología.
  • Mantén al humano en el loop: la supervisión experta no es opcional. Es lo que convierte un output de IA en evidencia defendible.
El escenario que viene

NICE ya está investigando cómo usar IA en sus propios procesos de evaluación. Canada’s Drug Agency sigue sus pasos. FDA está construyendo su marco regulatorio. CONITEC e IETS observan y aprenden.

En uno o dos años, el panorama de LATAM probablemente se parecerá mucho al de NICE hoy: IA aceptada, con condiciones. Los equipos que hayan construido capacidad metodológica rigurosa — que sepan cómo usar IA y cómo documentar ese uso — llegarán preparados a ese momento.

En Quantus, ayudamos a equipos de market access y HEOR a construir esa capacidad. Si quieres entender cómo preparar tu estrategia de evidencia para el contexto que viene, escríbenos aquí: https://www.getquantus.ai/


Referencias

[1] NICE. Use of AI in evidence generation: NICE position statement (ECD11). Agosto 2024. Disponible en: nice.org.uk/corporate/ecd11

[2] BeaconOne Healthcare Partners. NICE Opens Door to Use of AI in HTA Submission. Febrero 2025. Disponible en: beacononehcp.com

[3] NICE HTA Lab. HTA Lab projects: Artificial Intelligence in HTA and The Future of HTA with AI. Agosto 2025. Disponible en: nice.org.uk/what-nice-does/our-research-work/hta-lab/hta-lab-projects

[4] Canada’s Drug Agency (CDA-AMC). Position Statement on the Use of AI in the Generation and Reporting of Evidence. 2025. Disponible en: cda-amc.ca

[5] FDA. Draft Guidance: Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products. 2025. Disponible en: fda.gov

[6] CONITEC. Diretrizes Metodológicas: Elaboração de Estudos para Avaliação Econômica em Saúde. Ministério da Saúde, Brasil. Disponible en: conitec.gov.br

[7] Library of Congress. Brazil: Senate Advances Discussions on Bill to Regulate AI Use. Mayo 2025. Disponible en: loc.gov/global-legal-monitor

[8] AmCham Colombia. Proyecto de ley sobre inteligencia artificial: elementos clave de la regulación en Colombia. Agosto 2025. Disponible en: amchamcolombia.co

[9] Fleurence R, et al. Generative Artificial Intelligence for Health Technology Assessment: Opportunities, Challenges, and Policy Considerations. Value in Health. 2025;28(2):175-183. doi:10.1016/j.jval.2024.10.3846

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.