inteligencia artificial
|

8 formas (realistas) de usar inteligencia artificial en tu hospital en Colombia

Autor

La inteligencia artificial no es “un robot que reemplaza médicos”: es una familia de herramientas que puede reducir fricción en procesos clínicos y administrativos. En hospitales colombianos, el valor suele estar en priorizar casos, mejorar el flujo del paciente y estandarizar documentación. El reto no es solo comprar tecnología: es gobernarla con calidad, seguridad del paciente y protección de datos desde el día uno.


Por qué hablar de inteligencia artificial (IA) “usable” (y no de inteligencia artificial “de vitrina”)

En un hospital, la inteligencia artificial compite con urgencias más inmediatas: presión financiera, glosas y una operación que no se puede pausar. Por eso la pregunta útil no es “¿qué modelo usamos?”, sino “¿en qué proceso repetitivo hay fricción que sí podemos reducir sin aumentar el riesgo para el paciente?”.

La Organización Mundial de la Salud (OMS) plantea que la inteligencia artificial en salud debe diseñarse y desplegarse con ética y derechos humanos como eje, porque también puede amplificar inequidades o generar daño si se usa sin controles. (1)

Ejemplo cotidiano: si el cuello de botella es que los pacientes esperan horas por una cama o por una lectura de imagen, una inteligencia artificial que solo “hace tableros bonitos” no mueve el indicador. En cambio, una inteligencia artificial que ayude a priorizar, predecir demanda o estandarizar notas puede impactar el flujo y la seguridad.

En Colombia, este despliegue ocurre dentro de marcos obligatorios: el Sistema Obligatorio de Garantía de Calidad en Salud (SOGCS), la historia clínica y su reserva, y la protección de datos personales. (2,3,4)Ahora veremos unos ejemplos concretos de cómo la Inteligencia artificial puede tener usos reales en procesos cotidianos de nuestras labores.

1) Apoyo al triage (clasificación del riesgo) en urgencias, sin prometer milagros

La inteligencia artificial puede apoyar el triage (clasificación inicial del riesgo en urgencias) para identificar pacientes con mayor probabilidad de deterioro, ingreso o estancia prolongada. Una revisión de alcance (scoping review) encontró que, en los estudios incluidos, los modelos de aprendizaje automático mostraron mejor discriminación que sistemas convencionales; aun así, su utilidad depende de datos locales y de cómo se integra al flujo. (5)

Cómo se usa: el modelo toma variables ya disponibles al ingreso (edad, signos vitales, motivo de consulta, antecedentes y resultados rápidos) y produce una probabilidad de evento (por ejemplo, necesidad de hospitalización). No reemplaza el criterio clínico; funciona como “segunda mirada”.

Ejemplo cotidiano: un lunes con alta demanda, el coordinador ve 40 pacientes en sala. Un apoyo de inteligencia artificial puede señalar 6 con riesgo de deterioro “silencioso” (por ejemplo, adulto mayor con saturación limítrofe), ayudando a ordenar revaloraciones.

Cuidado clave: si el modelo fue entrenado en una población distinta, puede fallar en subgrupos y empeorar inequidades. La Organización Mundial de la Salud advierte explícitamente sobre sesgos como parte central de la gobernanza. (1)

2) Predicción de demanda y gestión de camas (inteligencia artificial como analítica predictiva)

Muchos hospitales pierden productividad por desajustes de capacidad: camas sin rotación, demoras en traslados y picos previsibles sin preparación. Con inteligencia artificial —en la práctica, analítica predictiva— se puede estimar demanda por servicio y probabilidad de egreso.

Cómo se usa: modelos con datos históricos (admisiones por hora/día, diagnósticos, tiempos de estancia y ocupación por unidad). No necesitas inteligencia artificial generativa para esto; necesitas datos confiables de admisión y egreso.

Ejemplo cotidiano: si los viernes suben ingresos de medicina interna y bajan egresos por autorizaciones o transporte, un pronóstico permite reforzar a trabajo social, farmacia y facturación para acelerar egresos clínicamente indicados.

Conexión con calidad: el Sistema Obligatorio de Garantía de Calidad en Salud define que las acciones deben orientarse a resultados centrados en el usuario, más allá de “tener documentos”. Un pronóstico de camas bien gobernado puede ser una intervención concreta para mejorar oportunidad y continuidad. (2,7)

3) Documentación clínica asistida (borradores con revisión humana)

La inteligencia artificial generativa (modelos de lenguaje) se usa para borradores de notas y resúmenes de egreso, buscando reducir carga de escritura. Un estudio en JAMA Internal Medicine comparó narrativas de resúmenes de alta generadas por un modelo de lenguaje vs. médicos, y encontró calidad comparable en ese contexto, con errores más frecuentes en los textos generados por el modelo, lo que refuerza la necesidad de revisión humana. (6)

Cómo se usa: el sistema toma información estructurada (diagnósticos, procedimientos, medicamentos) y produce un texto inicial para que el médico edite y firme.

Ejemplo cotidiano: un internista termina turno y debe cerrar 8 egresos. Un borrador puede acelerar el proceso, siempre que el médico confirme diagnóstico final, medicamentos y signos de alarma.Riesgo principal: “alucinaciones” (texto convincente pero falso) o errores por datos incompletos. Además, en Colombia la historia clínica es un documento privado y sometido a reserva; su acceso por terceros exige autorización del paciente o habilitación legal. (3)

4) Codificación clínica y soportes para auditoría (menos glosa por forma)

La inteligencia artificial puede ayudar a estandarizar la codificación (por ejemplo, Clasificación Internacional de Enfermedades (CIE-11)) [NS1] y detectar inconsistencias entre evolución, órdenes y epicrisis. Esto no “crea” ingresos; reduce reprocesos y glosas asociadas a soportes incompletos.

Cómo se usa: extracción de información desde texto (procesamiento de lenguaje natural) para proponer códigos y alertar “faltan soportes”.

Ejemplo cotidiano: cirugía registra un procedimiento, pero la nota de anestesia no quedó firmada o la descripción no coincide con el insumo facturado. Un sistema puede alertar antes de radicar cuenta.

Marco de calidad: el Sistema Obligatorio de Garantía de Calidad en Salud incluye el Programa de Auditoría para el Mejoramiento de la Calidad (PAMEC). Automatizar detección de fallas documentales puede integrarse como parte del ciclo de mejora. (2,7)

5) Seguridad del paciente: alertas tempranas de deterioro (con validación local)

Existen modelos que apoyan alertas tempranas (por ejemplo, riesgo de sepsis o deterioro respiratorio). En la práctica, el valor depende de dos cosas: (a) cuántos falsos positivos genera y (b) si se integra de forma realista al trabajo del equipo.

Cómo se usa: combina signos vitales, laboratorios y tendencias para estimar riesgo dinámico, en lugar de usar un umbral fijo.

Ejemplo cotidiano: en hospitalización, un paciente con taquicardia progresiva y caída de presión puede disparar una alerta de revaloración antes de un “código azul”.

Advertencia de gobernanza: Emergency Care Research Institute (ECRI) ha señalado la gobernanza insuficiente de inteligencia artificial y los riesgos de tecnologías habilitadas con inteligencia artificial (incluyendo artefactos o distorsiones en imágenes) como preocupaciones de seguridad en sus listados recientes. (8)

6) Radiología (apoyo acotado y validable por el especialista)

En imagenología, la inteligencia artificial se usa para tareas específicas: detección de hallazgos, priorización de listas y soporte en mediciones. El caso de uso suele ser más delimitado: entra una imagen, sale una sugerencia, y el radiólogo valida.

Cómo se usa: como “lector adicional” o herramienta de priorización, por ejemplo, para subir en la lista estudios con posible hallazgo crítico.

Ejemplo cotidiano: en turno nocturno con un solo radiólogo, el sistema marca estudios con alta probabilidad de hallazgo relevante para revisión prioritaria.

Riesgo técnico-clínico: Emergency Care Research Institute advierte que algunos algoritmos pueden introducir artefactos o distorsiones que afecten la interpretación si no hay controles. (8)

Nota regulatoria (prudente): algunas soluciones pueden considerarse Software as a Medical Device (SaMD). Guías internacionales del International Medical Device Regulators Forum (IMDRF), como la N41, ayudan a estructurar la evaluación clínica y la gestión del ciclo de vida, incluso si la adopción debe ajustarse al marco colombiano aplicable. (9)

7) Experiencia del paciente: asistentes de orientación y recordatorios (sin entrar a clínica)

No toda inteligencia artificial toca decisiones clínicas. Un uso de alto retorno puede ser mejorar experiencia: orientación en admisiones, preparación para exámenes, recordatorios de citas y comunicación en lenguaje claro.

Cómo se usa: asistentes con guiones controlados en canales como web o WhatsApp. Responden sobre horarios, preparación y documentos, y derivan a humano cuando aparecen síntomas.

Ejemplo cotidiano: el día anterior a una colonoscopia, el asistente confirma preparación, dieta y hora de llegada. Esto puede reducir inasistencias y reprocesos de agenda.

Cuidado de privacidad: si el asistente usa datos personales, aplica el régimen de protección de datos (Ley 1581 de 2012) para tratamiento realizado en territorio colombiano o cuando aplique la legislación colombiana. (4)

8) Gobierno de inteligencia artificial: el “caso de uso” que habilita (o bloquea) todos los demás

El mayor error es creer que inteligencia artificial es solo un proyecto de tecnología. En realidad, es un proyecto socio-técnico: datos, procesos, talento, riesgos, cultura clínica y responsabilidades.

Qué implica gobierno de inteligencia artificial en un hospital:

  1. Calidad y seguridad: objetivo, métricas, umbrales de riesgo y plan de monitoreo.
  2. Gestión del cambio: capacitación para que el equipo entienda qué hace y qué no hace el modelo.
  3. Ciclo de vida: versiones, cambios, auditoría y reevaluación periódica.
  4. Protección de datos: finalidades, accesos y minimización.

Ejemplo cotidiano: compras adquiere un “chat de inteligencia artificial” para responder dudas clínicas. Sin guías, un residente lo usa para decisiones terapéuticas. Un comité de gobierno habría limitado el uso a educación o documentación, con advertencias y trazabilidad.

Marcos útiles (para traducirlos a la realidad colombiana)

  • La Organización Mundial de la Salud propone recomendaciones de ética y gobernanza para inteligencia artificial en salud, útiles para comités institucionales. (1)
  • El Sistema Obligatorio de Garantía de Calidad en Salud define un marco en el que la inteligencia artificial debe insertarse como intervención que mejora resultados, no como “proyecto aislado”. (2,7)
  • La historia clínica tiene reserva y reglas de custodia y confidencialidad, lo que impacta cualquier entrenamiento, prueba o despliegue con datos clínicos. (3)
  • La política pública colombiana en transformación digital e inteligencia artificial (Consejo Nacional de Política Económica y Social (CONPES) 3975 de 2019) y la Política Nacional de inteligencia artificial (Consejo Nacional de Política Económica y Social 4144 de 2025) dan lineamientos país para adopción y gobernanza ética, aunque no son manuales hospitalarios. (11,12)

Limitaciones (lo que conviene decirle a la junta antes de invertir)

  1. Evidencia heterogénea: hay potencial, pero la efectividad depende de una integración con flujos, calidad del dato y adherencia del equipo. Un modelo “bueno en estudio” puede ser irrelevante si no encaja con el proceso. (5)
  2. Sesgo y equidad: si el entrenamiento no representa poblaciones locales, el desempeño puede variar por subgrupos y empeorar inequidades. (1)
  3. Riesgos de seguridad por mala gobernanza: hay preocupación documentada por consecuencias no intencionadas al adoptar inteligencia artificial sin controles, incluyendo sobreconfianza y errores silenciosos. (8)
  4. Privacidad y reserva clínica: el valor de inteligencia artificial crece con datos, pero la historia clínica es reservada y los datos personales están regulados. Esto limita enfoques “rápidos” y obliga a procesos robustos de acceso, autorización y seguridad. (3,4)

Una forma práctica de priorizar (4 semanas, sin vender humo)

  1. Elegir 1 caso de uso operativo y 1 clínico (por ejemplo: predicción de demanda + borrador de resúmenes de alta), con responsables clínicos y administrativos.
  2. Definir el estándar de seguridad: qué error es aceptable, cómo se revisa y cuándo se apaga el sistema.
  3. Pilotear con supervisión: medir tiempos, reprocesos, quejas y señales de riesgo.
  4. Escalar solo si mejora un indicador real (oportunidad, continuidad, calidad del soporte, flujo de camas) dentro del marco de calidad del hospital. (2)

Ejemplo cotidiano: si el piloto reduce tiempo de cierre de egresos, pero aumenta correcciones por errores, el resultado neto puede ser negativo. El piloto debe medir ambos lados.

En pocas palabras

  • La inteligencia artificial “usable” en hospitales no es magia: es reducir fricción en procesos clínicos y administrativos sin aumentar el riesgo para el paciente.
  • Ocho casos de uso realistas: triagepredicción de demanda y camasdocumentación asistidacodificación/auditoríaalertas de deterioroapoyo en radiologíaasistentes de orientación/recordatorios y gobierno de inteligencia artificial.
  • Para que funcione: datos de calidadvalidación localhumanos en el loopprivacidad y seguridad, y monitoreo continuo con métricas claras.
  • Empieza pequeño y medible: 1 caso de uso, un piloto corto, y luego escala con gobernanza.

Próximo paso

Si estás en la industria farmacéutica y quieres usar la IA para demostrar el valor de tu medicamento al pagador contáctanos


Referencias:

  1. World Health Organization (WHO). Ethics and governance of artificial intelligence for health. 28 June 2021. (who.int)
  2. Ministerio de Salud y Protección Social (Colombia). Sistema Obligatorio de Garantía de Calidad en Salud (SOGCS) — definición y componentes (referido en Decreto 780 de 2016, Parte 5, Título 1, Capítulo 1). (minsalud.gov.co)
  3. Ministerio de Salud (Colombia). Resolución 1995 de 1999: normas para el manejo de la historia clínica (definición: documento privado, obligatorio y sometido a reserva). (normograma.supersalud.gov.co)
  4. Congreso de Colombia. Ley Estatutaria 1581 de 2012 — Protección de datos personales (art. 2: ámbito de aplicación). (cancilleria.gov.co)
  5. Tyler S, Olis M, Aust N, et al. Use of Artificial Intelligence in Triage in Hospital Emergency Departments: A Scoping Review. Cureus. 2024. PMID: 38854295. (pubmed.ncbi.nlm.nih.gov)
  6. Williams CYK, Subramanian CR, Ali SS, et al. Physician- and Large Language Model–Generated Hospital Discharge Summaries. JAMA Internal Medicine. 2025. (pubmed.ncbi.nlm.nih.gov)
  7. Presidencia de la República / Ministerio de la Protección Social (Colombia). Decreto 1011 de 2006 — Sistema Obligatorio de Garantía de Calidad de la Atención de Salud (compilación normativa). (cancilleria.gov.co)
  8. ECRI. Artificial Intelligence (AI) Resources: riesgos de seguridad del paciente y necesidad de gobernanza; incluye referencias a Top 10 Health Technology Hazards 2024/2025 y preocupaciones 2024/2025. (home.ecri.org)
  9. International Medical Device Regulators Forum (IMDRF). Software as a Medical Device (SaMD): Clinical Evaluation (IMDRF/SaMD WG/N41). Published 21 September 2017. (imdrf.org)
  10. U.S. Food and Drug Administration (FDA). Good Machine Learning Practice (GMLP) for Medical Device Development: Guiding Principles. (fda.gov)
  11. Departamento Nacional de Planeación (Colombia). CONPES 3975 de 2019: Política Nacional para la Transformación Digital e Inteligencia Artificial (compilación). (cancilleria.gov.co)
  12. Departamento Nacional de Planeación (Colombia). CONPES 4144 de 2025: Política Nacional de Inteligencia Artificial (versión aprobada 14 de febrero de 2025) y reseña institucional. (cancilleria.gov.co ; dnp.gov.co)

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.