top of page
Buscar

Lo que la aviación le enseñó a la medicina (y viceversa)

En 1999, el Instituto de Medicina de los Estados Unidos publicó un informe que sacudió al sistema de salud mundial: To Err is Human. Su cifra central era demoledora — entre 44.000 y 98.000 personas morían cada año en hospitales estadounidenses a causa de errores médicos prevenibles. Más que los accidentes de tráfico. Más que el cáncer de mama.

La respuesta del sistema de salud fue, en muchos casos, mirar hacia un lado inesperado: la aviación. ¿Por qué la industria aérea? Porque había pasado décadas construyendo exactamente lo que la medicina necesitaba — una cultura sistemática de aprendizaje del error, sin culpabilización, con herramientas metodológicas robustas y resultados demostrables.

Lo que ocurrió después es uno de los ejemplos más fascinantes de transferencia de conocimiento entre industrias de alto riesgo.

El CRM y el trabajo en equipo quirúrgico

El Crew Resource Management (CRM) nació en la aviación en los años 70, después de que investigadores de la NASA detectaron que la mayoría de los accidentes aéreos no tenían causas técnicas — tenían causas humanas y organizacionales. Comunicación deficiente entre la tripulación. Jerarquías rígidas que silenciaban al copiloto. Capitanes que no aceptaban cuestionamientos.

El CRM propuso algo radical para la época: que la habilidad de comunicarse, de gestionar la autoridad, de tomar decisiones bajo presión y de trabajar en equipo eran competencias que podían enseñarse, practicarse y evaluarse. No eran rasgos de personalidad innatos.

Décadas después, los quirófanos comenzaron a adoptar versiones adaptadas de CRM. Los equipos quirúrgicos tienen una dinámica notable: un cirujano senior en el centro, una jerarquía clara, alta presión, consecuencias irreversibles de los errores. Exactamente la misma combinación que producía accidentes en la aviación. La transferencia de herramientas fue casi natural.

Los sistemas de reporte voluntario: aprender sin castigar

En 1975, la NASA creó el Aviation Safety Reporting System (ASRS) — un sistema confidencial donde pilotos, controladores y mecánicos podían reportar errores, casi-accidentes y condiciones inseguras sin miedo a represalias. El principio era simple pero revolucionario: la información sobre lo que sale mal vale más que el castigo al que lo reporta.

La medicina tardó décadas en entender este principio. La cultura del error médico estaba —y en muchos contextos sigue estando— dominada por el miedo a la consecuencia legal, disciplinaria o reputacional. Un médico que reporta un error propio se expone. Un sistema que no recibe esos reportes se queda ciego ante sus propias fallas.

En Argentina, la Ley Nicolás (N° 27.797, 2025) representa exactamente este giro: establece la obligación de reportar e investigar incidentes de seguridad con criterio no punitivo en todas las instituciones de salud del país. Es, en esencia, la aplicación del principio ASRS al sistema sanitario argentino.

El viaje de vuelta: lo que la medicina le enseña a la aviación

La transferencia no es unidireccional. La medicina también tiene lecciones que ofrecer a la aviación y a otras industrias de alto riesgo.

La investigación médica sobre factores humanos en entornos clínicos ha profundizado en dimensiones que la aviación no había explorado con igual rigor: la fatiga en guardias de 24 horas, las interrupciones durante procedimientos críticos, la comunicación en situaciones de fin de vida, la segunda víctima — el profesional de salud que sufre las consecuencias emocionales de haber cometido un error que dañó a un paciente.

Este último concepto tiene una dimensión humana que la aviación tardó en reconocer pero que la medicina puso sobre la mesa con claridad: los errores no solo dañan a quienes los padecen. También dañan a quienes los cometen — cuando trabajan en sistemas que no están diseñados para sostenerlos.

El fondo común: el sistema como unidad de análisis

Lo que aviación y medicina comparten, cuando trabajan desde la perspectiva de la seguridad sistémica, es una misma convicción de base: los accidentes no ocurren porque las personas son incompetentes o negligentes. Ocurren porque los sistemas en los que operan esas personas tienen condiciones que hacen probable el error.

El cirujano que opera con instrumental mal esterilizado no es un descuidado — opera en un sistema con fallas de proceso. El piloto que no completa el checklist en una aproximación nocturna después de 14 horas de vuelo no es irresponsable — opera en un sistema que no gestiona la fatiga.

Cambiar esa perspectiva — de la persona al sistema — es el giro más importante que cualquier organización de alto riesgo puede hacer. Y es el trabajo que hacemos en FAP Global con organizaciones de aviación y ciencias de la salud: construir esa mirada sistémica desde adentro.

 
 
 

Entradas recientes

Ver todo
¿Por qué el error humano es una trampa conceptual?

Cada vez que ocurre un accidente, la búsqueda del responsable comienza casi de forma automática. Es una respuesta humana comprensible: queremos saber quién falló, porque eso nos da la ilusión de que e

 
 
 

Comentarios


bottom of page