Download NETS Innovación y Tecnología en la Salud
Document related concepts
no text concepts found
Transcript
nets es una publicación de la Fundación Gaspar Casal - número 02 - octubre 2009 Innovación y Tecnología en la Salud net 02 editorial La revista NETS Innovación y Tecnología en la Salud es un recopilatorio de artículos publicados en www.proyectonets.org y aportaciones inéditas. Distribuye dos números anuales con una tirada de 15.000 ejemplares. Está estructurada en ocho secciones codificadas por colores: editorial, tecnología y eficiencia, gestionando conocimiento, adelántate al futuro, nuevas tecnologías, medicina del bienestar, tribuna profesional e iniciativas y programas. En los márgenes podrás encontrar información complementaria relacionada con cada artículo, en aquellos que han sido extraídos de www.proyectonets.org podrás leer alguno de los comentarios que los usuarios del portal han hecho al autor. Todo el contenido de la revista será publicado en www.proyectonets.org donde podrás descargarlo, enviarlo a amigos o participar en el debate comentando cada uno de ellos. Recuerda visitar www.proyectonets.org y crear tu perfil de usuario pinchando en la ventana "acceder" del menú superior y eligiendo la opción "obtener una cuenta nets". NETS programa diferentes actividades y retransmite en directo jornadas y encuentros científicos y académicos de gran interés, para ampliar información puedes contactar con nosotros en info@proyectonets.org. editor. Juan del LLano. director. Nicolás Villar. equipo de redacción. Dra. Yolanda Revilla. Dr. Luís Quecedo. Dra. María José Jiménez. maquetación. Marcosgpunto. impresión. V.A. Impresores. oficina editorial. Fundación Gaspar Casal. General Díaz Porlier 78, 8º A 28006 Madrid info@proyectonets.org ISSN: 1889 - 3007 La revista nets es una publicación de NETS: Red de Comunicación e Información Global de Tecnología Aplicada a la Salud. La Fundación Gaspar Casal no se hace responsable de las opiniones vertidas en los textos publicados. www.proyectonets.org bienvenidos a nets Innovación y Tecnología en la Salud nets_02 NICOLÁS VILLAR y JUAN DEL LLANO. NICOLÁS VILLAR Dr. J. DEL LLANO Hace justamente un año, la Fundación Gaspar Casal formó un equipo de trabajo para abordar un proyecto horizontal que analizase y acercase las nuevas formas de comunicación -y las tecnologías que las soportan- al sector sanitario. Abordamos el reto de crear un escenario común de trabajo para los diferentes agentes del sector sanitario basado en los principios de transparencia de la información, debate responsable y espíritu crítico. Aprovechando la experiencia acumulada a lo largo de una década de trabajo como organización en red, empezamos a construir una red social profesional denominada Proyecto NETS - www.proyectonets.org - que está a punto de cumplir un año. Las redes sociales son sistemas de comunicación mayoritariamente soportados por tecnologías de internet donde, de forma autónoma, usuarios espontáneos pueden crear comunidades de trabajo y grupos de afinidad y/o intereses comunes para compartir y publicitar información en formatos variados, texto, imagen, video etc. Las redes sociales se caracterizan por su universalidad, permiten acceder a contenidos generados por otros usuarios e interactuar con ellos de muy diversa índole; se popularizaron a finales de la década de los noventa de la mano del desarrollo y generalización de las tecnologías world wide web y el acceso y difusión de internet. Las redes sociales, como ya lo hizo el correo electrónico, han revolucionado la forma de comunicación entre las personas, su inmediatez, flexibilidad y adaptabilidad permiten diseñar comunidades de afines muy personalizadas y recibir información sobe los temas de interés desde orígenes normalmente no accesibles al mismo tiempo que permite conectar a personas cualquiera que sea su ubicación geográfica en tiempo real y de forma recurrente. El carácter multinacional de las redes sociales ha generado no pocos problemas en materia de protección de datos y libertad de la información lo que ha supuesto un freno a su uso por parte de organizaciones e instituciones y que hemos tenido en cuenta a la hora de diseñar NETS, más controlada y controlable preparada para trasladar esta nueva filosofía de comunicación a la dinámica de trabajo y estrategia de comunicación habitual de las corporaciones e instituciones sanitarias. La semana pasada nos enteramos que España se encontraba a la cola de la UE 27 en confianza de los pacientes en el sistema sanitario*. Si profundizamos un poco más en los indicadores utilizados para la comparación encontramos que nuestra puntuación es especialmente baja en el aprovechamiento de las nuevas tecnologías de la información y en e-salud. El compromiso de NETS es acercar no sólamente Internet a la cotidianidad del sistema sanitario sino, y muy especialmente, abrir los ojos y los ordenadores a las nuevas formas de comunicación, acostumbrarnos a compartir información sobre proyectos, experiencias, tecnologías, sistemas de gestión, indicadores económicos y demás, participando en los foros donde se debate continuamente sobre los temas que nos afectan y abordar cambios profundos en la forma en que la ciencia se comparte y se difunde. Más del 80% de la ciencia que se consume en todo el mundo se difunde a través de Internet: las publicacionen en papel, los congresos y los encuentros científicos o académicos tradicionales están perdiendo protagonismo y su replanteamiento es necesario ahora más que nunca. El Proyecto NETS está en proceso de transformación continua, los próximos días será presentada la versión NETS 3.0 que incorporará tecnologías de videcolaboración y supondrá un paso adelante a las relaciones 3.0 en www.proyectonets.org, que estrenó su interfaz multimedia - campusnets - en mayo de 2009 retransmitiendo en directo a 6 países a más de 350 usuarios concurrentes el V Foro Europeo de Política Farmacéutica y el pasado 16 de septiembre el encuentro sobre optimización del uso de medicamentos en el entorno hospitalario organizado por la Red EPIMED. NETS ha publicado de forma inédita 168 artículos técnicos, científicos y de divulgación de gran calidad, albergado más de 70 debates multidisciplinares sobre diversas materias y es soporte tecnológico para más de 15 blogs corporativos alimentados diariamente. Ha sido reconocido como herramienta de interés para el Sistema Nacional de Salud por la Agencia de Calidad del SNSE y por la Agència d´Avaluació de Tecnologia i Recerca Mèdiques de la Generalitat de Catalunya y sus recursos son citados diariamente en multitud de foros. Actualmente tiene cerca de 5000 usuarios registrados y forma parte de la Red Iris, el servidor público español de alta capacidad destinado a la conexión de grandes centros generadores de conocimiento de alto valor social. NETS no es un fin en si mismo, el trabajo de interlocución que hemos hecho desde el equipo de proyecto ha valido únicamente para poner en manos de médicos, hospitales, universidades, agencias de evaluación, compañías y profesionales, una herramienta de trabajo dotada con las tecnologías más avanzadas en la que compartir y debatir. Continuaremos esforzándonos para sumar voces a este Proyecto y siendo, como organización implicada, parte del debate que se vehiculice en torno a NETS. Nuestros retos más inmediatos son incorporar a NETS a los principales bloggers del sector sanitario celebrando el I Congreso de la Blogosfera Sanitaria, organizar la transición a NETS 3.0 y aumentar nuestra capacidad técnica para continuar siendo la red social sanitaria más potente y avanzada. Seguiremos presentando NETS en los hospitales de referencia y centros de atención primaria para implicar a médicos y gestores en el proyecto e invitaremos a las compañías más innovadoras a compartir en NETS el resultado de sus innovaciones, para que nuestros usuarios estén al día de lo que ocurre en los centros sanitarios pero también en los departamentos de I+D+i de las empresas comprometidas. En los tiempos que corren es motivo de especial orgullo presentar el segundo número de NETS Innovación y Tecnología en la Salud, la publicación que complementa al portal www.proyectonets.org dentro del Proyecto NETS. Es el resultado de la participación desinteresada de más de 70 articulistas a quienes agradecemos su compromiso y colaboración. A todos los navegantes de NETS y a quienes os aproximéis por primera vez a esta iniciativa, bienvenidos. Nicolás Villar. Director de NETS Innovación y Tecnología en la Salud. Director del Proyecto NETS. Juan del Llano. Editor de NETS Innovación y Tecnología en la Salud. *Health Consumer Powerhouse 2009. 2 BIENVENIDA. Nicolás Villar y Juan del Llano. EDITORIAL 6 LA DIGITALIZACIÓN DE LA MEDICINA: DE LA TEORÍA A LA PRÁCTICA. Dr. Martín Caicoya y Dr. Juan del Llano. 11 COMUNICACIÓN EN EL SISTEMA SANITARIO: EL EMPOWERMENT DEL PACIENTE. Nicolás Villar. TECNOLOGÍA Y EFICIENCIA 14 IMPACTO DE LA FARMACOGENÓMICA EN EL PROCESO DE INVESTIGACIÓN Y DESARROLLO DE UN NUEVO MEDICAMENTO. Laura Cabiedes. 18 LA NECESIDAD DE CONVERGENCIA ENTRE LA EVALUACIÓN DE TECNOLOGÍAS SANITARIAS Y LA INVESTIGACIÓN EN FARMACOGENÓMICA. Pedro Serrano y Mª del Mar Trujillo. 25 LA CRISIS, LA EVALUACIÓN DE TECNOLOGÍAS Y LAS OPORTUNIDADES PERDIDAS. Oriol Solà-Morales. 27 LA EFICIENCIA DEL BLOQUE QUIRÚRGICO, PERSPECTIVAS DESDE EL SISTEMA PRIVADO O PUBLICO DE SALUD. Dr. Luis Quecedo y Eva Melgar. 30 ¿QUÉ ES ESTO DE LA CUARTA GARANTÍA?. Dr. Juan del Llano, José Mª Abellán y José Luis Pinto. 33 A VUELTAS CON LA UTILIDAD TERAPÉUTICA. Nazaret Torralba, Gema Pi y Dr. Juan del Llano.. GESTIONANDO CONOCIMIENTO 37 LA GESTIÓN FOSBURY. Dra. María José Jiménez. 40 REHABILITACIÓN JUST IN TIME. Alfonso Díez. 43 LA GESTIÓN DE LA INVESTIGACIÓN EN SANIDAD: DEBILIDADES Y MODELOS DE VANGUARDIA. Ana Mª Valdeolmillos. 46 EPIMED. Josep Monterde, Elena Tomás y Gema Pi. NUEVAS TECNOLOGÍAS 50 UTILIZACIÓN DE CÉLULAS MADRE PROCEDENTES DE ASPIRADO DE MÉDULA ÓSEA EN LA OSTEONECROSIS DE LA CABEZA FEMORAL. Prof. Javier Vaquero. 54 LA HIPOTERMIA COMO MEDIDA TERAPÉUTICA. Dr. Juan Carlos Martín. 56 EL RESURFACING DE CADERA EN LA PATOLOGÍA DEL ADULTO JOVEN. Dra. Catherine Van Der Straeten. 59 PROBLEMAS NO RESUELTOS EN EL TRATAMIENTO DE LA HEPATITIS INDUCIDA POR VIRUS C. Dr. Gustavo López. 62 DEPENDENCIA Y FRACTURAS VERTEBRALES POR COMPRESIÓN. Enrique Antón. 64 ESTADO ACTUAL DEL TRATAMIENTO DEL CÁNCER COLORRECTAL AVANZADO Y METASTÁSICO Y LA IMPORTANCIA DE MARCADORES PREDICTIVOS DE RESPUESTA AL TRATAMIENTO. Dr. Alberto Abad. 66 CONTROL ROBOTIZADO DE CATÉTER PARA TÉCNICA INTERVENCIONISTA. Dolors Mata y Ángel Canelles. 71 INNOVACIONES EN EL TRATAMIENTO DEL CÁNCER DE PULMÓN NO MICROCÍTICO AVANZADO: UN RETO PARA LA SOSTENIBILIDAD DEL SISTEMA. Dr. Diego Malón. 76 LA RADIOCIRUGÍA GAMMA KNIFE. UNA MARAVILLOSA TECNOLOGÍA SANITARIA. Dr. Erick Strömbäck. sumario número 02, octubre 2009 81 ¿ES NECESARIA LA AUTOMATIZACIÓN EN LA MEDICINA TRANSFUSIONAL?. Dra. Mª Asunción Mora. 85 CIRUGÍA MICROGRÁFICA DE MOHS. LA CIRUGÍA MÁS EFECTIVA EN EL TRATAMIENTO DEL CÁNCER DE PIEL. Dr. Javier Pedraz y Dr. Eduardo López. 89 IMPORTANCIA DE UN ADECUADO TRATAMIENTO DEL DOLOR EN LA MUCOSITIS ORAL PRODUCIDA POR LA IRRADIACIÓN. Dra. Mar Serrano. 90 DOCUMENTO DE CONSENSO SOBRE UTILIDAD TERAPÉUTICA DE LA ASOCIACIÓN FIJA DE TRAMADOL/PARACETAMOL. Dr. Juan Tamargo. 92 SOSTENIBILIDAD Y EQUIDAD EN EL TRATAMIENTO RENAL SUSTITUTIVO. Grupo para la evaluación del tratamiento renal. 96 TRATAMIENTO QUIRÚRGICO INTRAOPERATORIO DE LA FIBRILACIÓN AURICULAR. Dr. Gonzálo Aldámiz-Echevarría. 99 LA ANGIOGRAFÍA TERAPÉUTICA EN NEUROLOGÍA. Dr. Leopoldo Guimaraens, Dra. Teresa Sola y Dr. Elio Vivas. 103 PROTEÓMICA: EL FUTURO DE LOS TRATAMIENTOS EN DERMATOLOGÍA. Dr. Javier Pedraz y Dr. Eduardo López. 105 IMAGEN DE LA ELASTICIDAD POR ULTRASONIDOS: ¿PALPACIÓN O BIOPSIA VIRTUAL? Dr. Juan Arrazola. 107 UN BANCO DE LECHE HUMANA: PRIMER AÑO DE EXPERIENCIA EN EL BANCO DE LECHE HUMANA DEL HOSPITAL 12 DE OCTUBRE. Mª Carmen Medina. ADELÁNTATE AL FUTURO 114 SECUENCIACIÓN MASIVA EN MICROBIOLOGÍA CLÍNICA, O LA CIENCIA DE ENCONTRAR UNA AGUJA EN UN PAJAR. Dr. Jesús Mingorance. 115 GET WITH WEB 2.0 OR BECOME A YESTERDAYS PERSON. Richard Smith. 116 ¿PODEMOS CON TODO PARA TODO Y GRATIS?: A PROPÓSITO DE LAS TECNOLOGÍAS ÓMICAS. Dr. Juan del Llano y Joan Rovira. SECCIÓN TRIBUNA PROFESIONAL. 120 INNOVAR DESDE LA UNIVERSIDAD ESPAÑOLA: ¿ES POSIBLE?. Fco. Javier Sevillano. 123 INCENTIVOS A LA INVESTIGACIÓN DE MEDICAMENTOS Y PRIORIDADES EN SALUD. Paloma Fernández-Cano. 126 SERVICIO DE LOGOPEDIA EN LOS HOSPITALES MADRILEÑOS, ¿EN PELIGRO DE EXTINCIÓN?. Margarita Duran. 128 ESPECIALIDADES MÉDICAS DE SEGUNDA FILA. Dr. Jesús Mora. 131 LA ESCALERA ANALGÉSICA DEL SIGLO XXI: ¿UNA HERRAMIENTA OBSOLETA?. Dr. Oscar A. de León. 134 DE LA MEDICINA COMO UNA VOCACIÓN A LA MEDICINA COMO UN FUNCIONARIADO. Dr. Enrique Morales. 136 MEJORA CONTINUA EN LA CALIDAD DE LA CONSULTA EXTERNA. EL PROFESIONAL SANITARIO COMO PROMOTOR DEL CAMBIO. Dr. Carlos Peña Gil. 139 LA SALUD, EN MANOS DE LOS PACIENTES. Ana Céspedes. 141 LA MEDICINA INTENSIVA, TAN NECESARIA COMO DESCONOCIDA. Dr. Miguel Sánchez. INICIATIVAS Y PROGRAMAS 146 LA OXIGENOTERAPIA MÓVIL, TODO UN ABANICO DE POSIBILIDADES PARA LOS PACIENTES CRÓNICOS. Paul García de Oteyza. 148 ALIANZA PARA LA PREVENCIÓN DEL CÁNCER DE COLON. Dr. Antoni Castells. "La relación medico-paciente paternalista, como única conexión, está en vías de extinción." LA DIGITALIZACIÓN DE LA MEDICINA. DIÁLOGO ENTRE JUAN DEL LLANO Y MARTÍN CAICOYA. Dr. MARTÍN CAICOYA y Dr. JUAN DEL LLANO. Dr. MARTÍN CAICOYA Dr. JUAN DEL LLANO Innovación y su aplicación a la medicina siempre han ido juntas. La incesante innovación y desarrollo tecnológico dirigido a la práctica médica tiene un crecimiento muy notable. Sin embargo y, sorprendentemente, las nuevas tecnologías de la información y de la comunicación no han penetrado apenas en los sistemas sanitarios en comparación como lo ha hecho en otros sectores (la banca por ejemplo) desde los años 80 (del siglo pasado). El médico sigue utilizando mucho el bolígrafo y el papel en la mayoría de los países del mundo. Si queremos que la digitalización de la medicina avance, tenemos que mover a los pacientes de la marginalidad al centro del sistema, pero de verdad, no discursivamente. Si nos seguimos obsesionando en que la adopción de historias clínicas electrónicas reducirá costes o errores médicos, nos estamos equivocando. Las principales ganancias de la digitalización vienen de la mano de la mejora de diagnósticos y tratamientos a partir de la integración on line de distintos datos, imágenes y textos acerca del paciente procedentes de distintas fuentes. Es decir, simplificar el acceso a lo que han sido partes (radiología, laboratorio, interconsulta, ). Todo ello precisa de entornos y contextos que lo propicien, además de los recursos de tiempo y tecnológicos que lo hagan realidad. La medicina es bastante más compleja que internet, por lo que no habrá revolución en la implantación de la digitalización sino más bien será un proceso de gradual. La era de las redes sociales está llegando también a la medicina y, seguro que para quedarse. Twitter, Facebook, Google, Microsoft, Yahoo, .permiten a sus usuarios/pacientes compartir con otros comentarios, dudas, experiencias, apoyo emocional, consejo, .. Una buena relación médico-paciente requiere de confianza y de tiempo, siendo éste un recurso escaso por la presión asistencial que soportan los galenos. La comunicación viva, bidireccional que propicia la Web 2.0 evita desplazamientos de los pacientes a las consultas y resuelve muchas dudas acerca de problemas de salud menores. Es un recurso cuya utilización se incrementará exponencialmente. La relación medico-paciente paternalista, como única conexión, está en vías de extinción. El sector sanitario es conservador en su comportamiento y los modelos financieros son complejos hasta en los sistemas públicos. El paciente demanda conocer con más detalle todo lo referente a su salud, estar más apoderado, y compartir cada vez más las decisiones acerca de las opciones diagnósticas y terapéuticas con su médico. Los blogs de salud más influyentes en la Red son los que ofrecen información fidedigna y relevante a pacientes con enfermedades crónicas. El desafío está en hacer fácilmente accesible la información sanitaria de calidad. Desde la Fundación estamos arrimando el hombro en esta dirección, en el sano convencimiento de que propiciará una mayor implicación de nuestros conciudadanos en la agenda sanitaria. Y ello, redundará en un sano desarrollo de la sociedad civil. Si conseguimos que los pacientes se impliquen más y que las mejoras tecnológicas vengan, sobre todo, por ser demandadas por ellos y no por las instituciones, empresas o gobiernos, asistiremos a que los países desarrollados puedan enfrentarse mejor a sus dos principales desafíos: las enfermedades degenerativas y las enfermedades crónicas; y a que los países en desarrollo, gestionen mejor sus enfermedades más mortales. 6 Si entre todos conseguimos que pacientes, médicos, administradores y ciudadanos, estén mejor informados, más comunicados, sean más racionalmente exigentes y empujen la innovación que merece la pena, la mejora en nuestra calidad de vida estará servida. Martín escribe a continuación sus impresiones sobre la informatización de un hospital que ha conseguido en poco tiempo hacer desaparecer el papel de la práctica diaria. La idea es conocer el tamaño de la brecha entre teoría y práctica o entre deseo y realidad. La inmersión fue rápida y como todo proceso de cambio tuvo apoyos y resistencias. Los gestores del programa trataron de adaptar el esqueleto a las necesidades de los diferentes actores para lo que mantuvieron largas conversaciones con el personal. Se ensayaron varios prototipos, se fueron introduciendo los cambios que técnicamente eran posibles y poco a poco se fue mejorando el producto y su aceptación, aunque aun existen resistencias, tanto globales como a diferentes módulos. En general, están muy satisfechos todos los que usan la historia clínica para obtener información como son los servicios básicos, la dirección médica, la asistencia social, la vigilancia epidemiológica, etc. Enfermería está también muy satisfecha, me dicen que no podrían volver al papel. Entre los clínicos hay divisiones. En consultas externas hay en general más satisfacción que en plantas. Desde hace muchos años se confía en la informática como una de las tecnologías que más pueden colaborar a mejorar la eficiencia, eficacia y calidad del sistema sanitario. De acuerdo con Karen Davis, los países y sistemas sanitarios que adoptan con más intensidad las tecnologías de la información, son más eficientes, tienen mejores resultados en salud y la satisfacción de la población es más alta. En prácticamente todos los centros asistenciales de occidente existen ya IT, la cuestión es hasta dónde llega la informatización y qué ventajas aporta para las diferentes partes: enfermos y familiares, clínicos, administradores, servicios de apoyo, evaluadores, epidemiólogos, etc. Los objetivos de cada una de las partes pueden ser diferentes, como ejemplo más claro es el contraste entre médico y administrador. El administrador necesita organizar la actividad para aprovechar lo mejor posible los recursos y conocer la que se realiza en función de una serie de variables que es lo que se denomina cuadros de mando. La informática le es de gran ayuda y de una forma u otra está instaurada en casi todos los centros para poder responder básicamente a sus demandas ordinarias. El médico, en general, no es un demandante de la informatización del acto clínico, al contrario, tiene cierta resistencia cuando no oposición. El principal obstáculo que percibe es la posible falta de confidencialidad, temeroso de que en la red cualquiera tenga acceso a la información clínica reservada. Lo cierto es que las historias clínicas pueden estar mal custodiadas, circulan y se amontonan en despachos no vigilados, no queda constancia de quién las examinó. Pero al médico, esa fácil accesibilidad a la información almacenada en red desde cualquier ordenador le produce inquietud. La experiencia es que aunque se anuncia que habrá diferentes niveles de acceso por usuario, no siempre se activan bien, y aunque se dice que el acceso siempre dejara huella, no siempre queda reflejado cuando no se hacen cambios. De todas formas, técnicamente parece que estos problemas tienen solución. El segundo inconveniente es el del propio uso de ordenador, tanto en el acto clínico delante del enfermo como para examinar los datos e información que puede precisar. El uso de ordenador en el pase de visita no está bien resuelto. Antes el médico podía examinar la historia clínica en la cabecera del enfermo, circulando por ella con facilidad mientras intercambiaba impresiones con el paciente, la enfermera y colegas. No era difícil escribir una nota. Ahora, en el caso de que pueda examinar el ordenador en la cabecera del enfermo, exige una atención que le aparta del contacto visual, el manejo de las teclas y la lectura de la pantalla es muy diferente de la fácil circulación por la historia clínica en papel. El mismo objeto se interpone entre ambos, bien es un carrito o si está fijo a los pies del enfermo. En los casos en que se funciona con red inalámbrica, la posibilidad de que no haya comunicación no es rara, tampoco lo es el que la batería se agote. Algunos médicos optan por examinar las historias en su despacho, visitar al paciente y regresar a actualizarla en el despacho. Esto tiene los obvios inconveniente de que puede precisar contrastar algo cuando está delante del enfermo, que se podría resolver con una PDA, y Puedes encontrar este artículo en el BLABLABLOG, el blog de la Fundación Gaspar Casal en www.proyectonets.org. Recuerda que en NETS puedes comentar los artículos, dar tu opinión, participar en debates y escribir nuevos artículos. El blog de la Fundación Gaspar Casal tiene más de una decena de artículos originales de diversos temas comentados y discutidos por los usuarios de NETS. 7 que consume mucho tiempo en idas y venidas. El tercer inconveniente que se observa es la misma disposición de la información en las pantallas, que nunca puede remedar a la forma en que se ofrece en la historia clínica a la que está acostumbrado. Finalmente, puede haber, según el programa, dificultades en la prescripción y siempre los hay en el uso del teclado respecto al bolígrafo y papel. A continuación trataremos las ventajas de las IT para varias actividades y perspectivas: 1. Citaciones. Xavier Triadó de la Universidad de Barcelona comentó el artículo en www.proyectonets.org: Gracias por la reflexión y las sugerencias que viertes en el artículo. Estoy de acuerdo con tus comentarios. Sin embargo también sucede que más comunicación no tiene porque mejorar la comunicación entre departamentos, ni con el paciente. Creo que existe un peligro de tecnificación y de escalada de gasto innecesario. Tecnologías con dispositivos móviles, novedades en el diagnostico, diagnósticos remotos, ... son algunas tecnologías que se plantan en los USA y otros países del primer mundo. Ciertamente pueden ayudan, pero no tiene porqué mejorar realmente la comunicación entre nosotros. Supongo que lo habréis leído, pero The Economist publicó en su edición del 16 de abril un special report on health care and technology titulado Health 2.0 How far can interactive digital medicine go?. Muy interesante. Como bien dices el sector es puntero, pero a la vez las diferencias entre países del primer y de los otros mundos (entiéndase segundo y tercero) son muy importantes, y también podrían aprovecharse de ellas si las pueden pagar. Como puedes ver estoy abriendo dos temas, el último referido a la equidad y el primero a la unidad organizativa. Ambos referidos al uso de nuevas tecnologías. Sólo es un inicio de reflexión. Una agenda electrónica es una ventaja incontestable respecto a la manual, sobre todo si está en red. Permite a todos los que tengan algún interés en ella acceder al instante. El médico puede conocer su demanda de trabajo y puede él mismo programar su trabajo. Además si todo acto médico requiere la apertura de una citación, el registro de la actividad puede llegar a ser exhaustivo. Esto requiere organización. De esta forma, un proceso puede generar varias sucesivas. Le corresponde al médico decidir si sobrevenido en un proceso aparece otro de la misma especialidad, por tanto sigue en la misma consulta. Supongamos que está siendo controlado por enfermedad coronaria en consultas externas de cardiología y en el curso de un control el paciente manifiesta clínica de insuficiencia cardiaca, no siendo este el motivo de consulta. Si lo fuera, por una derivación de APS, lo lógico es abrir un nuevo proceso; pero en este caso es la decisión del consultante. Le corresponde también al médico decidir cuándo el proceso está finalizado en su ámbito, es decir el alta con el correspondiente informe. Ambos situaciones pueden ser objeto de variaciones importantes que dependerán de hábitos y estilos de práctica, lo que redundará en las estadísticas. 2. Acto Médico. A medida que se incluye en la historia clínica electrónica la información del paciente en ese centro, y otros, el médico tendrá mejor y más cómodo acceso a ella. Podrá navegar por las diferentes notas clínicas, informes, pruebas complementarias y aunque al principio pueda resultarle incómodo, pronto se acostumbrará y lo hará con facilidad con la ventaja añadida de que el acceso es inmediato, una ventaja importante en historias clínicas con múltiples entradas cuyo manejo en papel es difícil y no es raro no encontrar alguna información bien porque no esté o porque esté archivada mal; y en la lectura no se tiene que enfrentar con los problemas de desciframiento caligráfico. Por ejemplo, no tendrá duda de la medicación recomendada. Naturalmente, ante la ingente cantidad de información que puede encontrar, dependerá de su habilidad y pericia para seleccionar y no perderse en divagaciones que hagan el acto clínico interminable. En la entrevista con el paciente el uso del ordenador puede constituir un obstáculo como ya se ha comentado. Nuevamente dependerán de la habilidad del clínico. En consulta externas, algunos se sumergen en la pantalla y apenas miran al paciente que tienen delante. No es diferente de los que se sumergen en la historia en papel, solo que aquí entre los dos está la pantalla y en el caso clásico el paciente ve al médico concentrado en la lectura. No es difícil, como se hace en tantos sitios, colocar la pantalla algo ladeada de manera que se tenga contacto con ambos. Y de la misma manera que cuando se toman notas se deja de mirar al paciente, una vez obtenida la información que se precisa, o un segmento de ella, el médico puede dedicar un momento a escribirla. Su mayor o menor pericia con el teclado determinará ese tiempo. En mi experiencia, no es un obstáculo la pantalla siempre que se mantenga un buen contacto visual con el paciente. Los más hábiles incluso puede escribir mientras escuchan, sin mirar la pantalla, algo que no se puede hacer con el papel o es más difícil. Una recomendación importante para la comodidad es que el texto se escriba con un buen procesador que permita al clínico elegir tipo y tamaño de letra, que le señale las incorrecciones gramaticales para poderlas corregir con facilidad y que pueda él mismo elegir cuánto de la pantalla ocupará el texto. 8 3. Medicación. El programa que se maneja al que hago referencia es en este campo mejorable. Llama la atención que existan aplicaciones antiguas, que incluso corren en MSDOS que son más convenientes. Lo ideal es que el prescriptor pueda escribir su prescripción, como hace en una búsqueda en internet. Mientras escribe el programa le va dando posibles términos coincidentes con las letras introducidas, que puede o no aceptar. En el siguiente campo decide dosis y en el último la periodificación. Un acto semejante al que haría si lo escribiera en la historia o en una receta. El programa actual se basa en combos, por tanto no permite escribir solo elegir entre lo que hay, de manera que el ritmo de administración está reducido a lo que se oferta. Me dicen los farmacéuticos que tienen problemas para acoplar los ritmos. En general, es el módulo sobre el que se tienen más quejas, tanto de farmacia como de los clínicos. Mientras el MSDOS es claro, fácil e inmediato, el que existe en el centro es incómodo además de excesivamente cerrado. 4. Pruebas complementarias. El módulo de pruebas complementarias considero que ofrece ventajas para todos sobre los volantes. Rellenar la información clínica de la petición está facilitado por la opción de copiar y pegar del curso clínico, además de que en los laboratorios se tiene acceso a la historia y la posibilidad de introducir notas clínicas. Sin embargo, no está resuelto el aviso de llegada de resultados, importante en consultas externas. Antes, la enfermería recibía los informes de los laboratorios y servicios básicos y los mostraba al médico con la historia clínica, quién decidía qué había que hacer. Ahora, ni siquiera cuando se abre la historia clínica del paciente pendiente de resultados se tiene un aviso de que están disponibles. Por otra parte, si cualquier otro clínico, de otra consulta, examinara esos resultados, cosa lógica antes de pedir lo que crea necesario, aparecen a partir de ese momento como leídos y puede despistar al peticionario. 5. Aspectos éticos. El que un clínico pueda navegar por todos los procesos de un paciente, incluso aquellos que el mismo puede preferir ocultar, no es una posibilidad diferente de la que tendría si la historia fuera en papel. Quizá se plantee con la unión de ficheros de diferentes ámbitos. Por ejemplo, consultas más privadas como de ETS que el paciente puede preferir que no se conozcan ¿deberían ciertas consultas no estar visibles para los no implicados, incluido por tanto el que hubo citación? 6. Confidencialidad. Ya se ha comentado brevemente. La confidencialidad estaría tan preservada como capaz sea la red de bloquear las entradas a los diferentes módulos de la historia. Es importante que además quede rastro, que haya un registro de dónde y cuándo entró el usuario. Lo que observo es que todo eso no está del todo maduro. En la historia en papel, el que la examinaba tenía acceso a la totalidad, fuera auxiliar de clínica, enfermera, médico, asistente social o secretaria. Con la historia electrónica se pueden restringir los accesos a los módulos que se decida. Joaquín Campillo comentó el artículo en www.proyectonets.org: Cuando hablamos de historia médica electrónica solemos referirnos a que el sistema público informatice sus registros y procedimientos de trabajo. Sin embargo, hay otra posibilidad: que terceros (Google, Microsoft, Keyose -del Dr. Bonis) ofrezcan esta posibilidad para que, en caso de cambiar de consulta/seguro, el paciente pueda dar acceso a la misma a su nuevo médico y elegir a qué campos lo hace. ¿Habéis tenido alguna experiencia con estas platarformas de historia médica electrónica? 7. Vigilancia. Para todos aquellos que hacen algún tipo de vigilancia, el poder acceder desde su despacho a las historias es formidable. Antes tenían que procurar que el examen de ellas no interrumpiera la propia actividad clínica, además de tener que ir a las plantas. Cuando varios profesionales trabajan sobre un mismo caso, puede ocurrir que la historia no esté disponible en ese momento que uno la requiere. Esto ya no pasa con la electrónica. 8. Sistemas de información. En al ámbito sanitario se produce ya mucha información que pocas veces se examina y menos aún se analiza. Un ejemplo son los registros de mortalidad, de enfermedades como 9 cáncer, tuberculosis, etc. Se publican y están disponibles y fácilmente accesibles, casi siempre en la red, y sin embargo apenas se emplean. Todavía los clínicos en sus presentaciones usan datos ajenos, muchas veces de EEUU sobre incidencia, mortalidad, etc. Sorprende el escaso empleo del conjunto mínimo básico de datos (CMBD). Es verdad que es menos accesible, pero no por eso deja de estar disponible para los evaluadores e investigadores. Mi experiencia es que apenas se usa, como no sea para proyectos concretos, y lo que no se usa difícilmente es fiable. Por eso creo que la ingente cantidad de datos que puede proporcionar una historia clínica informatizada no será, en general, de mucha utilidad por falta de interés, tiempo y profesionales dedicados a ello. De hecho, el módulo de estadística del programa que se comenta que es muy potente, es muy poco utilizado, la mayoría de los clínicos no lo tienen instalado y los que lo tienen apenas lo emplean. De todas formas, existen datos que pueden ser fiables por su propia naturaleza como es la medicación administrada, las pruebas complementarias solicitadas y sus resultados y las constantes introducidas. También es recuperable todo aquello que se introduce en formato de formulario una vez acordado, como pueden ser algunos datos que vigila la enfermería: accidentes por caída, úlceras de presión, etc 9. La informática en atención primaria. En www.proyectonets.org puedes encontrar más artículos relacionados con medicina digital y nuevas tecnologías de comunicación aplicadas a la medicina. Te recomendamos GET WITH WEB 2.0 OR BECOME A YESTERDAY´S PERSON de Richard Smith que encontrarás en esta revista en la sección "adelántate al futuro", HACIA LA HISTORIA CLÍNICA ÚNICA DEL PACIENTE de Jorge Rangil o ¿POR QUÉ LOS MÉDICOS SE RESISTEN A LA GESTIÓN INTELIGENTE DEL CONOCIMIENTO? de Rafael Pinilla publicados en www.proyectonets.org en "gestionando conocimiento". Varios estudios hechos por la Commonwealth Fund argumentan que los países que tienen más extendida las IT tienen mejor atención primaria. Se fijan en los siguientes puntos que consideran importantes: los problemas de coordinación entre servicios y niveles, los errores de medicación o laboratorio, con duplicación de peticiones o ausencias, los recuerdos preventivos, el acceso a la historia clínica desde el domicilio, la accesibilidad para el paciente, la coordinación de cuidados en crónicos, entre otros. Se observa que la CWF en sus evaluaciones se interesa por la facilidad de uso de información que beneficia en la actividad al clínico y hace partícipe al paciente. Este enfoque, centrado en el acto, es el que realmente puede estimular la adopción de IT y producir mejoras en la asistencia. Sin embargo, cuando la aspiración principal es recoger información para poderla analizar en conjunto, se fuerza muchas veces la forma de realizar el acto clínico, sometido a listados que deben ser exhaustivos y mutuamente exclusivos, difíciles de hacer e incómodos de utilizar. La codificación del motivo de consulta en APS es un problema no resuelto. En los hospitales ya es difícil mantenerla alta entre los profesionales que se dedican a ello, codificadores, cuánto más si el propio profesional codifica su actividad. Este no es un problema de la informatización del acto clínico en APS pero se hace más patente cuando lo está pues la información de baja calidad está más disponible. En resumen, parece deseable e inevitable que el acto clínico se informatice. El reto es diseñar un buen programa que realmente facilite la actividad al clínico y que como consecuencia pueda servir para que otros, que tienen intereses de investigación dirigida a mejorara las prácticas clínicas, puedan usar la información que se produce. Es necesario centrar la informatización en primar la relación clínico-paciente, todos los demás productos son consecuencia de la buena calidad de éste. Si una de las dos partes de este binomio está incómoda o descontenta, difícilmente el resto de los potenciales usuarios podrá estar satisfecho con la información que obtiene y su uso será muy limitado. Dr. Martín Caicoya. Hospital Monte Naranco. Principado de Asturias. Dr. Juan del Llano. Director de la Fundación Gaspar Casal. www.proyectonets.org 10 no debe preocuparnos rendir cuentas ni obligar a nuestros médicos a someterse a auditorías, debe preocuparnos el resultado de éstas COMUNICACIÓN EN EL SISTEMA SANITARIO: EL EMPOWERMENT DEL PACIENTE. NICOLÁS VILLAR. Hablar de comunicación en sanidad está de moda. Todos los meses se celebra en España algún evento relacionado con las nuevas formas de comunicación en sanidad. Las compañías con intereses en el sector sanitario están creando y dotando de recursos a departamentos relacionados con el acceso al paciente y el e-marketing al mismo tiempo que la Administración se muestra sensible con la necesidad de fomentar la competencia saludable entre profesionales y centros de atención sanitaria a través de la transparencia, el benchmarking y el empowerment del paciente. NICOLÁS VILLAR La estrategia de fomento de la competencia entre centros de atención sanitaria (hospitales fundamentalmente) vía libertad de elección de médico y centro es muy pertinente por cuanto supone abrir un camino hacia el establecimiento de relaciones de mercado entre profesionales e instituciones, una de las grandes carencias de los sistemas públicos y uno de sus grandes focos de ineficiencia y rigideces. Sin embargo, dar al paciente esta capacidad de elección no basta si al mismo tiempo no se pone a su disposición información que le permita la discriminación eficiente de profesionales y centros. No tiene sentido permitir la elección a un agente que no dispone de elementos de juicio para elegir y es aquí donde la comunicación se vuelve más protagonista que nunca. Es necesario abordar estrategias integrales de comunicación desde la Administración y desde los propios centros de atención sanitaria que permitan al paciente aproximarse y conocer sus carteras de servicios, los profesionales médicos adscritos, los recursos con los que cuentan (tecnológicos y humanos), el presupuesto que manejan, la composición de los diferentes comités clínicos y gestores, los indicadores de éxito (diferenciando profesionales), la organización por procesos, las terapias que ofrecen, los premios, reconocimientos, investigaciones y publicaciones, así como toda la información que pueda ser relevante para formar un juicio responsable sobre un centro en concreto. Evidentemente esto pasa por mejorar la gestión del conocimiento y la información dentro de nuestros hospitales: obligar a estandarizar rutinas, utilizar los repositorios de información incluidos en los programas de gestión conque trabajan los hospitales, incentivar de forma positiva pero también coercitiva la elaboración de informes exhaustivos sobre cada fase del tratamiento de un paciente, auditar de forma independiente cada proceso y elaborar con todo ello, informes públicos y accesibles que supongan una radiografía nítida de la atención sanitaria que provee cada centro. Esta estrategia de comunicación debe ser percibida como una responsabilidad por parte de los centros de atención sanitaria pero también como parte de su actividad normal. Si de verdad existe un compromiso por aportar dinamismo y eficiencia al sistema vía estímulo de la competencia, entonces la transparencia, la rendición de cuentas y la permeabilidad hacia el potencial paciente son condiciones sine qua non para trabajar en este nuevo marco. En cierto modo, el papel de los gestores debe reivindicarse y actuar de forma más directiva sobre los aspectos clínicos que ocurren en sus centros, proponiendo auditorías más exhaustivas dirigidas a maximizar el rendimiento de todo el staff clínico pero también -y sobre todo- para obtener los indicadores y la información que servirán al centro para desarrollar la estrategia de comunicación cuya necesidad defiendo en este artículo y que debe ser la carta de presentación ante el potencial paciente. 11 Para entender hasta qué punto nuestros centros de atención sanitaria son opacos basta con visitar las páginas web de hospitales y consejerías, convertidas en escaparates de logotipos y slogans institucionales irrelevantes en la búsqueda de información útil para el paciente que quiere elegir el mejor centro posible para la patología que padece. Como casi siempre, para ser críticos con nosotros mismos debemos mirar de reojo a nuestros vecinos europeos para estudiar cómo resuelven estas nuevas necesidades. En Holanda, Bélgica o Alemania, la pugna por el paciente -incluso entre hospitales públicoses una realidad cotidiana, por eso la mayoría de hospitales disponen de equipos dedicados a la comunicación desde múltiples puntos de vista y a través de diversos canales: la tecnología 2.0 y las redes sociales internas y externas permiten al paciente contactar con los distintos servicios del hospital e informarse sobre procedimientos, tratamientos, tiempos, tasas de éxito, experiencias y demás, interactuando con profesionales y también con otros pacientes. En España es una odisea encontrar un organigrama con los servicios que ofrece un hospital. La diferencia es abismal, los resultados, determinantes. Nicolás Villar es economista y responsable de Difusión Científica de la Fundación Gaspar Casal. Dirige desde marzo de 2008 el equipo de Proyecto NETS, reconocido como herramienta de interés para el sector sanitario por la Agencia de Calidad del SNS. Ha publicado el artículo NETS: UNA HERRAMIENTA PARA TODOS que inauguró el número 01 de la revista NETS Innovación y Tecnología en la Salud. Sus áreas de trabajo engloban las nuevas formas de comunicación en sanidad, redes sociales y gestión del conocimiento. Es especialista en Técnica Económica del Sector Sanitario y ha participado en diversos programas internacionales de postgrado relacionados con liderazgo y estrategia en el sector sanitario. Exigimos eficiencia al sistema y lo hacemos centrando nuestra atención en las autoridades sanitarias y a los organismos públicos de evaluación y control. De manera implícita hemos asumido que la eficiencia pasa fundamentalmente por la fiscalización del uso de recursos y la evaluación de tecnologías sanitarias, nos hemos fijado la contención del gasto sanitario como meta indiscutible y para ello auditamos la manera en que los fármacos y tecnologías son incorporados convirtiendo al precio en el determinante último. Para conseguir esto creamos nuevas figuras administrativas y ampliamos las competencias y poderes de los centros reguladores y, como consecuencia, insistimos en "provocar" eficiencia y no "permitir" la eficiencia. El primer interesado en disponer de un sistema sanitario eficiente no es el Estado sino el paciente que es quien recibe la atención sanitaria y quien paga por ella con el ejercicio de sus obligaciones tributarias y, sin embargo, es el gran olvidado de toda esta estrategia. Hace tiempo que la teoría económica nos enseñó que no es posible reproducir la eficiencia generada de forma espontánea por el mercado y, a pesar de esto, nos preocupa la idea de que los pacientes se conviertan en consumidores de atención sanitaria informados, que elijan centro y exijan conocer las opciones de tratamiento y su coste para decidir entre un hospital u otro y, en otro nivel, entre un sistema sanitario u otro. El problema de la opacidad no es exclusivo del sistema sanitario. En educación, un sector íntimamente parecido y con un grado de intervención pública similar, el debate sobre la comunicación y la competencia se inició hace ya unos años. El distrito único, la oferta de títulos propios, los ranking de calidad -públicos y privados-, los indicadores de éxito, los foros de debate y la redes sociales de las universidades, las becas de excelencia, las bolsas de empleo así como la publicación de los méritos y currícula de los profesores son el equivalente del empowerment del paciente conque abría este artículo. El siguiente pasó será, probablemente, vincular parte de presupuesto de la universidad a su capacidad de atracción de alumnos a través de modelos como el cheque-estudiante y otras fórmulas desarrolladas con éxito en países con mayor tradición meritocrática -y menos endogámicaque la nuestra. Dar protagonismo al paciente no es solamente un ejercicio de responsabilidad democrática, es también una apuesta firme por abordar la eficiencia del sistema nacional de salud desde su raíz, no debe preocuparnos rendir cuentas ni crear portales interactivos en nuestros hospitales u obligar a nuestros médicos a presentar de forma rigurosa la información sometiéndose a auditorías, debe preocuparnos el resultado de éstas y, cuando esto ocurra, observaremos como nuestros profesionales, nuestros centros y las administraciones maximizan su esfuerzo por mejorar, ser más efectivos y más eficientes. Y será normal, a pesar de que la competencia es como el cielo, muchos creemos en ella pero queremos tardar en alcanzarla. Nicolás Villar. Director del Proyecto NETS. Responsable de Difusión Científica de la Fundación Gaspar Casal. 12 net "La estrategia blockbuster está dando señales de constituir un modelo caduco, por las dificultades para obtener este tipo de productos." IMPACTO DE LA FARMACOGENÓMICA EN EL PROCESO DE INVESTIGACIÓN Y DESARROLLO DE UN NUEVO MEDICAMENTO. LAURA CABIEDES. LAURA CABIEDES Elena de Miguel comentó el artículo en www.proyectonets.org: Atractiva aportación de Laura Cabiedes pero, casualidades de la vida, hoy mismo se ha publicado una entrevista cuyo título desmonta el párrafo inicial: Un medicamento personalizado también puede ser un 'blockbuster' (http://www.diariomedico.com/edicio n/diario_medico/gestion/es/desarroll o/1200928.html). Considero que lo que plantea Laura sería el modelo general, cada vez menos vigente, mientras que lo que declara Sydney Taurel es, además de subjetivo, sólo será realidad para un número reducido de nuevos productos. También es cierto que cuanto menor es la población que puede beneficiarse de la innovación, mayor es el precio unitario necesario para lograr que se convierta en un blockbuster. Es sabido que el proceso de investigación y desarrollo de un nuevo medicamento es un proceso duradero y muy costoso. En poco tiempo está teniendo lugar un importante incremento de costes que, unido a la mayor duración del proceso y a la obtención de peores resultados en términos de innovación, explican tanto el éxito como el malogro del modelo blockbuster de la industria, es decir, la estrategia de centrarse en (pocos) productos muy rentables, con unas ventas globales superiores a mil millones de dólares anuales. La estrategia blockbuster está dando señales de constituir un modelo ya caduco, precisamente por las crecientes dificultades para obtener este tipo de productos. Ante esta situación, hace unos años, la FDA estadounidense (Food and Drug Administration) emprendió la iniciativa critical path (la senda crítica, en adelante), entendiendo que los avances en las ciencias básicas no estaban siendo debidamente acompasados por los conseguidos en las ciencias aplicadas, ampliando la distancia entre potencialidades y realidades y conduciendo a las autoridades a fijar niveles de exigencia más conservadores, de modo que el proceso hacia la obtención de un nuevo medicamento se tornaba finalmente más difícil (FDA, 2004) [...] En la literatura predomina una visión optimista en relación a la aplicación de la farmacogenómica al proceso de desarrollo de un nuevo medicamento. Se sostiene, por ejemplo, que permite eliminar mucho antes productos no seguros y que la selección de pacientes (con apoyo en biomarcadores/tests genéticos) permite aumentar la efectividad y/o disminuir posibles efectos adversos, es decir, aumentar la relación beneficio a riesgo, de modo que es más fácil demostrar el cumplimiento de los requisitos de la eficacia y la seguridad, necesarios para conseguir la autorización del medicamento. Se menciona frecuentemente la ventaja que la delimitación de una población diana representa en términos del menor tamaño de los ensayos clínicos, permitiendo reducir costes y grados de incertidumbre. En definitiva, cabría esperar una mayor probabilidad no sólo de conseguir la autorización de una innovación, sino también de obtenerla en menos tiempo, lo que aumentaría la vida efectiva de la patente (el tiempo que le resta, descontado el empleado en conseguir la autorización). No obstante, algunos autores apuntan que si la prevalencia genética es demasiado baja, enrolar en los ensayos clínicos sólo a quienes tienen el marcador podría absorber más tiempo y, en consecuencia, acarrear mayores costes (Phillips y Van Bebber, 2006). Del mismo modo, se mencionan costes adicionales en la etapa de los ensayos preclínicos, asociados a la identificación y posterior validación de los biomarcadores (Tucker, 2008). Es fundamental hacer hincapié en que la aplicación de la farmacogenómica al proceso de desarrollo de un nuevo fármaco incorpora un elemento nuevo que lo torna aun más complejo; para que la información genómica sea útil, el nuevo medicamento precisa/rá de un test complementario. En definitiva, es preciso hacer referencia a la relación de complementariedad medicamento/test. Existen tres posibilidades en cuanto a la disponibilidad del test respecto al medicamento en el tiempo, con implicaciones bien distintas para los agentes implicados y, por lo tanto, para el proceso innovador [...] Los agentes implicados: entre potencialidades y realidades. La farmacogenómica implica a numerosos agentes, cuyos intereses no siempre coinciden. Así, el descubrimiento del marcador/test y, en su caso, la manufactura del soporte 14 correspondiente, pueden ir asociados tanto a laboratorios farmacéuticos como a empresas de biotecnología o de técnicas de diagnóstico. El agotamiento de los derechos de la patente de medicamentos blockbuster y las dificultades cada vez mayores en su obtención pueden conducir a la industria tradicional a seguir estrategias (complementarias) apoyadas en la farmacogenómica, a través de operaciones de absorción, alianzas, licencias, adquisición de derechos de patente e incluso procesos de aprendizaje y desarrollo internos. Desde la perspectiva de los laboratorios farmacéuticos, la medicina personalizada implica segmentación del mercado, debido a la exclusión de parte de la población y/o ajuste de dosis y duración del tratamiento. La indicación queda mucho más acotada, de modo que cabe prever que se definan mercados de menor tamaño. Si bien éste es un factor que apunta hacia una menor rentabilidad de la inversión en I+D, el impacto neto depende de muchos otros factores, como la posible consecución de menores costes en el desarrollo del producto; una autorización más rápida del nuevo medicamento, de modo que se disponga de mayor tiempo para explotar la patente; una diferenciación técnica del producto más allá de la marca (algunos autores aluden al valor que el marcador puede añadir al medicamento) y el precio. El papel del regulador es clave en este contexto, en la medida en la que la medicina personalizada aconseja adoptar una visión integral de actividades hasta ahora separadas -obtención y comercialización de nuevos medicamentos y de biomarcadores/tests- e históricamente reguladas de forma independiente. Es preciso destacar que la regulación del soporte de las pruebas, tanto en USA como en la UE, es muy laxa y que la validación de éstas es una cuestión previa ineludible. Por último, conviene mencionar las expectativas de los potenciales usuarios y de los clínicos. Las expectativas de la población no siempre se ven satisfechas en la práctica clínica o bien se cumplen, desde su perspectiva, con retardo. Quizás más en USA que en Europa, el marketing de diversos tests por Internet permite prever un fenómeno de oferta inducida. Por su parte, dado que la medicina personalizada puede afectar sensiblemente sus decisiones, los clínicos precisan apoyo tanto del regulador como del potencial financiador, por ejemplo, en términos de validación de las pruebas; formación; diseño de guías; algoritmos... Cabe destacar en este sentido que de la literatura se desprende un elevado grado de desconfianza de los profesionales acerca de la validez de los tests genéticos frente a los métodos de seguimiento tradicionales. Surgen pues cuestiones éticas y posibles tensiones con las expectativas de los pacientes [...] En definitiva, si bien existen factores asociados a la farmacogenómica que probablemente permitan acortar en algunos casos la senda crítica, existen otros factores que posiblemente abran un tramo nuevo, sobre todo debido a las particularidades en el uso clínico. Con todo, el modelo sanitario predominante en cada país será, en la práctica, un elemento determinante en la disponibilidad y accesibilidad a productos obtenidos con apoyo en la farmacogenómica. En un marco de precios administrados como es el español, son muy pertinentes los estudios de evaluación económica, con vistas a apoyar decisiones sobre si procede o no su financiación con fondos públicos y, en caso afirmativo, a qué precio [...] Desde la perspectiva de la industria, sería una oportunidad de demostrar el valor del producto en términos de eficacia relativa, tema no baladí si se tiene en cuenta que, tanto en USA como en la UE, sólo se exige la demostración de la eficacia absoluta (frente a placebo) para conseguir la autorización de un nuevo medicamento [...] Joaquín Campillo comentó el artículo en www.proyectonets.org: Tengo que agradecer a la autora su reflexión sobre estos temas: si bien alguno ya ha podido ser tratado por otros autores, dudo que alguno haya podido alcanzar la capacidad de síntesis que alcanza en la tabla 1. La relación de variables que ha elegido permiten evalúar el valor que aporta una innovación basada en la farmacogenética, y no se encuentra en ningún estudio anterior. Sobre el debate en los comentarios anteriores acerca de la viabilidad de nuevos blockbusters, creo que es preferible plantearla en términos de probabilidad de ocurrencia, y opino que ésta es cada vez menor. Evaluación económica de intervenciones apoyadas en la medicina personalizada. Del mismo modo que los estudios de evaluación económica de intervenciones apoyadas en la farmacogenómica son muy pertinentes, su realización puede resultar particularmente compleja debido, entre otras razones, a problemas de incertidumbre y de disponibilidad de datos que, de todos modos, no eximen a las autoridades públicas de la responsabilidad de tomar decisiones. Así, aun disponiendo de un test muy fiable para detectar variantes genéticas, una baja penetración del genotipo tiene gran trascendencia en este ámbito, ya que los falsos positivos (o error tipo II) pueden conducir a tratar o a privar de un tratamiento innecesariamente, debido a que la enfermedad o los efectos adversos, finalmente, no se presentan. En la tabla 1 se recogen algunos factores clave que permiten 15 prever (ceteris paribus; si todo lo demás permanece constante) una buena relación costeefectividad o que, al menos, sugieren el interés de realizar un estudio de evaluación económica en este ámbito. Factores que permiten prever una buena relación coste-efectividad o que, al menos, sugieren el interés de realizar un estudio de evaluación económica de un tratamiento apoyado en la medicina personalizada, frente al tratamiento habitual Laura Cabiedes respondió a los comentarios de los usuarios de www.proyectonets.org: Respecto a los nuevos blockbusters, Elena, te remito a las páginas 615 y 616 del artículo completo, en Revista de Administración Sanitaria, 6 (4), 2008, donde en relación a este tema se pone de relieve la trascendencia de la disponibilidad de la prueba en relación al nuevo fármaco, en el tiempo: es la disponibilidad posterior de la prueba la que puede amenazar el modelo blockbuster tradicional. La disponibildad previa de la prueba asociada al rescate de fármacos falllidos tiene el inconveniente del agotamiento del derecho de patente en muchos casos. Por último, la disponibilidad simultánea del nuevo principio activo y de la prueba es una opción deseable desde muchos puntos de vista pero, tal y como se indica en el artículo, existen contados ejemplos de desarrollo simultáneo: Trastuzumab, Imatinib y Cetuximab. Precisamente, los tres figuran como blockbusters en diversos listados. Bajo ciertas circunstancias la farmacogenómica puede ser una una estrategia complementaria y rentable para la industria. Estoy de acuerdo con Joaquín Campillo en que conviene plantear el tema en términos de probabilidad de ocurrencia: si un rasgo caracteriza indiscutiblemente la investigación y desarrollo de nuevos fármacos es la incertidumbre y más aun en el caso de los asociados a la farmacogenómica. 16 Gravedad de la enfermedad y pocos tratamientos alternativos. Elevados costes del tratamiento aplicado. Seguimiento de la enfermedad o del efecto del medicamento difícil o inviable. Medicamento con bajo índice terapéutico. Elevada variabilidad interpersonal en la respuesta a un tratamiento. Elevada prevalencia de la variante genética. Alta penetración del genotipo o estrecha asociación genotipo-fenotipo (menos falsos positivos). Validez clínica del test (que sea útil para predecir resultados clínicos). Disponibilidad en el mercado de una prueba validada y relativamente poco costosa. Existencia de tratamiento efectivo para intervenir con apoyo en la información genómica. Fuentes: elaboración propia a partir de Danzon y Towse (2002); Flowers y Veenstra (2004); Goldie y Levin (2001) y Veenstra et al. (2000). Con independencia de que sea preciso hacer un análisis caso por caso, hasta el momento existen algunas áreas que parecen especialmente adecuadas para la realización de estudios de estas características. De hecho, una parte nada despreciable está siendo aplicada a enfermedades agudas, sobremanera las relacionadas con la oncología, área en la que la genómica está permitiendo hacer una subtipificación genética de las enfermedades y en la que se cumplen, entre otras, condiciones como la severidad de la enfermedad; tratamientos disponibles generalmente muy costosos y con bajo índice terapéutico y elevada variabilidad interpersonal en la respuesta (véase la Tabla 1). Respecto a las enfermedades crónicas, el atractivo de la aplicación de este tipo de estudios se refiere a la evitación de muchos años de terapia innecesaria o inadecuada, pero la influencia de numerosos polimorfismos y factores de riesgo inspiran menor optimismo. En resumen, de momento, cabe esperar menor potencialidad en relación a enfermedades que prácticamente toda la población es susceptible de padecer. No obstante, están surgiendo expectativas positivas en áreas como la neurología y la psiquiatría [...] Las mejoras relativas sobre la salud que (en su caso) permiten alcanzar las nuevas tecnologías generalmente van asociadas a mayores costes netos. Dado que sería insostenible financiar todo nuevo tratamiento, en los sistemas sanitarios públicos se puede tomar como referencia la ratio obtenida en el análisis incremental, comparándola con la correspondiente a los tratamientos generalmente aceptados en un marco determinado: 30.000 libras/AVAC (años de vida ajustados por calidad), implícitas en las recomendaciones del NICE; 100.000 $/AVAC en USA y 30.000 /AVAC en España (Ortún, 2004). Se trata de umbrales considerados en una sociedad y en un momento determinados que, complementados con otras dimensiones, contribuyen a legitimar un proceso de priorización con recursos públicos. A título ilustrativo, se presentan sintéticamente los resultados de varios estudios de evaluación económica de intervenciones asociadas a la farmacogenómica. Los dos primeros evalúan el uso de Trastuzumab como tratamiento adyuvante de cáncer de mama HER2 positivo. Se trata de un principio activo pionero en el ámbito de la medicina personalizada, autorizado en 1998 en USA y en 2000 en la UE. A pesar de la reducida evidencia evaluadora disponible en general, en este caso y, dado su carácter pionero, se dispone de numerosos estudios de evaluación económica. Los dos seleccionados se aplican al marco sanitario público europeo (Inglaterra/Gales e Italia, respectivamente) y son, hasta cierto punto, comparables. El tercer ejemplo ilustra la posible utilidad de los tests genéticos en la elección de tratamiento (en este caso, aplicado al SIDA). El último estudio recogido consiste en ajustar la duración del tratamiento de la hepatitis C con Interferón y Ribivirina, con apoyo en el genotipo viral [...] A modo de conclusión. De lo expuesto previamente cabe concluir que, para explotar apropiadamente las ventajas de la farmacogenómica desde una perspectiva social, conviene profundizar en algunas parcelas. En el ámbito público-privado, la complejidad del tema tratado impone límites prácticos que aconsejan articular nuevos modelos de cooperación, por ejemplo a efectos de obtener la información necesaria para validar un marcador (Frueh, 2006), de donde se desprende la idoneidad de los consorcios. En el ámbito estrictamente público, la medicina personalizada conduce incluso a replantear viejos problemas: un dato preocupante se refiere a la efectividad de los tratamientos que están siendo aplicados, ya que sólo el 50 % de los pacientes responde positivamente a los mismos (Spear et al., 2001. Tomado de Williams-Jones y Ozdemir, 2008). Otra vieja cuestión se relaciona con la patentabilidad de la información genética per se y su impacto sobre la innovación. Por último, tres cuestiones clave en relación con la nueva dimensión que incorpora la farmacogenómica se refieren a la validación de las pruebas, la regulación del soporte de las mismas (con la posibilidad de revisión paralela del medicamento y del test, ya contemplada en USA) y la posible traslación al terreno legislativo de la evaluación económica, a efectos de guiar la toma de decisiones en materia de financiación de innovaciones con fondos públicos y, en su caso, fijación de precios. En este sentido, cabe diferenciar entre sistemas sanitarios públicos con legislación blanda; es decir, mención no coercitiva y ausencia de aplicación sistemática y transparente de la evaluación económica (España) y sistemas con legislación dura (Ontario y Australia), sin olvidar que, en gran parte del Reino Unido (donde los precios no son objeto de regulación), cabría hablar de un modelo intermedio que, sin ser coercitivo, incorpora incentivos a su aplicación, en la medida en la que las nuevas tecnologías recomendadas por el NICE tienen garantizada la financiación con fondos públicos. Laura Cabiedes Miragaya. Departamento de Economía Aplicada. Universidad de Oviedo. *Resumen del artículo "Economía y medicina personalizada: allegro ma non troppo". síguenos en internet www.proyectonets.org Bibliografía: Danzon, P. y Towse, A. (2002): The Economics of Gene Therapy and of Pharmacogenetics, Value in Health, 5 (1): 5-13. FDA (2004): Challenge and Opportunity on the Critical Path to New Medical Products, US Department of Health and Human Services, FDA (extraído de: http://www.fda.gov/oc/initiatives/criti calpath/whitepaper.html el 6 de mayo de 2008). Flowers, C.R. y Veenstra, D. (2004): The Role of Cost-Effectiveness Analysis in the Era of Pharmacogenomics, PharmacoEconomics, 22 (8); 481-493. Frueh, F.W. (2006): Challenges in Biomarker and Drug Co-Development and Regulation: The Regulatory View for Drugs, AACC 2006 Annual Meeting, Chicago, 24 de Julio. Goldie, S.J. y Levin, A.R. (2001): Genomics in Medicine and Public Health: Role of Cost-Effectiveness Analysis, JAMA, 286 (13): 1637-1638. Ortún, V. (2004): 30.000 Euros por AVAC, Economía y Salud, nº 49: 1-2 (disponible en http://www.aes.es). Phillips, K.A. y Van Bebber, S.L. (2006): Regulatory Perspectives on Pharmacogenomics: A Review of the Literature on Key Issues Faced by the United States Food and Drug Administration, Medical Care Research and Review, 63 (3): 301-326. Spear, B.B.; Heath-Chiozzi, M. y Huff, J. (2001): Clinical Application of Pharmacogenetics, Trends in Molecular Medicine, 7 (5): 201-204. Tucker, L. (2008): Pharmacogenomics: A Primer for Policymakers, Background Paper, National Health Policy Forum. Veenstra, D.L.; Higashi, M.K. y Phillips, K.A. (2000): Assessing the CostEffectiveness of Pharmacogenomics, AAPS Pharmsci 2 (3): article 29 (American Association of Pharmaceutical Scientists) (extraído de: http://www.pharmsci.org/ el 5 de mayo de 2008). Williams-Jones, B. y Ozdemir, V. (2008): Challenges for Corporate Ethics in Marketing Genetic Tests, Journal of Business Ethics, 77: 33-44. 17 "La mayor parte del conocimiento científico disponible sobre Farmacogenética presenta déficits en la validez (...)" NECESIDAD DE CONVERGENCIA ENTRE LA EVALUACIÓN DE TECNOLOGÍAS SANITARIAS Y LA INVESTIGACIÓN FARMACOGENÓMICA. PEDRO SERRANO y Mª DEL MAR TRUJILLO. PEDRO SERRANO Mª DEL MAR TRUJILLO La Farmacogenómica es una tecnología sanitaria en desarrollo desde hace más de 50 años, que tiene por objeto predecir la respuesta terapéutica a algunos fármacos y personalizar la prescripción mediante pruebas de diagnóstico genético. La información ofrecida por estas pruebas de diagnóstico genético permitiría ajustar la dosificación a las características individuales de los pacientes, reduciendo la frecuencia y la gravedad de los efectos adversos potenciales mientras se mantiene el efecto terapéutico deseado, contribuyendo a ajustar los costes a los resultados. Sin embargo, los avances alcanzados en este campo, aunque significativos, no han satisfecho las expectativas iniciales de los científicos, de los profesionales y de la sociedad, dado que únicamente se han logrado incorporar a la práctica clínica un reducido volumen de terapias genómicas (1-4). En este escenario, en el que las necesidades de los pacientes y de los profesionales sanitarios convergen con el esfuerzo investigador de la industria y con la responsabilidad de los Gobiernos en cuanto a que los recursos sanitarios se distribuyan de manera justa, equitativa y transparente para hacer frente al conjunto de las necesidades de salud de la población, el papel que desempeña la evaluación de tecnologías sanitarias (ETS) podría ser interpretado de dos maneras totalmente diferentes. Para algunos, la ETS supone una barrera al avance de la medicina; mientras que para otros la ETS es una garantía para la sostenibilidad de los sistemas sanitarios públicos y universales. La incorporación del enfoque de la ETS a la investigación farmacogenética podría contribuir a reducir las diferencias entre las dos visiones anteriores: barrera vs. garantía. Incorporación de nuevas pruebas farmacogenéticas al Sistema Nacional de Salud: la perspectiva desde la evaluación de tecnologías sanitarias. El Center for Disease Control and Prevention (CDC) de EE. UU. adaptó la metodología de ETS diagnósticas a las pruebas genéticas con el programa ACCE. Este programa toma su nombre de las iniciales en inglés correspondientes a los cuatro componentes que se evalúan: validez analítica, validez clínica, utilidad clínica y aspectos éticos, sociales y legales (5). La Agencia de Evaluación de Tecnologías Sanitarias de Andalucía elaboró en el 2004 y en el 2006 sendos informes de evaluación relacionados con estos procedimientos, en los que se exponían con mayor detalle las recomendaciones para llevarlos a cabo (6,7). La información que sigue ha sido extraída de estos informes. La validez analítica es la exactitud con que una prueba de laboratorio es capaz de identificar una determinada variante genética (8,9). Su evaluación, antes de su utilización en clínica, incluye el análisis de la fiabilidad de la prueba y el de la sensibilidad, especificidad y valores predictivos de la prueba en relación con el genotipo. La validez clínica es la exactitud con que una prueba predice un resultado clínico determinado. Se expresa por medio de la sensibilidad, de la especificidad y de los valores predictivos para un determinado fenotipo. Su estudio requiere diseños epidemiológicos (cohortes y casos-controles), centrados en la capacidad de la prueba para diagnosticar o predecir riesgos en la población de estudio (9). La utilidad clínica es la probabilidad de que la realización de una prueba tenga un efecto en términos de salud, contabilizando los efectos tanto de los resultados positivos como de los negativos. Dado que los test farmacogenéticos tienen una finalidad predictiva, es 18 preciso que exista una estrategia de seguimiento efectiva para evaluar la respuesta terapéutica en términos de supervivencia, calidad de vida u otros resultados de salud, frente a los resultados obtenidos sin que se haya empleado el test farmacogenético. Un aspecto clave es definir cuál es el nivel de evidencia que debería exigirse para aceptar el paso desde la investigación al uso en la práctica clínica de las pruebas farmacogenéticas. Una opción es diseñar modelos de decisión que no sean tan rígidos como para impedir la innovación, ni tan flexibles que permitan repetir lo que ya ha ocurrido con otras muchas tecnologías emergentes, que se han utilizado sobre la base de expectativas y razonamientos clínicos sin que existiese una evaluación adecuada del balance entre los beneficios y los riesgos (8). A fin de valorar la evidencia sobre la utilidad clínica de una prueba genética, el tipo de estudio ideal es el ensayo clínico que evalúa la estrategia completa de intervención (pruebas farmacogenéticas y tratamiento individualizado), con un periodo de seguimiento lo suficientemente largo como para valorar los resultados finales más relevantes para los pacientes y para los sistemas sanitarios. Además, en determinados casos podría ser conveniente que algunas pruebas pasaran por un periodo de introducción condicional, ligado a sistemas de información y vigilancia post-introducción. Este tipo de estrategia haría posible la monitorización de la práctica clínica mediante estudios observacionales (cohortes y casos-controles), que permitirían obtener información sobre un seguimiento largo y resultados de mayor relevancia clínica. En la actualidad, se han publicado un número creciente de ejemplos que ponen de manifiesto diferencias en la respuesta farmacológica como resultado del conocimiento de los polimorfismos genéticos, pero la mayoría de los estudios que dan lugar a esta información carecen de criterios explícitos para guiar la traslación de esta información al ajuste farmacológico con objeto de hacer frente a situaciones clínicas concretas. Sigue siendo necesario, por tanto, disponer de recomendaciones clínicas específicas y claras para facilitar a los médicos la toma de decisiones sobre la individualización de las dosis de los medicamentos de acuerdo con los resultados de las pruebas farmacogenéticas. Sin embargo, la importante y cada vez mayor disponibilidad de conocimiento farmacogenético contrasta con la falta de reconocimiento y de utilización de esta información en el ejercicio clínico diario (10). Herramientas tales como STARD (Standards for Reporting of Diagnostic Accuracy) (11) y QUADAS (QualityAssessment of Diagnostic Accuracy Assessment) (12) ofrecen criterios metodológicamente apropiados para guiar las decisiones en cuanto a la utilización de pruebas diagnósticas en la gestión clínica de pacientes. No obstante, ninguna de estas dos herramientas responde a las necesidades de evaluación de la investigación sobre pruebas farmacogenéticas (13). Otras iniciativas específicamente diseñadas para contribuir a mejorar la validez de la investigación sobre pruebas genéticas, tales como MIAME (Minimum Information About a Microarray Experiment) (14) o MIAPE (Minimum Information About a Proteomics Experiment) (15), también presentan limitaciones al centrarse específicamente en las características analíticas de las pruebas (13). Para tratar de obviar las limitaciones anteriores y ofrecer una alternativa a la evaluación de la calidad de la investigación sobre pruebas genéticas, un grupo de investigadores de CIBERESP desarrolló recientemente QUADOMICS. Se trata de una escala que procede de la adaptación de QUADAS a las exigencias y requerimientos metodológicos de las nuevas pruebas diagnósticas de carácter genético. Con ello se ha logrado una adaptación más apropiada a las diferentes fases de la investigación en el desarrollo y validación de este tipo de pruebas diagnósticas genéticas (13). Si te ha interesado este artículo te recomendamos que leas también ¿MEDICINA INDIVIDUALIZADA O ESTRATIFICADA? del Dr. Juan del Llano publicado en www.proyectonets.org en la sección "adelántate al futuro", IMPACTO DE LA FARMACOGENÓMICA EN EL PROCESO DE INVESTIGACIÓN Y DESARROLLO DE UN NUEVO MEDICAMENTO de Laura Cabiedes que puedes encontrar en esta revista en la sección "tecnología y eficiencia" o NUEVAS TERAPIAS ANTINEOPLÁSICAS EN EL CCR METASTÁSICO: UNA CUESTIÓN DE ESTRATEGIA de Eduardo Díaz-Rubio que encontarás en www.proyectonets.org en la sección "nuevas tecnologías". Para tomar decisiones sobre la incorporación de nuevas pruebas genéticas a la práctica clínica, es necesario estimar los costes relacionados con la adquisición, los posibles cambios requeridos por la organización y el mantenimiento de todos los servicios asociados. Estos costes incluirían tanto los de las propias pruebas genéticas como los de los circuitos de atención y tratamiento de las personas que presentan un resultado positivo. El parámetro fundamental de cara a informar la toma de decisiones sobre la incorporación de las nuevas tecnologías sanitarias es la relación coste-efectividad de la estrategia de diagnóstico con la nueva prueba genética en relación con otras alternativas. Otro aspecto clave tras decidir incorporar una nueva prueba genética a partir de la evaluación y comprobación de su validez y utilidad clínica es garantizar que las condiciones de su realización en la práctica sean adecuadas. Para ello habrá que incorporar controles de calidad en los laboratorios acreditados para efectuar análisis genéticos, establecer circuitos de tratamiento y 19 seguimiento de los pacientes y de los familiares, e instaurar mecanismos que garanticen la accesibilidad de la población. Necesidades de mejora en la investigación farmacogenética. Al revisar la literatura sobre investigación en Farmacogenética se observan algunos déficits que, de resolverse, podrían contribuir tanto a facilitar la ETS en este contexto, como a mejorar las posibilidades de transferencia de resultados a la práctica clínica. Hemos identificado cuatro aspectos limitantes: las dificultades de localizar y de acceder a los estudios genéticos incluidos en bases de datos electrónicas, el problema del tamaño de la muestra utilizada en los estudios, las características de los diseños más comúnmente utilizados por la investigación farmacogenética y la ausencia de la incorporación de la perspectiva de los pacientes. La identificación de estudios genéticos en las bases de datos electrónicas afronta dificultades superiores a las correspondientes a otros campos del conocimiento, debido a dos factores: al descubrimiento de considerables cantidades de genes, y a la complejidad y a la variabilidad de la nomenclatura utilizada para identificar a los genes en la literatura biomédica. Esta heterogeneidad se explica por la falta de una ontología específica que haga posible la estandarización de la nomenclatura de los genes. La ausencia de una nomenclatura estandarizada propicia la aparición de notables problemas en las actividades de búsqueda y de acceso a la información genética relevante (16). La mayor parte del conocimiento científico disponible sobre Farmacogenética presenta déficits en la validez, por proceder de estudios de pequeño tamaño de muestra y reducido poder estadístico. Estas limitaciones en el diseño y/o ejecución de los estudios explican los problemas de replicación en clínica sobre marcadores genéticos con capacidad predictora de la respuesta farmacológica (17). Este problema cobra aún mayor relevancia por la frecuente utilización de procedimientos estadísticos exploratorios y la elección de medidas de resultado múltiples, o bien de subgrupos o combinaciones de genotipogenotipo, habitualmente no previstos en la etapa de diseño del estudio. Para contribuir a un desarrollo más rápido y a una incorporación amplia de los resultados de la investigación farmacogenética a la práctica clínica, es necesario seleccionar el tipo de estudio más apropiado que haga posible, de forma eficiente, la consecución de los objetivos específicos perseguidos por los investigadores. Tanto los objetivos como la metodología requerida deben estar claramente definidos desde la primera fase de la investigación clínica. Idealmente, antes de que un determinado polimorfismo farmacogenético pueda utilizarse en la selección y en el ajuste farmacológico en la clínica rutinaria, éste debería caracterizarse ampliamente. Esta caracterización incluye: la evaluación de su función in vitro; la evaluación funcional de sus efectos sobre la farmacocinética y la farmacodinámica en ensayos clínicos con voluntarios sanos; y la evaluación de los efectos de interés clínico relacionados con la eficacia y con los acontecimientos adversos potenciales del fármaco mediante la monitorización de las medidas de resultados (a medio-largo plazo) de interés para los profesionales y para los pacientes. Pero incluso tras la validación y la comprobación de la contribución al resultado clínico de un determinado tratamiento mediante la incorporación de las pruebas farmacogenéticas, el valor potencial de estas tecnologías debería evaluarse económicamente para informar de manera adecuada la toma de decisiones y la distribución de los recursos sanitarios a partir de la disponibilidad de información clínica y económica. A fin de disponer de información básica, clínica o económica del valor de los resultados de salud tras la incorporación de la Farmacogenética, hay que hacer uso de diferentes tipos de estudios, cada uno de los cuales requiere un tipo de diseño específico, tal como se expone en la Tabla I (3). La evaluación de los resultados de salud autopercibidos por los pacientes mediante el empleo de cuestionarios genéricos y/o específicos de calidad de vida relacionada con la salud (CVRS) no se ha difundido en el caso de los tratamientos oncológicos en general. Es probable que la limitada sensibilidad de los instrumentos desarrollados para captar los cambios asociados a las terapias, por un lado, y la frecuencia e intensidad de los efectos 20 adversos, así como la toxicidad que conllevan los fármacos citostáticos, por otro lado, reduzcan el valor informativo de este tipo de instrumentos y medidas cuando se evalúa la efectividad autopercibida de los tratamientos frente al cáncer. Sin embargo, en las fases avanzadas de la investigación farmacogenética (estudios en fase III-IV), este tipo de instrumentos que incorporan la perspectiva del paciente podrían ser de utilidad para medir el valor de la posible reducción de toxicidad y/o eventos adversos que pueden aportar las pruebas farmacogenéticas para ajustar y personalizar, según las características de los pacientes, los programas terapéuticos en Oncología. Otra actividad de interés consiste en la participación de los pacientes en la fase de adaptación del informe final de la investigación para garantizar su compresión y posible utilización a fin de favorecer la toma de decisiones compartida entre médicos y pacientes (18-20). Barreras a la incorporación y difusión de las pruebas farmacogenéticas. La incorporación, difusión y utilización apropiada de las pruebas farmacogenéticas en la práctica clínica cotidiana está resultando más lenta de lo inicialmente esperado por todos los sectores interesados. Los diferentes tipos de barreras estructurales, financieras, de utilidad clínica, relacionadas con la formación y con el entrenamiento profesional, o bien sociales, legales o reguladoras parecen interactuar y contribuir a ello (3,21). Un aspecto que puede contribuir a limitar la difusión de las pruebas farmacogenéticas es la disponibilidad de laboratorios con la infraestructura y con el personal entrenado necesarios. Además, la comunicación adecuada entre los médicos clínicos y los profesionales del laboratorio que llevan a cabo las pruebas farmacogenéticas también puede actuar como factor facilitador o como barrera a la implantación y a la difusión. La existencia de procedimientos de envío y de almacenamiento de muestras adecuados también puede ser un elemento modulador de la difusión de estos test (22). Finalmente, la ausencia de protocolos que promuevan la homogeneidad en el procesado de muestras genéticas se ha identificado como un problema real de cara a la implantación de este tipo de tecnologías (23). Las barreras financieras están directamente relacionadas con la aprobación previa por parte de las autoridades reguladoras. El carácter experimental de la mayor parte de las pruebas farmacogenéticas o, en menos casos, el que estén sujetas a investigaciones evaluativas limita la decisión de financiación de las autoridades sanitarias. Desde una perspectiva clínica y de gestión, es importante tener en consideración que las tecnologías sanitarias susceptibles de ser financiadas con fondos públicos deberían demostrar con claridad el valor añadido sobre la práctica clínica habitual (21,24). Además, los costes constituyen en sí mismos una barrera común a la difusión de las nuevas tecnologías. Los costes de estas pruebas se perciben como altos, lo que favorece que los médicos los identifiquen como un problema para su difusión. Sin embargo, es un aspecto sobre el que se podría reflexionar, dado que se dispone de unas pocas evaluaciones económicas que informan de la favorable ratio coste-efectividad de algunas pruebas farmacogenéticas (test HER2 y test TPMT) (25, 26). Independientemente de la calidad científica de las evaluaciones económicas, parecen existir problemas en el acceso a esta literatura, a su comprensión o a su utilización por parte de los médicos y de las autoridades sanitarias. La utilidad clínica es, probablemente, uno de los condicionantes más notables que modulan la toma de decisiones sobre la incorporación, difusión y uso de las innovaciones. Un volumen importante de médicos asistenciales justifican no utilizar los test genéticos debido a que la investigación en curso no ha terminado de aclarar el valor real de las pruebas genéticas frente a las fenotípicas a más largo plazo (3). Entre los investigadores, sin embargo, ha ejercido una mayor atracción la búsqueda de conocimiento sobre la identificación de los determinantes genéticos que explican la variabilidad interindividual de la respuesta terapéutica y la validación analítica de nuevos alelos que el análisis de posibles asociaciones entre genotipo y fenotipo clínico o la búsqueda de correlaciones entre el fenotipo clínico y las alteraciones en la dosificación de los fármacos o recomendaciones farmacológicas alternativas. Para favorecer la adopción de las pruebas farmacogenéticas en la práctica, debería disponerse de estudios cuyos resultados relacionaran inequívocamente un determinado genotipo con los fenotipos clínicos habituales en la clínica al objeto de facilitar e individualizar las decisiones de prescripción a partir de la información farmacogenética. 21 Una vez que esté disponible dicha información, sería conveniente favorecer el consenso profesional mediante la elaboración de estándares para su incorporación en las guías de práctica clínica. No existen mecanismos reguladores que exijan la consistencia de los resultados procedentes de la investigación sobre las pruebas diagnósticas. Hay que señalar que hasta finales del 2007 la FDA sólo había aprobado dos productos diferentes para que pudieran utilizarse como pruebas farmacogenéticas. Además, la legislación recientemente propuesta desde el Senado de EE. UU. sugiere incorporar mecanismos reguladores adicionales para las pruebas de laboratorio. Estas tendencias describen un ambiente menos favorecedor de cara a lograr la incorporación de las pruebas farmacogenéticas a la práctica clínica (21). Otro aspecto mencionado con cierta frecuencia en la literatura es la preocupación sobre posibles demandas legales a partir de la utilización de las pruebas genéticas (27). Los aspectos relacionados con la suscripción de seguros se valoran como potencialmente inhibidores para la difusión de las mismas. Restriccciones a la financiación de la investigación evaluativa en farmacogenética. Los estudios diseñados exclusivamente para evaluar pruebas diagnósticas farmacogenéticas resultan relativamente costosos, por lo que difícilmente podrían ejecutarse fuera del ámbito de la industria farmacéutica. Lamentablemente, las compañías farmacéuticas tampoco parecen mostrar un gran interés por financiar este tipo de estudios, ya que su mayor disposición está en el desarrollo de medicamentos de interés para grandes grupos de población, siguiendo el principio de algo que sirva para muchos. El sector industrial interesado en las tecnologías diagnósticas sí que parece mostrar una mayor inclinación a desarrollar nuevos procedimientos de diagnóstico farmacogenético, pero, con frecuencia, carece de los recursos suficientes para financiar grandes ensayos clínicos y del hábito de evaluar sus propios productos mediante este tipo de diseños, que tampoco le exigen las Administraciones competentes. Otro aspecto relevante consiste en que los propios Gobiernos orientan mayoritariamente sus políticas de investigación hacia la financiación de investigación básica y dedican presupuestos menores a la investigaciónclínica o a la investigación de servicios de salud. Limitaciones del valor de la información sobre el diagnóstico farmacogenético. Por razones de extensión, la bibliografía de este artículo no ha sido publicada aquí, puedes encontrarla en www.proyectonets.org o solicitarla por correo electrónico en edicion@proyectonets.org. Las bases científicas de las recomendaciones terapéuticas disponibles en la actualidad para individualizar la dosificación de los fármacos frente a las enfermedades oncológicas o hematológicas son fundamentalmente exploratorias. La mayoría de los resultados ofrecidos en los estudios hasta la actualidad son poco consistentes y proceden, en gran parte, de pequeñas muestras de pacientes. Por ello, se requieren ensayos clínicos aleatorizados de tamaño muestral suficientemente amplio, adecuadamente diseñados y ejecutados, cuyos periodos de seguimiento sean prolongados en el tiempo y que ofrezcan información sobre las medidas de resultado relevantes para que los médicos, las autoridades sanitarias y los pacientes puedan valorar la eficacia, la efectividad y la relación costeefectividad de estas tecnologías. Es necesario disponer de información para responder a la pregunta: ¿cuáles son el odds ratio y el nivel de evidencia científica (validez del estudio) a partir de los que debería ser obligatorio llevar a cabo algún test farmacogenético antes de prescribir un determinado fármaco antineoplásico? Existen algunos ejemplos en el área de conocimiento de la terapia oncológica (28-30) que permiten documentar el concepto de selección terapéutica basada en el diagnóstico farmacogenético y que demuestran que este procedimiento puede llegar a formar parte de la práctica clínica rutinaria (4). Otro aspecto que hay que tener en cuenta es que muchos de los estudios farmacogenéticos se han llevado a cabo entre voluntarios sanos y, consecuentemente, han tendido a utilizar bajos niveles de dosificación para analizar principalmente los parámetros farmacocinéticos. Además, la ausencia de información farmacocinética en relación con posibles cambios de dosificación y de concentración podría explicar algunas discrepancias que se han evidenciado entre los datos farmacogenéticos experimentales y las observaciones realizadas tras la utilización terapéutica en la práctica clínica (4). 22 TABLA 1. DISEÑO DE ESTUDIO FARMACOGENÉTICO EN DESARROLLO CLÍNICO. fuente: Kirchbeiner et al (8). TIPO DE ESTUDIO FARMACOGENÉTICO APLICACIÓN EN EL DESARROLLO DE MEDICAMENTOS Estudio farmacogenético controlado con voluntarios. Estudio de panel** TAMAÑO TÍPICO DE LA MUESTRA (SUJETOS) VENTAJAS DESVENTAJAS VALIDEZ* Fase I Frecuencias poblacionales de fenotipo y de genotipo. Tamaño de muestras grande en caso de genotipos raros. 50-1.000 (voluntarios sanos) Alta validez interna/moderada validez externa. Fase I Alta potencia. Acumulación de genotipos raros. Rara vez refleja resultados clínicos. 12-50 (voluntarios sanos) Alta validez interna/baja validez externa. Estudio de cohorte farmacogenético. Fase II-III Evaluación del riesgo relativo para la falta de respuesta o los efectos adversos y el número de sujetos necesarios para ser genotipados. Costes altos. Requiere una elevada tasa de reclutamiento. 300-3.000 (pacientes) Alta validez interna y externa. Casos clínicos y series de casos relacionados con un polimorfismo. Vigilancia poscomercialización. Alta sensibilidad para detectar un posible problema importante para la seguridad del medicamento. No hay pruebas de relación causal. 1-10 (pacientes) Relación de causalidad habitualmente no válida. Estudio de casos-controles. Vigilancia poscomercialización. Viabilidad razonable y potencia estadística. Sesgo de selección. Otros tipos de error sistemático. 20-500 (pacientes) Moderada validez interna y externa. Estudio de casoscontroles anidado. Fase II-III Viabilidad razonable y potencia estadística pero mayor validez que el estudio de asos-controles simple. No es posible si no se han obtenido los datos, los materiales biológicos y el consentimiento. 20-500 (pacientes) Alta validez interna y externa. Ensayo diagnóstico controlado y aleatorio basado en la farmacogenética. Diagnósticos basados en la farmacogenética. Prueba del beneficio de los diagnósticos concomitantes basados en la farmacogenética. Estudio caso. 200-2.000 (pacientes) Validez interna y externa más alta. * Alta validez interna significa que los factores de confusión se han eliminado con éxito. Alta validez externa significa que los resultados de un estudio pueden extrapolarse a la población general. El juicio sobre la validez de estos diseños de estudio diferentes sólo puede ser estimado y dependerá del objetivo específico del estudio. Este juicio se basa en el prerrequisito de que cada estudio se lleva a cabo bajo las condiciones óptimas establecidas para estos diseños de estudio (por ejemplo, un ensayo diagnóstico controlado y aleatorio basado en la fármacogenética que se realiza mal puede ser incluso menos sólido que un estudio de casoscontroles realizado de forma excelente). **Estudio en panel es un término que se usa específicamente para describir un estudio que compara subgrupos que fueron preseleccionados sobre la base de marcadores farmacogenéticos (fenotípico o genotípico). Pedro Serrano Aguilar. Servicio de Evaluación de Tecnologías Sanitarias del Servicio Canario de la Salud. Centro de Investigación Biomédica en Red de Epidemiología y Salud Pública (CIBERESP) María del Mar Trujillo Martín. Fundación Canaria de Investigación y Salud (FUNCIS). visítanos en internet www.proyectonets.org 23 www.proyectonets.org "La descoordinación nos sale demasiado cara, deberíamos fomentar alianzas (...) entre todos los miembros del sector" LA CRISIS, LA EVALUACIÓN DE TECNOLOGÍAS Y LAS OPORTUNIDADES PERDIDAS. ORIOL SOLÀ-MORALES. Dicen algunos que nos acercamos al final de la crisis global en la que estamos sumidos. ¡Celebrémoslo por si fuera cierto!, porqué tengo mis dudas a que hayamos sabido aprovechar la dureza de esta crisis para plantear siquiera algunos de los problemas que teníamos planteados. ORIOL SOLÀ-MORALES Desde la perspectiva de la evaluación de tecnologías (ET), la crisis llegó en un momento de gran protagonismo de las mismas, con el Plan Nacional de Calidad para el Sistema Nacional de Salud en marcha y unas dotaciones económicas generosas, una alta prioridad en el momento político y hasta un cierto consenso de que eso debía mantenerse así. Lamentablemente la virulencia de la crisis ha hecho que lo urgente pase por delante de lo importante y que lo imprescindible anteceda a lo necesario. Sea o no cierto que la crisis está amainando (aunque así fuera los daños para muchos serán muy lentamente si acaso recuperables) me parece un buen momento para poner de manifiesto algunas reflexiones; unas porque la crisis las ha puesto de manifiesto, otras para intentar recuperar el tiempo perdido poniéndolas en la agenda de nuevo. Coordinación. Los esfuerzos a nivel nacional e internacional no han cesado para evitar la duplicación de trabajos, y si bien es cierto que se ha mejorado y/o se avanza (lentamente y quizás por algún camino demasiado largo o no muy claro). Lo primero que hay que decir es que en todos los sectores se producen duplicaciones, y que la coordinación perfecta sólo es posible a través de estructuras fuertemente jerarquizadas que no responden al modelo actual de ET. Dicho esto, es justo reconocer que el proyecto europeo EuNetHTA, en el que participan todas la agencias y unidades de evaluación españolas, se encuentra en este momento en una encrucijada. Por un lado se espera la resolución de la Comisión Europea en cuanto a un proyecto colaborativo (Joint Action) que en principio es bien acogido por la administración europea pero que está fundamentalmente apoyado por la potente industria farmacéutica que ve de esta manera una oportunidad para mejorar su capacidad de acceso a los 27 mercados a través de una única puerta. Y por otro lado están algunas voces que claman contra la financiación de otro proyecto de coordinación de ET (y sería el cuarto) sin haber obtenido hasta ahora resultados que lo justifiquen, y también están los que ven en esta red una trampa para la regulación de la prestación sanitaria en los distintos estados miembros. El proyecto AUNETS de base española sigue dando los mismos frutos que en el pasado, con limitaciones a la hora de la coordinación probablemente más por desídia de los socios que por falta de oportunidades. ¡Lo que no funciona ni a nivel europeo ni a nivel de España son los incentivos! Pocos tienen (tenemos) un incentivo a ceder parte de su soberanía a una red, y quizás es porque la ET se encuentra a medio camino entre la investigación académica y el servicio a un sistema sanitario. Por supuesto que el incentivo no es la creación de una estructura lejana y con sistemas de gobierno poco participativos y transparentes, sino aprovechar algunas sinergias más o menos naturales para crear desde abajo (bottom-up approach) una verdadera red de intercambio de información. Igualmente necesaria es la creación de elementos, espacios de comunicación virtuales en los que la 25 aportación sea homogenea, en la que todos salieran ganando y donde los más pequeños valgan tanto como los más grandes. La descoordinación nos sale demasiado cara, y en tiempos de crisis deberíamos aprovechar para fomentar alianzas que con una inversión mínima permitan compartir documentos a todos los niveles, no sólo entre las agencias y unidades de evaluación de tecnologías sino también entre todos los miembros del sector, públicos y privados. Otra cosa es valorar si habría que ceder o vender a estos terceros los documentos (teniendo en cuenta que, erróneamente, tendimos a pensar que lo que hay que pagar es mejor). Y la coordinación debe ir acompañada necesariamente de una política adecuada de diseminación. ¡No parece lógico que unos (marketing directo) puedan hacer llegar al buzón o teléfono de mi casa información no deseada ni relevante con los datos perfectamente actualizados y nosotros no seamos capaces de hacer llegar información relevante a individuos motivados!. Los envíos postales no son ya una opción, y los emails masivos (virales) tampoco. Tenemos alcance profesionales de la comunicación capaces de contactar con los interlocutores apropiados y de convertir documentos de difícil digestión en amenos pasatiempos. Es de nuevo un problema de eficiencia del proceso productivo, en el que cada una de las partes puede y debe ser mejorada. Eficiencia. Oriol Solà-Morales también ha publicado en NETS el artículo PLANIFICACIÓN Y ANÁLISIS DE LA EFICIENCIA que puedes encontrar en www.proyectonets.org en la sección "tecnología y eficiencia", este artículo ha sido publicado también en el número 01 de NETS Innovación y Tecnología en la Salud. Aceptamos todos que la elaboración de documentos de ET son largos y que los tiempos no coinciden necesariamente con los de la toma de decisiones. Así, muchas de las decisiones se toman sin o antes de la evidencia. Habría dos posibles soluciones a este problema: modificamos los tempos o modificamos los temas a estudiar. Respecto de los segundo, una reciente encuesta a responsables de aseguradoras privadas mostraba claramente que los decisores están dispuestos a sacrificar parte del nivel de evidencia (en favor de consenso de expertos) para tener respuestas más rápidas; sus fuentes de información no son las revisiones sistemáticas (en realidad sólo son usadas de forma ocasional) sino documentos comerciales. Deberíamos reflexionar sobre esto y plantearnos si estamos respondiendo preguntas relevantes para el sistema o para los propios investigadores. O como decía Sean Tunis (Institute of Medicine), quizá debemos pasar de le toma de decisiones basada en la evidencia a la evidencia basada en la toma de decisiones. En cuanto a lo primero, también disponemos de suficiente (ahora sí) evidencia que nos indica que un porcentaje muy elevado (87%) de la información se encuentra en cuatro bases de datos documentales (Embase, PubMed y Cochrane) , y que este porcentaje aumenta más todavía cuando se asocian un par de bibliotecas más. La pregunta que hay que hacerse entonces es: ¿porqué malgastamos tanto tiempo en escudriñar bibliotecas para obtener sólo beneficios marginales escasos? Deberíamos reflexionar también si debemos premiar la exhaustividad o la oportunidad, y como he dicho antes creo que el ambiente académico premia en estos momentos la exhaustividad. Efectividad. Basamos muchas de nuestras recomendaciones en datos de eficacia, y no llegamos a demandar datos de efectividad (no entraremos en el tema eficiencia por sabido y por cansancio). Resulta que recomendamos tomar decisiones a partir de datos quizás no pobres pero si incompletos y aceptamos todo tipo de proxys en la evaluación a largo plazo de las políticas implementadas. En el momento actual, debemos exigir tomar decisiones en base a la mejor información disponible, y cuando esa no sea suficientemente robusta o no exista la información referente a la efectividad debemos pretender obtener esos datos. Y deben ser los promotores quienes de una forma u otra asuman parte del riesgo de que esas tecnologías se demuestren ineficaces, ya sea mediante contratos de riesgo compartido o con otros arreglos múltiples. Lo que no debe seguir ocurriendo es que el sector público asuma sin más las aventuras tecnológicas del momento, igual que no haría ninguna otra empresa. 26 En los últimos tiempos vemos aparecer con fuerza el concepto de la Eficacia Comparada y por extensión la Investigación en Eficacia Comparada { }. Habría que estimular la introducción de las metodologías que acompañan esta nueva disciplina también a todos los niveles, no solo en las grandes organizaciones siendo al mismo tiempo muy conscientes que los experimentos naturalísticos están muy expuestos a todo tipo de sesgos: por tanto, capilarizar la idea de la efectividad asociada a un soporte metodológico suficiente para no incorporar falsas conclusiones. En conclusión, la crisis nos ha centrado excesivamente en la cuenta de resultados y el hoy, y hemos perdido parte del momento que habíamos conseguido con la ET. La perspectiva más a medio plazo es lo que justifica la ET, pero debemos también pensar en qué reformas hacemos hoy para que almenos hayamos sacado algo positivo de la crisis. No podemos volver a la normalidad sin que nada haya ocurrido, sin que nuestras organizaciones y sistemas hayan modificado en lo más mínimo sus procedimientos de trabajo, porque en realidad sólo habremos engordado. Hay que ganar músculo y perder peso, y las actuaciones pueden estar entre otros lugares en mejoras en la coordinación, una mirada menos académica y más de servicio y en unas evidencias basadas en efectividad. Referencias: 1. Schur C, Health Affairs 28, no. 5 (2009): w886w899 (published online 11 August 2009; 10.1377/hlthaff.28.5.w886)] 2. Royle P, Waughn N. Literature searching for clinical and costeffectiveness studies used in health technology assessment reports carried out for the National Institute for Clinical Excellence appraisal system. Health Technol Assess 2003; 7 (34) 3. Hailey D, Johnson E, Jacobs P. Comparative Effectiveness: an overview. IHE Brief, IHE 2009 (Alberta, Canada) Oriol Solà-Morales. Director Agència d´Avaluació de Tecnologia i Recerca Mèdiques. "La fijación en la optimización del quirófano (...) relega a un segundo plano el objetivo principal que es restaurar la salud del paciente" LA EFICIENCIA DEL BLOQUE QUIRÚRGICO: PERSPECTIVAS DESDE EL SISTEMA PRIVADO O PÚBLICO DE SALUD. Dr. LUIS QUECEDO y EVA MELGAR. Dr. LUIS QUECEDO Un aspecto fundamental en la evaluación de la gestión de las diferentes organizaciones sanitarias es la capacidad de identificar y separar aquellos centros, unidades o departamentos eficientes. La información obtenida a través de la evaluación de la eficiencia puede ser de utilidad en diversos niveles de la gestión, identificando las mejores y las peores prácticas asociadas con una elevada o reducida eficiencia y productividad, respectivamente. Es evidente que la eficiencia es un concepto relativo. De hecho, el análisis de frontera (benchmark) es básicamente una forma de llevar a cabo una comparación respecto de una referencia de la eficiencia relativa de una unidad de decisión. Farrell (1957) propuso que la medida de eficiencia se compone de dos elementos: eficiencia técnica (ET) que refleja la habilidad de obtener el máximo nivel de producción con unos recursos dados, y eficiencia asignativa, que corresponde a la capacidad de utilizar los recursos de acuerdo con las proporciones óptimas, dados sus respectivos precios. La frontera de producción representa el nivel máximo de producción que se puede obtener para cada nivel de recursos. EVA MELGAR El bloque quirúrgico comprende aproximadamente el 10-15% del presupuesto realizándose el 50% de los procedimientos del Hospital. Los indicadores de su actividad se centran en el recurso quirófano, estos reflejan no sólo la intensidad de actividad realizada sino el 27 grado de optimización de dicha área. Habitualmente se han utilizado indicadores como el número de intervenciones, número total de intervenciones por sesión quirurgica, duración media de las intervenciónes, rendimiento o índice de ocupación de quirófano entre otras. El índice de ocupación de quirófanos es uno de los más extendidos y utilizado. Sin estudios que avalen su definición, se ha establecido por la mayoría de directores de bloques quirúrgicos una cifra alrededor del 80% como óptima e ideal. Cifras por encima podrían bloquear el acceso a nuevos cirujanos y por debajo de 50% no permiten una buena coordinación de los equipos, cirugía, enfermería y anestesia, entre sí. Macario (2007) describe una serie de posibles indicadores útiles para valorar la calidad y la optimización del bloque quirúrgico. Diseña un sistema de puntuación de 8 indicadores de rendimiento: 1. Costes del exceso de plantilla. 2. Retraso en la hora de inicio (retraso medio de los tiempos de inicio para cirugía programada por quirófano por día). 3. Tasa de cancelaciones. 4. Retrasos en el ingreso en la Unidad de Reanimación Postanestésica (% de días de trabajo con al menos una demora de 10 minutos o más en el ingreso en Reanimación porque esta unidad está llena). 5. Margen de beneficio medio por hora del bloque quirúrgico. 6. Tiempos de transición (tiempos de transición medios para la preparación y limpieza para todos los casos). 7. Sesgo de predicción (sesgo en la duración del caso estimada por 8 horas de tiempo de quirófano). 8. Transiciones prolongadas (% de transiciones de más de 60 minutos). Jordi Colomer del hospital de Viladecans comentó el artículo en www.proyectonets.org: Una realidad es el coste de un quirófano vació sin razón. Desgraciadamente poca gente es consciente de que representa cada minuto sin usar el quirófano (hacer el cálculo) y lo peor cuantas intervenciones se dejan de hacer por ello. Las direcciones y profesionales de todo tipo lamentablemente estan muy pendientes de los costes pero no de lo que cuesta y poco de cómo se hacen las cosas. Po rtodo ello el quirófano es caro, es decir, ineficiente si no sabemos los resultados. A estas alturas conscientes de que el 40% de los efectos adversos pasan en el bloque quirúrgico se nos tiene que recordar que lavarse las manos, señalar la zona para intervenir y comunicarse entre los profesionales quirúrgicos hay una disminución de los efectos adversos. Así de sencillo, y así de complicado por lo que se deduce. Si nos orientaramos más a proceso que contempla actividad, coste y calidad, los indicadores estarían basados en los tres vértices de un triangulo que debería ser equilátero. Felicidades por la reflexión a Luis y a Eva. 28 Como se observa, las recomendaciones de los directores de bloques quirúrgicos para optimizar sus quirófanos se ven salpicados por connotaciones económicas donde se da una extraordinaria importancia a la reducción de los tiempos de transición operatorios y costes de sobreproducción. La cuestión es si dichas consideraciones tienen la misma relevancia en nuestro entorno, dada la diferencia de los sistemas de salud y sobretodo de los costes de personal. En nuestro entorno la mayor parte del consumo del tiempo quirúrgico lo realizan los cirujanos en su intervención. Por ello es lógico pensar que la selección de aquellos facultativos mejor capacitados tanto en conocimientos como en habilidad práctica van a ser la mejor fuente de ahorro y beneficio. ¿Realmente se seleccionan los mejores en nuestro sistema de salud?. Obviamente no, damos por hecho que tenemos los mejores. Y es frecuente que cirujanos con resultados quirúrgicos pobres, mantengan una elevada tasa de frecuentación en el quirófano al no existir mecanismos de evaluación de competencia profesional. En los centros de titularidad privada sin embargo, existe una selección natural de los facultativos, retirando privilegios o relegando a aquellos cirujanos cuya rentabilidad sea menor, es decir, que empleen mucho tiempo quirúrgico, elevado gasto de material y sean frecuentes las complicaciones postoperatorias. Las cifras de ocupación tienen tambien lecturas diferentes segun la titularidad del centro. La importancia que reconoce Macario en el punto referente a las prolongaciones de quirófano no tiene paralelismo en nuestro sistema. El coste de personal por hora de prolongación es ridicula si la comparamos con otros países occidentales, en el caso no infrecuente que dichas horas no sean remuneradas y el personal excepto cirujanos sean relevados en la prolongación por el personal de urgencias (enfermeros y anestesiólogos), constatar en este punto el impacto de la precariedad del empleo para influir en dichas prácticas. Tampoco el tiempo de acceso al área de readaptación al medio o reanimación tiene paralelismos con otros sistemas sanitarios, en muchos centros privados el paciente se dirige directamente a su habitación para disminuir su factura o hace el tiempo de espera en el antequirófano. En centros públicos el número de camas de reanimación no está adpatado al de quirófanos ocurriendo demoras o altas precoces no recomendables, mermando la calidad asistencial. La siguiente consideración que habría que hacerse sería cuantos centros de titularidad pública reciben inspecciones periódicas de la estructura de su bloque quirúrgico y si estas existen, si son tan exhaustivas como las que se realizan en los centros privados. Los quirófanos de urgencia se han convertido también en parte de un mecanismo de optimización del bloque quirúrgico. Normalmente la programación del bloque se recomienda realizarse semanalmente y dejando abierto un 20% del tiempo para aquellas intervenciones que no siendo urgentes no son demorables mas de 24-48 horas. Aun a pesar de la voluminosa literatura que evidencian mayores complicaciones postoperatorias en pacientes intervenidos por equipos de guardia, cada vez es mayor la cifra de intervenciones en las guardias y en horas nocturnas. Muchos son los factores que intervienen en la decisión de operar urgentemente pacientes que podrían programarse electivamente optimizados para ello, uno de ellos es claramente su rentabilidad, generada porque los costes del personal y la disponibilidad nocturna del quirófano son costes hundidos, es decir se imputan se haga o no la intervención. El producto final del bloque quirúrgico como del resto de las unidades y centros es la producción de salud y no la actividad y el número de intervenciones. Por lo tanto un centro eficiente es aquel que produce mejores resultados en salud con el menor coste posible. Muchos son los matices a partir de este principio básico de eficiencia, Por ello, la eficiencia se puede considerar desde diversos puntos de vista y el tratamiento es muy distinto según el actor implicado que la valore. La fijación exagerada en la optimización del quirófano como mecanismo de incrementar el número de intervenciones relega a un segundo plano el objetivo principal que es restaurar la salud del paciente. Los directores de bloque quirúrgico y las unidades de gestión centran demasiado su atención en las cifras relativas a la producción neta del numero de intervenciones, en la reducción de los tiempos de recambio o de anestesia y en la distribución de los partes de quirófano para optimizar su rendimiento. Sin embargo, aunque implementan y apoyan circuitos de mejora de la calidad asistencial la impresión en el resto de los actores implicados en el funcionamiento del bloque quirúrgico, es el de un papel secundario y prescindible de la calidad asistencial. Los matices de la eficiencia dependen en la práctica de los diferentes puntos de vista de los agentes o actores implicados: gerentes, directores de bloque quirúrgico, cirujanos, anestesiólogos y enfermeras, y por último, por el tipo de titularidad del centro o tipo de retribución de la actividad. Sin embargo para el principal implicado, el paciente, la eficiencia de los quirofanos no debe perder el norte en el matiz de la producción de salud, más salud y al menor coste posible. Dr. Luis Quecedo. Anestesista. Hospital de La Princesa de Madrid. Eva Melgar. Enfermera. Bibliografía: Macario A. Are your operating rooms 'efficient'?. Or Manager. 23(12):16-8, 2007 Dec. Macario A. Are your hospital operating rooms "efficient"? A scoring system with eight performance indicators. Anesthesiology. 105(2):237-40, 2006 Aug. www.proyectonets.org 29 "hay que fomentar los lazos entre las compañías innovadoras y las organizaciones sanitarias (...)" ¿QUÉ ES ESTO DE LA CUARTA GARANTÍA? Dr. JUAN DEL LLANO, JOSÉ Mª ABELLÁN y JOSÉ LUIS PINTO. Dr. JUAN DEL LLANO JOSÉ Mª ABELLÁN La situación. En situaciones de crisis ecónomica, desacelaración y hasta decrecimiento, los recursos públicos son cada vez más escasos siendo esencial elegir entre las distintas alternativas posibles de la forma más racional e informada posible. Una correcta asignación es pues crítica. Por este motivo, la evaluación económica se está convirtiendo en una Herramienta imprescindible en el proceso de toma de decisiones. Si se acepta la pertinencia y la legitimidad de la eficiencia como uno de los criterios de decisión, parece lógico concluir que es necesario, o por lo menos conveniente, recurrir a los mejores instrumentos y métodos disponibles para su cuantificación. Las técnicas de evaluación económica constituyen el conjunto de herramientas que permiten tomar decisiones de asignación de recursos de forma más rigurosa y consistente. En algunos países y contextos se utilizan de forma explícita y sistemática, para informar decisiones tales como el establecimiento del precio o la financiación, por un tercer pagador, de medicamentos y tecnologías sanitarias. En otros se utilizan de forma discrecional y poco transparente. Finalmente, en un tercer grupo de países entre los que posiblemente se incluiría España, la evaluación económica se utiliza de forma esporádica en la toma de decisiones y parece constituir más bien una forma de justificación de decisiones tomadas con criterios distintos a la eficiencia, o simplemente como un instrumento de promoción de nuevas tecnologías que se pretende introducir en la práctica clínica. Todo ello ha llevado a una cierta desconfianza hacia los estudios de evaluación económica, cuya metodología se considera manipulable y manipulada en función de los intereses particulares de sus promotores. Una de las opciones que se ha propuesto para mejorar esta situación es la que aboga por asegurar transparencia y reproducibilidad de los estudios, sobre la provisión de un conjunto de bienes públicos y colectivos en los que se pueda apoyar la aplicación de la evaluación económica a casos concretos. Es en esta cuestión donde las reflexiones vertidas en las páginas siguientes pretenden ser de ayuda. El diagnóstico. JOSÉ LUIS PINTO 30 Las pruebas que sustentan nuestro diagnóstico proceden de un estudio de revisión abordado por los autores sobre la experiencia internacional en materia de cuarta garantía (1); expresión por la que optamos frente al término (peyorativo a nuestro juicio) de cuarta barrera (fourth hurdle). En nuestra opinión, la presunta barrera de la evaluación económica, entendida ésta como un criterio para informar las decisiones de reembolso y fijación de precio de nuevos medicamentos y tecnologías, es en realidad una garantía de acceso al sistema sanitario público de aquellos productos que se revelan como eficientes. Bajo este punto de vista, la evaluación económica sirve para recompensar adecuadamente a aquellos fabricantes cuyas tecnologías son lo suficientemente meritorias en el plano costeefectividad, al tiempo que asegura al financiador público que dichas tecnologías valen lo que cuestan. La cuarta garantía o, si se prefiere, cuarto mérito, persigue ganancias de eficiencia, no de ahorro de costes, lo cual no obsta para que pueda producirse ese ahorro. Esto dependerá de cuáles sean las tecnologías seleccionadas para ser evaluadas (por ejemplo, muy caras y dirigidas a colectivos de pacientes reducidos o menos caras pero de uso generalizado) y de cómo se concilie la evidencia económica favorable a la financiación de una nueva tecnología con el impacto presupuestario correspondiente. La revisión de la evidencia internacional sobre la instauración de sistemas nacionales de cuarta garantía nos permitió observar varias realidades. Por un lado, hay un conjunto destacado de países (Australia, Finlandia, Reino Unido, Suecia, Canadá, Holanda) que exigen de manera obligatoria la evaluación económica de las tecnologías que aspiran a ser financiadas con fondos públicos. En la mayoría de los casos, la cuarta garantía sólo atañe a medicamentos y tecnologías de nueva factura, si bien unos pocos sistemas incluyen además otro tipo de tecnologías (aparatos y procedimientos). Un segundo grupo de naciones, utilizan de manera discrecional la cuarta garantía (Alemania, Irlanda, Portugal). Para otros países (Italia y Francia) la presentación de evidencia coste-efectividad es voluntaria y/o recomendada. Queda en último lugar casos como el de España, en el que, si bien parece observarse en años recientes una cierta efervescencia en el empleo de la evaluación económica en el SNS, ni el marco regulador existente, ni las instancias decisorias más elevadas, terminan de dar forma a un sistema de cuarta garantía homologable al de otros países del entorno europeo. El balance acerca de la repercusión que, en la práctica, tiene la cuarta garantía sobre las decisiones de financiación de las agencias de reembolso de los países analizados está limitado por la escasa información disponible. No obstante, pueden extraerse conclusiones interesantes. Para empezar, resulta relativamente frecuente que los comités de cuarta garantía recomienden la financiación de la tecnología bajo revisión, pero casi siempre de un modo cualificado (esto es, restringido a determinadas indicaciones y grupos de pacientes). Esto parece bastante claro en el caso del NICE, mientras que el sistema canadiense es mucho más duro a este respecto, exhibiendo una tasa de rechazo de nuevas tecnologías superior al 50%. Por su parte, el grado de consistencia que muestra la evidencia económica aportada por la industria, con las directrices de las guías de evaluación económica elaboradas por las agencias de cuarta garantía, tan sólo es regular. Parecen existir, no obstante, ciertos indicios (tímidos, bien es cierto) de que las exigencias provenientes de organismos como el NICE pueden estar favoreciendo la cantidad y calidad de evaluaciones económicas realizadas por la industria. Asimismo, parece que, al menos en el caso del NICE, poseer una ratio coste-efectividad por encima de un umbral considerado aceptable puede privar a la tecnología en cuestión del reembolso. Finalmente, no siempre se verifica el nivel de coherencia que sería deseable entre las recomendaciones efectuadas por los comités de cuarta garantía y las instituciones de reembolso, ni tampoco, aun en los casos en los que sí se comprueba dicha coherencia, puede concluirse una correlación firme entre dichas recomendaciones y los niveles de consumo y coste de las tecnologías evaluadas. Por último, los resultados de nuestra revisión sobre la cuarta garantía fueron objeto de análisis y debate en un grupo de discusión formado por reconocidos expertos. Los panelistas señalaron que la ausencia de sistemas de información sanitaria apropiados constituye un considerable obstáculo práctico a la implantación de la cuarta garantía en nuestro país. También se señalaron dos requisitos imprescindibles para el desarrollo normativo y técnico de la cuarta garantía en España. Estos son la transparencia (criterios, información, herramientas y resultados disponibles para todos los agentes) y la estandarización metodológica (un listado de costes estándar o una guía de evaluación económica de tecnologías sanitarias que cuente con el consenso de todos los agentes implicados, así como con el respaldo oficial de las autoridades sanitarias). La Fundación Gaspar Casal publicó en 2008 una revisión de las guías de evaluación económica y de las experiencias de Cuarta Garantía junto a una investigación cualitativa acerca de la implantación de la Cuarta Garantía en España bajo el título de "Eficiencia y Medicamentos: Revisión de las Guías de Evaluación Económica. La Cuarta Garantía" donde se recogen colaboraciones de José María Abellán, José Luis Pinto, Marco Barbieri, Carlos Polanco y Juan del Llano. El libro fue editado por Sanofi-aventis. La terapia. Es indudable que el gasto en nuevos medicamentos y tecnologías en nuestro país y en todos los del entorno europeo, crece robustamente. Sin embargo, este hallazgo en sí mismo debería ser neutro y no generar controversia. Lo relevante no es que crezca sino que lo que gastemos con el dinero público sea en tecnologías que merezcan la pena, que produzcan ganancias en salud objetivas, o dicho en términos económicos, que los beneficios que aportan estos nuevos medicamentos y tecnologías sean mayores que sus costes en términos marginales. Así, el incremento del gasto tendría un beneficio marginal positivo y sería adecuado. Sin embargo, si esto no sucediera, el incremento del gasto sería ineficiente y generaría un injusto reparto de los recursos sanitarios que siempre serán escasos. Por lo tanto, el problema no es gastar más o menos, sino más bien cómo gastamos y en qué. 31 El sentido común nos dice que lo primero sería asegurarnos que los medicamentos y las tecnologías nuevas se utilizan adecuadamente, ya que el mal uso es un muy serio problema de salud pública y económica. La medicalización de la vida cotidiana no es un tema baladí. El objetivo, considerando los aspectos éticos, debe ser fomentar la eficiencia y no la mera contención de costes. El posible establecimiento de la cuarta garantía en España beneficiaría a todos los agentes implicados: pacientes, profesionales, administración e industria. A los pacientes se les pone a su alcance los mejores y más innovadores fármacos/tecnologías garantizando su acceso de forma equitativa y en tiempo. A los profesionales se les dota de instrumentos para prescribir medicamento, autorizar técnicas teniendo en cuenta la relación entre coste y resultados en salud. La administración puede que gaste menos o no, pero gastará mejor y sólo en lo adecuado. La industria realmente innovadora ganará pues se identificarán los productos eficientes frente a los que no lo son, incentivando la inversión al conseguir precios adecuados al valor que aporta cada innovación. En definitiva, ganariamos todos pues mejoraría la eficiencia global del sistema. El tema que nos ocupa es todo menos instrascendente. El sustancial impacto sobre la economía nacional y el bienestar social de las regulaciones sobre la salud y la seguridad, exige que las decisiones regulatorias estén basadas en análisis de alta calidad, donde los resultados y las limitaciones estén claramente escritos y su lenguaje sea entendido por todos los agentes del sector. Las medidas de beneficios deben poder ser aplicadas a un amplio rango de problemas de salud, por lo que las características de la población afectada, o del riesgo señalado han de ser detectadas en su medición. Los análisis de incertidumbre y de sensibilidad son precisos en toda documentación regulatoria. Las medidas de coste han de ser estandarizadas y consensuadas entre todos los agentes del sistema sanitario. Las bases de datos de costes unitarios han de ser desarrolladas en un esfuerzo conjunto, han de estar fácilmente disponibles y accesibles (de dominio público) y han de ser actualizadas periódicamente. Qué duda cabe que los procesos regulatorios por su importancia económica y social han de ser transparentes. Han de ser comunicados de forma comprensible a muy distintos tipos de audiencia, desde la compañía que quiere introducir un nuevo medicamento o una nueva tecnología en el mercado hasta la asociación de afectados por una enfermedad rara. Los decisores (gobiernos) han de facilitar la implicación de los individuos, poblaciones y organizaciones afectadas por las regulaciones a través de deliberaciones sobre su impacto en los riesgos para la salud y la seguridad. Es preciso que los objetivos sean claros y producto del acuerdo previo entre todos los agentes involucrados; alineados en cualquier caso para mejorar los procesos de rendición de cuentas. Asimismo deberían existir estrechas relaciones con el/los organismo/os que pagará/n la factura, siendo el proceso de decisión necesariamente sistemático. Finalmente, siempre es conveniente conocer los precedentes (expericiencias previas) y todos los posibles impactos de las decisiones. Referencias: Del Llano J, Abellán JMª, Pinto JL, Barbieri M, Polanco C. Eficiencia y Medicamentos: Revisión de las Guías de Evaluación Económica. La Cuarta Garantía. Editado por Sanofi-aventis. Barcelona 2008. ISBN: 978-84-691-2988-3. Para mejorar la competitividad del sector salud hay que fomentar los lazos entre las compañías innovadoras y las organizaciones que forman parte del sistema científico de alta calidad, conciliando las políticas sanitarias con las de control de precios, incluyendo los costes de la innovación. La cooperación se hace precisa. El camino nos ha de llevar a que los bien conocidos criterios para las decisiones de reembolso -valor terapéutico o diagnóstico, coste efectividad, coste beneficio y carga de la enfermedad- cuenten con sistemas de información que hagan posible su medición sólida y no sesgada. Por último, España precisa dotarse como país de información consistente y transparente para el análisis de las regulaciones en su más amplia consideración. Ello forma parte del proceso político de rendición de cuentas habitual en toda democracia firme, donde los representantes informan periódicamente a los representados. Dr. Juan del Llano. Director de la Fundación Gaspar Casal. José Mª Abellán. Profesor Titular de Economía Aplicada, Universidad de Murcia. José Luis Pinto. Catedrático de Economía Aplicada, Métodos Cuantitativos e Historia Económica, Universidad Pablo de Olavide de Sevilla. 32 "El modelo de valoración de la utilidad terapéutica de las nuevas tecnologías es poco trasparente y tiene un marcado peso político" A VUELTAS CON LA UTILIDAD TERAPÉUTICA. NAZARET TORRALBA, GEMA PI y Dr. JUAN DEL LLANO. El modelo español de valoración de la utilidad terapéutica de las nuevas tecnologías y medicamentos actual es poco trasparente desde el punto de vista técnico y tiene un marcado peso político. Se acerca el momento de encarar reformas profundas que permitan definir y acordar, el concepto de utilidad, ligándolo a las consecuencias lógicas que de ello debieran derivarse, es decir, sacar del sistema de cobertura todo aquello que no es útil, cuando no iatrogénico, y que, por ejemplo en los EEUU, puede significar un 30% del su gasto sanitario que alcanza el 15% del PIB. Descuidar el componente técnico en el proceso de dicha valoración, genera agravios y hace difícil la racionalidad. Reconsiderar el papel del Estado, las CCAA y mejorar la gestión pública sería condición sine qua non. Conviene recordar como hace Ortún (1), los condicionantes que afectan a los actores. Por un lado, políticos atentos a la urna, sensibles -en ocasiones- a los intereses creados y a la posibilidad de una buena salida profesional en la propia industria. Por otro lado, profesionales sanitarios deseosos tanto de rentas más elevadas como de mayor autonomía en sus decisiones. En ambos casos inmersos en una situación en la que numerosos aspectos de la práctica profesional información, formación, difusión, investigación, equiposdependen de la industria farmacéutica y también de las de empresas de tecnologías sanitarias. Dichas compañías, a menudo con problemas de imagen, responden ante sus accionistas y saben que la Bolsa valora la responsabilidad social de las empresas en la medida en que las ayude a ser más rentables. La presión de grupos interesados puede ayudar a crear conciencia social que sea reconocida por el mercado, aunque no es misión de las empresas trabajar por unas sociedades más justas. Esto es tarea del Estado. NAZARET TORRALBA GEMA PI La negociación de precios por parte de los financiadores públicos afecta a toda nueva tecnología, incluyendo medicamento, que se integre en el paquete básico de prestaciones. Este paquete es probable que venga cada vez más definido por la efectividad relativa (utilidad terapéutica) y por el umbral, implícito o explícito, de euros por año de vida ajustado por calidad, junto a consideraciones de renta y de preferencias reveladas o declaradas (2). Los informes de una agencia europea podrían orientar a las decisiones sobre precios de los financiadores públicos. La pérdida de competitividad en Europa y su incapacidad de generar, organizar y mantener en el tiempo procesos de innovación cada vez más caros y difíciles, hacen que avancemos irreversiblemente en la aplicación de la directiva de transparencia en las decisiones de fijación de precios y reembolso, en la creación de redes virtuales de coordinación de la investigación básica y aplicada, en el acortamiento de los procesos de autorización (market access), en mayores incentivos para la investigación, en el fortalecimiento de la competencia de medicamentos no intervenidos y en una mejor información a los profesionales y ciudadanos. Todo ello, nos llevaría a un escenario donde todos los actores se verían reconocidos de justa manera. Dr. JUAN DEL LLANO En un reciente estudio, auspiciado por GSK, destacamos que existe unanimidad, de los expertos consultados, en que la definición consensuada de utilidad terapéutica debe estar asociada a dos vertientes: la efectividad (en lugar de datos de eficacia) y la marginalidad (por cuanto es una variable relativa, procedente de la comparación de una innovación con la práctica habitual en el presente). También apuntamos que sería deseable un mayor peso del criterio de utilidad terapéutica en los procesos de financiación pública de nuevas tecnologías y medicamentos. Hay consenso en la necesidad de separar los procesos de 33 autorización de comercialización y los de financiación pública: no toda innovación autorizada debe contar con financiación pública. Resulta improbable eliminar los factores sociales y políticos, reconociendo cierto margen de actuación necesario desde la Administración y avanzando siempre en la transparencia de los procesos de financiación pública de las innovaciones terapéuticas. Es necesario desplazar el momento en el que se evalúa la utilidad terapéutica para cumplir con el requisito de emplear datos de efectividad: una evaluación antes de la introducción en la práctica clínica presenta sesgos inherentes al diseño de los ensayos clínicos. En este sentido, propuestas como los acuerdos de riesgo compartido permiten conjugar el que los pacientes dispongan a la mayor brevedad de una innovación terapéutica, como que su aportación (evaluada tras 3-5 años en el mercado) determine el nivel de financiación pública. Otra herramienta, para evaluar en los próximos años la efectividad y el grado de ajuste a la indicación de las innovaciones financiadas, podría ser la historia clínica electrónica. Por otro lado, desde el punto de vista técnico, una vez se consiguiera unir el concepto de utilidad terapéutica a la concesión de financiación de una determinada innovación, sería lógico establecer un sistema que permitiera ir evaluando y acotando los medicamentos que, en cada grupo terapéutico, resultan ser suficientemente útiles como para que quedaran incluidos a priori frente a otros ante cualquier situación dentro del sistema de financiación. De hecho en los métodos empleados para la evaluación de los dispositivos médicos, es más habitual el hecho de que si una generación de estos productos resulta tener una mayor utilidad que una generación anterior de los mismos, es sustituida (en lugar de acumulada). La evaluación económica, como herramienta para la toma de decisiones, resulta útil en la medición de la utilidad terapéutica si se ciñe a la característica de partir de datos de efectividad. Persisten las dudas acerca de algunos de sus supuestos e implicaciones éticas, así como de quién financia estos trabajos. La implantación de un umbral económico por unidad de resultado en salud sigue siendo de difícil viabilidad cultural y social en nuestro contexto. Definitivamente, hay necesidad de avanzar en el desarrollo del concepto de utilidad terapéutica en España pues hoy no nos orienta lo suficiente en la búsqueda de la eficiencia de los recursos públicos de forma transparente y consensuada. Pues bien ¿cómo avanzamos?: Para que la financiación pública de nuevos medicamentos y tecnologías incorporadas a las carteras de servicios públicos no sea una decisión casi automática en muchos de los países de nuestro entorno, se requiere de agencias de evaluación, cualificadas y transparentes. En España, los organismos involucrados deberían ponerse de acuerdo en la definición del concepto de utilidad terapéutica, su medida y su aplicación práctica. Así, la autorización de entrada al mercado de nuevos medicamentos y tecnologías precisa del desempeño de cualificadas agencias de evaluación que incorporen transparencia en su quehacer y que no estuvieran ligadas con los procesos de decisión de financiación. Dichas agencias podrían clasificar los nuevos medicamentos y tecnologías según su, inicialmente, eficacia, seguridad y relación riesgo/beneficio. Una vez comienzan a ser utilizadas en el contexto clínico, han de mostrar su efectividad, de tal manera que los compradores de la atención sanitaria de programas públicos tuvieran conocimiento del impacto en la salud de los fármacos nuevos, de los dispositivos médicos, ..estableciendo precios, intervenidos si se reembolsan públicamente, que reflejen dicho grado de efectividad relativa. Con ello se envían al mercado señales correctas que reflejen el esfuerzo investigador y la eficiencia dinámica, y se facilita la eficiencia asignativa en la práctica clínica y en las intervenciones sanitarias de cada país. Para hacer realidad lo anterior, hemos de disponer a nivel estatal de una política estratégica integrada de salud pública y de sistemas de información sanitaria más integrados que permitan generar una red de cooperación entre las administraciones estatales y 34 autonómicas en materia de salud, tipo centrales de balance de resultados en salud que contengan los principales indicadores de salud y funcionamiento de la asistencia sanitaria (http://www.msc.es/estadEstudios/estadisticas/sisInfSanSNS/inclasSNS_DB.htm), hablamos en definitiva de reivindicar la importancia de la métrica y de la cultura evaluativa. Resulta crítico el fomento de una cultura organizativa de transparencia y rendición de cuentas, así como la apertura a la participación ciudadana en las decisiones, entre otras cosas, por si en el futuro tenemos que pedirles su participación económica. Resultará pues crucial, trasladar los resultados de la investigación de resultados en salud y de la evaluación comparativa del funcionamiento de los servicios sanitarios, a la práctica asistencial y profesional. Consideramos clave importar de fuera aquello que funciona como el NICE (Inglaterra y Gales, SIGN (Escocia), IWoQ (Alemania), LFN (Suecia), y hasta valorar que así como hemos creado a nivel europeo un CDC para la vigilancia epidemiológica de las enfermedades transmisibles, se estudie cubrir a los 27 países de la UE con una agencia europea de evaluación de tecnologías sanitarias que generara economías de escala y de gama y que fuera más difícilmente capturable por los regulados. Fijaría precios homogéneos teniendo en cuenta el valor de las aportaciones diagnósticas o terapéuticas de EMEA, sobre eficacia y seguridad y la información de EuroNice sobre efectividad relativa y eficiencia de los nuevos medicamentos y tecnologías a los 2-5 años de su entrada al mercado. Serviría esta agencia europea para dar servicios de Cuarta Garantía a los países miembros, incorporando consideraciones de coste y beneficio. Esta organización supranacional internalizará el bienestar de los actores implicados aunque precise de compensaciones supranacionales para conseguir acuerdos (3). Referencias: 1. Ortún V. Patentes, regulación de preciso e innovación en la industria farmacéutica. Cuadernos Económicos de ICE 2004; nº 67: 191-207. 2. Pinto JL, Abellán JMª, Sánchez FI. Incorporación de preferencias de los pacientes en la toma de decisiones clínicas. Masson, Barcelona 2004. 3. Cabrales A. Precios Farmacéuticos: regulación y competencia. Política Farmacéutica Europea en el Mercado Global. Contenidos del I y II Foro Europeo de Política Farmacéutica. Ed. Sanofi aventis-Fundación Gaspar Casl. Madrid 2007. Nazaret Torralba. Patronato de la Fundación Gaspar Casal. Gema Pi. Responsable de Relaciones Institucionales de la Fundación Gaspar Casal. Dr. Juan del Llano. Director de la Fundación Gaspar Casal. visítanos en internet www.proyectonets.org nets Innovación y Tecnología en la Salud 35 GESTIONANDO CONOCIMIENT net "el éxito de cualquier innovación organizativa tiene como factor clave el liderazgo efectivo de sus responsables" GESTIÓN FOSBURY O GESTIÓN ANTIGÉNICA. Dra. MARÍA JOSÉ JIMÉNEZ. Hace algunos años, cuando participé en el Master de Administración y Dirección de Servicios Sanitarios impartido por la Fundación Gaspar Casal y la Universidad Pompeu Fabra, me llamó la atención leer -en el índice del módulo de gestión a cargo de Vicente Ortún- el epígrafe del título de este artículo: Gestión Fosbury o gestión antigénica. Dra. MARÍA JOSÉ JIMÉNEZ En ese momento no tenía ningún conocimiento de gestión y tecleé esas dos palabras en un buscador de internet pensando que Fosbury sería un autor de reconocido prestigio en gestión clínica y podría ir leer algo antes de las clases. Lo único que encontré fue esto: Dick Fosbury, atleta estadounidense especialista en salto de altura, que fue campeón en los Juegos Olímpicos de México 1968 y se hizo famoso por utilizar una nueva técnica para pasar encima del listón, que posteriormente han aplicado casi todos los saltadores y que se conoce como Fosbury Flop. De gestión clínica nada de nada. Sería una errata en el temario? No, no era un error sino una genialidad de un gran docente: Gestionar significa coordinar e incentivar, y se puede hacer mal, generando rechazo y anticuerpos -lo que él llamaba gestión antigénica- o bien, en el estilo Fosbury, investigando y poniendo en práctica nuevas formas que generen mejores resultados de verdad y, por tanto, aunque inicialmente puedan generar dudas, cuando se demuestra su efectividad sean seguidas e imitadas. Dos años más tarde viví desde dentro ( y desde una perspectiva más clínica que de gestión) una modificación organizativa de gran calado en la atención sanitaria de los pacientes con patología cardiovascular en el Hospital Clínico San Carlos de Madrid, especialmente en el ámbito de la Cirugía Cardiaca, con la incorporación de un coordinador de la actividad del mismo en abril de 2003. El nuevo coordinador del Servicio de Cirugía Cardiaca fue el encargado de impulsar este cambio, enfrentándose al reto de redefinir su actividad desde la clínico-quirúrgica a la responsabilidad en gestión -pasando de ser un cirujano de reconocido prestigio a ser un gestor clínico-, para lo que se requieren diferentes habilidades y diferentes estilos de enfrentarse a problemas también diferentes. Existen muchos ejemplos de cambios organizativos y de la influencia del liderazgo en la gestión sanitaria, tanto de nuestro país como del resto de países de nuestro entorno, pero la evaluación de los mismos sigue siendo difícil y en general de carácter cualitativo. Tras el cambio producido en el Servicio de Cirugía Cardiaca del Hospital Clínico San Carlos, me planteé aplicar los conocimientos adquiridos en el master y analizar su influencia a corto y medio plazo en los indicadores de efectividad, calidad y eficiencia con respecto al período precedente mediante un estudio retrospectivo, de cohortes no concurrentes durante nueve meses: Los primeros tres meses previos al cambio (Precambio). Los tres meses inmediatamente posteriores al cambio (Postcambio 1) y Los tres meses posteriores al año tras el cambio (Postcambio 2). Se incluyeron todos los pacientes sometidos a cirugía cardiaca mayor en el Hospital Clínico durante el período de estudio y se analizaron las variables demográficas y los indicadores 37 de gravedad prequirúrgicos, de efectividad, eficiencia y calidad. Los resultados del estudio realizado han constituido una tesis doctoral y demuestran que, tanto en el periodo inmediatamente posterior, como un año después de la incorporación del nuevo coordinador de Cirugía Cardiaca al hospital, los cambios organizativos instaurados consiguieron mejoras en la mayoría de los indicadores evaluados. Indicadores de gestión de quirófano 120% 97% 100% 83% 74% 76% 80% 102% 86% % Intervenciones Suspendidas 60% % Utilización Quirófanos % Ocupación Quirófanos 40% 20% 7% 0% Beatriz Claudia Thomann comentó el artículo en www.proyectonets.org: Estoy completamente de acuerdo con la Dra. Jiménez. Considero que es fundamental, para realizar un cambio tan importante en un Servicio de tal envergadura, que la persona a cargo de este proyecto sea pro-activa y que los objetivos planteados a corto, mediano y largo plazo sean coherentes con el momento por el que atraviesa la Gestión del Servicio en cuestión. Si la persona a cargo no es líder, es muy posible que no pueda motivar al resto de los integrantes del Servicio y los objetivos no se cumplan como corresponde. No es tarea fácil, pero es un desafío que enriquece mucho al que lo realiza ya que, al ver los resultados en un determinado plazo, lo impulsa a seguir adelante y mejorar en la Gestión. Precambio 8% Postcambio 1 1% Postcambio 2 Analizando en primer lugar los indicadores de actividad y efectividad, se objetivó un aumento de la actividad quirúrgica del 50% con respecto a la asistencia en los primeros tres meses tras el cambio, y un año más tarde, en el periodo postcambio 2, el aumento en la actividad quirúrgica fue del 150% con respecto al periodo precambio y del 66% con respecto al periodo anterior (206 pacientes frente a 82 y 124). Con respecto a las características de los pacientes intervenidos no hubo diferencias estadísticamente significativas en la edad, el género, los indicadores de riesgo como el infarto de miocardio previo o la intervención cardiaca previa, los índices pronósticos de mortalidad más utilizados en cirugía cardiaca (Euroscore y Parsonnet) o la función del ventrículo izquierdo previa a la cirugía entre los tres periodos estudiados. La única variable que mostró diferencias entre los tres períodos fue la clase funcional (disnea y/o angina) de los pacientes intervenidos, siendo mejor en el periodo inmediatamente posterior al cambio, pero mucho peor en el último periodo estudiado, un año después del cambio organizativo. La mortalidad hospitalaria indicador tanto de efectividad como de calidad, mejoró significativamente en los dos periodos posteriores al cambio organizativo pasando del 14,6% al 4% en el primer periodo postcambio, y al 6,3% en el segundo periodo postcambio. Una de la explicaciones podría ser que en el primer periodo tras el cambio disminuyó de forma significativa el número de pacientes en peor clase funcional y por tanto, se podría pensar que la mortalidad fue menor por una mejor selección de los pacientes, aunque esta explicación no se podría aplicar al segundo periodo tras el cambio, porque se intervinieron más pacientes en peor clase funcional de forma significativa. Tampoco hubo diferencias significativas en el resto de variables demográficas ni en los índices o modelos de predicción de riesgo de muerte (Euroscore y Parsonnet) de los pacientes intervenidos en cada periodo (aunque el Euroscore fue ligeramente peor en el tercer trimestre con respecto a los previos). Además, en el análisis estadístico multivariable, la intervención en los dos periodos posteriores al cambio supuso una reducción del riesgo de muerte, del 87% y del 83% respectivamente, con respecto al periodo previo, independientemente del resto de variables estudiadas. La mayoría de las complicaciones postquirúrgicas también disminuyeron en el periodo posterior al cambio y de forma significativalo hicieron las arritmias, el sangrado excesivo, el número de unidades de concentrados de hematíes transfundidos por paciente y la necesidad de traqueostomía. 38 Entre los indicadores de eficiencia, la estancia preoperatoria, la estancia en la UCI y la estancia media (EM) hospitalaria total (con extremos) disminuyeron en los dos periodos posteriores con respecto al periodo previo al cambio, aunque sólo lo hicieron de forma estadísticamente significativa la estancia preoperatoria y la estancia total. Todos los indicadores de comparación con el estándar (ajustados por casuística y por funcionamiento) fueron mejores en los tres periodos estudiados con respecto a dicho estándar, pero mejoraron de forma considerable tras el cambio organizativo, especialmente en el último periodo. El aumento de actividad del Servicio consiguió disminuir la demora quirúrgica máxima de tres meses y medio a uno, y la demora media de dos meses uno, aunque el número total de pacientes en lista de espera aumentó en el último periodo de estudio. El coste total del Servicio se incrementó de forma congruente con el aumento de la actividad, pero el coste medio por paciente disminuyó tras el cambio organizativo. Entre los indicadores de calidad el porcentaje de injertos con arteria mamaria interna en la cirugía de revascularización coronaria mejoró de forma significativa en los dos periodos posteriores al cambio (95% vs 56%). El número de reclamaciones al Servicio de Atención al Usuario fue muy bajo en los tres periodos, con un porcentaje menor en los periodos posteriores al cambio. El presente estudio demuestra que el cambio organizativo establecido en el Servicio de Cirugía Cardiaca del Hospital Clínico San Carlos de Madrid ha mejorado la asistencia prestada a los pacientes intervenidos en dicho servicio, especialmente con un aumento de la actividad quirúrgica que ha supuesto una reducción importante de los tiempos de demora quirúrgica, con una reducción significativa de la mortalidad, de la mayoría de las complicaciones posquirúrgicas, de la estancia media hospitalaria y en la UCI, y con una mejora considerable de los indicadores de eficiencia hospitalaria, consiguiendo aumentar la actividad y mejorar la calidad sin aumentar el coste medio por paciente, e incluso disminuyendo este ligeramente. Los esfuerzos para transformar las organizaciones, especialmente en el ámbito sanitario, plantean numerosos conflictos y chocan con las respuestas individuales y colectivas, a menudo de negación y resistencia, de las personas implicadas en dichos cambios. El éxito o el fracaso de cualquier innovación organizativa tiene como factor clave el liderazgo efectivo de las personas encargadas de implementar el cambio, especialmente en las primeras fases de implantación. Si estas personas no son buenos líderes, que ven la necesidad de la transformación y se implican profundamente en ella, las posibilidades de fracaso son muy elevadas. El hecho de que las mejoras conseguidas en el Servicio de Cirugía Cardiaca en los tres primeros meses tras la implantación del cambio organizativo se hayan mantenido de forma consistente un año más tarde confirma que, en este caso, los cambios fueron de gran calado (como lo fue el salto de altura de Fosbury), estables y no meramente coyunturales. María José Jiménez es miembro del equipo de redacción de Proyecto NETS, también ha publicado en NETS la introducción al debate "PRÓTESIS AÓRTICAS BIOLÓGICAS PARA PACIENTES DE ALTO RIESGO QUIRÚRGICO, ¿VÍA PERCUTÁNEA O TRANSAPICAL?." que puedes encontrar en www.proyectonets.org en la sección "nuevas tecnologías" y que ha sido publicado también en el número 01 de NETS Innovación y Tecnología en la Salud. Dra. María José Jiménez. UCI Cardiovascular. Hospital Clínico San Carlos de Madrid. www.proyectonets.org 39 "las actividades, los empleados, los aparatos y los clientes tienen una programación ajustada al minuto, cada día." REHABILITACIÓN JUST-IN-TIME. ALFONSO DÍEZ. ALFONSO DÍEZ ¿Es posible integrar exitosamente la gestión del conocimiento y la gestión de procesos?. En este artículo vamos a presentar una experiencia exitosa de gestión y de desarrollo tecnológico el la que hemos participado en este año: es una apuesta muy innovadora sobre el modelo organizativo del área socio sanitaria de rehabilitación; e integra de forma novedosa técnicas de gestión de procesos y de gestión del conocimiento. Clínica Nubis nació hace tres años, en Las Palmas de Gran Canaria, apostando por un enfoque radicalmente distinto en la prestación de servicios de rehabilitación y estética. Este cambio radical tiene que ver con dos factores: la calidad de servicio y el control de los procesos. En general los servicios de rehabilitación se prestan en un contexto que tiene una alta incertidumbre en la programación de las actividades. Entre un 10 y un 20% de la actividad de cada día no se puede predecir con 24 horas de antelación. Esto hace que en general la organización de las áreas de rehabilitación suela estar sometida a un cierto nivel de caos. Clínica Nubis apostó desde el principio por organizar sus actividades desde un enfoque de programación just-in-time: todas las actividades, los empleados, los aparatos y los clientes tienen una programación ajustada al minuto, cada día. Veamos un ejemplo: son las 8:47 minutos. En este minuto el paciente P1, en la camilla 1, va a ser atendido por el auxiliar A1 para preparar el trabajo del fisioterapeuta F1 que lo atenderá a las 8:48. Al mismo tiempo, el masajista M1 está yendo a recepción para recoger al paciente P2, llevarlo a la silla S1, donde el auxiliar A1 le pondrá un TENS a las 8:48... La pantalla que aparece a continuación es un ejemplo de un control de sesión de un paciente con herramientas manuales de ajuste. Es un ejemplo del tipo de herramientas de que disponen los responsables de planificación para hacer ajustes. 40 Una sesión diaria de un paciente tiene de promedio cinco actividades, con una duración total de 45 minutos, y se repite, con ciertas variantes, a lo largo de diez a veinte días. Nubis gestiona más de 200 pacientes al día, sujetos a una compleja coreografía de movimientos, minuto a minuto. Este ajuste de la programación a cada minuto del día hace que el responsable de operaciones tenga un conocimiento total sobre lo que ocurre. Esta organización, tan milimétricamente concebida, puede parecer aberrante, es una mecanización del trabajo personal que sugiere asfixia, como en las famosas secuencias de Tiempos Modernos de Chaplin. Sin embargo, la realidad es muy distinta, como vemos: Los pacientes saben a qué hora entran y a qué hora salen. El paciente sabe con suficiente antelación a qué hora va a salir de la clínica, y además está seguro de que la clínica será puntual. La rehabilitación no se convierte en un problema en su vida cotidiana. La atención al paciente es continua. Nunca hay más de tres minutos de espera entreuna actividad y otra. El tiempo del paciente también es valioso. No hay colas en las salas de rehabilitación. Ningún paciente se encuentra esperando a que desalojen un aparato o un box, no tiene que competir por los recursos, ni se le cuela nadie. Los profesionales solo hacen una cosa cada vez, no tienen, atascos, colas, enfados, prisas, etc. Cuando un profesional tiene un hueco en su agenda, sabe que puede irse a la sala de descanso sin ninguna preocupación. Todo seguirá funcionando bien en su ausencia. Los profesionales confían en la eficacia del sistema. La dirección conoce el coste real de la atención a cada paciente, y puede programar con precisión los recursos técnicos y materiales que necesita. Además puede monitorizar la calidad de la atención de forma continua. Es sistema es flexible ante incidencias y cambios (por ejemplo, si se pone enfermo un fisioterapeuta). La calidad de servicio que ofrece Nubis se repite siempre, todos los días y para todos los pacientes. Esto genera una gran confianza por los pacientes y unas valoraciones muy altas en la evaluación de la calidad. Clinica Nubis contrató con BET el desarrollo de una nueva plataforma integral para la gestión de sus operaciones. El proyecto se inició en marzo de 2009 con los siguientes objetivos: Alfonso Díez ha publicado diversos artículos en NETS relacionados con la gestión del conocimiento en las organizaciones sanitarias como MÁS INTELIGENCIA Y MENOS MATERIA: LA GESTIÓN DE PROCESOS SOCIOSANITARIOS DESDE EL CONOCIMIENTO y ¿EXISTEN TECNOLOGÍAS PARA POSIBILITAR UNA GESTIÓN INTELIGENTE DEL CONOCIMIENTO?¿QUÉ ALCANCE TIENEN? que puedes encontrar en el blog de Bet Value en www.proyectonets.org. Un área de gestión del conocimiento para incorporar la gestión de las certificaciones ISO9000 e ISO27000. Recepción y gestión de pacientes. Consultas médicas e historiales clínicos. Programación de actividades y gestión de operaciones. Gestión de recursos humanos y materiales. Facturación y gestión financiera. El sistema está, a la redacción de este artículo, finalizado en fase de pruebas de aceptación y ajustes. Como todos los sistemas BET, se ha implantado como una Intranet, accesible también desde el exterior, sujeto a las máximas medidas de seguridad física y lógica. Esto permite deslocalizar el trabajo de programación y seguimiento. El plazo de desarrollo de un sistema de estas características ha sido de cinco meses, lo que es un éxito en cuanto a eficiencia y calidad. 41 El área más interesante del desarrollo realizado tiene que ver con la problemática de la programación de operaciones en las salas de rehabilitación, que es el sello distintivo de Nubis. Hasta el momento Clínica Nubis realiza la programación de forma básicamente manual, usando unas plantillas de colores donde se representan pacientes y recursos. Los responsables de operaciones deben organizar manualmente los recorridos de cada paciente cada día, lo que es una tarea ímproba cuando el volumen de actividades de la clínica crece. En el nuevo sistema una gran parte de la programación es automática. Esto quiere decir que es el sistema el que se esfuerza en colocar cada cosa en su sitio. Obviamente, no todo se puede automatizar, y cuando el sistema no es capaz de encajar el puzzle necesita del apoyo de un ser humano, que es quien tiene la experiencia y es capaz de tomar decisiones. Para entrenar al sistema en el papel de organizador de las salas de rehabilitación se ha usado un modelado heurístico, con el que se ha ido trasladando poco a poco la experiencia de los responsables a los sistemas. Este ha sido un proceso de retroalimentación positiva: detectamos reglas tácitas en los seres humanos (patrones), los convertimos conocimiento explícito, transformamos este conocimiento en reglas heurísticas embebidas en el sistema, y volvemos a incorporar al ser humano para obtener de nuevo su juicio y experiencia sobre un entorno técnico cada vez más capacitado. La mejora de las capacidades de programación ha supuesto un juego de búsqueda de casos y patrones que pudiésemos convertir en conocimiento embebido. No solo ha sido un proceso muy creativo, sino también muy productivo para el resultado final. Cuando iniciamos el desarrollo tampoco sabíamos si el proceso era viable, porque las reglas que el sistema debía seguir no habían sido explicitadas nunca. La primera tentativa nos dio diez reglas que dieron lugar al primer prototipo. Luego hubo varias rondas adicionales y al final el sistema dispone de una experiencia humana embebida muy importante y que seguirá creciendo en el futuro. El sistema puede ir aprendiendo poco a poco sin límite, lo que nos permitirá abordar nuevas necesidades según vayan haciéndose patentes. Para concluir es interesante hacer una reflexión ligada al artículo que publicamos en mayo pasado, que incluía un ejemplo sobre la problemática de control de un área de urgencias. En aquel artículo argumentábamos que saber lo que ocurre en cada momento en nuestra organización es algo imprescindible hoy en día. Tenemos los medios tecnológicos, pero no siempre somos capaces de desplegarlos y enlazarlos de forma adecuada con nuestros procesos operativos. Como consecuencia es frecuente que perdamos el control de nuestra organización, con consecuencias siempre negativas. La solución tecnológica y organizativa que mostramos hoy aquí es una solución radical en el terreno del control estricto. Evidentemente no es la manera de atacar otro tipo de procesos, como podría ser el que hemos comentado de urgencias. Podemos decir que hay tres grandes modelos de control: uno cerrado, que intenta mecanizar lo más posible el trabajo (sería el caso Nubis), otro abierto, que deja que las cosas ocurran de forma impredecible pero controlada (caso urgencias), y un modelo mixto, que sería el más frecuente, en el cual ciertas partes son susceptibles de control preciso y otras deben quedar abiertas. Elegir el modelo de proceso adecuado es un factor imprescindible en un diseño de procesos eficaz, pero al mismo tiempo no hay que olvidar que el modelo evoluciona muy rápidamente variando el balance entre control y apertura. Sobre este tema continuaremos con un próximo artículo. Por último queremos reseñar que el sistema descrito en este artículo va a permitir exportar el modelo de Nubis a otras organizaciones, tanto clínicas privadas como áreas de rehabilitación de hospitales. Alfonso Díez Rubio. Matemático. Gerente de BET VALUE. 42 "la salud de la investigación de los hospitales públicos es buena, sin embargo la mayoría están en el crecimiento de la adolescencia" LA GESTIÓN DE LA INVESTIGACIÓN EN SANIDAD: DEBILIDADES Y MODELOS DE VANGUARDIA. ANA Mª VALDEOLMILLOS. Los cambios estructurales, organizativos y sobre todo los fuertes incrementos de presupuesto introducidos en el VI Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica (2008-2011) y más concretamente en el Plan de actuación 2009, tras la creación del nuevo ministerio de Ciencia e Innovación, ponen en evidencia el compromiso político del gobierno con la investigación y deberían incidir positivamente en la potenciación de la Investigación Biomédica y Clínica, de forma que se materialice a medio plazo, en los mejores resultados posibles al servicio de la ciudadanía, del bienestar social, del desarrollo sostenible y ser un elemento esencial para la generación de nuevos conocimientos. ANA Mª VALDEOLMILLOS Este nuevo Plan contempla un conjunto de instrumentos agrupados en seis Líneas Instrumentales de Actuación (LIA) y 5 Acciones Estratégicas (AE) que definen objetivos específicos y priorizan líneas de trabajo. Las 2 primeras AE son la investigación en Salud y en Biotecnología, con el objeto de conseguir preservar la salud y el bienestar de la ciudadanía, así como el desarrollo de los aspectos preventivos, diagnósticos, curativos, rehabilitadores y paliativos de la enfermedad, reforzando e incrementando la competitividad y capacidad de I+D+i del Sistema Nacional de Salud (SNS) y de las empresas relacionadas con el sector, y actuando en los diferentes entornos (hospitales, universidad, OPIS, empresas). La investigación en Ciencias de la Salud, que se viene desarrollando de manera muy preferente en el entorno de los hospitales del SNS y en las universidades, ha tenido en los últimos años determinadas iniciativas de mejora y se encuentra en la actualidad en una fase de crecimiento tanto en la calidad de los proyectos como en la de su gestión; con El Instituto de Salud Carlos III (ISCIII) como órgano instructor y la implantación reciente de Fundaciones de Investigación Biomédica, como instrumentos de gestión de la investigación en los hospitales públicos españoles. En este sentido, cabe destacar la gran contribución del ISCIII en financiar y fomentar: Los recursos humanos: formación y movilidad, contratación e incorporación de científicos. Los proyectos de I+D+i: en salud, en tecnologías sanitarias y servicios, en investigación clínica no comercial. Las infraestructuras: creación de Institutos de Investigación Sanitaria a partir de centros y grupos ya existentes de investigación de calidad contrastada (en estos momentos hay 5 acreditados: 4 en Barcelona y 1 en Sevilla). La articulación del sistema: creación de centros y redes temáticas de investigación cooperativa en salud (CIBER, RETICS). El resultado de estas actuaciones, que se puede extraer de los estudios de indicadores de producción científica y tecnológica, revela que la investigación en Ciencias Medicas es uno de los sectores con mayor desarrollo, impacto, y número de publicaciones y colaboraciones tanto nacionales como internacionales. A pesar de estos esfuerzos en el impulso de una política nacional de I+D en Investigación Biomédica y Clínica, ésta no tiene el nivel deseable y presenta numerosas deficiencias e 43 imperfecciones que deberán solucionarse. Entre los aspectos más relevantes a mejorar cabe señalar: En primer lugar el capital humano, ya que es la base de todo el sistema. Por un lado, las peculiares características del mundo hospitalario y sanitario, donde los profesionales deben desarrollar actividad asistencial, docente e investigadora; con baja remuneración y sin certeza de continuidad laboral. Por otro lado, las escasas posibilidades de desarrollo y promoción profesional no hacen atractiva la carrera investigadora en España. A continuación, y siguiendo en la línea de los recursos humanos, las dificultades que tienen los grupos emergentes para lograr financiación adecuada para despegar, frente a los grupos consolidados, que en muchos casos obtienen cuantiosas y numerosas ayudas. También se debe tener en cuenta que mientras se continué, prioritariamente, midiendo y valorando la producción y excelencia científica en número e índice de impacto de las publicaciones científicas, nuestros investigadores se centrarán en proyectos potencialmente publicables, en detrimento de resolver aspectos más cercanos a ser aplicados en la actividad asistencial. Este hecho conduce a la desconexión del sistema de I+D en Biomedicina del propio sistema nacional de salud. No debemos olvidar que a pesar de los incrementos en recursos monetarios, todavía falta financiación pública y especialmente privada (separación de la industria, salvo en ensayos clínicos), así como compromisos de mantenimiento y continuidad de los sistemas a largo plazo. Por ultimo, poner en evidencia la insuficiente difusión, comunicación y divulgación al resto de profesionales sanitarios, así como a la sociedad en general, de los nuevos conocimientos generados. Ángela Aizaga comentó el artículo en www.proyectonets.org: Sólo puedo ser crítica con el actual énfasis en la I+D+i: hace una década que se hablaba de cambiar nuestro modelo económico y ahora, con prisas, confiamos ciegamente en la innovación. Lamentablemente, los frutos de la investigación sólo se ven en el largo plazo, y en el corto sólo vamos a percibir lo costosa que es la inversión. En cualquier caso, y aunque sea tarde, se percibe un importante esfuerzo, aunque no siempre coordinado. Los modelos de vanguardia recomendables para acometer reformas que ayuden a solventar las debilidades existentes deberían incidir, prioritariamente, en las siguientes actuaciones: El capital humano que formemos e incorporemos a los servicios de salud marcará nuestro futuro, por tanto, este ámbito está contemplado como una de las LIA en el nuevo Plan de actuación 2009. Pero además, seria conveniente instaurar nuevos modelos contractuales, basados en compromisos de continuidad, reconocimiento y promoción profesional, social y económica; que consigan, por un lado despertar vocaciones científicas y por otro facilitar el regreso de nuestros científicos en el extranjero. En el caso del personal sanitario, estas mejoras serian un incentivo para involucrarse más en investigación. Un reto muy importante ahora mismo es conseguir investigación traslacional (de la básica a la clínica y viceversa). Así, se deben fomentar todas las acciones para suscitar y facilitar la interacción, cooperación y colaboración multidisciplinar y multiinstitucional, donde se integre la investigación básica con la clínica y se aprovechen las sinergias existentes entre los diferentes grupos de investigación biomédica, incidiendo en las patologías más relevantes. En este sentido, podrían resultar muy eficaces y beneficiosos los esfuerzos que se dediquen a la promoción y potenciación de las estructuras de investigación biomédica creadas recientemente: 1. Acreditación de nuevos Institutos de Investigación Sanitaria e impulso de los ya existentes. Éste será uno de los mejores mecanismos para aumentar infraestructuras, nuevas tecnologías, masa crítica y prestigio de los centros que componen el Instituto, y estimular el concepto de Hospital como Centro de Investigación. 2. Las Redes temáticas han sido un buen camino para comenzar, pero ahora es necesario tras un profundo seguimiento y evaluación, incentivar las colaboraciones y la excelencia en el entorno de estas estructuras (CIBER y RETICS), solventando los déficit que presentan algunas en coordinación, personal (número y tiempo de dedicación) y planes estratégicos. 44 3. Aumentar las colaboraciones publico-privado; lamentablemente, la principal colaboración entre industria farmacéutica y hospitales se sigue centrando en ensayos clínicos, con un papel fundamental dentro de España. En estos momentos habría que avanzar buscando alianzas sólidas, estables y con vocación de permanencia en investigación básica. Otro factor clave para el progreso de todo el sistema sanitario implicaría una fuerte apuesta por las nuevas tecnologías de la información y la comunicación. Así, se deberían ir ejecutando los compromisos del proyecto e-Sanidad, incluido en el Plan Avanza (tarjeta, citas, recetas e historia clínica electrónicas), e implantando la telemedicina, que redundarían en la eficiencia y calidad de la información, de las colaboraciones y del servicio de atención prestado. Además, actualmente en España, según un informe de Google, el 79% de los individuos emplea internet cuando necesita información sobre una enfermedad. El médico debe plantearse el uso de este medio de comunicación para asegurar la calidad y el rigor de la información, frente a la publicidad engañosa. Seria muy acertado promocionar las acciones de difusión, comunicación y divulgación de nuevos conocimientos en salud. La atención médica de calidad debe basarse en el conocimiento. Por tanto, las nuevas innovaciones deberían llegar a todos los profesionales de la salud. Además, si tenemos en cuenta los análisis de la IV Encuesta Nacional de Percepción Social de la Ciencia y la Tecnología 2008, observamos que es la primera vez que la medicina y la salud encabezan la lista de preocupaciones de la sociedad. Los pacientes y sus familiares quieren resultados, que todo ese saber y todos esos recursos se traduzcan en terapias eficaces para curar enfermedades. La participación de los científicos en este tipo de actividades, con gran demanda social especialmente en el sector salud, estará condicionada en gran medida por el reconocimiento y valoración que se le otorguen. Actualmente, estamos asistiendo a un importante cambio en la forma de investigar y, de ahí, la necesidad de definir y aprobar el marco legislativo necesario para que la investigación pueda desarrollarse en el contexto ético y administrativo adecuado. Estas normas aportarán certidumbre y seguridad en el trabajo de los investigadores españoles y a la ciudadanía garantías de transparencia sobre las investigaciones, que respetan todos los condicionantes éticos y legales. Puedes encontrar este artículo en el blog del MADS en www.proyectonets.org, el Máster en Administración y Dirección de Servicios Sanitarios que imparte la Fundación Gaspar Casal y la Universidad Pompeu Fabra de Barcelona. Recuerda que en NETS puedes comentar los artículos, dar tu opinión, participar en debates y escribir nuevos artículos. El blog de la Fundación Gaspar Casal tiene más de una decena de artículos originales de diversos temas comentados y discutidos por los usuarios de NETS. Finalmente, no podemos olvidarnos de la importancia de los seguimientos y evaluaciones de todas las inversiones en I+D+i, no sólo como control exhaustivo de cumplimiento sino para ofrecer valoraciones objetivas de los impactos sanitario, social, ético, organizativo y económico de las técnicas y procedimientos de uso médico-sanitario, que contribuyan a sustentar, sobre bases científicas, las decisiones de autoridades y demás agentes sanitarios. Podemos concluir que "la salud de la investigación de los hospitales públicos españoles es buena, y se encuentra en fase de crecimiento en casi todos los centros", sin embargo "la mayoría están en el crecimiento de la adolescencia, en parte porque los instrumentos de gestión de la investigación sanitaria aún deben mejorar, madurar y afrontar los compromisos que la sociedad actual demanda. Ana Mª Valdeolmillos. Doctora en Ciencias Químicas. www.proyectonets.org 45 "Con EPIMED se persigue crear una base de datos que permita conocer los perfiles de utilización de medicamentos por GRD" OPTIMIZACIÓN DEL USO DE MEDICAMENTOS. JOSEP MONTERDE, ELENA TOMÁS Y GEMA PI. JOSEP MONTERDE Es un hecho conocido que la variabilidad en la utilización de los recursos sanitarios existe y que, cuando no puede explicarse por la propia epidemiología del problema de salud y por los patrones de práctica clínica, se trata de variabilidad no justificada y, por tanto, inapropiada. Dentro de esta variabilidad, es de especial interés identificar si existe disparidad de criterios en la elección de las pautas de tratamiento farmacológico y, en este contexto, evidenciar y priorizar acciones de mejora que contribuyan a la utilización racional de los medicamentos. Por otra parte, la detección de aquellas áreas en las que las estrategias de intervención resulten más beneficiosas puede ser útil para priorizar las acciones que tengan un mayor impacto tanto sobre el coste-efectividad, como sobre la calidad y la seguridad del uso del medicamento. Así mismo, toda esta información, puede servir de base para orientar políticas sanitarias. ELENA TOMÁS GEMA PI Para identificar estos puntos de intervención, es imprescindible disponer de información sistematizada y actualizada. Sin embargo, la realización de estudios cuantitativos y cualitativos sobre la utilización de medicamentos en el entorno hospitalario, es una tarea laboriosa debido, principalmente, a la necesidad de consultar fuentes de información diversas, dispersas y, en la mayor parte de los casos, heterogéneas. En ocasiones, esta demora en la obtención de resultados provoca que, cuando éstos están disponibles, la problemática que motivó el estudio haya variado. Con esta idea, y partiendo de experiencias previas, en el año 2000 se constituyó el Grupo de Trabajo GEFE (Grupo Español de Farmacoepidemiología), adscrito a la SEFH (Sociedad Española de Farmacéuticos de Hospital), formado por los servicios de farmacia de los hospitales participantes en el estudio, que se denominó EPIMED. Con la ayuda de herramientas informáticas básicas y con el objeto de contribuir a caracterizar la variabilidad en los recursos sanitarios, los problemas de seguridad clínica y las bolsas de ineficiencia en la utilización de medicamentos, se analizaron los datos relacionando el uso del medicamento con la casuística. Fruto de este trabajo se generaron los informes EPIMED 2001 a EPIMED 2004, con los principales indicadores de carácter general para cada grupo relacionado por el diagnóstico (GRD) del conjunto agregado de los hospitales participantes. El estudio EPIMED utiliza dos fuentes de datos: por un lado, el sistema de distribución de medicamentos en dosis unitarias (SDMDU), establecido en los servicios de farmacia de la mayoría de los hospitales españoles, el cual genera abundante información que permite conocer el uso de medicamentos de forma individualizada por paciente. Por otro lado, el registro del CMBD clasificado según Grupos Relacionados por el Diagnóstico (GRD), permite clasificar a los pacientes en grupos homogéneos en cuanto a la utilización de recursos. La clasificación se basa en los diagnósticos principales y secundarios recogidos en el Conjunto Mínimo Básico de Datos (CMBD) que el hospital genera a partir de las altas de los pacientes. El CMBD es un registro poblacional con datos que identifican al paciente, datos clínicos y otros relacionados con el proceso. Cada registro del CMBD corresponde al alta de un paciente. La implantación generalizada del registro del CMBD y su posterior clasificación en GRD, permite disponer de una base de datos agregada, que puede relacionarse con la información 46 de utilización de medicamentos contenida en el registro del SDMDU. Esto permite llevar a cabo, de forma ágil y sistematizada, estudios de utilización de medicamentos con los que conocer los costes de medicación por GRD, los perfiles de utilización de medicamentos, la variabilidad de los hábitos de prescripción, etc. Esta información es más útil, si cabe, cuando cada hospital puede compararse con el patrón de referencia generado a partir del agregado de datos del conjunto de participantes. A partir de la edición 2005 y como evolución de estas experiencias, el estudio EPIMED incorpora nuevas tecnologías en el análisis de datos (Data Mining) y un sistema de clasificación de la casuística más evolucionado, los GRD refinados internacionales (IRGRD), que están orientados a procedimientos y que permiten clasificar tanto a pacientes ingresados, como pacientes ambulatorios. De este modo, es posible estudiar, además de a los pacientes hospitalizados, aquellos que son atendidos en régimen de hospital de día, los sometidos a cirugía mayor ambulatoria y otras alternativas a la hospitalización convencional. Además, cada IR-GRD se divide en tres niveles de gravedad, en función de la comorbilidad de los pacientes: gravedad menor: sin complicaciones ni comorbilidades, gravedad moderada: con complicaciones y/o comorbilidades, y gravedad mayor: con complicaciones y/o comorbilidades mayores. En la realización del estudio EPIMED 2008, se han procesado los datos de un total de 267.775 episodios de hospitalización y de 4.422 pacientes tratados en hospital de día, con un coste total (hospitalización más hospital de día) de más de 100 millones de euros. Toda esta información se recoge en casi 5,5 millones de registros que informan de los medicamentos vinculados a estos episodios. Esta ingente información, generada por el sistema de dispensación de medicamentos en dosis unitarias, ha podido procesarse gracias al esfuerzo de los servicios de farmacia de los 22 hospitales españoles que forman parte del estudio. En esta última edición, es interesante destacar el incremento en el aporte de datos de hospital de día y de los sistemas automatizados de dispensación de medicamentos. Además, los participantes disponen de informes predefinidos que ayudan a manejar e interpretar sus propios datos. También se han realizados estudios específicos para los hospitales que lo requieren, por ejemplo estudios de seguridad y de evaluación de la prescripción (heparinización en pacientes oncológicos ingresados, tratamiento de la neumonía adquirida en la comunidad ) Con EPIMED se persigue crear una base de datos agregada que permita conocer, de forma continua, completa y global, los perfiles de utilización de medicamentos por GRD, así como llevar a cabo estudios de seguridad y de estimación de la adecuación de los tratamientos con respecto a las guías de práctica clínica. Se trata por tanto de obtener indicadores de utilización de medicamentos en función de la casuística, elaborados a partir de una muestra representativa de hospitales que, se pretende, sean una herramienta útil para reducir la variabilidad en la utilización de los medicamentos. Estos indicadores servirán de referencia a cada hospital participante con el fin de detectar los ámbitos de mejora que resulten más beneficiosos y priorizarlos en base a su impacto potencial. Este podrá ser tanto de tipo económico, por reducción de costes, como de aumento en la eficacia del tratamiento y en la seguridad del paciente. Posteriormente, los indicadores obtenidos servirán, a su vez, para monitorizar y evaluar el impacto real de las intervenciones emprendidas. Es de destacar, así mismo, el dinamismo que este proyecto aporta, pues, la información puede procesarse por periodos cortos de tiempo (semestralmente, trimestralmente), de forma que, pueden evaluarse y reencaminarse, a corto plazo, las intervenciones iniciadas. El proyecto EPIMED fue galardonado en 2007 con el premio a la transparencia de los Premios a la Calidad de la Agencia de Calidad del Sistema Nacional de Salud. Fueron seleccionados nueve proyectos de entre un centenar de candidaturas. Con estos galardones el Ministerio de Sanidad y Política Social pretende, por un lado, premiar a las instituciones, centros, equipos, grupos y servicios de salud que se hayan distinguido en la realización de actividades de mejora en la calidad de los servicios ofrecidos a los ciudadanos y, por otro, reconocer iniciativas para mejorar la calidad de la atención sanitaria a través de proyectos innovadores. Puedes ampliar información en www.epimed.es Estamos convencidos de que este sistema de información constituirá una excelente y práctica herramienta en el proceso de toma de decisiones en terapéutica y un elemento clave en la identificación de oportunidades de mejora en el uso racional de los medicamentos en el entorno hospitalario. Josep Monterde. Jefe del Servicio de Farmacia Hospitalaria. Hospital Universitari Vall d´Hebrón. Elena Tomás. Coordinadora de EPIMED. Gema Pi. Responsable de Relaciones Institucionales de la Fundación Gaspar Casal. 47 NUEVAS TECNOLOGÍAS net "Las terapias del futuro apuntan hacia la regeneración tisular. La Cirugía del Aparato Locomotor ha sido una especialidad pionera" UTILIZACIÓN DE CÉLULAS MADRE PROCEDENTES DE ASPIRADO DE MÉDULA ÓSEA EN LA OSTEONECROSIS DE LA CABEZA FEMORAL. Prof. JAVIER VAQUERO. Prof. JAVIER VAQUERO La necrosis avascular de la cabeza femoral (necrosis isquémica, necrosis aséptica, osteonecrosis) es una enfermedad debida a un déficit de aporte sanguíneo al hueso de la parte proximal del fémur. Tiene un pico de incidencia en varones entre 30 y 40 años. Este rango de edades hace que su repercusión sea mayor, por la presencia de actividades que exigen un mayor esfuerzo físico. El diagnóstico en estos pacientes jóvenes exige también una mayor cautela a la hora de decidir cuál es el procedimiento terapéutico más adecuado. La enfermedad no tratada deriva a menudo en un colapso y deformidad de la superficie articular con destrucción de la misma. Entre el 5 y el 12 % de las artroplastias de cadera realizadas son debidas a osteonecrosis (1). Recientemente se ha sugerido que en estos pacientes existe una disminución del número de células osteoprogenitoras en cabeza femoral, que podría ser la causa de la osteonecrosis (2,3). Se halla una mayor proporción de médula grasa con respecto a médula hematopoyética en estos casos. El tratamiento tiene múltiples opciones terapéuticas, algunas de ellas de eficacia controvertida. El éxito de los diferentes tratamientos está directamente relacionado con el grado de la enfermedad (4.5), y diversos trabajos indican cuál es la mejor técnica a emplear según el estadio de la osteonecrosis (5,6,7). En aquellos grados iniciales en los que la cabeza conserva la esfericidad, las opciones son: a) Tratamiento conservador mediante reposo y descarga de la articulación. No se ha demostrado efectivo en la mayor parte de los casos. b) Descompresión quirúrgica del núcleo: Mediante la realización de forages. Es el método más empleado. Se basa en la teoría de que la vascularización se halla comprometida por un aumento de la presión intraósea, a modo de síndrome compartimental. Parece ser eficaz cuando menos del 30 % de la cabeza femoral está afectada. c) Injertos óseos vascularizados: Además de ser injerto estructural también aporta material osteogénico. Presenta resultados muy irregulares y es una técnica muy compleja. Cuando la cabeza sufre un colapso subcondral y se deforma se puede realizar una osteotomía para variar el eje de fuerzas del fémur y aliviar la carga de la zona afectada. Es una cirugía agresiva, no siempre duradera y que dificulta posibles intervenciones futuras. La artroplastia de cadera es una cirugía de buenos resultados pero que en personas jóvenes ha de ser indicada con cautela por el inevitable desgaste de los componentes. El renacimiento de las artroplastias de recubrimiento abre una esperanza en este tipo de población siempre que la extensión de la necrosis no comprometa su fijación. Las células troncales mesenquimales, mal llamadas células madre, son un tipo especial de células mononucledadas con capacidad de multiplicarse indefinidamente y diferenciarse hacia distintos tejidos(8). 50 A diferencia de las células embrionarias, las células madre adultas no tienen un potencial de diferenciación ilimitado. Existen dos tipos fundamentales de células madre, hematopoyéticas y mesenquimales que pueden dar lugar a distintos tejidos de origen mesodérmico como tejido hematopoyético, muscular, tendinoso, óseo, etc. Se encuentran repartidas en numerosas localizaciones en el adulto como células dormidas que sólo harán su trabajo de reparar o regenerar estructuras dañadas cuando reciban las oportunas señales. Se ha detectado la presencia de células madre adultas en grasa, músculo esquelético, cerebro, sangre periférica, pared de los vasos sanguíneos, médula ósea, pulpa dental, corazón, piel, intestino, testículo y epitelio ovárico. A estas localizaciones se las denomina nichos. En el adulto la localización con mayor concentración de células madre hematopoyéticas es la médula ósea de la cresta ilíaca (8). No obstante existen estudios recientes que han demostrado la presencia de células madre mesenquimales y hematopoyéticas en líquido sinovial de pacientes con osteoartritis de rodilla, en el hemartros resultante tras lesión meniscal o ligamentosa y en los osteofitos (9,10,11). La cantidad de células madre es menor que la hallada en cresta ilíaca, pero la facilidad para la obtención de muestras con mínimo riesgo hace que sean una fuente útil para investigación. Tratamiento de la Necrosis Avascular con células troncales mesenquimales. La capacidad de estas células para generar osteoblastos ha sido bien definida en vitro y en vivo, y puede ser favorecida en presencia de factores osteogénicos, como la proteína morfogenética ósea (BMPs), factor de crecimiento de fibroblastos (FGF) y factor de crecimiento insulin-like (IFG) (6,12). El principal problema reside en la obtención de estas células de forma sencilla y en número suficiente. Como se ha mencionado la punción y aspiración directa de la médula ósea a nivel de la cresta iliaca es un procedimiento sencillo que permite obtener una población celular heterogénea formada principalmente por células troncales mesenquimales y hematopoyéticas, células endoteliales, plaquetas y otras células sanguíneas. El potencial osteogénico de la médula ósea está correlacionado directamente con la concentración celular de ésta (4), y dado que el número de células progenitoras mesenquimales presentes en el aspirado es pequeño (1 x 105 células nucleadas) hay que recurrir a sistemas que aumentan la concentración celular. Por un lado se plantea la posibilidad de aspirar unos 50 ml de médula ósea y cultivarla durante aproximadamente dos semanas en medios específicos con condiciones especiales de oxigenación que permitan la expansión de las células osteoprogenitoras identificables mediante citometría de flujo, hasta 50 veces. Este sistema, además del retraso necesario para obtener el producto terapéutico final, añade el inconveniente de la necesaria manipulación celular en cámaras especiales rara vez disponibles en nuestros hospitales. Por otro lado cabe la posibilidad de aumentar el volumen de médula ósea aspirada y centrifugarla hasta conseguir una mayor concentración celular, aunque evidentemente inespecífica. El sistema BMAC® (Harvest Technologies Corp.) genera mediante separación por centrifugación una concentración de células nucleadas entre 5 y 7 veces mayor que el aspirado original. Es un método poco agresivo y que está obteniendo unos resultados excelentes no sólo en el tratamiento de la necrosis avascular del fémur sino también en los casos de pseudoartrosis de diáfisis de huesos largos (11). Si te ha interesado este artículo te recomendamos que visites la sección de nuevas tecnologías de www.proyectonets.org donde encontarás múltiples artículos relacionados con el tema como CIRUGÍA DE LA ARTROPLASTIA DE CADERA Y DE RODILLA ASISTIDA POR NAVEGADOR de Fernando Jara, NUEVOS NANOBIOMATERIALES EN CIRUGÍA ORTOPÉDICA Y TRAUMATOLOGÍA de Andrés Díaz y Fernando Jara y EL RESURFACING DE CADERA EN LA PATOLOGÍA DEL ADULTO JOVEN de Catherine Van der Straeten que también encontarás en esta revista. Además desde el punto de vista legal este tratamiento se considera como un autoinjerto mientras que el cultivo entra dentro de la Terapia Celular debiendo de ser autorizado como producto en investigación y controlado por la Agencia Española de Medicamento y Productos Sanitarios. No existe actualmente un consenso en la literatura acerca del número de células madre necesario para tratar la necrosis avascular, pero los trabajos más recientes e importantes han establecido un limite por debajo del cual no se obtiene eficacia clínica y que ha sido fijado en una media de 25x103 células por cadera (2,3). En nuestro Servicio iniciamos hace dos años un estudio piloto para conocer la viabilidad y la seguridad del sistema BMAC®. 51 Material. Se llevó a cabo en 12 pacientes procedentes de la consulta de Cirugía Ortopédica y Traumatología del Hospital General Universitario Gregorio Marañón con el diagnóstico de necrosis avascular de cabeza del fémur grado I-II (Clasificación de Ficat), en los que existía sintomatología dolorosa. Todos disponían de estudios Rx y mediante RMN para localizar y cuantificar la lesión. Se excluyeron aquellos con edad > 70 años, osteonecrosis con colapso, enfermedades o tratamientos que disminuyen el número de células osteoprogenitoras (alcoholismo, radiación, corticoides, cistostáticos, etc.). Todos los pacientes eran varones y la edad media era de 39 años. La mitad habían tomado corticoterapia y en el 55% de los caso la afectación fue bilateral. Técnica quirúrgica. Previo consentimiento informado se procede, generalmente bajo anestesia epidural al aspirado de médula ósea mediante la punción por vía anterior de la cresta ilíaca ipsilateral al lado de la lesión, con un trócar fino canulado con orificios laterales (Figura 1). Dicho trócar se inserta a través de la cortical hasta llegar a hueso esponjoso, donde se comienza la aspiración. Se recomienda aspirar unos 2 ml. y girar el trócar 45º y continuar con la aspiración hasta completar los 360º para prevenir la hemodilución. Acto seguido se retira la aguja 1 cm. y se repite el procedimiento. Se realizan entre 2 y 3 perforaciones separadas 2 cm entre sí. Figura 1. Punción. El aspirado se inyecta en un recipiente estéril al que se añade una dilución de suero salino fisiológico al 0,9% y Heparina en una concentración de 455 unidades/ml., añadiendo 3 ml. de esta dilución a cada 60 ml. de aspirado de médula ósea. Para obtener el concentrado de células madre se utiliza el sistema BMAC que centrifuga las bolsas del aspirado durante 15 min. y en un proceso automático obtiene una separación del plasma y las capas celulares facilitando la obtención de la suspensión de células nucleadas. El extracto resultante de células nucleadas es el que será reinfundido en la zona de necrosis ósea. 52 Por cada 60 ml. de aspirado de médula ósea se obtienen alrededor de 10 ml. de concentrado de células mononucleares. Para el tratamiento de la osteonecrosis de la cabeza femoral suelen ser necesarios unos 20 cc. de concentrado. Posteriormente y bajo control fluoroscópico se procede, mediante técnica percutánea, a realizar un forage con una trefina llegando hasta la zona de necrosis ósea en la cabeza del fémur. A través de la trefina se infunde a un ritmo lento y constante el concentrado de células madre (Figura 2). Todo el proceso se realiza dentro del quirófano y el sistema asegura condiciones estériles. Los riesgos de esta intervención quirúrgica son bajos (3), e incluyen: infección de los puntos de entrada, hematomas y dolor local en la zona de punción de la cresta ilíaca, anemia transitoria, posible penetración en peritoneo (excepcional). Es una técnica poco invasiva con un tiempo de hospitalización mínimo y que generalmente no requiere anestesia general. Figura 2. Inyección. Resultados. No tuvimos ninguna complicación peroperatoria. Los pacientes fueron seguido durante un año comprobando una evidente mejoría de la escala funcional de cadera (Escala de Harris) de unos 20 puntos de media. En 8 pacientes los resultados fueron excelentes y en 3 aceptables. Sólo un caso empeoró clínicamente y fue necesario reoperarle colocando una artroplastia total de cadera no cementada sin ninguna dificultad añadida. En el momento actual se han diseñado dos ensayos clínicos en nuestro Servicio, el primero que prolonga el estudio piloto inicial relaci0onando los resultados con el número de células estromales infundidas y el segundo que estudiará la población de células osteoprogenitoras en varias localizaciones esqueléticas. Conclusiones. El hecho de que esta enfermedad tenga su máxima incidencia en pacientes jóvenes hace necesario un tratamiento conservador y poco limitante que evite a corto plazo la necesidad de la artroplastia. Las terapias del futuro apuntan hacia la regeneración tisular y la Cirugía del Aparato Locomotor ha sido una de las primeras especialidades en las que se está aplicando con éxito. En este camino el tratamiento de la necrosis avascular o la pseudoartrosis mediante células progenitoras mesenquimales es una realidad que ha mostrado ya resultados muy esperanzadores en la literatura, habiendo sido tratados de este modo más de 1.000 pacientes con necrosis avascular de cabeza femoral (4). Bibliografía: (1) Ficat RP, Arlet J. Necrosis of the femoral head. In: D. S. Hungerford, ed. Ischemia and necrosis of bone. Baltimore: Williams and Wilkins, 1980: 171-182. (2) Hernigou P, Beaujean F. Treatment of osteonecrosis with autologous bone marrow grafting. Clin Orthop Relat Res. 2002 Dec;(405):14-23. (3) Hernigou P, Poignard A, Manicom O, Mathieu G, Rouard H. The use of percutaneous autologous bone marrow transplantation in nonunion and avascular necrosis of bone. J Bone Joint Surg Br. 2005 Jul;87(7):896-902. Review. (4) Hernigou P, Poignard A, Beaujean F, Rouard H. Percutaneous autologous bone-marrow grafting for nonunions. Influence of the number and concentration of progenitor cells. J Bone Joint Surg Am. 2005 Jul;87(7):1430-7. (5) Petrigliano FA, Lieberman JR. Osteonecrosis of the hip: novel approaches to evaluation and treatment. Clin Orthop Relat Res. 2007 Dec;465:53-62. Review. (6) Lieberman JR, Conduah A, Urist MR. Treatment of osteonecrosis of the femoral head with core decompression and human bone morphogenetic protein. Clin Orthop Relat Res. 2004 Dec;(429):139-45 (7) Marker DR, Seyler TM, McGrath MS, Delanois RE, Ulrico SD, Mont MA. Treatment of early stage osteonecrosis of the femoral head. J Bone Joint Surg 2008; 90A:175-87. (8) NIH Stem Cell information web site. Disponible en: http://stemcells.nih.gov/info/. Accedido el 27/12/2008. (9) Lee SY, Miwa M, Sakai Y, Kuroda R, Matsumoto T, Iwakura T, Fujioka H, Doita M, Kurosaka M. In vitro multipotentiality and characterization of human unfractured traumatic hemarthrosis-derived progenitor cells: A potential cell source for tissue repair. J Cell Physiol. 2007 Mar;210(3):561-6. (10) Singh S, Jones BJ, Crawford R, Xiao Y. Characterization of a mesenchymallike stem cell population from osteophyte tissue. Stem Cells Dev. 2008 Apr;17(2):245-54. (11) Suzuki Y, Kim KJ, Kotake S, Itoh T. Stromal cell activity in bone marrow from the tibia and iliac crest of patients with rheumatoid arthritis. J Bone Miner Metab. 2001;19(1):56-60. (12) Connolly JF. Clinical use of marrow osteoprogenitor cells to stimulate osteogenesis. Clin Orthop Relat Res. 1998 Oct;(355 Suppl):S257-66. Review. Prof. Javier Vaquero Martín. Jefe de Servicio de Cirugía Ortopédica y Traumatología del Hospital General Universitario Gregorio Marañón. 53 a pesar de la acreditada utilidad de la hipotermia, sorprende que su implantación sea tan baja LA HIPOTERMIA COMO MEDIDA TERAPÉUTICA. Dr. JUAN CARLOS MARTÍN. La utilización del frío como medio terapéutico no es nueva. Hipócrates ya aludía a su utilidad en sus aforismos atribuyéndole un factor protector para el control de las hemorragias, aunque también advertía de sus efectos deletéreos. Dr. JUAN CARLOS MARTÍN Junto a Hipócrates, romanos y egipcios habían preconizado el valor médico del frio. Posteriormente existen múltiples alusiones a su aplicación en medicina, entre las que destaca la del cirujano Dominique Jean Larrey que lo utilizó para la preservación de los miembros amputados en la campaña de Rusia de las guerras napoleónicas. No fue hasta 1936 cuando Temple Fay lo aplicó de forma justificada en medicina, fundamentándose en la observación de la reducción de la mitosis en las células neoplásicas sometidas al frio. Con posterioridad también aplicó la hipotermia a pacientes con traumatismo cráneo encefálico. Los científicos nazis no escaparon a la tentación del uso de la hipotermia entre sus métodos y tristemente lo sufrieron los prisioneros del campo de concentración de Dachau entre otros. Con posterioridad su utilización, en grados diversos de hipotermia, como protector cerebral en los pacientes sometidos a cirugía cardiaca con circulación extracorpórea ha generalizado su uso, aunque persisten dudas en la actualidad de cómo debe de aplicarse o respecto al método idóneo de corrección de los gases sanguíneos. Desde entonces han sido múltiples los intentos de la utilización de la hipotermia como neuroprotector. Pero no ha sido hasta 2002 cuando se han publicado trabajos bien diseñados que han avalado su utilización y ha pasado a ser considerado por los organismos y sociedades médicas (Internacional Liaison Comittee on Resuscitation, European Resuscitation Council, American Heart Association, ) dentro de las medidas a instaurar en los pacientes que han sufrido una parada cardio-respiratoria (PCR) extrahopitalaria. Si la elección de los pacientes es adecuada el impacto de esta medida, en términos de número de pacientes a tratar para salvar una vida o encontrar mejoría neurológica, es superior a otros tratamientos de utilización generalizada e incuestionada en nuestra práctica clínica. A pesar de la acreditada utilidad sorprende como hasta épocas recientes su implantación en países del primer mundo y en hospitales de vanguardia sea tan baja. Diferentes encuestas acreditan su baja utilización por causas diversas (falta de experiencia, dificultades técnicas, ausencia de un método ideal ) En nuestro entorno tanto europeo como español esta proporción no supera el 30 %. Una vez asumido y aconsejado por los organismos y sociedades médicas como una medida a instaurar en los pacientes que han sufrido una PCR la siguiente pregunta que debemos plantearnos es a qué pacientes deberemos de aplicarlo. Como ocurre con frecuencia la extrapolación a la práctica clínica de los resultados de los ensayos clínicos, en los que el sesgo de selección puede ser importante, condicionaría que los resultados no sean reproducibles. El aplicarlo a pacientes demasiado vivos les va a someter a los riesgos inherentes a la hipotermia y que pueden superar el beneficio esperado. Por el contrario el aplicarlo a pacientes demasiado muertos va a generar además de un aumento del coste asociado al procedimiento, la sensación de futilidad del trabajo del equipo sanitario 54 sin obtener un beneficio real. Será por tanto relevante la adecuada selección de los pacientes a los que se decida su implantación. La siguiente pregunta tras decidir su aplicación es decidir que método de hipotermia vamos a utilizar. A grandes rasgos se describen dos métodos generales de hipotermia: los métodos externos o lo métodos invasivos. Lo métodos externos no invasivos producen hipotermia mediante la aplicación de corriente de aire frio, o mediante el contacto con superficies frías (agua, hidrogeles, hielo, ). Los métodos invasivos, consiguen reducir la temperatura mediante el enfriamiento interno a través de la infusión de suero frío, la utilización de circuitos externos (hemofiltración, circulación extracorpórea,..), irrigación de cavidades con líquidos fríos (estómago, peritoneo,..), catéteres intravasculares con circulación estanca de suero frio, etc. En la actualidad no esta determinado cual es el método de elección pero los trabajos realizados hasta la fecha orientan a un control más fiable de la temperatura con la utilización de catéteres intravasculares. En nuestra experiencia lo más aconsejable es la combinación de la infusión de líquidos intravenosos que puede iniciarse precozmente desde el medio extrahospitalario y la implantación de catéteres intravasculares (ej. sistema CoolGard© de Alsius) en el medio hospitalario. No cabe duda de que la aplicación de la hipotermia condiciona un cambio en la asistencia a los pacientes recuperados tras PCR, que va mas allá de la aplicación de un tipo de enfriamiento u otro. Los efectos de la hipotermia sobre los diferentes sistemas obligan en primer lugar a una modificación de la terapéutica como es la administración generalizada de sedación y con frecuencia la utilización de bloqueantes neuromusculares durante toda la fase de hipotermia y hasta la normalización térmica a fin de evitar los escalofríos. Además los cambios metabólicos que produce hacen necesaria la monitorización frecuente de iones, glucemia etc. y su ajuste individualizado. Además, la utilización de la hipotermia puede modificar los márgenes temporales para la estimación de un pronóstico realizado de forma habitual mediante la valoración clínica, neurofisiológica o bioquímica. De igual manera existen trabajos que nos informan de la modificación de las propiedades farmacodinámicas de diferentes fármacos, utilizados con frecuencia en el contexto de la PCR y de los que hasta el momento no disponemos de unos conocimientos inequívocos. Nos hemos referido al impacto favorable que tiene la aplicación de la hipotermia en los pacientes que han sufrido una PCR recuperada, pero no debemos olvidar que se trata de un detalle más dentro de la compleja y multidisciplinar asistencia a este tipo de pacientes. Se trata de un proceso en el que participan gran número de especialidades médicas y profesionales sanitarios desde que se inician las medidas de soporte vital, ingresa en una Unidad de Cuidados Intensivos y hasta que el paciente sale del hospital (vivo o muerto). Además con frecuencia y como queda recogido en el informe monográfico del Defensor del Pueblo de 2005 acerca de daño cerebral sobrevenido las unidades de cuidados intensivos de los centros hospitalarios logran, con suma eficacia, salvar la vida en su dimensión biofísica, y reducir las complicaciones fisiológicas inmediatas a la lesión inicial. Pero, una vez traspasado el umbral de los cuidados críticos, y cursada el alta hospitalaria, la atención se diluye con la vuelta a la familia de un paciente, estabilizado en términos clínicos, pero con graves secuelas en sus modos de vida y de relación Mª José Jiménez comentó el artículo en www.proyectonets.org: Lo que más llama la atención al leer el artículo es que una medida que parece tener un impacto mayor que otros tratamientos en la recuperación neurológica de los pacientes con encefalopatía postanóxica se utilice sólo en un 30% de los casos en nuestro país. Aunque se debe intentar estandarizar tanto la selección de los pacientes, como el método y tiempo de inducción de la hipotermia, y el control fisiológico durante y después del tratamiento, el hecho de que no se utilice mayoritariamente, parece más un problema de desconocimiento de sus ventajas y quizás de sobrecarga de trabajo para enfermeras y médicos en las UCI españolas que de dificultades técnicas (hay varios métodos rápidos y de relativamente fácil aplicación). Probablemente nos corresponde a los propios médicos intensivistas y a nuestra sociedad científica (SEMICYUC), revisar y publicar los datos más recientes sobre la utilidad y beneficios reales de esta técnica, y tratar de implicar tanto a las administraciones sanitarias de las diferentes comunidades autónomas como a nuestros propios compañeros para tratar de mejorar el pronóstico neurológico y la calidad de vida de estos pacientes, que si sobreviven en situación de coma vegetativo persistente suponen un reto para el sitema sanitario y la sociedad en general. Es por tanto la hipotermia una terapéutica a aplicar en los paciente recuperados tras sufrir una PCR, pero debe de ser considerado como una parte más en su compleja asistencia, que permita que al final del proceso encajen de la mejor forma posible todas las piezas del puzle del cerebro para devolverlo a la situación que tenía antes de que se desordenaran al sufrir la PCR. Dr. Juan Carlos Martín. Coordinador de la UCI Cardiovascular. Servicio de Medicina Intensiva. Hospital Clínico San Carlos de Madrid. 55 "Se trata de una opción protésica que, conceptualmente, responde a criterios de máxima preservación ósea y anatómica para el paciente" EL RESURFACING DE CADERA EN LA PATOLOGÍA DEL ADULTO JOVEN. Dra. CATHERINE VAN DER STRAETEN. Dra. CATHERINE VAN DER STRAETEN Desde un punto de vista médico, el siglo XX conllevó grandes avances en todas las disciplinas. Atendiendo a las ramas de la Cirugía Ortopédica y Traumatología, las décadas finales del siglo XX supusieron jalones importantísimos desde un punto de vista conceptual y material. Los avances respondieron a una madurez científica que, fue, y es acompañada, por un desarrollo tecnológico y unas demandas sociales de una sociedad cada vez más evolucionada y, por ello, más exigente. Especialización científico-quirúrgica, investigación tecnológica y desarrollo de una conciencia especialista-paciente mayor cada día, se dan la mano como una realidad indisoluble. Es en este marco evolucionado en el que surge un caldo de cultivo para toda una serie de innovaciones. Tras una primera fase de generalización de técnicas y tratamientos, favorecidas dentro de procesos culturales de globalización y el impulso de una industria en constante desarrollo, asistimos a una segunda fase de especialización y profundización. Es perceptible, tanto en las patologías, como en las indicaciones y novedades tecnológicas parejas. Dicha evolución es observable en un paciente más informado y exigente, que demanda, además de la eliminación del dolor, una funcionalidad y resultados acordes al nivel de vida que el sistema social le ofrece. En este marco, y dentro de la Cirugía de Cadera, hemos de centrar todo el rango de soluciones que se están desarrollando bajo el paraguas de la Patología de Cadera del Adulto Joven. Abarcan opciones conservadoras, no invasivas desde un punto de vista quirúrgico, y otras, inevitablemente clínico-quirúrgicas. Resurfacing. Dentro de las opciones quirúrgicas en creciente expansión se encuentra el Resurfacing de Cadera. Se trata de una opción protésica que, conceptualmente, responde a criterios de máxima preservación ósea y anatómica para el paciente, proporcionándole una funcionalidad incluso superior con respecto a una prótesis total de cadera. Como concepto, se apoya en una idea de resuperficialización de la articulación de la cadera, mínimamente invasiva a nivel cotiloideo y femoral. El diseño protésico reproduce la fisiología de la cadera mediante una cabeza protésica que se adapta al máximo a la anatomía del paciente. Los resultados finales para éste, son evidentes: una mayor propiocepción tras la protetización, una menor invasividad de las estructuras óseas y de partes blandas, que devienen en mayores oportunidades de tratamiento de futuro en pacientes con altas expectativas de vida, y unas elevadas prestaciones funcionales. Señalemos por ejemplo, un mayor rango de movilidad en comparación con las prótesis totales de cadera habituales hasta ahora, y una menor posibilidad de luxación. Como idea no es ninguna novedad. Tiene desde el punto de vista evolutivo una serie de jalones, ya clásicos, dentro de la historia de la artroplastia de cadera. Ha sido un concepto recurrente, que ha ido evolucionando en base a la tecnología y el método científico. Las distintas fases sufridas en este camino han demostrado en el pasado, problemas relacionados con el diseño de los distintos modelos con los materiales y tecnología utilizados para su plasmación. Las conclusiones sacadas hablan de una necesaria selección del paciente y de una estricta indicación. 56 Se centra ésta, sobre todo, en pacientes jóvenes y con buena situación ósea a nivel del cuello femoral. Aunque, según criterio del cirujano, también puede indicarse en pacientes de edad más avanzada y casos de displasia de cadera. Las evidencias parecen dejar patente que resulta fundamental la elección de un diseño adecuado y su acompañamiento mediante una instrumentación consecuente, reproducible y fiable que permita, y favorezca, un posicionamiento preciso del implante, para la obtención de unos resultados exitosos a medio y largo plazo. Aún hoy se debate en foros internacionales las implicaciones de una articulación metal-metal y la consiguiente liberación de iones en sangre. Sistema Conserve. El Sistema Conserve (1), ha demostrado ser uno de los dos resurfacing de cadera más fiables del mercado. Ofrece una serie de ventajas claras tanto para el paciente como para el cirujano. Resaltar, entre las primeras, las derivadas del sistema protésico. Todos los implantes se proveen en incrementos de 2mm por lo que se ofrecen opciones de cotilos de todo tipo (tanto delgados como más gruesos) que permitirán al cirujano abordar cualquier tipo de patología potencial de cadera: desde una cadera normal hasta la protrusión, pasando por caderas displásicas. Con determinados sistemas, tanto las cabezas como los cotilos están sobredimensionados debido a los incrementos entre tallas de 4mm. Esto implica demasiada resección ósea del fémur y del acetábulo, un problema que se acrecienta en las tallas más pequeñas. Figura 1.Sistema Conserve. Dicha resección ósea conservadora, también se ve favorecida al ser el acetábulo menor a una hemiesfera. Se evita así el tener que profundizar más en el cotilo para obtener una cobertura completa del implante. Las características del implante femoral también ayudan a una mejor repartición de las cargas. Es posible gracias a una longitud y diámetro de vástago dependientes del tamaño, a una mejor cobertura articular y a una óptima clearance o tolerancia espacial, por lo que existe menor riesgo de impingement y por tanto, una menor liberación de iones metálicos. Hemos de precisar que hay una diferencia sustancial entre los diferentes tipos de prótesis de resurfacing teniendo en cuenta la cobertura de la cabeza femoral por el componente acetabular (debido a la diferencia del diámetro interno del acetábulo). Un ángulo de cobertura menor lleva a un mayor borde de carga y a un mayor desgaste, especialmente en tamaños de diámetro menor (mujeres). Es incluso, mayor cuando el posicionamiento del acetábulo es demasiado vertical (ángulo de abducción). En otras palabras, a tamaños más pequeños, mayor es la importancia en el correcto posicionamiento del acetábulo. Y ya relacionado con la instrumentación, variable también muy importante, cabe destacar la alineación del componente femoral. La utilización de una pieza de instrumental llamada 57 guía de centraje de pin o sistema lollipops permite una de las opciones más precisas para la buena orientación del componente femoral. Éste aspecto es esencial, no sólo para la supervivencia de la prótesis, sino, en combinación con la orientación cotiloidea, para la funcionalidad de la cadera protésica. Todo ello deviene en una mejora de la calidad de vida del paciente. Figura 2. Conserve bilateral. Diversos estudios con el sistema de resurfacing Conserve demuestran niveles muy bajos de liberación de iones metálicos. Habiendo sido demostrada en estudios recientes (2) la mayor indulgencia de la Conserve, en posicionamientos no tan adecuados, más verticalizados del componente cotiloideo, por tener un mayor diámetro interno el acetábulo de dicho sistema. La diferencia más importante entre las prótesis de superficie está en las tasas de desgaste que producen. Además, se han de tener en cuenta, las diferencias existentes en cuanto a ciertos mecanismos de fallo, recientemente publicados, como la iliopsoitis, el dolor inguinal y la presentación de pseudotumores. Se ha de prestar una especial atención al control del posible desgaste de la prótesis mediante la determinación periódica de los niveles plasmáticos de iones. Es un hecho conocido la destrucción de las partes blandas, y del propio hueso, cuando estos tejidos se ven expuestos a concentraciones elevadas de productos de desgaste. En ocasiones, se ha de tener presente la necesidad de revisar aquellos componentes mal orientados en las artroplastias de superficie, con el fin de evitar complicaciones posteriores para el paciente. Notas: (1) El sistema Conserve® está fabricado por Wright Medical Technology. (2) Correlation between inclination of the acetabular component and metal ion levels in metal-on-metal hip resurfacing replacement: R. De Haan, C. Pattyn, H. S. Gill, D. W. Murray, P. A. Campbell, K. De Smet Journal of Bone and Joint Surgery - British Volume, Vol 90-B, Issue 10, 1291-1297. Link:: http://www.jbjs.org.uk/cgi/content/ab stract/90-B/10/1291 Conclusión. Podemos concluir que la elección del implante adecuado resulta trascendental, ya que tanto la frecuente mala orientación, como el elevado desgaste de algunos modelos, se deben, por un lado, a cuestiones relativas al diseño y por otro, a la dificultad para orientar correctamente el componente acetabular. La prótesis Conserve presenta ventajas evidentes en cuanto al desgaste debido a factores propios de su diseño (mejor cobertura, menor riesgo de sobrecarga marginal, incluso en caso de componentes excesivamente verticalizados) y de su instrumentación, puesto que permite un mejor control de la posición del componente en el momento de su asentamiento definitivo y a unos materiales de dureza diferenciada (A-class). Dra. Catherine Van Der Straeten, M.D. Consultant Clinical Research Rheumatologist. 58 "la negativización sérica del RNA del virus C a partir del 1 mes de tratamiento, supone una tasa de erradicación superior al 90%" er PROBLEMAS NO RESUELTOS EN EL TRATAMIENTO DE LA HEPATITIS INDUCIDA POR VIRUS C. Dr. GUSTAVO LOPEZ. La hepatitis inducida por el virus C afecta a más de 200 millones de personas en todo el mundo. Si tenemos en cuenta que aproximadamente el 30 % de esas personas evolucionarán hacia cirrosis en un plazo comprendido entre 5 y 20 años y que gran parte de ellas morirán por complicaciones de la propia cirrosis o por un carcinoma hepatocelular injertado en el hígado cirrótico, y si pensamos, además, que la cirrosis producida por el virus C, con o sin hepatoma añadido, es la causa más frecuente de trasplante hepático, comprenderemos fácilmente la importancia de disponer de una terapia adecuada para combatir al virus que nos ocupa. Dr. GUSTAVO LOPEZ ¿Disponemos en la actualidad de esa adecuada terapia?: no del todo, por ello, desgraciadamente, tenemos problemas no resueltos a la hora de referirnos al tratamiento de esta enfermedad. Pero hagamos una breve historia de lo ocurrido hasta llegar al día de hoy. El virus C no se conoció hasta el año 1989, fecha en que Houghton y Kuo en USA, clonaron su genoma. Hasta entonces, las hepatitis virales que no tenían su origen en el virus A ni en el virus B, eran denominadas Hepatitis No-A No-B. En la actualidad se conocen siete virus causantes de hepatitis (A, B, C, Delta, E, F y G); sin embargo, los que pueden dar lugar a importantes complicaciones a lo largo de su evolución son los virus B y C (el virus Delta es un virus defectivo que necesita la infección previa y concomitante del virus B y, por cierto, empeora el curso de la enfermedad). Desde poco después de la clonación del genoma del virus C comenzaron a hacerse en todo el mundo gran cantidad de estudios encaminados a conocer la prevalencia de la enfermedad y muy pronto pudimos disponer de análisis séricos que demostraban la presencia, o no, de anticuerpos frente al virus. Estas herramientas diagnósticas fueron cada vez más fiables y se siguieron de una prueba fundamental: la detección del RNA del virus en el suero de los infectados. Los diversos estudios epidemiológicos efectuados en gran parte de países de todo el mundo han permitido averigüar que el virus C tiene una elevadísima prevalencia en todos los continentes, si bien con grandes variaciones de unos a otros lugares. En USA se cifra en 1%, mientras que en muchos lugares de África se sitúa en casi el 15%. En España se han hecho pocos estudios epidemiológicos pero se calcula que probablemente existe una prevalencia que oscila entre el 1.5 y el 2.5% (similar a la del resto de los países mediterráneos) La precoz previsión de la elevada frecuencia de esta enfermedad estimuló a la industria farmacéutica en la investigación de fármacos eficaces, por lo que muy poco después del descubrimiento del genoma viral comenzaron a llevarse a cabo multitud de ensayos clínicos con Interferón, sustancia obtenida por recombinación genética (pretende imitar las acciones del interferón natural: inmunomoduladoras, antineoplásicas y antiproliferativas). Las primeras noticias sobre sus resultados terapéuticos fueron muy alentadoras ya que durante el tratamiento se objetivaba, prácticamente en todos los casos, normalización de la cifra de transaminasas séricas. Sin embargo, la conclusión del ciclo medicamentoso nos volvía a la amarga realidad ya que no obteníamos una auténtica respuesta más que en el 10-12% de los pacientes tratados. 59 El escaso, pero evidente, éxito obtenido con el interferón, sin embargo, dio lugar a la realización de multitud de investigaciones en los distintos campos implicados en el estudio de la enfermedad: histologicos, clínicos, farmacológicos, etc, lo que ha permitido dar un gran y generalizado impulso al estudio de todas las enfermedades hepáticas. El hecho es que en la actualidad estamos en condiciones de poder erradicar al virus C en un porcentaje de casos que oscila desde un 40% hasta un 80%. ¿Cómo se explica ese rango tan amplio de erradicación? Fundamentalmente porque existen ciertas pequeñas diferencias en la composición del virus C que dan lugar a la aparición de 6 distintos genotipos (homologación de secuencias menor del 69%) y más de 100 subtipos. En cada zona geográfica predomina uno u otro de los genotipos; en España existe una elevada proporción del denominado genotipo 1b (más del 60% de los pacientes). Pues bien, se ha podido comprobar que de los 6 mencionados genotipos, los denominados como 2 y 3 responden al tratamiento mucho mejor (hasta 80%) y con menor duración del ciclo terapéutico que los demás; concretamente, el genotipo 1 se erradica en un porcentaje inferior al 45%. Ya vemos el primer y más importante de los problemas no resueltos en el tratamiento de la hepatitis C: no somos capaces de curar ni a la mitad de los pacientes con el genotipo más numeroso (genotipo 1) ni a la quinta parte de los infectados con los genotipos mejores (2 y 3). El segundo problema no resuelto es el que se relaciona con los efectos secundarios o adversos del tratamiento, que hora es ya de decir que consiste en la combinación de dos fármacos, Interferón pegilado (Interferón standard al que se acopla una molécula de polietilenglicol o PEG, con lo que se retarda su eliminación y se alarga el número de días entre cada dosis) y Ribavirina (antivírico sintético). Estos dos medicamentos se administran en combinación durante 24 semanas en los casos de los genotipos 2 y 3, y durante 48 semanas en el resto de genotipos. Durante la terapia es muy frecuente la aparición de síndrome pseudogripal, trastornos del ánimo (tendencia a la depresión), astenia, anorexia, pérdida de peso, tendencia a la caída del cabello, insomnio, pancitopenia, etc. En general, todos estos efectos son leves o moderados y suelen tolerarse por parte de los enfermos, pero en ocasiones son tan importantes que llegan a ser causa de abandono de tratamiento (10% de casos). Gustavo López Alonso también ha escrito en NETS el artículo ECOGRAFÍA EN MEDICINA que puedes encontrar en la sección tribuna profesional) de www.proyectonets.org y en el número 01 de la revista NETS Innovación y Tecnología en la Salud. El tercer problema no resuelto, no tan importante como los dos primeros pero no por ello insignificante, se relaciona con el precio. El ciclo de 48 semanas de tratamiento, sin contar los gastos ocasionados por las obligadas visitas de control y sus correspondientes controles analíticos periódicos durante la terapia, supone entre 12 y 14 mil euros. Sumemos todos los enfermos tratados en todos los hospitales del país y nos daremos cuenta del enorme gasto que ello supone. Sin embargo, los estudios realizados (Buti y cols entre otros autores) avalan que la terapia combinada es coste/eficaz, lo que no deja de ser tranquilizador para los que nos consideramos responsables de este gasto. Podríamos añadir otros dos problemas que poco a poco se van resolviendo, por lo que es de esperar que en breve dejen de ser problema. Uno de ellos consiste en la existencia de enfermos que no saben que padecen la enfermedad (asintomática durante gran parte de sus distintas fases). El otro problema lo constituyen, a veces, los propios médicos que, bien porque desconocen los verdaderos porcentajes de éxito del tratamiento, bien porque exageran (es decir que también desconocen) la importancia de los efectos adversos, desaniman a sus pacientes a la hora de ser sometidos a terapia combinadas. Los tres primeros problemas no resueltos (resultados parciales, frecuentes efectos adversos y elevado coste), hacen necesario que la industria farmacéutica prosiga la investigación y desarrollo de nuevos medicamentos (se prevé su aparición para dentro de 4-5 años) y que los que tratamos a estos pacientes busquemos factores predictivos de respuesta a la terapia actual para que no sometamos a indeseables efectos adversos más que a los que van a obtener beneficio y para hacer un mejor uso del dinero público. En este sentido, se distinguen los factores predictivos previos al inicio de la terapia y factores predictivos durante la terapia. El principal de los factores predictivos previos al inicio del tratamiento se relaciona con el genotipo. Ya se ha dicho en las líneas precedentes que el genotipo 1, el más frecuente 60 con diferencia en España, es el que peor responde al tratamiento combinado (40-50% de los casos). Así pues, el genotipo 1 es un factor predicativo negativo y los genotipos 2 y 3 son factores predictivos positivos. Además del genotipo, pero ya con diferencia en lo que se refiere a su utilidad, son importantes: 1) tiempo trascurrido desde la adquisición de la enfermedad (a menor tiempo mayores posibilidades de éxito; 2) grado de fibrosis hepática en el momento de iniciar la terapia (mayores posibilidades de curación cuanto menor es el grado de fibrosis), que guarda relación con el anterior factor, puesto que cuanto mayor es el tiempo trascurrido mayor es la posibilidad de que aumente la fibrosis; 3) sexo del paciente, con mejor pronóstico para el femenino; 4) existencia de hábitos perniciosos, especialmente negativos en el caso de la ingesta de alcohol; 5) enfermedades concomitantes, especialmente las que influyen negativamente en el estado inmunitario del enfermo; 6) obesidad, que influye negativamente en el pronóstico. Recientemente se relaciona de forma negativa tanto la obesidad como el trastorno relacionado con el metabolismo de la insulina-glucosa; 7) la hipersideremia también se ha relacionado negativamente con la respuesta al tratamiento combinado. Durante la terapia existe prácticamente un único pero importantísimo factor predictivo positivo: la respuesta viral precoz. En multitud de trabajos se ha demostrado que la negativización sérica del RNA del virus C a partir del primer mes de tratamiento, significa que obtendremos una tasa de erradicación superior al 90%, incluso para el genotipo 1. Al mismo tiempo también podemos afirmar que la positividad sérica del RNA que se mantiene más allá del 6º mes de terapia es equivalente a fracaso de tratamiento en más del 90% de casos. Como síntesis de la hasta aquí expuesto quisiera expresar la satisfacción que podemos experimentar los médicos que hemos asistido a la evolución de la terapia frente al virus C desde su descubrimiento hasta la actualidad, aunque sabemos que aún es largo el camino que queda por recorrer. Dr. Gustavo López Alonso. Servicio de Aparato Digestivo, Hospital Clínico San Carlos. visitanos en internet www.proyectonets.org nets Innovación y Tecnología en la Salud 61 "en los pacientes hospitalizados por FVC, un 26% de los fallecimientos están directamente relacionados con la fractura." DEPENDENCIA Y FRACTURAS VERTEBRALES POR COMPRESIÓN. ENRIQUE ANTÓN. ENRIQUE ANTÓN La enfermedad y no la edad, es la principal causa asociada a dependencia. Aunque el envejecimiento se ha asociado normalmente a dependencia y enfermedad, aproximadamente más del 50% de las personas mayores manifiestan en las diferentes encuestas de salud que tienen una buena o muy buena salud, lo que suele asociarse a la ausencia de síntomas importantes de las posibles enfermedades crónicas existentes y a la ausencia de enfermedades incapacitantes. Una de las enfermedades que puede generar mayor dependencia es la osteoporosis, en concreto, las fracturas que de ella se pueden derivar. Las fracturas vertebrales por compresión (FVC) son el tipo de fracturas más común debidas a osteoporosis, aunque también puede deberse a lesiones osteolíticas y/o traumatismos. La cifra de casos diagnosticados en Europa es de 117 por 100.000 personas y año, lo que significa que solo en la Unión Europea se tratan unas 450.000 FVC al año. Dicho de una forma más simple, se origina una FVC cada 30 segundos. En España se producen 66.000 FVC cada año y esta cifra continua creciendo a consecuencia del aumento actual de población en el segmento menor de 65 años y es lógico esperar que la incidencia global de fracturas se incremente en un futuro próximo, la Comisión Europea estima un crecimiento de esta patología de un 50% en los próximos 8 años. Figura 1. Espiral descendente. El European Vertebral Osteoporosis study (EVOS), estima que el 20,2% de las mujeres y el 12% de los varones europeos de más de 50 años sufre una FVC. En España, los resultados del estudio EVOS muestran datos similares al resto de Europa. En la población femenina se observaba presencia de, al menos, una FVC dentro de unos márgenes que varían entre el 14,9% de Madrid y el 26% de Barcelona, y en los varones entre el 19,8% de Madrid y el 25,1% de Las Palmas. Existen datos de incidencia de hospitalizaciones por FVC en España de 2,76 casos por 10.000 habitantes de 30 años o más. 62 Cada fractura vertebral conlleva una serie de consecuencias a largo plazo que pueden acompañarse o no de dolor y que se desencadenan en una espiral descendente de síntomas. Además de las manifestaciones puramente externas o estéticas este arqueamiento de la columna comprime el tórax y la cavidad abdominal generando otra serie de consecuencias, el deterioro se inicia con la deformidad de la columna, ocasionando disminución de la capacidad pulmonar, alteración de la función, pérdida de apetito, problemas de sueño, disminución de la actividad, aumento del riesgo de fracturas y de comorbilidades, y finalmente hasta un incremento de la mortalidad. Se ha estimado que en los pacientes hospitalizados por FVC, un 26% de los fallecimientos están directamente relacionados con la fractura. Las FVC, lejos de ser una patología banal, tienen un importante impacto en los pacientes que las sufren que se ha descrito como un proceso degenerativo en forma descendente que va incrementando la morbilidad y mortalidad de los individuos. La disminución de la movilidad por la deformidad de la columna disminuye significativamente las actividades diarias que pueden realizar los pacientes y por tanto incrementar la dependencia de otras personas. Se estima que en la Unión Europa la estancia media hospitalaria por una FVC es de 13,5 días cuando no existe déficit neurológico y de 21,5 días cuando existe déficit neurológico. Una fractura en la zona lumbar origina por término medio 25,8 días de postración en cama y 158,5 días de actividad limitada. Por su parte, una fractura en la zona torácica origina 12,6 días de postración y 73,6 días de limitación de actividad. La ansiedad y depresión manifestada por estos pacientes a consecuencia del temor a nuevas fracturas y a la deformidad física puede estar derivada de esta dependencia junto a las otras consecuencias descritas. La dependencia física de estos pacientes dificulta además sus posibles relaciones sociales e interpersonales, ya que este tipo de pacientes no puede corresponder al apoyo social, y la dificultad para cumplir con el rol social establecido (trabajar o cocinar, por ejemplo) desemboca en una pérdida de autoestima con efectos social y psicológicamente devastadores. El impacto de las FVC en la calidad de vida es similar al producido por las fracturas de cadera, teniendo en cuenta que éstas últimas suceden con menor frecuencia y a una edad más avanzada. Algunos autores han concluido que en Europa las FVC por osteoporosis ocasionan más años de vida ajustados por discapacidad que el cáncer, aproximadamente 2 millones. Este impacto de las FVC sobre la calidad de vida y funcionalidad de los pacientes, debe ser reconocido tanto por la comunidad asistencial como la sociedad en general, para poder establecer programas de prevención adecuados, así como dedicar los recursos sanitarios precisos para el tratamiento de esta debilitante condición. El impacto económico de las fracturas vertebrales no está tan definido como el de las fracturas osteoporóticas de cadera, las publicaciones existentes han puesto de manifiesto de forma unánime el enorme impacto económico de las FVC, se estimó que causaron costes directos totales de aproximadamente 1,5 billones de dólares en EE.UU. en 1996. A nivel europeo los costes hospitalarios de las fracturas osteoporóticas alcanzaron en 1998 los 340 millones de euros. En concreto, en Suiza se ha publicado que el coste directo del ingreso hospitalario de pacientes con FV supuso en el 2000 el 1,6% del gasto sanitario nacional y en España se ha estimado que las FVC supusieron un coste de 41.746.930 en el año 2002. Tal y como se ha comentado previamente, el aumento de la longevidad de la población, y el impacto de la osteoporosis pueden hacer que las cifras económicas aumenten hasta en un 33% en los próximos años. El manejo de las FVC puede circunscribirse simplemente a tratamiento paliativo o realizarse mediante procedimientos quirúrgicos, en cualquier caso, se constata la importancia de una rápida intervención con el objeto de evitar el desencadenamiento de la espiral descendente anteriormente mencionada. Los pilares básicos del tratamiento de cualquier fractura son la restauración de la anatomía, la corrección de la deformidad y la preservación de la función, conseguir estos fines sin excesivos riesgos o agresividad quirúrgica era algo prácticamente impensable hasta hace poco, pero las técnicas quirúrgicas han ido evolucionando y en la actualidad, los procedimientos percutáneos guiados por radioscopia (Kyphon® cifoplastia con balón, vertebroplastia, etc. ) permiten un abordaje mínimamente 63 invasivo de la lesión. Inicialmente la indicación de estas técnicas se restringía a pacientes con dolor secundario a fractura que persistía por encima de 4-6 semanas, con un grado de acuñamiento no superior al 60% de la altura vertebral, con la confirmación radiológica de que la fractura aún se encontraba en actividad, descartando casos en los que el dolor desaparecía. Conforme se ha ido ganando en experiencia, se ha ampliado la horquilla terapéutica, incluyéndose en la actualidad las indicaciones de Hemangiomas sintomáticos, Metástasis óseas osteolíticas, Mieloma múltiple u otras alteraciones como linfoma, espondilitis de Kummell, histiocitosis u osteogénesis imperfecta. Enrique Antón de las Heras. Manager de Rembolso y Economía de la Salud. Spine and Biology. Medtronic Ibérica. "características genéticas de los individuos y del tumor hacen que se comporten de manera distinta frente a los medicamentos" ESTADO ACTUAL DEL TRATAMIENTO DEL CÁNCER COLORRECTAL AVANZADO Y METASTÁSICO Y LA IMPORTANCIA DE MARCADORES PREDICTIVOS DE RESPUESTA AL TRATAMIENTO. Dr. ALBERTO ABAD. Dr. ALBERTO ABAD El panorama actual del tratamiento del cáncer colorrectal metastásico es muy alentador, habiendo mejorado de manera significativa en los últimos años. Hasta los años setenta, la quimioterapia ofrecía únicamente 20% de respuestas al tratamiento y la mediana de supervivencia no superaba los 9 meses. Hoy en día, estamos hablando de elevados índices de respuesta que pueden alcanzar o incluso superar el 60% en situaciones con enfermedad metastásica limitada al hígado, cuando se optimiza el tratamiento. Naturalmente, esta mejoría en la respuesta al tratamiento conlleva una esperanza de curación en aquellos que pueden ser rescatados para cirugía y una prolongada supervivencia que supera hoy día los 22 meses de mediana en aquellos pacientes que pueden recibir todos los fármacos en sucesivas líneas de tratamiento, en la mayoría de los casos con excelente calidad de vida . Existen varios elementos determinantes para esta mejoría, como son la incorporación de nuevos fármacos quimioterápicos con actividad en este tumor y la aparición de una nueva familia de medicamentos, los llamados fármacos biológicos o antidiana. En el caso del cáncer de colon y recto esta nueva familia está representada por 2 anticuerpos monoclonales frente al factor de crecimiento epidérmico (anti-EGFR) y uno antiangiogénico (anti-VEGF), mejorando significativamente los resultados del tratamiento médico y consiguendo con ello un incremento claro de pacientes que se benefician de la cirugía de las metástasis. La disponibilidad de múltiples medicamentos hace posible tratar a los pacientes con un segundo tratamiento cuando fracasa el primero, cambiar fármacos si provocan toxicidad exagerada o elegir los medicamentos según las características y condiciones del paciente. Pero existe otro elemento de gran importancia para la optimización del tratamiento que es la posibilidad de disponer de marcadores moleculares de respuesta. 64 Los conocimientos cada día más profundos en biología molecular nos han permitido comprender algunas características genéticas de los individuos y del tumor que hacen que se comporten de manera distinta frente a los medicamentos. Estas características pueden ser analizadas mediante el establecimiento de perfiles genéticos, el análisis de mutaciones en el tejido tumoral y el análisis de polimorfismos genéticos. Dentro del campo de la aplicación clínica en cáncer de colon, el ejemplo más notable en este momento es la determinación de la presencia de mutación en el gen kras que codifica una proteína que actúa en la vía de transmisión de la proliferación celular inhibida por la acción de los fármacos anti-EGFR (antireceptor del Factor de Crecimiento Epidérmico). La presencia de esta mutación hace ineficaz el tratamiento con estas antidianas, ya que kras permanece activado continuamente, indiferente a la inhibición de EGFR. En este sentido, cetuximab representa un modelo de optimización del tratamiento. Si bien la combinación de quimioterapia con este fármaco anti-EGFR ha demostrado mejorar los resultados en los enfermos con cáncer colorrectal metastásico, la determinación del estado mutacional del gen kras ha permitido conocer que un porcentaje de pacientes, aquellos en los que el gen está mutado en el tumor, no van a responder al tratamiento con inhibidores de EGFR debido a la activación permanente de la vía de proliferación como se ha comentado anteriormente. Por el contrario los pacientes cuyo tumor no presenta la mutación tienen una respuesta significativamente superior si son tratados con cetuximab frente a si no lo son. Recientemente se han presentado en el congreso de la Sociedad Americana de Oncología Medica (ASCO) los resultados comparativos según la presencia de la mutación o no. Tanto si cetuximab se combina con quimioterapia basada en irinotecan/fluorouracilo (estudio CRISTAL) como si lo hace con otra pauta basada en oxaliplatino/fluorouracilo (estudio OPUS), la respuesta alcanza 59-61%, situando la mediana de supervivencia cercana a los 25 meses (p=0.22). Para los pacientes con metástasis hepáticas únicamente la respuesta al tratamiento alcanza 77%. En un estudio en pacientes con metástasis hepáticas irresecables (CELIM) aunque con un tamaño muestral no muy amplio, la respuesta alcanza para ambas combinaciones un 79%, lo que genera un 42% de pacientes en los que se puede resecar la enfermedad hepática (35% con cirugía radical) con lo que conlleva respecto a las posibilidades de curación incluso con enfermedad diseminada. En aquellos pacientes con mutación del kras, el conocimiento de la falta de eficacia del anti-EGRF evita ofrecerles un tratamiento sin opciones y optar por otras alternativas omo los antiangiogénicos para completar su tratamiento. Es clara pues la ventaja de disponer de marcadores biológicos de respuesta para decidir el tratamiento a la medida de cada paciente y aunque estamos lejos de disponer de ellos para todos los medicamen hoy ya también algunos polimorfismos genéticos y sobrexpresión de algunos genes que en breve van a contribuir a este avance de momento marcado por los agentes antiEGFR cuya relación con las mutaciones de kras tiene una especifidad prácticamente 100%. Referencias bibliográficas: CRYSTAL: Van Cutsem E,Köhne CH, Hitre E. Cetuximab and chemotherapy as initial treatment for metastatic colorectal cancer.N Engl J Med. 2009 Apr 2;360(14):1408-17. OPUS: Bokemeyer C, Bondarenko I, Makhson A. Fluorouracil, leucovorin, and oxaliplatin with and without cetuximab in the first-line treatment of metastatic colorectal cancer.J Clin Oncol. 2009 Feb 10;27(5):663-71. Epub 2008 Dec 29. CELIM: Folprecht G, et al. ASCO GI 2009; Abstract No: 296. http://www.asco.org/ASCO/Abstracts +%26+Virtual+Meeting/Abstracts?&v mview=abst_detail_view&confID=63 &abstractID=10212 (acceso 8 de abril de 2009). Dr. Alberto Abad. Vicepresidente del Grupo Español de Tratamiento de Tumores Digestivos. www.proyectonets.org 65 "SenseiTM y ArtisanTM se combinan proporcionando a los médicos mayor control y precisión sobre la punta del catéter" CONTROL ROBOTIZADO DE CATÉTER PARA TÉCNICA INTERVENCIONISTA. DOLORS MATA y ÁNGEL CANELLES. DOLORS MATA Historia de la Robótica en la Medicina. La palabra robot proviene del término checo robota que significa trabajo forzado. Hoy en día asociamos la palabra robot tanto con las máquinas que realizan trabajos repetitivos en las cadenas de montaje como con los de apariencia humana que hemos visto en las películas de ciencia ficción desde los años 40. Hoy, los robots han evolucionado para realizar trabajos complicados que no siempre son posibles de hacer manualmente. Se utilizan para fabricar microprocesadores, explorar las profundas cuencas marinas y trabajar en otros entornos potencialmente peligrosos. Era solo cuestión de tiempo que la robótica entrara en el campo de la medicina y ahora lo está haciendo a gran escala. ÁNGEL CANELLES La historia de la robótica en la medicina comenzó con el Puma 560 que fue utilizado en 1985 para realizar biopsias neuroquirúrgicas con una mayor precisión. En 1988 el Puma amplió sus capacidades y se utilizó en la cirugía de próstata. Tras el éxito inicial del Puma, el PROROBOT fue desarrollado específicamente para la resección transuretral de la próstata y durante este tiempo también se desarrolló el ROBODOC, el primero aprobado por la FDA, para usarse en operaciones de cadera. Desde mediados de los 80 hasta principios de los 90, la NASA, Agencia Aeroespacial Estadounidense, que había estado trabajando en el campo de la realidad virtual, se interesó por el uso de su tecnología e investigó para desarrollar robots quirúrgicos. El objetivo era facilitar que el médico tuviera la sensación de estar operando directamente al paciente en vez de hacerlo a distancia. Médicos e ingenieros de la NASA se unieron para formar empresas comerciales en Silicon Valley, California. Se desarrolló y comercializó el AESOP, un brazo robótico móvil con un endoscopio activado por voz. Poco después, una empresa ahora llamada Intuitive Surgical introdujo el sistema quirúrgico daVinci. El sistema daVinci ha obtenido un gran éxito en diversos campos quirúrgicos, especialmente en cirugía cardiaca y de próstata. Los beneficios incluyen la reducción del trauma, de la pérdida de sangre y del dolor para el paciente, así como una estancia más corta en el hospital y una recuperación más rápida. Hansen Medical. Tras el éxito del daVinci, el ingeniero mecánico Dan Wallace, y su colega el cirujano Fred Moll, vieron la necesidad de una nueva generación de robots médicos avanzados. Hansen Medical nació en 2002, y en 2007 la empresa obtenía la aprobación FDA y la Marca CE para el uso en Electrofisiología del Sistema SenseiTM y del catéter ArtisanTM. El sistema de Catéter Robótico Sensei se ha diseñado para superar las limitaciones de las anteriores tecnologías; facilitando la manipulación y aportando seguridad , precisión y estabilidad al catéter y las tecnologías basadas en el catéter. El sistema proporciona navegación y control de movimiento instintivo del catéter (Instinctive MotionTM), dando como resultado mejor acceso, estabilidad y control en intervenciones complejas. 66 Fibrilación Auricular. La Fibrilación Auricular (FA) es una arritmia cardíaca en la que múltiples ondas eléctricas se propagan a través de la aurícula, provocando contracciones auriculares descoordinadas (1). Es la arritmia que se observa mas comúnmente en la práctica clínica, y su prevalencia continúa aumentando en el mundo occidental como resultado del envejecimiento de la población, del aumento de la incidencia de enfermedades cardiacas y del mejor diagnóstico (2). Se espera que esta tendencia continúe y las estimaciones recientes sugieren que en 2050, la enfermedad afectará a 15,9 millones de americanos. Esta estimación del problema pone de manifiesto la importancia de desarrollar propuestas eficaces para la prevención primaria de la FA (3). En la actualidad, se sabe que la arritmia se da en el 1% de la población general, y asciende a 2,2 millones de personas en los Estados Unidos (4) y a 4,5 millones en Europa (5). La Fa es más prevalente a partir de los 65 años (media de edad, 75 años) y su prevalencia aumenta con la edad, afectando aproximadamente a un 9% de la población mayor de 80 años (6). Los datos del Framingham Heart Study sugieren que uno de cada cuatro individuos, sufrirá algún episodio de FA a lo largo de su vida (7). Considerada antiguamente como una enfermedad relativamente benigna, hoy se sabe que la FA es un vaticinador independiente tanto de fallecimiento como de accidente cerebro vascular y está asociada con una importante morbilidad. Comparado con personas en ritmo sinusal normal, la presencia de FA confiere el doble de riesgo de mortalidad (8). Este riesgo aumenta ante enfermedad cardiaca subyacente y es particularmente grave en pacientes con insuficiencia cardíaca crónica (9), ya que la coexistencia de las dos condiciones crea un círculo vicioso. Ablación de la Fibrilación Auricular mediante catéter. Puedes encontrar este artículo en el blog de Palex en www.proyectonets.org. Recuerda que en NETS puedes comentar los artículos, dar tu opinión, participar en debates y escribir nuevos artículos. El blog de Palex tiene varios artículos originales de diversos temas comentados y discutidos por los usuarios de NETS. La ablación de FA ha evolucionado considerablemente durante los últimos años y ha surgido como opción de tratamiento estándar reconocida para determinados pacientes. De hecho, las pautas clínicas sobre FA publicadas recientemente por el American College of Cardiology, la American Heart Association, y la European Society of Cardiology, describen por primera vez la ablación de FA mediante catéter como una opción de tratamiento viable en pacientes con FA persistente o paroxística que no han tenido éxito con al menos un fármaco antiarrítmico. Este cambio nace como resultado del importante desarrollo clínico que ha habido durante los últimos 5 años, incluyendo ensayos unicentro que demuestran que la ablación mediante catéter es un tratamiento relativamente seguro y eficaz, con un porcentaje considerable de pacientes que consiguen la erradicación de su FA. Las nuevas pautas ayudarán con seguridad a crear un mayor interés en la ablación de la FA y probablemente aumentarán el número de pacientes derivados a este tratamiento. La ablación para la FA está incluida ahora en las pautas NICE para pacientes resistentes a la terapia con fármacos. Ablación convencional de la Fibrilación Auricular y sus limitaciones. La ablación de la Fibrilación Auricular es extremadamente compleja, en la actualidad es un proceso largo (3-5 horas por caso) y en el 50% de los pacientes se necesita una segunda y en ocasiones hasta una tercera intervención para conseguir una cura satisfactoria. El éxito del procedimiento y la recurrencia dependen de la habilidad para crear lesiones de ablación continuas y precisas en lugares específicos de la aurícula izquierda. Para conseguirlo, nos encontramos con que existen muchas Figura 1. Navegación manual vs navegación robótica 67 limitaciones prácticas y técnicas con los equipos de ablación. Un catéter deflectable tiene un movimiento limitado. De hecho, solo hay tres niveles de libertad: curva de deflexión fija, adelante-atrás y rotación. Con esta herramienta manual, el médico necesita de una gran habilidad y experiencia para llegar a los sitios necesarios. Los catéteres y vainas manipulados manualmente carecen de estabilidad en el corazón latiendo. La precisión de la localización del catéter en el corazón se ve comprometida por una serie de razones: Relativamente pocos grados de libertad con catéteres de ablación manual. Falta de estabilidad en el endocardio. Dependencia de las manos del médico para estabilizar estos dispositivos. Figura 2. Terminal de control y brazo robótico para el direccionamiento del catéter. El sistema de navegación mediante catéter remoto Sensei. El objetivo del diseño del sistema Sensei es proporcionar precisión quirúrgica con introductores percutáneos flexibles. En la fase actual, los catéteres Artisan para control robotizado están diseñados y aprobados para ablación y mapeo electrofisiológico auricular. El Manipulador Remoto de Catéter (RCM) permite 10 grados de libertad al Catéter de Control Artisan, que se dirige remotamente desde la consola del sistema Sensei. El diseño exclusivo del Artisan permite navegar con el catéter instintivamente dentro de la cámara cardíaca, utilizando un controlador de movimiento en 3D (IMC) o joystick. Una vez alcanzado el punto deseado el médico puede liberar el IMC y la posición se mantendrá con una estabilidad superior a la de cualquier catéter manual. Estudios publicados en 2007 ya han demostrado una superior manejabilidad utilizando el sistema Sensei y han revelado que el alcance de movimiento proporcionado por el Artisan es considerablemente mayor (10). Eficacia. El sistema Sensei utiliza un histograma de fuerza, IntellisenseTM, para medir en gramos la fuerza ejercida por la punta del catéter en el tejido cardíaco. Sensei es el único sistema disponible que puede medir la fuerza de contacto. Mediante esta función el médico puede controlar la eficacia de la lesión de ablación, que al poder optimizarse conduce a unos mejores resultados y reduce la necesidad de repetir procedimientos. 40 pacientes que inicialmente habían presentado una FA refractaria y que fueron tratados mediante una ablación utilizando el sistema Sensei, fueron sometidos a un seguimiento a largo plazo 68 (multicéntrico). A cabo de un año, 39 de los 40 pacientes no presentaban ninguna arritmia, y 34 de ellos ya no tomaban fármacos antiarrítmicos (11). En un estudio unicéntrico, entre los pacientes que alcanzaron los 6 meses de seguimiento, el 94% de los que inicialmente tenían FA paroxística estaban libres de ella (12). Con las técnicas tradicionales, la tasa de éxito en los centros de EF más prestigiosos del mundo oscila entre un 60 y un 90% (13,14,15,16,17,18). Los estudios diseñados para validar el Intellisense indican que la fuerza ejercida contra el tejido afecta a la transmuralidad y al tamaño de la lesión (profundidad de la lesión a través del tejido cardiaco) y que la liberación de energía con una fuerza de contacto menor a 30 gramos puede dar como resultado lesiones inadecuadas, por lo que debe evitarse (19). Utilizando el sistema Sensei para dirigir el catéter de ablación, el médico es capaz de valorar la fuerza aplicada al endocardio antes y durante la aplicación de la ablación. En otras palabras, el médico puede aplicar mucha o poca fuerza según desee. La fuerza contra endocardio, medida con Intellisense, ha resultado estar directamente relacionada con la transmuralidad de la lesión (20). Productividad. Se ha demostrado que Sensei puede aplicarse con éxito para realizar mediante catéter de ablación todos los procedimientos de FA paroxística y permanente (21). El sistema Sensei, utilizado con el catéter de control Artisan para ablación de la FA, proporciona precisión y exactitud cuando se navega dentro de la aurícula izquierda. La clave para conseguir esto es la tecnología Instinctive Motion de Hansen Medical, que traslada con precisión y sensibilidad los movimientos de la mano del médico desde el controlador de movimiento al Catéter de control Artisan introducido en el cuerpo del paciente. Reddy considera que el catéter de control Artisan proporciona un grado de control que no es fácil de alcanzar con un catéter guiado de forma manual. Figura 3. Controlador intuitivo del movimiento. 69 Mayor control para el médico. El sistema Sensei es un sistema de navegación remota móvil. La consola en que se sitúa el médico puede colocarse prácticamente en cualquier sitio dentro de la sala. Una posición óptima cercana al sistema de registro EP y al sistema de mapeado EP en 3D permite al médico no solo controlar la posición del catéter en el corazón sino también estudiar las señales y el mapeo 3D sin depender del personal de sala, que puede no estar formado adecuadamente. Desde la consola, el médico también tiene control del pedal del fluoroscopio y del pedal del generador de ablación por RF. El personal técnico de apoyo de la sala de EP es difícil de encontrar y de fidelizar. Al hacer que el médico tenga el control de los sistemas de registro EP y mapeado en 3D, los requisitos del personal de apoyo pueden ser considerablemente menores. Menor exposición a los rayos X perjudiciales. Los Cardiólogos Intervencionistas suelen considerar la radiación como su principal riesgo laboral (22). Durante un procedimiento de ablación de AF pueden estar expuestos a los rayos X durante cerca de una hora y con una duración así, la dosis corporal efectiva no es insignificante (23). La seguridad radiológica en la sala siempre es una preocupación, incluso siguiendo estrictamente los protocolos de seguridad y utilizando mejores delantales de plomo. Sin embargo, el sistema Sensei proporciona una solución probada. Cuando se utiliza el sistema Sensei, el médico se sitúa lejos de los dañinos rayos X y está sentado en una cómoda silla. En 2008, en Londres, Kanagaratnam el at. revelaron que la ablación mediante catéter robótico remoto usando el sistema Sensei reduce considerablemente la exposición del médico a la radiación (24). Reducción de la fatiga y las lesiones musculoesqueléticos. Durante un procedimiento de FA el médico necesita estar de pie durante largos periodos de tiempo llevando un pesado delantal de plomo cerca del sistema del fluoroscopio. Esto, no solo causa fatiga sino que puede provocar lesiones musculoesqueléticas y en la columna vertebral. Los cardiólogos sufren más dolores de espalda y cuello, provocando más bajas, en comparación con los cirujanos y reumatólogos (25). Los procedimientos largos que requieren fluoroscopia en que los médicos necesitan llevar un delantal de plomo durante largos periodos de tiempo, presentan una mayor proporción de médicos con lesiones musculoesqueléticas (26). Debido a que los procedimientos que utilizan el Sensei se hacen sentados y lejos de la sala, pueden reducirse las tasas de riesgo laboral incluyendo dolencias de cuello, espalda y articulaciones. Además, reduciendo la fatiga del médico, este puede concentrarse mejor durante la duración del caso (27). Futuras aplicaciones clínicas. El Catéter de Control Artisan es descrito a menudo como un dispositivo flexible de control robotizado. Hansen Medical tiene previsto lanzar otras versiones del Artisan y nuevos modelos para su uso en pacientes dentro de las disciplinas cardiacas. Intervención vascular: Hansen Medical está trabajando en la actualidad sobre estudios clínicos en las áreas de colocación de stents carotideos y de endoprótesis AAA. El trabajo clínico previo ha demostrado el potencial para reducir la duración del tratamiento y aumentar la precisión al colocar el stent (28). Reemplazo valvular: En 2007 Hansen Medical adquirió una empresa llamada AorTx. En la actualidad se trabaja con AorTx para producir una válvula aórtica de reemplazo sencilla y rentable que se aplique mediante el catéter Artisan. Intervención Coronaria: Se prevé lanzar un Catéter Artisan de 7 French para la aplicación de stents en arterias coronarias enfermas. Los tests han demostrado que el catéter de 7Fr será muy útil para tratar oclusiones totales crónicas, que son lesiones particularmente problemáticas. 70 Cierre del foramen oval permeable: Al utilizar Artisan para conseguir precisión, estabilidad y una buena aplicación, existe una gran oportunidad para los cardiólogos que trabajan en el campo del cierre del foramen oval permeable. Resumen. La incidencia y tratamiento de la Fibrilación Auricular va en aumento. Con el sistema Sensei, Hansen Medical proporciona una solución a esta demanda con una generación de robots que capacita y protege a los médicos mientras que proporciona un mejor cuidado del paciente. El sistema robótico SenseiTM y el catéter de control ArtisanTM se combinan para cambiar el panorama del tratamiento de las arritmias cardiacas proporcionando a los médicos control y precisión sin igual sobre la punta del catéter. Esta combinación única de tecnología y ergonomía crea una solución que beneficia a pacientes y médicos en el tratamiento de la Fibrilación Auricular. La abierta plataforma de esta tecnología está siendo adaptada con el objetivo de proporcionar mejores tratamientos en otros procedimientos de cateterización intervencionista. Por razones de extensión, la bibliografía de este artículo no ha sido publicada aquí, puedes encontrarla en www.proyectonets.org o solicitarla por correo electrónico en edicion@proyectonets.org. Dolors Mata. Jefe de Marketing División Cirugía / Intervencionismo de Palex Medical. Angel Canelles. Técnico Especialista Arritmias División Cirugía / Intervencionismo de Palex Medical. "Los tratamientos han aumentado la esperanza de vida pero los pacientes se benefician de forma desigual de las nuevas opciones" INNOVACIONES EN EL TRATAMIENTO DEL CÁNCER DE PULMÓN NO MICROCÍTICO AVANZADO: UN RETO PARA LA SOSTENIBILIDAD DEL SISTEMA. Dr. DIEGO MALÓN. El cáncer de pulmón es una de las neoplasias más frecuentes (15-20% de todas las neoplasias en países desarrollados) y, a pesar de la política antitabaco, su incidencia sigue incrementándose anualmente en un 0.5%. El 80-85% de las neoplasias de pulmón son carcinomas no microcíticos (en torno a 8.000 casos nuevos en España al año), subgrupo heterogéneo que engloba a distintas histologías como son adenocarcinoma, carcinoma de células grandes o carcinoma epidermoide. Es la primera causa de muerte por cáncer en mayores de 35 años en países occidentales (25-35% de todas las muertes por cáncer con una supervivencia global a los 5 años del 10-15%). Un 85% de los pacientes desarrollan enfermedad avanzada (32% al diagnóstico, 50% recaídas de los estadios I y II y 80% recaídas del estado III) alcanzando una mediana de supervivencia en este estado de evolución, de 2 a 4 meses con el mejor tratamiento de soporte. Dr. DIEGO MALÓN Tras un breve repaso de la evolución histórica en el tratamiento en primera línea de esta patología nos centraremos en las innovaciones farmacológicas que brindan los nuevos 71 conocimientos en biología molecular. A continuación, se destacan varias cuestiones respecto a la incorporación por los Sistemas Nacionales de Salud de dichas innovaciones. Fue en los años 70 cuando se intentaron los primeros abordajes de esta enfermedad con tratamiento sistémico de quimioterapia administrando regímenes con distintos fármacos, como doxorrubicina o ciclofosfamida, objetivando respuestas pero sin beneficio en la supervivencia. El desarrollo de esquemas que contenían platino demostró mayores tasas de respuestas lo que alentó, junto a un mejor conocimiento de su forma óptima de administración y manejo de su toxicidad, el desarrollo de ensayos clínicos randomizados comparando esquemas que contenían cisplatino (fundamentalmente asociados a alcaloides de la vinca) con el mejor tratamiento de soporte posible. Con estos estudios se demostró un aumento significativo de la supervivencia sin compromiso de la calidad de vida de los pacientes alcanzando medianas de 8 meses (ej. European Big Lung Trial). En la década de los 80, aparece el carboplatino (con perfil de toxicidad más favorable que el cisplatino) y nuevos agentes quimioterápicos de segunda y tercera generación (etopósico, gemcitabina, taxanos o, más recientemente pemetrexed). Estas innovaciones planteaban nuevas cuestiones a responder que han ido perfilando los diseños de los ensayos clínicos en las últimas décadas: ¿las combinaciones son mejor que los agentes únicos? ¿hay alguna combinación mejor? ¿son superiores los regímenes con cisplatino que con carboplatino? ¿realmente son los platinos necesarios? La evidencia nos llevó a considerar como tratamiento estándar esquemas con dos fármacos basados en platino sin poder demostrar de forma significativa una combinación mejor, siendo las características del paciente (comorbilidad, situación basal) y la toxicidad esperada las principales herramientas de decisión para el oncólogo. Con estos esquemas se alcanzaron medianas de supervivencia en torno a los 10 meses. Los tratamientos oncológicos y las mejoras obtenidas en el tratamiento de soporte han aumentado lenta pero progresivamente la esperanza de vida y la calidad de la misma. Sin embargo, en la práctica clínica diaria, se continúa observando con cierto desconcierto como los pacientes se benefician de forma muy desigual de las opciones que les brindamos. Estas observaciones, junto con la sucesión vertiginosa de descubrimientos en el área de biología molecular, han impulsado desde el inicio de este siglo nuevas vías de investigación que pretenden ayudarnos a seleccionar los subgrupos de pacientes (según histología, perfiles genómicos) que se van a beneficiar de uno u otro tratamiento y nuevas dianas terapéuticas específicas que abordar con nuevos fármacos dirigidos. Se destacan a continuación dos ejemplos sobre la evidencia que disponemos del impacto de la histología en la elección del tratamiento y los nuevos estudios farmacogenómicos que pretenden predecir la sensibilidad o resistencia a esquemas que contienen platinos (todavía hoy base del tratamiento estándar). Respecto a la primera cuestión, el primer estudio prospectivo Fase III que analiza los resultados de distintos esquemas de tratamiento por subgrupos según histología lo publicaron Giorgio Vittorio Scagliotti et al. en julio de 2008 en Journal of Clinical Oncology. Los datos expuestos arrojan significación a favor del esquema que contenía pemetrexed en aquellos tumores de histología no escamosa demostrando que esta diferenciación, accesible en la práctica clínica diaria, puede ser otra herramienta que ayude al oncólogo en la selección de la terapia. Por otro lado, el desarrollo de la genómica nos está identificando pacientes que pueden responder mejor a la QT basada en platinos con el fin de mejorar la respuesta y evitar toxicidad innecesaria. Cobo et al. presentaron en octubre de 2007 en Journal of Clinical Oncology los resultados de un estudio desarrollado en múltiples centros sanitarios (mayoría españoles) en el cual se randomizaba a distintos brazos de tratamiento de acuerdo con la expresión de ARN mensajero de una proteína implicada en la reparación del ADN (proteína de complementación cruzada de reparación por escisión 1, ERCC1) partiendo de la hipótesis de que su expresión confiere resistencia a platinos (mayor capacidad del individuo a defenderse de los daños del platino en el material genético de las células tumorales). En este estudio se concluyó que en el brazo genotípico (los pacientes con bajas concentraciones de ERCC1 recibieron esquemas con cisplatino y los pacientes con concentraciones elevadas esquemas con quimioterápicos con diferente mecanismo de acción) existía una mayor tasa de respuestas objetivas. 72 Junto con los fármacos clásicos que hemos comentado, el conocimiento de nuevas dianas moleculares específicas de las células tumorales o de su estroma han llevado a desarrollar fármacos dirigidos contra las mismas. En la actualidad, en el tratamiento del cáncer de pulmón, disponemos de fármacos contra el receptor del factor de crecimiento epidérmico (EGFR) o el factor de crecimiento derivado del endotelio vascular (VEGF) inhibiendo la angiogénesis. Sabemos que estos factores pueden estar sobreexpresados o mutados (ej. EGFR se sobreexpresa mutado en el 40-80%) y que pueden conferir valor pronóstico (ej. La expresión de VEGFR se asocia con peor pronóstico). A continuación, repasamos brevemente la evidencia sobre las principales innovaciones con las que contamos actualmente. Bevacizumab actúa como fármaco antiangiogénico (ver figura 1). Dos estudios Fase III midieron su eficacia en el tratamiento del carcinoma no microcítico de pulmón avanzado. Asociado a carboplatino-taxol demostró aumento de la tasa de respuestas y supervivencia global (12.3 meses vs 10.3) acosta de una mayor toxicidad (hemoptisis, hematemesis) aunque, en general, fue bien tolerado. En el estudio AVAIL, junto con cisplatino-gemcitabina, se objetivaron también mayor tasa de respuestas en el brazo con bevacizumab, no obstante las diferencias en supervivencia no alcanzaron la significación estadística. FIGURA 1. Mecanismo de acción. fuente: Genentech - Roche. Cetuximab es un anticuerpo monoclonal dirigido contra el EGFR (ver figura 2). En el último meeting de la Sociedad Americana de Oncología (ASCO 2008) se presentaron los resultados del estudio FLEX. Para la inclusión de los pacientes en el estudio se requería el análisis de la expresión del EGFR con métodos inmunohistoquímicos. Junto con una mayor tasa de respuestas se demostró un beneficio en supervivencia global de 11.3 vs 10.1 meses en el brazo con cetuximab asociado a la QT estándar. El rash cutáneo y la diarrea fueron las toxicidades más relacionadas con el fármaco. Erlotinib y Gefitinib son pequeñas moléculas que bloquean el dominio tirosin-kinasa intracelular del EGFR (ver figura2). Han demostrado que prolongan la supervivencia en pacientes que han progresado a una primera línea de tratamiento. Sin embargo, en combinación con esquemas basados en platino como primera línea no han demostrado beneficio añadido. Estos estudios no tenían en cuenta el estatus mutacional de los pacientes. 73 Paz-Ares et al. presentaron en ASCO en 2006 un estudio Fase II con erlotinib en pacientes con carcinoma no microcítico de pulmón avanzado con mutación en el dominio tirosin kinasa del EGFR obteniendo tasas de respuestas de hasta el 90% mantenidas más de 8 meses (datos muy prometedores nunca vistos en esta patología). Figura 2 A lo largo de nuestro repaso de la evolución en el tratamiento del cáncer de pulmón avanzado de primera línea, hemos referido ganancias progresivas en la supervivencia global desde los 4 meses (evolución natural con tratamiento de soporte), 8 meses (primeros tratamientos quimioterápicos), 10 meses (fármacos de segunda y tercera generación) hasta el momento actual donde llegamos a alcanzar medianas que rondan el año de supervivencia global (asociando nuevos fármacos antidiana). Estos resultados discretos no han supuesto hasta la actualidad un cambio disruptivo en el manejo de esta patología y paralelamente, la incorporación de los nuevos fármacos anti-diana es la principal responsable del aumento del gasto en oncología que llega a cifras de hasta el 22% anual en Europa. La baja productividad marginal en términos de utilidad demostrada a día de hoy por la mayoría de las innovaciones farmacológicas y el reto que supone su incorporación para los Sistemas Nacionales de Salud ha abierto el debate sobre su financiación tomando cada vez mayor relevancia estudios de evaluación económica. Tanto la adopción de medidas restrictivas en exceso que puedan hacer abandonar vías de investigación como medidas permisivas que pongan en peligro la sostenibilidad del sistema pueden acarrear costes de oportunidad en uno y otro sentido que mermen nuestras expectativas de conseguir un mejor estado de salud de nuestros pacientes. Es por este motivo que debemos ser rigurosos en los modelos económicos a emplear para dichas valoraciones y en la interpretación de los beneficios que arroja la evidencia científica así como otorgar a la calidad de vida el valor asignado por la sociedad en nuestros días de la forma más ajustada posible. Pese a conocer las vías moleculares sobre las que actúan los nuevos fármacos en la práctica no disponemos de los medios para identificarlas en gran parte de los casos. Como consecuencia, los oncólogos tratamos de forma universal el cáncer de pulmón y no a pacientes con características biológicas distintas aunque denominemos su enfermedad igual. Hablamos de supervivencia de unos meses en el total del grupo a estudio. Pero aquellos que no tienen expresadas estas vías moleculares (muchas veces la mayoría) no se benefician en absoluto. Sin embargo, aquellos que sí las expresan, el beneficio que 74 apreciamos es mucho mayor (tanto que, siendo minoría, desplazan los resultados estadísticos de forma significativa, aunque discretamente en número, a su favor). En aquellas patologías donde la expresión de estas dianas terapéuticas esta mayoritariamente expresada (ej. GIST donde hay un alto porcentaje de expresión de cKit) o bien estandartizada la forma de identificación (ej. HER2 en cáncer de mama) los resultados con los nuevos fármacos que las bloquean no son cuestionables. Por este motivo es necesario un impulso decidido a la investigación traslacional que nos ayude a la selección de los pacientes. A su vez, la asignación de beneficios en supervivencia a un único fármaco es cada vez más difícil. Los nuevos fármacos se utilizan en combinación y a los pacientes, cuando progresan, se les aplican segundas líneas de tratamiento que también pueden impactar en la supervivencia. Es por este motivo que, aunque la supervivencia global siga siendo el objetivo principal, otras metas como intervalos libres de progresión o aumentos en calidad de vida también pueden servir de ayuda en la toma de decisiones. Para finalizar, se desarrollan unas consideraciones sobre las perspectivas futuras que pueden multiplicar los retos a los que debe hacer frente el Sistema para sostenerse. Se ha hecho referencia de forma unidimensional a vías moleculares que sabemos, en el mejor de los casos, bloquear por un tiempo. Pero se sabe que la célula es un medio complejo en el que interactúan múltiples vías moleculares y que tiene capacidad de activar vías accesorias cuando la más sobreexpresada (y que más le aporta a su metabolismo para subsistir) se bloquea. Con lo que podemos deducir que el abordaje óptimo debería ser multilateral. Es decir, diferentes fármacos que bloqueen diferentes dianas en el mismo paciente y sin retirar los bloqueos ya establecidos ir introduciendo nuevos conforme la célula se va defendiendo activando otras vías. Otra incógnita, viendo como esta patología se va cronificando, es el tiempo de mantenimiento de estas terapias. Un ejemplo que nos ilustra muy bien esta cuestión es la rápida revascularización de los tumores que se ha observado al interrumpir bevacizumab llegando a aconsejarse el mantenimiento de dicho fármaco a pesar de que la enfermedad progrese (práctica no justificada al no disponer todavía de datos obtenidos de estudios prospectivos randomizados). Como decía, el reto que supone la incorporación de todas estas innovaciones no ha hecho nada más que empezar. Con qué, a quiénes y durante cuánto tiempo. Cuestiones que, como se ha podido ver en este artículo, continúan en búsqueda de respuesta. La toma de decisiones basada en la evidencia deberá tener en cuenta los costes en relación con la efectividad real. Los Sistemas Sanitarios y la industria farmacéutica convergen en el terreno donde se deben decidir las soluciones óptimas respecto a la consecución de un sistema sostenible. Si no lo llegamos a conseguir es posible que todos pierdan aunque unos lo sufran más que otros. Dr. Diego Malón Giménez. Médico Adjunto. Unidad Oncología Médica. Hospital del Henares. www.proyectonets.org 75 "España cuenta con esta tecnología desde 1993, en 2007 el Hospital Ruber Internacional de Madrid adquirió el último modelo" LA RADIOCIRUGÍA GAMMA KNIFE. UNA MARAVILLOSA TECNOLOGÍA SANITARIA. Dr. ERICK STRÖMBÄCK. Dr. ERICK STRÖMBÄCK Lars Leksell (neurocirujano sueco, 1907-1986), jamás pensó que su aporte a la ciencia médica en esos remotos años a fines de los 40 y comienzos de los 50 alcanzaría tal éxito al día de hoy. Fue discípulo del eminente neurocirujano, también sueco y uno de los pioneros de la neurocirugía europea, Herbert Olivecrona, con quien trabajó y se formó en el Instituto Karolinska de Estocolmo, y a quien Leksell sucedió como cabeza del servicio. Su exitoso método basado en las tres dimensiones del espacio, le permitieron diseñar el primer aparato para neurocirugía funcional en humanos en 1949, inspirándose en los trabajos, primero de Sir Victor Horsley de 1908 del University College of London, pero, en lugar de utilizar un marco de coordenadas cartesianas, usó coordenadas polares, creando así el marco estereotáxico, el que sigue usándose hasta el día de hoy en el mundo entero, siguiendo los primeros trabajos de los neurocirujanos americanos Spiegel y Wycis, quienes habían desarrollado un proyecto en 1947 para experimentación animal. Sistema de posicionamiento automático Fuentes de Cobalto 60 Canal de radiación Casco con colimadores Blindaje Soportes del casco Cubierta plástica Camilla Paneles de protección Puertas de blindaje Casco en posición de tratamiento Figura 1. Esquema general del Gamma Knife. Nace entonces en 1951, tras grandes esfuerzos de Leksell junto al físico y radiobiólogo Börje Larsson en la Universidad de Uppsala y, aprovechando el ciclotrón de ese centro universitario, el concepto de radiocirugía: método poco invasivo para destruir discretamente ciertas áreas dentro del cerebro, para lo cual Leksell primero empleó rayos protónicos, provenientes desde muchas direcciones distintas pero simultáneas, las que convergían finalmente en un determinado punto o target point, que no era otra cosa que la lesión o área a tratar en el parénquima cerebral, minimizando las posibles lesiones secundarias que pudiesen producirse en los tejidos circundantes o aledaños a dicha lesión o área. Leksell llamó a esta técnica los cuchillos de rayos Gamma, del sueco "strålkniven", conocido hoy como el bisturí de rayos gamma. Más tarde en 1968, Leksell desarrolla su aparato conocido hasta el presente como Gamma Knife, utilizando un casco que emite por múltiples fuentes rayos de Cobalto 60, convergiendo en el lugar de la lesión a tratar. 76 El genio de Leksell fue aprovechado en 1955 en Berkeley, California por John Lawrence y Cornelius Tobias, quienes emplearon el principio de haces convergentes para realizar una hipofisectomía funcional en una paciente para conseguir una deprivación hormonal para paliar casos con metástasis múltiples de cáncer de mama. Más tarde en 1967, tras un tenaz trabajo, Leksell desarrolla y construye el primer aparato diseñado exclusivamente para radiocirugía cerebral, la Unidad Gamma, el que contenía 179 pequeñas fuentes de Co60 , todas colimadas para converger y dirigir esta radiación hacia un target point o diana central en el espacio. Se realizaba entonces el primer tratamiento con el Gamma unit en el Sofiahemmet de Estocolmo, en el mes de octubre de 1967 en un paciente portador de un craneofaringioma. Como era de esperar, esta genialidad algo inusual en la época, le costó a Leksell más de una discusión con su formador el Profesor Olivecrona, el que le insinuó que estaba haciendo cosas algo disparatadas lo que llevó a Leksell a radicarse en Lund. Años más tarde, Olivecrona le comentaría a otro neurocirujano sueco radicado en Estados Unidos que si él mismo contraía alguna patología intracraneana contemplada entre las indicaciones del Gamma Knife, le pidiera a Lars que le aplique su máquina. Se instala en 1975 en el Radiumhemmet del nuevo hospital Karolinska de Estocolmo, el segundo modelo del equipo de Leksell, utilizándose ya el nombre de Gamma Knife y esta vez con una mayor cantidad de fuentes emisoras de radiación de Co60 en número de 201 fuentes colimadas. El Karolinska fue por muchos años el único lugar del mundo en donde se realizaba radiocirugía con fotones. En Buenos Aires, el argentino Bunge fue el primero en instalar un Gamma Knife fuera de Suecia en 1984, y luego en 1986 Forester en Sheffield, Inglaterra, instalaría el segundo. Tras tres años de gestionar la compra del primer Gamma Knife, se instala un tercer equipo en Pittsburgh en 1987. Figura 2. Tratamiento de una metástasis cerebral. Situación antes y después de la intervención con Gamma Knife. En síntesis, el éxito del Gamma Knife se centra en : Energía radiante focalizada sobre un pequeño y delicado volumen de tejido. Este volumen debe ser muy bien definido en cuanto a su localización, tamaño y volumen. Esta energía es entregada en una sola sesión radiante, generalmente menor a 100 min. A diferencia de otras terapias radiantes, entrega múltiples rayos angostos isocéntricos (convergentes), lo cual provoca muy poca superposición de rayos, lo que minimiza el daño a tejidos adyacentes a la lesión en tratamiento. Mínimo a nulo riesgo de complicaciones. Alta selectividad lograda. No es necesario abrir u operar el cráneo. Rápida reinserción laboral. Mínima hospitalización (si la hay, de un día solamente). Terapia altamente coste-efectiva. 77 Los equipos de radiocirugía Gamma Knife han evolucionado tecnológicamente alcanzando hoy en día la sexta generación, desde el año 2006 con el modelo Perfexion. Sus limitaciones en la aplicación están dadas fundamentalmente en el tamaño alcanzado por la lesión a tratar. Con los últimos modelos pueden tratarse lesiones hasta 35 mm. de diámetro, aunque lo que prima hoy por hoy más que el tamaño, es el volumen total de la lesión, sea tumoral o vascular (MAV), pudiendo ser tratadas lesiones con un volumen de hasta unos 25 a 30 cc. Hoy en día esta magnífica tecnología sanitaria, legado del Profesor Leksell, es utilizada para tratar múltiples patologías intracraneanas tales como: Trastornos vasculares: MAV (malformaciones arteriovenosas), aneurismas (muy escasos), angiomas cavernosos y otros. Tumores benignos: Schwanoma Vestibular (neurinoma del acústico), schwannoma Trigeminal, otros Schwanomas, tumores gliales benignos (Grados I+II), meningiomas, adenoma pituitario (Secretor), adenoma pituitario (No- Secretor), tumores de la región Pineal, hemangioblastoma, hemangiopericitoma, craniofaringioma, cordomas, tumor glómico y otros tumores benignos. Tumores malignos: Glioma maligno (Grados III+IV), tumor metastásico, condrosarcoma, carcinoma NPH y otros tumores malignos. Tumores malignos 42% Tumores benignos 35% Trastornos Funcionales: Neuralgia del trigémino, enfermedad de Parkinson, dolor intratable, epilepsia, algunos trastornos psiquiátricos y otros funcionales. Malformaciones arteriovenosas 16% Desórdenes funcionales 7% Trastornos oculares: Melanoma Uveal, glaucoma y otros trastornos funcionales. ¿Cómo actúa la radiocirugía con Gamma Knife? La radiocirugía actúa de igual forma que otros tipos de radiología terapéutica: deforma o destruye el ADN de las células tumorales, lo que les impide la reproducción y el crecimiento. El tumor se reducirá de tamaño con el transcurso del tiempo. En algunas lesiones de los vasos sanguíneos como la malformación arteriovenosa (MAV), los vasos sanguíneos eventualmente se cierran después del tratamiento. El tratamiento con Gamma Knife por lo general comprende los pasos siguientes: 1. Instalación del marco esteretáxico en la cabeza: La cabeza queda fija durante la sesión radiante, por medio del marco estereotáxico, el cual se ajusta al cráneo mediante el uso de clavijas especialmente diseñados para este fin. El marco además sirve de guía para focalizar los rayos gamma en el lugar exacto de la lesión que se está tratando. Figura 4. Fijación del marco. 78 2. Adquisición de imágenes para ubicar el tumor o la lesión: Instalado el marco, se determinará la ubicación exacta de la lesión a tratar mediante un scanner (TAC) o resonancia nuclear magnética (RNM). 3. Planeamiento de la dosis de radiación: Realizadas la TAC o la RNM, el equipo de radioterapia y el neurocirujano planea el tratamiento. El físico médico usará los resultados del estudio de imágenes, junto con otra información, para determinar el mejor tratamiento. 4. Radioterapia: Planeado el tratamiento y preparado el paciente, se instala una suerte de casco con cientos de orificios sobre el marco (el último modelo, Perfexion consta de 192 orificios). Estos orificios ayudan a focalizar los haces de radiación en el objetivo. El tratamiento durará unos minutos o algunas horas, según el tipo y la ubicación del área que recibe tratamiento. Por lo general, sólo se requiere una sesión de tratamiento por cada lesión. Figura 5. Diagnóstico por imágenes, plan de tratamiento y tratamiento. El procedimiento con Gamma Knife implica un enfoque de tratamiento en equipo. El equipo de tratamiento en general incluye a un oncólogo radiólogo (un médico que se especializa en radioterapia para el cáncer), un neurocirujano y/o un neurorradiólogo, un radioterapeuta y una enfermera universitaria. Además, un físico médico y un dosimetrista trabajan juntos para calcular la cantidad exacta de exposiciones y la colocación del haz (o haces) necesarios para obtener la dosis de radiación indicada por el oncólogo radiólogo. El equipo de tratamiento puede incluir a otros profesionales de la salud además de los mencionados o en su lugar. Actualmente, existen en el mundo 238 unidades de Leksell Gamma Knife instaladas y funcionando. A modo de información solamente, existen equipos Gamma Knife en la India 3, en Japón 46, en Corea 14, en Taiwan 7, en China 17 (incluyendo Hong Kong), en Egipto 2, en el Reino Unido 5, en Turquía 3, en Rusia 2, en Estados Unidos 112, en Canadá 3, en México 2, en Alemania 4, en Italia 5, en Austria 2, como también en Singapur, Tailandia, Vietnam, Bélgica, Croacia, República Checa, Francia, Grecia, Irán, Jordania, Marruecos, Holanda, Noruega, Portugal, Rumania, Suiza, Argentina, Brasil y la misma Suecia cuentan cada uno con un equipo Gamma Knife. Próximamente, a fines de abril de 2009 se agregará también Chile con una unidad. 79 España cuenta con esta tecnología desde el mes de agosto de 1993, en que se usó un equipo Gamma Knife de 201 fuentes hasta noviembre de 2007, año en que el Hospital Ruber Internacional de Madrid adquirió el último modelo conocido como Gamma Knife Perfexion, de 192 fuentes, y altas mejoras en su performance, permitiendo aún menos tiempos de tratamiento para el paciente, como también tratar a un mayor número de pacientes en una jornada y mayor comodidad para el paciente, ya que este modelo ejecuta per se las acomodaciones y reposicionamientos que antes debía realizar el equipo de profesionales. Hasta el presente se han tratado alrededor de 4.500 pacientes en dicho centro. Asimismo, está clínicamente documentado en más de 2.500 revisiones de artículos científicos. Figura 6. El modelo "perfexion" de Gamma Knife. La genialidad del Gamma Knife ha permitido también la génesis de otras importantes tecnologías sanitarias, como fue el caso del neurocirujano norteamericano John R. Adler Jr. para diseñar el Cyber Knife el que, a diferencia del Gamma Knife, no utiliza Co60 ni un casco colimador, sino que emplea radiación de rayos X y un brazo colimador que cambia rápidamente de posiciones para emitir en un blanco perfecto la radiación X guiada computacionalmente por unos fiduciarios fijados en un plano inmóvil, generalmente las apófisis espinosas, en lugar del marco estereotáxico de Leksell fijado al cráneo. Es utilizado para tratar lesiones fuera del cráneo, tales como cuello, columna, tórax y abdomen. Figura 7. Esquema del colimador del Gamma Knife "Perfexion". Más de 400.000 Pacientes tratados a nivel mundial, sobre 40.000 al año. Dr. Erick Strömbäck Cerda. Neurocirujano. 80 "El error humano en la transfusión sanguínea se encuentra en un 50% de los incidentes críticos" ¿ES NECESARIA LA AUTOMATIZACIÓN EN LA MEDICINA TRANSFUSIONAL? Dra. Mª ASUNCIÓN MORA. La sangre como órgano del cuerpo que posee funciones que le son propias y exclusivas, es una terapia imprescindible para salvar vidas. La trasfusión de sangre se puede considerar como un trasplante puesto que se basa en injertar el órgano sangre producido por un ser humano en el precario torrente circulatorio de otro. Por tanto, en la actualidad, y a pesar de los numerosos intentos de fabricar de manera industrial la sangre artificial (perfluorocarbonos, etc) que hasta la fecha han resultado infructuosos, la única casa comercial de sangre es el propio ser humano. Resulta paradójico que en el siglo XXI y apuntados en nuestro país a la cabeza de las nuevas tecnologías en Medicina, sigamos dependiendo de manera tan estrecha de este tratamiento de primera necesidad sin el que no serían posibles otras terapias punteras ni el manejo vital de pacientes con problemas hemorrágicos, y que depende finalmente de forma exclusiva del altruismo del propio ser humano materializado en el acto de la donación de sangre. Dra. Mª ASUNCIÓN MORA En la actualidad disponemos de la sangre más segura de todos los tiempos, conseguida a través de someterla a múltiples análisis de detección de patologías infecciosas, y a través del rechazo preventivo de donantes con factores de riesgo que se van conociendo. En cuanto a las detecciones serológicas, primero fueron los análisis para el sida y las hepatitis y ahora incluso se dirige el estudio según el origen geográfico del donante, por ejemplo en el caso de los originarios de zonas endémicas para determinadas enfermedades transmitidas por la sangre como la enfermedad de Chagas. En cuanto al rechazo preventivo de donantes de riesgo tenemos el ejemplo de la exclusión definitiva para la donación a los residentes en Gran Bretaña durante más de 12 meses en el periodo de los años 1980 a 1996 por el riesgo de la transmisión de la variante humana del Creutfeld-Jakob. Todos estos esfuerzos han resultado asombrosos. Si hace 20 años el riesgo de transmisión del VIH era de 1:100 unidades de sangre en algunas zonas de EEUU, y la hepatitis C postransfusional afectaba al 1% de los pacientes transfundidos en España, en la actualidad este riesgo se estima en 1-2 casos por millón de unidades transfundidas. Las medidas que inicialmente se implantaron para la detección del anti-VIH en 1985 y del anti-VHC en 1992 redundaron claramente en una reducción de costes sanitarios al prevenir un número importante de infecciones . Posteriormente, el desarrollo de nuevas tecnologías para escrutino de VIH, VHC y VHB por técnicas de biología molecular, las nuevas técnicas de inactivación viral en plasma y la desleucocitación sistemática de la sangre a través de filtros de última generación, han ido reduciendo al mínimo la posibilidad de transmisión de infecciones a través de la sangre, aunque han provocado un gran aumento de costes en la obtención de la sangre de tal manera que hay autores que ponen en tela de juicio su coste-efectividad para la salud pública. Lo que sí queda claro es que gracias a este gran despliegue tecnológico se está consiguiendo una sangre segura, pero el objetivo de conseguir una transfusión segura está muy lejos todavía. Así lo demuestran los datos comunicados a los diferentes sistemas de Hemovigilancia, en los que se aprecia que la cifra de errores transfusionales por incompatibilidad de grupo ABO prácticamente no ha variado en las últimas décadas. Resulta incomprensible la desproporción entre los recursos y esfuerzos dedicados a conseguir componentes sanguíneos más seguros y los escasos recursos empleados en prevenir eventos no infecciosos a lo largo del proceso transfusional. La transfusión sanguínea debería someterse continuamente a renovación puesto que se trata de un 81 procedimiento en cadena que implica transversalmente a varios servicios o secciones clínicas, y a personal con diferente cualificación. Por tanto, la llamada cadena transfusional hay que conocerla en todos sus eslabones para ser conscientes del posible error en cada paso. Por otro lado, los errores asociados a la transfusión sanguínea se comunican menos que las reacciones transfusionales o las infecciones transmitidas por transfusión. Los sistemas de hemovigilancia (como SHOT- Serious Hazard of Transfusion- en Gran Bretaña, el Sangris Group belga, el New York State Department of Health mandatory reporting program of transfusion-related incidents, accidents and errors el Sistema Francés de Hemovigilancia, o el Sistema Español de Hemovigilancia) deberían registrar todos los incidentes de la cadena transfusional, desde la selección del donante, extracción de la muestra al receptor, procesamiento en el Banco de Sangre, salida de los componentes sanguíneos, transfusión y efectos adversos posteriores. Incluso más allá de estos puntos, también deben registrar los errores o incidentes sin consecuencias clínicas para el paciente, los casi-errores o casiincidentes, cuya frecuencia se estima muy elevada. Mientras que los errores por incompatibilidad de grupo comunicados se estiman en 1:14.000 (en un estudio en el estado de New York)-1:12.000 transfusiones (en un estudio canadiense), la incidencia de los casi-errores es prácticamente desconocida y puede llegar a 1:400 (en un estudio realizado en tres hospitales belgas). Soportes básicos de la Cadena Transfusional. ¿Por qué es necesaria la innovación tecnológica en la Medicina Transfusional? En primer lugar debemos tomar conciencia de todos los soportes que requiere el acto transfusional, para valorar las posibles fuentes de error donde podría tener un importante papel el apoyo de las nuevas tecnologías: Jesús Mora comentó el artículo en www.proyectonets.org: Excelente revisión, en mi opinión, al abordar desde un punto de vista protocolizado cómo optimizar la seguridad de las transfusiones de hemoderivados. Con independencia de las mejoras tecnológicas que han de reflejarse sin duda en los indicadores de actividad de los centros, habría que hacer énfasis en la necesidad que los clínicos como prescriptores, -y como donantes también-, tenemos de estar cada vez más seguros en este especial acto médico. En este sentido, coincido con la autora en que queda mucho que mejorar en otros apartados: por ejemplo, en mi experiencia, habría que añadir a los protocolos otros puntos de especial vigilancia como la adecuación de la prescripción, el consentimiento informado y la revisión de los procedimientos de transfusión en pacientes con especial comorbilidad como ancianos o cardiópatas, cuyo riesgo no se ha medido siempre con cautela. Un trabajo multidisciplinar debe aportar ventajas inequívocas en este campo. Soporte humano: el paciente, el médico, el enfermero, el auxiliar de enfermería, el celador, el técnico especialista de laboratorio (TEL). Soporte informático: la historia clínica, la solicitud de transfusión, las etiquetas para identificar al paciente, a la muestra, al componente sanguíneo. Los sistemas informáticos del Banco de Sangre. Soporte material: el material de identificación, de extracción, papel. Historia clínica y solicitud si es en soporte papel. Los equipos autoanalizadores y el material de laboratorio del Banco de Sangre. El entorno: tamaño del hospital, implicación de las diferentes unidades, formación continuada, sistemas de hemovigilancia y de comunicación de incidencias, difusión de los procedimientos y los cambios posteriores de los mismos, atención continuada del Banco de Sangre. Las fuentes de error en la Cadena Transfusional. Las fuentes de error en la cadena transfusional se pueden resumir en los siguientes puntos críticos: Identificación errónea (del paciente, de las muestras, de la petición). Técnicas erróneas en el laboratorio de Banco de Sangre. Etiquetado erróneo de las bolsas. Administración del componente sanguíneo erróneo. Transfusión al paciente erróneo. Error en la indicación de la Transfusión. Los casi-errores en Transfusión Sanguínea. El error humano en la transfusión sanguínea se encuentra en prácticamente un 50% de los incidentes críticos relacionados con la Transfusión sanguínea, mientras que la otra mitad se deben a problemas técnicos u organizativos del sistema. La mayor parte de los errores transfusionales se concentran además en unas ciertas unidades: urgencias, 82 quirófanos y unidades de cuidados intensivos, lo que supondría elegir estos puntos diana para implantar la aplicación de las nuevas tecnologías que puedan ayudar a paliar el error. Según Dzick, el error transfusional puede aparecer en tres momentos clave del proceso transfusional: Momento 1: Toma de muestras para los test pretransfusionales. Linden et al (2000) documentaron en esta fase el 14% de las transfusiones ABO incompatibles en el estado de Nueva York. Supone el etiquetado erróneo del tubo o la muestra recogida a otro paciente diferente al de la etiqueta. Momento 2: Indicación de la transfusión Sanguínea. Es la decisión del médico de pautar este tratamiento para un paciente dado. Debe basarse en Guías consenso de práctica transfusional, emitidas por el hospital o por un centro acreditado o sociedad científica, y nunca exclusivamente por resultados de laboratorio. Recordemos que transfundimos a pacientes con su sintomatología clínica presente, no a cifras. Momento 3: Administración de la sangre correcta para el paciente correcto. El caso contrario, la administración de la sangre errónea a otro paciente supone un 40% de los errores transfusionales. Esto resulta inadmisible en nuestros días cuando disponemos de la más sofisticada tecnología para manufacturar la sangre y seguimos empleando en la mayoría de los hospitales una simple comprobación visual de los números de una etiqueta adherida a la unidad de sangre (¡a veces incluso escrita a mano!). Tipos de automatización en la cadena transfusional: la automatización en cada eslabón reduce el riesgo de error. Las etiquetadoras automáticas de pequeño tamaño y portátiles, con PDA incluida, generan etiquetas a partir de los códigos de barras adjudicados a cada paciente preferiblemente en una pulsera de lectura electrónica, que es única para cada uno de ellos. La impresión de la etiqueta y la adhesión a su tubo de muestra se realiza en el mismo momento de la extracción, a pie de cama del paciente. La pulsera de identificación automática, exclusiva de cada paciente lleva un código de barras para lectura de una etiquetadora automática portátil con una PDA. Están conectadas al sistema informático de Banco de Sangre de tal manera que a la llegada del producto a transfundir (una vez que la unidad ha sido sometida a los estudios de compatibilidad del Banco de Sangre y se ha reservado para ese paciente concreto), el personal de enfermería debe realizar la lectura del código de la pulsera y la lectura del código de la unidad de sangre para que el sistema autorice la transfusión Los autoanalizadores y el programa informático de Banco de Sangre son soportes seguros para los test-pretransfusionales de los pacientes y las unidades de sangre a transfundir. Realizan también etiquetado automático de las muestras y poseen lector de código de barras para emisión de etiquetas automáticas para adherirlas a las unidades a transfundir que relacionan de manera inequívoca un paciente con una unidad de sangre. Se impide la salida de unidades del Banco de Sangre que no hayan sido registradas en el programa informático. Estos programas incluso exigen una segunda muestra del receptor antes de asignarle grupo definitivo y permitir la salida de la unidad de sangre. Luis Quecedo comentó el artículo en www.proyectonets.org: Los filtros recuperadores, la hemodilución normovolemica y demas tecnicas de ahorro de sangre no dejan de tener otras complicaciones. Si no es muy necesario yo no me dejaría poner sangre, aunque mía , que ha estado en un circuito externo, activadas las plaquetas, estressados los eritrocitos y lo peor con trozos de cemento de las protesis de caderas o rodilla. La predonación aunque cara me parece mejor opción y los hematologos la llevan como se puede ver muy bien organizadas con el minimo riesgo. Hoy por hoy la mejor opción de ahorro es concienciar a los médicos que la sangre es un bien precioso e insistir en terapias restrictivas y en un futuro los desarrollos de sangre a partir de celulas madre, que es por donde van los tiros ahora. La confirmación electrónica de la Transfusión Sanguínea, es una tarea fundamental para cerrar el circuito transfusional. Supone el registro de la transfusión de una unidad concreta a un paciente concreto, y debe quedar recogido en el programa informático del Banco de Sangre. Si se dispone de sistema de pulsera electrónica se realiza desde la PDA del personal de enfermería, si se dispone de programa informático conectado a los servicios transfusores se realiza desde los mismos, y si el soporte es papel (documento de control transfusional) debe ser igualmente cumplimentado por el personal que ha completado la transfusión. Sistemas de radiofrecuencia (RFID), que consisten en colocar a una etiqueta RFID a cada unidad de sangre desde la donación hasta el paciente, quien también lleva una etiqueta 83 Bibliografía: 1.-Dzik WH. New technology for transfusión safety. British Journal of Haematology, 2006. 136, 181-190 2.- Linden JV et al. Transfusion error in New York state: an analysis of 10 years experience. Transfusion 1990; 40, 12071213 3.- Robillard et al. ABO incompatible transfusions, acute and delayed haemolytic transfusion reactions in Quebec. Transfusion 2002; 42, 25S. 4.- Baele et al. Bedside transfusion errors. A prospective survey by the Belgium Sanguis Group. Vox Sang. 1994; 66: 117121 5.- Callum JL et al. Reporting near-miss events for transfusion medicine: improving transfusion safety. Transfusion 2001;41: 1204-1211 RFID. Permiten también monitorizar las variaciones de temperatura a lo largo de los procesos y garantizar la cadena del frío. Consiguen un control en tiempo real de los stocks de sangre en cada centro. El personal de enfermería que realiza la transfusión debe realizar la lectura automática del RFID de la unidad de sangre y del paciente que autorice la transfusión. Queda registrado por radiofrecuencia en el programa informático del Banco de Sangre. Equilibrio factor humano/automatización. Todas estas medidas encaminadas a conseguir la Seguridad transfusional no deben hacernos olvidar la necesidad de conseguir un equilibrio entre el factor humano y la automatización. Es necesario integrar en el quehacer diario de los profesionales de la salud la cultura de utilizar la tecnología al servicio del cuidado del paciente, empleando estas herramientas con total conocimiento. En este proceso deben implicarse también los gestores porque la verdadera estimación de los costes del error humano es difícil de cuantificar. Además las nuevas tecnologías por sí solas no bastan para mejorar la seguridad transfusional. Los cursos de formación continuada y actualización de facultativos, enfermería y agentes implicados en la transfusión, las sesiones interdisciplinarias y la puesta en marcha de sistemas de comunicación de incidencias, así como el empleo de facultativos expertos en medicina transfusional y profesionales expertos para la selección e implantación de nuevas tecnologías ayudarán al objetivo final del bienestar del paciente. Dra. Mª Asunción Mora. Sección de Hematología y Hemoterapia. Hospital Infanta Sofía de San Sebastián de los Reyes. visítanos en internet www.proyectonets.org 84 "la aplicación de esta técnica se realiza principalmente en el carcinoma basocelular, el cáncer más frecuente en la raza blanca" AMPLIACIÓN: CIRUGÍA MICROGRÁFICA DE MOHS. LA CIRUGÍA MÁS EFECTIVA EN EL TRATAMIENTO DEL CÁNCER DE PIEL. Dr. JAVIER PEDRAZ Y Dr. EDUARDO LÓPEZ. Dr. JAVIER PEDRAZ La cirugía micrográfica de Mohs es una técnica de gran eficacia y muy especializada en el tratamiento de tumores de piel no melanoma. Es una técnica vanguardista cada vez más extendida en numerosos hospitales tanto extranjeros como españoles. Mientras que en EEUU el 35% de los cánceres de piel se operan con esta técnica, en España tan sólo un 1% se benefician de los resultados de la misma. Esta técnica permite alcanzar porcentajes de curación de la enfermedad de hasta un 98%. Con la cirugía convencional los porcentajes de curación son muy variables, entre un 48 y un 83%, pero en cualquier caso menores que en la cirugía de Mohs. La principal ventaja que presenta la cirugía de Mohs frente a la cirugía dermatológica convencional es la posibilidad de asegurar en el mismo momento de la operación la eliminación total del tumor y también la conservación de un mayor porcentaje de tejido sano. Este procedimiento se puede llevar a cabo gracias al análisis microscópico de todos los bordes del tumor sobre muestras de piel procesadas en congelación, un hecho que no era posible con la cirugía convencional. Esta técnica, desarrollada por el en aquella época estudiante de medicina Frederic E. Mohs en 1932 en la Universidad de Wisconsin, evita al paciente tener que acudir en varias ocasiones al quirófano y que vuelva a recidivar el cáncer en la gran mayoría de los casos. En 1941 publicó su técnica remarcando las ventajas de la utilización de cloruro de zinc para fijar los tejidos. Con el paso de los años esta técnica se ha ido perfeccionando pero aún conserva su concepto básico original. El propio Frederic Mohs comenzó en 1953 a utilizar tejidos en fresco para evitar el mayor dolor y sangrado postoperatorio producidos al fijar la muestra con cloruro de zinc. Asimismo, la fijación en fresco permitía una mayor rapidez de la técnica, la posibilidad de conservar más tejido sano y la posibilidad de cerrar mediante sutura. Dr. EDUARDO LÓPEZ La cirugía de Mohs no está indicada en todos los cánceres de piel. La aplicación de esta técnica se realiza principalmente en el carcinoma basocelular, el cáncer más frecuente en la raza blanca. Se estima que aproximadamente un 50% de los pacientes mayores de 65 años desarrollará un cáncer de piel, en su mayor parte carcinomas basocelulares. Este tumor habitualmente no origina metástasis pero puede volver a aparecer o, en ocasiones, invadir en profundidad. Otras indicaciones de esta técnica serían el carcinoma espinocelular, el dermatofibrosarcoma protuberans, el carcinoma anexial microquístico o el carcinoma de células de Merkel. Sólo debe realizarse cuando después de uno o más tratamientos previos aún queda tumor, cuando el tumor esté localizado en determinadas áreas con riesgo de que vuelva a aparecer (alrededor de los ojos, boca, nariz y orejas) o cuando queremos conservar la mayor parte de piel sana. También tiene su indicación esta técnica en las variantes morfeiforme e infiltrante del carcinoma basocelular, en tumores mayores de 2 centímetros y en pacientes inmunodeprimidos. Es una técnica que se realiza en la mayor parte de los casos en la región de la cara, por ser en esta zona de gran importancia la conservación de piel sana. También es en la cara donde aparecen la mayor parte de los cánceres de piel. La cirugía de Mohs es, sin duda, el tratamiento de elección en tumores con una tasa elevada de recurrencias. La cirugía micrográfica de Mohs exige la coordinación de diversos especialistas para el buen resultado de la técnica. La extirpación de la lesión, el corte de la misma y la 85 reconstrucción es habitualmente realizada por el dermatólogo, mientras que el análisis de la pieza extirpada corresponde al patólogo. El procesamiento de la muestra debe ser realizado por técnicos experimentados en la realización de la técnica. Esta técnica se debe realizar en un centro médico debidamente preparado, habitualmente un hospital. La realización de la técnica en fresco de la cirugía micrográfica de Mohs varía en función de las prácticas individuales de algunos cirujanos pero el procedimiento básico en nuestro servicio de Dermatología es el siguiente: Paso 1: Se realiza una delimitación del tumor con un rotulador de tinta indeleble de forma previa a la aplicación de anestesia local con mepivacaína al 2%. El marcaje previo de la lesión es importante para evitar la distorsión anatómica y la pérdida de los límites de la tumoración. Es muy importante la realización de una correcta asepsia y antisepsia durante este tipo de cirugía. Paso 2: Tras un tiempo de espera para que el anestésico haga su máximo efecto (5-10 minutos), se realiza una primera extirpación de la tumoración mediante curetaje (raspado superficial de la zona) o escisión con bisturí. De esta primera zona extirpada se obtienen cortes transversales que se observan al microscopio para tener una imagen de la morfología que presenta la tumoración y así poder identificarla con mayor facilidad al realizar las siguientes extirpaciones. Paso 3: Se realiza una escisión del área peritumoral (1-2 mm) con un ángulo de 45º con la piel para producir un borde angulado, continuando la escisión alrededor del tumor y por debajo de éste de forma paralela a la superficie de la piel obteniendo una muestra en forma de plato. Paso 4: Se realiza un marcaje con escisiones superficiales en la periferia para la orientación precisa de los bordes. Figura 1. Ejemplo de uno de los esquemas de zona anatómica (mapas) utilizados habitualmente en la realización de la cirugía de Mohs. Paso 5: Se realiza un dibujo bidimensional del defecto incluyendo las marcas de piel para la orientación de la muestra. Es habitual que el cirujano de Mohs utilice a menudo unos esquemas de la zona anatómica donde esté localizado el tumor, denominados mapas, para ir anotando sucesivamente las zonas de piel a extirpar en los sucesivos pases. (Fig.1). Paso 6: La pieza se fragmenta siguiendo las líneas de marcaje y se invierte (colocando la dermis hacia arriba), se numeran los fragmentos de forma ordenada utilizando números arábigos. Los bordes de la muestra se colorean con diferentes colores para poder identificar posteriormente la exacta localización del tumor. Una tinción habitualmente utilizada es la tinta china. Paso 7: Se monta el tejido como es presentado, aplanándolo en un plano horizontal uniforme. Se procede a congelarlo y se obtienen cortes horizontales de 5-7 micras utilizando el criostato (Figura 2). Estos cortes se obtienen de la parte profunda hacia arriba. Así en un mismo corte se pueden observar simultáneamente los tejidos superficiales y profundos. Paso 8: Las laminillas se tiñen con hematoxilina eosina y son interpretadas por el patólogo en el microscopio. El patólogo examina el 100% de los bordes de la muestra. Figura 2. Criostato habitualmente utilizado para realizar cortes en congelación durante el procesamiento de las muestras de cirugía de Mohs. Paso 9: Si el tumor está completamente extirpado, se procederá a la reconstrucción del defecto. Si se encuentra tejido tumoral residual, se marca con tinta roja en el mapa previamente dibujado y sólo se extirpará la zona en la que exista tumor, y es esto lo que permite un ahorro de tejido sano. Nunca se cerrará el defecto hasta tener la completa seguridad de que el tumor está completamente extirpado. Al extirpar el tejido tumoral residual, cada estadio es numerado sucesivamente con números romanos. Este proceso se repetirá tantas veces como sea necesario hasta la completa extirpación del tumor. Paso 10: El cierre del defecto se puede realizar con suturas (cierre por primera intención) mediante la realización de colgajos, injertos o técnicas de cirugía estética; o bien mediante el cierre de la heridas por sí sola (cierre por segunda intención), permitiendo a la herida que cure progresivamente en el plazo de 3-4 semanas. 86 Para ilustrar esta técnica, presentamos uno de los casos de cirugía de Mohs intervenidos en nuestro Servicio. Se trata de una paciente mujer de 74 años con un epitelioma basocelular sólido localizado en la pared lateral derecha de la pirámide nasal (Figura 3a). En el examen clínico el tumor estaba mal delimitado, con lo cual era muy complicado distinguir los límites exactos del mismo. La paciente presentaba la tumoración desde hacía varios años y había sido intervenida en dos ocasiones con resultado anatomopatológico que afectaba los bordes laterales de resección. Dadas las dos extirpaciones previas con bordes afectos y la mala delimitación del tumor en el examen clínico se decidió la indicación de cirugía de Mohs, según el procedimiento descrito previamente. Figura 3a. Epitelioma basocelular mal delimitado y localizado en la cara lateral derecha de la nariz. Figura 3b. Marcaje de la cantidad de piel a extirpar en el primer pase de la cirugía. Figura 3c. Defecto resultante tras la extirpación del tumor en 2 pases. Según se observa en la Figura 3b, se procedió al marcaje del tumor con un rotulador de tinta indeleble. El círculo central extirpado fue analizado por el patólogo para obtener una imagen precisa de la forma del tumor y el círculo externo fue el primer pase extirpado para su análisis. Tras la realización de 2 pases, el patólogo informó que la muestra se encontraba libre de tumor (Figura 3c). Tras haber extirpado completamente el tumor y valorando las distintas opciones de cierre del defecto, se decidió realizar un colgajo bilobulado (Figura 3d). La paciente no presentó complicaciones después de la intervención y el resultado estético a los 8 meses de la intervención resultó muy bueno (Fig. 3e). La duración de la técnica es muy variable. Dependerá del número de veces que haya que realizar extirpación de tejido (número de pases), por lo que puede variar entre 87 aproximadamente una y varias horas. La duración de cada pase es de aproximadamente 30-45 minutos. Por término medio el número de pases es de 1 a 3, lo cual se traduce en un tiempo de 2-4 horas. Una variante de esta técnica es la cirugía de Mohs diferida. Esta variante consiste en analizar la muestra de piel, no en el mismo día y en congelación, si no en el plazo de pocos días y en parafina. Esto permite una mejor visualización al microscopio de determinados tumores difíciles de ver en congelación o la realización de determinadas tinciones especiales necesarias para identificar ciertos cánceres de piel como el dermatofibrosarcoma protuberans. Figura 3d. Cierre del defecto mediante colgajo bilobulado. Las principales ventajas que presenta esta técnica es que permite analizar en el mismo momento de la intervención todos los márgenes del tumor, lo que facilita la extirpación selectiva de zonas donde sólo hay tumor. Esto permite un ahorro de piel sana en comparación con la cirugía convencional y una mayor facilidad para cerrar el defecto final en piel. Con la cirugía convencional sólo se realizaban dos cortes sobre el tejido: uno longitudinal y otro transversal con lo que quedaba una gran cantidad de tejido tumoral sin analizar. Todas estas ventajas que se obtienen con la cirugía de Mohs se traducen en un mejor resultado estético. El resultado final no se obtiene hasta 1 año después de la realización de la cirugía. En nuestro servicio de Dermatología del Hospital Clínico San Carlos se ha venido realizando con éxito esta técnica que tan buenos resultados tiene tanto a nivel estético como de eliminación del tumor y sin que todavía hayamos observado no hemos observado ningún caso de recidiva tumoral tras extirpación tumoral con cirugía de Mohs. El periodo habitualmente utilizado para la valoración de recidivas es de 5 años, periodo al que aún no han llegado la totalidad de nuestros pacientes intervenidos con esta técnica. Figura 3e. Resultado estético a los 8 meses de extirpación del tumor. Dr. Javier Pedraz Muñoz. Dermatólogo. Hospital Clínico San Carlos. Dr. Eduardo López Bran. Jefe de Servicio de Dermatología. Hospital Clínico San Carlos. visitanos en internet www.proyectonets.org nets Innovación y Tecnología en la Salud 88 "Los opioides empleados por vía transdérmica son una buena opción en los pacientes con mucositis oral" IMPORTANCIA DE UN ADECUADO TRATAMIENTO DEL DOLOR EN LA MUCOSITIS ORAL PRODUCIDA POR LA IRRADIACIÓN. Dra. MAR SERRANO. La mucositis oral es una inflamación de la mucosa bucal que puede aparecer como resultado del tratamiento radioterápico al paciente oncológico. Está presente hasta en el 90% de los pacientes tratados con radioterapia y/o quimioterapia, y debido a que puede cursar con dolor intenso, tiene un gran impacto sobre la calidad de vida de estos pacientes. Dra. MAR SERRANO En numerosas ocasiones la presencia de mucositis interfiere la ingesta alimentaria, pudiendo ocasionar malnutrición. En éste caso, puede ser conveniente una interrupción temporal del tratamiento radioterápico, con el consiguiente riesgo de recrecimiento tumoral. La mucositis oral se segmenta según la clasificación de la OMS en 4 grados. Esta clasificación tiene en cuenta los síntomas clínicos (dolor, estado de la mucosidad bucal), así como la posibilidad de nutrición oral (alimentación sólida, líquida y ningún tipo de alimentación). En el grado 1 (mucositis leve) existe únicamente sequedad bucal y enrojecimiento de la mucosa, que no impide la toma de alimentos. En el grado 2 (mucositis moderada) aparecen, además, las primeras ulceraciones de la mucosa bucal. La toma de alimentos sólidos es todavía posible. En el grado 3 (mucositis grave) se encuentra una ulceración marcada, y únicamente se puede tomar alimentación líquida. El 4º grado se caracteriza por ser la forma más grave y peligrosa de mucositis oral. En este grado no es posible la toma de alimentos por vía oral. En la actualidad no existe una directriz general válida para la terapia de la mucositis. Sin embargo, para prevenir/retrasar su aparición se recomienda la utilización de radioterapia altamente conformada, Bencidamina, Clorhexidina e higiene. Para disminuir su intensidad y evolución se recomiendan analgésicos y antibióticos. El 30% de los afectados necesitan analgésicos sistémicos de tercer escalón (opioide fuerte) según la escala de la OMS de terapia contra el dolor. La elección del opioide dependerá del tipo de dolor, de la duración de la acción, de la toxicidad esperable y de la vía de administración. En estos pacientes adquiere especial importancia elegir una vía de administración adecuada, ya que, dependiendo del grado de mucositis, la deglución de analgésicos puede resultar dolorosa en si misma. En este sentido, la terapia transdérmica aporta grandes ventajas en el tratamiento del dolor en el paciente con mucositis. A demás del fácil manejo y la buena aceptación por parte del paciente, encontraremos beneficios en el perfil de seguridad. Debido a la liberación constante del principio activo durante periodos prolongados, no hay efectos adversos ocasionados por las fluctuaciones plasmáticas. Por ello podemos considerar la vía transdérmica es una forma óptima de tratar el dolor por mucositis, asociada o no a otros tratamientos para el dolor irruptivo. En 2007 se llevó a cabo el Estudio Mucodol, en el que se estudió la incidencia de mucositis oral, así como el tratamiento administrado y el control del dolor en pacientes atendidos en consulta de radioterapia. Fue un estudio multicéntrico en el que participaron 55 centros hospitalarios de todo el territorio nacional, y contó con la Dra. Ana Mañas y la Dra. Amalia Palacios como coordinadoras. 89 El diseño del estudio cubrió dos fases: en la primera se evaluó la incidencia de la mucositis oral en los SOR (Servicio de Oncología Radioterápica). En la segunda fase se realizó un estudio prospectivo para evaluar el tratamiento del dolor de pacientes con mucositis oral de grado 2 y 3 con un seguimiento de 2 meses. Puedes encontrar este artículo en el blog de la Fundación Grünenthal en www.proyectonets.org. Recuerda que en NETS puedes comentar los artículos, dar tu opinión, participar en debates y escribir nuevos artículos. El blog de la Fundación Grünenthal tiene varios artículos originales de diversos temas comentados y discutidos por los usuarios de NETS. La fase 1 del estudio muestra que la incidencia de la mucositis oral se encuentra en un 16,4% de la población estudiada, siendo los niveles 1 y 2 los más frecuentes. Para la segunda fase se reclutaron 282 pacientes con mucositis oral de grado 3 (95,7%) y de grado 4 (4,3%), a los que se hizo un seguimiento de 3 meses. Los resultados del estudio documentan que el 96,1% de los pacientes con mucositis oral de grado 3 y 4 sufrían dolor. El dolor asociado a mucositis, según los pacientes era moderado en el 37,9% de los casos, y era intenso o muy intenso en el 51,6% de los casos. El 94,3% de los pacientes del estudio con mucositis oral de grado 3 y grado 4 tomaba analgésicos, siendo en el 70,2% tratamientos opioides, destacando Buprenorfina, Fentanilo y Tramadol. Tras una terapia de dos meses, el 62,4% de los pacientes mostró un alivio del dolor significativo. El 83,2% de los pacientes presentaban, en la visita final, ausencia de dolor o dolor leve. El estudio concluye que los opioides, y especialmente los empleados por vía transdérmica, son una buena opción terapéutica en los pacientes con mucositis oral. Dra. Mar Serrano Sánchez. Grünenthal Pharma, S.A. "La asociación de tramadol y paracetamol aumenta la eficacia del tratamiento del dolor y reduce las reacciones adversas" DOCUMENTO DE CONSENSO SOBRE UTILIDAD TERAPÉUTICA DE LA ASOCIACIÓN FIJA DE TRAMADOL/PARACETAMOL. JUAN TAMARGO. JUAN TAMARGO Más de 9 millones de españoles padecen dolor crónico, lo que provoca el 53% de las consultas médicas. Sin embargo, muchos de estos pacientes no encuentran un tratamiento satisfactorio. La asociación a dosis fijas en una misma formulación de dos analgésicos, tramadol y paracetamol, logra aumentar la eficacia del tratamiento, y reduce al mismo tiempo la incidencia de las reacciones adversas. El Documento de consenso sobre utilidad terapéutica de la asociación fija de tramadol/paracetamol en el tratamiento del dolor moderado que se presentó en Madrid el 4 de marzo de 2009 y que ha sido elaborado por especialistas de diversas sociedades médicas recoge la evidencia científica que existe sobre la utilización de dicha asociación en diferentes patologías. 90 La publicación de este consenso viene dada por la necesidad de plantear la utilidad de la asociación de tramadol y paracetamol en el tratamiento del dolor moderado. En primer lugar, porque el dolor moderado es algo muy frecuente en la sociedad actual y, en segundo lugar, porque es tratado por distintos especialistas y resultaba adecuado que diversas sociedades científicas abordaran la utilidad que cada una de ellas observa de esta asociación farmacológica en diferentes situaciones clínicas. La ventaja que tiene la asociación de tramadol y paracetamol es que se trata de compuestos con mecanismos de acción complementarios que permiten atacar el dolor por múltiples vías, tener más eficacia y reducir la dosis de cada fármaco (325 mg de paracetamol y 37,5 mg de tramadol), logrando además una menor incidencia de efectos adversos, que no serán más importantes que los que puedan inducir ambos fármacos por separado. A todas las ventajas ya expuestas, se puede añadir que las asociaciones a dosis fijas tienen una ventaja adicional: la reducción del número de fármacos, que unida a la mejor tolerabilidad, permite aumentar el porcentaje de pacientes que sigue el tratamiento prescrito. Para alcanzar estos objetivos es necesario asociar fármacos que presenten mecanismos complementarios y cuyas propiedades farmacológicas y terapéuticas hayan sido ampliamente evaluadas en ensayos clínicos controlados. En este caso, gracias a un estudio de asociación medicamentosa basado en una técnica de análisis y representación gráfica, denominada isobolograma, se ha determinado una sinergia de potenciación, es decir, que la administración de estos dos fármacos conjuntamente y en el mismo momento resulta en un mayor grado de analgesia que la simple suma de los efectos analgésicos de cada uno de estos fármacos por separado. Acerca del Consenso. El documento de consenso, editado por Grünenthal Pharma S.A., ha sido fruto de la colaboración entre expertos miembros de diversas sociedades científicas (el Grupo de Estudio del Dolor de la Sociedad Española de Cirugía Ortopédica y Traumatología, la Sociedad Española del Dolor, la Sociedad Española de Medicina de Urgencias y Emergencias, la Sociedad Española de Médicos de Atención Primaria y la Sociedad Española de Neurología), que han abordado el problema desde ángulos bien diversos, lo que permite alcanzar una visión panorámica muy completa. La obra revisa los conceptos generales relacionados con el área del dolor, así como las bases fisiopatológicas, mecanismos implicados en la producción del dolor, y la valoración del paciente con dolor leve-moderado. El dolor ha sido uno de los temas más tratados por los articulistas y comentaristas en NETS. El blog de la Fundación Grünenthal recoge algunas aportaciones sobre el dolor que te pueden resultar interesantes. Te recomendamos IMPORTANCIA DE UN ADECUADO TRATAMIENTO DEL DOLOR EN LA MUCOSITIS ORAL PRODUCIDA POR LA IRRADIACIÓN de Mar Serrano que también puedes encontrar en esta revista y LA PLATAFORMA SinDOLOR de Guillermo Castillo que puedes consultar en www.proyectonets.org en la sección "iniciativas y programas". Como principal objetivo, se analiza la utilidad de la asociación de tramadol y paracetamol en el dolor moderado por especialidades (urgencias, neurología, reumatología, atención primaria y traumatología), y se realiza una revisión de la evidencia científica. Profesor Juan Tamargo. Catedrático de Farmacología de la Facultad de Medicina de la Universidad Complutense de Madrid. Coordinador del Documento de consenso sobre utilidad terapéutica de la asociación fija de tramadol/paracetamol en el tratamiento del dolor moderado. www.proyectonets.org 91 "Sólo 45.000 pacientes, el 0,1% de la población, consumen casi el 2,5% del gasto sanitario." SOSTENIBILIDAD Y EQUIDAD EN EL TRATAMIENTO RENAL SUSTITUTIVO. GRUPO PARA LA EVALUACIÓN DEL TRATAMIENTO RENAL. La Enfermedad Renal Crónica Avanzada conduce a miles de pacientes cada año a la elección de una modalidad de diálisis. Tan solo 45.000 pacientes, el 0,1% de la población, consumen casi el 2,5% del gasto sanitario. Dado que el trasplante renal solo está indicado para menos del 20% de los pacientes en diálisis y que, mientras esperan un donante, también los pacientes en lista de espera deben dializarse, casi todos los pacientes tendrán que elegir entre la Hemodiálisis (modalidad atendida por especialistas en hospitales o centros de tratamiento especializados) o la Diálisis Peritoneal (modalidad domiciliaria). La estructura sanitaria favorece la utilización de la Hemodiálisis, a pesar de que es un 44% más costosa que la Diálisis Peritoneal domiciliaria. El presente documento revisa la situación y propone acciones para equilibrar las posibilidades de acceso a la Diálisis Peritoneal por parte de los pacientes y para contribuir a la sostenibilidad de un tratamiento que continúa creciendo en número cada año. Antecedentes. Cada año, casi 6.000 nuevos pacientes ven progresar su Insuficiencia Renal hasta la necesidad de recibir uno de los tres tipos de tratamiento sustitutivo de la función renal: 1. Trasplante Renal (TX): Cada año se realizan alrededor de 2200 trasplantes renales y hay algo más de 4000 pacientes en lista de espera. Por motivos clínicos, menos de 20% de los pacientes que están en diálisis pueden acceder a un riñón. El 80% restante nunca podrá trasplantarse y tiene que estar en diálisis para sobrevivir. 2. Hemodiálisis (HD): En esta modalidad, la sangre se depura empleando una máquina que se la extrae, la filtra y se la devuelve al paciente, para lo cual tiene que desplazarse a un hospital o centro especializado tres veces por semana como mínimo. Cada tratamiento, conectado a la máquina, se prolongará unas cuatro horas. La inmensa mayoría de los pacientes en diálisis usan esta modalidad. 3. Diálisis Peritoneal (DP): Esta modalidad de tratamiento es domiciliaria. La eliminación de sustancias tóxicas se realiza a través de la membrana peritoneal del paciente, y se puede realizar de forma manual o de manera automatizada, durante la noche, mientras se duerme. El paciente solo acude al hospital para revisión uno o dos meses. Un escaso porcentaje de pacientes se dializa en su hogar. Situación actual. Según datos del año 2007 de la Sociedad Española de Nefrología, la población en tratamiento crece entre un 3% y un 4% cada año. En el registro nacional de pacientes renales que coordina la Organización Nacional de Trasplantes, en España hay 45.000 pacientes en tratamiento renal sustitutivo, de los que casi la mitad están trasplantados. 48% están Trasplantados. 46% en Hemodiálisis. 6% en Diálisis Peritoneal. 92 2. Hemodiálisis (HD): En esta modalidad, la sangre se depura empleando una máquina que se la extrae, la filtra y se la devuelve al paciente, para lo cual tiene que desplazarse a un hospital o centro especializado tres veces por semana como mínimo. Cada tratamiento, conectado a la máquina, se prolongará unas cuatro horas. La inmensa mayoría de los pacientes en diálisis usan esta modalidad. 3. Diálisis Peritoneal (DP): Esta modalidad de tratamiento es domiciliaria. La eliminación de sustancias tóxicas se realiza a través de la membrana peritoneal del paciente, y se puede realizar de forma manual o de manera automatizada, durante la noche, mientras se duerme. El paciente solo acude al hospital para revisión uno o dos meses. Un escaso porcentaje de pacientes se dializa en su hogar. Situación actual. Según datos del año 2007 de la Sociedad Española de Nefrología, la población en tratamiento crece entre un 3% y un 4% cada año. En el registro nacional de pacientes renales que coordina la Organización Nacional de Trasplantes, en España hay 45.000 pacientes en tratamiento renal sustitutivo, de los que casi la mitad están trasplantados. 48% están Trasplantados. 46% en Hemodiálisis. 6% en Diálisis Peritoneal. Paciente en diálisis peritoneal en su domicilio (izquierda) y paciente en hemodiálisis tradicional en hospital (derecha). Las oportunidades de los pacientes para realizar tratamiento domiciliario (DP) varían mucho entre las distintas Comunidades, e incluso dentro de cada una según su hospital de referencia. Algunas Comunidades tratan en domicilio a una gran parte de los pacientes que están en diálisis, mientras que en otras el porcentaje es casi anecdótico. ¿Por qué siendo la DP un tratamiento que ofrece igual o superior supervivencia que la HD, la misma calidad de vida, muy pocas contraindicaciones y permite al paciente realizar una vida más activa se produce esta desigualdad? El diseño y las estructuras sanitarias favorecen la opción de Hemodiálisis: 1. Mientras que se dotan todos los hospitales con máquinas y personal para realizar Hemodiálisis, a la vez que se abren muchos centros concertados para este fin, los recursos materiales y humanos destinados a la Diálisis Peritoneal en los hospitales que la realizan son escasísimos. A pesar de que un profesional de enfermería de Diálisis Peritoneal puede tratar 2025 pacientes, frente solo 4-5 que se pueden tratar en HD. 2. Falta de formación por parte de los nefrólogos prescriptores de diálisis ya que, por ejemplo, en su periodo de rotación durante la especialidad lo hacen 7 meses en HD mientras que en DP permanecen solo 2 meses. Si te ha interesado este artículos te recomendamos que leas LA TELEMEDICINA COMO HERRAMIENTA PARA LA SOSTENIBILIDAD DEL TRATAMIENTO DE LOS ENFERMOS CON INSUFICIENCIA RENAL CRÓNICA de Ana Canalejo, que puedes encontrar en el blog de Baxter en www.proyectonets.org, LA TELEDIABETES AYUDA AL PACIENTE CON DIABETES A MEJORAR SU CONTROL de Alberto Val y DONACIÓN Y TRASPLANTE RENAL DE DONANTE ANCIANO de Amado Andrés, ambos publicados en la seccción "nuevas tecnologías" de www.proyectonets.org. 3. Muchas veces los pacientes no reciben la información adecuada sobre todas las opciones posibles de tratamiento antes de iniciarlo. Sobre todo el grupo de pacientes que no pueden programarse desde las consultas de Enfermedad Renal Crónica Avanzada, que suponen casi el 50% del total. Según una encuesta promovida por la Asociación Nacional de Pacientes ALCER en el año 2007, más del 65% de los pacientes conocen bien o muy bien la técnica de Hemodiálisis mientras que solo alrededor del 20% conocen bien la Diálisis Peritoneal en domicilio. ¿Por qué es importante emprender iniciativas para paliar esta situación? 1. Sostenibilidad del tratamiento: Se calcula que el gasto del tratamiento renal sustitutivo es casi el 2,5% del presupuesto de sanidad para solo el 0,1% de la población. Por lo tanto, hay que tomar acciones para que este tipo de tratamiento sea sostenible en el tiempo. 93 Según un estudio realizado por la consultoría médica independiente BAP, especializada en la Investigación de Resultados en Salud, el coste anual por paciente en tratamiento con Hemodiálisis cuesta casi 50.000 euros. La HD es un 44% más costosa para el sistema de salud y se puede generar un ahorro de 500 millones de euros en una proyección a 15 años. 2. Equidad para todos los pacientes: Según la literatura científica, cuando los pacientes reciben información adecuada y suficiente, entre el 30% y el 50% eligen ser tratados en su domicilio. De igual manera, según demuestra una reciente encuesta realizada en el año 2007, la mayoría de los profesionales de la Nefrología también consideran que el mejor tratamiento de inicio para un paciente tipo es la Diálisis Peritoneal en domicilio. Así mismo según la ley 41/2002 de 14 de noviembre, reguladora de la autonomía del paciente y derechos y obligaciones en materia de información y documentación clínica, los pacientes tienen el derecho de ser informados sobre todas las posibles opciones de tratamiento para poder decidir el que mejor se adapte a su estilo de vida. ¿Qué se puede hacer para el desarrollo de la Diálisis Peritoneal? Propuestas: 1. Nos encontramos ante una oportunidad política única para incluir la Diálisis Domiciliaria en el Pacto por la Sanidad para garantizar la equidad en el acceso al tratamiento de todos los pacientes que inician tratamiento sustitutivo de la función renal sea cual sea la región en la que se resida y su hospital de referencia. Además, de esta forma se contribuirá a la sostenibilidad del sistema y se garantizará el tratamiento a un número cada vez mayor de pacientes que lo van a necesitar. 2. Debemos garantizar el derecho a la autonomía del paciente, promoviendo la figura del informador del paciente, mediante el impulso de las consultas de Enfermedad Renal Crónica Avanzada (Pre-diálisis) para conseguir mayor proporción de pacientes Programados. Para conseguir que todos los pacientes posibles puedan ser revisados convenientemente en consultas específicas hay que disponer de especialistas en nefrología y, sobre todo, personal de enfermería especializado que pueda dedicar el tiempo necesario para informar a estos pacientes. Añadir más consultas, además de servir para facilitar los procesos de información sobre las opciones de diálisis entre las que el paciente puede elegir y proceder a la firma del correspondiente consentimiento informado, también contribuiría a retrasar y reducir la necesidad de entrada de pacientes en diálisis. 3. Apostar abiertamente por la sostenibilidad de nuestro modelo de sanidad pública, poniendo recursos para el tratamiento de los pacientes en su domicilio, que tal como demuestra el estudio económico generaría importantes ahorros. Dicha evaluación económica recomienda incrementar los pacientes tratados en Diálisis Peritoneal domiciliaria. Para poder atender convenientemente a un número mayor de pacientes en esta modalidad de Diálisis Peritoneal en domicilio, se plantea equilibrar las plantillas actuales para garantizar que hay personal cualificado del mismo modo y el mismo tiempo que lo está el de Hemodiálisis. Es decir, plantear una cobertura de ambas modalidades de diálisis en función de la población atendida en cada hospital, dotando los recursos estrictamente necesarios, sin favorecer la Hemodiálisis. 4. Siendo el trasplante la modalidad que presenta el mejor resultado de coste-efectividad, las administraciones sanitarias deberían seguir garantizando que los profesionales tienen a su disposición los medios necesarios para su buen funcionamiento. Mientras el trasplante llega para los pacientes que pueden recibirlo, la Diálisis Peritoneal es una excelente modalidad de inicio de tratamiento. 94 5. Involucrar activamente a los profesionales sanitarios, evaluando y adaptando un sistema de incentivación similar al que tanto éxito ha proporcionado en el modelo público de trasplantes. Miembros del Grupo para la Evaluación del Tratamiento Renal: Dr. Javier Arrieta. Jefe de Servicio de Nefrología del Hospital de Basurto (Vizcaya). Dr. Juan Manuel Buades. Jefe de Servicio de Nefrología del Hospital Comarcal de Inca (Mallorca). Dra. Carmen Gómez Roldán. Jefa de Servicio de Nefrología del Complejo Hospitalario Universitario de Albacete. Dra. Teresa González. Presidenta de la Fundación Española de Diálisis (Barcelona). Dr. Alfonso Miguel. Jefe de Servicio de Nefrología del Hospital Clínico Universitario de Valencia. Dr. Manuel Macía. Responsable de Diálisis del Hospital Universitario Nuestra Señora de Candelaria (Tenerife) Dr. Francisco Ortega. Coordinador de Área de Gestión Clínica de Nefrología y del Metabolismo Óseo del Hospital Universitario Central de Asturias. Dr. Mario Prieto. Responsable de Diálisis del Servicio de Nefrología del Hospital de León. Dr. César Remón. Director de la Unidad de Gestión de Nefrología del Hospital Universitario de Puerto Real (Cádiz). Dra. Ana Rodríguez-Carmona de la Torre. Responsable de Diálisis del Hospital Universitario de A Coruña. Dr. José Antonio Sánchez Tomero. Jefe de Servicio de Nefrología del Hospital Universitario de La Princesa (Madrid). Dr. Rafael Selgas. Jefe de Servicio de Nefrología del Hospital Universitario La Paz (Madrid). Dr. J. ARRIETA Dr. F. ORTEGA Dr. J. M. BUADES Dra. A. RODRÍGUEZ Dr. J. A. SÁNCHEZ Dr. A. MIGUEL Dr. M. MACÍA Dr. R. SEGLAS www.proyectonets.org 95 "creemos justificada la realización de ablación intraoperatoria de la FA como procedimiento asociado a cualquier otra intervención cardiaca" TRATAMIENTO QUIRÚRGICO INTRAOPERATORIO DE LA FIBRILACIÓN AURICULAR. Dr. GONZALO ALDAMIZ. Dr. GONZALO ALDAMIZ La fibrilación auricular es la arrtimia más frecuente como causa de hospitalización y supone más de un tercio de todos los ingresos por este motivo en USA.Varios estudios han demostrado una incidencia entre el 1-2% entre la población general, con variaciones en función del método de recogida de datos. Pese a ciertas diferencias entre los diversos estudios, todos coinciden en un punto: La incidencia de la FA se incrementa con la edad: es menor del 1% en las personas por debajo de los 50 años, produciéndose a partir de aquí un incremento progresivo con cada década hasta afectar casi al 9% de la población mayor de 80 años. Figuras 1 y 2: diversas lesiones. Etiología: Aunque puede aparecer en un corazón sano, normalmente existe una cardiopatía estructural de base. Aproximadamente un 25% de los pacientes tienen antecedentes de cardiopatía isquémica. La enfermedad reumática multiplica por 14 el riesgo de desarrollar FA, y la aparición de ésta cuadruplica el riesgo de desarrollar un fenómeno trombo- embólico. Aproximadamente el 19% de los pacientes con disfunción ventricular izquierda tienen FA. Tumores cardiacos como los mixomas, también se asocian a la aparición de esta arritmia. Otras patologías cardiacas que en menor grado se asocian a la FA serían la miocardiopatía hipertrófica, pericarditis, valvulopatías de origen no reumático, otro tipo de arritmias cardiacas (W-P-W, enfermedad del seno, flutter auricular....) Pero la fibrilación auricular también puede aparecer como secuela cardiaca de otras patologías no primariamente cardiacas: 45% de los pacientes en FA son hipertensos. 10% tienen diabetes. 2% de los pacientes padecen desórdenes del tiroides. 3% en EPOC. Solo el 3% de las fibrilaciones auriculares se consideran idiopáticas, sin identificarse ningún factor predisponente. 96 Figura 3: lesión. Consecuencias clínicas: Sus consecuencias clínicas son bien conocidas: pérdida de la sincronía auriculoventricular, la sensación subjetiva del paciente de latido cardíaco irregular por un ritmo ventricular irregular. deterioro hemodinámico como consecuencia de la pérdida de la función contráctil auricular. riesgo de tromboembolismo por la estasis sanguínea en las aurículas. instauración de una miocardiopatía de origen arritmogénico. disminución en la calidad y las expectativas de vida. La existencia de fibrilación auricular crónica se asocia a una mortalidad el doble de alta tanto por causas cardiovasculares como por otras causas. Después de ajustar el riesgo para otras patologías cardiovasculares existentes, la fibrilación auricular persiste como un factor de riesgo independiente de muerte. Asimismo, supone un riesgo 5-7 veces mayor de presentar algún accidente cerebrovascular, y un gran coste económico para el Sistema Nacional de Salud: en Estados Unidos, la fibrilación auricular supone 1,4 millones de consultas externas y 227.000 hospitalizaciones (50% por urgencias) cada año. Por todo ello, la posibilidad de encontrar un tratamiento efectivo y de bajo riesgo que consiga hacer desaparecer la fibrilación auricular y restaurar el ritmo sinusal tendría unas importantes implicaciones clínicas y económicas. Carlos Polanco comentó el artículo en www.proyectonets.org: Acerca de la última frase del artículo del Dr. Aldamiz-Echevarría, me gustaría consultarle acerca del plazo más relevante para la evaluación de la efectividad de la intervención. Le indico un estudio que evalúa los resultados en salud de la ablación de la fibrilación auricular a corto y medio plazo: http://www.revespcardiol.org/cardio/ ctl_servlet?_f=40&ident=13066454 Cirugía cardiaca y fibrilación auricular: Aproximadamente el 50% (USA) de los pacientes con valvulopatía mitral está en fibrilación auricular (en nuestro medio, cerca del 80%). Durante más de 40 años los cirujanos han tenido que ignorar esta patología por no disponer de los medios para un tratamiento eficaz. En los años 80 y 90, Cox desarrolló la técnica quirúrgica que hoy en día es considerada de elección para el tratamiento de la fibrilación auricular. SE trata del denominado Maze quirúrgico (laberinto); sin embargo, se trata de una técnica compleja, larga, y no exenta de riesgo, por lo que su uso se restringió a unos pocos centros de referencia en el mundo. Con la introducción y desarrollo de una serie de fuentes de energía variadas (microondas, radiofrecuencia, crioablación, láser....) y la mejora en el diseño de los catéteres para su aplicación, la técnica del Maze hoy en día pueden realizarse de una manera mucho más simple y rápida, por lo que su aplicación se ha ido extendiendo. 97 Hoy en día, la aplicación del tratamiento de la fibrilación auricular a pacientes intervenidos por otras patologías cardiovasculares supone 10-20 mins extras de cirugía. En 2005 ha sido publicado el primer estudio randomizado de tratamiento intraoperatorio de la FA con ultrasonidos de alta intensidad (HIFU). Los resultados iníciales a un año de seguimiento han sido muy prometedores, con una tasa de éxito del 88%. Este sistema (Epicor) permite realizar el procedimiento desde epicardio a endocardio, con el corazón latiendo, sin prolongar el tiempo de circulación extracorpórea ni el de isquemia, y sin requerir la apertura de cavidades cardiacas, por lo que no añade morbi-mortalidad al procedimiento. En nuestra Unidad de Cirugía Cardiaca llevamos 3 años de experiencia y han sido sometidos al procedimiento de ablación un total de 50 pacientes. La tasa de mantenimiento del ritmo sinusal a 6 meses es del 65%, sin haber observado ninguna complicación relacionada con el sistema Epicor. Conclusión: Los resultados pioneros de Cox y cols con la técnica del Maze, recientes avances tecnológicos (fuentes de energía y catéteres para su aplicación) y la simplificación del procedimiento restringiéndolo a las cavidades cardiacas izquierdas han despertado un gran interés en el tratamiento quirúrgico de la fibrilación auricular. Hoy en día creemos plenamente justificada la realización de ablación intraoperatoria de la FA como procedimiento asociado a cualquier otra interevención cardiaca. La ablación con el sistema Epicor es un procedimiento seguro y con una alta tasa de éxito en el seguimiento a corto plazo. Dr. Gonzalo Aldamiz-Echevarría Castillo. Capio Fundación Jiménez Diaz. visitanos en internet www.proyectonets.org nets Innovación y Tecnología en la Salud 98 "el desarrollo de los equipos de radioescopia (...), ha aumentado la seguridad de los tratamientos endovasculares" LA ANGIOGRAFÍA TERAPÉUTICA EN NEUROLOGÍA. Dr. LEOPOLDO GUIMARAENS, Dra. TERESA SOLA y Dr. ELIO VIVAS. Las dos últimas décadas han visto el desarrollo de las aplicaciones básicas de la Neurorradiología Intervencionista. Durante la última década, hemos sido testigos del importante desarrollo de los equipos de radioescopia, de la aparición de medios de contraste no iónicos, de los materiales de embolización y de las técnicas angiográficas digitales, todo ello unido a una mejor comprensión de la anatomía neurovascular. Todo ésto ha hecho que la seguridad de los tratamientos endovasculares aumente de forma importantísima, y dichos procedimientos sean aceptados por otras especialidades como son la Neurocirugía, Neurología, Cirugía Plástica, Cirugía Vascular, Cirugía Maxilo-Facial, Oftalmología y Otorrinolaringología entre otras, llegando a ser en la actualidad el tratamiento de elección en la mayoría de las lesiones vasculares. Indicaciones. Las principales indicaciones de la AT son: la embolización, la angioplastia extra e intracraneal, las desobstrucciones vasculares y también las perfusiones medicamentosas in situ, esencialmente quimioterapia y quimioembolización de los tumores. La embolización consiste en la oclusión realizada por vía arterial , venosa y/o percutánea de lesiones vasculares, tumorales o traumáticas, siendo sus principales indicaciones la embolización de hemostasia, de las malformaciones vasculares y de las lesiones tumorales. La embolización de hemostasia tiene poco sitio en el terreno neurológico propiamente dicho, sin embargo, puede ser realizada en lesiones hemorrágicas del cráneo, en las epistaxis (síndrome de Rendu-Osler), en los traumatismos de la base del cráneo con sangrados que pueden ser externos o dentro de cavidades naturales; igualmente, en lesiones traumáticas de los vasos del cuello. En todas esas circunstancias la arteriografía puede localizar la lesión que sangra y en estos casos nos permite su hemostasis simplemente con utilización de espongostán o material más duradero. Es importante recordar que dicha hemostasis por embolización puede ser realizada en enfermos afectos de hemopatías, con problemas de coagulación (hemofilia, tromboastenia, trombopatía) y en la coagulación intravascular diseminada. Lo que es fundamental es conservar la arteria permeable ya que puede ser necesario realizar un tratamiento posterior. Esta técnica permite salvar la vida en la gran mayoría de los pacientes. Tratamiento de las malformaciones vasculares cérvico-cefálicas. Presentan hoy un importantísimo territorio de la angiografía terapéutica. 1. Malformaciones vasculares extracraneales. Se tratan esencialmente en el terreno neurológico de malformaciones vasculares de la cara y del cráneo. Existen diferentes tipos como son: angiomas Inmaduros del recién nacido, malformaciones linfáticas, angiomas capilaro-venosos y malformaciones arteriovenosas; la AT puede actuar en los tres últimos tipos. Las malformaciones arteriovenosas necesitan una oclusión del lecho arterial displásico tan completa como sea posible, seguida si es posible de una exéresis quirúrgica . Las malformaciones capilaro-venosas son fácilmente accesibles al tratamiento por embolización percutánea utilizando alcohol gelificado mezclado con alcohol absoluto y lipiodol ultrafluido. 99 2. Fístulas arteriovenosas meníngeas. Son anomalías arteriovenosas relativamente frecuentes . Se sitúan en la pared de la duramadre y están alimentadas por arterias meníngeas. Deben diferenciarse de las de las angiomatosis córticomeníngeas o de la angiomatosis cerebral con participación arterial meníngea. 3. Fístulas durales del seno cavernoso. Son más frecuentes en mujeres. Los síntomas aparecen frecuentemente en mujeres post-menopáusicas, asociados al embarazo y a los cambios hormonales. Las lesiones durales post-traumáticas de la región del seno cavernoso son muy raras. También es frecuente observar fístulas durales del seno cavernoso en relación con sinusitis del senoesfenoidal que podría producir una tromboflebitis asociada al seno adyacente y provocar de esta forma la formación de la fístula dural. La sintomatología, aunque es preferentemente orbitaria, exoftalmos uni o bilateral, hiperemia conjuntival, parálisis oculomotoras y eventualmente un soplo intraocular, intracraneal o retromastoideo, va a depender única y exclusivamente del drenaje venoso de la fístula. Elena de Miguel comentó el artículo en www.proyectonets.org: Agradezco a los autores su detallada descripción de las indicaciones de la angiografía terapéutica en Neurología. Estaría interesada en conocer hasta qué punto se complementan AT y TAC en su servicio, si se puede prescindir de una de ellas, o si prefieren emplear el TAC en la fase diagnóstica y la angiografía como parte de la terapia. 4. Fístulas arteriovenosas meníngeas del seno lateral. Son las más frecuentes, se sitúan en el segmento premastoideo y existen 5 tipos diferentes. Las del tipo I se drenan directamente en socorriente en el seno lateral homolateral, siendo la embolización el mejor tratamiento. Se revelan por acúfenos pulsátiles y son benignas. Las de tipo II se drenan a contracorriente en otro seno o con reflujo en venas corticales. Se revelan por cefaleas, por un síndrome de hipertensión intracraneal o por problemas neurológicos deficitarios o críticos. Las del tipo III se drenan en venas corticales. Es un grupo completamente particular, revelado generalmente por una epilepsia o por un hematoma intracerebral debido a la ruptura de la vena cortical de drenaje. Pueden ser tratadas por embolización, pero su descubrimiento, si es debido a un hematoma, necesita a menudo una intervención quirúrgica. Las de tipo IV son fístulas arteriovenosas meníngeas puras con ectasia pseudotumoral. Se trata de una entidad rara. La sintomatología puede ser secundaria a la fístula o a la propia ectasia intracraneal. Su tratamiento, es imprescindible, mediante embolización. En las fístulas arteriovenosas con gran ectasia, la embolización debe realizarse en varias etapas con el fin de permitir de forma paulatina la autorregulación cerebral evitando de esta forma los cambios bruscos de presión. En el tratamiento de estas fístulas están absolutamente contraindicadas las ligaduras quirúrgicas. Las de tipo V son fístulas intracraneales que se drenan en venas medulares. Se revelan por mielopatía ascendente. El tratamiento de elección es la embolización. Existen otras patologías que se pueden revelar por acúfenos pulsátiles: fístulas carótidocavernosas durales o postraumáticas con drenaje únicamente hacia los senos petrosos superior y/o inferior; fístulas vértebra-vertebrales; paraganglioma timpánico y/o yugular; estenosis o aneurismas de la carótida interna cervical; carótida interna intratim-pánica (trayecto aberrante); hipertrofia del golfo de la yugular 5. Fístulas arteriovenosas vértebro-vertebrales (FV-V). Pueden ser postraumáticas o congénitas. Las postraumáticas se localizan en la región cervical baja y con frecuencia son yatrogénicas, debido a la punción involuntaria de la arteria vertebral (lo más frecuente) durante la colocación de un catéter venoso-yugular; las congénitas se localizan generalmente en el segmento cervical C1-C2.. Lo más frecuente es que se manifiesten por acúfenos, insoportables. El tratamiento consiste en la oclusión de la fístula mediante un balón de látex largable, conservando permeable la arteria vertebral. 6. Fístulas carótido-cavernosas postraumáticas (FCC). El tratamiento endovascular de las FCC postraumáticas representa el gran éxito de la AT (Debrun,1976). Se revelan después de un traumatismo por la aparición de un exoftalmos frecuentemente bilateral, pulsátil con hiperemia conjuntival y a menudo por una parálisis oculomotora y a veces por acúfenos pulsátiles (si existe un drenaje posterior). El tratamiento consiste en la oclusión de la fístula mediante un balón de látex largable, conservando la carótida permeable. 7. Aneurismas intracraneales. La incidencia de los aneurismas intracraneales en la población general ha sido publicada entre el 1,5% y el 8% (Jellinger, Bannerman). 100 En aproximadamente el 77% de los casos publicados, la causa de la hemorragia subaracnoidea (HSA) es la ruptura de un aneurisma. El pico de edad en la ruptura del aneurisma está entre la 5ª y 6ª décadas de la vida. Sólo el 2% de los aneurismas menores de 5 mm tienden a sangrar, sin embargo el porcentaje aumenta al 40% en los aneurismas entre 6 y 10 mm. Los aneurismas pueden ser múltiples en el 20% de los casos. En cuanto a la edad y al sexo, existe un cierto predominio de mujeres (56%) sobre los hombres, siendo extremadamente raros en los niños. El tratamiento endovascular «cirugía endovascular», es actualmente el tratamiento de elección, siendo realizado en nuestro Servicio en la fase aguda (en las horas siguientes a la hemorragia), permitiendo reducir de forma considerable las complicaciones así como los índices de morbi-mortalidad. Si se tiene en cuenta que más del 60% de los aneurismas son mortales en el momento de la hemorragia, lo deseable es que se puedan detectar antes del sangrado. 8. Malformaciones arteriovenosas cerebrales. Existen 3 tipos: las malformaciones arteriovenosas parenquimatosas, las fístulas arteriovenosas piales y por último, las tulas arteriovenosas durales. Las malformaciones arteriovenosas se manifiestan por: Hemorragias que pueden ser cerebro-meníngeas, puramente meníngeas o puramente intraventriculares. Su pronóstico es menos grave, en general, que las hemorragias por ruptura de aneurimas, quizás debido a la ausencia de vasoespasmo asociado y a su débil tendencia a recidivar rápidamente; Epilepsia: con crisis comiciaies frecuentemente focales. Cefaleas si no están en relación con los episodios hemorrágicos, no tienen ninguna particularidad. Déficits neurológicos focales cuya aparición con frecuencia es lentamente progresiva; son intermitentes y evolucionan sin remisión. Se trata frecuentemente de malformaciones situadas en zona funcional. Otros: movimientos anormales, hipertensión intracraneal, insuficiencia cardiaca en el recién nacido, soplo intracraneal, problemas psiquiátricos y problemas psicomotores en el niño. Estas MAVs cerebrales se tratan en un equipo multidisciplinario entre Neurorradiólogos, neurocirujanos y radiocirujanos. El tratamiento puede ser: Embolización solamente; embolización y cirugía; embolización y radiocirugía; Radiocirugía solamente; Radiocirugía y embolización. Las diferentes modalidades de tratamiento van a depender de la sintomatología, localización y tamaño de la lesión. Tratamiento prequirúrgico de los tumores craneoencefálicos. La AT juega hoy un papel esencial prequirúrgico, facilitando enormemente la hemostasis y la exéresis de los tumores difícilmente accesibles Se trata esencialmente de tumores hipervascularres de la base del cráneo, meningiomas, tumores glómicos (extensiones intracraneales de tumores O.R.L.), fibromas nasofaríngeos en particular en los cuales necesitaban grandes transfusiones de sangre y generalmente unas exéresis muy incompletas. Hoy día también es posible realizar el tratamiento percutáneo de éstos dos últimos tipos (Casasco) mediante inyección de glubran. permitiendo unas exéresis quirúrgicas excelentes. Puedes encontrar este artículo en el blog de Capio Sanidad en www.proyectonets.org, donde también han sido publicados TRATAMIENTO QUIRÚRGICO INTRAOPERATORIO DE LA FIBRILACIÓN AURICULAR de Gonzalo Aldámiz, AVANCES EN NEUROCIRUGIA de Pedro Ruiz, INTRODUCCIÓN EN LA CLÍNICA DEL DIAGNÓSTICO PRENATAL NO INVASIVO de Carmen Ramos, Marta Rodríguez, Ana Bustamante, Cristina González y María José Trujillo, HACIA LA HISTORIA CLÍNICA ÚNICA DEL PACIENTE de Jorge Rangil y COLONOSCOPIA VIRTUAL. HISTORIA, QUÉ ES, CÓMO SE HACE, PAPEL, REFLEXIONES de Ángeles Franco. Quimioterapia intraarterial de los tumores cerebrales. En numerosos pacientes la quimioterapia intraarterial se asocia a radioterapia y a cirugía. Angioplastia transluminal percutánea carotídea con protección cerebral (ATP). Es la técnica de elección en nuestro Servicio desde abril de 1994 desarrollada por el Dr.Jacques THERON con el que llevamos colaborando desde entonces. La técnica consiste en la colocación de una endoprótesis (Wallstent) a caballo entre la carótida interna y la primitiva realizando la oclusión temporal de la carótida interna con un balón de látex colocado en la parte distal de la endoprótesis evitando el espasmo arterial y los posibles accidentes embólicos. 101 Fibrinolisis intraarterial cerebral. La trombolisis en los accidentes vasculares cerebrales agudos representa hoy día uno de los grandes avances de la neuroangiografía terapéutica. Los accidentes vasculares cerebrales son hemorrágicos en 1/5 de los casos. Es preciso realizar siempre una TAC craneal antes de realizar cualquier tratamiento para eliminar la existencia de un sangrado. A continuación realizamos una angiografía con parenquimografía cerebral y una angiografía superselectiva del territorio isquémico. En los ACV isquémicos del territorio carotídeo son fundamentales dos nociones: la hora de aparición del accidente y la localización exacta de la oclusión arterial. Si la oclusión afecta a las arterias lenticulo-estriadas (arterias terminales profundas), cuya pared es muy sensible a la isquemia, el tratamiento trombolítico realizado después de la sexta hora del inicio de los síntomas se acompaña en el 40% de los casos de una hemorragia cerebral por ruptura de las paredes de estas arterias revascularizadas. Aunque actualmente sí podemos colocamos un stent evitando la inyección de fibrinolíticos. Servicio de Neurorradiología del Hospital General de Catalunya. Dr. Leopoldo Guimaraens Martínez. Dra. Teresa Sola Martínez. Dr. Elio Vivas. síguenos en internet www.proyectonets.org 102 "Los avances en proteómica nos permitirán disponer de tratamientos más selectivos y eficaces para las enfermedades cutáneas" PROTEÓMICA: EL FUTURO DE LOS TRATAMIENTOS EN DERMATOLOGÍA. Dr. JAVIER PEDRAZ y Dr. EDUARDO LÓPEZ. La proteómica se puede definir como la genómica funcional a nivel de las proteínas. Es la ciencia que correlaciona las proteínas con sus genes, al estudiar el conjunto completo de proteínas que se puede obtener de un genoma. Para entenderlo mejor, podemos decir que con la información que hay en los genes se construyen proteínas. Estas proteínas son las responsables de las funciones que realiza habitualmente el organismo y, en el caso de que funcionen mal, también son las responsables de la aparición de enfermedades. Por tanto, el estudio de los genes nos proporciona información acerca del origen de determinadas enfermedades pero el estudio de las proteínas nos proporciona una información aún más precisa de este origen. El estudio de las proteínas en lugar de los genes presenta otras ventajas como es conocer cómo determinados fármacos modifican la estructura y/o función de determinadas proteínas. Si conocemos estos cambios podremos llegar a obtener fármacos más eficaces para tratar determinadas enfermedades o mejorar la eficacia de los ya existentes. La proteómica no es un estudio tan sencillo como pudiera parecer en un primer momento ya que cada célula del organismo expresa varios miles de proteínas diferentes y las proteínas expresadas son diferentes según el tipo de célula, por lo cual habría que centrarse sólo en el estudio de las proteínas que estuvieran relacionadas con una determinada enfermedad o con un determinado tratamiento para una enfermedad. Dr. JAVIER PEDRAZ Dr. EDUARDO LÓPEZ El estudio de las proteínas es un campo complejo ya que las proteínas tienen muchas formas, se mueven de distintas maneras, desarrollan distintas funciones y en algún punto se produce una modificación, se mueve a otro lugar, desarrolla otra función, vuelve atrás o termina su función y es destruida. Así, el mundo de las proteínas es un proceso muy dinámico. Según Meter Roepstorff, experto mundial en proteómica: mientras que el genoma es algo estático y definido, el proteoma cambia todo el tiempo. Depende de tu humor. Si ves a una chica guapa, inmediatamente tu proteoma cambiará, cambia todo el tiempo dependiendo de tu situación. Las proteínas actúan en todas las funciones del organismo, y cambian constantemente dependiendo de las necesidades, y eso es lo que las convierte en algo fascinante. Asimismo, las proteínas actúan dentro de una red bioquímica mucho más amplia y compleja, que es el metabolismo de las células. El estudio general de las redes metabólicas se conoce como metabolómica. Genoma, proteoma y metaboloma forman un entramado, cuyo estudio supone un salto cualitativo determinante en las ciencias biomédicas. De forma general, para llevar a cabo este estudio de proteínas o proteómica hace falta la realización de dos pasos fundamentales: Separación de las proteínas que queremos estudiar: la técnica más utilizada es el SDSPAGE o electroforesis en gel de poliacrilamida. Identificación de proteínas: el método más utilizado es la espectrometría de masas o bien mediante identificación por huella peptídica o bien por análisis MS/MS. Con estos dos pasos obtenemos las proteínas que nos interesan para poder estudiarlas. La proteómica va a permitir la separación de las proteínas en dos dimensiones que van a venir definidas por dos de las características más representativas de una proteína, como es el peso molecular (tamaño) y punto isoeléctrico (pH en el cual la carga neta de la 103 Alejandro Fueyo Casado comentó el artículo en www.proyectonets.org: Mi enhorabuena al Dr. Pedraz y el Dr. López-Bran por poner en marcha el proyecto de proteómica en el Hospital Clínico San Carlos, comenzando por dos de las enfermedades más comunes de la dermatología, la psoriasis y la alopecia androgenética. La primera es clave en lo que en el futuro será considerado un espectro de enfermedades autoinmunes y autoinflamatorias, y como tal es un magnífico punto de partida para una investigación de este tipo. Esperamos ansiosos los frutos de este estudio. Y la segunda no es tan importante a nivel de salud, pero sí que es una de las enfermedades que generan un defecto estético muy importante para los pacientes, y en el que hay muchos intereses económicos en juego, por parte del sector farmacéutico; ello debería redundar en una mayor inversión en investigación. Quisiera preguntar a los autores si conocen cómo está la situación nacional en proteómica, qué grupos están investigando y sobre qué, y si la industria farmacéutica está mostrando algún interés en la ciencia proteómica. Un afectuoso saludo al foro. En el Servicio de Dermatología del Hospital Clínico San Carlos se está llevando a cabo un importante estudio sobre la aplicación que puede tener la proteómica en dos enfermedades dermatológicas tan prevalentes como son la psoriasis y la alopecia androgenética y las alteraciones proteómicas producidas tras la administración de determinados tratamientos. Este estudio podría llevar en un futuro no muy lejano a un mejor conocimiento de estas dos enfermedades y a optimizar el uso de los tratamientos disponibles para las mismas, así como el posible desarrollo posterior de nuevas dianas terapéuticas. proteína es cero). Basándonos en estas dos características únicas y exclusivas de cada proteína vamos a poder definir un mapa de expresión proteico en el que cada proteína va a poder ser identificada según una coordenada de peso molecular y punto isoeléctrico. La bioinformática aplicada a la proteómica es el conjunto de técnicas para el procesamiento e interpretación de los datos obtenidos previamente. Existe un gran número de proteínas descubiertas de las que aún no se dispone de información acerca de su función. El descubrimiento de estas funciones forma parte del futuro de la proteómica. Proteómica clínica. La proteómica clínica se ha definido como la parte de la proteómica que aplica las técnicas y estrategias de la proteómica en el campo de la Medicina. Los aportes de la proteómica en el futuro van a ser muy importantes. Entender cual es el funcionamiento de un organismo normal sano nos puede llevar a desarrollar tratamientos para curarlo cuando esté enfermo. Cuando hay una enfermedad, se producen cambios en el proteoma o conjunto de proteínas que pueden servir para entender el mecanismo de producción de la enfermedad que hay detrás. Al estudiar estos cambios producidos en el proteoma cuando hay una enfermedad, también podemos estudiar los cambios producidos en el proteoma cuando aplicamos un determinado tratamiento y así poder ver si el tratamiento está siendo efectivo. En los últimos años se está poniendo mucho esfuerzo en el desarrollo de biomarcadores o marcadores biológicos que indican si una enfermedad está activa o no. Para conocer estos biomarcadores es necesario conocer la proteómica de la enfermedad. En un primer momento, estos biomarcadores podrán proporcionar información de si el tratamiento está siendo efectivo y de si la enfermedad está activa o no. En la práctica, la proteómica no será la que se utilice en la aplicación clínica, pero dirá que biomarcadores es necesario buscar. Las técnicas proteómicas se pueden aplicar tanto para el análisis de tejidos sólidos como fluidos para estudiar situaciones fisiológicas o patológicas (cáncer, inmunidad, infecciones, ). Estos estudios con tejidos y/o fluidos se han empleado con el objetivo de identificar biomarcadores, búsqueda de dianas terapéuticas o en estudios de farmacoproteómica. La utilización de tejidos sólidos en estudios de proteómica presenta el inconveniente de la mayor dificultad de acceso a las muestras. Esta afirmación no resulta tan cierta si la aplicamos al campo de la Dermatología, ya que la obtención de muestras tisulares resulta mucho más sencilla que en otros campos. La mayor parte de los estudios proteómicos realizados hasta ahora se han centrado fundamentalmente en el estudio de patologías como el cáncer o enfermedades autoinmunes, donde se han realizado los primeros intentos de aplicar la proteómica con propósitos tanto diagnósticos como pronósticos. Además, tanto la identificación de las proteínas como la identificación de la naturaleza y posición de las modificaciones que han sufrido es fundamental para lograr entender su posible implicación en el desarrollo de cualquier enfermedad. Además, en la actualidad es prácticamente nulo el conocimiento sobre las modificaciones en el nivel de expresión de las diferentes isoformas de una proteína. Aunque hoy en día son muy pocos los datos proteómicos existentes sobre las patologías de origen dermatológico, es muy probable que en pocos años el conocimiento en este área aumente de forma considerable permitiendo una mejor comprensión de la enfermedad. En este sentido, la proteómica tiene o tendrá el potencial de revolucionar el modo de diagnosticar, determinar el riesgo y el pronóstico clínico así como las estrategias terapéuticas a seguir entre individuos. Asimismo, define una base biológica racional para lograr unir directamente la influencia de los factores medioambientales con el producto final de la expresión génica: las proteínas. La proteómica ofrece la posibilidad de comprender en toda su complejidad las enfermedades de origen dermatológico, brindando así la posibilidad de encontrar nuevas vías de actuación para corregir un estado patológico. La proteómica no sólo tiene aplicaciones en Medicina, si no también en otros campos como la biotecnología, campo en el que la proteómica hará una importante aportación para el desarrollo de nuevos compuestos, plásticos, nuevos fármacos o procesos más respetuosos con el medio ambiente, que es lo que la sociedad actual demanda. Dr. Javier Pedraz Muñoz. Dermatólogo. Hospital Clínico San Carlos. Dr. Eduardo López Bran. Jefe de Servicio de Dermatología. Hospital Clínico San Carlos. 104 "(...) permitirá dirigir las biopsias para un diagnóstico más eficaz (...), y monitorizar la respuesta al tratamiento." IMAGEN DE ELASTICIDAD POR ULTRASONIDOS: ¿PALPACIÓN O BIOPSIA VIRTUAL? Dr. JUAN ARRAZAOLA. Desde siempre la medida de la elasticidad de los tejidos ha sido utilizada por la práctica médica como indicador de la aparición de patologías en los diversos órganos. Es un hecho bien conocido que las propiedades mecánicas de los tejidos patológicos difieren de las de los tejidos que los rodean. La práctica médica de la palpación lo ilustra con claridad. Hipócrates describió la dureza del cáncer de mama hace casi dos mil quinientos años y la palpación ha sido uno de los principales métodos para la detección y caracterización de numerosas enfermedades antes de la aparición de la imagen diagnóstica. Dr. JUAN ARRAZOLA La imagen de elasticidad o elastografia es una extensión del antiguo arte de la palpación como técnica que directamente revela las propiedades físicas de los tejidos y nos permite determinar los cambios de rigidez y dureza tisulares causados por la enfermedad. Las principales modalidades diagnósticas para realizar imagen de elasticidad son la resonancia magnética (RM) y los ultrasonidos (US), siendo ésta última la que más ha atraído la atención. La física de la elasticidad se basa en la mecánica y está relacionada con la distorsión que un tejido sufre cuando es sometido a una fuerza o presión externa. La medida de la deformación tisular por el análisis de los ecos de los ultrasonidos durante la aplicación de una fuerza fue descrita hace 20 años y, desde entonces, se han venido desarrollando diferentes técnicas con el objetivo de medir y representar con imágenes la elasticidad de los tejidos corporales. Existen varias formas de realizar elastografia por US, siendo las principales la que calcula el módulo elástico a partir de la deformación tisular resultante de la realización de una compresión y la que utiliza el Doppler color para generar una imagen del movimiento tisular en respuesta a las vibraciones externas. La elastografia por US puede realizarse con transductores lineales para uso percutáneo, con sondas endocavitarias rígidas y con endoscopios flexibles. En el caso de las técnicas percutáneas, las sondas pueden utilizarse para comprimir el tejido, mientras que en la ecografía endoscópica las pulsaciones cardíacas y arteriales o el movimiento respiratorio causan la deformación tisular a partir de la cual se genera la imagen. La imagen de elasticidad es posible para casi todos los tejidos. En la mama la elastografia aumenta la eficacia de la ecografía y la mamografía para la detección del cáncer. En el tiroides, en la próstata y en el páncreas han sido diagnosticadas lesiones con éxito usando la elastografia. También ha demostrado ser útil para valorar los ganglios linfáticos. El estudio de la enfermedad hepática difusa incluyendo la cirrosis también es posible con este método. Así mismo, ha demostrado un gran potencial en la imagen vascular incluyendo el miocardio, la pared de los vasos, la placa y el trombo venoso. Trabajos recientes utilizando la elastografia para valorar materiales porosos sugieren que puede ser útil para monitorizar la severidad del linfedema y estudios de simulación de melanomas demuestran su potencial para usarse con imágenes de dermoscopia. Ahora bien, a pesar de sus múltiples potenciales aplicaciones, su uso más extendido es para la detección de tumores malignos. Cuando un tumor infiltra o crece en un tejido, 105 cambia las características de rigidez o dureza de dicho tejido, volviéndolo más duro por el aumento de densidad celular o vascular. La gran sensibilidad a los cambios de rigidez permite a la imagen de elasticidad demostrar cambios que no son visibles en la imagen de ultrasonidos convencional. La patología que tiene el mismo patrón de ecos que los tejidos que la rodean (isoecoica) puede ser identificada por ser ligeramente más rígida incluso aunque todavía no pueda ser percibida por la exploración manual. Así, la elastografía puede diferenciar entre tejidos duros y blandos, visualizando los blandos en un tono claro y los duros como un área oscura. Ahora bien, como a veces en la imagen con escala de grises las lesiones duras son casi indistinguibles, de forma similar a la ecografía con dopplercolor la dureza relativa de los tejidos aparece representada por colores sobre impuestos sobre la imagen modo-B convencional y así es más fácil distinguir los tejidos elásticos de los rígidos. El sistema visualiza a continuación la forma y posición del tumor en color, donde el color verde indica un bulto benigno y el color rojo un tumor maligno (Fig 1). Figura 1.- Carcinoma medular de tiroides. Imagen de US convencional modo-B (A) e imágenes de elasticidad en escala de grises (B) y en color (C). En el lóbulo tiroideo izquierdo se aprecia un nódulo sólido cuya ecogenicidad similar al parénquima tiroideo dificulta su delimitación. Las imágenes de elasticidad muestran que el tumor es más duro (oscuro-rojo) que el parénquima normal circundante. Por otra parte, trabajos recientes han confirmado que el cáncer tiende a aparecer más grande en la imagen de elasticidad que en la imagen de ultrasonidos convencional mientras las lesiones benignas tienden a aparecer más pequeñas. La extensión de la imagen de elasticidad de las lesiones malignas refleja con mayor seguridad el tamaño del tumor que la imagen convencional ya que puede demostrar áreas de rigidez en el tejido adyacente relacionadas con el tumor. Así pues, esta tecnología tiene la capacidad de proporcionar información sobre las distintas texturas tisulares de acuerdo a sus características ecográficas, produciendo marcados contrastes en las densidades de los tejidos estudiados y representarlas con colores diversos que pueden sugerir y orientar sobre la presencia de tejido neoplásico maligno en los órganos estudiados. La elastografía puede ser de gran utilidad para seleccionar áreas del órgano o tejido estudiado con mayor sospecha de malignidad y dirigir la biopsia, o determinar los ganglios linfáticos a muestrear en caso de adenopatías múltiples en pacientes con neoplasias sospechosas para malignidad (Fig 2), características éstas que han llevado a algunos autores a denominarla como histología o biopsia virtual. Figura 2.- Adenopatía axilar en una paciente con carcinoma de mama. Imagen de US convencional modo-B (A) e imágenes de elasticidad en escala de grises (B) y en color (C). Adenopatía con características ecográficas sospechosas en la imagen de US convencional cuya apariencia en las imágenes de elasticidad (oscuro-rojo) sugieren contenido neoplásico maligno. 106 En conclusión, utilizando imagen de elasticidad se pueden distinguir las lesiones malignas de las benignas o del tejido normal. La imagen de elasticidad nos permitirá dirigir las biopsias para un diagnóstico más eficaz del cáncer así como excluir malignidad con una posible reducción del número de biopsias. También permitirá determinar la extensión tumoral y monitorizar la respuesta al tratamiento. La imagen de elasticidad usada junto con la imagen modo-B convencional y la imagen Doppler-color, puede mejorar la seguridad diagnóstica. Dr. Juan Arrazola. Jefe del Servicio de Radiodiágnostico del Hospital Clínico San Carlos. "alimentar a los niños prematuros con leche materna o leche humana donada es superior a hacerlo con fórmulas derivadas de leche de vaca" UN BANCO DE LECHE HUMANA: PRIMER AÑO DE EXPERIENCIA EN EL BANCO DE LECHE HUMANA DEL HOSPITAL 12 DE OCTUBRE. Mª CARMEN MEDINA. ¿Para Qué Un Banco de Leche? A medida que ha ido mejorando la supervivencia de los niños que nacen muy prematuramente, se ha incrementado la preocupación por las secuelas que puedan tener en la infancia, en la adolescencia e incluso en la edad adulta. Actualmente se pretende alcanzar el mejor desarrollo posible para ellos. Los cuidados para mejorar ese desarrollo consisten en crear un ambiente similar al de la vida intrauterina, procurar tiempos de sueño tranquilo, evitar el dolor, fomentar que su alimentación sea con leche materna, y facilitar la participación activa de los padres. (1,2). La leche materna es el alimento natural idóneo para criar a los seres humanos y el alimento óptimo para el niño prematuro. La OMS establece que La leche humana es el alimento de elección durante los primeros 6 meses de vida para todos los niños, incluidos los gemelos, los prematuros y los niños enfermos, salvo rarísimas excepciones. (3). Está cientificamente probado que alimentar a los niños prematuros con leche materna o leche humana donada es superior a hacerlo con fórmulas derivadas de la leche de vaca, en cuanto a que mejora la tolerancia digestiva, disminuye la frecuencia de enfermedades como la enterocolitis necrotizante, mejora el desarrollo psicomotor en la primera infancia y disminuye los factores de riesgo cardiovascular. (4,5,6,7) Su uso en pequeñas cantidades como trófico intestinal desde las primeras horas de la vida se asocia también con un menor tiempo de utilización de catéteres centrales, menor frecuencia de infección nosocomial y mayor supervivencia.8 Por todo ello, se debe hacer el esfuerzo necesario para que las madres de los neonatos enfermos o prematuros consigan lactarlos a pesar de la dificultad que supone para ellas tener a sus hijos hospitalizados. Mª CARMEN MEDINA Dada la extrema inmadurez de los niños muy prematuros y la situación anímica de los padres, resulta especialmente difícil que reciban lactancia materna. Es fácil entender que se retrase la disponibilidad de leche materna. Retrasar la alimentación enteral hasta disponer de leche materna supone, en la práctica clínica, mantener mas tiempo los catéteres centrales para nutrición parenteral, lo que aumenta el riesgo de infección nosocomial. 107 La OMS y UNICEF recomiendan que Cuando no se disponga de leche de la propia madre, la siguiente opción para la alimentación del niño es la leche pasteurizada de madres donantes seleccionadas, sobre todo si se trata de niños enfermos o prematuros. (3) ¿Qué es un Banco de Leche Humana? Un Banco de Leche Humana (BLH) es un sistema para disponer de leche humana en cualquier momento y poder iniciar así la alimentación trófica a todos los niños enfermos o prematuros, a la espera de que sus madres les puedan dar su propia leche. (9). Un BLH es un centro especializado donde la leche humana donada por madres seleccionadas, se recibe, se procesa, se almacena y se distribuye a otros niños que no pueden recibirla de su propia madre. La donación es altruista y la dispensación se hace bajo criterio médico. (10) Un Poco de Historia. El antecedente histórico de los BLH fueron las amas de cría que alimentaban simultáneamente a sus hijos y a los de otras mujeres. Los bancos de leche nacieron en Viena en 1909 y se desarrollaron a lo largo del siglo XX. Algunos hechos favorecieron su desarrollo, como la sociedad industrializada con la incorporación de la mujer al mundo laboral, el desarrollo de las técnicas de conservación en frío, o la necesidad social de mejorar la supervivencia de los niños mas delicados tras las guerras mundiales que diezmaron la población. En cambio, otros hechos entorpecieron su crecimiento, como la industrialización de las fórmulas lácteas derivadas de la leche de vaca que desplazaron a la lactancia materna, o la aparición del virus de la inmunodeficiencia humana que infundieron el temor de su transmisión como estaba sucediendo con los bancos de sangre. Coincidiendo con el inicio del siglo XXI, los BLH tienen un nuevo apogeo en paralelo al reciente impulso de la lactancia materna. Bancos de Leche Humana en el Mundo. Mª José Jiménez comentó el artículo en www.proyectonets.org: Es un artículo muy interesante, por el enorme trabajo que conlleva instaurar un proceso tan complicado y, especialmente por los resultados tan llamativos, sobre todo en la disminución de la estancia media, lo que sugiere que es un esfuerzo que mejora la eficiencia del servicio. Parece evidente que las madres que son posibles donantes no tienen problemas para donar su leche para otors niños con problemas, pero me surge la duda de cómo es la aceptación de las madres de los niños receptores, aunque al ser por prescripción médica, supongo que no plantean nigún problema. Existen BLH en todo el mundo: Europa, Estados Unidos, Centroamérica Suramérica y Australia. En los países escandinavos hay numerosos BLH mayoritariamente vinculados a las unidades neonatales y prácticamente todos los niños prematuros o enfermos reciben leche de su madre o leche humana donada. En Gran Bretaña y Estados Unidos se han creado redes de BLH para unificar criterios y potenciar la creación de nuevos bancos. Mención aparte merece la Red Brasileña de Bancos de Leche, la mas importante y prestigiosa, constituida por 256 centros, con criterios comunes y estándares de calidad bien establecidos. (9, 10, 11, 12, 13) A partir de la red brasileña se ha constituido la red iberoamericana que incluye bancos de Argentina, Brasil, Paraguay, Venezuela, Bolivia, y Uruguay y a la que se ha adherido el BLH del Hospital 12 de Octubre de Madrid. En España existe desde 2001 el BLH de las Islas Baleares que depende del Banco de Sangre y Tejidos de las Islas Baleares. Durante la I Reunión Nacional de Bancos de Leche que tuvo lugar en Palma de Mallorca en 2008 se constituyó la Asociación Española de Bancos de Leche Humana (A.E.B.L.H.). Entre sus objetivos destacan fomentar la lactancia materna, crear unas guías españolas y apoyar la creación de nuevos bancos de leche humana. ¿Cómo Funciona? Un BLH trabaja para preservar al máximo la calidad y seguridad de la leche que ofrece a niños enfermos o prematuros y se basa en tres pilares fundamentales: a) las mujeres donantes, b) el procesamiento de la leche. c) los receptores. Las donantes son mujeres sanas, de vida saludable, que lactan satisfactoriamente a su hijo y que deciden además donar leche para beneficio de niños enfermos o prematuros. La selección de donantes se realiza por entrevista personal y negatividad de una serología actual de sífilis, VIH, Hepatitis B y C. La donación se puede iniciar en cualquier momento de la lactancia, pero se recomienda esperar entre 3 y 8 semanas desde el parto para que 108 la lactancia de su propio hijo esté correctamente establecida. Es variable entre bancos pero, en nuestra opinión, no hay límite superior en los meses que una mujer puede estar donando. El procesamiento de la leche se inicia con la extracción, conservación y transporte. Para mantener al máximo la calidad de la leche humana extraída, se ha de cuidar la higiene en la extracción, la idoneidad de los recipientes y el manteniendo de la cadena de frío. En todas las fases del procesamiento se evita escrupulosamente la contaminación microbiana y las oscilaciones en la temperatura de conservación. La presencia de microorganismos en la leche facilita la degradación de sus componentes básicos y conlleva la pérdida de calidad. El BLH facilita a la donante los recipientes estériles y etiquetas identificativas para rotular cada bote. Algunos bancos realizan recogida domiciliaria de la leche. Cuando la leche donada se recibe en el banco, se registra y se almacena a 20ºC hasta su pasteurización. La leche que se va a pasteurizar se descongela en forma controlada y se selecciona por sus características organolépticas (color, aroma, cuerpos extraños) desechando aquellas muestras que no cumplan los criterios establecidos. (Figura 1) Además, se suele hacer otra selección previa para descartar leche muy contaminada, bien por cultivo microbiológico o por determinación de acidez titulable que establece el nivel de calidad de la leche, siendo rechazada la que tiene una acidez =8º Dornic. Ambos métodos de selección se correlacionan estrechamente.(10,14) Se realiza tambien un crematocrito para conocer el Figura 1: Técnico del Banco de Leche durante la selección previa a la pasteurización de la leche donada. Figura 2: Botes de leche donada durante la pasteurización. El control de temperatura se realiza en un bote testigo. contenido calórico de esa muestra concreta. La pasteurización se realiza por el método Holter que persigue la inactivación del 100% de los microorganismos patógenos. Este método consiste en someter la leche a 62,5ºC durante 30 minutos, seguido de enfriamiento rápido a 5ºC. (Figura 2) Tras la pasteurización se toma una muestra de la leche para cultivo microbiológico y se vuelve a congelar a -20ºC hasta su dispensación. El resultado del cultivo postpasteurización debe ser estéril para dispensar la leche; en caso contrario, se desecha. El tiempo máximo de almacenamiento postpasteurización suele establecerse en 3 meses. Los receptores son neonatos con riesgo de enterocolitis necrotizante, como los prematuros, los que tienen enfermedad quirúrgica abdominal o aquellos con cardiopatías congénitas y bajo gasto. La leche humana donada y pasteurizada se administra bajo prescripción médica. Al estar la leche clasificada en función de la acidez y el crematocrito se elige la mas idónea para cada receptor en función de sus necesidades, por ejemplo: máxima calidad y pocas calorías para alimentación trófica, o leche hipercalórica para el proceso de engorde. (Figura 3) Trazabilidad, Registros y Base de Datos. Como parte fundamental de la seguridad en todos los procedimientos hay que garantizar la trazabilidad de la leche desde la donación hasta su recepción, por lo que se requiere un cuidadoso registro de las mujeres donantes, de las muestras de leche donada, de los 109 Figura 3: Niño prematuro de 24 semanas de gestación. Candidato prioritario para beneficiarse del Banco de Leche. procedimientos de selección y pasteurización, del almacenamiento, de la dispensación y de los receptores finales del producto, todo ello integrado y relacionado en una base de datos creada con este fin que facilita el trabajo del banco. Experiencia del 1º Año de Funcionamiento en el Hospital 12 de Octubre de Madrid. En diciembre de 2007 se puso en marcha el BLH del Servicio de Neonatología del Hospital 12 de Octubre de Madrid. La experiencia del primer año de funcionamiento ha sido muy positiva. Se han aceptado 83 mujeres donantes de entre 95 solicitantes; las causas de rechazo han sido serologías positivas, haber recibido transfusiones o vacunas de virus vivos en los meses previos a la donación, o hábitos de vida poco saludables. Algunas donantes son mujeres con hijos ingresados en Neonatología que disponen de mucha leche congelada y deciden donarla al banco cuando sus hijos reciben el alta; así se recibe calostro y leche prematura, idóneas para los receptores prematuros. En el primer año se han recibido 495 litros, se han llevado a cabo 215 procesos de pasteurización, y se han dispensado 328 litros a 200 niños ingresados; 65% de los receptores eran menores de 1500 g o menores de 32 semanas de gestación. Un estudio piloto en niños muy prematuros realizado en nuestro Servicio de Neonatología demostró que al disponer de leche humana donada la alimentación enteral se inicia 14 horas antes (p<0,001), la alimentación enteral completa se alcanza 36 horas antes y la estancia media disminuye en 6 días. También se observó que el hecho de disponer de leche humana donada no modificaba la tasa de lactancia materna al alta del niño, que se mantuvo en torno al 60%. (15) Conclusión. Por razones de extensión, la bibliografía de este artículo no ha sido publicada aquí, puedes encontrarla en www.proyectonets.org o solicitarla por correo electrónico en edicion@proyectonets.org. Los beneficios de la leche humana donada y pasteurizada para la salud de los neonatos enfermos está ampliamente demostrada. Ahora bien, muchos de los procedimientos que se utilizan en los BLH se basan en opiniones de expertos, por lo que hay gran variabilidad entre unas prácticas y otras, o entre unas guías y otras. Son necesarios más estudios de investigación para determinar los procedimientos que mejor protejan la calidad de la leche humana. Mª Carmen Medina López. Neonatólogo. Jefe de Sección de Neonatología del Hospital 12 de Octubre. Responsable del proyecto y puesta en marcha del Banco de Leche Humana. 110 ADELÁNTATE AL FUTUR net "Cabe preguntarse si el impacto de la secuenciación masiva alcanzará (...) el diagnóstico microbiológico." SECUENCIACIÓN MASIVA EN MICROBIOLOGÍA CLÍNICA, O LA CIENCIA DE ENCONTRAR UNA AGUJA EN UN PAJAR. Dr. JESÚS MINGORANCE. Dr. JESÚS MINGORANCE Mª José Jiménez comentó el artículo en www.proyectonets.org: Supongo que por su complejidad y coste todavia nos puede parecer a los médicos y a los gestores una técnica de "cienciaficción" para el diagnóstico clínico, pero los dos ejemplos comentados en el artículo (el del nuevo arenavirus en los tres receptores de un mismo donante, y el del poliomavirus relacionado con el carcinoma de células de Merkel) son muy ilustrativos de lo intersantísimo de esta técnica, y del valor que puede aportar para la resolución diagnóstica de problemas que todavía se nos escapan en la práctica diaria, especialmente en este mundo globalizado que cada cierto tiempo "tiembla" ante la aparición de nuevos virus que pueden a matar a miles de personas, en cualquier parte y en poco tiempo. ¿Cómo encontrar un microorganismo escondido entre miles de células humanas cuando no puede cultivarse? ¿Cómo encontrar una pequeña secuencia de ADN entre miles de megabases de ADN humano si no se conoce la secuencia buscada? No se trata, en absoluto, de una situación tan rebuscada como pudiera parecer a primera vista, y dista mucho de ser trivial. Sin embargo, parece que la solución está en camino... La última revolución en Biología Molecular se llama Secuenciación Masiva, y parece que podría ser la herramienta definitiva para encontrar agujas perdidas en pajares microbiológicos. Lo que aquí llamamos Secuenciación Masiva incluye varias tecnologías diferentes capaces de realizar de una sola vez cientos de miles de reacciones de secuenciación de ADN, y de leer, por lo tanto, cientos de megabases ó gigabases de secuencia (una megabase es un millón de pares de bases de secuencia, y una gigabase son mil millones). Existen, en este momento, cuatro plataformas comerciales de secuenciación masiva, todas ellas diferentes, pero todas ellas combinando exquisitos diseños bioquímicos, procesos de emulsificación y microfluídicos y detectores de luz ultrasensibles. Todo ello sustentado en sistemas informáticos con capacidad para almacenar y manejar enormes masas de datos, y programas diseñados específicamente para leer y filtrar miles de secuencias, ensamblarlas, anotarlas ó compararlas con bases de datos externas. La Secuenciación Masiva supone un salto cuantitativo y cualitativo en cuanto a la capacidad para buscar y analizar información genética, y en algunas áreas es un hito que marca un antes y un después. El análisis metagenómico de comunidades microbianas, por ejemplo, se ha transformado completamente, y ha pasado de apenas arañar algunos datos acerca de alguna comunidad microbiana, a poder caracterizar en detalle y cuantitativamente su composición, e incluso a describir flujos metabólicos y ensamblar los genomas más representados utilizando ADN aislado directamente de las muestras. Sin cultivar un solo microorganismo. Esto, que aún pone los pelos de punta a muchos microbiólogos, significa, según los defensores de la metodología, que los resultados no están afectados por los sesgos introducidos por los métodos de cultivo. En el área de la microbiología clínica son relevantes la amplia, y creciente, colección de genomas de microorganismos patógenos y la posibilidad de caracterizar floras bacterianas completas y sus variaciones en relación con algunas patologías. Cabe preguntarse si el impacto de la secuenciación masiva alcanzará, además, el área más directamente relacionada con la clínica: el diagnóstico microbiológico. En principio existen todavía limitaciones importantes, como el precio y la complejidad de las técnicas. Pero no son dificultades insalvables, y seguramente ambas disminuirán conforme el uso de las tecnologías se vaya extendiendo. La posibilidad de secuenciar todo el material genético contenido en una muestra clínica es lo más parecido a una varita mágica capaz de separar una por una todas las briznas de paja del proverbial pajar, clasificarlas según sus propiedades, y encontrar la dichosa aguja perdida Se trata de una herramienta capaz de detectar e identificar el material genético de un microorganismo patógeno en cualquier muestra, independientemente de su complejidad. Uno de los primeros y más extraordinarios casos de aplicación de la secuenciación masiva en microbiología clínica, ha sido la identificación de un nuevo arenavirus en muestras obtenidas de tres receptores de órganos de un mismo donante que fallecieron varias 112 semanas después de recibir el transplante, las tres con fiebre y diversos grados de encefalopatía que sugerían una enfermedad infecciosa (Palacios et al.). Para determinar la causa de los fallecimientos se realizaron cultivos bacterianos y virales, y se investigó la presencia de más de una veintena de virus, micobacterias, micoplasmas y toxoplasma mediante PCR, sin obtener resultados positivos en ningún caso. Se analizaron las muestras mediante microarrays que contenían diversas sondas virales y bacterianas, sin obtener, tampoco, un resultado positivo. Los investigadores mezclaron entonces ARN purificado de muestras de dos de los pacientes, lo retrotranscribieron a ADN y lo secuenciaron. Obtuvieron algo más de 100.000 secuencias con un tamaño medio de 162 pares de bases. Esta es una característica típica de las tecnologías de secuenciación masiva, producen muchas secuencias, pero muy cortas, lo que supone una dificultad importante a la hora de analizarlas. Después de un proceso de filtrado para eliminar secuencias repetitivas y secuencias de ADN conservadas en vertebrados (y por lo tanto de indudable origen humano), se realizaron búsquedas en bases de datos públicas que culminaron con la identificación de 14 fragmentos similares a varias secuencias de arenavirus. Se analizaron, de nuevo, las muestras originales mediante inmunohistoquímica y PCR, dirigidas ahora a arenavirus, y se confirmó por ambos métodos la presencia de un miembro de este grupo. Utilizando material extraído de las muestras se consiguió infectar una línea celular humana y propagar en cultivo un virus con características morfológicas similares a las de los arenavirus. Pese a estos sugestivos resultados, los autores reconocen que el trabajo no satisface los postulados de Koch. Sin embargo, tanto el contexto clínico como las pruebas moleculares concuerdan en implicar a un nuevo arenavirus en el fallecimiento de los tres receptores del transplante. Un abordaje similar se utilizó para identificar un poliomavirus asociado a carcinoma de células de Merkel, un tipo de cáncer que se produce sobre todo en individuos inmunodeprimidos, sugiriendo una patología infecciosa (Feng et al.). En este caso los investigadores rebuscaron entre casi 400.000 secuencias, para encontrar finalmente dos con cierta similitud a algunos poliomavirus. Una vez identificadas estas secuencias se utilizaron como sondas que indicaron la presencia de secuencias similares en ocho de diez muestras de carcinoma de células de Merkel, y en ninguno de los 59 controles (aunque cinco muestras de origen gastrointestinal dieron una débil señal positiva). Tampoco aquí se cumplieron los postulados de Koch, pero igual que en el caso anterior las pruebas moleculares y los resultados de los controles negativos sugieren que el carcinoma de células de Merkel es una enfermedad infecciosa producida por un poliomavirus. Estos trabajos son pioneros, y los resultados son fascinantes, pero conviene recordar que no existen aún criterios para interpretar correctamente los resultados obtenidos en este tipo de análisis. Como contrapunto, cabe citar un trabajo cuyo objetivo era caracterizar el ADN libre circulante en plasma de voluntarios sanos. Tanto la cantidad, como la identidad y el estado de metilación del ADN libre circulante han sido utilizados como indicadores en diversas enfermedades, pero su valor diagnóstico es aún controvertido. A partir de muestras obtenidas de 50 voluntarios se generaron 450.000 secuencias (más de 75 millones de pares de bases en total). De ellas, el 87% tenían correspondencia en las bases de datos, y entre éstas el 0.16%, 0.02% y 0.01% eran de origen bacteriano, viral y fúngico respectivamente (Beck et al.). Estos porcentajes no son despreciables, y subrayan la necesidad de calibrar la técnica, secuenciar diversos tipos de muestras y cuantificar la presencia de material de origen exógeno, para valorar su significación en cada contexto. Esto es algo que llevará su tiempo, porque dadas las dificultades de índole tanto económica como práctica, parece poco probable que se destinen recursos a estudios de validación metodológica. Mientras tanto, hay que valorar los resultados con tanta prudencia como entusiasmo. La Secuenciación Masiva también puede realizarse de manera dirigida a un gen ó grupo de genes. Por ejemplo, se ha utilizado para caracterizar la población bacteriana de una muestra de pus extraído de un absceso cerebral polimicrobiano secuenciando únicamente un gen bacteriano, y no todo el ADN contenido en la muestra (Al Masalma et al.). Mediante cultivo se aislaron de esta muestra dos especies bacterianas, Streptococcus constellatus y Gemella haemolysans. Los investigadores se dirigieron entonces al gen del ARN ribosomal 16S, que está presente en todas las bacterias, tiene zonas muy conservadas y zonas 113 variables que permiten identificar a la mayoría de especies bacterianas. La secuenciación directa del gen del ARN ribosomal 16S amplificado mediante PCR indicaba la existencia de una población mixta, y resultaba ilegible (la superposición de secuencias impide la lectura). Mediante secuenciación masiva se obtuvieron 2612 secuencias que permitieron identificar 16 especies bacterianas diferentes, incluyendo varias nunca cultivadas, y varias nunca antes descritas en abscesos cerebrales. Este trabajo aporta una nueva visión de la complejidad de los abscesos, pero la secuenciación masiva se realizó sobre una única muestra, probablemente por las cuestiones económicas y prácticas ya mencionadas, y se necesitarán series que incluyan mayores números de muestras para valorar la significación clínica de esta complejidad. La última revolución en secuenciación ya está en marcha, los resultados obtenidos hasta ahora corroboran, una vez más, el valor de la información genética, y aunque parezca sorprendente, más de 30 años después de los trabajos de Sanger, y de Maxam y Gilbert, aún queda mucho por secuenciar. Referencias: 1. Al Masalma M, Armougom F, Scheld WM, Dufour H, Roche PH, Drancourt M, Raoult D. The expansion of the microbiological spectrum of brain abscesses with use of multiple 16S ribosomal DNA sequencing. Clin. Infect. Dis. 2009 May 1;48(9):1169-78. 2. Beck J, Urnovitz HB, Riggert J, Clerici M, Schütz E. Profile of the circulating DNA in apparently healthy individuals. Clin. Chem. 2009 Apr;55(4):730-8. 3. Feng H, Shuda M, Chang Y, Moore PS. Clonal integration of a polyomavirus in human Merkel cell carcinoma. Science. 2008 Feb 22;319(5866):1096-100. 4. Palacios G, Druce J, Du L, Tran T, Birch C, Briese T, Conlan S, Quan PL, Hui J, Marshall J, Simons JF, Egholm M, Paddock CD, Shieh WJ, Goldsmith CS, Zaki SR, Catton M, Lipkin WI. A new arenavirus in a cluster of fatal transplant-associated diseases. N. Engl. J. Med. 2008 Mar 6;358(10):991-8. Dr. Jesús Mingorance. Unidad de Investigación y Servicio de Microbiología Hospital Universitario La Paz de Madrid. Se busca nombre para nueva tecnología. La traducción al castellano de los términos técnicos ingleses puede llegar a ser una tarea ardua. La tecnología que se comenta en el texto tiene en inglés varios nombres, no todos ellos equivalentes. Los términos massive sequencing y massively parallel sequencing hacen referencia a la realización y detección de millares de reacciones de secuenciación diferentes en un único recipiente. Probablemente son los más precisos, y el más breve es el que se ha adoptado en este comentario, aunque su uso puede ser discutible. La expresión secuenciación de alto rendimiento refleja también el carácter masivo de las técnicas, pero puede dar lugar a confusión con otras técnicas de alto rendimiento (high throughput). El término ultra-deep sequencing, hace referencia a la posibilidad de escarbar ó profundizar en la muestra en busca de secuencias poco frecuentes, es el que mejor refleja la idea de buscar una aguja en un pajar. En algunos foros se ha traducido como ultrasecuenciación, que tiene un cierto aire de cómic y superpoderes, aunque es mucho mejor que secuenciación ultra-profunda... Finalmente, el término next-generation sequencing, traducido como secuenciación de última generación alude a la novedad sin hacer referencia a ninguna otra característica, por lo que resulta más comercial que preciso. visítanos en internet www.proyectonets.org nets Innovación y Tecnología en la Salud 114 "the social web has the potential to improve global health greatly and to solve complex problems in health science" GET WITH WEB 2.0 OR BECOME A YESTERDAYS PERSON. RICHARD SMITH. Web 2.0the social webhas the potential to improve global health greatly and to solve complex problems in health scienceas it has already done in particle physics. I heard this message at a conference on global health in Geneva this week, but I also heard that the barriers to these potential achievements are social and cultural not technological. The machines we can fix. Its the peopleparticularly old timers (thats anybody over 40, Im 56)that are the problem. RICHARD SMITH I suspect that most readers of the BMJ couldnt tell you much about Web 2.0despite the journal having had several editorials on the subject. The essence of Web 2.0 is that its bottom up and participative: its created by the many not the few. Most websites are firmly Web 1.0the few wise guys attempting to inform the many. Bmj.com has its Web 2.0 components (blogs and rapid responses), but mostly its a few potentates pushing stuff that they try and pass off as wisdom. Web 2.0 can also be understood by listing its componentsRSS feeds, blogs, wikis, podcasts, social networking sites, mash up technology, etcbut the only way to really understand Web 2.0, as to understand anything, is to jump in and start using it. As an evangelist for Web 2.0 attracted to it by its anarchic, democratizing, iconoclastic potential, I urge friends to start using Facebook. Most are reluctant. My identity will be stolen. I dont want to waste time. My children will be horrified. I dont want my life to be exposed: itll be like being on Big Brother. My friends can chose to stay living in the old world, but I think that they are making a big mistakebecause the appearance of Web 2.0 seems to me a crucial step in entering the information age, more crucial even than the invention of the world wide web. The invention of the web was an essential technical development, but its the social and cultural change that will have far more impact. Ten years ago we used to compare the early days of the web with the early days of filmwhen directors used one camera fixed on actors on a stage. It was theatre filmed. Later came outside locations, cutaways, rapid scene switches, stuntmen, car chases, animation, and all the techniques we take for granted. We couldnt see ten years ago how the web would move by analogy from filmed theatre to films, but now we are beginning to see. We also begin to see how Web 2.0 can help solve the really big problemslike the gross inequalities in the world between rich and poor. At the conference in Geneva we heard about the Peoples University, which aims to provide free education for health workers in the poor world. Many cannot afford the fees of the distance learning courses of Western universities, and so a group from Edinburgh has started free learning based on using open access material. The amount of such material is increasing rapidly, but its educational value is increased by adding teaching and assessment based on the material. Thats what the Peoples University is doing. The university is still a bit Web 1.0, confessed x. Itll be more Web 2.0 when the students set the curriculum and do the assessment. That will come. Particle physicists have been among the first to grasp the potential of Web 2.0 to solve previously insoluble scientific problems by linking computers around the world in the Atlas project. E-science is not about technology but about global interaction: its a social not a technological development. Biologists are using Web 2.0 capabilities to unravel the 115 human genome, but weve been slower in health to exploit the possibilities. And our tardiness is social. The Global Fund for responding to AIDS, TB, and malaria has tried to use Web 2.0 through Myglobalfundatwork, but the response has been slow. The reasons, said the manager of the project, are generational, educational, cultural, linguistic, and psychological. Many health workers come from very respectful cultures where the young do not criticize the old. For many people its a huge and terrifying step to press a button and potentially allow the whole world to read your words. Doctors, I fear, are too fond of a top down worldbecause they are usually at the top. But that top down world is crumbling. Think of Ceaucescus statue being hauled down and smashed. Thats the old world of Web 1.0. Get with Web 2.0 in a serious way or become a yesterdays person. Richard Smith, Former Editor BMJ. "se requiere implantar la investigación de resultados en salud en los contextos clínicos" ¿PODEMOS CON TODO, PARA TODOS Y GRATIS?: A PROPÓSITO DE LAS TECNOLOGÍAS ÓMICAS Dr. JUAN DEL LLANO y JOAN ROVIRA. Dr. JUAN DEL LLANO Las tensiones entre las expectativas de mejoras en la salud que generan los avances de las tecnologías sanitarias y el coste que generan a los sistemas de salud no son un problema reciente, sino que están situados de forma permanente en los debates sobre la política sanitaria desde los años setenta del siglo pasado, coincidiendo con un conjunto de factores que incluye un determinado nivel de madurez de los sistemas de salud públicos, el envejecimiento de la población, y la crisis económica y fiscal asociada al alza de los precios del petróleo y a la desregulación de los mercados financieros. Las posturas sobre los conflictos entre innovación tecnológica y sostenibilidad de los sistemas de salud van desde las predicciones apocalípticas respecto al inevitable colapso financiero que generará el imparable incremento del coste sanitario asociado a la innovación tecnológica y al envejecimiento de la población, a planteamientos pragmáticos que buscan en el desarrollo y aplicación de herramientas de análisis y gestión y en la negociación y la búsqueda de consensos entre objetivos conflictivos, la forma más racional posible de abordar la situación. JOAN ROVIRA 116 La innovación tecnológica es uno de los factores potenciales más importantes de mejora de la salud de la población, aunque su desarrollo no está exento de riesgos y fracasos y sus beneficios no parezcan justificar a menudo los costes adicionales que suponen. El aumento de la renta y el crecimiento de los sistemas de salud públicos con vocación de universalidad, que eliminan o reducen las barreras de acceso y permiten a la mayoría de la población acceder a cualquier tratamiento por costoso que sea, independientemente de su capacidad económica, son dos de los factores que explican esta tendencia, pues liberan la incorporación de las nuevas tecnologías de la restricción que supone la renta y la disponibilidad a pagar de los usuarios. Ante esta ausencia de restricción presupuestaria por parte de la demanda, los sistemas de salud pueden optar por: a) establecer prioridades y mecanismos de racionamiento transparentes que reflejen los objetivos de la política de salud, o b) dejar que actúen mecanismos de racionamientos espontáneos e implícitos, tales como las listas de espera. La segunda opción puede tener menos costes políticos que la primera, pero es sin duda mucho más negativa en términos de equidad y eficiencia. La evaluación de tecnologías sanitarias, concepto amplio en el que se inserta la evaluación económica, constituye uno de los instrumentos clave para informar los procesos de establecimiento de prioridades y asignación de recursos guiados por los objetivos de equidad, efectividad y eficiencia. Algunos de los retos y limitaciones para la aplicación de la evaluación económica en un ámbito de la medicina estratificada, conocido coloquialmente como las tecnologías ómicas, donde la perspectiva de aparición de nuevas opciones diagnósticas y terapéuticas efectivas, pero también de elevado coste, parecen más inminentes. ¿Se precisa la identificación de aspectos específicos en la valoración del impacto socioeconómico de las ómicas que debieran tenerse en cuenta en la realización de los estudios de evaluación económica y en el establecimiento de las correspondientes guías o estándares metodológicos?. Pensamos que lo que se requiere es implantar la investigación de resultados en salud en los contextos clínicos cómo se ha hecho desde hace quince años con la medicina basada en la evidencia, demostrando su utilidad en las decisiones clínicas, que va más allá de la demostración de eficacia, pues aborda efectividad y eficiencia, teniendo un rol sustantivo en la evaluación económica que permite informar las decisiones de asignación de recursos en salud. Todo ello, precisa de la necesaria estandarización de la metodología de la evaluación económica para mejorar rigor, transparencia y replicabilidad de los estudios de evaluación económica. La Fundación Gaspar Casal ha participado junto con el Grupo para la Evaluación Económica de la Medicina Individualizada del Instituto Roche en un estudio que bajo el título La evaluación económica en Farmacogenómica Oncológica y Hematológica recoge diversas aportaciones de máximo interés sobre farmacogenómica. El estudio ha sido publicado por Medical Economics con ISBN 978-84-95552-82-2. La implantación de un modelo de crecimiento económico en nuestro país distinto al ladrillo, donde la i+d+i, la adopción y la difusión de las innovaciones, vaya adquiriendo masas crítica y presencia real en el mercado, requiere algo más que deseo y buena voluntad. La aproximación a la ciencia como sistema, la clarificación de los papeles de las empresas y de las gobiernos en la i+d+i, los incentivos como facilitadores, el conocimiento de las barreras, el mantenimiento en el tiempo de políticas meditadas y sensatas, acordes a nuestra cultura e idiosincrasia, se nos antojan como algunos factores clave. Qué duda cabe que hay que transitar a un nuevo modelo biomédico con sus implicaciones económicas y de regulación. La medicina estratificada empujará esta transición que advertimos tendrá un impacto económico serio en los sistemas sanitarios y en la necesaria adaptación de los sistemas de regulación. Aunque seamos precisos en la identificación de dianas donde las terapias son ya más eficaces, no debemos obviar que, hay que seguir atendiéndo a los enfermos no vulnerables a estas innovaciones procedentes del desarrollo de las ómicas, que, por consiguiente, seguirán consumiendo recursos, cada vez más escasos y competitivos en sus aplicaciones e indicaciones. Las validaciones de test de cribado, muy relevante en la genómica en cuanto origen de numerosos biomarcadores, tienen una enjundia epidemiológica en absoluto desdeñable pero habitualmente descuidada, que si no se empieza a exigir, propiciará la aparición de barreras administrativas para la su implantación y difusión extensa, por la no discriminación eficaz de aquello que realmente merezca la pena frente a lo que no. La razón, sencilla, es que no hay recursos para todo. Seguramente, la medicina traslacional y los avances en los perfiles clínico de las innovaciones provenientes del desarrollo de las ómicas, precisarán de cambios en la práctica clínica por la radical afectación que tienen sobre paciente y enfermedad. También hay que poner foco en el papel de la biología molecular de las enfermedades y su impacto en los modelos 117 de investigación. El diseño y desarrollo de ensayos clínicos requerirá de tiempos más cortos y muestras más pequeñas, y de la pronta y precisa aprobación de nuevos fármacos de origen biológico por las ventajas que suponen a pacientes con enfermedades hasta hace poco letales. Obviamente, el papel a jugar por las autoridades sanitarias no puede ser reactivo, como hasta ahora, de espera y ver. Se precisará de la implementación de modelos basados en la terapia personalizada que ineludiblemente requieren de cambios en la estructura de las unidades asistenciales. Los aspectos éticos de la medicina estratificada adquirirán un peso específico mayor en el contexto de la sanidad pública. Las agencias de evaluación de tecnologías sanitarias, han de ser una de las garantías para la sostenibilidad del sistema sanitario. Estas organizaciones han de reseñar las necesidades de mejora en la Investigación, a partir de análisis epidemiológicos que incluyan las métricas adecuadas. La difusión y utilización de los marcadores y las barreras a la incorporación en el contexto clínico tienen que ver con su difícil comprensión por parte de los médicos. Llama la atención que al mismo tiempo que se está acelerando el proceso de descubrimiento de nuevos biomarcadores diagnósticos, se están incrementando exponencialmente las dificultades para que estos biomarcadores adquieran valor pronóstico o predictivo. Por otra parte, es obvio que incluso con una adecuada aplicación de la evaluación de las tecnologías sanitarias a las innovaciones, la presión social para incorporar rápidamente dichas tecnologías a la práctica clínica, forzará a tomar decisiones de autorización y financiación de las mismas bajo un nivel de incertidumbre considerable sobre su efectividad y costes. Por ello, en vez de decisiones de de todo o nada en la financiación pública de estas nuevas tecnologías parece razonable apostar por nuevas formas de financiación condicionada o ligada a determinados resultados, como son los contratos de riesgo compartido, que se basan en el criterio de pagar sólo por aquello que funciona o que, por lo menos, se utiliza adecuadamente. El futuro del tema que nos ocupa hay que situarlo en la tendencia a la cronificación de enfermedades hasta hace poco letales. El impacto económico de la medicina estratificada en un marco de precios administrados/intervenidos como el español, hará preciso análisis coste-efectividad y análisis de impacto sobre la salud frente a otras alternativas pues lo que está en juego es si será sostenible nuestro sistema sanitario. Para la industria será una oportunidad de demostrar el valor de estos productos en términos de efectividad relativa. Uno de los aspectos claves será la equidad en el acceso a todas estas nuevas prestaciones que pondrán a prueba los sistemas públicos. Finalmente, pero no en último lugar, la prudencia de los clínicos en la incorporación incesante de nuevas tecnologías en el mercado deber ser el amortiguador saludable que proteja la salud de los pacientes y la sostenibilidad financiera del sistema. Dr. Juan del Llano. Director de la Fundación Gaspar Casal. Joan Rovira Pons. Profesor Emérito de Economía Aplicada de la Universidad de Barcelona. www.proyectonets.org 118 TRIBUNA PROFESIONAL net "no me parece la universidad el lugar adecuado para innovar entre otras cosas, porque existe un gap entre el mundo teórico y el mundo real" INNOVAR DESDE LA UNIVERSIDAD ESPAÑOLA: ¿ES POSIBLE? FCO. JAVIER SEVILLANO. FCO. JAVIER SEVILLANO Tal vez uno tienda muchas veces a leer un determinado artículo, como lo pretende ser éste, apoyado simplemente en un título cuando menos llamativo o que es capaz de atraer la atención de un lector cuyo poco tiempo libre disponible le obligan a seleccionar entre una muy amplia oferta. Si entendemos que este autor, modestamente, lo que pretende es llamar la atención acerca de una reflexión que puede o no ser compartida, la idea de buscar un título atrayente, puede parecer necesaria de cara a lograr el objetivo perseguido. Si uno hubiera optado por un título tan simple, pero claro como: pienso que desde la universidad española no se desarrollan los mecanismos necesarios para dotar a la sociedad de una mayor cohesión entre investigadores y aplicación de la investigación a la vida diaria se habría definido una postura que posteriormente tan sólo tendría que tratar de justificar con la mejor argumentación posible. Pero probablemente muchos de ustedes ya hubieran abandonado la idea de continuar leyendo en tanto no les interesarían mucho más mis, por otra parte, intranscendentes razonamientos. Como están viendo, he invertido más de tres párrafos en tratar de justificar cómo, también en el modesto ámbito de un artículo, hay que buscar mecanismos de innovación para lograr un determinado objetivo. Si quieren que les sea sincero, no acabo de entender muy bien por qué hace unos años lo importante era el I+D (investigación y desarrollo) y nadie hablaba de la famosa i minúscula (innovación), por qué después pasa a ser I+D+i y por qué hoy hablamos de I+D+I situando a la innovación al mismo nivel de las anteriores. ¿Acaso antes no existía, era menos importante, o no sabíamos apreciarla adecuadamente y por ello no le concedíamos el valor que tiene, o que entendemos ahora que tiene?. Probablemente sea un mero problema de concepto no soluble desde las fuentes tradicionales de definición de términos, llámese diccionario o wikipedia. Si lo que pretendemos es entrar de forma directa y sin ambages en materia, plantearé que, desde mi punto de vista, la universidad debe ser entendida como un foro de investigación básica mediante financiación directa, investigación aplicada mediante contratos con empresas e instituciones privadas y, en menor medida, un centro de ideas innovadoras a aplicar en un determinado ámbito. Trataré de justificar cada una de estas premisas. La investigación básica, entendida como aquella que aporta las fuentes para desarrollos posteriores (entendidos como investigación aplicada) debe ser realizada desde órganos donde: a) el personal esté debidamente cualificado, b) no debe perseguir finalidad lucrativa inmediata por cuanto hay que asumir un largo periodo de tiempo de desarrollo y un importante grado de fracaso, y c) la financiación del proyecto pueda ser garantizada a largo plazo de una forma estable. Estas condiciones se cumplen básicamente en las universidades (especialmente públicas) y grandes centros de investigación, y por ello entiendo deben ser el núcleo de desarrollo. Resultado óptimo: la obtención de una patente que permita, mediante posteriores evoluciones, su explotación económica. Resultado habitual (al menos en la universidad española, en mi opinión): escasa obtención de patentes y muy dudosa explotación económica de los procesos de investigación básica. El desarrollo 120 de importantes logros científicos, que sin duda se producen, tiende a ser inmediatamente eclipsado por sistemas de gestión que, probablemente de forma no intencionada, tienden a alejar esa posible fuente de ingresos del órgano que las genera, externalizándolos hacia figuras cuando menos, tangenciales (llámese parques científicos, spin-offs, fundaciones, etc). Si hablamos de investigación aplicada, aquí si es cierto que es el campo principal de desarrollo y gestión económica de las OTRIS (oficinas de transferencia de resultados de investigación de las universidades). La explotación de los denominados contratos, permite la transformación del investigador en un prestatario de servicios de consultoría, asesoramiento científico o apoyo tecnológico, bajo el amparo legal de la universidad como entre contratante frente al tercero. En teoría se trata de trasladar el resultado de la investigación básica o del conocimiento específico al mundo empresarial, labor loable si no fuera porque en este caso la universidad tan sólo ejerce una labor de intermediación contractual dado que normalmente el mercado es buscado directamente por el investigador-docente-consultor-miniempresario o por la empresa que recurre, no a la institución, sino a la persona para la resolución del problema. En otras ocasiones lo que se busca es la rentabilización de grandes inversiones en infraestructuras cobrando en función de los servicios que se prestan a terceros, al crear importantes centros de servicios, especialmente en el área médica y experimental. También aquí, cuando se consigue un determinado volumen de actividad, se persigue la independencia jurídica del centro mediante alguna de las figuras reseñadas en el párrafo anterior. Y finalmente nos queda el tratamiento de la innovación. Y aquí debo reconocer que me invade un dilema moral importante: cuando hablamos de innovación, una de las principales acepciones que yo entiendo, lo constituye el adelantarse a los competidores en la búsqueda de nuevos elementos de diferenciación competitiva que permitan obtener una determinada rentabilidad adicional, cuya eficacia necesariamente ha de ser temporal por propia definición, ya que antes o después, va a ser objeto de benchmarking, es decir, de asimilación por los competidores, perdiendo gran parte de su eficacia inicial. Y mi pregunta es: ¿debe ocuparse la universidad pública de favorecer a determinados competidores frente a otros?. Bueno, si es contratada para ello, no entiendo por qué no. Pero estaríamos en el párrafo anterior, no en el actual. Si la innovación puede ser entendida también en sus aspectos de básica y aplicada, pues podemos aplicar el razonamiento ya descrito anteriormente, pero lamento no ser filólogo para alcanzar la perfecta definición de los términos que utilizo de una manera cuando menos atrevida. En definitiva, aplíquese uno u otro término, de lo que se trata es de mejorar en el desarrollo de productos o procedimientos que permitan un mayor grado de éxito en el objetivo perseguido, llámese éste rentabilidad, mejora de resultados, mejora tecnológica o contribución al desarrollo. Si nos centramos en el área de ciencias de la salud, por citar el ejemplo, es obvio que tanto los procesos de investigación como de innovación y mejora tecnológica no persiguen objetivos económicos primarios, sino de salud pública (mejora de tratamientos, ahorro de tiempos de recuperación, aumento en el grado de éxito de terminadas intervenciones) cuya medición se traduce en una estadística más o menos discutible. La investigación trata de alcanzar lo no conocido hasta el momento, la tecnología posibilita en muchos casos un mejor conocimiento y una mayor precisión a la hora de actuar y la innovación juega como el factor de mejora fruto de la capacidad del innovador para aprovechar el conocimiento y la tecnología existentes para obtener un mejor rendimiento y/o resultado. Innovar, en mi opinión, constituye así, uno de sus principales significados: mejorar a partir de lo que ya se conoce, simplemente interpretando los conceptos de otra manera, o aplicando lo que hasta ahora no se había aplicado a un determinado ámbito. Supongo que a estas alturas ya ha quedado, más o menos clara, mi opinión al respecto: creo que la innovación debe producirse allí donde está la experiencia y el conocimiento en el desempeño de las funciones, no en el marco teórico del conocimiento, sino donde se encuentra la aplicación práctica. Así no me parece la universidad el lugar adecuado para innovar entre otras cosas, porque, no nos engañemos, aún existe un muy importante 121 gap entre el mundo teórico y el mundo real que imposibilita al docente-investigador la visión práctica del asunto. Probablemente este distanciamiento se note más en el campo de las ciencias sociales o experimentales que en el de las ciencias de la salud, pero en mi opinión es indudable que también existe. Las medidas adoptadas desde los poderes públicos, cuyos resultados habrán de ser analizados cuando transcurra tiempo suficiente, buscan en mi criterio, dar soluciones al problema mediante el distanciamiento del investigador del foco natural de la investigación básica. Lo que se viene a potenciar es la separación real del docente hacia fuera de la universidad, inicialmente llevándolo al campo de la práctica profesional donde es posible (caso del sector sanitario) o buscando mecanismos de independencia más o menos controlados (incorporación del investigador a estructuras tipo parques científicos, institutos de investigación independientes, creación de spin-offs en las que la universidad mantiene una leve participación accionarial, etc) o incluso, como un paso mayor, la reciente autorización para que un investigador pueda obtener una excedencia de la universidad con fines de lo que constituye su objeto, la investigación. En fin, a mi me parece una absoluta contradicción todo esto. Resulta que para investigar de manera genérica debo permanecer en la universidad o centro de investigación que es donde se cuenta con la infraestructura y recursos adecuados (porque existe una muy importante financiación pública para ello), pero cuando uno encuentra una aplicación práctica que puede ser objeto de explotación económica inmediata y fuente de recursos para la entidad generadora, es la propia entidad la que tiende a buscar la mejor fórmula para externalizar dicha función y alejarla de sus cuentas de resultados. ¿Es este el modelo científicamente adecuado? Lo desconozco porque me veo incapaz de interpretar sus resultados. ¿Es la mejor fórmula para gestionar económicamente la investigación? Creo que no. Falta una mayor decisión (y sin duda asumir un riesgo) que permita que gran parte del presupuesto del sector universitario público provenga de sus propios logros comerciales. También me gustaría que no hubiera dudas: la financiación pública es garante de equidad y equilibrio, y es absolutamente necesaria para ofrecer un servicio de investigación básica, fundamental y necesario. Lo que creo que falta es gestionar los resultados ya que muchas veces los proyectos se justifican tan solo con el logro científico del que no se sabe muy bien quién se aprovecha económicamente (cuando este resultado existe). Aquí si hay un reto importante pendiente por delante y en el que creo que no es necesario innovar, porque otros ya lo han hecho antes. Apliquemos el benchmarking y sigamos avanzando Fco. Javier Sevillano Martín. Profesor Titular del Dpto. de Economía Financiera y Contabilidad II, Universidad Complutense de Madrid. síguenos en internet www.proyectonets.org nets Innovación y Tecnología en la Salud 122 "(...) es bueno que actualicemos los incentivos al desarrollo de nuevos medicamentos de todos los agentes implicados públicos y privados." INCENTIVOS A LA INVESTIGACIÓN DE MEDICAMENTOS Y PRIORIDADES EN SALUD. PALOMA FERNÁNDEZ. Nunca la investigación en nuevos medicamentos ha sido tan intensa como en la actualidad. Nunca se han invertido tantos recursos, ni se ha contado con investigadores tan cualificados ni con tecnología tan avanzada. Sin embargo, a pesar de los avances que representan muchos nuevos medicamentos, pacientes, médicos, instituciones sanitarias, inversores y la propia industria farmacéutica, están insatisfechos con los resultados actuales. Por ello, revisar los incentivos para la I+D de medicamentos no sólo es oportuno. Es una obligación de todo el sector. PALOMA FERNÁNDEZ La investigación farmacéutica es una actividad altamente costosa y arriesgada y requiere fuertes incentivos que hagan atractivas las inversiones necesarias. Los incentivos clásicos a la I+D de medicamentos funcionan de dos maneras distintas: los que usan mecanismos de empuje (push), están encaminados a reducir el coste de la I+D, generalmente mediante fondos públicos para promover la ciencia e investigación básicas -de forma que el conocimiento generado pueda ser utilizado posteriormente por la industria farmacéutica y otros desarrolladores-, o en forma de consorcios público - privados, reducción de impuestos o del coste del capital, o facilitando los procesos regulatorios. Por su parte, los que se basan en mecanismos de tracción (pull), tienen como finalidad asegurar el mercado y dar valor al producto desarrollado, generalmente en forma de patentes u otro tipo de derechos de propiedad intelectual que aseguren la rentabilidad de la inversión. Estos incentivos clásicos han venido funcionando con éxito durante décadas aplicados a una industria farmacéutica formada por grandes compañías con una estructura monolítica, en la que cada laboratorio desarrollaba prácticamente toda la cadena de valor desde el descubrimiento de una molécula, hasta su desarrollo preclínico, clínico, proceso de registro y posterior comercialización. Pero la realidad actual es muy diferente. En sólo una década, la estructura de la industria y su mercado han cambiado profundamente. La participación de pequeñas y medianas empresas, principalmente de biotecnología, en el descubrimiento y primeras fases del desarrollo de nuevas moléculas supera ya a la del gran laboratorio multinacional, habiéndose establecido entre ellos un activo mercado de moléculas en desarrollo. Además, nuevos agentes han irrumpido con fuerza en el campo de la I+D de fármacos: Investigadores de hospitales, de universidades, de otros centros públicos de investigación, ONGs o, cada vez más, asociaciones de pacientes han empezado a implicarse en el desarrollo de medicamentos. Estos nuevos agentes traen consigo nuevas agendas de investigación al enfocarse en medicamentos para enfermedades, en ocasiones, de escaso interés comercial. Dada la dificultad de la tarea, aparece otro signo característico de los nuevos tiempos: la colaboración y cooperación entre investigadores, centros de investigación o empresas se ha hecho imprescindible y florece la creación de partenariados y redes de investigación. No sólo ha cambiado la actividad de la I+D. También se han producido cambios en el mercado. La creciente exigencia de valor por parte del cliente, que cada vez más aplica criterios de coste-efectividad con variables finales, está haciendo que las empresas reconozcan que pequeñas mejoras no son suficientes y que se orienten hacia necesidades 123 médicas no cubiertas, a poblaciones menores o a modificaciones más radicales del curso de la enfermedad, llegando incluso a consultar con sus clientes sobre qué productos de su portfolio priorizar su desarrollo. Juan del Llano comentó el artículo en www.proyectonets.org: Me ha encantado leer la aportación de Paloma Fernández Cano por la claridad de sus planteamientos. Me permito añadir un aspecto posterior al proceso de investigación-desarrollo-innovación de nuevos medicamentos pero crucial en la cadena de valor que apunta la autora y es el de la diseminación. Es razonable pensar que existen numerosas barreras entre la investigación y la clínica. Sin embargo, hay notables excepciones que demuestran que cuando no existen tales barreras, la investigación mejora en cantidad y calidad y la clínica mejora sus resultados. De ahí el énfasis en poner de manifiesto la necesidad de una investigación que facilite la aplicación clínica práctica de los conocimientos adquiridos en la investigación básica. A pesar de lo cual, la investigación clínica aplicada sigue siendo un gran reto. Por último, hay que destacar las tensiones inherentes a una actividad de requerimientos científicos y tecnológicos tan exigentes, que conlleva que sólo organizaciones altamente especializadas como la industria farmacéutica pueden acometerlas y que los incentivos existentes sean inadecuados para que la industria desarrolle medicamentos para personas y colectivos que no pueden pagarlos. Es decir, la realidad de la I+D farmacéutica es hoy mucho más poliédrica y compleja que hace una década. Se requiere, por tanto, actualizar los incentivos tradicionales a la innovación farmacéutica frente a esa nueva realidad, si se quiere impulsar la obtención de nuevos medicamentos del tipo y al ritmo que los pacientes y la sociedad global del siglo XXI necesitan. Pero no es algo sencillo. El declive de la productividad de la I+D farmacéutica (figura 1) es una de las principales preocupaciones en los despachos del sector y está provocando una nueva oleada de procesos de reestructuración de las compañías farmacéuticas y biotecnológicas. De la investigación básica a la clínica. De la biotecnología sanitaria a la salud de la población, pasando por los enfermos y la enfermedad. Es la cadena de valor, que requiere una visión unitaria, sin solución de continuidad, entre el conocimiento, su desarrollo, la aplicación de la tecnología y la consecución de las mejores y mayores evidencias científicas. Es la secuencia investigación-desarrollo-innovación. Las estrategias innovadoras deben de tener su recompensa y ésta ha de ser proporcional al esfuerzo innovador. Ello obligará, naturalmente, a reconocer más el esfuerzo del promotor pero también a contar más con el destinatario y con quien, finalmente, la aplicará. Una paradoja, esperamos que transitoria, es la coexistencia de un aceptable desarrollo de la biotecnología en el ámbito de las ciencias de la salud junto a una muy limitada aplicación. La rapidez del desarrollo tecnológico no ha ido paralela a una rigurosa valoración de la eficacia clínica y menos aún al beneficio que reporta a la sociedad. En tal sentido, es preciso avanzar y mejorar en tres aspectos: el rendimiento terapéutico, la relevancia clínica y la generalización de su uso. En cualquier caso, un buen sistema sanitario debería conciliar el acceso a la tecnología con el impacto en la calidad de los servicios prestados y el coste de dichos servicios. Gastar más, no implica, necesariamente, conseguir una mejor asistencia o unos mejores resultados en salud. 124 Figura 1. Nuevos medicamentos y productos biológicos aprobados por la FDA. Nature Reviews Drug Discovery. Feb 2009. Vol 8; 94 Un informe de la GAO (Government Accountability Office) de los EEUU de 2006 (1) sobre el desarrollo de nuevos medicamentos cita los principales obstáculos: las limitaciones en el conocimiento sobre cómo aplicar los nuevos descubrimientos científicos y avances tecnológicos al desarrollo de medicamentos eficaces y seguros; ciertas decisiones de la industria farmacéutica durante la pasada década sobre el tipo de medicamentos en los que invertir (enfocándose a los blockbusters o superventas), la incertidumbre del proceso regulatorio y ciertas protecciones de la propiedad intelectual. Juntos, estos factores son responsables del creciente coste y duración del desarrollo de nuevos medicamentos, así como del número y tipo de nuevas moléculas que llegan a los pacientes. Grandes obstáculos frente a los que diseñar una nueva generación de incentivos. Un proceso largo, como la propia I+D de medicamentos, que ya ha comenzado. Por ejemplo, para abordar la complejidad científica y, en cierta forma, la incertidumbre del proceso regulatorio, se han lanzado sendos programas a ambos lados del Atlántico. En EEUU, la FDA lanzó su "Critical Path Initiative", en 2004. En Europa, en 2007 se aprobó la "Innovative Medicines Initiative" un Consorcio entre la Comisión Europea y la Industria Farmacéutica Europea con un presupuesto de 2 billones de euros para 10 años compartido a partes iguales entre los dos socios. Ambos proyectos van destinados a abordar los principales obstáculos científicos de predicción de eficacia y seguridad (por ejemplo, desarrollo y validación de biomarcadores) y comparten el ser iniciativas no competitivas, en las que participan todos los agentes: industria farmacéutica y biotecnológica, centros públicos, reguladores, academia y pacientes. Un elemento esencial en la política de I+D de medicamentos es alinear los incentivos con las prioridades en salud. Algo que hasta ahora no se ha abordado con la suficiente determinación. Existe una clamorosa necesidad de incentivos suficientemente eficaces para desarrollar medicamentos de alto interés sanitario con baja o nula rentabilidad económica. Pero incluso en el caso de medicamentos de alto interés sanitario y de alta rentabilidad económica y que están cubiertos por la iniciativa privada, también es preciso revisar si los incentivos existentes son adecuados y suficientes o es conveniente actualizarlos para adaptarlos a la nueva realidad o crear nuevos incentivos complementarios. La Tabla 1 relaciona algunos de los nuevos incentivos que se están implementando o formulando. Interés Rentabilidad Sanitario Económica Alto Alto Bajo Situación actual Nuevos Incentivos Nuevas propuestas de Incentivos Alta - Consorcios destinados a abordar - Cubiertos por la iniciativa los obstaculos cientificos y privada. regulatorios: Critical Path, IMI (ver texto). - Problemas de productividad. - Problemas Nacionales de I+D de medicamentos. - Necesidad de revisar / refinar los incentivos - Políticas de precios y reembolso existentes. según Valor Añadido para el - Crear nuevos incentivos. cliente. - Inversión Pública Intensiva. - Separación de los mercados de la innovación y de la producción. - "Acciones" (shares) de propiedad intelectual. - Premios internacionales a la innovación (ej: Health Impact Fund). - Distinta duración de las patentes según el valor terapéutico. - Implementación de recomendaciones del HLPF. Escasa - Legislación especifica: (ej. medicamentos pediátricos). - Inversión pública intensiva. - Creación de Consorcios público- Déficit en su desarrollo privados: MMV, DNDi, MoW. actual. - Creación de infraestructuras: - Necesidad de incentivos ECRIN. ad-hoc. - Visados para Revisión Prioritaria (normativa EEUU). - Compromisos anticipados de compra (vacuna del neumococo). - Legislación especifica: medicamentos para enfermedades raras. - Creación de mercados artificiales. - Compromisos anticipados de compra. - Premios internacionales a la innovación, asegurando el acceso (ej: Health Impact Fund). Incentivar su paso a otro tipo de innovación. Tabla 1. Incentivos a la I+D+i de Medicamentos y Prioridades en Salud. Cada vez hay más evidencia sobre como determinados incentivos afectan la I+D de medicamentos. En su informe sobre Políticas de precios farmacéuticos en un mercado global (2), la OCDE afirma que "las políticas de precio y reembolso, al enviar señales del grado de valoración de la innovación farmacéutica y del valor relativo que los compradores atribuyen a los diferentes tipos de innovación, pueden incentivar o desincentivar las inversiones en I+D, afectando su orientación". Así, precios de referencia de clase terapéutica incentivan el desarrollo hacia la innovación incremental mientras que precios diferenciales basados en el valor del producto deberían incentivar el desarrollo de innovaciones más valiosas. Puedes encontrar este artículo en el blog de MSD en www.proyectonets.org donde también encontrarás el artículo LA EVOLUCIÓN DE LA MBE EN ESPAÑA de Joaquín Camprubí, publicado en el numero 01 de la revista NETS Innovación y Tecnología en la Salud. Por ello, no es de extrañar la formulación de nuevos tipos de incentivos como la definición de umbrales de coste-efectividad para orientar las inversiones en I+D o sistemas de reembolso que incluyen la perspectiva social (no del pagador), añadiendo otros criterios como prioridades de salud. A este efecto, es de gran valor el informe final tras 3 años de trabajo del High Level Pharmaceutical Forum (HLPF) (3), un grupo de representantes de la Comisión Europea, los Estados Miembros, la Industria Farmacéutica y los Pacientes. En su recomendación 8, el informe aboga por que los Estados Miembros establezcan expectativas claras y comunes de lo que consideran innovación y estén dispuestos a reconocer, de forma que las compañías puedan tener directrices claras de las prioridades de salud. Pide que las políticas nacionales de precio y reembolso reflejen y reconozcan estas expectativas y den una recompensa consistente a los resultados considerados valiosos, y que los sistemas nacionales de precio y reembolso se alineen con los sistemas que evalúen el valor de los medicamentos. Además, pide a las Compañías que desarrollen los medicamentos que la sociedad necesita. 125 Referencias: 1. New drug development. Report to Congressional Requesters. United States Government Accountability Office. November 2006 Pero este breve repaso sobre incentivos a la I+D de medicamentos tendría poco interés si no hiciera mención a iniciativas mas transformadoras. Quizá la más lúcida es la formulada por Weisbrod en su reconocido artículo publicado en el Wall Street Journal en 2003 (4). En poco mas de 800 palabras describe de forma magistral como las dos actividades principales y de requerimientos tan diferentes que realiza la industria farmacéutica, la I+D y la producción de medicamentos, comparten el mismo y único instrumento de recompensa: el precio del medicamento, por lo que aboga por la separación de ambos procesos. La I+D se financiaría mediante premios dinerarios masivos a quienes desarrollaran medicamentos seguros y eficaces, y la producción mediante mecanismos de competencia habituales en productos fuera de patente. Así se resolverían las tensiones crecientes entre innovación y acceso a los nuevos medicamentos. 2. Pharmaceutical Pricing Policies in a Global Market. OECD Health Policy Studies. OECD 2008 Algo ciertamente más fácil de formular que de implementar de forma eficaz. Sin embargo, no ha caído en saco roto. Y la propuesta de otorgar premios de cuantía suficiente a quienes desarrollen nuevos medicamentos de acuerdo a estándares preestablecidos cediendo sus patentes para facilitar precios asequibles, de forma voluntaria y alternativa al sistema de patentes, va ganando adeptos. Recientemente se ha publicado el informe "Health Impact Fund: Making New Medicines Accesible for All", que desarrolla esa propuesta. 3. High Level Pharmaceutical Forum. 2005-2008. Final Conclusions and Recommendations. October 2008 4. Burton A. Weisbrod. Solving the Drug Dilemma. Institute for Policy Research. Northwestern University. Winter 2004, volume 26, number1. Algo se está moviendo en este campo. Y aunque sería temerario olvidar que en el desarrollo de nuevos medicamentos existen escollos formidables de tipo científico, tecnológico y regulatorio que hay que abordar de forma paralela, es bueno que actualicemos los incentivos de todos los agentes públicos y privados que intervienen en el proceso. Por la cuenta que nos tiene. Paloma Fernández Cano. Gerente de Relaciones Externas. MSD España. "con la desaparición de los servicios de logofoniatría lo que vamos a conseguir es segregar a los pacientes por su condición económica" SERVICIO DE LOGOPEDIA EN LOS HOSPITALES MADRILEÑOS, ¿EN PELIGRO DE EXTINCIÓN? MARGARITA DURAN. Antes de adentrarnos en esta lamentable pregunta, aclararé la utilidad del Logopeda dentro de un centro hospitalario. MARGARITA DURAN Pertenecemos al Servicio de Rehabilitación, Sección de Foniatría, y tenemos como finalidad la prevención, evaluación e intervención en aquellos trastornos relacionados con la comunicación, ya sean de voz, de lenguaje o de audición, así como su evaluación pronóstica. Intervenimos directamente en problemas orofaciales, maxilofaciales y trastornos de la deglución. El tratamiento de Rehabilitación de cada paciente debe enfocarse desde un punto de vista multidisciplinar. El Médico responsable del paciente se pone en contacto con el Médico Rehabilitador. Éste se encarga de evaluar al paciente e indicar el tratamiento rehabilitador de acuerdo con su patología específica. Desde aquí, se deriva al paciente al Fisioterapeuta, 126 al Terapeuta Ocupacional, al Ortopeda, al Protésico, al Psicólogo, etc, que llevarán a cabo la intervención adecuada. Cuando la patología está relacionada con lenguaje, comunicación y voz, el médico especializado - Foníatra- se encarga de derivar al paciente al logopeda el cual valorará, evaluará e intervendrá en dicha patología. El momento en el que se inicia dicha intervención es crítico. Retrasos en la intervención pueden resultar catastróficos en el pronóstico y evolución de la recuperación del paciente, y por tanto repercutirán directamente en la calidad de vida final conseguida. Por ello, desde el momento en el que el paciente se encuentra en condiciones físicas y psicológicas suficientes para tolerar el tratamiento, se inicia el mismo, incluso durante su estancia en el propio centro sanitario. Como puede verse, el equipo puede ser tan amplio como compleja sea la patología del enfermo. A la Unidad de Logofoniatría llegan diariamente pacientes derivados de múltiples especialidades hospitalarias. Algunas de ellas, dado el tipo de patología que atienden, como por ejemplo Neurología u ORL, son más demandantes de nuestra colaboración. Sin embargo, no se puede descartar la colaboración más o menos esporádica con ningún especialista que en cualquier momento durante su relación médico-paciente, se encuentre con alguna patología asociada o derivada del proceso principal que aqueja al paciente y necesite de nuestra colaboración como parte del tratamiento integral que requiere cada paciente. Hagamos un breve repaso de nuestra historia dentro de los Servicios de Salud. Deberíamos saber que el profesional de la logopedia existe en los centros hospitalarios madrileños dependientes de la Sanidad Pública desde hace más de cuarenta años. Hasta la Ley de las Profesiones Sanitarias LOPS (Ley 44/2003 de 21 de Noviembre) el logopeda era considerado Profesional No Sanitario o Educativo. Esta consideración era totalmente ilógica, si tenemos en cuenta el carácter asistencial derivado de nuestro trato directo con el paciente. Desde la promulgación de dicha ley, el Logopeda es considerado Personal Sanitario, acabando con la calificación anterior y normalizando nuestra situación dentro del Organigrama de los Servicios de Salud. ¿Qué está ocurriendo en Madrid con la asistencia logopédica hospitalaria?, me pregunto. Se han creado nuevos hospitales en la Comunidad de Madrid y no se han dotado de personal relacionado con el Servicio de Logopedia. Es más, este servicio no existe. ¿Ya no es necesaria nuestra atención?, ¿no existen patologías relacionadas con nuestra formación?, ¿ya no es necesaria nuestra intervención en los problemas de la comunicación humana, en terapias miofuncionales y de deglución?. ¿Qué va a ocurrir con esta rehabilitación clínica tan importante?. ¿Dónde van a ir los pacientes a recibir su tratamiento, por ejemplo después de un ictus o de la extirpación de un tumor cerebral?. Los facultativos especializados en cada una de estas patologías (neurólogos, neurocirujanos, oncólogos ) salvarán la vida al paciente y le enviarán a su casa con la capacidad comunicativa limitada (afasia). ¿Qué calidad de vida tendrá esa persona a la que se le priva de su capacidad de comunicarse con el mundo que le rodea?. Con la desaparición de este servicio lo que vamos a conseguir es segregar a los pacientes por su condición económica. Aquel que tenga dinero podrá pagar su rehabilitación privada y saldrá adelante. Mejorará su capacidad de hablar y podrá volver a comunicarse. Aquel que tenga un nivel económico inferior no volverá a comunicarse, pero tampoco podrá quejarse porque habrán salvado su vida, aun a costa de su capacidad de comunicación, con menor calidad de vida y en silencio. Emilio Vílches comentó el artículo en www.proyectonets.org: Este es un nuevo caso, tras el que expuso el Dr. López Arrieta acerca de la situación de los servicios hospitalarios de geriatría, en el que nos encontramos con actividades que dejan de prestarse en los centros públicos. Ambas se tratan de actividades asistenciales con obvias implicaciones sociosanitarias, pero se dejan al ámbito privado. El hecho de que Madrid disponga de un buen número de nuevos hospitales y de que vayamos conociendo su estructura y carencias, parece mostrar un nuevo esquema en el que se invierte en nuevas tecnologías pero no tanto en recursos humanos o mantener todos los servicios que hasta hace poco se prestaban. Si en un momento determinado existe un problema con un paciente y el Neurólogo, el Cardiólogo, el Otorrino, el Cirujano Maxilofacial, el Oncólogo, el Neonatólogo o el Psiquiatra, tan sólo por citar alguna de las especialidades con las que el Servicio de Logopedia puede colaborar, quieren derivar a un paciente para una intervención logopédica en los nuevos hospitales ¿qué hará?. ¿Les dará a los pacientes un listado de los centros concertados con la Sanidad Pública Madrileña para que hagan su tratamiento de forma externalizada y así se olvidan del problema?. 127 Y cuando el paciente esté ingresado, ¿qué ocurrirá?. ¿Vendrá un logopeda al hospital (ya que en los nuevos centros hospitalarios no existe ese servicio) a intervenir en el tratamiento de dicho paciente?. Mejor aún, no se realizará el tratamiento y se enviará al paciente a su casa. El problema ya no es del Hospital. Si se envía al enfermo susceptible de ser tratado en un Servicio de Logopedia de alta a su domicilio sin haber sido valorado por nuestro servicio, obviamente tampoco habrá iniciado su tratamiento. Habrá estado ingresado dejando transcurrir un tiempo precioso para su rehabilitación que se podía haber aprovechado mientras estaba hospitalizado y haber mejorado considerablemente su salud. Este tiempo ya no se podrá recuperar. Habrá transcurrido en contra del paciente, que se verá perjudicado tanto en cuanto que habrá retrasado su recuperación como que, probablemente, habrá empeorado su pronóstico. En los hospitales madrileños más antiguos, dependientes del IMSALUD y de la Comunidad de Madrid, sí existe esta oferta dentro del Servicio de Rehabilitación, junto a la fisioterapia y la terapia ocupacional. Parece que, con todos los defectos que se les atribuye (muchos justamente, no lo voy a negar), en los hospitales antiguos aún se tiene en cuenta no sólo la cantidad, sino también la calidad de vida con la que los pacientes son enviados de alta a su domicilio. Me gustaría, con todo lo anteriormente expuesto, lograr que a quien corresponda hacer valoraciones económicas de cantidad se detuviera un momento y añadiera a esas valoraciones cuantitativas valoraciones de calidad y de resultados de sus servicios, incluyendo en la valoración de resultados la valiosa opinión de los pacientes, que al fin y al cabo, son el único y principal destinatario de los servicios de salud. Sin duda esto significaría una mejora, y ayudaría a tener un Servicio Público de Salud Saludable y de Calidad. Margarita Duran Limas. Pedagoga y Logopeda. Unidad de Logofoniatria del Hospital 12 de Octubre de Madrid. "Es tiempo de responder a las preguntas sobre la rentabilidad costebeneficio de la implantación de las unidades hospitalarias de geriatría." ESPECIALIDADES MÉDICAS DE SEGUNDA FILA. Dr. JESÚS MORA. Dr. JESÚS MORA 128 Cuántas veces hemos oído hablar de la atención gerontológica como aquella que se dispensa en los centros residenciales por profesionales de la rama sanitaria, y ¡qué necesaria es!. Sin embargo, la asistencia geriátrica no está en boca de los usuarios de servicios sanitarios con tanto énfasis ni grado de conocimiento. Los médicos con especialización en Geriatría son profesionales formados en el ámbito hospitalario que conocen bien sus tareas en el diagnóstico y en la aproximación terapéutica holística del anciano con problemas serios de salud o riesgo de enfermar. Pero los geriatras, no siempre han podido poner en marcha su abanico de conocimientos en el lugar adecuado o preferido, siendo desplazados por la oferta laboral al aparentemente menos interesante sector gerontológico. Esta situación se ha producido con mucha frecuencia en muchos otros ámbitos profesionales en los que los licenciados están ocupando puestos de responsabilidad en lugares científicamente alejados de su formación inicial. Para los geriatras, en particular, se ha argumentado que están destinados a atender ancianos que ya no pueden estar en su domicilio, convirtiendo a nuestra especialidad en una rama de segunda fila en la actividad asistencial de la población y, por lo tanto, en un reducto con escaso valor científico-técnico. Nada más lejos de la realidad. Es posible que el grueso de las nuevas especialidades surgidas en las últimas décadas del siglo XX, hayan sufrido periodos de crecimiento y posterior dificultad en su implantación en el sistema sanitario, quedando encuadradas como de segunda fila cuando se les ha comparado con las grandes ramas de la medicina y cirugía hospitalaria. Se aprecia en las preferencias de los jóvenes especialistas a la hora de elegir plaza en los hospitales docentes de nuestro medio. Pero probablemente hay, de fondo, una serie de razones de índole estructural que explican la diferente visión que el usuario y, por ende, el profesional tienen de las specialidades de segunda fila y, en particular de la Geriatría: En primer lugar, se debe señalar que en la génesis de los embriones de esta primariamente sub-especialidad han participado personas con máximo grado de interés y conocimiento en la materia que, en numerosas ocasiones, han chocado con la asunción del coste de oportunidad de permitir la apertura de unidades nuevas, aun habiendo excluido razonablemente la duplicidad de servicios. Esta lucha inicial se ha resuelto casi siempre por la buena voluntad de muchos gestores que han confiado en la evidencia científica aportada. Sin embargo, tras los primeros pasos, se llega a la indiferencia de las autoridades sanitarias probablemente por la ausencia de resultados favorables en términos de investigación, beneficios marginales o justificación adecuada de una mayor inversión (aumentos de plantilla o mejora de medios técnicos), - como también ha señalado recientemente en esta misma publicación el Dr. López Arrieta-. En segundo lugar, los planes de estudios no han incluido históricamente los créditos necesarios en sus curricula de pregrado de Medicina para hacer llegar al estudiante las bases fisiológicas del envejecimiento abordadas por la biogerontología, ni la evaluación multidimensional del individuo que explica la complejidad del enfermar, ni la presencia de problemas geriátricos específicos que justifican una progresiva desadaptación natural del sujeto dependiente a su entorno hasta el momento de la muerte. Tampoco se explican con detalle las bases de la atención integrada, la continuidad de cuidados o los primeros pasos del tratamiento de los problemas específicos del paciente geriátrico (demencia, caídas, alteraciones funcionales, cambios psicofísicos, incontinencia o trastornos de alimentación). Estos hechos aparecen directamente relacionados con el escaso interés que el licenciado muestra por la especialización en geriatría a pesar de su inequívoca vocación médica. Finalmente, los hechos demográficos y asistenciales han llevado a un crecimiento progresivo de la presencia de ancianos en los servicios hospitalarios y de urgencias que obligan a gestores y profesionales a encontrar soluciones rápidas que eviten el colapso de los dispositivos asistenciales que, fundamentalmente, han perjudicado al sector más envejecido. Los mayores enfermos finalizan con frecuencia sus episodios agudos en lugares poco adecuados para su complejidad como hospitales de apoyo e, incluso, residencias que carecen de los medios suficientes para el proceso diagnóstico inicial y que, razonablemente ocupan sus camas con patologías de dudosa adecuación, mientras carecen de oferta de camas de atención continuada para procesos complejos relacionados con la recuperación funcional a ancianos con difícil salida de los hospitales de agudos. Ángela Aizaga comentó el artículo en www.proyectonets.org: Comparto buena parte de lo que presenta Jesús, pero al leerle me quedo con la duda de si acaso todos no creemos que nuestra especialidad merece más peso en la estructura del hospital o más reconocimiento. Todas aportan salud a los pacientes y seguro que evitan cargas a la sociedad y los familiares, pero no me parece el mejor camino para mejorar lo que falla. Pocos o muy pocos profesionales relacionados con la sanidad (gestores, médicos o políticos) son capaces de asumir la necesidad de variar los criterios para atender a la población anciana cuando es preciso, siendo remarcable la ausencia de información sobre tasa de no-ingresos de ancianos en urgencias, altas fallidas y/o reingresos en menos de 30 días, por no mencionar la ausencia de dispositivos de seguimiento de la enfermedad que faciliten su atención post-hospitalización por Atención Primaria, como el conocimiento del pronóstico y mortalidad inmediata de aquellos que no disponen de una asistencia geriátrica integrada. 129 A la vista de la experiencia personal se podría intuir que los ancianos que no llegan a beneficiarse de la asistencia especializada son muchos y poco conocidos, finalizando muchos de ellos en el ámbito residencial (si disponen de medios económicos) o falleciendo en su domicilio (los más pobres), sin que hayan podido beneficiarse de una oportunidad de valoración geriátrica que permita establecer un adecuado pronóstico y recibir un correcto tratamiento rehabilitador. Y con este comentario previo, podríamos adentrarnos en el terreno de la ética y de la discriminación que las poblaciones de ancianos han sufrido históricamente en la asistencia sanitaria en los países de nuestro entorno (1). Como ejemplo, se puede citar que los ancianos no han figurado en los ensayos clínicos más importantes de la historia reciente, por lo que se están prescribiendo en muchas ocasiones fármacos sin evidencia científica de su utilidad en estas edades. De modo similar, han sido excluidos por edad para beneficiarse de determinadas técnicas diagnósticas o procedimientos terapéuticos invasivos (angiografías, diálisis, stent), hasta que se ha comprendido que en numerosas ocasiones son estos procedimientos los adecuados para corregir de modo paliativo algunos problemas sin solución por la vía clásica. Para finalizar, debe ser superada definitivamente la barrera de la edad para ser incluido en la lista de espera de determinados trasplantes que afortunadamente han demostrado ser bien tolerados en este segmento de edad. Mª José Jiménez comentó el artículo en www.proyectonets.org: Me parece interesantísimo el artículo, especialmente porque me ha sorprendido que una especialidad que yo consideraba no sólo imprescindible, sino con un futuro envidiable por el envejecimiento de la población, pueda estar cuestionada por determinadas administraciones y políticas sanitarias.Incluso en mi especialidad (medicina intensiva) que tradicionalmente ha planteado los problemas éticos de futilidad y limitación de esfuerzo terapéutico en pacientes terminales y/o con edades muy avanzadas, se ve forzada por nuestra realidad sociodemográfica a replantearse esta actitud y es muy frecuente hoy en día que un gran porcentaje de nuestro pacientes sean octogenarios e incluso mayores de 90 años: Los estudios realizados sobre la supervivencia y calidad de vida al año y a los tres años en pacientes octogenarios en nuestra unidad de postoperatorio de cirugía cardiaca revelan una mayor mortalidad hospitalaria con respecto a pacientes de menos de 80 años, pero los que sobreviven (en un porcentaje elevado) presentan una mejoría en su calidad de vida a largo plazo. 130 En síntesis, lo comentado hasta este momento, nos describe una situación negativa en términos de valoración que otros han hecho del curso de los acontecimientos en Geriatría en los últimos 30 años. Sin embargo, también nos ilustra sobre cómo afrontar el futuro de la misma explorando otras áreas de interés en la salud del anciano, valorando estas oportunidades como catalizadoras de un nuevo concepto de la Geriatría como especialidad de primera línea. Necesaria y plenamente justificada. Es tiempo, por lo tanto, de pelear porque en la Facultades se enseñe ampliamente la disciplina. Esto ya está resuelto curiosamente en las especialidades sanitarias que colaboran con los geriatras en los equipos multidisciplinares (enfermería, terapia ocupacional, fisioterapia, trabajo social, nutrición), sin que se cuestione en ningún caso la superespecialización de estas personas en su ámbito profesional. Además, muchas veces son estos profesionales los que van a disponer de mayor grado de conocimiento sobre la patología del anciano que los propios médicos o cirujanos, ayudando indirectamente a superar ciertas carencias asistenciales. Si no es así, difícilmente los profesionales de la medicina van a reconocer al geriatra como especialista de primer nivel. Es tiempo también de que las sociedades científicas respondan a las habituales preguntas sobre la rentabilidad en términos de coste-beneficio de la implantación de las unidades hospitalarias de geriatría. Si bien diversos autores han centrado sus investigaciones más recientes en metaanálisis sobre la evidencia de la efectividad de los diferentes niveles asistenciales geriátricos (2,3), parece necesario poner en marcha estudios que aborden en primer lugar la eficiencia de las mismas y, en segundo lugar, que se centren en los ancianos de nuestro entorno, muy distintos a los que se estudian en grandes estudios longitudinales americanos. Esto requiere del esfuerzo de todos los pequeños grupos de investigación que operan en nuestro país en el ámbito de la geriatría, con multicéntricos no demasiado ambiciosos que concluyan en resultados rápidos y extrapolables a cualquier ámbito sanitario de las distintas comunidades autónomas. Sin ser suficiente, a continuación se exige la innovación dentro de la propia especialidad; toda vez que otros colectivos de profesionales han visto en el anciano un potencial cliente de sus servicios médicos, como ocurre con el aumento progresivo de pacientes de mayor edad en los centros hospitalarios. Dicha innovación, marca de autenticidad de la especialidad, ha de centrarse en mejorar el producto ofrecido al paciente y al sistema sanitario y, hoy por hoy, consiste en desarrollar nuevos dispositivos de colaboración con Atención Primaria, centros gerontológicos y servicios médicos y quirúrgicos dentro del hospital. Desde luego, alejados del enfrentamiento y buscando siempre la colaboración entre distintos proveedores de salud, sean estos del ámbito público o privado. También se debe exigir la presencia de un profesional como el geriatra en la valoración de la dependencia, donde se da por supuesto que el anciano ha alcanzado un punto de inflexión en el que las necesidades de otros son inexcusables, sin determinar muchas veces si existe la oportunidad de mejora que permita devolver a este sujeto a situaciones de mayor autonomía y, por lo tanto, de menor necesidad de terceras personas. El sistema en sí mismo conduce a arrinconar al anciano en un lugar que muchas veces no le correspondería y que, sin embargo, en su posición de debilidad sociofamiliar, ha de asumir al estilo de la antiguas civilizaciones. Es tiempo, en definitiva, de reivindicar la autenticidad de la especialidad desde un punto de vista filosófico, técnico y científico, sin olvidar los aspectos éticos de las tomas de decisión, la correcta clasificación de los pacientes en términos de pronóstico funcional, la consideración de los elementos que definen el límite del esfuerzo terapéutico y que, en todo caso, siempre consideren la valoración subjetiva que este usuario tan especial hace de su calidad de vida percibida. Dr. Jesús Mora Fernández. Área de Calidad de la Unidad de Gestión Clínica de Geriatría. Hospital Clínico San Carlos de Madrid. Referencias bibliográficas: 1. Jagger C, Gillies C, Mascane F, Cambais E, Van Oyen H, Nusselder W, et al. Inequalities in healthy life years in the 25 countries of the European Union in 2005: a cross-national metaregression analysis. BMJ 2008; 372: 2124-31. 2. Baztán JJ, Suárez-García FM, LópezArrieta J, Rodríguez-Mañas L, Rodríguez-Artalejo F. Effectiveness of acute geriatric units on functional decline, living at home, and case fatality among older patients admitted to hospital for acute medical disorders: meta-analysis. BMJ 2009; 338b:50 doi. 3. Stuck AE, Siu AL, Wieland GD, Adams J, Rubenstein LZ. Comprehensive geriatric assessment: a meta-analysis of controlled trials. Lancet 1993; 342: 1032-6. "en el dolor neuropático es necesario la utilización de fármacos adyuvantes que se pueden implementar con una adecuada utilización de los opioides" LA ESCALERA ANALGÉSICA DEL SIGLO XXI: ¿UNA HERRAMIENTA OBSOLETA? Dr. OSCAR A. DE LEÓN. La escalera analgésica fue introducida por la Organización Mundial de la Salud (OMS) en 1990, con la idea de crear una herramienta a nivel mundial que fuera eficaz y sencilla para implementar terapias que hicieran frente al dolor por causas oncológicas, si bien después ha sido utilizada también para otros tipos de dolor no relacionados con el cáncer. Sin embargo, estudios recientes han demostrado que si no se usa esta escalera de una manera responsable puede ser peligrosa para el propio paciente. Dr. OSCAR A. DE LEÓN El objetivo de este artículo es ver las diferencias que existen entre las recomendaciones de la escalera analgésica y los tratamientos actuales para aliviar el dolor. Por otra parte, diversos artículos publicados recientemente sugieren que la implantación de los principios de la escalera analgésica sin tener en cuenta el historial médico del paciente ni las interacciones que puedan tener con otros medicamentos, puede dar lugar a una morbilidad alta, así como un gran coste económico. En estos momentos, es posible prevenir hasta el 28% de las reacciones adversas relacionadas con el consumo de fármacos, siendo los más frecuentes los debidos a fármacos cardiovasculares, diuréticos, analgésicos opioides, antidiabéticos y anticoagulantes. Además, la disponibilidad de nuevos sistemas de administración (como los analgésicos tópicos), el desarrollo de guías médicas para el manejo de ciertos tipos de dolor (como el dolor neuropático) y el desarrollo de técnicas intervencionistas (como la neuromodulación), han llevado a la conclusión de que el uso de la escalera analgésica no es el adecuado para tratar a todos los pacientes de la misma forma. Para argumentar estos puntos, el artículo se va a dividir en diferentes patologías clínicas. 131 1. Habitualmente, el primer tratamiento que se da a un paciente con osteoartritis es paracetamol. A medida que la enfermedad progresa, el paciente deja de responder a esta medicación, necesitando la administración de analgésicos más potentes. Si nos basamos estrictamente en la escalera analgésica, el tratamiento con el que debería continuar sería un analgésico antiinflamatorio no esteroideo (AINEs) o un inhibidor de la ciclo-oxigenasa (COX2), pero el uso indiscriminado de estos fármacos pueden desencadenar un fallo renal o una enfermedad gástrica. La disfunción renal es más probable en pacientes mayores de 65 años, con antecedentes de enfermedad renal o de gota. Por lo tanto, no es aconsejable administrar un AINE en pacientes con disfunción renal. Al mismo tiempo, los pacientes que están en tratamiento con AINEs tienen un mayor riesgo de padecer una úlcera gastrointestinal, siendo los de mayor riesgo los siguientes casos: Pacientes con historia previa de perforaciones, úlceras o sangrados gástricos. Pacientes con terapia concomitante anticoagulante. Pacientes en tratamiento con corticoides orales. Pacientes en tratamiento a largo plazo con AINEs. Edad avanzada. Pacientes con mal estado de salud. Por otro lado, en pacientes de más de 65 años la posibilidad de desarrollar enfermedades cardiovasculares es igual de alta que la de presentar complicaciones gástricas. La incidencia es mayor con el uso de piroxam, naproxeno y tenoxicam. De hecho, cuando estos AINEs son utilizados en pacientes con un historial previo de enfermedades cardiacas, la posibilidad de desarrollar una molestia cardiovascular es de un 25%. Por todo ello, los pacientes con fallo renal crónico, con niveles altos de creatinina plasmática y con un historial previo de problemas gástricos o cardiacos no deberían ser tratados con AINEs. Otra situación clínica a considerar es la co-administración en pacientes con osteoartritis de una dosis de aspirina asociada a un AINE o a un inhibidor de COX-2. . Hay evidencias que sugieren que la co-administración de aspirina con ibuprofeno puede acabar produciendo una inhibición de tromboxano en un porcentaje mayor del 95%, lo que lleva a la pérdida del efecto anti-agregación de la aspirina sobre las plaquetas. No está claro si esta interacción también puede ocurrir con otros AINEs, pero al menos en teoría, podría ocurrir. Además, también existen evidencias de que la coadministración de aspirina con un COX2 puede originar una pérdida del efecto gastro-protector de los inhibidores COX2. Las implicaciones médicas de estos problemas son importantes ya que la población con osteoartritis tiende a ser mayores de 65 años y, como resultado de ello, la mayoría reciben pequeñas dosis de aspirina para la profilaxis vascular. De este modo, uno tiene la opción de iniciar el tratamiento con un inhibidor COX-2, o directamente con un opioide. Por consiguiente, la escalera analgésica simplifica el tratamiento del dolor de pacientes con osteoartritis y con complicaciones médicas que suelen estar presentes en la mayoría de la población afectada por esta enfermedad. Además, el uso de AINEs tópicos no entra dentro de esta escala analgésica, ya que esta terapia no existía cuando se hizo. Esto hace que la escalera analgésica esté obsoleta o que incluso sea peligrosa para pacientes con osteoartritis. 2. Las líneas generales para el tratamiento del dolor neuropático periférico sugieren la utilización de parches de lidocaína como primer paso, si esto no es efectivo, se sugiere la utilización de antidepresivos tricíclicos o, como alternativa, se podría usar los antidepresivos duales. Si la combinación sigue sin ser exitosa después del ajuste de una dosis apropiada, se recomienda la utilización de un anticonvulsionante y, si después del uso de estos tres agentes en sus dosis máximas sigue sin dar resultados, se debe añadir tramadol o un opioide potente. En líneas generales se sugiere que para el tratamiento del dolor neuropático central se debe seguir con los mismos métodos que para el dolor neuropático periférico, con la excepción de que la lidocaína tópica que no se incluirá en el primer paso. Todo ello nos sirve para resaltar que en la escalera 132 analgésica no están incluidos estos fármacos coadyuvantes que son fundamentales en el tratamiento adecuado del dolor neuropático. 3. La escalera analgésica tampoco incluye la realización de ningún proceso intervencionista en el tratamiento del dolor de cáncer. Hoy se acepta la existencia de una serie de alternativas intervencionistas para tratar de forma correcta determinados pacientes con esta patología: Neurólisis del simpático. Se puede recurrir a ella en pacientes con cáncer de páncreas sin evidencia de que se haya extendido; el uso de neurólisis del plexo celiaca o neurólisis del nervio esplácnico es una buena alternativa a los opioides potentes y tienen un buen efecto analgésico, si bien con una menor incidencia en efectos secundarios. Asimismo, en pacientes con carcinoma de pelvis, la realización de neurólisis del plexo hipogástrico sirve como analgésico reduciéndose la administración de opioides. Tratamiento por vía intratecal. Un estudio reciente donde se analizaban dos grupos de pacientes, -uno con tratamiento analgésico por vía intratecal y otro con tratamiento médico integral-, se ha puesto en evidencia la existencia de una mejor analgesia y un aumento del índice de supervivencia en el grupo de los pacientes en tratamiento por vía intratecal, si bien esta diferencia no era estadísticamente significativa. En cambio, si había un aumento significativo de los efectos secundarios en el grupo de pacientes en tratamiento intratecal. El incremento del ratio de supervivencia en los pacientes observados pertenecientes al grupo de pacientes en tratamiento intratecal, abre las especulaciones sobre la conveniencia de administrar opioides durante un largo periodo de tiempo en la población con cáncer, debido a las inmuno-depresiones asociadas que conlleva el tratamiento con opioides por vía oral. Vertebroplastia. Muchos pacientes con fracturas vertebrales producidas por metástasis u osteoporosis avanzada presentan dolor de espalda. La Vertebroplastia Percutánea es un procedimiento por el cual se inyecta cemento óseo dentro de la fractura vertebral para aliviar el dolor y para mejorar la estabilidad estructural. Se ha demostrado que el vertebroplastia es eficaz para tratar cuadros de dolor en enfermos de cáncer. En este punto, el uso de la vertebroplastia es adecuado para pacientes con metástasis óseas y puede ser utilizado sin la administración previa de opioides potentes. Sin embargo, aquellos pacientes a los cuales se les apliquen las pautas de la escalera analgésica no se van a poder beneficiar de esta técnica de una forma rápida, con lo que puede existir un aumento de la morbilidad y de la mortalidad secundaria al dolor y la inmovilidad. 4. Síndrome postlaminectomía. Varios estudios a largo plazo han demostrado la eficacia de la neuroestimulación de cordones posteriores (SCS) para reducir la administración de opioides y los tratamientos adyuvantes en estos pacientes. Además, se ha demostrado una mejoría en la calidad de vida de los pacientes que les permitía continuar con las actividades diarias. Por ello, su utilización la debemos ver como una ayuda en el manejo de estos pacientes que nos permite obtener las metas de mejorar la analgesia, si bien esta técnica no está presente en las pautas de la escalera de la OMS. Si te ha interesado este artículo te recomendamos que leas también LA FORMACIÓN MÉDICA EN EL CAMPO DEL DOLOR: DE LA REALIDAD A LA NECESIDAD de Javier Vidal, DOLOR E IMPLICACIONES GENÉTICAS de Clemente Muriel y Rogelio González y DOCUMENTO DE CONSENSO SOBRE UTILIDAD TERAPÉUTICA DE LA ASOCIACIÓN FIJA DE TRAMADOL/PARACETAMOL de Juan Tamargo que puedes encontrar en la sección "tribuna profesional" de www.proyectonets.org. Conclusiones. La escalera analgésica de la OMS fue muy útil en sus orígenes como tratamiento que permitía hacer frente al dolor en pacientes tanto oncológicos como no oncológicos. Sin embargo, estudios recientes sugieren que aquellos pacientes que siguen sus recomendaciones de una manera rígida podrían sufrir algunas consecuencias. Un conocimiento adecuado de la co-morbilidad y de las interacciones de los fármacos en cada uno de los pacientes es importante para elegir el mejor tratamiento, es decir, la individualización del tratamiento en cada paciente es fundamental con el fin de aliviar el dolor. Además, es necesario tener en cuenta que en la gestión farmacológica del dolor neuropático es necesario la utilización de fármacos adyuvantes que se pueden implementar con una 133 adecuada utilización de los opioides. En este aspecto, también debemos potenciar la utilización de técnicas invasivas tanto en el dolor oncológico como de cualquier otro tipo, ya que estos están asociados a altos niveles de analgesia y una baja incidencia de efectos secundarios cuando son realizados por médicos con pleno conocimiento de ellas. Dr. Oscar A. de León-Casasola. Profesor y Vicedirector para asuntos clínicos, Departamento de Anestesiología de la Universidad de Buffalo, Jefe del departamento del dolor y profesor de oncología, Roswell Park Cancer Institute. "(...) el médico observa, espera, acompaña a la familia, sentado en una silla al pie de la cama de la niña enferma, pensando ¿cuál es su dolencia?." DE LA MEDICINA COMO UNA VOCACION A LA MEDICINA COMO UN FUNCIONARIADO. Dr. ENRIQUE MORALES. Dr. ENRIQUE MORALES Es difícil aceptarlo pero, como en los dramas televisivos, el final resulta una realidad inevitable. Durante los últimos años, asistimos asombrados, desilusionados, contrariados, decepcionados y a veces resignados a una nueva forma de entender la medicina, aunque yo iría más allá, una forma nueva de entender y vivir la vida, si bien es cierto este último aspecto debería ser motivo para otro tipo de debate. No hace tanto tiempo, unos quince años atrás, cualquiera podía asomarse al balcón de la medicina hospitalaria, con cierto optimismo e ilusión, aunque no carente de crítica y podíamos observar cómo existía (me preocupa hablar en pasado), una figura fundamental en el engranaje hospitalario, el MIR. No está de más, recordar qué significa la palabra MIR, Médico Interno Residente, pues bien, hoy día cabría preguntarse; cuánto queda de interno y de residente en el actual médico MIR. No resultaba extraño observar cómo el MIR, alma y conciencia del hospital, permanecía y residía allí, planeaba por los rincones más inhóspitos de las plantas, desarrollaba la curiosidad científica y la responsabilidad en su aprendizaje de sus residentes mayores, allí estaba durante prácticamente todo el día. Pero no sólo estaba presente físicamente, sino que era el que realmente se ocupaba del paciente; estudiaba y escribía con esmero su historia clínica, la comentaba con sus médicos adjuntos, se encargaba de solicitar y recopilar sus pruebas diagnósticas y finalmente presentaba su caso clínico en las sesiones hospitalarias. Se percibía una sensación, aunque yo creo que más que una sensación era una realidad, la realidad de que el paciente (su historia, su vida) formaba parte de la del médico que se encargaba de él, la famosa empatía. ¿Dónde quedaron las preguntas iniciáticas de la medicina?, ¿qué le ocurre?, ¿desde cuándo? y ¿a qué lo atribuye?. Estas eran las preguntas claves para iniciar la búsqueda en el mundo de las etiologías, posteriormente uno solicitaba las pruebas necesarias que resultaban valiosos medios para llegar al ansiado y buscado diagnóstico. Aunque me cueste admitirlo, hoy me atrevo a decir que esas preguntas quedaron probablemente en el olvido, en algún lugar recóndito de nuestra mente resultando más 134 aceptable solicitar un sinfín de pruebas (por favor, coloque usted una cruz en todo aquello que usted quiera solicitar) y al final decir: oiga, ¿porqué tiene usted una velocidad de sedimentación elevada?, no lo entiendo, y esta adenopatía, ¿a qué es debido?. Es indudablemente otra forma de ver, hacer y entender la medicina, en el más estricto sentido de la palabra, uno pide y pide y luego pregunta. Antes, tras la interminable jornada, uno se llevaba el caso del paciente a su casa, lo rumiaba, lo estudiaba, lo consultaba en los libros y curioseaba por Internet (el famoso Pubmed) las posibilidades diagnósticas y terapéuticas, por último soñaba con el caso para poder llegar hasta el diagnóstico de presunción. Si realizamos un pequeño análisis de la realidad actual podemos encontrar una cierta lógica en lo que esta ocurriendo en el mundo de la medicina. Los jóvenes no sólo se independizan más tarde de sus hogares sino que cuando eligen una profesión, en este caso, la medicina especializada, se les apoya con reales decretos que retrasan más aún su maduración profesional, derivándoles al irremediable síndrome de Peter Pan. Tras terminar el tiempo dedicado a la carrera de Medicina y después de aprobar el examen para acceder a ser un médico especialista, se les coloca el título del mal llamado M.I.R., (pues ya no es interno y para nada reside en el hospital), y comienza sus vivencias médicas en un mundo lleno de contradicciones. El primer año de residencia se ha convertido en una prolongación de su carrera universitaria, claro está con el apoyo indiscutible del ilustre real decreto, un año alejado de la responsabilidad, de la implicación pero no exento de todos y cada uno de los derechos laborables que le corresponden. En definitiva, dentro del mundo hospitalario se escuchan voces que demandan cada vez más, cuestiones distintas de la propia medicina: ¿qué hago con esta analítica?, lo siento por aquí no he rotado, acabó mi turno, bueno me voy a la guardia (siempre con un tono similar al que se va a la guerra), y al final, mañana no vengo, libro la guardia, , como si la enfermedad librara o tuviera turnos. No se, no sé, creo que me estoy haciendo mayor, pero no me gusta esta forma de entender y vivir la medicina. Cada vez resulta más difícil vivirla como renuncia, como sacrificio, como responsabilidad, como vocación. Creo que debemos evitar que esta bella y noble profesión se convierta en un funcionariado, en una rutina hastía y oscura. Este artículo ha sido uno de los más comentados y leidos de www.proyectonets.org. Ha suscitado gran debate y participación, por razones de extensión no podemos adjuntar todos los comentarios, os dejamos uno para ir abriendo boca: Rafael Olalde Quintana comentó el artículo en www.proyectonets.org: Con todos los respetos. Un enfoque de los problemas actuales de la profesión en pleno siglo XXI apelando a la vocación me ha sonado a algo arcaico y dejá vu. En el colectivo hay, hubo y habrá de todo como en botica. La vocación no tiene nada que ver con ser o no un buen profesional. Los carpinteros también puieden ser vocacionales. La RAE define vocación, tan sólo como una inclinación a cualquier estado, profesión o carrera y esto por si sólo no garantiza ni impide cualquier actitud posterior No sé cuáles son vuestros pensamientos pero creo que deberíamos rescatar, ensalzar la figura de aquel médico del famoso cuadro The Doctor de Sir Lukes Field de 1891, donde el médico observa atentamente, espera, acompaña a la familia, sentado en una silla al pie de la cama de la niña enferma, pensando ¿cuál es su dolencia?. Dr. Enrique Morales Ruiz. Médico Adjunto del Servicio de Nefrología. Hospital 12 de Octubre de Madrid. visítanos en internet www.proyectonets.org nets Innovación y Tecnología en la Salud 135 "invertimos muchos recursos sin desarrollar soluciones organizativas o tecnológicas que hagan más resolutivo el encuentro médico-paciente." MEJORA CONTINUA EN LA CALIDAD DE LA CONSULTA EXTERNA. EL PROFESIONAL SANITARIO COMO PROMOTOR DEL CAMBIO. Dr. CARLOS PEÑA. Dr. CARLOS PEÑA En los últimos años la medicina ha experimentado un gran desarrollo gracias a los numerosos avances diagnósticos y terapéuticos. Sin embargo la forma de ejercerla, la clínica ambulatoria, no ha experimentado apenas cambios organizativos. Seguimos invirtiendo cantidades ingentes de recursos en el desarrollo de nuevos tratamientos y tecnologías, aumentando las carteras de servicios, sin desarrollar soluciones organizativas o tecnológicas que hagan más resolutivo el encuentro médico-paciente. El objetivo de la medicina asistencial es prestar a nuestros pacientes una asistencia de calidad de acuerdo con la evidencia científica disponible. Ello supone conseguir una atención uniforme entre facultativos y centros, de una forma ágil y de acuerdo a estándares y las recomendaciones de las guías de práctica clínica. Los facultativos son corresponsables de mejorar la calidad de los procesos asistenciales en los que intervienen y de los que son protagonistas. En la estructura piramidal del mando de la organización sanitaria se ha obviado la capacidad de transformación que desde la base tienen miles de profesionales altamente cualificados y que actualmente no tienen entre sus atribuciones el mejorar la eficacia y calidad de los procesos en los que intervienen. El modelo convencional de asistencia ambulatoria. El modelo convencional de organización asistencial ambulatoria que hemos heredado esta basado en la génesis de una lista de trabajo por médico, pacientes que serán vistos de forma consecutiva. La organización de este encuentro ha permanecido prácticamente inalterada en los últimos 50 años con la única mejora de cambiar un dietario de papel por un programa informático de citación. Este modelo ha entendido que el fin último de la asistencia es el encuentro del paciente con el facultativo y no el solucionar correctamente las necesidades del paciente individual. Así, en la mayoría de las consultas ambulatorias de especialistas y médicos de familia se atienden de forma consecutiva pacientes con diferentes patologías y que acuden por diferentes motivos. Sin embargo, la estructura de la atención y sus tiempos son comunes y rara vez siguen un plan predefinido, un esquema protocolizado. Llama poderosamente la atención que el encuentro médico paciente, dónde se toman decisiones tan importantes, carezca de cualquier tipo de control, cosa que no ocurre en otros procesos empresariales de prestación de servicios. La percepción en la mayoría de las ocasiones tanto de sanitarios como de pacientes es que la clínica ambulatoria, que consume múltiples recursos, presenta una baja eficiencia. Trabajar en procesos ineficientes, de los que uno no se enorgullece, es una fuente de insatisfacción laboral y esto una merma en la calidad del servicio desempeñado. El desprestigio es aún mayor entre los especialistas jóvenes, que identifican las consultas externas como un castigo frente a la realización de técnicas diagnósticas o terapéuticas. El momento de la mejora. El profesional como motor del cambio. Para conseguir una mejora en la calidad es necesario desarrollar cambios en la organización con el fin de optimizar la atención dispensada al paciente. Son necesarias pues innovadoras estrategias organizativas que aumenten la eficiencia del acto médico y nos aseguren mejores resultados. Para ello se han de desarrollar herramientas que controlen, monitoricen 136 e informen de la evolución del proceso sanitario. En el sistema de atención convencional, el profesional no recibe de forma activa ninguna información del resultado de sus actuaciones, impidiendo de esta manera que aprenda de sus errores o aciertos. Hasta ahora las iniciativas de mejora han sido en la mayoría de las ocasiones promovidas por las autoridades sanitarias y muchas veces impuestas al profesional, trasladando modelos aplicados en otros entornos. Esta imposición de la cultura de los grandes cambios y los grandes planes y que normalmente son acompañados de grandes titulares, partidas presupuestarias e inauguraciones son en muchos casos vividas por el profesional como iniciativas ajenas a su realidad asistencial. Frente a este paradigma defendemos un modelo de mejora continua, que utilice todo el conocimiento y potencialidad de los profesionales de los que dispone el sistema. Se trata de permitir que el profesional ponga en marcha pequeñas mejoras en los procesos en los que interviene. Las mejoras han de partir del análisis crítico de los procesos asistenciales en los que intervenimos, el convencimiento de nuestra responsabilidad en ellos y la convicción de que todos son susceptibles de ser mejorados. Para ello es necesario dotar al facultativo de autonomía de decisión, soporte metodológico y tecnología apropiada para catalizar dicho cambio. La sistemática de la mejora. Una herramienta para el profesional. Mejorar los procesos en los que intervenimos se puede lograr de una forma intuitiva o a través de una metodología sistemática. La mejora continua es un proceso de análisis de la situación con el fin de adoptar decisiones tendentes a la mejora de procesos y servicios. Las herramientas de mejora continua de la calidad han demostrado su beneficio en modelos industriales y en otros procesos de prestación de servicio, sin embargo apenas han tenido desarrollo en los procesos asistenciales sanitarios. Este modelo es aplicable por profesionales individuales y por colectivos, siguiendo una serie de etapas que permiten en un círculo sin fin ir implantando pequeñas mejoras de forma progresiva y continua. Si mejoramos los procesos en los que intervenimos, haciéndolos más ágiles, resolutivos y controlados, aseguramos que los resultados sean de mayor calidad. La mejora en los procesos afecta a todos los pacientes atendidos por ellos, en contra de soluciones puntuales (planes de choque, consultas para rebajar la lista de espera) que no producen ningun beneficio mantenido. Para mejorar el proceso asistencial en el que trabajamos, antes debemos concentrarnos en él, definirlo (¿Qué es lo que hacemos?) y analizarlo de una forma crítica (¿Cómo lo hacemos?). Así, el proceso asistencial de una consulta externa consta de una secuencia de acciones e interacciones entre el paciente y administrativos, auxiliares, enfermería y facultativos, con el fin de solucionar una necesidad. Es importante definir y representar quienes incorporan pacientes al proceso, la ruta que siguen los pacientes hasta llegar a ser atendidos y la ruta tras la primera atención hasta que se les soluciona el problema. En esta ruta que recorren los pacientes hemos de crear indicadores que representen el funcionamiento de las diferentes fases del proceso e indicadores de la calidad del resultado del servicio prestado, incluyendo si las decisiones medicas han sido acertadas o no. El conocimiento de este proceso se debería de obtener con herramientas informáticas específicas adaptadas a las individualidades de cada proceso y gestionadas directamente por los profesionales involucrados. De poco vale que alguien conozca cuantos pacientes fueron vistos y dados de alta, si el profesional no sabe si fueron correctamente diagnosticados. Puedes encontrar este artículo en el blog de Bet en www.proyectonets.org, en este blog puedes encontrar varios artículos relacionados con gestión del conocimiento e innovación, te recomendamos los artículos de Alfonso Díez MÁS INTELIGENCIA Y MENOS MATERIA: LA GESTIÓN DE PROCESOS SOCIO-SANITARIOS DESDE EL CONOCIMIENTO y ¿EXISTEN TECNOLOGÍAS PARA POSIBILITAR UNA GESTIÓN INTELIGENTE DEL CONOCIMIENTO?¿QUÉ ALCANCE TIENEN?, puede interesarte también el artículo GESTIÓN FOSBURY O GESTIÓN ANTIGÉNICA de María José Jiménez, que encontrarás en la sección "gestionando conocimiento" de esta revista. Una vez definido el proceso en el que desarrollamos nuestra actividad, debemos de preguntarnos cual es el valor que aportamos al paciente y qué paciente se beneficia más de contactar con nosotros. En el ejemplo de una primera visita al cardiólogo por una fibrilación auricular, lo que aporta valor es la indicación de un tratamiento antitrombótico, porque la probabilidad que tiene el paciente de presentar una embolia es menor después de iniciado el tratamiento. Existen otros elementos del proceso asistencial, como acudir al hospital para solicitar una cita, las horas de espera en ser atendido, que no aportan 137 ningún beneficio para el paciente, para ser claros, no modifican su riesgo de embolia. También bajo este prisma podemos priorizar que pacientes se benefician más y cuales, a los que tras la consulta no se les indica ningún tratamiento, se benefician menos. Una vez que hemos definido el proceso en el que trabajamos y conocemos lo que realmente lo que aportamos al paciente, debemos diseñar planes de mejora. De forma genérica estos planes de acción se debe sustentar en tres puntos: 1. Simplificar al máximo el proceso, 2. Potenciar los puntos que aportan valor al proceso y 3. Eliminar el resto prescindible. Un ejemplo representativo y sencillo son las consultas llamadas de alta resolución o acto único: si sabemos que a la mitad de las pacientes que acuden a una primera cita de ginecología se les va a solicitar una ecografía esta debería poder realizarse sobre la marcha, ese mismo día. Simplificamos el proceso y aumentamos el valor añadido. Los planes de mejora, deben de evitar cambios drásticos y que involucren a gran número de personas, por el contrario han de buscar pequeños cambios pero sucesivos, con objetivos claros y que se puedan poner en marcha de una forma rápida sin necesidad de asignación de nuevos recursos. Durante la implementación del plan de mejora es necesario cuantificar y analizar las modificaciones en los indicadores utilizados en el análisis, así como la percepción de profesionales y usuarios sobre el plan. Trabajar en procesos eficientes incrementa el grado de satisfacción del profesional y la identificación del mismo con el sistema, también es un estímulo que actúa de promotor de otras mejoras en cadena en el entorno. Aliados para la mejora. La inercia de la tradición es la mayor resistencia para modificar una forma de trabajo heredada. Los programas de mejora han de ser promovidos por los profesionales implicados tendiendo en cuenta las realidades individuales de dónde se promueven. Aliados para la mejora son el conjunto de personal sanitario y no sanitario implicados en el proceso, celadores, auxiliares, administrativos y enfermeros, a quienes en muchas ocasiones no se les da la responsabilidad que podrían desempañar y en otras no se les pregunta a la hora de rediseñar procesos, siendo todos motor de cambio. Otro aliado, es la tecnología que puesta al servicio del profesional permite desarrollar soluciones innovadoras a los problemas que se plantean en la asistencia médica. Las herramientas informáticas pueden monitorizar el proceso asistencial y generar informes de atención que se incorporen a las historias clínicas electrónicas. Pero además pueden actuar como asistentes de conocimiento durante el encuentro médico-paciente y controladores de la adecuación de la atención a los estándares y a las recomendaciones de las guías de práctica clínica, pudiendo además convertirse en herramientas para la disminución del error médico. Dr. Carlos Peña Gil. Cardiológo. Complexo Hospitalario Xeral-Calde (Lugo). www.proyectonets.org 138 "el paciente ha pasado de creer la valoración del médico a elaborar su diagnóstico usando la red" LA SALUD, EN MANOS DE LOS PACIENTES. ANA CÉSPEDES. El cambio cultural que vive nuestra sociedad se refleja en el sistema sanitario a través del papel cada vez más importante que están adquiriendo los pacientes. Un papel que los transforma en usuarios activos que quieren estar siempre informados de forma comprensible y transparente sobre todo lo relacionado con la salud. El paciente ha pasado de creer la valoración del profesional sanitario, a prácticamente elaborar su propio diagnóstico mediante sus consultas en la red. De esta forma, el paciente tradicional ha confiado siempre en su médico, e incluso ha llegado a tener con él una relación prácticamente paternal. Sin embargo, el nuevo paciente informado participa activamente en las decisiones médicas sobre su enfermedad y tratamiento, siendo incluso algunas veces, crítico con la actitud del facultativo. ANA CÉSPEDES Por tanto, la relación médico- paciente también va, ahora, más allá del diagnóstico y el tratamiento y ofrece un valor añadido a la consulta. El médico ha de establecer un consenso y un diálogo con el paciente para, entre los dos, encontrar el mejor tratamiento a la enfermedad y formarle en sus conocimientos de salud, aconsejando sobre cuáles son los medios idóneos para recabar información sobre su enfermedad. Instrumentos de información para pacientes: La relación médico-paciente ha evolucionado, entre otras cosas, por la creciente información sobre salud disponible tanto en los medios de comunicación como en Internet. La salud es, sin duda, una de las áreas que más se ha desarrollado en beneficio de la sociedad y se ha convertido en uno de los temas que más preocupan a los ciudadanos. De hecho, los medios de comunicación otorgan un lugar cada vez más destacado a los temas de salud y a los avances médicos que contribuyen al bienestar de la población. Tanto es así que los suplementos específicos de salud y farmacia se han consolidado en los medios y los periodistas se especializan cada día más en materia sanitaria. Para transmitir la información sanitaria a la población, dichos periodistas se hacen eco de la información que generan los diferentes Agentes Sanitarios, como Hospitales, Administraciones, Sociedades Científicas y Universidades, a través de la celebración de Conferencias, Congresos, Jornadas o Eventos Profesionales. Pero, sobre todo, lo que más interesa a los medios, es la divulgación de las patologías, así como los estudios relevantes y los avances científicos, que suponen una manera eficaz de formar a la población. Pero el punto de inflexión en el proceso de información al paciente ha sido la aparición y generalización de Internet: la red adquiere día a día mayor peso como fuente informativa de salud. Sin embargo, hay que tener especial cuidado con la información, pues no toda está avalada científicamente y puede llevar al paciente a errores importantes. Es fundamental, igualmente, tener en cuenta que la búsqueda de información en la red nunca sustituye la consulta con el facultativo. Casi el 85% de los pacientes consultan la red antes de acudir al médico, según un estudio de Microsoft. La información más buscada en Internet se centra en temas relacionados con hábitos de vida saludable, las patologías, para aclarar dudas respecto al diagnóstico o tratamiento del facultativo, además de la consulta de los fármacos recetados por el médico. 139 El uso creciente de Internet para consultar temas de salud, ofrece al paciente un amplio elenco de posibilidades. Así, por ejemplo, puede obtener información de las asociaciones de pacientes de una enfermedad concreta o bien de webs especializadas en contenidos sobre dicha patología. El paciente puede además suscribirse a boletines vía correo electrónico sobre temas médicos, e incluso puede acceder a los diferentes canales de Chat para compartir la información sobre una misma enfermedad. Los encuentros digitales con facultativos es otra de las herramientas que están cobrando protagonismo en Internet. Toda esta información hace que el paciente esté bien informado y que manifieste una conducta de responsabilidad con respecto al cuidado de su salud, facilitando el trabajo de los profesionales, y por lo tanto, de la relación médico- paciente. La corresponsabilidad de los agentes en el ámbito de la salud: Los principales generadores de información fiable y contrastada son los distintos agentes que intervienen en el ámbito de la salud, desde la administración pública, las sociedades científicas, hasta la empresa privada. Éstos tienen la responsabilidad de avanzar en la promoción de la salud con rigor, responsabilidad y total transparencia. Deben asimismo fomentar el conocimiento sobre las diferentes patologías y hacer especial hincapié en el impulso de campañas de salud pública. Merck como compañía farmacéutica y en concreto en la Fundación Salud 2000, entendemos la comunicación como un recurso, un activo de enorme relevancia que debemos gestionar de acuerdo con nuestra misión y nuestros objetivos, porque de ella dependerá la percepción que nuestro público tenga de la organización. La comunicación es un intangible, pero tangibles sí son los beneficios que de ella obtenemos, lo que nos hace considerarla un elemento estratégico para la Fundación. Por todo ello, desde nuestros inicios hasta hoy, la Fundación Salud 2000 ha mantenido una relación fluida con los medios de comunicación, pues son ellos la herramienta adecuada para acercarnos a la sociedad y hacerles llegar el conocimiento científico, que durante años ha sido tan endogámico y exclusivo del núcleo investigador. El paso de los años y el desarrollo progresivo de las nuevas tecnologías ha hecho de Internet uno de los canales más empleados para la difusión de información. La Fundación ha tenido siempre claro la necesidad de apostar por este desarrollo tecnológico y a través de nuestra web www.fundacionsalud2000.com ofrecemos, en castellano y también en inglés, información detallada de todas las actividades que ponemos en marcha (Encuentros Salud 2000, foros de debate, edición de monografías, convocatorias de Ayudas y becas), así como un servicio de asesoría jurídica a profesionales sanitarios mediante un simple registro de solicitud a través de la web. Estamos convencidos del valor de la comunicación y de los beneficios que ésta nos aporta, por eso desde la Fundación Salud 2000 vamos a seguir trabajando en esta línea, poniendo empeño en lograr esta meta que nos hemos marcado de acercar el conocimiento científico a la sociedad. Con nuestra ilusión continua y las herramientas de comunicación que están a nuestro alcance, no dudo que seremos capaces de alcanzar este objetivo. Ana Céspedes. Directora de Comunicación y Asuntos Corporativos de Merck y Directora de la Fundación Salud 2000. www.proyectonets.org 140 "Sin la existencia de las unidades de cuidados intensivos, muchos de los avances de la medicina hospitalaria (...) no habrían sido posibles." LA MEDICINA INTENSIVA, TAN NECESARIA COMO DESCONOCIDA. Dr. MIGUEL SÁNCHEZ. La especialidad médica de Medicina Intensiva tiene como objetivo la atención de pacientes graves cuya vida corre peligro. Para ello se emplean sistemas de vigilancia o monitorización intensiva y de soporte de la función de sistemas y órganos como el cardiovascular, el respiratorio, el renal o el neurológico. Los ejemplos más conocidos de estos dos aspectos de la función de una unidad de cuidados intensivos (UCI) son la monitorización electrocardiográfica continua y el soporte de la función respiratoria o respiración artificial mediante el empleo de respiradores o ventiladores. Dr. MIGUEL SÁNCHEZ La Medicina Intensiva fue reconocida como especialidad médica en España en el año 1976, aunque ya para entonces existían en España unidades de cuidados intensivos (UCI) a pleno rendimiento en varias ciudades del país. Entre las primeras UCIs se encuentran los Servicios de Medicina Intensiva de la Fundación Jiménez Díaz y del Hospital Clínico San Carlos, este último en funcionamiento desde 1971. Los primeros médicos españoles dedicados a atender pacientes críticos procedían de las especialidades de Medicina Interna y de Anestesiología. Pronto se pudo comprobar que el ejercicio de la medicina intensiva requiere conocimientos especializados para poder atender pacientes con enfermedades agudas que amenazan su vida. La práctica de la Medicina Intensiva requiere, por lo tanto, un entrenamiento específico, como ocurre con otras especialidades médicas. Hoy en día es posible acceder al título de especialista en medicina intensiva por el sistema de residencia MIR tras un periodo de formación de 5 años en un Servicio acreditado por el Ministerio de Sanidad para la docencia especializada. Mientras que en España Medicina Intensiva es una especialidad primaria, en muchos otros países el acceso a la práctica en cuidados intensivos se realiza como una sub-especialización a partir de especialidades como anestesiología, neumología o cirugía. Foto 1. Paciente con fracaso multiorgánico tras una intervención urgente de sustitución valvular mitral, que precisa soporte respiratorio y técnicas artificiales de depuración extrarrenal. 141 La práctica de la medicina intensiva se basa actualmente en la mejor evidencia científica procedente de ensayos clínicos. Como consecuencia de la realización de ensayos clínicos en pacientes críticos, se han producido modificaciones relevantes a lo largo de las dos últimas décadas de algunos tratamientos antiguamente considerados estándar. Así, se han producido importantes avances que conllevan mejores resultados para el paciente crítico, incluido reducciones significativas de la mortalidad. Algunos de los cambios conciernen aspectos tan fundamentales como la ventilación mecánica, la aplicación de esta mediante un tubo de plástico que se coloca por la boca y llega a la traquea (tubo endotraqueal) o bien una mascarilla facial especial en determinados pacientes, los nuevos antibióticos y el tratamiento antibiótico en general, la nutrición del paciente crítico, las trasfusiones de glóbulos rojos y otros elementos de la sangre, la sustitución de algunas de las funciones del riñón mediante máquinas de hemofiltración continua, etc (Foto 1). Además, los pacientes críticos se han beneficiado, al igual que los pacientes de otras especialidades, de la mejora de técnicas diagnósticas cada vez menos agresivas, relativamente inocuas, como la ecografía y la tomografía axial computerizada (TAC). Los Servicios de Medicina Intensiva no son estructuras independientes, sino que están plenamente integradas en el funcionamiento de los hospitales. Por lo tanto, están bajo la influencia del funcionamiento, a su vez, de otros Servicios como las Urgencias, de las plantas de hospitalización y de las características de la actividad quirúrgica del centro. De hecho, los pacientes críticos pueden acudir al Servicio de Urgencias y requerir ingreso en la UCI al poco tiempo, proceder de alguna de las plantas de hospitalización como consecuencia de una complicación de su enfermedad, o bien ser trasladados desde quirófano tras una intervención quirúrgica urgente o programada. Los criterios de ingreso generales, aunque puede haber diferencias locales y/o personales, tratan de definir a un paciente al que conviene vigilar porque puede sufrir una complicación que compromete su vida y al paciente que ya presenta una disfunción que amenaza su vida y necesita ser sustituida o soportada. Ejemplos de estos tipos de paciente son el paciente estable que acaba de sufrir un infarto agudo de miocardio y puede presentar bruscamente una arritmia (Foto 2) y el paciente con una neumonía que necesita respiración artificial. Foto 2. Paciente ingresado en el Servicio de Medicina Intensiva tras sufrir un infarto agudo de miocardio, parada cardiaca por fibrilación ventricular recuperada y choque cardiogénico, que precisa monitorización ECG continua, ventilación mecánica, balón de contra pulsación intraaórtica, y un sistema intravascular de hipotermia terapéutica. Por otra parte, existe un aspecto inherente a cualquier ingreso en UCI, que hace referencia a la reversibilidad de la situación que compromete la vida del paciente. Fuera de las UCIs, los intensivistas frecuentemente son los encargados de atender las paradas cardiacas que se producen en pacientes ingresados en plantas de hospitalización. Otra tarea frecuente es la valoración en Urgencias o en planta de pacientes candidatos a ingresar. A este tipo 142 de actividad recientemente se ha pretendido darle formato estable, definiendo el tipo de paciente que provoca el aviso al intensivista y ampliándola a pacientes que se dan de alta de UCI a planta, proporcionando de esta manera la llamada continuidad asistencial. Aunque las autoridades sanitarias de todos los niveles, incluidas las direcciones de los centros, reconocen que la medicina intensiva correctamente practicada puede salvar vidas y dinero, son frecuentes las limitaciones de recursos humanos y materiales con las que desarrollan su actividad las UCIs. Particularmente acuciante parece la falta crónica de camas en muchas unidades, que se expresa como una elevada ocupación (nº de pacientes x días de estancia/nº de camas de la UCI x días del año). Mientras que se considera que para un correcto funcionamiento la ocupación media no debe sobrepasar el 80%, no son infrecuentes ocupaciones medias del 95%, lo que significa que existen muchos días con ocupación superior al 100%. La consiguiente sobrecarga de trabajo para el personal sanitario de las UCIs se ha demostrado que conlleva un aumento de los errores. Las recomendaciones de las sociedades científicas de disponer de un 10% de camas de UCI del total del hospital son ciertamente matizables. La media en España, sin embargo, con el 3% parece claramente mejorable. El aumento de la demanda, es decir, del número de ingresos de pacientes, tanto médicos como quirúrgicos, junto a la reducción de la oferta, por la creciente gravedad de los pacientes y el correspondiente aumento de la estancia media, han llevado a agravar el mencionado problema de la falta de camas para ingresar pacientes. En el mundo existen a grandes rasgos dos tipos de gestión y organización de los cuidados intensivos, llamados abiertos y cerrados. En las unidades con un sistema abierto un médico solicita ingresar a su paciente y continúa siendo el responsable del mismo a lo largo de la estancia en cuidados intensivos. De esta manera, por ejemplo, un cirujano solicita cama en UCI para los cuidados postoperatorios de su paciente y continúa pasando visita a diario, tomando decisiones sobre el tratamiento, las pruebas diagnósticas a realizar, el alta, etc. Lógicamente, en este tipo de organización no hay médico de presencia física, que pueda acudir a atender una complicación aguda y los tiempos de respuesta son largos o inexistentes. Este sistema es el habitual en muchos países como por ejemplo los Estados Unidos. El sistema de UCIs cerradas es el común en países como España y Australia. En estas unidades hay médicos especialistas en medicina intensiva presentes las 24 horas del día, que pasan a ser los principales responsables de los pacientes que ingresan en la unidad. En estas unidades cerradas, además, se trabaja en equipo y se realizan habitualmente dos sesiones diarias en las que se discuten los casos de los pacientes. Estos elementos de comunicación han sido identificados como herramientas que garantizan la calidad asistencial y la formación continuada de los Servicios. En los últimos años se ha podido demostrar lo que, por otra parte, parece de sentido común, que las UCIs cerradas tienen mejores resultados y menor mortalidad que las UCIs abiertas. Esta noción ha llevado a que en Estados Unidos grupos de directores o gestores de hospitales como el grupo Leapfrog ejerza presión sobre los responsables de los centros para que contraten intensivistas full-time. Esta característica de los hospitales en el futuro tendrá consecuencias en la obtención de recursos de financiación. Sin la existencia de las unidades de cuidados intensivos, muchos de los avances de la medicina hospitalaria, como los trasplantes o la cirugía cardiaca, no habrían sido posibles. Por lo tanto, es seguro que la demanda de servicios de cuidados intensivos en los hospitales crecerá en los próximos años debido al aumento de las expectativas de vida de la población, que incrementará la edad de nuestros pacientes, así como a consecuencia de los avances tecnológicos. Asimismo, la población general tiene un conocimiento cada vez mayor de la estructura y función de las UCIs. Las consecuencias de esta mejor información serán 1) que los familiares entienden que los pacientes no ingresan para morir, sino que en estas unidades es posible aplicar cuidados que permitan sobrevivir a una enfermedad con riesgo vital y 2) que las expectativas y exigencias de que se apliquen cuidados de calidad y según estado del arte serán cada vez mayores para los intensivistas. Dr. Miguel Sánchez García. Jefe de Servicio de Medicina Intensiva del Hospital Clínico San Carlos de Madrid. 143 INICIATIVAS Y PROGRAMAS net "¿Quién dijo que el tratamiento con oxigenoterapia suponía estar encerrado en casa? (...) Quien fuera se equivocó." LA OXIGENOTERAPIA MÓVIL, TODO UN ABANICO DE POSIBILIDADES PARA LOS PACIENTES CRÓNICOS. PAUL GARCÍA. PAUL GARCÍA ¿Quién dijo que el tratamiento con oxigenoterapia suponía estar encerrado en casa? ¿Quién dijo que estos pacientes no podían desarrollar una vida activa? Quien fuera se equivocó. Cada vez más personas con enfermedades respiratorias y necesidad de recibir oxigenoterapia para seguir viviendo demuestran que sus vidas pueden ser activas, que pueden ser independientes y autónomos. Un buen ejemplo de ello fueron los 25 pacientes y sus familiares que la semana pasada se dieron cita en Madrid para participar en una Jornada de convivencia de pacientes con oxigenoterapia móvil. Acompañados en todo momento por personal médico y técnico, los participantes pudieron disfrutar de un Tour Turístico por las calles de Madrid. De este modo, algunos de los afectados que habitualmente no se animan a realizar actividades fuera de sus domicilios debido a sus limitaciones físicas, han podido hacerlo ahora acompañados de personal médico, destacó Javier de la Cruz, psicólogo de Carburos Médica que ha participado en la Jornada con pacientes. Y es que las personas con enfermedades respiratorias crónicas que reciben oxigenoterapia domiciliaria ven mermada notablemente su calidad de vida, tendiendo, en ocasiones, al aislamiento y a la pérdida de relaciones y actividades placenteras. Los participantes fueron, en su mayoría, afectados de Enfermedad Pulmonar Obstructiva Crónica (EPOC). Se estima que en nuestro país, el 9 por ciento de la población entre 40 y 60 años padece esta patología, cifra que aumenta hasta un 20 por ciento cuando se trata de pacientes que superan esas edades. Aunque muchos de ellos consiguen controlar la evolución de la enfermedad gracias a un diagnóstico y tratamiento adecuados, otros evolucionan de tal manera que la enfermedad deriva en una insuficiencia respiratoria u otras complicaciones. Cuando los niveles de oxígeno en la sangre descienden por debajo de 60 mmHg estaría indicada la oxigenoterapia crónica domiciliaria, explica el doctor Salvador Díaz Lobato, jefe de Urgencias del Hospital Ramón y Cajal, en Madrid. Se estima que la prevalencia de la oxigenoterapia en España es de 115 por 100.000 habitantes, lo que implica que 60.000 pacientes con EPOC reciben tratamiento con oxigenoterapia. Participantes en la jornada sobre EPOC en Madrid. 146 En estos casos, el paciente debe recibir un suministro de oxígeno durante un tiempo mínimo estimado en 16 horas al día para que la terapia sea efectiva. En este punto, la oxigenoterapia móvil supone una importante mejora en la calidad de vida de los pacientes, ya que les permiten salir de su casa y aumentar su movilidad, manteniendo siempre una buena oxigenación, asegura el doctor Díaz Lobato. El encuentro, que tenía como objetivo mostrar tanto a los pacientes como al resto de la población que es posible hacer compatible un tratamiento con oxígeno y una vida prácticamente normal, ha sido organizado Carburos Médica y el Hospital Ramón y Cajal de Madrid. Oxigenoterapia móvil. Actividades como ésta son posibles a la colaboración de entidades que facilitan a los pacientes todo el equipamiento médico y técnico necesario. En este caso, los pacientes que participaron dispusieron de las últimas incorporaciones tecnológicas en los tratamientos con oxígeno, que están permitiendo que los pacientes ya puedan plantearse este tipo de actividades. La oxigenoterapia móvil, suministrada tanto mediante contenedor de oxígeno líquido portátil como a través de un concentrador portátil, aporta a los pacientes grandes beneficios ya que la movilidad es algo muy importante para cuando se precisa estar conectado a una fuente de oxígeno durante más de 16 horas al día para poder respirar. La elección de un tipo u otro de oxigenoterapia depende, fundamentalmente, del tipo de vida activa que el paciente es capaz de realizar. La oxigenoterapia móvil permite al paciente desplazarse con oxígeno fuera de su domicilio y la movilidad obtenida puede ser de varias horas o total dependiendo de la fuente de suministro. En el caso del concentrador portátil, su tecnología le hace asemejarse al funcionamiento de un teléfono móvil ya que se recarga fácilmente en una fuente eléctrica y, además, dispone de baterías externas recargables. En este punto, los sistemas de oxigenoterapia móvil suponen una importante mejora en la calidad de vida de los pacientes, ya que les permiten salir de su casa y aumentar su movilidad, manteniendo siempre una buena oxigenación, ha asegurado Javier de la Cruz. Aunque sus ventajas en cuanto a la mejora de la calidad de vida y de la libertad son claras, aún hay muchos pacientes que desconocen esta opción o piensan que no está hecha para ellos. Sin embargo, cualquier paciente que necesite oxígeno y que lleve una vida activa es susceptible de utilizar este tipo de tratamiento. ¿Qué es la EPOC? Puedes encontrar este artículo en EL BLOG QUE RESPIRA, el blog de Carburos Médica en www.proyectonets.org. Recuerda que en NETS puedes comentar los artículos, dar tu opinión, participar en debates y escribir nuevos artículos. La mayoría de los pacientes que precisan oxigenoterapia están diagnosticados de Enfermedad Pulmonar Obstructiva Crónica (EPOC), una afección pulmonar que se caracteriza fundamentalmente por la disminución de los flujos ventilatorios, dando así lugar a una obstrucción bronquial que, a la larga, conduce a la aparición de unos síntomas, entre los que el fundamental es la falta de aire o disnea. Si la enfermedad avanza a unos niveles en los que el aparato respiratorio es incapaz de mantener una adecuada cantidad de oxígeno en la sangre, será preciso el uso de oxigenoterapia, explica el experto. El paciente con EPOC que recibe oxigenoterapia suele ser varón, con una larga historia de fumador y con unos 55 ó 60 años de edad. Este perfil puede variar en los próximos años debido al aumento del número de mujeres fumadoras. Cuando a estos aspectos se añaden otros problemas o patologías asociadas, como obesidad o alguna cardiopatía, entonces, puede adelantarse la edad de indicación de la terapia. La primera medida terapéutica en todos los pacientes es el abandono del hábito tabáquico, responsable de la gran mayoría de los casos de EPOC. Además, antes de comenzar con la oxigenoterapia, está indicada la rehabilitación respiratoria para mejorar la condición ventilatoria y el uso correcto de broncodilatadores y corticoides inhalados. Sólo cuando estas medidas no son suficientes para mantener una adecuada oxigenación de la sangre, ha de plantearse dar un paso más y comenzar con el tratamiento con oxígeno crónico domiciliario, concluye el doctor Díaz Lobato. Paul García de Oteyza. Director de Marketing de Carburos Médica - Grupo Air Products. 147 "Las medidas preventivas son técnicas pero requieren de la connivencia de todas las instituciones y personas con responsabilidades sociales" ALIANZA PARA LA PREVENCIÓN DEL CÁNCER DE COLON: UNA AVENTURA COMPARTIDA. Dr. ANTONI CASTELLS. Dr. ANTONI CASTELLS El cáncer colorrectal es un problema de salud que nos concierne a todos. Sin duda, en una primera lectura, esta aseveración se justifica por la demografía y las características epidemiológicas de esta neoplasia. Así, en el momento actual, es ya el tumor más frecuente en España, con más de 25.000 nuevos casos al año. Además, a pesar de los grandes avances alcanzados en su tratamiento en las últimas décadas, continúa siendo la segunda causa de muerte por cáncer, falleciendo en nuestro país más de 13.000 personas cada año como consecuencia del mismo. La paridad entre géneros y el crecimiento exponencial de su incidencia a partir de los 50 años de edad hace que una proporción muy significativa de la población deba considerarse a riesgo de presentar esta enfermedad, una circunstancia reforzada por la inquietante implicación de los factores ambientales y genéticos en su patogenia. Más allá de los aspectos demográficos y epidemiológicos señalados, la relevancia del cáncer colorrectal a nivel personal, social y económico viene dada por las enormes posibilidades que tenemos para evitarlo. Hoy en día, nadie cuestiona la importancia de una dieta sana o del ejercicio en la prevención de las enfermedades cardiovasculares, o la eficacia de la mamografía en la detección precoz del cáncer de mama. Sin embargo, a pesar de la demostración inequívoca de la efectividad y eficiencia de las medidas de cribado del cáncer de colon y recto, aun se discute la necesidad o la conveniencia de instaurarlas. Muchos son los factores que pueden justificar esta inconsistencia y, a bien seguro, nadie está libre de culpa. Las autoridades y los gestores sanitarios han sido, durante muchos años, reticentes a la puesta en marcha de programas de cribado, en parte por el elevado coste que supone su puesta en marcha. La bondad de un sistema público, universal y gratuito, obliga a evaluar con precisión el retorno que va a tener la inversión que comporta cualquier nueva prestación, aunque en el caso que nos ocupa el balance a medio y largo plazo es favorable a todas luces. Los profesionales sanitarios tampoco estamos en condiciones de tirar la primera piedra, pues la formación cada vez más específica hace, en ocasiones, que desconozcamos algunos de los avances más sobresalientes de la Medicina contemporánea. Es deber de las sociedades científicas, a través de una formación continuada de calidad, y de los docentes con responsabilidades en ciencias de la salud, por lo que concierne a la enseñanza de pregrado, dar a conocer la evidencia científica que hoy se dispone. Por último, el ciudadano también es partícipe, en su parte alícuota, en la dilación a instaurar determinadas actuaciones, en ocasiones escudado en la política del a mi no me ocurrirá y, en otras, por la reticencia en asumir medidas dietéticas o modificaciones de ciertos hábitos, en su mayoría que obligan a modificar, aunque sólo sea discretamente, nuestro irrenunciable estilo de vida. La prevención del cáncer de colon es un deber común. Cada uno de nosotros, en calidad de profesionales, gestores sanitarios implicados en salud pública o ciudadanos de a pié, tenemos alguna responsabilidad en la solución de este importante problema. Los beneficios los podremos medir en escalas de valores personales, evitando a nuestros hijos el amargo acontecer de la orfandad o, más importante aun en nuestra condición de padres, previniendo en ellos la aparición de la cruel enfermedad que condicionó el devenir de la 148 propia familia. Los beneficios alcanzan significación macroeconómica, no tan sólo por el sustancial ahorro de recursos económicos, técnicos y humanos que el cribado del cáncer colorrectal lleva parejo a medio plazo un periodo no demasiado largo pero, en cualquier caso, superior a los cuatrienios en los que debe visualizarse cualquier nueva actuación impulsada por nuestros responsables políticos, sino también por el impacto sociodemográfico asociado. Con el fin de dar a conocer y difundir la importancia del cáncer de colon y recto, así como promocionar las medidas encaminadas a su prevención, recientemente cinco sociedades científicas Asociación Española de Gastroenterología (AEG), Sociedad Española de Epidemiología (SEE), Sociedad Española de Medicina Familiar y Comunitaria (SEMFyC), Sociedad Española de Oncología Médica (SEOM), y Sociedad Española de Oncología Radioterápica (SEOR), la Asociación Española Contra el Cáncer (AECC), y la Asociación de pacientes Europacolon-España, han decidido unir esfuerzos y constituir la Alianza para la Prevención del Cáncer Colorrectal en España. En su primer año de existencia, este consorcio ha llevado a cabo diferentes actos y actividades científicas, sociales y mediáticas en toda España a lo largo del pasado mes de marzo, coincidiendo con la celebración del mes internacional del cáncer colorrectal. Algunas de estas actividades han tenido un carácter central, entre las que destacan la presentación de la Alianza ante la Comisión de Sanidad del Congreso de Diputados, la Jornada para la prevención del cáncer de colon en España en el medio laboral (coorganizada por la Fundación Tejerina), la Jornada Implicación de enfermería en la prevención del cáncer de colon (coorganizada por el Consejo General de Colegios de Enfermería) y la Jornada para la Prevención del Cáncer de Colon en España (coorganizado por el Ministerio de Sanidad y Consumo). Además, se han llevado a cabo más de 100 actos y actividades más en la mayoría de Comunidades Autónomas, para los que se han contado con la colaboración de sus respectivas consejerías de sanidad. Para más información, recomendamos consultar la página de la Alianza: www.alianzaprevencioncolon.es El cáncer colorrectal es un problema que nos concierne a todos, y su prevención, un deber común. Las medidas preventivas son técnicas, pero para llevarlas a cabo se necesita la connivencia de todas las instituciones y personas con responsabilidades sociales. No dejemos que el discurso político o ideológico monopolice esta importante labor. La colaboración entre todos los implicados gestores sanitarios, profesionales de la salud, ciudadanos comprometidos, y pacientes es crucial para el pleno desarrollo de esta campaña, cuyo objetivo final es dar a conocer que esta grave y frecuente enfermedad puede, no tan sólo curarse, sino incluso prevenirse. En las manos de todos nosotros, administraciones, entidades científicas, sociedad civil y asociaciones de pacientes, está que lo consigamos. Organismos y entidades mencionadas: Comisión de Sanidad del Congreso de Diputados www.congreso.es Consejo General de Colegios Oficiales de Enfermería de España www.cge.enfermundi.com Fundación Tejerina www.fundaciontejerina.es Ministerio de Sanidad y Consumo www.msc.es Dr. Antoni Castells i Garangou. Jefe del Servicio de Gastroenterología del Hospital Clínic de Barcelona, IDIBAPS-CIBERehd. Coordinador nacional de la Alianza para la Prevención del Cáncer de Colon. Enlaces a páginas Web: Alianza para la Prevención del Cáncer Colorrectal en España www.alianzaprevencioncolon.es Fundadores: Asociación Española Contra el Cáncer (AECC) www.todocancer.com Asociación Española de Gastroenterología (AEG) www.aegastro.es Sociedad Española de Medicina de Familia y Comunitaria (SEMFyC) www.semfyc.es Sociedad Española de Oncología Médica (SEOM) www.seom.org Sociedad Española de Oncología Radioterápica (SEOR) www.seor.es Sociedad Española de Epidemiología (SEE) www.seepidemiologia.es Asociación de pacientes Europacolon-España www.europacolonespana.org 149 Proyecto NETS es un proyecto vivo gracias a la participación activa de muchas personas e instituciones. Queremos hacer una mención especial a Alfonso Díez y su equipo en Bet Value, a Javier Marín y a los profesionales de Dialcom Networks por sus aportaciones técnicas a www.proyectonets.org. A todos los autores que han colaborado desinteresadamente en este número, a las organizaciones e instituciones, públicas y privadas que se han adherido a NETS y especialmente a Paul García de Oteyza, Javier Gago, Inmaculata Ramos, Jan Möller, Javier Lorite, Pedro Tellería, Julio Fernández Llamazares, Fran Marín, Enrique Gavilán, Antonio Villafaina, Fernando Comas, Javier Valera, Jesús Aguilar, Laura González-Molero, Ana Céspedes, Santiago Almazán, Xavier Carbonell, Werner Knuth, Concha Marzo, Mary Carmen Muiños, Guillermo Castillo, Paloma Fernández-Cano y Joaquím Camprubí. A la Agencia de Calidad del SNS y la Agència d´Avaluació de Tecnologia i Recerca Mèdiques por reconocer a NETS como herramienta de interés para el sector sanitario, y a todos los usuarios de www.proyectonets.org. Nicolás Villar. Director de Proyecto NETS. Octubre de 2009. nets continúa en... www.proyectonets.org nets está integrada en la Red de Información y Comunicación de Tecnología aplicada a la Salud