Autor: Esteve

  • Taxonomías editoriales

    Taxonomías editoriales

    A raíz de una nota editorial publicada en Gaceta Sanitaria en que dos de sus editores acuñaban el término “autores parásitos”, y dado que este es un tema que me interesa y sobre el que había escrito ya algo sobre en esta “caixadepuros”, escribí una Carta a la Directora.


    La Carta acaba de ser publicada en el número 2 (marzo de 2015) de Gaceta Sanitaria, y se puede leer y descargar de la web de la revista, aunque la política editorial de SESPAS no permite hacerlo libremente hasta dentro de unos meses.


    Por ello, y con los debidos permisos, la reproduzco a continuación en este blog. No dejéis de pasaros por la web de Gaceta Sanitaria para descargar la Carta en un futuro próximo… y daros una vuelta por la revista y sus blogs (de los editores y amigos), que valen mucho la pena.

    Autores-revisores y editores, ¿parasitismo o simbiosis?

    Sra. Directora:


    He leído con agrado la Nota editorial de Ruano-Raviña y Álvarez-Dardet [1] sobre la falta de colaboración de algunos autores con las revistas para hacer revisiones. De forma atrevida, califican a dichos autores como «parásitos», y aunque parezca algo exagerado no les falta razón. Es una reflexión lógica desde la trinchera editorial, basada en la dificultad casi diaria de encontrar revisores para los manuscritos que les llegan. Lanzan los editores algunas ideas que alguno podría interpretar como amenaza: publicar la lista de «parásitos» o declinar revisar artículos por falta de revisores. No son malas ideas, pero creo que seguramente tampoco son demasiado buenas. Me planteo algunas preguntas que me parecen relevantes, y cuyas respuestas permitirían caracterizar mejor el problema, en Gaceta Sanitaria o en cualquier revista: en un período determinado de tiempo (un año, por ejemplo), ¿a cuántas personas se pide una revisión y cuántas aceptan?, ¿cuántas personas rechazan colaborar con la revista y cuántas veces lo hacen?, ¿qué razones dan para declinar la invitación para revisar?, ¿publican frecuentemente las personas que no colaboran?, ¿habían colaborado con anterioridad? Bien es cierto que este análisis, que aportaría una información muy útil, se añadiría a las tareas que ya realizan los editores −y en Gaceta Sanitaria lo hacen, además, de forma altruista-.


    También deseo hacer notar que a veces algunos autores-revisores nos sentimos cansados y hasta quemados. Como explicaba en otro lugar [2], tras realizar mi duodécima revisión editorial en lo que iba de año y haber rechazado hacer otras cuatro para 13 revistas diferentes (corría el mes de abril), creo que existe también un «síndrome del revisor quemado». Algunos autores-revisores reciben muchas solicitudes de colaboración, porque hay muchas (¿demasiadas?) revistas que reciben muchos (¿demasiados?) manuscritos. Poder cuantificar esto o la disponibilidad para revisar mediante algún tipo de declaración individualizada no debería ser demasiado complicado, quizás en plataformas como ORCID [3]  o ResearcherID [4] que pudieran enlazarse a los sistemas de gestión editorial de las revistas. Defiendo que los revisores puedan y sepan decir «no» cuando el tiempo les apremia, el tema del manuscrito se escapa de sus conocimientos o sencillamente no les apetece hacer una revisión (que a veces también es una buena razón). Y las revistas deberían controlar mejor la frecuencia con que envían manuscritos a sus revisores (y en muchas ocasiones sucesivas reevaluaciones), los plazos de entrega y los sistemas de aviso automático. Y lo más importante: “cuidar”, o hacerlo un poquito más, a sus revisores como ya hace Gaceta Sanitaria [5,6].


    Desde la perspectiva del autor-revisor, quizás también podríamos calificar de «parásitos» a algunas revistas o ciertos editores que piden revisiones indiscriminadamente. Vaya por delante que no es el caso de Gaceta Sanitaria, que conozco bien como anterior director y miembro de su actual consejo editorial. Pero viene a colación comentar que algunas revistas piden revisiones y segundas revisiones insistentemente, sin tener en cuenta cuándo se colaboró por última vez, ni considerar el tema del manuscrito, y que incluso pueden llegar a solicitar una «edición técnica» del manuscrito al revisor. Y tengo la sensación, por mi experiencia con algunas nuevas revistas, de que algunos “editores” sólo trasiegan la correspondencia entre autores y revisores, sin desarrollar el verdadero papel editorial de discernir las bondades y limitaciones de los trabajos, su relevancia y potencial interés para la audiencia de la revista, ni ayudar a los autores en la mejora del manuscrito [7].



    Aunque existan «autores parásitos», y también «revistas y editores parásitos», con las editoriales y revistas «depredadoras» [8,9] como máximo exponente (que es otro tema), creo firmemente que la relación entre autores-revisores y editores debería ser de amable y fructífera simbiosis.



    Esteve Fernández

    © 2014 SESPAS. Publicado por Elsevier España, S.L.U. Todos los derechos reservados.

    Contribuciones de autoría. El autor es el
    único responsable de las ideas expresadas y de la redacción de la carta.
    Financiación. Ayudas de
    investigación de la AGAUR de la Generalitat de Catalunya (2009SGR192 y 2014SGR999)
    y del Instituto de Salud Carlos III del Gobierno de España (
    RD12/0036/0053).
    Conflictos de intereses. El autor fue
    Director de Gaceta Sanitaria (2004-2010) y es miembro de su Consejo Asesor. La
    declaración detallada de sus intereses está disponible en 
    http://www.seepidemiologia.es/descargas/conflicto/297.pdf .




    Bibliografía

    [1] Ruano-Raviña
    A, Álvarez-Dardet C. Autores parásitos o altruismo en el trabajo editorial. La
    importancia de que los/las autores/as también sean revisores/as. Gac Sanit.
    2014;28:354–5.



    [2] Fernández E. Revisando que es gerundio
    (o ¿existe un “síndrome del revisor quemado”?). Blog Caixa Puros. 2014.
    Disponible en: .
    https://www.caixadepuros.cat/2014/04/revisando-que-es-gerundio-o-existe-un.html
    Accedido: 6 Sept 2014.



    [3] ORCID | Connecting Research and
    Researchers. Disponible en:
    http://orcid.org/. Accedido: 6 Sept 2014.


    [4] RESEARCHERID. Disponible en:www.researcherid.com. Accedido: 6 Sept 2014.


    [5] García AM. A nuestros evaluadores, con
    amor. Gac Sanit. 2003;17:444–5.



    [6] Borrell C, Domínguez-Berjón MF, Álvarez-Dardet
    C, et al. Gaceta Sanitaria en 2013: cambios, retos e incertidumbres. Gac Sanit.
    2014;28:96–9.



    [7] Marušić M. Life of an editor. Zagreb:
    Croatian Medical Journal Books; 2010.



    [8] Beall J. Predatory publishers are
    corrupting open access. Nature. 2012;489:179.



    [9] Beall J. List of publishers. Beall’s
    List. Blog Scholarly Open Access. 2014. Disponible en:
    http://scholarlyoa.com/publishers/.
    Accedido: 7 Sept 2014.
  • MIR 2.0 2015: epidemiología, medicina preventiva y salud pública

    Parece ya una tradición… y “sólo” es el tercer año que colaboro con MIR2.0. Me estrené en el 2013, repetí en el 2014 en tándem con Pedro Gullón (¡mirad su blog “Salud, sociedad y más”!) y este 2015, completamos trío con Guillermo Ropero –y quien ha llevado el peso ha sido Pedro, hay que reconocerlo!. Gracias, porque con la deadline del H2020 en dos semanas, el FIS en puertas y poniendo notas del primer cuatrimestre no me veía capaz, a pesar de la ilusión por este proyecto que creo ya más que consolidado. Así que también felcidades a sus impulsores con @Emilenko al frente.


    Otra vez 17 preguntas, o 16 y una de gestión sanitaria, según se mire, que también han contestado Miguel Ángel Manyez (Salud con cosas) e Iñaki Gonzalez (Sobrevivirrhhé), que es un buen pellizco (7,5%, ¡que se note que soy epidemiólogo!) de las 225 preguntas que tiene el examen MIR. 


    Aquí están  las preguntas de epidemiología, medicina preventiva y salud pública, también disponibles en el bloc “Salud, sociedad y más” de Pedro y en wikisanidad:


    178. Si se
    quisiera estudiar la eficacia y seguridad de un nuevo citostático para un
    determinado proceso oncológico y, al mismo tiempo, contrastar la eficacia que
    añade a dicho tratamiento un nuevo anticuerpo monoclonal, ¿cuál sería el diseño
    más apropiado?


    1.       Ensayo paralelo
    2.       Ensayo cruzado
    3.       Ensayo factorial
    4.       Ensayo secuencial
    5.       Ensayo de n=1


    La pregunta es clara: se refiere al “ensayo
    clínico factorial”, aunque no sea el concepto más común del MIR. El ensayo
    clínico factorial se usa para evaluar más de una intervención en un estudio. El
    diseño clásico de un estudio factorial es:

    Otros estudios, de maneras menos típicas,
    podrían ser utilizados también, pero el diseño factorial es el más adecuado en
    este caso.

    Más información en:  http://www.cochrane.es/files/TipoDisenInvestigacion_0.pdf


    179. ¿Cuál de
    estos enunciados NO es una característica de los ensayos clínicos de fase I?


    1.       Suelen tener objetivos no terapéuticos
    2.       Pueden realizarse en voluntarios sanos
    3.       Pueden realizarse en pacientes
    4.       Suelen ser aleatorizados
    5.       Suelen ser abiertos


    Pregunta con cierta intención de trampa y
    donde el vocabulario da muchas pistas sobre cómo contestar. Vamos a disentir en
    esta respuesta de la que dan nuestros compañeros de farmacología que también la
    han contestado (
    https://wikisanidad.wikispaces.com/Farmacolog%C3%ADa+2015 ). Vayamos respuesta por
    respuesta:

    Los ensayos clínicos en fase I se utilizan en
    individuos sanos (respuesta 2 falsa) para comprobar aspectos de farmacocinética
    y farmacodinamia (respuesta 1 falsa). Suelen hacerse en pacientes sanos, aunque
    en algunos casos se realizan en pacientes (en insuficiencia renal o hepática se
    necesitan sujetos enfermos para poder calcular farmacocinética y
    farmacodinamia, respuesta 3 falsa, PUEDEN ser realizados en pacientes).  Por otro lado, al no tener frecuentemente
    grupo control, suelen ser estudios abiertos (respuesta 5 falsa) y no
    aleatorizados (respuesta 4 correcta).

    180. Al comparar
    las características de los estudios clínicos pragmáticos o confirmatorios
    respecto de los estudios clínicos explicativos o exploratorios, ¿cuál de los
    siguientes es una ventaja de los primeros?


    1.       Información sobre subrupos de pacientes representativos de la práctica
    clínica  habitual

    2.       Muestra muy homogénea, con escasa variabilidad
    3.       Mayor capacidad para detectar diferencias en la eficacia de las
    intervenciones

    4.       Mayor validez interna
    5.       Menor tamaño muestral


    Los estudios clínicos aleatorizados
    pragmáticos son evaluaciones confiables de la efectividad de los cuidados de la
    salud conducidas bajo circunstancias  del mundo real. Los estudios
    clínicos aleatorizados explicativos clásicos (estudios clínicos de eficacia),
    prueban los efectos, bajo condiciones ideales y rigurosamente controladas, de
    tratamientos precisamente caracterizados y especificados en grupos de pacientes
    individuales estrechamente definidos.

    Con estas definiciones queda claro que la
    respuesta correcta es la 1. La respuesta 2 es más típica de los ensayos
    explicativos, al igual que la 3 y la 5. Por otro lado, lo que aumenta con los
    ensayos pragmáticos es la validez externa, no la interna (resultan más generalizables
    o  “reales”).

    181. Le presentan
    un estudio de cohortes en el que han participado 1000 mujeres fumadoras y 2000
    mujeres de la misma edad no fumadoras. Si al cabo de 5 años, han presentado un
    ictus 30 mujeres fumadoras y 20 mujeres no fumadoras, ¿cuál sería el Riesgo
    Relativo y el Riesgo Atribuible?


    1.       RR= 3, RA=10 de cada 1000
    2.       RR=3, RA=20 de cada 1000
    3.       RR=1.5, RA=10 de cada 1000
    4.       RR=1.5, RA=30 de cada 1000
    5.       RR=10 de cada 1000, RA=3


    Para las preguntas de números (que son muy
    pesadas), lo mejor es ponerse una tabla de contingencia para representar bien
    los conceptos y tener claro qué es lo que nos preguntan.

    Ictus
    a los 5 años

    No
    ictus a los 5 años

    Fumadoras

    30

    970

    1000

    No
    fumadoras

    20

    1980

    2000

    50

    2950

    3000

    Ya colocado así, sabiendo que el Riesgo
    Relativo es el cociente entre la incidencia de la enfermedad en los expuestos
    (Ie) y la de los no expuestos (Ine), y que el Riesgo Atribuible es la
    Incidencia en expuestos  menos la
    incidencia entre no expuestos, la pregunta queda hecha.

    RR= Ie/Ine = (20/2000) / (50/3000) =
    0,03/0,01 = 3

    RA=Ie-Ine = 0,03-0,01 = 0,02 à 0,02 de 1 à 2 de 100 à 
    20 casos de cada 1000

    182. En un centro
    de salud se está realizando un estudio para determinar el efecto de la
    exposición al humo del tabaco en hijos de padres fumadores. Para ello, se
    selecciona a un grupo de niños sanos entre 3 y 7 años cuyos padres son
    fumadores y al mismo tiempo se selecciona en el mismo centro un igual número de
    niños cuyos padres no son fumadores. Un año después se investigará en ambos
    grupos la aparición de enfermedades respiratorias durante ese año. Indique la
    respuesta correcta:


    1.       El diseño del estudio es una cohorte prospectiva
    2.       El diseño del estudio es casos y controles
    3.       El diseño del estudio sigue una metodología cualitativa
    4.       El estudio es experimental
    5.       El tipo de diseño utilizado es eficiente para estudiar enfermedades
    raras


    Pregunta muy fácil, de las que caen en el MIR
    todos los años. Define un estudio de cohortes. Más exactamente un estudio de
    “doble cohorte” (cohorte de expuestos y de no expuestos). Tenemos a un grupo de
    expuestos al humo del tabaco sin enfermedad, y a un grupo de no expuestos al
    humo del tabaco sin enfermedad. Se les sigue durante un año, y se comprueba la
    incidencia de enfermedades respiratorias.


    Descartando el resto, no es un estudio de
    casos y controles (se divide a los sujetos en expuestos/no expuestos, y se les
    sigue en el tiempo, respuesta 2 falsa); el estudio de enfermedades raras es más
    apropiado en estudios casos y control (respuesta 5 falsa), el estudio es
    observacional (respuesta 4 falsa), y es un estudio cuantitativo (respuesta 3
    falsa, aunque nos parece interesante que introduzcan al menos la metodología
    cualitativa, que no variables cualitativas, de alguna manera en el MIR).

    183. Se ha llevado
    a cabo un estudio con el fin de determinar el riesgo de hemorragia digestiva
    alta (HDA) asociado con el uso de diferentes anti-inflamatorios no esteroideos
    (AINE). Para ello se incluyeron 2777 pacientes con HDA y 5532 pacientes
    emparejados con los anteriores por edad y mes de ingreso o consulta, en los
    mismos hospitales, pero por otras razones que no tuvieran que ver con el uso de
    AINE. Se calculó el riesgo comparativo de sufrir una HDA asociado a la
    exposición previa a diferentes AINE. ¿De qué tipo de estudio se trata?


    1.       Estudio de cohortes
    2.       Estudio de casos y controles
    3.       Estudio transversal
    4.       Estudio experimental
    5.       Estudio ecológico


    De nuevo pregunta fácil sobre los tipos de
    estudios epidemiológicos. Vamos a intentar ver qué es lo que hace el estudio, y
    de ahí deducir la respuesta. En el estudio se escogen unos sujetos con HDA y
    otros sujetos sin HDA para comprobar si la exposición previa a AINE se relacionaba
    con HDA. Es el clásico estudio de casos y controles (respuesta 2 correcta), y se
    podría añadir  “emparejado” al título del
    estudio (aunque eso no viene en las respuestas). La única frase que puede hacer
    dudar es la de que los controles fuesen a los mismos hospitales por razones que
    no tuvieran que ver con el uso de AINE; sin embargo, esto no modifica el tipo
    de estudio, es para evitar sesgos.


    Un estudio de cohortes tendría que implicar
    seguimiento de los pacientes y reclutarlos según exposición, no según tengan
    enfermedad o no. Un estudio transversal no preguntaría por exposición “previa”
    a AINE, si no por ese mismo momento (aunque es discutible según bibliografía,
    no creo que sea justificable como respuesta transversal). Un estudio
    experimental implicaría aleatorizar a individuos a recibir una intervención o
    no, y un estudio ecológico es el que utiliza como unidad de análisis un área, y
    no el individuo.

    187. En evaluaciones
    económicas, ¿cuál de los siguientes costes corresponden a costes indirectos no
    sanitarios?


    1.       Hospitalización del paciente
    2.       Cuidados en casa de pacientes
    3.       Pérdida de productividad del paciente
    4.       Gastos de desplazamiento del paciente
    5.       Rehabilitación del paciente


    La definición clásica de costes indirectos es
    de aquellos derivados de la pérdida potencial de productividad que ocasiona una
    enfermedad (también se les llama “costes de productividad”). Estos costes se
    deben a la pérdida o limitación de la capacidad para trabajar que conlleva un
    determinado problema de salud, su tratamiento o la muerte del paciente. Eso
    deja la respuesta 3 como la más probable. 
    Podéis encontrar una respuesta más elaborada en el blog de Miguel Ángel Máñez.

    188. En un estudio
    farmacoeconómico, el fármaco A produce una esperanza de vida de 5 años con un
    coste total de 5000 €, mientras que el fármaco B produce una esperanza de vida
    de 6 años con un coste total de 15000 € (valores medios por paciente). El
    criterio de decisión se basa en escoger la intervención más efectiva con un
    umbral de costo-efectividad de 30.000 € por año de vida adicional ganado por
    paciente, ¿qué fármaco es costo-efectivo respecto del otro y por qué?


    1.       El fármaco B, porque el coste-efectividad incremental con respecto al
    A está por debajo del umbral de coste-efectividad

    2.       El fármaco A, porque cuesta menos que el B y sólo hay un año de
    diferencia en esperanza de vida

    3.       El fármaco A, porque el coste-efectividad incremental de B con
    respecto a A está por encima del umbral del coste-efectividad

    4.       El fármaco B, porque cada año de vida tiene un coste de 29500 € por
    debajo del umbral de coste-efectividad

    5.       El fármaco A, porque el coste-efectividad incremental con respecto al
    B está por encima del umbral del coste-efectivdad


    En este caso, estamos de acuerdo con la
    respuesta que ofrecen en las respuestas de farmacología, que también se han
    animado a contestarla (
    https://wikisanidad.wikispaces.com/Farmacolog%C3%ADa+2015 ). Copiamos su explicación:

    Realizando el cálculo del coste-efectividad incremental
    = (Coste por paciente de opción B – Coste por paciente de opción A) /
    (Efectividad de B – Efectividad de A), está por debajo del umbral de 30.000
    euros.

    191. ¿La
    vacunación con vacuna antipoliomielítica inactivada genera inmunidad de grupo?
    (señale la respuesta correcta)

    1.      
    2.       No
    3.       Solo cuando se utilizan vacunas con adjuvantes
    4.       Solo frente al virus polio tipo 3
    5.       Solo si se administra con vacuna DTP


    Pregunta complicada y algo confusa. Tanto la
    vacuna VPI (inactivada) como la VPO (la oral, con virus vivos) pueden producir
    inmunidad de grupo. Puede generar confusión la respuesta 2, ya que la VPO
    produce inmunidad de grupo como característica principal al excretarse por
    heces durante más tiempo que la VPI. Sin embargo, ambas producen inmunidad de
    grupo, por lo que es la respuesta “más correcta”.

    Fuente: Salmerón García F, et al. Vacunas
    antipoliomielíticas, erradicación y posterradicación. Rev Esp Salud Pública
    2013; 87(5):500.

    Puntos clave vacunas poliomielitis: http://vacunasaep.org/manual/Cap8_16_Poliomielitis.pdf

    192. Respecto a la
    vacunación con vacuna de rubeola en embarazadas, señale la respuesta correcta:


    1.       Debe de estimularse ya que es muy conveniente para la Salud Pública
    2.       Es el procedimiento de elección para el control del síndrome de
    rubeola congénita

    3.       No se considera ya como una indicación de aborto
    4.       Es permitida en el caso de las vacunas de la cepa RA 27/3, pero no en
    el caso de las vacunas de la cepa Cendehill

    5.       Se debe administrar conjuntamente con inmunoglobulina específica


    La vacuna de la rubeola, incluida en la
    triple vírica, está contraindicada en mujeres embarazadas ya que no hay
    estudios suficientes que demuestren su seguridad. Sin embargo, no es indicación
    de aborto en caso de vacunación accidental. El resto de las opciones son por
    tanto falsas.

    Fuente: Centers
    for Disease Control and Prevention.
    Control and prevention of rubella: evaluation and management of
    suspected outbreaks, rubella in pregnant women and surveillance for congenital
    rubella syndrome.
    MMWR.
    2001; 50(RR-12).

    193. En un ensayo
    clínico que evalúa la eficacia de un hipolipemiante en la prevención primaria
    de la cardiopatía coronaria, si los investigadores han planificado análisis de
    resultados intermedios y a la vista de ellos suspenden el estudio antes de su
    finalización tienen que saber que:


    1.       Sólo puede ser interrumpido el estudio cuando en algún análisis
    intermedio hay una diferencia entre los resultados de las intervenciones
    p<0.05

    2.       Sólo está justificada la interrupción en aquellos estudios que tienen
    como variable de resultados la mortalidad

    3.       Si la intervención es segura el estudio no puede interrumpirse antes
    de que haya finalizado

    4.       Cuando se interrumpe precozmente un ensayo clínico es frecuente que se
    sobrestime el efecto de la intervención evaluada

    5.       La realización de análisis intermedios disminuye la posibilidad de
    error tipo I


    La primera respuesta es claramente falsa. La
    interrupción de un ensayo clínico por un análisis intermedio se hace por: a)
    encontrar resultados claramente superiores, en los que se considere éticamente
    que los controles se tienen que beneficiar (encontrar una p<0.05 esto no
    implica necesariamente eso); o b) en casos en los que la seguridad del paciente
    se vea comprometida, a pesar de las fases anteriores. De esta manera también
    descartamos  la respuesta 2 y la 3, ya
    que hay más razones para interrumpir un ensayo en un estudio intermedio. Muchos
    análisis intermedios aumentan la probabilidad de tener un error tipo I
    (respuesta 5 falsa), y, en caso de interrumpir el ensayo, suelen sobreestimar
    los efectos de la asociación.


    Para encontrar más información con una
    detallada explicación, podéis consultar este artículo monográfico de
    interrupciones de ensayos: “Interrupción precoz de los ensayos clínicos.
    ¿Demasiado bueno para ser cierto? Med Intensiva. 2007;31(9):518-520.”
    Disponible en:  
    http://scielo.isciii.es/scielo.php?script=sci_arttext&pid=S0210-56912007000900006

    194. Cuando se
    realiza un cribado para una enfermedad, dirigida a grupos de riesgo elevado,
    buscando enfermedad en su estado inicial, se denomina:


    1.       Cribado simple, no selectivo, precoz
    2.       Cribado simple, selectivo, precoz
    3.       Cribado múltiple, no selectivo, tardío
    4.       Cribado múltiple, selectivo, precoz
    5.       Cribado simple, selectivo, tardío


    De nuevo pregunta muy poco práctica,
    simplemente orientada a la memorización y esquematización de conceptos. Sin
    embargo, si se contesta de forma sistemática es una pregunta bastante sencilla;
    para ello, como nos dan varias respuestas girando alrededor de combinaciones de
    conceptos, vayamos a ellos:

    – Cribado simple vs cribado múltiple: como
    tiene lógica por el nombre, el cribado simple va orientado hacia una
    enfermedad, mientras que el cribado complejo lo va hacia un grupo de
    enfermedades.

    – Cribado selectivo vs no selectivo: quizá
    éste no es tan evidente como el otro, pero sabiendo la información que da la
    pregunta es sencillo sacar la definición por uno mismo. Los cribados selectivos
    se refieren a los orientados a pacientes de alto riesgo, y los no selectivos
    orientados a la población general.

    – Precoz vs tardío: el cribado precoz tiene
    como objetivo la búsqueda de la enfermedad en estadios iniciales, y los tardíos
    buscan casos “olvidados” en la población.

    Combinando lo que nos dice el enunciado con
    estas definiciones, la única respuesta posible es la 2.

    Más información, en este monográfico de la
    Sociedad Española de Epidemiología:

    http://www.seepidemiologia.es/documents/dummy/monografia3_cribado.pdf

    195. A una mujer
    de 52 años le detectan en una mamografía un nódulo y se le aconseja hacer una
    biopsia mediante punción con control ecográfico. La paciente le pregunta a Vd.
    sobre la probabilidad de tener cáncer si la prueba sale positiva. Como Vd. no
    tiene experiencia en este tema busca y encuentra un estudio que incluye a 112
    pacientes, 18 con cáncer y 94 sin cáncer. De los 18 pacientes con cáncer la
    punción dio un resultado positivo en 16 y de los 94 pacientes sin cáncer la
    punción dio un resultado negativo en 88. Con estos datos la respuesta correcta
    es:


    1.       0,727
    2.       0,93
    3.       0,645
    4.       0,56
    5.       No puede calcularse porque no se conoce la prevalencia de la
    enfermedad


    Pregunta muy confusa. En principio, habíamos considerado esta pregunta con la respuesta 1 como correcta. Sin embargo, tras recibir varios comentarios y reflexionar nosotros, hemos decidido considerar esta pregunta como anulable.


    El cálculo del VPP requiere de la prevalencia, hasta ahí parece que la respuesta 5 sería la correcta. Sin embargo, si no tenemos la prevalencia de enfermedad, se puede usar la prevalencia de nuestro estudio como estimador de la prevalencia “real” de la enfermedad. En ese caso, se podría calcular el VPP, y la respuesta sería la 1. Por tanto, la decisión se torna en base a:

    – Considerar que los datos que nos dan pertenecen a un screening poblacional de cáncer de mama: en este caso usaremos la prevalencia del estudio como un estimador de la prevalencia de cáncer de mama, y daríamos como correcta la 1.
    – Considerar que los datos que nos dan no son de un screening poblacional, y que la selección de controles depende de los casos. En este caso la prevalencia que sale en el estudio no tiene ningún interés como estimador de prevalencia de enfermedad, porque lo abríamos determinado nosotros con el diseño. En este caso la respuesta correcta sería la 5.


    Consideramos que la redacción es lo suficiente ambigua como para que cualquiera de las 2 sea una respuesta que el Ministerio de como correcta.

    En caso de que considerábamos que el VPP se puede calcular, se haría de la siguiente manera:

    .


    Cáncer de mama

    Sanos

    Total

    Prueba +

    16

    6

    22

    Prueba –

    2

    88

    90

    Total

    18

    94

    112


    Nos preguntan por la probabilidad de que, si la enferma tiene una prueba positiva, tenga realmente la enfermedad. Por tanto, nos pregunta por el Valor Predictivo Positivo (VPP), medida muy interesante y con mucho más interés en clínica que la Sensibilidad. El VPP está orientado a las decisiones clínicas, al buscar predecir qué pasa cuando una prueba sale positiva. 

    VPP=verdaderos enfermos/total de pruebas +=16/22=0,727

    196. Un grupo de
    investigadores realizó un estudio prospectivo para evaluar la eficacia de tres
    alternativas en el tratamiento de la otorrea aguda en niños con tubo de
    timpanostomía. De forma aleatorizada, 76 niños recibieron
    amoxicilina-clavulánico oral, 77 recibieron gotas óticas con
    hidrocortisona-bacitracina-colistina y otros 77 niños no recibieron tratamiento
    farmacológico alguno, sólo observación. La variable principal fue la presencia
    de otorrea. ¿De qué tipo de estudio se trata?


    1.       Estudio de cohortes
    2.       Estudio postautorización de seguimiento prospectivo
    3.       Estudio postautorización ligado a la autorización
    4.       Ensayo clínico
    5.       Estudio transversal


    Pregunta fácil, aunque la redacción pueda
    hacer dudar. Se trata de un ensayo clínico en el que se comparan 2 alternativas
    de tratamiento vs un grupo control; hasta ahí es la definición de ensayo
    clínico. Se podría dudar con las respuestas 1 y 2, pero la presencia de
    aleatorización nos lleva al ensayo clínico y descarta cualquier estudio
    observacional.

    197. Disponemos
    del registro de sujetos que se vacunan de la gripe en una región y campaña
    determinada, que incluye la información en el momento de vacunación sobre
    antecedentes patológicos, edad, sexo y tipo de vacuna. Para los mismos sujetos
    disponemos también del registro con los diagnósticos de alta hospitalarios,
    ocurridos con posterioridad  a la fecha
    de la vacunación, y existe un identificador personal común a ambos registros.
    Indique cuál de estos estudios sería posible realizar usando solo las citadas fuentes
    de información


    1.       Un estudio analítico de cohorte para determinar si la vacunación
    aumenta el riesgo de desarrollar un síndrome de Guillain-Barré en las 16
    primeras semanas tras la vacunación antigripal

    2.       Un análisis descriptivo para estimar la incidencia de infarto agudo de
    miocardio en las primeras 16 semanas tras la vacunación antigripal

    3.       Un análisis descriptivo para estimar la incidencia de fiebre en la
    primera semana posterior a la vacunación antigripal

    4.       Un ensayo clínico que compare el riesgo de reacciones post-vacunales
    graves (que supongan ingreso hospitalario) con dos de los tipos de vacunas
    antigripales utilizados en esa campaña.

    5.       Un estudio de casos y controles para determinar si la vacunación
    aumenta el riesgo de desarrollar un infarto agudo de miocardio.


    Pregunta muy interesante, por hablar de
    sistemas de información, aunque en mi opinión buscar objetivos en base a los
    datos que tienes no es la forma más correcta de actuación para investigar.
    Empezamos por la más fácil de descartar, que es la 4, con datos secundarios no
    podemos realizar un ensayo clínico, ya que no podemos aleatorizar a los
    participantes del estudio. La respuesta 3 también se puede descartar, ya que
    los datos de seguimiento son de alta hospitalaria, y la fiebre no siempre
    requiere de ingreso hospitalario, por lo que no se puede estimar la incidencia
    de fiebre con estos datos.

    La clave de la pregunta es identificar bien
    quiénes son los sujetos del estudio. Los individuos del estudio son todos
    vacunados como queda claro del enunciado (“sujetos
    que se vacunan de la gripe”  … “Para los mismos sujetos”
    ). Por tanto sólo
    tenemos sujetos expuestos al pretendido factor de riesgo (a la vacunación). El
    enunciado dice quye sólo tenemos esas fuentes de información. Eso nos descarta
    tanto un estudio de cohortes (respuesta 1) como de casos y controles (respuesta
    5), pues nuestros sujetos están todos vacunados, y no disponemos de sujetos “no
    expuestos” que, evidentemente, son necesarios para cualquier comparación. Por
    ello, la única respuesta correcta es la 2, que es un ejemplo de lo que podemos
    hacer en esa “cohorte” de vacunados.

    198. En un estudio
    de cohorte la población tratada con un fármaco anticoagulante tuvo un
    incidencia de hemorragia grave del 3%, mientras que en la población no tratada
    la incidencia de hemorragia fue del 1%, siendo el NNH (“Number Need to Harm”)
    de 50. ¿Cuál es la interpretación correcta de este dato?


    1.       En el grupo tratado con el anticoagulante 50 personas presentaron una
    hemorragia grave

    2.       En el grupo tratado con anticoagulante hubo 50 casos de hemorragia
    grave más que en el grupo no tratado

    3.       El riesgo de presentar una hemorragia grave en los tratados con el
    anticoagulante fue 50 veces mayor que en los no tratados

    4.       Fue necesario tratar a 50 personas con el anticoagulante para producir
    1 caso de hemorragia grave atribuida al fármaco

    5.       De cada 100 pacientes tratados con el anticoagulante 50 presentaron
    una hemorragia grave


    Pregunta que poca gente habrá fallado, ya que
    todos los años la repiten de una manera o de otra. Cálculo del NNH= 1/(P
    eventos adversos en grupo 1-P eventos adversos en grupo 2)=1/(0,03-0,01)=1/(0,02)=50.
     Es necesario tratar a 50 personas con el
    anticoagulante para producir 1 caso de hemorragia grave atribuida al fármaco.

    235. Cuando
    realizamos el triple test (alfafetoproteína, gonadotropina coriónica humana y
    el estriol no conjugado) a las embarazadas, la sensibilidad y la especificidad
    frente a la trisomía 21 (S. de Down) son del 63 y el 95% respectivamente. Ello
    significa:


    1.       El porcentaje de falsos negativos es del 5%
    2.       El porcentaje de falsos positivos es del 37%
    3.       El área bajo la curva (AUC) ROC valdría 1
    4.       La probabilidad de no tener trisomía 21 (S. de Down) siendo el
    resultado negativo es del 95%

    5.       La probabilidad de tener resultado positivo a la prueba teniendo la
    trisomía 21 (S. de Down) es del 63%


    La definición de sensibilidad es la
    probabilidad de tener un resultado positivo si se tiene la enfermedad, y la
    especificidad la probabilidad de que la prueba sea negativa estando sano. La
    respuesta 5 da la definición de la sensibilidad del triple test.


  • No tot el càncer és mala sort


    Un article científic sobre les causes del càncer publicat a la revista Science (2 de
    gener 2015) ha generat nombrosos comentaris tant en els cercles científics com
    en l’opinió pública. Aquest article, que ha rebut gran cobertura mediàtica,
    conclou que les mutacions a l’atzar (o la “mala sort” en paraules
    dels seus autors) són “els principals contribuents al càncer en general,
    sovint més important que la predisposició heredada o factors ambientals externs”.


    No pretenc entrar a discutir les bondats i deficiències metodològiques de l’article (que es publiqui a
    Science hauria de ser, teòricament, garantia d’excel·lència) ni el paper
    dels periodistes i els informadors, i també dels propis autors, en l’amplificació
    dels resultats amb titulars com els vistos. 
    La hipòtesi de tractar d’explicar (i quantificar) l’atzar que hi ha en la gènesi del càncer a través de la comparació de les divisions cel·lulars i el risc absolut de càncer és atractiva, i a ben segur que aquest treball obrirà les portes a estudis experimentals  in vitro i in vivo, i potser a altres estudis epidemiològics. Però bé, no puc resistir-me a comentar dos
    detallets: 1) en sí, es tracta d’un
    estudi de correlació o ecològic (la unitat d’anàlisi és el tumor, i es relaciona
    el risc de desenvolupar aquest tumor amb el nombre de divisions de les
    cèl·lules mare d’aquest tumor
    dades
    derivades de la literatura), per la qual cosa l’estudi és a risc de patir l’anomenada “fal·làcia ecològica”, i 2) l’anàlisi no inclou alguns tipus importants de càncer (com ara el de mama) ni existeix cap mena de ponderació de la
    freqüència de cada tipus de càncer en l’anàlisi de correlació i les estimacions globals.

    Titular al New York Times
    Titular a l’ARA
    La meva intenció és centrar-me en el missatge que ha circulat (“la mala sort explica la majoria dels càncers”) i la conclusió dels autors, que proposen més atenció a la detecció precoç d’alguns tipus de càncer, és a dir, l’avançament de la seva detecció un cop ja desenvolupat el càncer mitjançant el cribratge (com actualment ja es fa amb el càncer de mama en dones amb els programes de mamografia) que al control  dels seus factors de risc, tot evitant que la malaltia es desenvolupi (com és el cas del control del tabaquisme, que evitaria la majoria dels casos de càncer de pulmó i un percentatge molt elevat d’altres càncers també relacionats amb el tabac).

    L’evidència acumulada en les darreres dècades indica que
    ambdues estratègies són necessàries
    , i que cal aplicar-les segons el tipus de
    càncer. En l’actualitat sabem que a més a més del tabaquisme en diferents tipus
    de càncer, existeixen altres factors “ambientals”, com ara la dieta pobre en
    vegetals, l’obesitat, el sedentarisme, el consum excessiu d’alcohol, l’exposició
    a radiacions ultraviolades, l’exposició a compostos orgànics
    persistents o algunes infeccions bacterianes i virals que contribueixen al risc
    de desenvolupar càncer. I sabem que podem controlar aquests factors amb canvis
    en els estils de vida i fins i tot amb vacunes, com és el cas de la prevenció
    del càncer de fetge gràcies a la vacuna contra el virus de l’hepatitis B. El
    progrés en el control del càncer passa per la seva prevenció primària (evitar
    els factors de risc) i secundària (la seva detecció precoç quan ja ha aparegut),
    com molt bé recull la
    nova versió del Codi Europeu contra el Càncer. El control del càncer passa també
    per la millora continua dels tractaments a l’abast (cirurgia, quimioteràpia, hormonoteràpia
    o radioteràpia) usats sovint de forma combinada i sota el control d’equips
    multidisciplinars. Aquests tractaments han augmentat la supervivència i la
    qualitat de vida de la majoria de pacients.
    Tal i com constatat l’Agència Internacional per a la Investigació sobre el Càncer, “les
    llacunes que queden en el coneixement de les causes del càncer no han de ser
    simplement atribuïdes a la mala sort“. Seria un error quedar-nos en això. Cal avançar en la recerca de
    les causes i la forma de prevenir-les efectivament quan sigui possible, sense
    menystenir la recerca i la implementació de programes de detecció precoç que en
    alguns tipus de càncer és l’abordatge d’elecció
    .

    Esteve Fernández, és metge epidemiòleg i treballa a l’Institut Català d’Oncologia i a la Universitat de Barcelona.

  • Feliç 2015

    Amb renovada alegria i il·lusió després d’aquest intens 2014, us vull desitjar un molt bon 2015!!


    I no faltaran nous posts, malgrat aquests tres mesos d’aturada!

  • La chica de oro: en memoria de Alicia Llácer

    “Quan érem capitanes!”. Alicia Llácer, Soledad
    Márquez, Ana M García e Isabel Sáez en Valencia, curso 89/90

    Tuve la suerte de conocer a Alicia Llácer
    durante el año en el que juntas estudiábamos el Máster
    en Salud Pública del Insti­tut
    Valencià d’Estudis en Salut Pública
    (IVESP), allá por el curso 89/90,
    a tiempo completo, mañana y tarde, de
    lunes a viernes. Fueron muchos los bienes que me proporcionó este máster. Allí
    aprendí casi todo lo que sé (y la manera de seguir aprendiendo, y de querer
    seguir aprendiendo) de la Epidemiología y la Salud Pública. Muchos de los profesores
    han sido mis maestros. Entre los compañeros surgieron afectos y afinidades para
    toda la vida. Por casualidad (no nos conocíamos antes), el primer día de clase nos
    sentamos cuatro mujeres en la misma mesa: Isabel Sáez, Soledad Márquez, Alicia
    Llácer y yo misma. Y seguimos compartiendo mesa durante todo el año. Nos
    apodaron “las chicas de oro”, seguramente al rebufo de la famosa serie que por
    aquellos tiempos circulaba en televisión. Alicia, mujer pequeña y discreta, pronto
    nos regaló su cariño, que ha durado desde entonces.
    Desde entonces también, ella
    se ganó nuestro afecto y el respeto de todas. De una manera que siempre he
    querido tener bien presente, las cuatro, tan diferentes, nos complementábamos.
    Personalmente aprendí mucho de todas. Nuestro pragmatismo de buenas alumnas se
    desesperaba y maravillaba con las elucubraciones y cautelas de Alicia, especialmente
    cuando debíamos abordar cualquiera de los múltiples trabajos de clase, en
    algunos casos para entregar al día siguiente (uno de ellos, lo recuerdo bien, lo
    recordaremos todas siempre, lo terminamos in
    extremis
    en mi casa, tras pasar toda la noche en vela y acabar cortando por
    lo sano, para descontento de nuestra amiga Alicia e intranquilidad de todas
    nosotras). Recuerdo también bien cuando a mitad de alguna (o de todas, podría
    ser) de las clases de Epidemiología, Alicia se levantaba refunfuñando y regresaba
    oliendo a Ducados de tal forma que no se sabía si ella se había fumado un
    cigarrillo o el cigarrillo se la había fumado a ella.

    Sole me llamó el pasado domingo,
    no me encontró en casa y dejó un mensaje. “Ha muerto Alicia, nuestra Alicia”.
    En mi caso ya sólo veía a Alicia en los congresos de la SEE, siempre divertida,
    atenta y cariñosa. La buscaba para oír sus comentarios sobre las mesas y
    presentaciones, y me gustaba mucho escucharla intervenir en las sesiones
    plenarias, algo que hacía pocas veces, yo creo que era bastante tímida, es
    seguro que se le quedaba mucho por decir. Pero siempre que hablaba, había que
    escucharla. Porque Alicia lo entendía todo y dudaba de todo, era curiosa e inquieta,
    como una buena estudiante, como debe ser cualquier persona joven, tengo el
    convencimiento de que Alicia fue joven toda su vida.
    Y con lo que decía nos hacía
    entender y dudar, y nos daba ganas de seguir aprendiendo y de seguir dudando. La
    última vez que hablé con ella estaba a punto de jubilarse. Yo la felicité (según
    entendí luego, torpemente) y le expresé mi alegría por la nueva vida que
    empezaba. Pero ella no estaba nada contenta: “Si no trabajo no veo gente, no hablo
    con la gente, lo echaré mucho de menos, sobre todo a los jóvenes, no sé qué voy
    a hacer”. Yo tampoco supe qué decirle. Los jóvenes que no la conocieron, todos
    los que no aprendieron, dudaron y trabajaron con ella, han perdido mucho desde
    que Alicia se fue. Y yo también. 

    Ana M García, en
    nombre de todas.
    En Valencia, a 22
    de septiembre de 2014,

    con Alicia en la
    cabeza, en los ojos y en el corazón.
  • De Open a Advanced, o casi una semana en Lanzarote

    Foto: Núria Olivé

    Este verano he tenido la suerte de poder dedicar casi una semana al submarinismo. Una afición que viene de hace años cuando hice el “Open”, el curso inicial de buceo recreativo que oficialmente acredita como “Open Water Diver” en el sistema PADI. Tras unos cuantos años en “dique seco”, el año pasado volví a las andadas en la Costa Brava. Y casualmente, visitando el Salón de la Inmersión de Cornellà en busca de un centro de buceo en El Hierro, me encontré con Núria que tiene un precioso centro de buceo en Lanzarote… ¡pero es que además eramos viejos conocidos! Como ella ha contado a sus amigos durante esa semana varias veces, Esteve es “el marido de mi profe de biología de BUP -¡qué fuerte-qué fuerte!”. Así que me animé y este verano, después de pasar una semana en Taizé, volamos a Lanzarote para hacer el curso “Advanced Open Water Diver” con Núria y su equipazo en Atlantis Diving Center.



    El curso Advanced te permite mejorar las habilidades de buceo, combinando algo de teoría (libro del Sr. Padi y explicaciones de un instructor) y unas inmersiones “de aventura” (también en lenguaje PADI). En mi caso, hice las dos inmersiones obligatorias, la de navegación y la de buceo profundo (hasta 30 m), y como optativas hice una inmersión de práctica de flotabilidad (que me convenía y creo que mejoré), una inmersión en pecios (barcos hundidos, “derelictes” en català) y una inmersión nocturna (quizás la que más me emocionó y me hizo disfrutar, ¡a apenas 6 m en El Muellito!). Vale la pena contar que en la inmersión profunda nos encontramos una buena corriente, por lo que podría añadir a mi lista de “aventuras” también este tipo de inmersiones. Y todo ello de la mano de Mauro, Ivo y Núria, que han tenido mucha paciencia conmigo.




    No voy a explicar las cinco inmersiones, que sería algo pesado y eso ya está escrito en mi logbook. Sólo decir que he aprendido y crecido mucho como buceador. Y aún falta, pero estamos en ello. Inmersión a inmersión. Además he conocido buena gente en Lanzarote, con los que estoy seguro que volveré a bucear.  Y, por si fuera poco, Lluc ha hecho el “Open” y pudimos disfrutar de una inmersión juntos, y las que vendrán…

    Queda pendiente, además de seguir mejorando, la fotografía submarina. Ahora me conformo con salir en alguna foto que me hacen y enseñar las fotos de Carlos, que es lo que os dejo a continuación.

    Angelote (Squatina squatina) que nos esperaba en la inmersión nocturna.
    Foto: Carlos Muñoz

    Una raya como esta también nos esperaba en los pecios del Quíquere
    Foto: Carlos Muñoz

    Pez trompeta (Actinopteregii maculatus) que merodeaba por Playa Chica
    Foto: Carlos Muñoz

    Sepia glotona en El Muellito, durante la inmersión nocturna
    Foto: Carlos Muñoz

    Pulpo juguetón en El Muellito, inmerisón nocturna
    Foto: Carlos Muñoz

    Lluc (derecha) y Esteve (izquierda) durante la inmersión en El Muellito
    Foto: Núria Olivé

    Escuadrón de “opens” + “advanced”, en formación, durante la inmersión en el Muellito
    Foto: Núria Olivé

  • Las cartas al Director (o Directora)

    Foto: http://www.press-citizen.com/ 

    En el último número de GacetaSanitaria (nº 4 de 2014) se publican dos cartas a la Directora (de Gullón y cols., y la réplica de
    Rodríguez-Romo y cols) que me han gustado, por su temática y por representar un
    buen ejemplo de este formato de trabajo. Aunque escribí (con Ana M. García) sobre las Cartas
    antes en una nota editorial en Gaceta Sanitaria (que sigo recomendando), quiero aprovechar para volver a poner en valor
    este formato. Creo que una revista científica que se precie y aprecie a sus
    lectores y autores debe cuidar especialmente esta sección. Las Cartas que se
    originan tras la publicación de un artículo aportan datos, visiones o interpretaciones
    muy valiosas, normalmente en un genuino intercambio intelectual y científico
    tanto para los autores como, y no menos importante, para los lectores.

    La carta de
    Gullón y cols. comenta un aspecto interesante del estudio de Rodríguez-Romo y
    cols. publicado unos meses atrás. Entre otros asuntos, alerta de la posibilidad
    de un sesgo de información, concretamente el llamado “sesgo por misma fuente” (“same-source bias”) que ocurre cuando el error de medida de exposición y resultado están
    correlacionados. Esta situación es frecuente en estudios transversales que usan
    cuestionarios como única fuente de información, tanto para las exposiciones
    como para las variables de resultado. Así, en el estudio comentado, parece probable
    que la variable autoinformada de resultado puede influir en la percepción de la
    exposición.  La carta de réplica
    justifica adecuadamente por qué se utilizó este tipo de medidas en la
    investigación. No entiendo, sin embargo, que los autores insistan en el valor de este tipo de medidas como única
    fuente de información.
    Pero más allá del
    sesgo y potencial impacto sobre los resultados, estas cartas me han hecho
    pensar de nuevo en el valor del diseño de los estudios
    . Las Cartas discutían acerca
    de un estudio transversal, que como todos sabemos tienen un gran valor para determinados
    objetivos, pero también sus limitaciones. Hace unos días, buscando ejemplos de estudios
    longitudinales para docencia, rebusqué artículos entre las páginas de Gaceta Sanitaria.
    Y la verdad es que me costó bastante encontrar un artículo en Gaceta Sanitaria en que se
    presentaran resultados de un estudio longitudinal. Y dejo la pregunta en el
    aire, para cuando tenga algo de tiempo… ¿qué tipos de estudio está publicando Gaceta Sanitaria?.
    Esteve Fernández
  • Revisando que es gerundio (o ¿existe un “síndrome del revisor quemado”?)

    Hoy, como en una
    docena más de ocasiones en lo que va de año, he cumplido con la revisión o
    evaluación de un manuscrito por encargo de una revista (en esta ocasión para Gaceta Sanitaria). Una docena de
    revisiones para casi una docena de revistas diferentes. Esta vez me han tenido
    que reclamar la revisión, ya que he sobrepasado el tiempo asignado. Mal, muy
    mal. Desde el punto de vista de la revista mal, porque revierte
    negativamente en los tiempos de gestión de la revista. Y peor desde el
    punto de vista de los autores, que siempre algo nerviosos andan –andamos-
    mirando cuándo estará la revisión y llegará una respuesta de la revista. Y,
    finalmente, fatal desde el punto de vista personal, por la insatisfacción
    y cierta frustración de no acabar de hacer bien las cosas.

    Todos sabemos que
    el
    trabajo (altruista, voluntario..  que el
    lector ponga más adjetivos) de los revisores es esencial para las revistas
    .
    El proceso editorial, la vida misma de las revistas, depende en un alto grado
    de la desinteresada aportación de tiempo e intelecto de los revisores. Las
    buenas revistas tienen buenos revisores, sagaces, preparados, críticos, y rápidos.
    Pero el trabajo de los revisores se acumula, y como cualitativamente voy
    apreciando en propia piel y por conversaciones con compañeros, cada vez más
    revistas piden más revisiones porque reciben más manuscritos
    . Y los buenos
    revisores, sagaces, preparados, críticos, y rápidos también se cansan, agotan,
    desmotivan y claudican. Vaya, que no sería demasiado difícil describir un
    cuadro del “revisor quemado”, seguramente con varios grados de gravedad. (Por cierto:
    0 referencias en una búsqueda rápida en PubMed). Pero el trabajo de los
    revisores es tan importante que deberíamos prevenir que eso pase. Los revisores
    deberían saber decir “no” cuando el tiempo les apremia, el tema del manuscrito
    no les atrae o se escapa de sus conocimientos, o sencillamente no les apetece
    hacer una revisión. Y las revistas deberían controlar la frecuencia con la que
    envían manuscritos a sus revisores y en muchas ocasiones sucesivas
    re-evaluaciones, los plazos de entrega y los sistemas de aviso automático, e
    importante, “cuidar” o cuidar un poquito más a sus revisores (recomiendo la
    nota editorial “A nuestros
    evaluadores, con amor
    “ de Ana M. García de hace unos años en Gaceta
    Sanitaria, ¡aún muy vigente!).

    Seguramente habría
    espacio para una encuesta para conocer las creencias, actitudes y vivencias de
    los revisores  (y también de los
    editores) sobre el peer review.  Si
    me animo y tengo tiempo no descarto hacerla en un futuro próximo… Un estudio
    así quizás sirviera para caracterizar y acaso prevenir el “síndrome del revisor
    quemado”, entre otras cosas, y que todos, revisores y editores, fuésemos un
    pelín más felices.

    Esteve Fernández, efernandez@iconcologia.net, @stvfdz

    PS: He escrito
    esta reflexión tras mi última revisión –pero primera del año– para Gaceta
    Sanitaria. Que nadie malinterprete esto como una crítica hacia Gaceta Sanitaria
    (que en 2013 sólo revisé un manuscrito y fueron 2 en 2012). Se trata de una
    reflexión y crítica a la saturación, “ecológicamente” hablando, que sufrimos
    muchos de nosotros por la suma de las peticiones de muchas revistas.

  • MIR 2014: epidemiología, medicina preventiva, y salud pública



    Tras la experiencia del año pasado no he sabido decir que no y he vuelto a colaborar en MIR2.0. Algo de emoción, un poco de estrés (me ha pillado acabando de escribir solicitudes de becas y corrigiendo exámenes de grado… un cóctel más que explosivo) y mucho voluntarismo. Este año han sido otra vez 17 preguntas, que he tenido la suerte de compartir con Pedro Gullón Tosío, joven valor de la medicina preventiva y la salud pública española. Nos ha ayudado también César Velasco, otro joven salubrista. Y sin ánimo de enrollarme, que lo importante son las preguntas y respuestas que siguen, sólo quiero remarcar (y va en negrita) algo que ya dije hace un año: me siento orgulloso de poder contribuir al proyecto MIR 2.0!.


    Y aquí vienen las preguntas de epidemiología, medicina preventiva y salud pública, también disponibles en el bloc “Salud, sociedad y más” de Pedro y en wikisanidad:



    NOTA: La corrección oficial de casimédicos.com (aquí) señala que hemos cometido 2 errores: en las preguntas 202 y 203. Ved los comentarios.


    190. Si desea estimar los efectos de una
    intervención empleará:
    1. Un diseño transversal
    2. Un diseño retrospecivo
    3. Un estudio ecológico
    4. Un ensayo clínico aleatorizado
    5. Un diseño observacional con
      selección al azar de los participantes
    Comentario: pregunta en mi opinión poco correcta en su
    enunciado que, sin embargo, tiene una respuesta “más verdadera” que el resto.
    En realidad con cualquiera de las opciones puedes llegar a estimar los efectos
    de una intervención, de una manera o de otra. La pregunta debería ser “la mejor
    manera de estimar los efectos de una intervención es”.
    Para evaluar una intervención del tipo que sea
    (fármaco, técnica quirúrgica, educativa…) el mejor diseño de estudio es el
    ensayo “clínico” aleatorizado. “Clínico” entre comillas, porque se puede usar
    en contextos no-clínicos. Mediante este diseño
    dividimos usualmente a los sujetos en 2
    grupos: en uno los que reciben la intervención (grupo intervención)  y en otro los que no (grupo control); los
    seguimos, y medimos los efectos comparando la incidencia de algún evento (por
    ejemplo, curación, aprender a hacer algo, adoptar un comportamiento…) entre
    ambos grupos.
    El resto de opciones son diseños
    observacionales sin control en el diseño de las variables, por lo que no son la
    mejor opción.
    191.
    Se lleva a cabo un estudio para evaluar la relación entre el cáncer de pulmón y
    la exposición al sílice. Se seleccionaron 400 pacientes con diagnóstico de
    cáncer de pulmón del registro provincial de tumores y se eligen 400 personas
    sanas de forma aleatoria de la población residente de la provincia. El
    resultado de la evaluación de esta relación es OR=1,67; IC95%=1,27-2,21. Es
    cierto:

    1.       No hay relación entre la
    exposición al sílice y el cáncer de pulmón

    2.       Con este estudio no se puede
    evaluar la relación entre el sílice y el cáncer de pulmón

    3.       Se trata de un estudio experimental
    aleatorizado con una asociación positiva entre la exposición al sílice y el
    cáncer de pulmón

    4.       Estos datos muestran que no hay
    significación estadística entre la exposición al sílice y el cáncer de pulmón

    5.       Se trata de un estudio de casos
    y controles con una asociación positiva entre la exposición al sílice y el
    cáncer de pulmón

    Comentario: pregunta sencilla. La mejor forma de
    contestar este tipo de preguntas es siguiendo siempre la misma sistemática:
             
    Identificar qué es lo que busca el estudio: variable de interés (o
    dependiente; en este caso, el cáncer de pulmón) y de exposición (ó
    independiente; en este caso, el sílice).
             
    Identificar el tipo de estudio: escoge a un grupo de pacientes con una
    enfermedad (casos) para compararlos con un grupo de personas sanas (controles)
    en cuanto a la exposición a determinado factor de riesgo (la exposición al
    sílice). Es verdad que no dice explícitamente que se pregunta por su exposición
    en el pasado al sílice, y alguien podría dudar respecto a un estudio
    transversal, pero ninguna respuesta sería correcta si consideramos esta opción,
    aparte de que tiene menos sentido.
             
    Interpretar la medida de asociación y de magnitud: esto es,
    interpretar la OR (ó Razones de Prevalencia en estudios transversales, ó Riesgo
    Relativo en cohortes), los Intervalos de Confianza y los p-valores. En este
    estudio, nos dicen que la OR es de 1,67; y el IC 95% no incluye el valor 1;
    esto quiere decir que la exposición al sílice produce 1,67 veces más “riesgo”
    (realmente más “odds”) de cáncer de pulmón que si no estás expuesto al sílice.
    En la población, si hacemos inferencia, si repitiéramos el estudio millones de
    veces, un 95% de ellas nos darían un OR de entre 1,27 y 2,21; por tanto, la
    diferencia de cáncer de pulmón entre los expuestos al sílice y los que no, es
    estadísticamente significativa.
    Teniendo
    esto claro, la única respuesta posible es la 5. De hecho, los disparates v
    arios en las opciones de respuesta 1 a 4 nos llevan por eliminación
    también a la 5.
    192: Se quiere realizar un estudio para
    valorar el efecto de la exposición al consumo de alcohol sobre el cáncer de
    páncreas. Es posible que la relación pueda estar afectada por el efecto de la
    exposición al tabaco. Si sólo se quiere analizar el efecto del consumo de tabaco,
    ¿qué tipo de sesgo se puede producir?

    1.      
    Sesgo de exposición
    2.      
    Sesgo de diagnóstico
    3.      
    Sesgo de realización
    4.      
    Sesgo por efecto vigilancia (o
    de Hawthorne)

    5.      
    Sesgo de confusión

    Comentario: Ninguno de los sesgos
    mencionados (1 a 4)  explicaría la
    potencial afectación de la asociación entre alcohol y el riesgo de cáncer de
    páncreas a causa del tabaco… a eso le llamamos confusión (opción 5). La
    confusión
    se da
    cuando una variable se asocia causalmente o no a la variable de exposición
    (alcohol), se asocia causalmente a la variable de interés (cáncer de páncreas),
    y no se trata de un mero factor o variable intermedia, de manera que se
    sobreestima (confusión positiva) o subestima (confusión negativa) el efecto de la
    asociación observada.
    Muchos epidemiólogos consideramos eso
    un “fenómeno” real debido a  la
    naturaleza de los datos y no lo etiquetamos como sesgo, es decir, no es un “error
    sistemático”. Cuando observamos un RR o una OR “confundida” por la presencia de
    otra variable no cometemos ningún error sistemático ni en la información que
    manejamos (p.ej. medimos de forma válida) ni en la selección (p.ej. estudiamos
    a los sujetos correctos), sino que vemos lo que vemos porque las variables
    están relacionadas entre sí.
    En este
    caso, quieren saber si la relación entre alcohol y cáncer de páncreas en
    realidad es debida a que los que consumen alcohol fuman más, y el fumar se
    asocia al cáncer de páncreas. Esto es justo lo que están buscando, por lo que
    la respuesta es la 5.

    193:
    Señale la definición correcta:

    1.       El número Necesario a Tratar
    (NNT) es el inverso del Riesgo Relativo (RR)

    2.       La Reducción del Riesgo Relativo
    (RRR) puede diferenciar claramente los riesgos y beneficios grandes de los
    pequeños

    3.       La Reducción del Riesgo Relativo
    (RRR) es una medida del esfuerzo terapéutico que deben realizar clínicos y
    pacientes para evitar resultados negativos de sus enfermedades

    4.       El Número Necesario a Dañar
    (NND) se calcula dividiendo la unidad entre el Número Necesario a Tratar (NNT)

    5.       La Reducción del Riesgo Absoluto
    (RRA) se calcula mediante la diferencia absoluta de la tasa de episodios en el
    grupo control menos la tasa de episodios en el grupo  intervención

    Comentario: Pregunta en nuestra opinión confusa, e
    incluso impugnable.
    La definición de RRA es justamente lo que
    explican: la diferencia entre las tasas en grupo control e intervención (
    es el riesgo atribuible en
    expuestos cambiado de signo)
    . El resto de respuestas está
    plagado de errores
    .
    Respuesta
    1 falsa. El NNT es el inverso de la Reducción absoluta del riesgo.
    Respuesta
    2 falsa. La RRR nos dice la proporción de eventos que se evitarían si todo el
    mundo recibiese la intervención preventiva. Al dar una proporción, no permite
    diferenciar como afecta de forma absoluta, no diferenciando entre enfermedades con
    distinta prevalencia.
    Respuesta
    3 falsa. A pesar de la ambigüedad en la redacción, creo que la medida que se
    acercaría más al esfuerzo que tienen que realizar clínicos y pacientes para
    evitar resultados negativos es el NNT; ya que nos indica el número necesario de
    pacientes a tratar para evitar un caso de un evento.
    Respuesta
    4 falsa:
    el NND se calcula como el inverso del incremento
    absoluto del riesgo (IAR= diferencia absoluta entre tasa acontecimientos
    adversos en grupo control e intervención).
    196: Disponemos de dos tests para
    diagnosticar una enfermedad de pronóstico grave. La prueba A tiene una
    sensibilidad del 95% y una especificidad del 60% y la prueba B tiene una
    sensibilidad del 70% y una especificidad del 99%. Disponemos de un tratamiento
    eficaz pero que produce efectos adversos importantes y además tiene un coste
    muy elevado. ¿Qué prueba elegiríamos para hacer el diagnóstico?

    1.       La prueba A porque detectará menos
    falsos positivos.

    2.       La prueba A porque tiene una
    sensibilidad mayor.

    3.       La prueba B porque detectará más
    falsos positivos.

    4.       La pruebn A porque detectará más
    falsos negativos.

    5.       La prueba B porque tiene una
    mayor especificidad.

    Comentario: La sensibilidad es la proporción de
    resultados positivos que da una prueba de entre todos los que están enfermos.
    La especificidad es la proporción de resultados negativos da nuestra prueba de
    entre todos los sanos.
     Al tratarse de una enfermedad con un
    tratamiento muy costoso y con muchos efectos secundarios, es interesante tener
    una prueba que no detecte muchos falsos positivos; es decir, que a los que está
    sanos los clasifique como sanos, y no como enfermos (que no sobrediagnostique) ya
    que recibirían un innecesario tratamiento costoso y con efectos secundarios. Por
    todo ello es deseable una prueba con una especificidad alta, como
    es la prueba B. Y como la capacidad de detectar falsos positivos no
    tiene que ver con la especificidad, la respuesta correcta es la 5.
    197: Varón homosexual de 30 años de edad VIH
    (+) que participa como voluntario en un centro de ayuda a pacientes con SIDA.
    Según su historia clínica recibió toxoide diftérico (Td) hace 6 años, la vacuna
    triple vírica en la infancia y en la adolescencia, y la hepatitis B hace 3
    años. Actualmente se encuentra asintomático con un recuento de CD4 superior a
    200 cls/microlitro. ¿Qué vacunas deberíamos recomendarle?

    1.      
    Gripe estacional, neumocócica,
    meningitis tetravalente y hepatitis A

    2.      
    Gripe estacional, Td, neumocócia
    y meningitis tetravalente

    3.      
    Meningitis tetravalente,
    neumocócia y gripe estacional

    4.      
    Td, meningitis tetravalente,
    neumocócica

    5.      
    Triple vírica, gripe estacional,
    neumocócica

    Comentario: las recomendaciones de vacunación para los
    adultos HIV+ incluyen vacuna de la hepatitis B, gripe, triple vírica,
    antineumocócica, Td y Tdap, y para algunos adultos, hepatits A, o A y B
    combinada, meningitis bacteriana, VPH y antimeningocócica. Fuente:
    http://aidsinfo.nih.gov/contentfiles/inmunizacionesrecomendadas_fs_sp.pdf
    Teniendo
    en cuenta que el individuo ha recibido algunas vacunas, que tiene un recuento
    CD4 >100 (si fuera menor habría alguna contraindicación) y trabaja en un
    centro  de ayuda a pacientes con SIDA (se
    le equipara a “personal de salud”) las respuestas 2, 4 y 5 son erróneas. Las
    cuatro vacunas de la opción 1 son administrables.
    Con
    algo más de detalle:
    Vacuna
    frente al tétanos y la difteria: todas las personas deben estar vacunados
    frente a estas dos enfermedades.
    Vacuna
    frente a la hepatitis B: los virus de la hepatitis B y del VIH comparten las
    mismas vías de transmisión por lo que es frecuente que el paciente infectado
    por VIH esté infectado también por el virus de la hepatitis B. Por esto es
    importante conocer si la persona infectada por VIH presenta marcadores de infección
    por hepatitis B y proceder a la vacunación en caso de que no los tenga.
    Vacuna
    frente a la hepatitis A: la hepatitis A en una persona portadora de hepatitis
    B, con hepatitis C o con otra enfermedad hepática puede ser muy grave. Dado que
    estas infecciones son más frecuentes en el paciente infectado por VIH se
    recomienda su vacunación frente a la hepatitis A.
    Vacuna
    frente a la gripe: una gripe en un paciente con falta de respuesta inmune
    presenta mayor gravedad y riesgo de complicaciones, por lo que está indicada la
    vacunación anual frente a esta enfermedad. Si la situación inmunitaria del
    paciente está muy deteriorada, la respuesta a la vacunación está disminuida. En
    este caso es fundamental la vacunación de todos los convivientes de la persona
    infectada por VIH para evitar que le transmitan la enfermedad.
    Vacuna
    frente al neumococo: las infecciones neumocócicas (en especial las neumonías)
    son hasta 10 veces mas frecuentes en las personas infectadas por VIH que en los
    adultos no infectados por el VIH, por lo que se recomienda la vacunación, si
    bien en pacientes con recuentos inferiores a 200/mm3 la respuesta protectora no
    suele ser suficiente. Deben recibir una segunda dosis a los 3-5 años. Los niños
    infectados por VIH deben vacunarse con la vacuna antineumocócica conjugada con
    el número de dosis que le correspondan según la edad.
    Vacuna
    frente al Haemophilus Influenzae tipo b: esta bacteria es causa de
    neumonías y meningitis, en especial en niños. Aunque en los adultos infectados
    por VIH representa un número pequeño de las causas de infección, se recomienda
    la vacunación.
    Vacuna
    frente al sarampión, la rubéola y la parotiditis (triple vírica): las tres
    enfermedades pueden adquirir una mayor gravedad en los pacientes infectados por
    VIH, en especial el sarampión, por lo que todas ellas deben de estar vacunadas,
    siempre que la inmunodepresión no sea severa (recuento menor a 200/mm3).
    198: Se realiza un ensayo clínico en
    pacientes hipertensos para valorar la efectividad de un nuevo fármaco en la
    reducción de aparición de insuficiencia cardíaca. El Riesgo relativo (RR) de insuficiencia
    cardiaca en relación con el fármaco habitual es de 0,69 con IC al 95% de 0,31 a
    1,17. ¿Qué significan estos resultados?

    1.       El nuevo fármaco disminuye el
    riesgo de insuficiencia cardiaca de forma significativa.

    2.       El nuevo fármaco es muy eficaz y
    debería comercializarse.

    3.       La reducción del riesgo de
    insuficiencia cardiaca con el nuevo fármaco es irrelevante clínicamente.

    4.       No existen diferencias
    estadísticamente significativas entre el efecto de los fármacos estudiados.

    5.       El nuevo fármaco aumenta el
    riesgo de insuficiencia cardiaca pero de forma no significativa.

    Comentario: Utilizando el esquema de la pregunta 191,
    intentamos resolver:
             
    Variable de exposición: recibir un fármaco u otro. Variable de
    interés: insuficiencia cardiaca
             
    Tipo de estudio: ensayo clínico
    Interpretación
    de la magnitud de la asociación y la significación: El RR es de 0,69; lo que
    quiere decir que los que reciben el fármaco nuevo tienen menos riesgo de
    insuficiencia cardiaca que los que recibieron el fármaco antiguo. El IC 95% va
    de 0,31 a 1,17; esto quiere decir que, a pesar de lo que encontramos en nuestro
    estudio, en la población de la que proviene nuestra muestra, es esperable que
    este RR pueda deberse al azar, ya que si repetimos el estudio millones de
    veces, el 95% de las veces el RR estaría entre 0,31 y 1,17 (desde reducir mucho
    el riesgo hasta aumentarlo). Esto quiere decir que
    no
    podemos descartar que esa reducción sea debida al azar con un riesgo alfa del
    5% (p<0,05),o en otras palabras, el RR no es estadísticamente significativo
    (el p-valor será en cualquier caso > 0,05).
    Por ello, la respuesta más lógica es la 4.
    199: En un estudio de cohortes el número de
    casos nuevos de enfermedad por unidad
    de tiempo es:

    1.       La incidencia anual.
    2.       La incidencia o probabilidad
    acumulada.

    3.       La tasa de prevalencia.
    4.       La densidad o tasa de
    incidencia.

    5.       El riesgo relativo de
    desarrollar la enfermedad.

    Comentario: pregunta fácil sobre medidas de frecuencia.
    En los estudios con seguimiento (como los de cohortes) se suelen presentar los
    resultados de frecuencia de enfermedad de 2 maneras:
             
    Incidencia acumulada: se trata del número de casos nuevos en un
    periodo de tiempo dividido entre la población a riesgo al inicio del estudio.
    Se trata de una proporción. Una Incidencia acumulada de 0.27, quiere decir que
    el 27% de los individuos de nuestro estudio ha contraído la enfermedad en el
    periodo completo de estudio
             
    Densidad o tasa de incidencia: cuando hay pérdidas al seguimiento, se
    utiliza una medida de frecuencia que tenga en cuenta el periodo que cada individuo
    está en el estudio. Para ello, se divide el número de casos nuevos en nuestro
    estudio dividido entre el total de tiempo de seguimiento de todos los
    pacientes. Una tasa de incidencia de 3,2 por 1000 personas/año se interpreta
    como que de cada 1000 personas seguidas durante un año 3,2 contraerán la
    enfermedad.
    Por lo tanto, el
    enunciado se corresponde con la definición de tasa o densidad de incidencia. La
    incidencia anual es realmente una incidencia acumulada, es decir, una
    proporción durante un período de tiempo (no incluye personas-tiempo). La
    prevalencia no es una tasa (aunque en inglés la llamen “prevalence rate”) y no
    es la medida de frecuencia en los estudios de cohortes. El RR es una medida de
    asociación, no de frecuencia.
    200: En un ensayo clínico aleatorizado de
    fase III se comparó la eficacia de un nuevo analgésico (experimental) con un
    tratamiento control (tramadol) en pacientes con dolor crónico. La hipótesis de
    trabajo era que el tratamiento experimental reduce el dolor más que el tramadol.
    El efecto de los dos tratamientos se determinó a las 48 horas mediante la
    reducción de la puntuación marcada por el paciente en una escala
    analógica-visual de 0 a 100 mm. La reducción media en el grupo tramadol fue de
    -27 y en el grupo experimental de -31. Se hizo el contraste de hipótesis para
    las diferencias, con la correspondiente prueba diagnóstica y se obtuvo un valor
    de p=0,03. Respecto al estudio anterior, ¿cuál de las siguientes conclusiones
    le parece más correcta?

    1.       El estudio demostró diferencias
    clínicamente relevantes.
    2.       Las diferencias en el efecto
    analgésico entre los dos tratamientos estudiados fueron significativas.
    3.       El beneficio-riesgo del
    tratamiento experimental fue mejor que el tramadol.
    4.       El tratamiento experimental fue
    un 20% mejor que el tramadol.
    5.       Podemos recomendar el uso
    generalizado del tratamiento experimental porque es más eficaz que el tramadol
    en el tratamiento del dolor crónico.

    Comentario: Volvemos a usar el esquema de este tipo de
    preguntas:
             
    Variable de exposición: tipo de tratamiento. Variable de interés:
    dolor.
             
    Tipo de estudio: ensayo clínico en fase III
             
    Medidas de asociación y magnitud de la asociación: la reducción del
    grupo con tramadol fue de -27, y la reducción en el grupo del nuevo fármaco de
    -31. A priori, en nuestra muestra, la reducción del dolor es mayor con
    el nuevo fármaco. Para saber si estas diferencias son estadísticamente significativas,
    se hace un contraste de hipótesis. El p-valor del contraste de hipótesis es
    0,03; por tanto, estadísticamente significativo al nivel habitual (alfa=5%,
    p=0,05); es muy poco probable que las diferencias en la escala de dolor entre
    un fármaco y otro sean debidas al azar.
    Teniendo
    estas cosas claras, la respuesta verdadera es la 2. Alguna de las otras
    respuestas puede tener algún tipo de discusión, pero no creemos que sean la
    respuesta correcta. La 1 habla de clínicamente relevante, cuando la diferencia
    mediante la escala visual no es demasiado grande, que acaso podría hablar de la
    relevancia clínica. La 3 es claramente falsa; en ningún momento nos hablan del
    riesgo-beneficio entre los fármacos. La 4 tampoco es correcta, la reducción en
    la escala de dolor fue de 4 mm mayor en el grupo del fármaco experimental; si
    hiciéramos el cociente entre ambas reducciones de dolor daría 1,15; lo que podría
    interpretarse como que “es un 15% mejor” (con muchas comillas). La 5 tampoco creemos
    que sea correcta, para recomendar el uso de un fármaco a nivel poblacional se
    necesita saber más (que sea clínicamente relevante, el riesgo/beneficio,
    coste-efectividad…).
    201: ¿Qué tipo de análisis de evaluación
    económica en salud compara los costes de los resultados de diferentes
    intervenciones sanitarias medidos en años ajustados por calidad (AVAC)?

    1.       Análisis de minimización de
    costes.
    2.       Análisis coste efectividad.
    3.       Análisis de coste utilidad.
    4.       Análisis de coste beneficio.
    5.       Análisis de coste de la salud.

    Comentario: pregunta que cae casi todos los años en el
    MIR. El análisis coste-utilidad compara los resultados de diferentes
    intervenciones sanitarias medidos en Años de Vida Ajustados por Calidad
    (AVAC).  El análisis de minimización de
    costes compara los costes de distintas intervenciones, el de coste efectividad
    compara los resultados medidos en efectividad (reducción del dolor, % de
    curación…), el coste beneficio mide los resultados en unidades monetarias, y el
    análisis del coste de la salud no lo había escuchado nunca.
    202: Se quiere estudiar si la Vitamina D
    puede incrementar la incidencia del cáncer de mama. En nuestra zona disponemos
    de un registro poblacional de cáncer. Para conseguir nuestro objetivo se
    seleccionan todas las mujeres diagnosticadas de de cáncer de mama del registro
    que disponemos y cada uno de los casos se aparea con dos controles. ¿Qué diseño
    de estudio se ha escogido?

    1.       Estudio de cohortes prospectivo.
    2.       Estudio de casos y controles.
    3.       Estudio de casos y controles
    anidado.

    4.       Estudio de cohortes
    retrospectivo.
    5.       Estudio ecológico.

    NOTA: La corrección oficial da por buena la respuesta 3, nosotros dábamos y damos como buena la 2. Hemos ampliado el comentario (resaltado en amarillo).


    Comentario: Se trata del típico diseño de casos y
    controles, en este caso de base poblacional. Podría existir la duda si se trata
    de un estudio de casos y controles anidado en una cohorte, pero en el enunciado
    no se habla de ninguna cohorte. La fuente de casos es el registro de cáncer, y
    de la fuente de controles no se dice nada. Por ello, no se puede considerar que los controles proceden de una cohorte (si dijera que se seleccionan de la población general podríamos “asumir” que la población general es la cohorte. En el magistral libro de Szklo y Nieto (“Epidemiología intermedia”) se explica con claridad (pág. 29-31, edición en castellano). De hecho, esas explicaciones están dentro del epígrafe “Estudio de casos y controles dentro de una cohorte definida”… y eso es justamente lo que falta indicar en el enunciado de la pregunta. No confundir el “study base” (que
    sería la población cubierta por el registro de tumores) o “cohorte ficticia”
    con una verdadera cohorte. El resto de opciones es erróneo, por descontado. 


    203: Respecto a los diseños de los ensayos
    clínicos para demostrar la eficacia de los antidepresivos, ¿cuál de las siguientes
    es FALSA?

    1.       La inclusión en el diseño de los
    ensayos clínicos de variables secundarias de seguridad es importante para poder
    establecer la ubicación terapéutica de los medicamentos estudiados.
    2.       En estudios de depresión no se
    considera ético usar un grupo de control con placebo.

    3.       La eficacia de los
    antidepresivos se mide mediante Ia proporción de sujetos con una reducción
    porcentual predeterminada en las escalas de depresión especificas, como la de
    Hamilton o la de Beck.
    4.       Debido a la gran variabilidad de
    la respuesta entre un estudio y otro, las comparaciones entre fármacos activos
    con un diseño de no inferioridad no permiten concluir la eficacia de forma
    robusta.
    5.       Aunque la mejoría clínica se
    puede observar en una o dos semanas, generalmente son necesarias 4 semanas de
    seguimiento en los ensayos para establecer diferencias significativas.

    NOTA: la corrección oficial da por buena la respuesta 2. Ya dijimos que teníamos dudas…

    Comentario: Pregunta algo compleja y discutible, ya que
    se entremezcla con conceptos de psiquiatría y alguna respuesta tiene una
    negación, cuando pide identificar la FALSA. Vamos respuesta a respuesta.
    Respuesta
    1 cierta: la seguridad en los fármacos antidepresivos es importante, ya que son
    fármacos que se usan como tratamientos con una duración más o menos larga; por
    ello, medir la seguridad es tan importante como medir la eficacia.
    Respuesta
    2: Es verdadero que “no se considera ético usar un grupo de control con placebo”
    cuando existe un tratamiento eficaz para ello, como podría ser en el caso de la
    depresión (aunque es algo discutible al ver la práctica: en los últimos años
    siguen haciéndose estudios controlados por placebo en Ensayos clínicos de
    Depresión Mayor).
    Respuesta
    3 cierta: se sale de nuestros conocimientos de psiquiatría dudar de la
    veracidad de la respuesta. Estas escalas se utilizan para conocer la severidad
    de la depresión, por lo que parece más que razonable usarlas para valorar la
    eficacia d los tratamientos.
    Respuesta
    4: los estudios de no inferioridad son deseables en ciertas circunstancias,
    como en aquellos casos en los que no se puede incluir un placebo. No creemos que
    la razón para decir que la razón por la que los ensayos de no-inferioridad no
    permiten valorar la eficacia de forma robusta sea que es debido a la
    variabilidad de la respuesta entre un estudio y otro.
    Respuesta
    5 es cierta
    204: En un estudio clínico para
    evaluar la eficacia de un nuevo medicamento en el tratamiento de la crisis de
    migraña (señale la CORRECTA):

    1.       Unos criterios de inclusión
    estrictos aumentan la validez externa del estudio.
    2.       Unos criterios de exclusión estrictos
    reducen la validez interna del estudio.
    3.       El control con un brazo
    placebo aumenta la validez externa del estudio.
    4.       El enmascaramiento reduce la
    validez interna del estudio.
    5.       La asignación aleatoria
    aumenta la validez interna del estudio.

    Comentario: La validez interna de un estudio se refiere
    al grado en que un estudio mide lo que tiene de medir, y si las asociaciones
    encontradas son ciertas, no debidas o afectadas por posibles sesgos (errores
    sistemáticos). La validez externa o generalización se refiere a cómo de
    extrapolables son los resultados a la población de referencia.
    Los
    criterios de inclusión y exclusión no afectan a la validez interna (respuesta 2
    FALSA), lo que producirán serán una disminución de la validez externa, haciendo
    tu estudio menos comparable con la realidad (respuesta 1 FALSA).  El control con el placebo es el deseable para
    evaluar una intervención de forma aislada, para evaluar el efecto de la
    intervención en un grupo control sin tratamiento, similar al tratado (gracias a
    la aleatorización), y eliminando el posible efecto placebo de la propia
    intervención, por lo que aumenta la validez interna (respuesta 3 FALSA). El
    enmascaramiento aumenta la validez interna de los estudios, al disminuir la
    posibilidad de sesgos (respuesta 4 FALSA). La aleatorización disminuye la
    presencia de sesgos del diseño y de factores de confusión, por lo que aumenta
    la validez interna (respuesta 5 VERDADERA).
    205: Queremos conocer si el consumo de café
    puede estar asociado a la malformación neonatal por lo que se diseña un estudio
    casos control [sic]. Se entrevista a un grupo de mujeres que han tenido niños
    con malformaciones y lo mismo en un grupo de madres sin hijos con
    malformaciones [sic]. Las entrevistas las realizarán dos entrevistadores
    entrenados mediante un cuestionario previamente validado. Además, los
    entrevistadores ignoran si la entrevistada es un caso o un control. ¿Qué tipo
    de sesgo podemos introducir?

    1.       Sesgo de información
    2.       Sesgo de memoria.
    3.       Sesgo del entrevistador.
    4.       Sesgo de selección.
    5.       Falacia ecológica.

    Comentario: Pregunta muy sencilla, ya que prácticamente
    es la definición y el ejemplo clásico del sesgo de memoria. El sesgo de memoria
    se da en estudios de casos y controles cuando uno de los 2 grupos es más
    susceptible de declarar la exposición a un factor de riesgo que el otro. En
    este caso, las mujeres que tienen hijos con malformaciones son más dadas a
    recordar las exposiciones que han tenido durante el embarazo, al intentar
    buscar una causa que pueda explicar las malformaciones.
    En el
    enunciado observamos dos errores de redacción: no llamamos a este tipo de
    diseño “estudio caso control” sino “estudio de casos y controles”, y donde dice
    “un grupo de madres sin hijos con malformaciones” debería decir “un grupo de
    madres con hijos sin malformaciones”. Cabe señalar que el sesgo de memoria es
    un tipo particular de sesgo de información (todos los sesgos se pueden
    clasificar en dos grandes categorías: de información y de selección). Pero
    claramente, responder sesgo de memoria es más correcto que responder sesgo de
    información.
    208: Con objeto de comprobar la eficacia de
    un tratamiento para dejar de fumar se compara un grupo control (con placebo)
    con un grupo tratamiento. Para que los grupos sean comparables es importante
    que no difieran mucho en la edad de los participantes. Nos informan que la
    media de edad en el grupo control es 52 años y que en el grupo tratado también
    es 52 años. A partir de dicha información podemos decir que:

    1.       Los grupos no difieren respecto
    a la distribución de la variable edad.
    2.       Si el estudio está bien
    diseñado, no nos puede dar la misma media de edad en ambos grupos.
    3.       Para comparar la distribución de
    la variable edad en ambos grupos sería conveniente conocer una medida de
    dispersión como la desviación típica además de la media.
    4.       Para la conclusión final no
    importa la distribución de la edad en ambos grupos, sólo si el tratamiento es
    efectivo o no.
    5.       Si además de la media coinciden
    la mediana y la moda podemos afirmar que los grupos no difieren respecto a la
    distribución de la variable edad.

    Comentario: Consideramos la respuesta 3 como correcta,
    puesto que aunque las medias en ambos grupos sean iguales, no quiere decir que
    la distribución sea igual: uno de los 2 grupos podría tener a todos los
    pacientes agrupados alrededor de los 52 años, mientras el otro podría tener la
    distribución sesgada, por ejemplo muchos pacientes de 80 y muchos de 20, y que
    la media fuera de 52. Por tanto, es más adecuado dar una medida de dispersión
    como la desviación típica (o estándar) junto a la medida de tendencia central.
    209: Si definimos el punto de corte para
    diagnosticar insuficiencia renal a través del índice de Filtración Glomerular
    (IFG) como 15 ml/min en vez de 60 ml/min está aumentando:

    1.       La sensibilidad del IFG.
    2.       La especificidad del IFG.
    3.       El Valor Predictivo Positivo del
    IFG.
    4.       El Valor Predictivo Negativo del
    IFG.
    5.       La Validez interna y externa del
    IFG.

    Comentario: Si disminuimos el punto de corte de IFG de
    60 a 15 ml/min estaremos poniendo un criterio diagnóstico “más exigente”, es
    decir, haciendo que los pacientes que detectemos sean verdaderos enfermos. Conseguiremos
    que los pacientes que den positivo en la prueba estén ya bastante enfermos disminuyendo
    así la posibilidad de detectar falsos positivos. Por tanto, lo que hacemos al
    reducir el punto de corte es aumentar la especificidad de la prueba (respuesta
    2 VERDADERA). Genial (buen regalo) que la 5 hable de la validez interna y
    externa  del IFG.
    234:
    ¿Cuál de las siguientes vacunas parenterales está contraindicada durante el
    embarazo?

    1.       Vacuna frente al tétanos
    2.       Vacuna frente al sarampión
    3.       Vacuna frente a la tos ferina
    4.       Vacuna frente a la hepatitis B
    5.       Vacuna frente a la gripe

    Comentario: de forma general, las vacunas de virus
    vivos están contraindicadas durante el embarazo, salvo casos excepcionales
    donde el riesgo de enfermedad sea alto y la enfermedad muy grave.

    En el
    caso de la pregunta nos ponen como opciones un toxoide (tétanos), acelulares
    (tos ferina), inactivada (gripe), hepatitis B (a partir de fragmentos) y una
    atenuada (sarampión). La vacuna del sarampión está contraindicada durante el
    embarazo.


  • De RefWorks a Mendeley, y tiro porque me toca

    A mediados del pasado mes de octubre recibí un mensaje desde la biblioteca de mi universidad con el anuncio de que, por obra y arte del Consorci de Biblioteques Universitàries de Catalunya (CBUC), se acababa utilizar RefWorks para gestionar la bibliografía. Tal cual. Por decisión de este lindo Consorcio (que por cierto se disuelve en breve) nos quedábamos sin RefWorks y teníamos que migrar a Mendeley (antes del 31 de diciembre de 2013) .


    Mi primera (y segunda y tercera…) reacción al leer ese email fue de indignación. ¿A santo de qué?. ¿A quién han consultado?. ¿Mendeley tendrá las mismas prestaciones que RefWorks?. ¿Qué nos ahorramos?. ¿Qué ganamos?. ¿Qué nos cuesta?. Y lo peor es que no tenía a nadie a quién preguntar, ni a quién quejarme, ni casi con quién compartir el enfado.

    Y es que en los últimos años he “invertido” bastante en RefWorks. Por consejo de mi biblioteca lo convertí en mi gestor de bibliografía hace unos cuatro años, sustituyendo a Reference Manager que usaba desde hacía tiempo. Me pasé a RefWorks también por motivos docentes: tanto en grado como posgrado, dentro de las asignaturas de escritura científica y tecnologías de la información incluyo un módulo sobre gestión de referencias y creación de listas de bibliografía… y al disponer la Universidad de subscripción a RefWorks, no había demasiada alternativa. Así que me leí manuales y tutoriales, incluso hice un cursito de unas pocas horas, y me reciclé a RefWorks, hasta contento de abandonar un producto del gigante Thomson. Además coincidió con el lanzamiento de la nueva versión de RefWorks, que igualaba y superaba a sus contrincantes de Thomson (ReferenceManager, EndNote y ProCite, que todos tienen el mismo patrón). ¡Ah!, se me olvidaba: Mendeley también tiene dueño. Esta audaz iniciativa fue comprada hace casi un año por… Elsevier. Y dudo que Elsevier dé nada gratis, pues hasta los artículos de revistas “open access” que edita esa editorial (alguna hay), a los que se puede acceder libremente desde la web de la propia revista, tienen “peaje” si se accede a ellos a través de ScienceDirect. Hagan la prueba con Gaceta Sanitaria: mismo sumario (núm 1 del vol. 24, año 2010) en su web versus sumario en ScienceDirect.

    Y así andaba yo, con los materiales docentes ya bien rodados y enseñando a mis alumnos a manejarse con RefWorks con bastante éxito. Y también usando RefWorks tan ricamente para gestionar la bibliografía de nuestro grupo de investigación… ¡creando hasta estilos ad hoc para acomodarse a las particularidades de estilo de cada revista!.

    Conocía Mendeley vagamente. Cuando apareció abrí, raudo e intrépido, una cuenta y experimenté un poquito. Pero la verdad, a pesar de tener una opción gratuita y alguna cosa interesante como la “captura on-line” de referencias, no me entusiasmó. No me entusiasmó porque ya me manejaba bien con RefWorks y no tenía necesidad de cambiar. Pero esa armonía se rompió a mediados de octubre pasado con la decisión de CBUC. A regañadientes me apunté como “pendiente” aprender y ser capaz de explicar Mendeley para finales de año.

    Y a las preguntas del segundo párrafo se le podrían añadir otras: ¿qué gana el CBUC con este cambio? ¿qué ganamos los usuarios? (ahh! los usuarios!!!) ¿qué pasa con toda la inversión hecha por la universidades para formar en RefWorks a sus documentalistas y blibliotecarios, a sus profesores e investigadores, y a sus alumnos?.

    Yo he tenido que invertir unas 8 horas en entrar en la filosofía de Mendeley y ser capaz de hacer casi todo lo que ya sabía hacer con RefWorks. Y quiero pensar que ha sido una inverisón –sobran comentarios. Pero he tenido que “invertir” también unas 15 horas más en revisar y reinventar parte del material docente de mis clases (presenciales y  distancia). Y todavía me falta adaptar los ejercicios para el CampusVirtual… y creo que serán 5 o 6 horitas más…

    ¿Y es mejor Mendeley que RefWorks o que los otros gestores bibliográficos? Mi respuesta como investigador biomédico y como profesor: creo que, si previamente no se utiliza o ni se conoce cómo funciona un gestor bibliográfico, Mendeley ofrece alguna ventaja. Su filosofía de “captura de cita desde el navegador” hace que incorporar documentos a la biblioteca personal sea muy fácil. Pero normalmente los investigadores, y diría que también los alumnos, no trabajamos así. Y la calidad de la captura de datos (de los metadatos de los docuementos, que nutren a Mendeley) deja bastante que desear, aunque no sea por culpa de Mendeley sino de quien crea los documentos. Disponer de los PDFs es también una ventaja, pero eso no es ninguna novedad. El entorno dual “escritorio-web” crea algo de confusión, a pesar de que la sincronización es, realmente, sencillísima. Ese entorno dual sí que tiene una característica fantástica: el “drag & drop” (arrastrar y soltar) hace mucho más fácil la operación de incluir documentos en la librería. Y,aunque eso no sea de especial interés para investigadores, con Mendeley se pueden indizar y almacenar cualquier tipo de documentos disponibles en internet (páginas web, videos, presentaciones PPT originales o en slideshare…).

    Pero Mendeley es algo limitado para formatear la bibliografía de un artículo. Dispone de múltiples formatos de estilos, los genéricos (como Vancouver o APA) y sus múltiples adaptaciones a centenares de revistas que si bien dicen usar APA o Vancouver, introducen maléficos cambios en el formato de las citas (como incluir el volumen en negrilla, o el nombre dela revista en cursiva, o no poner el punto tras la abreviación dela revista…). En RefWorks la edición y creación de estilos a medida no era para usuarios principiantes, pero “se dejaba” y con una mínima inversión se conseguían editar los estilos. No es que haya tenido ideaciones suicidas mientras trataba de aprender a editar los estilos de citación con Mendeley, pero no es nada sencillo. Y eso que Mendeley utiliza el Citation Style Language que se ha convertido en el estándar del software dedicado a estas cosas (como Zotero, Drupal o CrossRef, por nombrar alguno que conozco de entre el montón de este tipo software). Si el estilo que Mendeley proporciona por defecto de una revista no es realmente correcto (como suele pasar), editarlo y adecuarlo a la realidad es bastante complicado.

    Finalmente, y quizás sea eso lo que gusta a bastante “Mendeley adopters”, o diría yo “fans”, es que Mendeley es, en sí mismo, una red social mediante la cual se pueden compartir documentos y comentarios. Compartir documentos y biliografía –tener carpetas comunes en la nube para un grupo de investigadores– no es tampoco ninguna novedad. RefWorks batió a sus contrincantes justamente por eso, cuando fue el primer software basado en la web. Pero Mendeley permite mantener grupos donde discutir y comentar sobre los documentos (sobre lo que sea), con diferentes grados de privacidad, algo que no sé si realmente puede ser de mucho interés para los investigadores. Quizás sí, aunque a mi me recuerde mucho al muro de Facebook…

    En algún corrillo tras una sesión oí que el CBUC se había ofrecido para probar Mendeley y dar feed-back a Elsevier (o quizás fuese al revés), que “nos daban gratis” la versión Premium, que es de pago, durante un año. ¿Y después? Y también me pregunto si, gracias a la suscripción de la FECYT a Web of Knowledge (que no es barata y pagamos entre todos), tenemos acceso a EndNote Web “gratuitamente”, ¿por qué esta aventura con Mendeley-Elsevier?.

    Reconvertido ya a Mendeley, para uso personal, en grupo, y también ya para enseñarlo, he sentido la necesidad de explicar todo esto. La curva de aprendizaje tiene, como en el resto de gestores bibliográficos, una forma sigmoidal muy acusada (aprendes mucho en poco tiempo, ¡menos mal!). Supongo que me acostumbraré, y que siempre es bueno renovarse y aprender cosas nuevas… intentaremos que repercuta positivamente en nuestra investigación y docencia.