Categoria: castellano

  • Las cartas al Director (o Directora)

    Foto: http://www.press-citizen.com/ 

    En el último número de GacetaSanitaria (nº 4 de 2014) se publican dos cartas a la Directora (de Gullón y cols., y la réplica de
    Rodríguez-Romo y cols) que me han gustado, por su temática y por representar un
    buen ejemplo de este formato de trabajo. Aunque escribí (con Ana M. García) sobre las Cartas
    antes en una nota editorial en Gaceta Sanitaria (que sigo recomendando), quiero aprovechar para volver a poner en valor
    este formato. Creo que una revista científica que se precie y aprecie a sus
    lectores y autores debe cuidar especialmente esta sección. Las Cartas que se
    originan tras la publicación de un artículo aportan datos, visiones o interpretaciones
    muy valiosas, normalmente en un genuino intercambio intelectual y científico
    tanto para los autores como, y no menos importante, para los lectores.

    La carta de
    Gullón y cols. comenta un aspecto interesante del estudio de Rodríguez-Romo y
    cols. publicado unos meses atrás. Entre otros asuntos, alerta de la posibilidad
    de un sesgo de información, concretamente el llamado “sesgo por misma fuente” (“same-source bias”) que ocurre cuando el error de medida de exposición y resultado están
    correlacionados. Esta situación es frecuente en estudios transversales que usan
    cuestionarios como única fuente de información, tanto para las exposiciones
    como para las variables de resultado. Así, en el estudio comentado, parece probable
    que la variable autoinformada de resultado puede influir en la percepción de la
    exposición.  La carta de réplica
    justifica adecuadamente por qué se utilizó este tipo de medidas en la
    investigación. No entiendo, sin embargo, que los autores insistan en el valor de este tipo de medidas como única
    fuente de información.
    Pero más allá del
    sesgo y potencial impacto sobre los resultados, estas cartas me han hecho
    pensar de nuevo en el valor del diseño de los estudios
    . Las Cartas discutían acerca
    de un estudio transversal, que como todos sabemos tienen un gran valor para determinados
    objetivos, pero también sus limitaciones. Hace unos días, buscando ejemplos de estudios
    longitudinales para docencia, rebusqué artículos entre las páginas de Gaceta Sanitaria.
    Y la verdad es que me costó bastante encontrar un artículo en Gaceta Sanitaria en que se
    presentaran resultados de un estudio longitudinal. Y dejo la pregunta en el
    aire, para cuando tenga algo de tiempo… ¿qué tipos de estudio está publicando Gaceta Sanitaria?.
    Esteve Fernández
  • Revisando que es gerundio (o ¿existe un “síndrome del revisor quemado”?)

    Hoy, como en una
    docena más de ocasiones en lo que va de año, he cumplido con la revisión o
    evaluación de un manuscrito por encargo de una revista (en esta ocasión para Gaceta Sanitaria). Una docena de
    revisiones para casi una docena de revistas diferentes. Esta vez me han tenido
    que reclamar la revisión, ya que he sobrepasado el tiempo asignado. Mal, muy
    mal. Desde el punto de vista de la revista mal, porque revierte
    negativamente en los tiempos de gestión de la revista. Y peor desde el
    punto de vista de los autores, que siempre algo nerviosos andan –andamos-
    mirando cuándo estará la revisión y llegará una respuesta de la revista. Y,
    finalmente, fatal desde el punto de vista personal, por la insatisfacción
    y cierta frustración de no acabar de hacer bien las cosas.

    Todos sabemos que
    el
    trabajo (altruista, voluntario..  que el
    lector ponga más adjetivos) de los revisores es esencial para las revistas
    .
    El proceso editorial, la vida misma de las revistas, depende en un alto grado
    de la desinteresada aportación de tiempo e intelecto de los revisores. Las
    buenas revistas tienen buenos revisores, sagaces, preparados, críticos, y rápidos.
    Pero el trabajo de los revisores se acumula, y como cualitativamente voy
    apreciando en propia piel y por conversaciones con compañeros, cada vez más
    revistas piden más revisiones porque reciben más manuscritos
    . Y los buenos
    revisores, sagaces, preparados, críticos, y rápidos también se cansan, agotan,
    desmotivan y claudican. Vaya, que no sería demasiado difícil describir un
    cuadro del “revisor quemado”, seguramente con varios grados de gravedad. (Por cierto:
    0 referencias en una búsqueda rápida en PubMed). Pero el trabajo de los
    revisores es tan importante que deberíamos prevenir que eso pase. Los revisores
    deberían saber decir “no” cuando el tiempo les apremia, el tema del manuscrito
    no les atrae o se escapa de sus conocimientos, o sencillamente no les apetece
    hacer una revisión. Y las revistas deberían controlar la frecuencia con la que
    envían manuscritos a sus revisores y en muchas ocasiones sucesivas
    re-evaluaciones, los plazos de entrega y los sistemas de aviso automático, e
    importante, “cuidar” o cuidar un poquito más a sus revisores (recomiendo la
    nota editorial “A nuestros
    evaluadores, con amor
    “ de Ana M. García de hace unos años en Gaceta
    Sanitaria, ¡aún muy vigente!).

    Seguramente habría
    espacio para una encuesta para conocer las creencias, actitudes y vivencias de
    los revisores  (y también de los
    editores) sobre el peer review.  Si
    me animo y tengo tiempo no descarto hacerla en un futuro próximo… Un estudio
    así quizás sirviera para caracterizar y acaso prevenir el “síndrome del revisor
    quemado”, entre otras cosas, y que todos, revisores y editores, fuésemos un
    pelín más felices.

    Esteve Fernández, efernandez@iconcologia.net, @stvfdz

    PS: He escrito
    esta reflexión tras mi última revisión –pero primera del año– para Gaceta
    Sanitaria. Que nadie malinterprete esto como una crítica hacia Gaceta Sanitaria
    (que en 2013 sólo revisé un manuscrito y fueron 2 en 2012). Se trata de una
    reflexión y crítica a la saturación, “ecológicamente” hablando, que sufrimos
    muchos de nosotros por la suma de las peticiones de muchas revistas.

  • MIR 2014: epidemiología, medicina preventiva, y salud pública



    Tras la experiencia del año pasado no he sabido decir que no y he vuelto a colaborar en MIR2.0. Algo de emoción, un poco de estrés (me ha pillado acabando de escribir solicitudes de becas y corrigiendo exámenes de grado… un cóctel más que explosivo) y mucho voluntarismo. Este año han sido otra vez 17 preguntas, que he tenido la suerte de compartir con Pedro Gullón Tosío, joven valor de la medicina preventiva y la salud pública española. Nos ha ayudado también César Velasco, otro joven salubrista. Y sin ánimo de enrollarme, que lo importante son las preguntas y respuestas que siguen, sólo quiero remarcar (y va en negrita) algo que ya dije hace un año: me siento orgulloso de poder contribuir al proyecto MIR 2.0!.


    Y aquí vienen las preguntas de epidemiología, medicina preventiva y salud pública, también disponibles en el bloc “Salud, sociedad y más” de Pedro y en wikisanidad:



    NOTA: La corrección oficial de casimédicos.com (aquí) señala que hemos cometido 2 errores: en las preguntas 202 y 203. Ved los comentarios.


    190. Si desea estimar los efectos de una
    intervención empleará:
    1. Un diseño transversal
    2. Un diseño retrospecivo
    3. Un estudio ecológico
    4. Un ensayo clínico aleatorizado
    5. Un diseño observacional con
      selección al azar de los participantes
    Comentario: pregunta en mi opinión poco correcta en su
    enunciado que, sin embargo, tiene una respuesta “más verdadera” que el resto.
    En realidad con cualquiera de las opciones puedes llegar a estimar los efectos
    de una intervención, de una manera o de otra. La pregunta debería ser “la mejor
    manera de estimar los efectos de una intervención es”.
    Para evaluar una intervención del tipo que sea
    (fármaco, técnica quirúrgica, educativa…) el mejor diseño de estudio es el
    ensayo “clínico” aleatorizado. “Clínico” entre comillas, porque se puede usar
    en contextos no-clínicos. Mediante este diseño
    dividimos usualmente a los sujetos en 2
    grupos: en uno los que reciben la intervención (grupo intervención)  y en otro los que no (grupo control); los
    seguimos, y medimos los efectos comparando la incidencia de algún evento (por
    ejemplo, curación, aprender a hacer algo, adoptar un comportamiento…) entre
    ambos grupos.
    El resto de opciones son diseños
    observacionales sin control en el diseño de las variables, por lo que no son la
    mejor opción.
    191.
    Se lleva a cabo un estudio para evaluar la relación entre el cáncer de pulmón y
    la exposición al sílice. Se seleccionaron 400 pacientes con diagnóstico de
    cáncer de pulmón del registro provincial de tumores y se eligen 400 personas
    sanas de forma aleatoria de la población residente de la provincia. El
    resultado de la evaluación de esta relación es OR=1,67; IC95%=1,27-2,21. Es
    cierto:

    1.       No hay relación entre la
    exposición al sílice y el cáncer de pulmón

    2.       Con este estudio no se puede
    evaluar la relación entre el sílice y el cáncer de pulmón

    3.       Se trata de un estudio experimental
    aleatorizado con una asociación positiva entre la exposición al sílice y el
    cáncer de pulmón

    4.       Estos datos muestran que no hay
    significación estadística entre la exposición al sílice y el cáncer de pulmón

    5.       Se trata de un estudio de casos
    y controles con una asociación positiva entre la exposición al sílice y el
    cáncer de pulmón

    Comentario: pregunta sencilla. La mejor forma de
    contestar este tipo de preguntas es siguiendo siempre la misma sistemática:
             
    Identificar qué es lo que busca el estudio: variable de interés (o
    dependiente; en este caso, el cáncer de pulmón) y de exposición (ó
    independiente; en este caso, el sílice).
             
    Identificar el tipo de estudio: escoge a un grupo de pacientes con una
    enfermedad (casos) para compararlos con un grupo de personas sanas (controles)
    en cuanto a la exposición a determinado factor de riesgo (la exposición al
    sílice). Es verdad que no dice explícitamente que se pregunta por su exposición
    en el pasado al sílice, y alguien podría dudar respecto a un estudio
    transversal, pero ninguna respuesta sería correcta si consideramos esta opción,
    aparte de que tiene menos sentido.
             
    Interpretar la medida de asociación y de magnitud: esto es,
    interpretar la OR (ó Razones de Prevalencia en estudios transversales, ó Riesgo
    Relativo en cohortes), los Intervalos de Confianza y los p-valores. En este
    estudio, nos dicen que la OR es de 1,67; y el IC 95% no incluye el valor 1;
    esto quiere decir que la exposición al sílice produce 1,67 veces más “riesgo”
    (realmente más “odds”) de cáncer de pulmón que si no estás expuesto al sílice.
    En la población, si hacemos inferencia, si repitiéramos el estudio millones de
    veces, un 95% de ellas nos darían un OR de entre 1,27 y 2,21; por tanto, la
    diferencia de cáncer de pulmón entre los expuestos al sílice y los que no, es
    estadísticamente significativa.
    Teniendo
    esto claro, la única respuesta posible es la 5. De hecho, los disparates v
    arios en las opciones de respuesta 1 a 4 nos llevan por eliminación
    también a la 5.
    192: Se quiere realizar un estudio para
    valorar el efecto de la exposición al consumo de alcohol sobre el cáncer de
    páncreas. Es posible que la relación pueda estar afectada por el efecto de la
    exposición al tabaco. Si sólo se quiere analizar el efecto del consumo de tabaco,
    ¿qué tipo de sesgo se puede producir?

    1.      
    Sesgo de exposición
    2.      
    Sesgo de diagnóstico
    3.      
    Sesgo de realización
    4.      
    Sesgo por efecto vigilancia (o
    de Hawthorne)

    5.      
    Sesgo de confusión

    Comentario: Ninguno de los sesgos
    mencionados (1 a 4)  explicaría la
    potencial afectación de la asociación entre alcohol y el riesgo de cáncer de
    páncreas a causa del tabaco… a eso le llamamos confusión (opción 5). La
    confusión
    se da
    cuando una variable se asocia causalmente o no a la variable de exposición
    (alcohol), se asocia causalmente a la variable de interés (cáncer de páncreas),
    y no se trata de un mero factor o variable intermedia, de manera que se
    sobreestima (confusión positiva) o subestima (confusión negativa) el efecto de la
    asociación observada.
    Muchos epidemiólogos consideramos eso
    un “fenómeno” real debido a  la
    naturaleza de los datos y no lo etiquetamos como sesgo, es decir, no es un “error
    sistemático”. Cuando observamos un RR o una OR “confundida” por la presencia de
    otra variable no cometemos ningún error sistemático ni en la información que
    manejamos (p.ej. medimos de forma válida) ni en la selección (p.ej. estudiamos
    a los sujetos correctos), sino que vemos lo que vemos porque las variables
    están relacionadas entre sí.
    En este
    caso, quieren saber si la relación entre alcohol y cáncer de páncreas en
    realidad es debida a que los que consumen alcohol fuman más, y el fumar se
    asocia al cáncer de páncreas. Esto es justo lo que están buscando, por lo que
    la respuesta es la 5.

    193:
    Señale la definición correcta:

    1.       El número Necesario a Tratar
    (NNT) es el inverso del Riesgo Relativo (RR)

    2.       La Reducción del Riesgo Relativo
    (RRR) puede diferenciar claramente los riesgos y beneficios grandes de los
    pequeños

    3.       La Reducción del Riesgo Relativo
    (RRR) es una medida del esfuerzo terapéutico que deben realizar clínicos y
    pacientes para evitar resultados negativos de sus enfermedades

    4.       El Número Necesario a Dañar
    (NND) se calcula dividiendo la unidad entre el Número Necesario a Tratar (NNT)

    5.       La Reducción del Riesgo Absoluto
    (RRA) se calcula mediante la diferencia absoluta de la tasa de episodios en el
    grupo control menos la tasa de episodios en el grupo  intervención

    Comentario: Pregunta en nuestra opinión confusa, e
    incluso impugnable.
    La definición de RRA es justamente lo que
    explican: la diferencia entre las tasas en grupo control e intervención (
    es el riesgo atribuible en
    expuestos cambiado de signo)
    . El resto de respuestas está
    plagado de errores
    .
    Respuesta
    1 falsa. El NNT es el inverso de la Reducción absoluta del riesgo.
    Respuesta
    2 falsa. La RRR nos dice la proporción de eventos que se evitarían si todo el
    mundo recibiese la intervención preventiva. Al dar una proporción, no permite
    diferenciar como afecta de forma absoluta, no diferenciando entre enfermedades con
    distinta prevalencia.
    Respuesta
    3 falsa. A pesar de la ambigüedad en la redacción, creo que la medida que se
    acercaría más al esfuerzo que tienen que realizar clínicos y pacientes para
    evitar resultados negativos es el NNT; ya que nos indica el número necesario de
    pacientes a tratar para evitar un caso de un evento.
    Respuesta
    4 falsa:
    el NND se calcula como el inverso del incremento
    absoluto del riesgo (IAR= diferencia absoluta entre tasa acontecimientos
    adversos en grupo control e intervención).
    196: Disponemos de dos tests para
    diagnosticar una enfermedad de pronóstico grave. La prueba A tiene una
    sensibilidad del 95% y una especificidad del 60% y la prueba B tiene una
    sensibilidad del 70% y una especificidad del 99%. Disponemos de un tratamiento
    eficaz pero que produce efectos adversos importantes y además tiene un coste
    muy elevado. ¿Qué prueba elegiríamos para hacer el diagnóstico?

    1.       La prueba A porque detectará menos
    falsos positivos.

    2.       La prueba A porque tiene una
    sensibilidad mayor.

    3.       La prueba B porque detectará más
    falsos positivos.

    4.       La pruebn A porque detectará más
    falsos negativos.

    5.       La prueba B porque tiene una
    mayor especificidad.

    Comentario: La sensibilidad es la proporción de
    resultados positivos que da una prueba de entre todos los que están enfermos.
    La especificidad es la proporción de resultados negativos da nuestra prueba de
    entre todos los sanos.
     Al tratarse de una enfermedad con un
    tratamiento muy costoso y con muchos efectos secundarios, es interesante tener
    una prueba que no detecte muchos falsos positivos; es decir, que a los que está
    sanos los clasifique como sanos, y no como enfermos (que no sobrediagnostique) ya
    que recibirían un innecesario tratamiento costoso y con efectos secundarios. Por
    todo ello es deseable una prueba con una especificidad alta, como
    es la prueba B. Y como la capacidad de detectar falsos positivos no
    tiene que ver con la especificidad, la respuesta correcta es la 5.
    197: Varón homosexual de 30 años de edad VIH
    (+) que participa como voluntario en un centro de ayuda a pacientes con SIDA.
    Según su historia clínica recibió toxoide diftérico (Td) hace 6 años, la vacuna
    triple vírica en la infancia y en la adolescencia, y la hepatitis B hace 3
    años. Actualmente se encuentra asintomático con un recuento de CD4 superior a
    200 cls/microlitro. ¿Qué vacunas deberíamos recomendarle?

    1.      
    Gripe estacional, neumocócica,
    meningitis tetravalente y hepatitis A

    2.      
    Gripe estacional, Td, neumocócia
    y meningitis tetravalente

    3.      
    Meningitis tetravalente,
    neumocócia y gripe estacional

    4.      
    Td, meningitis tetravalente,
    neumocócica

    5.      
    Triple vírica, gripe estacional,
    neumocócica

    Comentario: las recomendaciones de vacunación para los
    adultos HIV+ incluyen vacuna de la hepatitis B, gripe, triple vírica,
    antineumocócica, Td y Tdap, y para algunos adultos, hepatits A, o A y B
    combinada, meningitis bacteriana, VPH y antimeningocócica. Fuente:
    http://aidsinfo.nih.gov/contentfiles/inmunizacionesrecomendadas_fs_sp.pdf
    Teniendo
    en cuenta que el individuo ha recibido algunas vacunas, que tiene un recuento
    CD4 >100 (si fuera menor habría alguna contraindicación) y trabaja en un
    centro  de ayuda a pacientes con SIDA (se
    le equipara a “personal de salud”) las respuestas 2, 4 y 5 son erróneas. Las
    cuatro vacunas de la opción 1 son administrables.
    Con
    algo más de detalle:
    Vacuna
    frente al tétanos y la difteria: todas las personas deben estar vacunados
    frente a estas dos enfermedades.
    Vacuna
    frente a la hepatitis B: los virus de la hepatitis B y del VIH comparten las
    mismas vías de transmisión por lo que es frecuente que el paciente infectado
    por VIH esté infectado también por el virus de la hepatitis B. Por esto es
    importante conocer si la persona infectada por VIH presenta marcadores de infección
    por hepatitis B y proceder a la vacunación en caso de que no los tenga.
    Vacuna
    frente a la hepatitis A: la hepatitis A en una persona portadora de hepatitis
    B, con hepatitis C o con otra enfermedad hepática puede ser muy grave. Dado que
    estas infecciones son más frecuentes en el paciente infectado por VIH se
    recomienda su vacunación frente a la hepatitis A.
    Vacuna
    frente a la gripe: una gripe en un paciente con falta de respuesta inmune
    presenta mayor gravedad y riesgo de complicaciones, por lo que está indicada la
    vacunación anual frente a esta enfermedad. Si la situación inmunitaria del
    paciente está muy deteriorada, la respuesta a la vacunación está disminuida. En
    este caso es fundamental la vacunación de todos los convivientes de la persona
    infectada por VIH para evitar que le transmitan la enfermedad.
    Vacuna
    frente al neumococo: las infecciones neumocócicas (en especial las neumonías)
    son hasta 10 veces mas frecuentes en las personas infectadas por VIH que en los
    adultos no infectados por el VIH, por lo que se recomienda la vacunación, si
    bien en pacientes con recuentos inferiores a 200/mm3 la respuesta protectora no
    suele ser suficiente. Deben recibir una segunda dosis a los 3-5 años. Los niños
    infectados por VIH deben vacunarse con la vacuna antineumocócica conjugada con
    el número de dosis que le correspondan según la edad.
    Vacuna
    frente al Haemophilus Influenzae tipo b: esta bacteria es causa de
    neumonías y meningitis, en especial en niños. Aunque en los adultos infectados
    por VIH representa un número pequeño de las causas de infección, se recomienda
    la vacunación.
    Vacuna
    frente al sarampión, la rubéola y la parotiditis (triple vírica): las tres
    enfermedades pueden adquirir una mayor gravedad en los pacientes infectados por
    VIH, en especial el sarampión, por lo que todas ellas deben de estar vacunadas,
    siempre que la inmunodepresión no sea severa (recuento menor a 200/mm3).
    198: Se realiza un ensayo clínico en
    pacientes hipertensos para valorar la efectividad de un nuevo fármaco en la
    reducción de aparición de insuficiencia cardíaca. El Riesgo relativo (RR) de insuficiencia
    cardiaca en relación con el fármaco habitual es de 0,69 con IC al 95% de 0,31 a
    1,17. ¿Qué significan estos resultados?

    1.       El nuevo fármaco disminuye el
    riesgo de insuficiencia cardiaca de forma significativa.

    2.       El nuevo fármaco es muy eficaz y
    debería comercializarse.

    3.       La reducción del riesgo de
    insuficiencia cardiaca con el nuevo fármaco es irrelevante clínicamente.

    4.       No existen diferencias
    estadísticamente significativas entre el efecto de los fármacos estudiados.

    5.       El nuevo fármaco aumenta el
    riesgo de insuficiencia cardiaca pero de forma no significativa.

    Comentario: Utilizando el esquema de la pregunta 191,
    intentamos resolver:
             
    Variable de exposición: recibir un fármaco u otro. Variable de
    interés: insuficiencia cardiaca
             
    Tipo de estudio: ensayo clínico
    Interpretación
    de la magnitud de la asociación y la significación: El RR es de 0,69; lo que
    quiere decir que los que reciben el fármaco nuevo tienen menos riesgo de
    insuficiencia cardiaca que los que recibieron el fármaco antiguo. El IC 95% va
    de 0,31 a 1,17; esto quiere decir que, a pesar de lo que encontramos en nuestro
    estudio, en la población de la que proviene nuestra muestra, es esperable que
    este RR pueda deberse al azar, ya que si repetimos el estudio millones de
    veces, el 95% de las veces el RR estaría entre 0,31 y 1,17 (desde reducir mucho
    el riesgo hasta aumentarlo). Esto quiere decir que
    no
    podemos descartar que esa reducción sea debida al azar con un riesgo alfa del
    5% (p<0,05),o en otras palabras, el RR no es estadísticamente significativo
    (el p-valor será en cualquier caso > 0,05).
    Por ello, la respuesta más lógica es la 4.
    199: En un estudio de cohortes el número de
    casos nuevos de enfermedad por unidad
    de tiempo es:

    1.       La incidencia anual.
    2.       La incidencia o probabilidad
    acumulada.

    3.       La tasa de prevalencia.
    4.       La densidad o tasa de
    incidencia.

    5.       El riesgo relativo de
    desarrollar la enfermedad.

    Comentario: pregunta fácil sobre medidas de frecuencia.
    En los estudios con seguimiento (como los de cohortes) se suelen presentar los
    resultados de frecuencia de enfermedad de 2 maneras:
             
    Incidencia acumulada: se trata del número de casos nuevos en un
    periodo de tiempo dividido entre la población a riesgo al inicio del estudio.
    Se trata de una proporción. Una Incidencia acumulada de 0.27, quiere decir que
    el 27% de los individuos de nuestro estudio ha contraído la enfermedad en el
    periodo completo de estudio
             
    Densidad o tasa de incidencia: cuando hay pérdidas al seguimiento, se
    utiliza una medida de frecuencia que tenga en cuenta el periodo que cada individuo
    está en el estudio. Para ello, se divide el número de casos nuevos en nuestro
    estudio dividido entre el total de tiempo de seguimiento de todos los
    pacientes. Una tasa de incidencia de 3,2 por 1000 personas/año se interpreta
    como que de cada 1000 personas seguidas durante un año 3,2 contraerán la
    enfermedad.
    Por lo tanto, el
    enunciado se corresponde con la definición de tasa o densidad de incidencia. La
    incidencia anual es realmente una incidencia acumulada, es decir, una
    proporción durante un período de tiempo (no incluye personas-tiempo). La
    prevalencia no es una tasa (aunque en inglés la llamen “prevalence rate”) y no
    es la medida de frecuencia en los estudios de cohortes. El RR es una medida de
    asociación, no de frecuencia.
    200: En un ensayo clínico aleatorizado de
    fase III se comparó la eficacia de un nuevo analgésico (experimental) con un
    tratamiento control (tramadol) en pacientes con dolor crónico. La hipótesis de
    trabajo era que el tratamiento experimental reduce el dolor más que el tramadol.
    El efecto de los dos tratamientos se determinó a las 48 horas mediante la
    reducción de la puntuación marcada por el paciente en una escala
    analógica-visual de 0 a 100 mm. La reducción media en el grupo tramadol fue de
    -27 y en el grupo experimental de -31. Se hizo el contraste de hipótesis para
    las diferencias, con la correspondiente prueba diagnóstica y se obtuvo un valor
    de p=0,03. Respecto al estudio anterior, ¿cuál de las siguientes conclusiones
    le parece más correcta?

    1.       El estudio demostró diferencias
    clínicamente relevantes.
    2.       Las diferencias en el efecto
    analgésico entre los dos tratamientos estudiados fueron significativas.
    3.       El beneficio-riesgo del
    tratamiento experimental fue mejor que el tramadol.
    4.       El tratamiento experimental fue
    un 20% mejor que el tramadol.
    5.       Podemos recomendar el uso
    generalizado del tratamiento experimental porque es más eficaz que el tramadol
    en el tratamiento del dolor crónico.

    Comentario: Volvemos a usar el esquema de este tipo de
    preguntas:
             
    Variable de exposición: tipo de tratamiento. Variable de interés:
    dolor.
             
    Tipo de estudio: ensayo clínico en fase III
             
    Medidas de asociación y magnitud de la asociación: la reducción del
    grupo con tramadol fue de -27, y la reducción en el grupo del nuevo fármaco de
    -31. A priori, en nuestra muestra, la reducción del dolor es mayor con
    el nuevo fármaco. Para saber si estas diferencias son estadísticamente significativas,
    se hace un contraste de hipótesis. El p-valor del contraste de hipótesis es
    0,03; por tanto, estadísticamente significativo al nivel habitual (alfa=5%,
    p=0,05); es muy poco probable que las diferencias en la escala de dolor entre
    un fármaco y otro sean debidas al azar.
    Teniendo
    estas cosas claras, la respuesta verdadera es la 2. Alguna de las otras
    respuestas puede tener algún tipo de discusión, pero no creemos que sean la
    respuesta correcta. La 1 habla de clínicamente relevante, cuando la diferencia
    mediante la escala visual no es demasiado grande, que acaso podría hablar de la
    relevancia clínica. La 3 es claramente falsa; en ningún momento nos hablan del
    riesgo-beneficio entre los fármacos. La 4 tampoco es correcta, la reducción en
    la escala de dolor fue de 4 mm mayor en el grupo del fármaco experimental; si
    hiciéramos el cociente entre ambas reducciones de dolor daría 1,15; lo que podría
    interpretarse como que “es un 15% mejor” (con muchas comillas). La 5 tampoco creemos
    que sea correcta, para recomendar el uso de un fármaco a nivel poblacional se
    necesita saber más (que sea clínicamente relevante, el riesgo/beneficio,
    coste-efectividad…).
    201: ¿Qué tipo de análisis de evaluación
    económica en salud compara los costes de los resultados de diferentes
    intervenciones sanitarias medidos en años ajustados por calidad (AVAC)?

    1.       Análisis de minimización de
    costes.
    2.       Análisis coste efectividad.
    3.       Análisis de coste utilidad.
    4.       Análisis de coste beneficio.
    5.       Análisis de coste de la salud.

    Comentario: pregunta que cae casi todos los años en el
    MIR. El análisis coste-utilidad compara los resultados de diferentes
    intervenciones sanitarias medidos en Años de Vida Ajustados por Calidad
    (AVAC).  El análisis de minimización de
    costes compara los costes de distintas intervenciones, el de coste efectividad
    compara los resultados medidos en efectividad (reducción del dolor, % de
    curación…), el coste beneficio mide los resultados en unidades monetarias, y el
    análisis del coste de la salud no lo había escuchado nunca.
    202: Se quiere estudiar si la Vitamina D
    puede incrementar la incidencia del cáncer de mama. En nuestra zona disponemos
    de un registro poblacional de cáncer. Para conseguir nuestro objetivo se
    seleccionan todas las mujeres diagnosticadas de de cáncer de mama del registro
    que disponemos y cada uno de los casos se aparea con dos controles. ¿Qué diseño
    de estudio se ha escogido?

    1.       Estudio de cohortes prospectivo.
    2.       Estudio de casos y controles.
    3.       Estudio de casos y controles
    anidado.

    4.       Estudio de cohortes
    retrospectivo.
    5.       Estudio ecológico.

    NOTA: La corrección oficial da por buena la respuesta 3, nosotros dábamos y damos como buena la 2. Hemos ampliado el comentario (resaltado en amarillo).


    Comentario: Se trata del típico diseño de casos y
    controles, en este caso de base poblacional. Podría existir la duda si se trata
    de un estudio de casos y controles anidado en una cohorte, pero en el enunciado
    no se habla de ninguna cohorte. La fuente de casos es el registro de cáncer, y
    de la fuente de controles no se dice nada. Por ello, no se puede considerar que los controles proceden de una cohorte (si dijera que se seleccionan de la población general podríamos “asumir” que la población general es la cohorte. En el magistral libro de Szklo y Nieto (“Epidemiología intermedia”) se explica con claridad (pág. 29-31, edición en castellano). De hecho, esas explicaciones están dentro del epígrafe “Estudio de casos y controles dentro de una cohorte definida”… y eso es justamente lo que falta indicar en el enunciado de la pregunta. No confundir el “study base” (que
    sería la población cubierta por el registro de tumores) o “cohorte ficticia”
    con una verdadera cohorte. El resto de opciones es erróneo, por descontado. 


    203: Respecto a los diseños de los ensayos
    clínicos para demostrar la eficacia de los antidepresivos, ¿cuál de las siguientes
    es FALSA?

    1.       La inclusión en el diseño de los
    ensayos clínicos de variables secundarias de seguridad es importante para poder
    establecer la ubicación terapéutica de los medicamentos estudiados.
    2.       En estudios de depresión no se
    considera ético usar un grupo de control con placebo.

    3.       La eficacia de los
    antidepresivos se mide mediante Ia proporción de sujetos con una reducción
    porcentual predeterminada en las escalas de depresión especificas, como la de
    Hamilton o la de Beck.
    4.       Debido a la gran variabilidad de
    la respuesta entre un estudio y otro, las comparaciones entre fármacos activos
    con un diseño de no inferioridad no permiten concluir la eficacia de forma
    robusta.
    5.       Aunque la mejoría clínica se
    puede observar en una o dos semanas, generalmente son necesarias 4 semanas de
    seguimiento en los ensayos para establecer diferencias significativas.

    NOTA: la corrección oficial da por buena la respuesta 2. Ya dijimos que teníamos dudas…

    Comentario: Pregunta algo compleja y discutible, ya que
    se entremezcla con conceptos de psiquiatría y alguna respuesta tiene una
    negación, cuando pide identificar la FALSA. Vamos respuesta a respuesta.
    Respuesta
    1 cierta: la seguridad en los fármacos antidepresivos es importante, ya que son
    fármacos que se usan como tratamientos con una duración más o menos larga; por
    ello, medir la seguridad es tan importante como medir la eficacia.
    Respuesta
    2: Es verdadero que “no se considera ético usar un grupo de control con placebo”
    cuando existe un tratamiento eficaz para ello, como podría ser en el caso de la
    depresión (aunque es algo discutible al ver la práctica: en los últimos años
    siguen haciéndose estudios controlados por placebo en Ensayos clínicos de
    Depresión Mayor).
    Respuesta
    3 cierta: se sale de nuestros conocimientos de psiquiatría dudar de la
    veracidad de la respuesta. Estas escalas se utilizan para conocer la severidad
    de la depresión, por lo que parece más que razonable usarlas para valorar la
    eficacia d los tratamientos.
    Respuesta
    4: los estudios de no inferioridad son deseables en ciertas circunstancias,
    como en aquellos casos en los que no se puede incluir un placebo. No creemos que
    la razón para decir que la razón por la que los ensayos de no-inferioridad no
    permiten valorar la eficacia de forma robusta sea que es debido a la
    variabilidad de la respuesta entre un estudio y otro.
    Respuesta
    5 es cierta
    204: En un estudio clínico para
    evaluar la eficacia de un nuevo medicamento en el tratamiento de la crisis de
    migraña (señale la CORRECTA):

    1.       Unos criterios de inclusión
    estrictos aumentan la validez externa del estudio.
    2.       Unos criterios de exclusión estrictos
    reducen la validez interna del estudio.
    3.       El control con un brazo
    placebo aumenta la validez externa del estudio.
    4.       El enmascaramiento reduce la
    validez interna del estudio.
    5.       La asignación aleatoria
    aumenta la validez interna del estudio.

    Comentario: La validez interna de un estudio se refiere
    al grado en que un estudio mide lo que tiene de medir, y si las asociaciones
    encontradas son ciertas, no debidas o afectadas por posibles sesgos (errores
    sistemáticos). La validez externa o generalización se refiere a cómo de
    extrapolables son los resultados a la población de referencia.
    Los
    criterios de inclusión y exclusión no afectan a la validez interna (respuesta 2
    FALSA), lo que producirán serán una disminución de la validez externa, haciendo
    tu estudio menos comparable con la realidad (respuesta 1 FALSA).  El control con el placebo es el deseable para
    evaluar una intervención de forma aislada, para evaluar el efecto de la
    intervención en un grupo control sin tratamiento, similar al tratado (gracias a
    la aleatorización), y eliminando el posible efecto placebo de la propia
    intervención, por lo que aumenta la validez interna (respuesta 3 FALSA). El
    enmascaramiento aumenta la validez interna de los estudios, al disminuir la
    posibilidad de sesgos (respuesta 4 FALSA). La aleatorización disminuye la
    presencia de sesgos del diseño y de factores de confusión, por lo que aumenta
    la validez interna (respuesta 5 VERDADERA).
    205: Queremos conocer si el consumo de café
    puede estar asociado a la malformación neonatal por lo que se diseña un estudio
    casos control [sic]. Se entrevista a un grupo de mujeres que han tenido niños
    con malformaciones y lo mismo en un grupo de madres sin hijos con
    malformaciones [sic]. Las entrevistas las realizarán dos entrevistadores
    entrenados mediante un cuestionario previamente validado. Además, los
    entrevistadores ignoran si la entrevistada es un caso o un control. ¿Qué tipo
    de sesgo podemos introducir?

    1.       Sesgo de información
    2.       Sesgo de memoria.
    3.       Sesgo del entrevistador.
    4.       Sesgo de selección.
    5.       Falacia ecológica.

    Comentario: Pregunta muy sencilla, ya que prácticamente
    es la definición y el ejemplo clásico del sesgo de memoria. El sesgo de memoria
    se da en estudios de casos y controles cuando uno de los 2 grupos es más
    susceptible de declarar la exposición a un factor de riesgo que el otro. En
    este caso, las mujeres que tienen hijos con malformaciones son más dadas a
    recordar las exposiciones que han tenido durante el embarazo, al intentar
    buscar una causa que pueda explicar las malformaciones.
    En el
    enunciado observamos dos errores de redacción: no llamamos a este tipo de
    diseño “estudio caso control” sino “estudio de casos y controles”, y donde dice
    “un grupo de madres sin hijos con malformaciones” debería decir “un grupo de
    madres con hijos sin malformaciones”. Cabe señalar que el sesgo de memoria es
    un tipo particular de sesgo de información (todos los sesgos se pueden
    clasificar en dos grandes categorías: de información y de selección). Pero
    claramente, responder sesgo de memoria es más correcto que responder sesgo de
    información.
    208: Con objeto de comprobar la eficacia de
    un tratamiento para dejar de fumar se compara un grupo control (con placebo)
    con un grupo tratamiento. Para que los grupos sean comparables es importante
    que no difieran mucho en la edad de los participantes. Nos informan que la
    media de edad en el grupo control es 52 años y que en el grupo tratado también
    es 52 años. A partir de dicha información podemos decir que:

    1.       Los grupos no difieren respecto
    a la distribución de la variable edad.
    2.       Si el estudio está bien
    diseñado, no nos puede dar la misma media de edad en ambos grupos.
    3.       Para comparar la distribución de
    la variable edad en ambos grupos sería conveniente conocer una medida de
    dispersión como la desviación típica además de la media.
    4.       Para la conclusión final no
    importa la distribución de la edad en ambos grupos, sólo si el tratamiento es
    efectivo o no.
    5.       Si además de la media coinciden
    la mediana y la moda podemos afirmar que los grupos no difieren respecto a la
    distribución de la variable edad.

    Comentario: Consideramos la respuesta 3 como correcta,
    puesto que aunque las medias en ambos grupos sean iguales, no quiere decir que
    la distribución sea igual: uno de los 2 grupos podría tener a todos los
    pacientes agrupados alrededor de los 52 años, mientras el otro podría tener la
    distribución sesgada, por ejemplo muchos pacientes de 80 y muchos de 20, y que
    la media fuera de 52. Por tanto, es más adecuado dar una medida de dispersión
    como la desviación típica (o estándar) junto a la medida de tendencia central.
    209: Si definimos el punto de corte para
    diagnosticar insuficiencia renal a través del índice de Filtración Glomerular
    (IFG) como 15 ml/min en vez de 60 ml/min está aumentando:

    1.       La sensibilidad del IFG.
    2.       La especificidad del IFG.
    3.       El Valor Predictivo Positivo del
    IFG.
    4.       El Valor Predictivo Negativo del
    IFG.
    5.       La Validez interna y externa del
    IFG.

    Comentario: Si disminuimos el punto de corte de IFG de
    60 a 15 ml/min estaremos poniendo un criterio diagnóstico “más exigente”, es
    decir, haciendo que los pacientes que detectemos sean verdaderos enfermos. Conseguiremos
    que los pacientes que den positivo en la prueba estén ya bastante enfermos disminuyendo
    así la posibilidad de detectar falsos positivos. Por tanto, lo que hacemos al
    reducir el punto de corte es aumentar la especificidad de la prueba (respuesta
    2 VERDADERA). Genial (buen regalo) que la 5 hable de la validez interna y
    externa  del IFG.
    234:
    ¿Cuál de las siguientes vacunas parenterales está contraindicada durante el
    embarazo?

    1.       Vacuna frente al tétanos
    2.       Vacuna frente al sarampión
    3.       Vacuna frente a la tos ferina
    4.       Vacuna frente a la hepatitis B
    5.       Vacuna frente a la gripe

    Comentario: de forma general, las vacunas de virus
    vivos están contraindicadas durante el embarazo, salvo casos excepcionales
    donde el riesgo de enfermedad sea alto y la enfermedad muy grave.

    En el
    caso de la pregunta nos ponen como opciones un toxoide (tétanos), acelulares
    (tos ferina), inactivada (gripe), hepatitis B (a partir de fragmentos) y una
    atenuada (sarampión). La vacuna del sarampión está contraindicada durante el
    embarazo.


  • De RefWorks a Mendeley, y tiro porque me toca

    A mediados del pasado mes de octubre recibí un mensaje desde la biblioteca de mi universidad con el anuncio de que, por obra y arte del Consorci de Biblioteques Universitàries de Catalunya (CBUC), se acababa utilizar RefWorks para gestionar la bibliografía. Tal cual. Por decisión de este lindo Consorcio (que por cierto se disuelve en breve) nos quedábamos sin RefWorks y teníamos que migrar a Mendeley (antes del 31 de diciembre de 2013) .


    Mi primera (y segunda y tercera…) reacción al leer ese email fue de indignación. ¿A santo de qué?. ¿A quién han consultado?. ¿Mendeley tendrá las mismas prestaciones que RefWorks?. ¿Qué nos ahorramos?. ¿Qué ganamos?. ¿Qué nos cuesta?. Y lo peor es que no tenía a nadie a quién preguntar, ni a quién quejarme, ni casi con quién compartir el enfado.

    Y es que en los últimos años he “invertido” bastante en RefWorks. Por consejo de mi biblioteca lo convertí en mi gestor de bibliografía hace unos cuatro años, sustituyendo a Reference Manager que usaba desde hacía tiempo. Me pasé a RefWorks también por motivos docentes: tanto en grado como posgrado, dentro de las asignaturas de escritura científica y tecnologías de la información incluyo un módulo sobre gestión de referencias y creación de listas de bibliografía… y al disponer la Universidad de subscripción a RefWorks, no había demasiada alternativa. Así que me leí manuales y tutoriales, incluso hice un cursito de unas pocas horas, y me reciclé a RefWorks, hasta contento de abandonar un producto del gigante Thomson. Además coincidió con el lanzamiento de la nueva versión de RefWorks, que igualaba y superaba a sus contrincantes de Thomson (ReferenceManager, EndNote y ProCite, que todos tienen el mismo patrón). ¡Ah!, se me olvidaba: Mendeley también tiene dueño. Esta audaz iniciativa fue comprada hace casi un año por… Elsevier. Y dudo que Elsevier dé nada gratis, pues hasta los artículos de revistas “open access” que edita esa editorial (alguna hay), a los que se puede acceder libremente desde la web de la propia revista, tienen “peaje” si se accede a ellos a través de ScienceDirect. Hagan la prueba con Gaceta Sanitaria: mismo sumario (núm 1 del vol. 24, año 2010) en su web versus sumario en ScienceDirect.

    Y así andaba yo, con los materiales docentes ya bien rodados y enseñando a mis alumnos a manejarse con RefWorks con bastante éxito. Y también usando RefWorks tan ricamente para gestionar la bibliografía de nuestro grupo de investigación… ¡creando hasta estilos ad hoc para acomodarse a las particularidades de estilo de cada revista!.

    Conocía Mendeley vagamente. Cuando apareció abrí, raudo e intrépido, una cuenta y experimenté un poquito. Pero la verdad, a pesar de tener una opción gratuita y alguna cosa interesante como la “captura on-line” de referencias, no me entusiasmó. No me entusiasmó porque ya me manejaba bien con RefWorks y no tenía necesidad de cambiar. Pero esa armonía se rompió a mediados de octubre pasado con la decisión de CBUC. A regañadientes me apunté como “pendiente” aprender y ser capaz de explicar Mendeley para finales de año.

    Y a las preguntas del segundo párrafo se le podrían añadir otras: ¿qué gana el CBUC con este cambio? ¿qué ganamos los usuarios? (ahh! los usuarios!!!) ¿qué pasa con toda la inversión hecha por la universidades para formar en RefWorks a sus documentalistas y blibliotecarios, a sus profesores e investigadores, y a sus alumnos?.

    Yo he tenido que invertir unas 8 horas en entrar en la filosofía de Mendeley y ser capaz de hacer casi todo lo que ya sabía hacer con RefWorks. Y quiero pensar que ha sido una inverisón –sobran comentarios. Pero he tenido que “invertir” también unas 15 horas más en revisar y reinventar parte del material docente de mis clases (presenciales y  distancia). Y todavía me falta adaptar los ejercicios para el CampusVirtual… y creo que serán 5 o 6 horitas más…

    ¿Y es mejor Mendeley que RefWorks o que los otros gestores bibliográficos? Mi respuesta como investigador biomédico y como profesor: creo que, si previamente no se utiliza o ni se conoce cómo funciona un gestor bibliográfico, Mendeley ofrece alguna ventaja. Su filosofía de “captura de cita desde el navegador” hace que incorporar documentos a la biblioteca personal sea muy fácil. Pero normalmente los investigadores, y diría que también los alumnos, no trabajamos así. Y la calidad de la captura de datos (de los metadatos de los docuementos, que nutren a Mendeley) deja bastante que desear, aunque no sea por culpa de Mendeley sino de quien crea los documentos. Disponer de los PDFs es también una ventaja, pero eso no es ninguna novedad. El entorno dual “escritorio-web” crea algo de confusión, a pesar de que la sincronización es, realmente, sencillísima. Ese entorno dual sí que tiene una característica fantástica: el “drag & drop” (arrastrar y soltar) hace mucho más fácil la operación de incluir documentos en la librería. Y,aunque eso no sea de especial interés para investigadores, con Mendeley se pueden indizar y almacenar cualquier tipo de documentos disponibles en internet (páginas web, videos, presentaciones PPT originales o en slideshare…).

    Pero Mendeley es algo limitado para formatear la bibliografía de un artículo. Dispone de múltiples formatos de estilos, los genéricos (como Vancouver o APA) y sus múltiples adaptaciones a centenares de revistas que si bien dicen usar APA o Vancouver, introducen maléficos cambios en el formato de las citas (como incluir el volumen en negrilla, o el nombre dela revista en cursiva, o no poner el punto tras la abreviación dela revista…). En RefWorks la edición y creación de estilos a medida no era para usuarios principiantes, pero “se dejaba” y con una mínima inversión se conseguían editar los estilos. No es que haya tenido ideaciones suicidas mientras trataba de aprender a editar los estilos de citación con Mendeley, pero no es nada sencillo. Y eso que Mendeley utiliza el Citation Style Language que se ha convertido en el estándar del software dedicado a estas cosas (como Zotero, Drupal o CrossRef, por nombrar alguno que conozco de entre el montón de este tipo software). Si el estilo que Mendeley proporciona por defecto de una revista no es realmente correcto (como suele pasar), editarlo y adecuarlo a la realidad es bastante complicado.

    Finalmente, y quizás sea eso lo que gusta a bastante “Mendeley adopters”, o diría yo “fans”, es que Mendeley es, en sí mismo, una red social mediante la cual se pueden compartir documentos y comentarios. Compartir documentos y biliografía –tener carpetas comunes en la nube para un grupo de investigadores– no es tampoco ninguna novedad. RefWorks batió a sus contrincantes justamente por eso, cuando fue el primer software basado en la web. Pero Mendeley permite mantener grupos donde discutir y comentar sobre los documentos (sobre lo que sea), con diferentes grados de privacidad, algo que no sé si realmente puede ser de mucho interés para los investigadores. Quizás sí, aunque a mi me recuerde mucho al muro de Facebook…

    En algún corrillo tras una sesión oí que el CBUC se había ofrecido para probar Mendeley y dar feed-back a Elsevier (o quizás fuese al revés), que “nos daban gratis” la versión Premium, que es de pago, durante un año. ¿Y después? Y también me pregunto si, gracias a la suscripción de la FECYT a Web of Knowledge (que no es barata y pagamos entre todos), tenemos acceso a EndNote Web “gratuitamente”, ¿por qué esta aventura con Mendeley-Elsevier?.

    Reconvertido ya a Mendeley, para uso personal, en grupo, y también ya para enseñarlo, he sentido la necesidad de explicar todo esto. La curva de aprendizaje tiene, como en el resto de gestores bibliográficos, una forma sigmoidal muy acusada (aprendes mucho en poco tiempo, ¡menos mal!). Supongo que me acostumbraré, y que siempre es bueno renovarse y aprender cosas nuevas… intentaremos que repercuta positivamente en nuestra investigación y docencia.

  • Un Premio Dardos de aire navideño

    Leo en un tuit de Òscar Zurriaga “@Ozurri” que me acaba de conceder (él mismo) un “Premio Dardos”. “¿Y qué son los Premios Dardos? .  Y gracias al mismo @Ozurri me entero de qué va la cosa, pues ya ha publicado un (como siempre) magnífico post en su blog EpiyMas con una completa explicación. Os hago un resumen en cuatro puntos:


    Imagen de los Premios Dardos

    – se desconoce su origen (@Ozurri habla de 2009, yo acabo de ver una referencia al Premio de 2005). 
    – se conceden para destacar la defensa y la promoción que hace un determinado blog de valores éticos personales y culturales
    – funcionan como una cadena o, diría yo, como una bola de nieve (por el espíritu navideño y como referencia epidemiológica al método de muestreo homónimono) entre bloggeros: el blog que recibe el premio se lo concede a otros blogs, y así se difunde por la blogosfera “para promover la hermandad entre bloggers, lo cual parece un objetivo muy loable” (coincido plenamente con @Ozurri).
    – los blogs premiados pueden ser de cualquier temática



    Y las condiciones para recibirlo son:
    – hacer una entrada incluyendo la imagen del premio
    – mencionar y poner el enlace de quién otorga el premio
    – nominar a 15 blogs (en algún lugar dice 10…)

    Dardos Award



    Pues aquí estamos… esta es mi entrada en la que agradezco a @Ozurri por considerar que mi caixadepuros.cat es digna de un Premio. Hace ilusión recibir premios del tipo que sean y más si te los conceden un amigo, excelente epidemiólogo, y respetado creador de “Epi y Más”, el blog de referencia en el campo de la epidemiología y la salud pública


    Y para acabar os dejo mi nominación a Premios Dardos. Algunos blogs ya no los pongo porque @Ozurri se me ha delantado. La mayoría están en mi “cóctel de blogs”, pero estoy bastante seguro que la mayoría de vosotros ni se ha percatado de esa “entradilla” en el lateral de caixadepuros.cat (que en breve voy a actualizar!). Hay algunos de la “blogosfera sanitaria” y otros que no. Intencionadamente, que hay que estar abiertos.


    Y no os pongo la descripción: no es cuestión de pereza (aunque ya lleve dos tre so cuatro con este post a cuestas). He pensado que así aumenta la probabilidad de que pinchéis en el enlace. Por curiosidad más que por casualidad. ¡Y os animo a que los visitéis, que valen la pena!

    Café de Papel de Sonia Rodríguez


    dixit (Comunicación científica) de 
    Jesús Méndez, Marta Palomo et al.

    Estaidea de Eva María Navarrete

    ikibcn  de Esther Carabasa
    L’ase quàntic de Xavier Lasauca
    La lectora corrent de Mercè Piqueras
    Barcelona Esport de Lluc Fernández 
    Mira què bé de Mònica Moro


    Scientia de Jose Manuel López Nicolás

    Tobacco Control Research de Gera Nagelhout
    Impact of Social Sciences de varios autores (London School of Economics & Political Science)
    La Ciencia de la Mula Francis de Francisco R. Villatoro


    Health ISGlobal de varios autores (ISGlobal)

    Apuntes de neurodanza de Aser García Rada
    Caligrafías urbanas de Barcelonauta




















  • Molt bon Nadal i feliç 2014!



    Que la joia que neix al Nadal 
    ens dugui a fer realitat els somnis
    i les il·lusions d’aquest nou any 2014


    Que la alegría que nace en Navidad
    nos lleve a hacer realidad los sueños
    y las ilusiones de este nuevo año 2014

    May the joy that comes at Christmas
    bring us to get the dreams
    and hopes of the new year 2014

  • Gaceta Sanitaria: nueva web y “blogs amigos”

    El Comité Editorial de Gaceta Sanitaria (GS) ha trabajado duro y puesto a punto durante estos últimos meses una nueva web, en el marco del cambio de publicación en papel a electrónica, como Carme Borrell, su Directora, ya nos había avanzado en algunos tuits hace escasamente un mes:

    Pues bien, la nueva web estará operativa en breve, y con permiso de Carme y el Comité, me alegra dar la noticia en este blog… que además va a ser uno de los “blogs amigos” de GS… como ya se anuncia también hoy mismo en el facebook de GS. Pero vayamos por partes.

    La nueva web de Gaceta Sanitaria es claramente una apuesta de renovación y modernidad, sin renunciar al bagaje de la revista en sus 25 años de singladura. Sin entrar en un análisis en detalle del diseño o de las funcionalidades (para lo que dudo de mi capacidad real), tan sólo quiero mencionar algunos aspectos que a buen seguro van a ser del agrado de los lectores… y van a facilitar la lectura pero sobretodo  uso on-line de la revista. Dejo para cada uno y una de nosotros descubrir y navegar por la nueva web. ¡Espero que este avance despierte algo de curiosidad y que las visitas a la nueva web lleguen a colapsarla el próximo 15 de noviembre!

    ¿Qué me llama la atención de la nueva web? Creo que el cambio más evidente es el diseño y color, que se ha modernizado, y ofrece un contraste con el texto e imágenes que hacen fácil la lectura e identificación de recursos en la página. La cabecera de la revista preside la web, con la característica tipografía creada especialmente por el diseñador Enric Satué para GS y que ha recuperado el diseño original gracias a las buenas artes de Alba Daví, que ha colaborado desinterasadamente en el diseño de la nueva web. Y para que no olvidemos cómo era la revista en papel, una imagen-icono de la misma nos da también la bienvenida. Y así recordamos el color salmón (de la salud pública) característico de la revista, que algunos echaremos en falta –aunque nos acostumbraremos rápido al nuevo aspecto.

    Creo que en esta nueva web vamos a encontrar todo aquello que nos esperamos de una revista moderna y posicionada en internet y las redes sociales. Enlazar algo que estemos leyendo con nuestro facebook o twitter va a ser ahora mucho más fácil, y también enviarnos el enlace por e-mail, o bajarnos la referencia bibliográfica. Los lectores lo van a tener más fácil, pero también los autores y los revisores, pues el acceso a las diferentes herramientas de gestión de los manuscritos están reordenadas y disponibles en la nueva web.

    Una novedad, acertada apuesta del Comité Editorial para dinamizar la web y su atractivo, es la incorporación de la sección “Blogs amigos de Gaceta Sanitaria”. Decía Clara Bermúdez “nuestra idea es reservar un espacio en nuestra nueva Web para recomendar 10
    blogs referentes en castellano, cuyo contenido esté relacionado con
    Salud Pública y Gestión Sanitaria” en el e-mail de invitación que nos envió a algunos “bloggeros salubristas”. ¡Todo un honor haber sido seleccionado!. Al final no son 10 sino 11 los blogs amigos de Gaceta Sanitaria. Entre nuestros posts, además de seguir con temas relacionados con la salud pública, haremos referencia a artículos publicados en la revista o relacionados con la revista.

    Los blogs amigos, que ya podeis ver aquí al lado, son los siguientes: Salud Comunitaria, de Rafael Cofiño; Epi y más, de Oscar
    Zurriaga; El Gerente de Mediado, de Sergio Minué; Salud Pública y otras dudas,
    de Javier Segura; Diario de una mamá pediatra, de Amalia Arce; Médico crítico,
    de varios autores (blog colectivo); Salud con cosas, de Miguel Ángel Máñez; Enfermería basada en la evidencia, de Azucena
    Santillán; Temas en epidemiología clínica, de Diana P Cuesta; Primum non nocere, de Rafa Bravo Toledo y esta, mía y vuestra, Caixa de Puros.

    No quiero acabar sin felicitar al Comité Editorial por la apuesta de renovación y por la dedicación y el trabajo (incuantificables) que hacen para la revista, es decir, para los autores, revisores y lectores –lo que yo solía llamar “los amigos de Gaceta Sanitaria” en mis notas editoriales. Un compromiso con todos nosotros, y con SESPAS y las sociedades (y sus socias y socios) que dan apoyo y se rascan (nos rascamos) el bolsillo para mantener esta joya: Gaceta Sanitaria.

    Esteve Fernández

    Competing interests: el autor estuvo 11 años en el Comité Editorial de Gaceta Sanitaria, seis de ellos como Director, y ahora forma parte de su Consejo Asesor. Y sigue queriendo mucho a Gaceta Sanitaria.

  • No hay dos sin tres: crónica final del congreso de peer review

    Ya a pelota pasada, que tampoco es tan malo aunque suene a excusa, quiero poner por escrito las últimas impresiones y reflexiones sobre el 7º International Congress on Peer Review and Biomedical Publication. Del tercer día de sesiones tengo poco que contar, porque abandoné el congreso rumbo al aeropuerto tras la primera mesa. Pero valió la pena volver al congreso a las 8 am y aunque sólo fuera por hora y media para escuchar la sugerente conferencia de Ana Marusic con el título “Whither Peer Review Research?” (algo así como… ¿hacia donde va la investigación en peer review?) y asistir al sencillo pero emotivo homenaje a Drummond Rennie (primer y seunda fotos), editor de JAMA y “alma” del #PRC. Ana Marusic, ex-editora del Croatian Medical Journal y actual editora del Journal of Global Health nos enseñó datos de un trabajo realizado sobre las 504 comunicaciones presentadas en los seis Congresos precedentes. El dato: el 60% (305/504) de las comunicaciones se conviertieron en artículos publicados (y el 43% en JAMA). Eso parece una buena probabilidad a priori… [y soñamos… que nuestra comunicación sobre los cursos de escritura científica se convierta en un artículo… y en JAMA?…]. Despierto y sigo con esto. Análisis: ¿botella medio llena o medio vacía? Esos números son mejores que los conocidos en otros congresos de especialidades médicas… aunque que un 40% de abstracts no hayan llegado a publicarse es una dato preocupante –los asistentes mayoritariamente lo ven así. Yo también… ¿podemos hablar de “editors’ self-publication bias”? 

    Sea como sea, parece que la investigación sobre peer review y edición biomédica goza de buena salud. A mi particularmente me ha llamado la atención que la mayoría de asistentes al Congreso proviene de revistas anglosajonas o en inglés. Sólo un 8% de las comunicaciones proceden de países en vías de desarrollo. Y los únicos asistentes llegados de España, y que presentamos una comunicacion, fuimos Fèlix y yo. Y me pregunto, las revistas españolas, ¿están interesadas en la investigación sobre peer review? Yo creo que sí, y hemos visto como algunas revistas (Med Clín, Gac Sanit, Rev Esp Cardiol, Arch Bronconeumol, Rev Esp Salud Publica…) han dedicado esfuerzos a “investigar” algunos aspectos sobre su proceso editorial, aunque casi siempre –eso sí– en relación a sus patrones de citación y el idolatrado factor de impacto bibliográfico. 

    Otros aspectos (sesgos de publicación, adherencia a guías de publicación, calidad de las revisiones, conflictos de intereses, autoría, por mencionar los que me vienen de corrido) han sido poco o nada abordados por nuestras revistas. Aunque existen algunas iniciativas (como MEDES o alguna reunión propiciada desde la Biblioteca Nacional de ciencias de la salud y Scielo España), quizás ya sea momento de que los editores de revistas biomédicas españolas pongamos cosas en común, tengamos algún encuentro para compartir (y pensar) juntos, y empecemos a tener proyección internacional. A ello deberían contribuir las sociedades científicas y empresas editoriales propietarias de las cabeceras de las revistas. ¿Para cuándo un primer congreso (o como se le quiera llamar) con investigación sobre publicación biomédica en España?

    Y para acabar, os dejo unas imágenes del imponente Chicago del que pudimos disfrutar sólo de forma muy apurada… queda pendiente visitar esta ciudad con algo más de calma, ¿quizás en un próximo congreso de peer review?.

    Conflictos de intereses: Mi asistencia al Congreso ha sido íntegramente sufragada por la Fundación Dr. Antonio Esteve, que organiza los Seminarios sobre publicación científica que imparto junto con Ana M. García desde el año 2004 y que fueron el motivo de nuestra comunicación. 

  • Peer review, peer discussion

    ¿A qué viene este título?, debéis pensar… Pues al hecho, sencillo pero contundente, de lo que más me está gustando de este congreso: el nivel no sólo de las comunicaciones sino sobretodo de la discusión posterior a cada de una de ellas, que además se extiende a los “refreshments”, comidas y sesiones de pósters. Se trata justamente de eso, una discusión por semejantes o por colegas. Abierta, franca, inteligente, atrevida, y hasta en algunos momentos divertida y provocadora. Eso, creo, tiene mucho valor, y es un valor añadido a las comunicaciones que se presentan.

    Estas discusiones no son casualidad. Son fruto de la conjunción de varios factores además de la calidad de las comunicaciones (algo variable, siempre en el cuartil superior mayoritariamente), pero sobretodo de otros dos factores: el tempo con que se desarrolla el congreso (10 minutos para la presentación y otros tantos para preguntas) y la voluntad de participar (tras cada presentación, y a pesar de los 10 minutos que se dedican a preguntas, hay quien se queda sin poder intervenir). Y, como recordaba en el post anterior, de forma secuencial, sin tener que ir de una sala a otra y sólo pendientes de lo que va sucediendo. Todo un lujo que hace mucho más provechoso el congreso.

    El segundo día de congreso se ha iniciado con una plenaria en la que Phil Campbell, editor de Nature, nos ha explicado cuáles son a su entender (y por extension de su revista) los retos en la selección de artículos (para ser publicados) en los tiempos que corren. Ha sido una ponencia muy vivencial, con ejemplos del día a día de Nature, que van más allá de lo que muchos nos podemos imaginar… empezando por una de las afirmaciones iniciales: “Nuestro proceso para seleccionar artículos es el mismo que el de hace 30 años”, aderezada con el hecho de que Nature no tiene comité editorial sino una veintena de editores a dedicación completa, de entre 30 y 50 años reclutados entre profesores universitarios y postdocs, que manejan unos 11.000 (sí, 11.000) manuscritos al año. Campbell ha explicado que los editores no piensan en el futuro impacto en términos de citas de los trabajos evaluados, sino sobre su impacto en ciencia, y que incluso publican manuscritos con informes negativos de todos los revisores. Campbell ha planteado también los retos y sobretodo dificultades de la multidisciplinareidad y de estar en los límites del conocimiento, que al mismo tiempo considera lo más interesante (“exciting” en inglés, bonito palabro) de estar en Nature. 

    Las sesiones del día han abordado los sesgos en las publicaciones, desde originados por conflictos de intereses al clásico sesgo de publicación, incluyendo la no publicación como artículos de casi el 50% de las comunicaciones presentadas en congresos biomédicos (¿por qué? por falta de tiempo contestan mayoritariamente los autores). Las dos sesiones de la tarde han abordado los retos y problemas con el registro de ensayos y el intercambio de datos (“data sharing”). 

    Kay Dickersin, directora del Centro de Ensayos Clínicos de la Johns Hopkins Bloomberg School of Public Health, ha cerrado el día como ponente de la Equator Annual Lecture, a la que ya no he asistido, pero que parece ha sido interesante por los tuits que he leido, de los que os dejo una mini-selección:

    Pero también hay que contar que hoy, además, se abrían las sesiones de pósters, en la que hemos presentado con Fèlix Bosch el trabajo realizado junto a Ana M. García y Eli Serés sobre los seminarios de escritura de la Fundación Dr. Antonio Esteve. Tras 10 años y 27 seminarios, hemos evaluado la satisfacción de los casi 800 alumnos que han seguido los seminarios y, quizás más importante, el impacto de los mismos en los conocimientos y habilidades para escribir y publicar artículos. Podéis ver el poster en este link y… sacar vuestras propias conclusiones!

    Y mañana será otro día…

    Annette Flanagin, Coordinadora del congreso y Managing Deputy Editor de JAMA con Fèlix Bosch

    Ginny Barbour, Chief Editor de PLoS Medicine, con Esteve Fernández 

    Conflictos de intereses: Mi asistencia al Congreso ha sido íntegramente sufragada por la Fundación Dr. Antonio Esteve, que organiza los Seminarios sobre publicación científica que imparto junto con Ana M. García desde el año 2004 y que fueron el motivo de nuestra comunicación. 

  • Destino: Chicago, Peer Review and Biomedical Publication Congress

    Durante tres días, del 8 al 10 de septiembre, se celebra en Chicago el Congreso sobre revisión por pares o expertos y publicación biomédica (el “peer review congress”, o #PRC7 en twitter). Este congreso tiene lugar cada 4 años y llega a su séptima edición, tras pasar por Chicago en tres ocasiones (1989, 1993 y 2005), Praga (1997), Barcelona (2001) (empezaba el tristemente recordado 11-S) y Vancouver (2009).

    El Congreso ha empezado muy animado, con una sesión plenaria a cargo del Prof. John Ionannidis sobre la reproducibilidad de la investigación biomédica. Ioannidis ha mostrado una plétora de resultados (de su propia cosecha) sobre la falta de validez de muchísimos artículos, imposibilidad de reproducir la mayoría de estudios, exageración de la magnitud de efectos y presencia de todo tipo de sesgos. Aquí os dejo unos tuits representativos de la presentación de Ioannidis:

    Y os recomiendo este post de Richard Smith que resume y comenta a la perfección la presentación.

    Por cierto, este Congreso tiene una actividad abrumadora en twitter. Una veintena de asistentes están tuiteando sobre las comunicaciones: “titulares”, preguntas, reacciones más o menos ingeniosas… con el hashtag #PRC7 que la propia organización (@peerrevcongress) ha promocionado incluso antes de empezar el Congreso. ¡Seguro que mucha gente lo va a aprovechar! Richard Smith, ex-editor de BMJ, que anda por aquí, lo ve de esta manera…:

    Tras la plenaria, dos interesantes mesas: una sobre “autoría” y otra sobre “citación”. Vale la pena mencionar que se trata de mesas consecutivas, es decir, ¡no hay sesiones o mesas simultáneas!. Este es  un Congreso de mediano tamaño (no llegamos a los 600 participantes) y la organización ha previsto las sesiones “en serie” en vez de “en paralelo” (ver programa). Me parece fantástico y libera a los asistentes (y ponentes) de ese sentimiento de “no poder estar en todo” que nos invade (por lo menos a mi) cuando hay comunicaciones interesantes que gustaría atender… ¡al mismo tiempo en tres salas diferentes!.

    Los resúmenes de las presentaciones se publican en la web del Congreso (http://www.peerreview.congres.com) el mismo día en que se presentan, pues están embargados hasta ese día –y los organizadores, JAMA y BMJ, han insistido en ello a los autores. Intentaré hacer alguna crónica adicional sobre qué se cuece por aquí y también para contar algo del póster que presentaremos con Fèlix Bosch sobre la experiencia de los seminarios de escritura científica de la Fundación Dr. Antonio Esteve. Para ir haciendo boca, os dejo el título: “Ten years’ experience teaching health professionals to write and to publish articles”, y en el próximo post os lo explico!.

    PS/ Este post no ha tenido revisión por expertos y es de mi sola responsabilidad.

    Conflictos de intereses: Mi asistencia al Congreso ha sido íntegramente sufragada por la Fundación Dr. Antonio Esteve, que organiza los Seminarios sobre publicación científica que imparto junto con Ana M. García desde el año 2004 y que fueron el motivo de nuestra comunicación.