Search

Breve guía de Sharon Begley para escribir noticias sobre medicina

  Read in English

Lo desafiante de escribir historias médicas es que pueden descarrilarse antes de que hayas escrito la primera palabra: cuando eliges sobre qué escribir. Cada semana trae consigo cientos de estudios que revelan resultados prometedores; una riqueza vergonzosa para cualquiera que escriba sobre investigación médica. Pero al igual que las personas que están a dieta y se comen con los ojos el carrito de los postres, una escritora de medicina debe mantener una fuerza de voluntad tremenda para resistirse a los placeres—otra cura para el cáncer, otra revelación de la neuroimagenología sobre las funciones y debilidades de la mente humana, otro triunfo de la ingeniería genética para CRISPR-Cas9— y, en cambio, seguir recordándose a sí misma dos hechos clave.

Sharon Begley
Sharon Begley Courtesy of Sharon Begley

Uno aplica para los nuevos compuestos prometedores que son probados en modelos animales de una enfermedad: por cada 100 de estos medicamentos experimentales, menos de uno resultará funcionar en humanos y llegará al mercado. Es bueno saberlo para la próxima vez que digan que la molécula shazamamabab “cura” la esquizofrenia en ratones.

El otro aplica para los hallazgos sobre cómo los comportamientos, los alimentos, los genes y las variables ambientales afectan la salud. De acuerdo con el ahora famoso análisis “Why Most Published Research Findings Are False [“Por qué la mayoría de los hallazgos de investigación son falsos”], existe una buena posibilidad de que las asociaciones reportadas en esas investigaciones sean incorrectas. Y para que no pienses que es más probable que los descubrimientos falsos se concentren en campos periféricos, el hecho es que cuanto más candente es un tema científico (medido por la cantidad de investigadores involucrados en él y cuán competitivo es), menos probable es que los hallazgos sean ciertos. Y esto no se debe al fraude —o solamente al fraude—, sino a cosas como el sesgo de publicación y la estadística. Si los hallazgos no son incorrectos, puede que sean insignificantes: el viejo dicho de que la correlación no puede probar la causalidad.

Comienzo con estas dos decepciones por una razón. De alguna manera, los escritores de medicina olvidan —o nunca aprenden— que se supone que son periodistas, no porristas, y que para servir a sus lectores y oyentes, necesitan traer tanto escrutinio, escepticismo y pensamiento crítico a su campo como los reporteros de política traen al plan fiscal de un candidato. Y nuestra primera oportunidad de hacerlo es al elegir no cubrir algo.

Poner un estándar alto de calidad no es fácil, especialmente cuando tienes un editor que te exige 500 palabras sobre cómo la cúrcuma previene el cáncer. Tampoco es necesariamente el camino hacia una carrera exitosa como periodista de medicina. Uno puede tener un empleo lucrativo mientras escribe el peor tipo de ciberanzuelo (o clickbait): desde cómo las  bacterias “come carne” serán un tormento nacional hasta cómo la enfermedad de las vacas locas está a punto de convertirse en una epidemia. (Mi propio mea culpa es haber escrito una historia floja para Newsweek de cómo el sexo de vacaciones es mejor que el de todos los días; los clics estaban fuera de control). Pero ni el alarmismo ni su opuesto —historias crédulas sobre afirmaciones de una cura— sirven a nuestras audiencias.

¿Cómo puedes separar los descubrimientos que probablemente sean ciertos de aquellos destinados al basurero de la ciencia? Oblígate a ser escéptico ante los hallazgos cuya significancia estadística esté justo en el límite de lo que se considera aceptable; a través de una práctica arriesgada llamada pesca de datos, o p-hacking, los investigadores pueden darle un empujón a sus datos para que sean estadísticamente significativos. Recuérdate a ti mismo sobre lo endeble de los estudios observacionales en comparación con los estudios controlados aleatorizados —y explícale a tu audiencia cuál es cuál—. El primer tipo podrá encontrar una asociación entre A (como beber café) y B (vivir más tiempo), pero no puede demostrar que A causó B. A los investigadores les encanta afirmar que descartaron las muchas formas en que un tercer factor, C (¿estatus económico?), podría haber causado B, y así evitan sigilosamente discutirlo y se van a las afirmaciones de causalidad —especialmente en comunicados de prensa y entrevistas, aunque generalmente no en el artículo publicado—. Pero solo porque los investigadores te aseguran que “ajustaron” los resultados a una larga lista de variables, eso no significa que incluyeron todas, algo que intenté explicar en una historia reciente sobre la exposición prenatal a los antidepresivos y el riesgo de padecer autismo. Recuerda: muchos, muchos investigadores afirmaban que el reemplazo hormonal le brindaba una infinidad de beneficios a la salud a mujeres postmenopáusicas, como mejor salud del corazón. Tomó el esfuerzo masivo, aleatorizado y controlado de la Women ‘s Health Initiative para mostrar cómo el reemplazo hormonal no solo no tenía dichos beneficios, sino que en realidad causaba daño.

Si un estudio pasa estos filtros, no dejes que tu escepticismo flaquee. Pregúntate, ¿alguien más ha reportado esto antes?, ¿alguien ha reportado lo contrario?, ¿concuerda con la investigación relacionada con, digamos, animales de laboratorio si el resultado es en personas?

También es crucial profundizar en las afirmaciones de daños o beneficios relativos (¡X reduce el riesgo de la enfermedad Y en un 50%!) e insistir en encontrar números absolutos. Uno de mis favoritos recientes viene de un estudio que reporta que los falsos positivos en las mamografías (manchas que parecían cáncer, pero no eran) están asociados con un riesgo 40% mayor de tener cáncer de mama real años más tarde. Eso francamente suena aterrador. Pero es equivalente a decir que de 600 mujeres con falsos positivos, una mujer adicional desarrollará cáncer en los siguientes 10 años, explicó el Dr. Saurabh Jha de la Universidad de Pensilvania en Health News Review [y en MedPage Today]. Eso hace que el hallazgo parezca mucho menos relevante para cualquier mujer, sin embargo el estudio recibió toneladas de tinta a finales de 2015. La legitimidad y relevancia en el mundo real de un estudio, como señaló Jha, “se correlaciona poco con el sensacionalismo de los medios”. Es fácil, incluso tentador, promocionar exageradamente algo; a los editores les encanta. Pero la mayoría de nosotros entramos a este campo con la intención de ser mejores que eso.

 

 

Sharon Begley fue redactora sénior de STAT, un medio digital que cubre las ciencias de la vida. Antes de eso, fue corresponsal sénior de salud y ciencia en Reuters, columnista de ciencia en The Wall Street Journal y escritora, editora y columnista de ciencia en Newsweek. Sharon falleció en 2021 y la comunidad de escritores de ciencia la extraña mucho.

Skip to content