Ilustración de Alex Eben Meyer
POR GIORGIA GUGLIELMI
Fuente: Spectrum | 25/10/2022
Fotografía: Alex Eben Meyer
La capacidad de ver el interior del cerebro humano ha mejorado el diagnóstico y ha revelado cómo se comunican las regiones cerebrales
La capacidad de ver el interior del cerebro humano ha mejorado el diagnóstico y ha revelado cómo se comunican las regiones cerebrales, entre otras cosas. Sin embargo, sigue habiendo dudas sobre la replicabilidad de los estudios de neuroimagen que pretenden relacionar diferencias estructurales o funcionales con rasgos o enfermedades complejas, como el autismo.
Algunos neurocientíficos denominan a estos estudios "estudios de asociación de todo el cerebro", un guiño a los "estudios de asociación de todo el genoma" o GWAS, que relacionan variantes específicas con rasgos concretos. Pero a diferencia de los GWAS, que suelen analizar cientos de miles de genomas a la vez, en la mayoría de los estudios de asociación de todo el cerebro publicados sólo participan, de media, unas dos docenas de personas, un número demasiado escaso para obtener resultados fiables, según sugiere un análisis realizado en marzo.
Spectrum habló con Damien Fair, coinvestigador principal del estudio y director del Masonic Institute for the Developing Brain de la Universidad de Minnesota en Minneapolis, sobre las soluciones al problema y los problemas de reproducibilidad en los estudios de neuroimagen en general.
Esta entrevista ha sido editada para mayor extensión y claridad.
Spectrum: ¿Cómo han cambiado con el tiempo los estudios de neuroimagen y cuáles son sus consecuencias?
Damien Fair: Cuando nos dimos cuenta de que podíamos observar de forma no invasiva el interior del cerebro y ver cómo reaccionaba a ciertos tipos de estímulos, se abrieron de par en par las puertas a los estudios que correlacionaban las mediciones de imágenes con comportamientos o fenotipos. Pero aunque hubo un cambio en el tipo de pregunta que se hacía, el diseño del estudio siguió siendo idéntico. Eso ha causado muchos de los problemas de reproducibilidad que vemos hoy, porque no cambiamos el tamaño de las muestras.
La oportunidad es enorme en este momento porque por fin, como comunidad, estamos entendiendo cómo utilizar la resonancia magnética para obtener resultados altamente fiables, altamente reproducibles y altamente generalizables.
S: ¿Dónde empezaron los problemas de reproducibilidad en los estudios de neuroimagen?
DF: El campo se acomodó a un cierto tipo de estudio que proporcionaba resultados significativos y emocionantes, pero sin tener el rigor para mostrar cómo se reproducían esos hallazgos. En el caso de los estudios de asociación de todo el cerebro, la importancia de contar con muestras grandes no se comprendió hasta hace poco. El mismo problema se planteó en la primera época de los estudios de asociación del genoma completo, que analizaban las variantes genéticas comunes y su relación con rasgos complejos. Si no se dispone de la potencia suficiente, es posible que los resultados más significativos no se generalicen a la población.
S: ¿Cuáles son las soluciones a este problema?
DF: Al igual que ocurre con los estudios de asociación del genoma completo, aprovechar muestras realmente grandes puede ser muy fructífero. Los organismos de financiación y los revisores de subvenciones tienen que entender que hay algunos tipos de preguntas que un solo laboratorio no podrá responder. Es probable que haya que cambiar la forma en que financiamos la investigación, fomentando más subvenciones colaborativas, de modo que cuando se analice alguna tendencia en una población, la muestra sea lo suficientemente grande como para ser fiable.
A nivel institucional, solemos valorar cosas como la rapidez y los grandes hallazgos. Pero también hay que valorar los resultados nulos y negativos. Porque si cada persona publicara todos los resultados, ya fueran negativos o positivos, no estaríamos en esta situación. Si se hiciera un metaanálisis de todos esos datos, se obtendría el verdadero efecto. Pero como los editores de las revistas y las instituciones sólo valoran los grandes hallazgos, sólo se publican los resultados que arrojan un valor p inferior a 0,05. Esto significa que en la literatura, el verdadero tamaño del efecto de cualquier tipo de resultado es mayor de lo que realmente es, porque no publicamos las cosas que están en el medio.
La otra cosa es que tenemos que poner más énfasis en el diseño de los experimentos. Los experimentos que obtienen muestras repetidas de los mismos participantes son muy potentes: no se necesita tanta gente para poder hacer preguntas con ese tipo de diseños. Pero hay preguntas que no pueden responderse sin una muestra grande.
S: ¿Qué tipo de preguntas pueden responder de forma fiable los estudios grandes frente a los pequeños?
DF: Si quieres saber cómo cambia la conectividad funcional del cerebro de un niño autista con una intervención cognitiva, coges a un solo individuo, lo escaneas durante horas y horas, haces la intervención, lo escaneas durante horas y horas más, e incluso con sólo un puñado de personas, puedes ver cuál puede ser el efecto, porque estás observando el cambio dentro de los participantes.
Por otro lado, si se quiere identificar cómo se relaciona cualquier tipo de función cognitiva con el cerebro en toda la población, se podrían recopilar muchas medidas sobre la función ejecutiva y muchas imágenes cerebrales, y luego correlacionar ambas en toda la población. Para hacer este tipo de preguntas, se necesitan miles de personas, porque la variabilidad de las muestras de un niño a otro es muy alta.
S: ¿Qué significa esto para la investigación del autismo, en la que puede ser difícil obtener escáneres cerebrales de tantas personas?
DF: La clave es que tenemos que publicarlo todo. No podemos publicar sólo los resultados positivos. También necesitamos que todos los miembros de la comunidad compartan datos en un repositorio común para poder empezar a generar las grandes muestras que se necesitan para los estudios de asociación de todo el cerebro. La comunidad puede hacerse un favor a sí misma empezando a estandarizar la forma en que recopilamos los datos, para que sea más fácil entremezclarlos. Y tratar de convencer a las agencias de financiación para que encarguen un esfuerzo coordinado de recogida de muestras grandes y estandarizadas.
S: Algunos científicos afirman que es difícil comparar los escáneres cerebrales de distintos centros porque las máquinas y los protocolos son diferentes y, por tanto, los datos son más ruidosos. ¿Cómo concilia estos problemas con su petición de muestras grandes?
DF: La cuestión es, en función de las formas de corregir el ruido, cuánto importa. En nuestro artículo de Nature, demostramos que las diferencias entre emplazamientos sólo representaban una pequeña parte, si es que representaban alguna, de la variabilidad de la muestra. Es casi seguro que la variabilidad de los lugares es importante, pero probablemente sea una parte menor del problema.
Cite este artículo: https://doi.org/10.53053/NHLO4665
Comments