Encontrando la aguja en el pajar

Scroll para ver más

Lorena González Castro, Gradiant | 21 de Noviembre de 2014*

(fuente de imagen: flickr, licencia c.c.)

La secuenciación del ADN ha sufrido un desarrollo sin precedentes con la introducción en los últimos años de las denominadas tecnologías de secuenciación masiva (Next-Generation Sequencing, NGS). A diferencia de los sistemas de secuenciación tradicionales, estas plataformas son capaces de generar paralelamente, y de forma masiva, millones de fragmentos de ADN en un único proceso de secuenciación a una velocidad mucho mayor y con un coste cada vez más reducido. Su alto rendimiento está propiciando el auge de nuevas aplicaciones y pruebas biológicas, lo que junto con el desarrollo de nuevos y avanzados métodos bioinformáticos, está provocando un cambio en el paradigma diagnóstico.

Sin embargo, la enorme cantidad de lecturas generadas por estas plataformas conlleva importantes desafíos relativos al manejo, análisis e interpretación de toda esta información. El cuello de botella actual de los procesos basados en tecnologías de secuenciación masiva ya no se encuentra en la secuenciación del ADN en sí, sino que reside en la gestión y el análisis computacional de la información salida de estas plataformas, que permita sintetizar e interpretar de forma fiable esta gran cantidad de datos en bruto. Así pues, el abordaje de estos datos genéticos se hace imposible sin la existencia de sofisticados métodos computacionales que que permitan a los profesionales médicos analizar esta ingente cantidad de información de una manera sencilla y estructurada, y que a la vez proporcionen una ayuda al diagnóstico fiable y eficaz.

 

Uno de los objetivos de la investigación genómica es el descubrimiento de mutaciones en la cadena genética y la determinación de las variantes que causan una enfermedad y están detrás de una determinada patología. Las diferencias entre genomas humanos, o entre éstos y los característicos del cáncer, se mueven desde variantes de nucleótidos individuales (Single Nucleotide Polymorphism, SNPs), en las que se ve involucrada una única base del ADN, hasta grandes variantes estructurales (Structural Variants, SVs), que abarcan un gran conjunto de nucleótidos. Hasta hace poco, los esfuerzos se centraban en catalogar y detectar únicamente los SNPs. El estudio de SVs ha atraído la atención sólo recientemente, puesto que hasta hace poco su análisis no era rentable debido a los altos costes y los largos tiempos de secuenciación. Sin embargo, la detección de estas variantes a partir de datos NGS no es una tarea trivial. Actualmente, la identificación de mutaciones a partir de datos secuenciados con NGS es a menudo una práctica compleja que implica múltiples etapas de análisis, depende de multitud de programas y bases de datos e implica el manejo de grandes cantidades de datos heterogéneos. Además, un problema adicional se encuentra en que las herramientas de análisis a gran escala de secuenciación identifican grandes cantidades de variantes genómicas, la mayoría de las cuales no tienen relación alguna con el riesgo de enfermedad. Por lo tanto, una de las principales necesidades en el panorama actual consiste en el establecimiento de principios y el desarrollo de herramientas de priorización que permitan identificar y clasificar las variantes de interés (aquellas que son potencialmente patogénicas) a partir de la gran lista de candidatas detectadas.

 

La secuenciación masiva permite el análisis simultáneo de miles de genes, incluso de todo el genoma en un espacio muy corto de tiempo, algo inimaginable hasta hace poco tiempo. Sin embargo, una de las mayores potencialidades de este tipo de plataformas consiste en la posibilidad de secuenciar únicamente un conjunto de regiones candidatas seleccionadas a priori, lo que permite reducir todavía más los costes de secuenciación. Sin embargo, la naturaleza discontinua de estos datos supone un gran problema para la identificación y la localización de las variantes genómicas, ya que muchas de las evidencias utilizadas tradicionalmente para la detección de las mismas no son aplicables cuando no se dispone de la cadena de ADN completa, especialmente de aquellas variantes que abarcan grandes regiones del genoma.

 

En Gradiant trabajamos en un proyecto que aborda precisamente los principales problemas relativos al manejo de datos NGS descritos anteriormente: la detección de mutaciones que abarcan múltiples bases del genoma, como son las macroinserciones y las macrodeleciones, en un contexto en el que sólo unas cuantas regiones del ADN son secuenciadas. En colaboración con la Unidad de Diagnóstico y Tratamiento de Enfermedades Metabólicas Congénitas (UDyTEMC) del Servicio de Pediatría del Hospital Clínico Universitario de Santiago CHUS, especializados en investigación y desarrollo de ciencias biomédicas, estamos desarrollando un pipeline bioinformático que permita servir como punto de partida para el diagnóstico de enfermedades metabólicas y neurodegenerativas congénitas. El desarrollo de este pipeline permitirá optimizar el tiempo y aumentar la fiabilidad del análisis de los datos genéticos mediante la detección de distintos tipos de mutaciones y el filtrado de las mismas según su grado de patogenicidad, permitiendo así desenmascarar con rapidez y fiabilidad las variantes genéticas que subyacen a una enfermedad.

 

A día de hoy el diagnóstico de trastornos neurometabólicos es una tarea compleja que implica tiempos de respuesta demasiado largos, con consecuencias dramáticas para los pacientes. Es crucial que el sistema sanitario y la economía subyacente empiece a promover cambios para incorporar la medicina genómica al diagnóstico clínico ya que, en un futuro próximo será con seguridad parte esencial de la práctica médica. La implementación de la tecnología NGS al diagnóstico clínico es imprescindible para la detección precoz de las enfermedades raras, alcanzar pronósticos mucho más precisos, minimizar costes en diagnóstico y tratamiento, e imprescindible para enfocarnos hacia una medicina personalizada. La unión y colaboración entre centros de investigación interdisciplinares, como es el caso, es indispensable para el avance de estas nuevas tecnologías y para el favorecimiento de sinergias que permitan llevar a cabo proyectos de esta índole.
 

*Este contenido se ha publicado originalmente en la revista "A nosa Rede", editada por COETG/AETG
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.