El 28 de febrero de 2003 el mundo científico celebrará un aniversario muy especial. Ese día, hace cincuenta años, James Watson y Francis Crick descubrieron la estructura del ADN, la esencia misma de la vida. Desde entonces, la investigación sobre el ADN ha proporcionado a los biólogos una gran comprensión de la vida y les ha permitido crear innumerables herramientas útiles que tienen amplias aplicaciones tanto para la ciencia como para la sociedad. Sin embargo, no fue hasta principios de los años 90 cuando los investigadores empezaron a explorar la posibilidad de utilizar la capacidad del ADN para almacenar y procesar información fuera del ámbito de la biología. En 1994, un estudio estadounidense de prueba de principio demostró que el ADN podía utilizarse para resolver problemas matemáticos, lo que despertó un gran interés entre los investigadores, que esperaban que el ADN sustituyera algún día al silicio como base de una nueva ola de ordenadores. Pero el entusiasmo inicial se ha ido apagando a medida que los científicos se han ido dando cuenta de que existen numerosos problemas inherentes a la computación con ADN y que tendrían que convivir con sus ordenadores basados en el silicio durante bastante tiempo. En consecuencia, el campo ha cambiado de enfoque y, en esencia, la investigación sobre la computación del ADN se centra ahora en «investigar los procesos de las células que pueden verse como cálculos lógicos y, a continuación, tratar de utilizar estos cálculos en nuestro beneficio», tal y como lo describió Martyn Amos, de la Universidad de Exeter (Reino Unido).
Una mezcla de 1.018 hebras de ADN podría funcionar a una velocidad 10.000 veces superior a la de los actuales superordenadores avanzados
Fue Leonard Adleman, profesor de informática y biología molecular de la Universidad del Sur de California (EE.UU.), el pionero en este campo cuando construyó el primer ordenador basado en el ADN (L. M. Adleman, Science 266, 1021-102; 1994 ). Intrigado por la inmensa capacidad de la molécula para almacenar información en un espacio muy reducido, se propuso resolver un rompecabezas clásico de las matemáticas: el llamado problema del camino de Hamilton, más conocido como el problema del viajante de comercio. Este rompecabezas aparentemente sencillo -un vendedor debe visitar una serie de ciudades que están interconectadas por una serie limitada de carreteras sin pasar por ninguna ciudad más de una vez- es en realidad todo un rompecabezas, e incluso los superordenadores más avanzados tardarían años en calcular la ruta óptima para 50 ciudades. Adleman resolvió el problema para siete ciudades en un segundo, utilizando moléculas de ADN en un tubo de reacción estándar. Representó cada una de las siete ciudades como moléculas de ADN separadas de una sola hebra, de 20 nucleótidos de longitud, y todas las posibles rutas entre las ciudades como moléculas de ADN compuestas por los últimos diez nucleótidos de la ciudad de salida y los primeros diez nucleótidos de la ciudad de llegada. Al mezclar las cadenas de ADN con la ADN ligasa y el adenosín trifosfato (ATP) se generaron todos los caminos posibles al azar a través de las ciudades. Sin embargo, la mayoría de estos caminos no se ajustaban a la situación: eran demasiado largos o demasiado cortos, o no empezaban o terminaban en la ciudad correcta. Adleman filtró entonces todos los caminos que no empezaban ni terminaban en la molécula correcta y los que no tenían la longitud y composición correctas. Cualquier molécula de ADN restante representaba una solución al problema.
La potencia contenida en estas minúsculas moléculas provocó un gran entusiasmo en el mundo de la informática
La computación en el experimento de Adleman avanzó a 1.014 operaciones por segundo, una tasa de 100 Teraflops o 100 billones de operaciones en coma flotante por segundo; el superordenador más rápido del mundo, Earth Simulator, propiedad de la NEC Corporation en Japón, funciona a sólo 35,8 Teraflops. Está claro que la computación con ADN tiene enormes ventajas sobre las máquinas basadas en el silicio. Mientras que la tecnología actual se basa en un principio de lógica altamente lineal, y un cálculo debe completarse antes de que pueda comenzar el siguiente, el uso del ADN significa que un enorme número de cálculos puede tener lugar simultáneamente. Esta potencia paralela es mucho más rápida que la de las máquinas tradicionales: una mezcla de 1.018 hebras de ADN podría funcionar a una velocidad 10.000 veces superior a la de los superordenadores avanzados actuales. La otra gran ventaja es el potencial de almacenamiento de información. Mientras que los medios de almacenamiento tradicionales, como las cintas de vídeo, requieren 1012 nanómetros cúbicos de espacio para almacenar un solo bit de información, las moléculas de ADN sólo necesitan un nanómetro cúbico por bit. No es de extrañar que la potencia contenida en estas minúsculas moléculas causara un revuelo en el mundo de la informática, y muchos esperaban que «la informática del ADN pudiera superar a la tecnología basada en el silicio», comentó Ron Weiss, profesor de ingeniería eléctrica de la Universidad de Princeton (Nueva Jersey, EE.UU.) Fig. 1.
El principio del ordenador de ADN de Leonard Adleman para resolver el problema del «viajante de comercio».
Sin embargo, eso fue hace ocho años, y aunque el potencial de la computación de ADN parecía enorme, las investigaciones posteriores han demostrado que tiene grandes limitaciones. Representar todas las posibles soluciones a un problema como hebras de ADN significa que el cálculo se completa rápidamente, sin embargo, «hay que realizar una búsqueda exhaustiva para encontrar una pequeña aguja en un gran pajar», dijo Amos, y requiere un recurso exponencial en términos de memoria. Aunque el ADN puede almacenar un billón de veces más información que los medios de almacenamiento actuales, la forma en que se procesa la información requiere una cantidad masiva de ADN si se quieren resolver problemas a gran escala. «Se ha calculado que si se amplía el Problema del Camino de Hamilton a 200 ciudades de las siete de Adleman, el peso del ADN necesario para representar todas las posibles soluciones superaría el peso de la tierra», dijo Amos. Además, aunque el proceso de cálculo se realiza a una velocidad asombrosa, la «impresión» del resultado es insoportablemente lenta y conlleva muchos pasos: Adleman tardó una semana de trabajo en el laboratorio para extraer las posibles soluciones de su cóctel de ADN.
El consenso general ahora es que la computación del ADN nunca podrá competir directamente con la tecnología basada en el silicio
También hay problemas relacionados con la precisión del proceso. La síntesis de la cadena de ADN es susceptible de cometer errores, como el desajuste de los pares, y depende en gran medida de la precisión de las enzimas implicadas. Aunque esto no afectó al trabajo de Adleman, sólo trató con menos de 100 posibilidades; un ordenador totalmente operativo necesitaría realizar miles y miles de cálculos, lo que significa que la posibilidad de errores aumenta exponencialmente. Además, a medida que se requieren moléculas más complicadas para procedimientos más complicados, el tamaño de las moléculas aumenta, al igual que su probabilidad de cizallamiento, contribuyendo de nuevo a los errores Fig. 2.
Máquina de Turing molecular de Ehud Shapiro.
Weiss no confía en superar estos problemas técnicos, un sentimiento del que se hacen eco otros en el campo. El consenso general es que, debido a estas limitaciones, la computación con ADN nunca podrá competir directamente con la tecnología basada en el silicio. Esto no significa, sin embargo, que la computación por ADN esté muerta, ni mucho menos. Pero los problemas han obligado a replantear la situación y «el énfasis se ha desviado del objetivo original», según Amos. En su opinión, la computación del ADN sigue teniendo un gran potencial, pero para él «el rico potencial de la computación del ADN reside en la computación in vivo», es decir, en el uso de la tecnología a menor escala, dentro de las células. Para Weiss, el objetivo realista es «demostrar el control a nivel molecular»
Una de esas demostraciones fue realizada hace dos años por el grupo de Ehud Shapiro en el Instituto Weizmann de Israel (Y. Benenson et al. . Nature 414, 430-434; 2001 ), que construyó una máquina de computación programable y autónoma hecha de biomoléculas. Este «autómata» es similar a la hipotética Máquina de Turing desarrollada por el matemático británico Alan Turing (1912-54) en 1936, un dispositivo que convierte la información de una forma a otra y opera sobre una secuencia finita de símbolos -la máquina de Shapiro utilizaba dos «entradas». Basándose en una serie de reglas de transición, la máquina cambia su estado interno en función del estado actual y de la entrada hasta alcanzar un «estado final» cuando se han procesado todas las entradas. El autómata de Shapiro utiliza endonucleasas de restricción y ligasas como «hardware» para alterar el estado de la máquina, y ADN de doble cadena como entradas y reglas de transición. El «software» del ADN es ligado y cortado continuamente por las enzimas, hasta que alcanza un estado final -un extremo pegajoso definido- al que se liga un ADN «reportero», terminando así el cálculo. Shapiro espera poder desarrollar este concepto tan sencillo e ir construyendo modelos cada vez más complicados hasta llegar a construir una máquina de Turing molecular plenamente operativa. Esto sería todo un logro, ya que una máquina de Turing es capaz de realizar todas las operaciones matemáticas y se considera la base de los ordenadores actuales. Le resulta difícil predecir si será capaz de completar su objetivo, pero «la dirección es prometedora», añadió.
Como dijo Shapiro, «hay mucha información disponible en forma de moléculas biológicas. Si se pueden programar y responder a la información, se pueden hacer muchas cosas». Su visión a largo plazo es «crear máquinas de computación molecular que puedan analizar situaciones en las células y, a continuación, sintetizar moléculas para hacerles frente». Las aplicaciones potenciales de esta tecnología son enormes. El uso de células programadas como «centinelas biológicos», como las apodó Weiss, podría tener aplicaciones evidentes en la lucha contra las enfermedades, al reconocer las células o los tejidos dañados e informar del problema o, mejor aún, efectuar la liberación de moléculas reparadoras.
Otra dirección prometedora es el autoensamblaje molecular del ADN para construir estructuras moleculares complejas, que podría tener un impacto en otros campos, como la nanotecnología. Eric Winfree, del Instituto Tecnológico de California (EE.UU.), ha dedicado mucho tiempo a este tema y ha desarrollado un método para construir «baldosas» moleculares, diminutos bloques de ADN. Programando los bordes de estas baldosas, ha sido capaz de forzar al ADN a unirse en diminutos patrones moleculares. Sin embargo, hasta ahora sólo ha podido construir estructuras sencillas y, según dijo, «tenemos que llegar al punto de poder construir patrones complicados».
Sin embargo, como señaló Amos, «todo esto es cielo azul por el momento». Toda esta investigación está todavía en la fase de prueba de principio, y cualquier aplicación práctica está al menos a cinco o diez años vista. Está claro que la informática del ADN no se convertirá en un rival para las máquinas actuales basadas en el silicio y «no afectará a nuestra forma de vida», dijo Weiss. Sin embargo, la verdadera emoción en este campo reside en reunir a biólogos, químicos, informáticos y matemáticos para comprender y simular los procesos biológicos fundamentales y los algoritmos que tienen lugar dentro de las células. «No deberíamos buscar la competencia con las máquinas tradicionales, sino buscar un nicho para otras aplicaciones», dijo Amos. Sin embargo, añadió, «si soy sincero, la bioinformática aún no ha establecido este nicho».