Em 28 de Fevereiro de 2003 o mundo científico celebrará um aniversário muito especial. Foi neste dia há cinquenta anos que James Watson e Francis Crick descobriram a estrutura do DNA – a própria essência da própria vida. Desde então, a pesquisa do DNA tem dado aos biólogos uma grande compreensão da vida, e também lhes permitiu criar inúmeras ferramentas úteis que têm aplicações abrangentes tanto para a ciência quanto para a sociedade. Contudo, só no início dos anos 90 é que os pesquisadores começaram a explorar a possibilidade de utilizar a capacidade do DNA para armazenar e processar informações fora dos domínios da biologia. Em 1994, um estudo americano de prova de princípios mostrou que o DNA poderia ser usado para resolver problemas matemáticos, o que atraiu um interesse considerável dos pesquisadores esperando que o DNA substituísse um dia o silício como base para uma nova onda de computadores. Mas a excitação inicial diminuiu desde então, pois os cientistas perceberam que existem inúmeros problemas inerentes à computação do DNA e que eles teriam que viver com seus computadores baseados em silício por um bom tempo ainda. Consequentemente, o campo mudou seu foco e, em essência, a pesquisa em computação de DNA está agora preocupada principalmente em “investigar processos em células que podem ser vistas como cálculos lógicos e depois procurar usar esses cálculos em nosso benefício”, como Martyn Amos, da Universidade de Exeter, no Reino Unido, descreveu.
Uma mistura de 1.018 fios de DNA poderia operar a 10.000 vezes a velocidade dos supercomputadores avançados de hoje
Foi Leonard Adleman, professor de ciência da computação e biologia molecular na Universidade do Sul da Califórnia, EUA, que foi pioneiro neste campo quando construiu o primeiro computador baseado em DNA (L. M. Adleman, Science 266, 1021-102; 1994 ). Intrigado pela imensa capacidade da molécula de armazenar informações em um espaço muito pequeno, ele se propôs a resolver um quebra-cabeça clássico em matemática – o chamado problema do Hamilton Path, mais conhecido como o problema do Caixeiro Viajante. Este puzzle aparentemente simples – um vendedor deve visitar uma série de cidades que estão interligadas por uma série limitada de estradas sem passar por nenhuma cidade mais de uma vez – é na verdade um grande assassino, e mesmo os supercomputadores mais avançados levariam anos para calcular a rota ideal para 50 cidades. Adleman resolveu o problema para sete cidades em um segundo, usando moléculas de DNA em um tubo de reação padrão. Ele representou cada uma das sete cidades como moléculas de DNA separadas e singlestranded, 20 nucleotídeos de comprimento, e todos os caminhos possíveis entre cidades como moléculas de DNA composto dos últimos dez nucleotídeos da cidade de partida e os primeiros dez nucleotídeos da cidade de chegada. A mistura das cadeias de DNA com ligase de DNA e trifosfato de adenosina (ATP) resultou na geração de todos os caminhos aleatórios possíveis através das cidades. No entanto, a maioria desses caminhos não se aplicava à situação – ou eram muito longos ou muito curtos, ou não começavam ou terminavam na cidade certa. Adleman filtrava então todos os caminhos que não começavam nem terminavam com a molécula correta e aqueles que não tinham o comprimento e a composição correta. Quaisquer moléculas de DNA restantes representavam uma solução para o problema.
A potência contida nestas pequenas moléculas causou uma enxurrada de excitação no mundo da computação
O cálculo no experimento de Adleman foi realizado em 1.014 operações por segundo, uma taxa de 100 Teraflops ou 100 trilhões de operações de ponto flutuante por segundo; o supercomputador mais rápido do mundo, o Earth Simulator, de propriedade da NEC Corporation no Japão, funciona a apenas 35,8 Teraflops. Claramente, a computação com DNA tem enormes vantagens sobre as máquinas baseadas em silício. Enquanto a tecnologia atual repousa em um princípio de lógica altamente linear, e um cálculo deve ser concluído antes que o próximo possa começar, o uso do DNA significa que um enorme número de cálculos pode ocorrer simultaneamente. Esta potência paralela é muitas vezes mais rápida do que a das máquinas tradicionais – uma mistura de 1.018 fios de DNA poderia operar a 10.000 vezes a velocidade dos supercomputadores avançados de hoje. A outra grande vantagem é o potencial para o armazenamento de informações. Enquanto os meios tradicionais de armazenamento, como as fitas de vídeo, requerem 1012 nanómetros cúbicos de espaço para armazenar um único bit de informação, as moléculas de ADN requerem apenas um nanómetro cúbico por bit. Não surpreendentemente, a potência contida nestas pequenas moléculas causou uma onda de excitação no mundo da computação, e muitos esperavam que “a computação de ADN pudesse ultrapassar a tecnologia baseada no silicone”, comentou Ron Weiss, professor de engenharia eléctrica na Universidade de Princeton, Nova Jersey, EUA Fig. 1.
O princípio do computador de DNA de Leonard Adleman para resolver o problema do ‘caixeiro-viajante’.
Foi há oito anos, no entanto, e embora o potencial da computação de DNA parecesse enorme, a pesquisa interventiva mostrou que ele está limitado por grandes limitações. Representar todas as soluções possíveis para um problema como fios de DNA significa que a computação é concluída rapidamente, no entanto, disse Amos, “Você tem que realizar uma busca exaustiva para encontrar uma agulha pequena em um palheiro grande”, e isso requer um recurso exponencial em termos de memória. Embora o DNA possa armazenar um trilhão de vezes mais informações do que os meios de armazenamento atuais, a forma como a informação é processada requer uma quantidade enorme de DNA para que problemas de maior escala possam ser resolvidos. “Estimou-se que se você aumentasse o problema do Hamilton Path para 200 cidades a partir das sete de Adleman, então o peso do DNA necessário para representar todas as soluções possíveis excederia o peso da terra”, disse Amos. Além disso, mesmo que o processo de computação ocorra a uma velocidade incrível, a ‘impressão’ do resultado é excruciantemente lenta e envolve muitas etapas – foi necessária uma semana de trabalho de laboratório de Adleman para extrair as soluções potenciais do seu coquetel de DNA.
O consenso geral agora é que a computação de DNA nunca será capaz de competir diretamente com a tecnologia baseada em silício
Há também problemas relativos à precisão do processo. A síntese de fios de DNA é passível de erros, tais como pares desajustados, e é altamente dependente da precisão das enzimas envolvidas. Embora isso não tenha afetado o trabalho de Adleman, ele só lidou com menos de 100 possibilidades; um computador totalmente operacional precisaria realizar milhares e milhares de cálculos, o que significa que a chance de erros aumenta exponencialmente. Além disso, como são necessárias moléculas mais complicadas para procedimentos mais complicados, o tamanho das moléculas aumenta, assim como sua probabilidade de tosquia, contribuindo novamente para erros Fig. 2.
Ehud Shapiro’s molecular Turing Machine.
Weiss não está confiante em superar estas questões técnicas, um sentimento ecoado por outros no campo. O consenso geral agora é que, como resultado dessas limitações, a computação de DNA nunca será capaz de competir diretamente com a tecnologia baseada em silício. Isto não significa, contudo, que a computação de ADN esteja morta na água – longe disso. Mas os problemas forçaram um grande repensar e “a ênfase agora se desviou do objetivo original”, de acordo com Amos. Ele acha que ainda há um grande potencial na computação de DNA, mas para ele “o rico potencial da computação de DNA está na computação in vivo” – usando a tecnologia em uma escala menor, dentro das células. Para Weiss, o objectivo realista é “demonstrar o controlo a nível molecular”
Uma demonstração deste objectivo foi alcançada há dois anos pelo grupo de Ehud Shapiro no Instituto Weizmann em Israel (Y. Benenson et al. . Nature 414, 430-434; 2001 ), que construiu uma máquina de computação programável e autónoma feita de biomoléculas. Este ‘autómato’ é semelhante à hipotética Máquina Turing desenvolvida pelo matemático britânico Alan Turing (1912 a 54) em 1936, um dispositivo que converte informação de uma forma em outra e opera numa sequência finita de símbolos – a máquina de Shapiro utilizava dois ‘inputs’. Com base numa série de regras de transição, a máquina muda o seu estado interno de acordo com o estado actual e o input até atingir um ‘estado final’ quando todos os inputs tiverem sido processados. O automatizador do Shapiro usa endonucleases de restrição e ligase como ‘hardware’ para alterar o estado da máquina, e DNA duplicado como as entradas e as regras de transição. O ‘software’ do DNA é continuamente ligado e cortado pelas enzimas, até atingir um estado final – um fim pegajoso definido – ao qual um DNA ‘repórter’ é ligado, terminando assim o cálculo. Shapiro espera ser capaz de desenvolver este conceito muito simples e construir modelos progressivamente mais complicados até ser capaz de construir uma máquina de turing molecular totalmente operacional. Isto seria um feito e tanto, pois uma Máquina de Turing é capaz de realizar todas as operações matemáticas e é considerada como a base dos computadores de hoje. Ele acha difícil prever se ele será capaz de completar seu objetivo, mas “a direção é promissora”, ele acrescentou.
Como Shapiro disse, “Muita informação está disponível como moléculas biológicas”. Se você puder programá-las e responder à informação, então você pode fazer muita coisa”. Sua visão a longo prazo é “criar máquinas de computação molecular que possam analisar situações em células e depois sintetizar moléculas para lidar com elas”. As aplicações potenciais de tal tecnologia são vastas. O uso de células programadas como ‘sentinelas biológicas’, como Weiss as chamou, poderia ter aplicações óbvias no combate a doenças, através do reconhecimento de células ou tecidos danificados e ou relatando o problema ou, melhor ainda, efetuando a liberação de moléculas reparadoras.
Outra direção promissora é a auto-montagem molecular do DNA para construir estruturas moleculares complexas, que poderiam ter um impacto em outros campos, como a nanotecnologia. Eric Winfree, do Instituto de Tecnologia da Califórnia, EUA, dedicou um tempo considerável a este tema e desenvolveu um método para a construção de “telhas” moleculares – blocos minúsculos de ADN. Ao programar as bordas dessas “telhas”, ele foi capaz de forçar o DNA a se reunir em minúsculos padrões moleculares. No entanto, até agora ele só tem sido capaz de construir estruturas simples e, disse ele, “precisamos chegar ao ponto em que possamos construir padrões complicados”
Yet, como Amos apontou, “isto é tudo céu azul no momento”. Toda essa pesquisa ainda está na fase de prova de princípio, e quaisquer aplicações práticas estão a pelo menos cinco a dez anos de distância. Claramente, a computação de DNA não se tornará um rival para as máquinas baseadas em silicone de hoje e “não afetará a maneira como você ou eu vivemos”, disse Weiss. No entanto, a verdadeira excitação no campo está em reunir biólogos, químicos, cientistas da computação e matemáticos para entender e simular processos biológicos fundamentais e algoritmos que ocorrem dentro das células. “Não deveríamos estar procurando competição com máquinas tradicionais, deveríamos estar procurando fora da caixa por um nicho para outras aplicações”, disse Amos. Contudo, ele acrescentou, “Se eu for honesto, a biocomputação ainda não estabeleceu este nicho”.”