Den 28. februar 2003 vil den videnskabelige verden fejre et helt særligt jubilæum. Det var på denne dag for 50 år siden, at James Watson og Francis Crick opdagede DNA’s struktur – selve essensen af selve livet. Siden da har forskningen i DNA givet biologerne en stor forståelse af livet og har også gjort det muligt for dem at skabe utallige nyttige redskaber, som har en bred anvendelse for både videnskaben og samfundet. Det var dog først i begyndelsen af 1990’erne, at forskerne begyndte at udforske muligheden for at udnytte DNA’s evne til at lagre og behandle information uden for biologiens område. I 1994 viste en amerikansk proof-of-principle-undersøgelse, at DNA kunne bruges til at løse matematiske problemer, hvilket tiltrak sig stor interesse fra forskere, der håbede, at DNA en dag ville erstatte silicium som grundlag for en ny bølge af computere. Men den indledende begejstring er siden blevet dæmpet, da forskerne har indset, at der er mange problemer forbundet med DNA-computere, og at de ville være nødt til at leve med deres silikonebaserede computere i et stykke tid endnu. Feltet ændrede derfor sit fokus, og i det væsentlige drejer forskningen i DNA-computing sig nu primært om at “undersøge processer i celler, der kan betragtes som logiske beregninger, og derefter forsøge at bruge disse beregninger til vores fordel”, som Martyn Amos fra University of Exeter i Det Forenede Kongerige beskrev det.
En blanding af 1.018 DNA-strenge kunne operere med 10.000 gange højere hastighed end nutidens avancerede supercomputere
Det var Leonard Adleman, professor i datalogi og molekylærbiologi ved University of Southern California i USA, der var pioner på området, da han byggede den første DNA-baserede computer (L. M. Adleman, Science 266, 1021-102; 1994 ). Han var fascineret af molekylets enorme evne til at lagre information på meget lille plads og satte sig for at løse en klassisk gåde inden for matematikken – det såkaldte Hamilton Path-problem, bedre kendt som “Travelling Salesman-problemet”. Dette tilsyneladende enkle puslespil – en sælger skal besøge en række byer, der er forbundet med hinanden af en begrænset række veje uden at passere gennem nogen by mere end én gang – er i virkeligheden ret besværligt, og selv de mest avancerede supercomputere ville tage år at beregne den optimale rute for 50 byer. Adleman løste problemet for syv byer på et sekund ved hjælp af DNA-molekyler i et standardreaktionsrør. Han repræsenterede hver af de syv byer som separate, enkeltstrengede DNA-molekyler, der er 20 nukleotider lange, og alle mulige ruter mellem byerne som DNA-molekyler bestående af de sidste ti nukleotider i afgangsbyen og de første ti nukleotider i ankomstbyen. Ved at blande DNA-strengene med DNA-ligase og adenosintrifosfat (ATP) blev der dannet alle mulige tilfældige stier gennem byerne. De fleste af disse baner var imidlertid ikke anvendelige i situationen – de var enten for lange eller for korte, eller de startede eller sluttede ikke i den rigtige by. Adleman filtrerede derefter alle de stier fra, som hverken startede eller sluttede i det rigtige molekyle, og de stier, som ikke havde den rigtige længde og sammensætning. Alle resterende DNA-molekyler repræsenterede en løsning på problemet.
Kraften i disse bittesmå molekyler vakte stor begejstring i computerverdenen
Beregningen i Adlemans eksperiment tyggede sig frem med 1 014 operationer i sekundet, hvilket svarer til 100 teraflops eller 100 trillioner floating point-operationer i sekundet; verdens hurtigste supercomputer, Earth Simulator, der ejes af NEC Corporation i Japan, kører med kun 35,8 teraflops. Det er klart, at DNA-computere har massive fordele i forhold til siliciumbaserede maskiner. Mens den nuværende teknologi hviler på et meget lineært logikprincip, og én beregning skal være afsluttet, før den næste kan begynde, betyder brugen af DNA, at et enormt antal beregninger kan finde sted samtidig. Denne parallelle kraft er mange gange hurtigere end traditionelle maskiner – en blanding af 1 018 DNA-strenge kan operere med en hastighed, der er 10 000 gange højere end de nuværende avancerede supercomputere. Den anden store fordel er potentialet for informationslagring. Mens traditionelle lagringsmedier som f.eks. videobånd kræver 1012 kubiknanometer plads til at lagre en enkelt informationsbit, kræver DNA-molekyler kun én kubiknanometer pr. bit. Det er ikke overraskende, at kraften i disse små molekyler vakte stor begejstring i computerverdenen, og mange håbede, at “DNA-computing kunne overhale den siliciumbaserede teknologi”, kommenterede Ron Weiss, professor i elektroteknik ved Princeton University, New Jersey, USA Fig. 1.
Princippet i Leonard Adlemans DNA-computer til at løse “Travelling salesman”-problemet.
Det er imidlertid otte år siden, og selv om potentialet i DNA-computere virkede enormt, har den mellemliggende forskning vist, at den er hæmmet af store begrænsninger. At repræsentere alle mulige løsninger på et problem som DNA-strenge betyder, at beregningen er hurtigt afsluttet, men sagde: “Man skal foretage en udtømmende søgning for at finde en lille nål i en stor høstak”, sagde Amos, og det kræver en eksponentiel ressource i form af hukommelse. Selv om DNA kan lagre en trillion gange mere information end de nuværende lagringsmedier, kræver den måde, hvorpå informationen behandles, en massiv mængde DNA, hvis større problemer skal løses. “Det er blevet anslået, at hvis man opskalerer Hamilton Path-problemet til 200 byer fra Adlemans syv, så vil den vægt af DNA, der kræves for at repræsentere alle de mulige løsninger, overstige jordens vægt”, siger Amos. Desuden, selv om beregningsprocessen foregår med en fantastisk hastighed, er “udskrivningen” af resultatet ulideligt træg og involverer mange trin – det tog Adleman en uges laboratoriearbejde at udtrække de potentielle løsninger fra sin DNA-cocktail.
Den generelle konsensus er nu, at DNA-computing aldrig vil kunne konkurrere direkte med siliciumbaseret teknologi
Der er også problemer med hensyn til processens nøjagtighed. DNA-strengenes syntese er udsat for fejl, f.eks. fejlpar, og den er i høj grad afhængig af nøjagtigheden af de involverede enzymer. Selv om dette ikke påvirkede Adlemans arbejde, beskæftigede han sig kun med mindre end 100 muligheder; en fuldt funktionsdygtig computer ville skulle udføre tusindvis og atter tusindvis af beregninger, hvilket betyder, at risikoen for fejl stiger eksponentielt. I takt med at der kræves mere komplicerede molekyler til mere komplicerede procedurer, stiger molekylernes størrelse desuden, og det samme gør sandsynligheden for, at de skæres, hvilket igen bidrager til fejl Fig. 2.
Ehud Shapiros molekylære Turingmaskine.
Weiss er ikke sikker på at overvinde disse tekniske problemer, hvilket andre på området også er enige i. Der er nu generel enighed om, at DNA-computing som følge af disse begrænsninger aldrig vil kunne konkurrere direkte med siliciumbaseret teknologi. Dette betyder dog ikke, at DNA-computing er dødt i vandet – langt fra. Men problemerne har tvunget til en større nytænkning, og “vægten er nu flyttet væk fra det oprindelige mål”, siger Amos. Han mener, at der stadig er et stort potentiale i DNA-computing, men for ham “ligger det store potentiale i DNA-computing i in vivo computing”, dvs. anvendelse af teknologien i mindre skala, inde i cellerne. For Weiss er det realistiske mål at “demonstrere kontrol på molekylært niveau.”
En sådan demonstration af dette mål blev opnået for to år siden af Ehud Shapiros gruppe på Weizmann-instituttet i Israel (Y. Benenson et al. . Nature 414, 430-434; 2001 ), som byggede en programmerbar og selvstændig computermaskine af biomolekyler. Denne “automat” ligner den hypotetiske Turing-maskine, der blev udviklet af den britiske matematiker Alan Turing (1912-54) i 1936, en maskine, der konverterer information fra en form til en anden og opererer på en endelig sekvens af symboler – Shapiros maskine anvendte to “input”. På grundlag af en række overgangsregler ændrer maskinen sin indre tilstand i overensstemmelse med den aktuelle tilstand og input, indtil den når en “endelig tilstand”, når alle input er blevet behandlet. Shapiros automat anvender restriktionsendonukleaser og ligase som “hardware” til at ændre maskinens tilstand, og dobbeltstrenget DNA som input og overgangsregler. DNA-“softwaren” bliver løbende ligeret og klippet af enzymerne, indtil den når en endelig tilstand – en defineret “sticky end” – hvortil et “reporter”-DNA bliver ligeret, hvorved beregningen afsluttes. Shapiro håber at kunne udvikle dette meget enkle koncept og bygge mere og mere komplicerede modeller, indtil han er i stand til at konstruere en fuldt funktionsdygtig molekylær Turing-maskine. Det ville være noget af en bedrift, da en Turing-maskine er i stand til at udføre alle matematiske operationer og betragtes som grundlaget for nutidens computere. Han finder det svært at forudsige, om han vil være i stand til at nå sit mål, men “retningen er lovende”, tilføjede han.
Som Shapiro sagde: “En masse information er tilgængelig i form af biologiske molekyler. Hvis man kan programmere dem og reagere på informationen, så kan man gøre meget.” Hans langsigtede vision er “at skabe molekylære datamaskiner, der kan analysere situationer i cellerne og derefter syntetisere molekyler til at håndtere dem.” De potentielle anvendelser af en sådan teknologi er enorme. Brugen af programmerede celler som “biologiske vagtposter”, som Weiss kaldte dem, kunne have indlysende anvendelsesmuligheder i forbindelse med sygdomsbekæmpelse ved at genkende beskadigede celler eller væv og enten rapportere problemet eller, endnu bedre, sørge for frigivelse af reparative molekyler.
En anden lovende retning er den molekylære selvmontering af DNA til opbygning af komplekse molekylære strukturer, som kan få betydning for andre områder som f.eks. nanoteknologi. Eric Winfree fra California Institute of Technology i USA har brugt meget tid på dette emne og har udviklet en metode til at bygge molekylære “fliser” – bittesmå blokke af DNA. Ved at programmere kanterne på disse fliser har han været i stand til at tvinge DNA til at sætte sig sammen i små molekylære mønstre. Indtil videre har han dog kun været i stand til at opbygge enkle strukturer, og han sagde, at “vi skal nå til det punkt, hvor vi kan konstruere komplicerede mønstre.”
Men, som Amos påpegede, “det er alt sammen blå himmel i øjeblikket”. Al denne forskning er stadig på proof-of-principle-stadiet, og eventuelle praktiske anvendelser er mindst fem til ti år væk. Det er klart, at DNA-computing ikke vil blive en konkurrent til de nuværende silikonebaserede maskiner, og “det vil ikke påvirke den måde, du eller jeg lever på”, sagde Weiss. Den virkelige spænding på området ligger imidlertid i at bringe biologer, kemikere, dataloger og matematikere sammen for at forstå og simulere grundlæggende biologiske processer og algoritmer, der finder sted i cellerne. “Vi bør ikke søge at konkurrere med traditionelle maskiner, vi bør kigge ud af boksen for at finde en niche for andre anvendelser”, sagde Amos. Han tilføjede dog: “Hvis jeg skal være ærlig, har biocomputing endnu ikke etableret denne niche.”