Am 28. Februar 2003 begeht die wissenschaftliche Welt einen ganz besonderen Jahrestag. An diesem Tag vor fünfzig Jahren entdeckten James Watson und Francis Crick die Struktur der DNS – die Essenz des Lebens selbst. Seitdem hat die Erforschung der DNS den Biologen ein umfassendes Verständnis des Lebens ermöglicht und sie in die Lage versetzt, zahllose nützliche Instrumente zu entwickeln, die sowohl für die Wissenschaft als auch für die Gesellschaft von großem Nutzen sind. Doch erst Anfang der 1990er Jahre begannen die Forscher, die Fähigkeit der DNA zur Speicherung und Verarbeitung von Informationen außerhalb der Biologie zu nutzen. Im Jahr 1994 zeigte eine US-amerikanische Grundsatzstudie, dass DNA zur Lösung mathematischer Probleme verwendet werden kann, was das Interesse von Forschern weckte, die hofften, dass DNA eines Tages Silizium als Grundlage für eine neue Welle von Computern ersetzen würde. Doch die anfängliche Begeisterung hat sich inzwischen gelegt, da die Wissenschaftler erkannt haben, dass die DNA-Computer zahlreiche Probleme aufweisen und dass sie noch eine ganze Weile mit ihren Silizium-Computern leben müssen. Die Forschung auf dem Gebiet des DNA-Computing beschäftigt sich nun hauptsächlich mit der „Untersuchung von Prozessen in Zellen, die als logische Berechnungen angesehen werden können, und der Suche nach einer Möglichkeit, diese Berechnungen zu unserem Vorteil zu nutzen“, wie Martyn Amos von der Universität Exeter, Großbritannien, es beschreibt.
Ein Gemisch aus 1.018 DNA-Strängen könnte mit der 10.000-fachen Geschwindigkeit heutiger Supercomputer arbeiten
Es war Leonard Adleman, Professor für Informatik und Molekularbiologie an der Universität von Südkalifornien, USA, der auf diesem Gebiet Pionierarbeit leistete, als er den ersten DNA-basierten Computer baute (L. M. Adleman, Science 266, 1021-102; 1994 ). Fasziniert von der immensen Fähigkeit des Moleküls, Informationen auf kleinstem Raum zu speichern, machte er sich daran, ein klassisches Rätsel der Mathematik zu lösen – das so genannte Hamilton-Pfad-Problem, besser bekannt als das Travelling-Salesman-Problem. Dieses scheinbar einfache Rätsel – ein Handelsvertreter muss eine Reihe von Städten besuchen, die durch eine begrenzte Anzahl von Straßen miteinander verbunden sind, ohne eine Stadt mehr als einmal zu durchqueren – ist in Wirklichkeit ein ziemlicher Killer, und selbst die fortschrittlichsten Supercomputer würden Jahre brauchen, um die optimale Route für 50 Städte zu berechnen. Adleman löste das Problem für sieben Städte innerhalb einer Sekunde, indem er DNA-Moleküle in einem Standardreaktionsgefäß verwendete. Er stellte jede der sieben Städte als separate, einsträngige DNA-Moleküle mit einer Länge von 20 Nukleotiden dar, und alle möglichen Wege zwischen den Städten als DNA-Moleküle, die aus den letzten zehn Nukleotiden der Ausgangsstadt und den ersten zehn Nukleotiden der Zielstadt bestehen. Die Vermischung der DNA-Stränge mit DNA-Ligase und Adenosintriphosphat (ATP) führte dazu, dass alle möglichen Zufallswege durch die Städte erzeugt wurden. Die meisten dieser Wege waren jedoch nicht auf die Situation anwendbar – sie waren entweder zu lang oder zu kurz, oder sie begannen oder endeten nicht in der richtigen Stadt. Adleman filterte dann alle Pfade heraus, die weder am Anfang noch am Ende das richtige Molekül enthielten und die nicht die richtige Länge und Zusammensetzung aufwiesen. Alle verbleibenden DNA-Moleküle stellten eine Lösung des Problems dar.
Die in diesen winzigen Molekülen enthaltene Leistung sorgte in der Computerwelt für helle Aufregung
Die Berechnungen in Adlemans Experiment liefen mit 1.014 Operationen pro Sekunde, einer Rate von 100 Teraflops oder 100 Billionen Gleitkomma-Operationen pro Sekunde; der schnellste Supercomputer der Welt, der Earth Simulator der NEC Corporation in Japan, läuft mit nur 35,8 Teraflops. Es liegt auf der Hand, dass das Rechnen mit DNA massive Vorteile gegenüber siliziumbasierten Maschinen hat. Während die derzeitige Technologie auf einem sehr linearen Logikprinzip beruht und eine Berechnung abgeschlossen sein muss, bevor die nächste beginnen kann, bedeutet die Verwendung von DNA, dass eine enorme Anzahl von Berechnungen gleichzeitig stattfinden kann. Diese parallele Leistung ist um ein Vielfaches schneller als die herkömmlicher Maschinen – eine Mischung aus 1.018 DNA-Strängen könnte mit der 10.000-fachen Geschwindigkeit heutiger moderner Supercomputer arbeiten. Der andere große Vorteil ist das Potenzial für die Informationsspeicherung. Während herkömmliche Speichermedien wie Videobänder 1012 Kubiknanometer Platz benötigen, um ein einziges Bit an Informationen zu speichern, benötigen DNA-Moleküle nur einen Kubiknanometer pro Bit. Es überrascht nicht, dass die in diesen winzigen Molekülen enthaltene Leistung die Computerwelt in helle Aufregung versetzte, und viele hofften, dass „DNA-Computing die siliziumbasierte Technologie überholen könnte“, kommentierte Ron Weiss, Professor für Elektrotechnik an der Princeton University, New Jersey, USA Abb. 1.
Das Prinzip des DNA-Computers von Leonard Adleman zur Lösung des „Travelling Salesman“-Problems.
Das war jedoch vor acht Jahren, und obwohl das Potenzial des DNA-Computers enorm zu sein schien, hat die Forschung in der Zwischenzeit gezeigt, dass ihm große Grenzen gesetzt sind. Die Darstellung aller möglichen Lösungen für ein Problem in Form von DNA-Strängen bedeutet zwar, dass die Berechnung schnell abgeschlossen ist, aber „man muss eine erschöpfende Suche durchführen, um eine kleine Nadel in einem großen Heuhaufen zu finden“, so Amos, und es erfordert eine exponentielle Ressource in Bezug auf den Speicher. Obwohl die DNA eine Billion Mal mehr Informationen speichern kann als die derzeitigen Speichermedien, erfordert die Art und Weise, wie die Informationen verarbeitet werden, eine riesige Menge an DNA, wenn man größere Probleme lösen will. „Es wurde geschätzt, dass das Gewicht der DNA, das erforderlich wäre, um alle möglichen Lösungen darzustellen, das Gewicht der Erde übersteigen würde, wenn man das Hamilton-Pfad-Problem von Adlemans sieben auf 200 Städte vergrößern würde“, so Amos. Und obwohl der Rechenprozess mit unglaublicher Geschwindigkeit abläuft, ist der „Ausdruck“ des Ergebnisses quälend langsam und umfasst viele Schritte – Adleman brauchte eine Woche Laborarbeit, um die potenziellen Lösungen aus seinem DNA-Cocktail zu extrahieren.
Der allgemeine Konsens ist nun, dass DNA-Computing nie in der Lage sein wird, direkt mit der Silizium-basierten Technologie zu konkurrieren
Es gibt auch Probleme mit der Genauigkeit des Prozesses. Die DNS-Strangsynthese ist fehleranfällig, z. B. durch fehlende Paare, und hängt stark von der Genauigkeit der beteiligten Enzyme ab. Obwohl dies Adlemans Arbeit nicht beeinträchtigte, hatte er nur weniger als 100 Möglichkeiten zu berücksichtigen; ein voll funktionsfähiger Computer müsste Tausende von Berechnungen durchführen, was bedeutet, dass die Fehlerwahrscheinlichkeit exponentiell ansteigt. Je mehr komplizierte Moleküle für kompliziertere Verfahren benötigt werden, desto größer werden die Moleküle und desto wahrscheinlicher wird eine Scherung, was wiederum zu Fehlern beiträgt Abb. 2.
Ehud Shapiros molekulare Turing-Maschine.
Weiss ist nicht zuversichtlich, dass diese technischen Probleme überwunden werden können, eine Meinung, die von anderen auf diesem Gebiet geteilt wird. Der allgemeine Konsens ist nun, dass DNA-Computing aufgrund dieser Einschränkungen nie in der Lage sein wird, direkt mit der Siliziumtechnologie zu konkurrieren. Das bedeutet jedoch nicht, dass die DNA-Computertechnik tot ist – ganz im Gegenteil. Aber die Probleme haben zu einem grundlegenden Umdenken gezwungen, und „der Schwerpunkt hat sich jetzt vom ursprünglichen Ziel weg verlagert“, so Amos. Er ist der Meinung, dass das DNA-Computing immer noch ein großes Potenzial hat, aber für ihn liegt „das große Potenzial des DNA-Computing im In-vivo-Computing“, d. h. in der Anwendung der Technologie in kleinerem Maßstab, innerhalb von Zellen. Für Weiss besteht das realistische Ziel darin, „die Kontrolle auf molekularer Ebene zu demonstrieren“
Eine solche Demonstration dieses Ziels wurde vor zwei Jahren von der Gruppe von Ehud Shapiro am Weizmann-Institut in Israel erreicht (Y. Benenson et al. . Nature 414, 430-434; 2001 ), die eine programmierbare und autonome Rechenmaschine aus Biomolekülen gebaut hat. Dieser „Automat“ ähnelt der hypothetischen Turing-Maschine, die 1936 von dem britischen Mathematiker Alan Turing (1912-54) entwickelt wurde, einem Gerät, das Informationen von einer Form in eine andere umwandelt und mit einer endlichen Folge von Symbolen arbeitet – Shapiros Maschine verwendete zwei „Eingänge“. Auf der Grundlage einer Reihe von Übergangsregeln ändert der Automat seinen internen Zustand entsprechend dem aktuellen Zustand und der Eingabe, bis er einen „Endzustand“ erreicht, wenn alle Eingaben verarbeitet worden sind. Shapiros Automat verwendet Restriktionsendonukleasen und Ligase als „Hardware“, um den Zustand des Automaten zu verändern, und doppelsträngige DNA als Eingänge und Übergangsregeln. Die DNA-„Software“ wird von den Enzymen kontinuierlich ligiert und geschnitten, bis sie einen Endzustand – ein definiertes klebriges Ende – erreicht, an das eine „Reporter“-DNA ligiert wird, wodurch die Berechnung beendet wird. Shapiro hofft, dass er dieses sehr einfache Konzept weiterentwickeln und immer kompliziertere Modelle bauen kann, bis er in der Lage ist, eine voll funktionsfähige molekulare Turing-Maschine zu konstruieren. Das wäre eine beachtliche Leistung, denn eine Turing-Maschine ist in der Lage, alle mathematischen Operationen auszuführen und gilt als Grundlage der heutigen Computer. Für ihn ist es schwer vorherzusagen, ob er sein Ziel erreichen wird, aber „die Richtung ist vielversprechend“, fügte er hinzu.
Wie Shapiro sagte: „Viele Informationen sind in Form von biologischen Molekülen vorhanden. Wenn man sie programmieren und auf die Informationen reagieren kann, kann man eine Menge erreichen.“ Seine langfristige Vision ist es, „molekulare Computermaschinen zu schaffen, die Situationen in Zellen analysieren und dann Moleküle synthetisieren können, um sie zu bewältigen.“ Die möglichen Anwendungen einer solchen Technologie sind enorm. Die Verwendung von programmierten Zellen als „biologische Wächter“, wie Weiss sie nannte, könnte offensichtliche Anwendungen bei der Bekämpfung von Krankheiten haben, indem sie geschädigte Zellen oder Gewebe erkennen und entweder das Problem melden oder, noch besser, die Freisetzung von reparativen Molekülen bewirken.
Eine andere vielversprechende Richtung ist die molekulare Selbstmontage von DNA zum Aufbau komplexer molekularer Strukturen, die Auswirkungen auf andere Bereiche wie die Nanotechnologie haben könnte. Eric Winfree vom California Institute of Technology, USA, hat sich intensiv mit diesem Thema beschäftigt und eine Methode zum Aufbau molekularer „Kacheln“ – winziger DNA-Blöcke – entwickelt. Durch Programmierung der Kanten dieser Kacheln konnte er die DNA dazu bringen, sich in winzigen molekularen Mustern zusammenzufügen. Bislang konnte er jedoch nur einfache Strukturen aufbauen, und, wie er sagte, „wir müssen zu dem Punkt kommen, an dem wir komplizierte Muster konstruieren können“
Doch, wie Amos betonte, „das ist alles noch Zukunftsmusik.“ Alle diese Forschungsarbeiten befinden sich noch im Stadium des Grundsatzbeweises, und praktische Anwendungen sind noch mindestens fünf bis zehn Jahre entfernt. Es ist klar, dass das DNA-Computing keine Konkurrenz für die heutigen siliziumbasierten Maschinen sein wird, und „es wird keinen Einfluss darauf haben, wie Sie oder ich leben“, so Weiss. Das wirklich Spannende an diesem Gebiet ist jedoch die Zusammenarbeit von Biologen, Chemikern, Informatikern und Mathematikern, um grundlegende biologische Prozesse und Algorithmen, die in den Zellen ablaufen, zu verstehen und zu simulieren. „Wir sollten nicht nach einer Konkurrenz zu herkömmlichen Maschinen suchen, sondern nach einer Nische für andere Anwendungen“, sagte Amos. Er fügte jedoch hinzu: „Wenn ich ehrlich bin, muss das Biocomputing diese Nische erst noch finden.“