W dniu 28 lutego 2003 roku świat nauki będzie obchodził bardzo szczególną rocznicę. To właśnie tego dnia pięćdziesiąt lat temu James Watson i Francis Crick odkryli strukturę DNA – istotę samego życia. Od tego czasu badania nad DNA umożliwiły biologom zrozumienie życia, a także pozwoliły na stworzenie niezliczonych użytecznych narzędzi, które mają szerokie zastosowanie zarówno w nauce, jak i w społeczeństwie. Jednak dopiero na początku lat 90. naukowcy zaczęli badać możliwość wykorzystania zdolności DNA do przechowywania i przetwarzania informacji poza sferą biologii. W 1994 r. amerykańskie badanie typu proof-of-principle wykazało, że DNA może być wykorzystywane do rozwiązywania problemów matematycznych, co wzbudziło duże zainteresowanie badaczy mających nadzieję, że DNA pewnego dnia zastąpi krzem jako podstawa nowej fali komputerów. Jednak początkowa ekscytacja osłabła, ponieważ naukowcy zdali sobie sprawę, że obliczenia na DNA wiążą się z licznymi problemami i że będą musieli żyć ze swoimi komputerami opartymi na krzemie jeszcze przez jakiś czas. W konsekwencji dziedzina zmieniła swój punkt ciężkości i w zasadzie badania nad obliczeniami DNA dotyczą teraz głównie „badania procesów w komórkach, które mogą być postrzegane jako obliczenia logiczne, a następnie szukania możliwości wykorzystania tych obliczeń na naszą korzyść”, jak opisał to Martyn Amos z University of Exeter w Wielkiej Brytanii.

Mieszanka 1 018 nici DNA mogłaby działać z prędkością 10 000 razy większą niż dzisiejsze zaawansowane superkomputery

To Leonard Adleman, profesor informatyki i biologii molekularnej na Uniwersytecie Południowej Kalifornii w USA, był pionierem w tej dziedzinie, kiedy zbudował pierwszy komputer oparty na DNA (L. M. Adleman, Science 266, 1021-102; 1994 ). Zaintrygowany ogromną zdolnością molekuły do przechowywania informacji na bardzo małej przestrzeni, postanowił rozwiązać klasyczną zagadkę matematyczną – tak zwany problem ścieżki Hamiltona, lepiej znany jako problem wędrownego komiwojażera. Ta pozornie prosta zagadka – sprzedawca musi odwiedzić kilka miast, które są połączone ograniczoną serią dróg, nie przejeżdżając przez żadne miasto więcej niż raz – jest w rzeczywistości dość zabójcza i nawet najbardziej zaawansowane superkomputery potrzebowałyby lat, aby obliczyć optymalną trasę dla 50 miast. Adleman rozwiązał ten problem dla siedmiu miast w ciągu sekundy, używając cząsteczek DNA w standardowej probówce reakcyjnej. Każde z siedmiu miast przedstawiał jako oddzielne, jednoniciowe cząsteczki DNA o długości 20 nukleotydów, a wszystkie możliwe drogi między miastami jako cząsteczki DNA składające się z ostatnich dziesięciu nukleotydów miasta odlotu i pierwszych dziesięciu nukleotydów miasta przylotu. Zmieszanie nici DNA z ligazą DNA i adenozynotrójfosforanem (ATP) dało w efekcie wygenerowanie wszystkich możliwych losowych ścieżek przez miasta. Jednak większość z tych ścieżek nie pasowała do sytuacji – były albo za długie, albo za krótkie, albo nie zaczynały się lub kończyły we właściwym mieście. Następnie Adleman odfiltrował wszystkie ścieżki, które nie zaczynały się ani nie kończyły w odpowiedniej cząsteczce, a także te, które nie miały odpowiedniej długości i składu. Wszelkie pozostałe cząsteczki DNA stanowiły rozwiązanie problemu.

Moc zawarta w tych maleńkich cząsteczkach spowodowała wybuch ekscytacji w świecie obliczeń

Obliczenia w eksperymencie Adlemana przebiegały z prędkością 1 014 operacji na sekundę, co daje 100 Teraflopów lub 100 trylionów operacji zmiennoprzecinkowych na sekundę; najszybszy superkomputer na świecie, Earth Simulator, należący do NEC Corporation w Japonii, działa z prędkością zaledwie 35,8 Teraflopów. Oczywiste jest, że obliczenia z wykorzystaniem DNA mają ogromną przewagę nad maszynami opartymi na krzemie. Podczas gdy obecna technologia opiera się na wysoce liniowej zasadzie logiki i jedno obliczenie musi zostać zakończone przed rozpoczęciem następnego, wykorzystanie DNA oznacza, że ogromna liczba obliczeń może odbywać się jednocześnie. Ta równoległa moc jest wielokrotnie szybsza niż w przypadku tradycyjnych maszyn – mieszanka 1 018 nici DNA mogłaby działać z prędkością 10 000 razy większą niż dzisiejsze zaawansowane superkomputery. Inną istotną zaletą jest potencjał przechowywania informacji. Podczas gdy tradycyjne nośniki danych, takie jak kasety wideo, wymagają 1012 nanometrów sześciennych przestrzeni do przechowywania pojedynczego bitu informacji, cząsteczki DNA wymagają zaledwie jednego nanometra sześciennego na jeden bit. Nic dziwnego, że moc zawarta w tych maleńkich cząsteczkach wywołała burzę emocji w świecie komputerów, a wielu miało nadzieję, że „obliczenia DNA mogą wyprzedzić technologię opartą na krzemie”, skomentował Ron Weiss, profesor inżynierii elektrycznej na Uniwersytecie Princeton, New Jersey, USA Rys. 1.

Zewnętrzny plik, który przechowuje zdjęcie, ilustrację itp. Nazwa obiektu to 4-embor719-f1.jpg

Zasada działania komputera DNA Leonarda Adlemana do rozwiązywania problemu „wędrownego komiwojażera”.

To było jednak osiem lat temu i choć potencjał obliczeń DNA wydawał się ogromny, to kolejne badania wykazały, że jest on obarczony poważnymi ograniczeniami. Reprezentowanie wszystkich możliwych rozwiązań problemu jako nici DNA oznacza, że obliczenia są wykonywane szybko, jednak „Musisz wykonać wyczerpujące wyszukiwanie, aby znaleźć małą igłę w dużym stogu siana”, powiedział Amos, i wymaga to wykładniczego zasobu pamięci. Chociaż DNA może przechowywać bilion razy więcej informacji niż obecne nośniki pamięci, sposób, w jaki informacja jest przetwarzana wymaga ogromnej ilości DNA, jeśli problemy na większą skalę mają być rozwiązane. „Oszacowano, że jeśli przeskalować problem ścieżki Hamiltona do 200 miast z siedmiu Adlemana, to masa DNA wymagana do reprezentowania wszystkich możliwych rozwiązań przekroczyłaby masę Ziemi” – powiedział Amos. Co więcej, nawet jeśli proces obliczeniowy odbywa się z niesamowitą prędkością, „wydruk” wyniku jest niemiłosiernie powolny i obejmuje wiele kroków – Adleman potrzebował tygodnia pracy w laboratorium, aby wydobyć potencjalne rozwiązania ze swojego koktajlu DNA.

Ogólny konsensus jest obecnie taki, że obliczenia DNA nigdy nie będą w stanie konkurować bezpośrednio z technologią opartą na krzemie

Istnieją również problemy dotyczące dokładności procesu. Synteza nici DNA jest podatna na błędy, takie jak niedopasowanie par, i jest w dużym stopniu zależna od dokładności enzymów biorących w niej udział. Chociaż nie miało to wpływu na pracę Adlemana, zajmował się on jedynie mniej niż 100 możliwościami; w pełni sprawny komputer musiałby wykonać tysiące tysięcy obliczeń, co oznacza, że prawdopodobieństwo wystąpienia błędów wzrasta wykładniczo. Ponadto, ponieważ bardziej skomplikowane molekuły są wymagane do bardziej skomplikowanych procedur, rozmiar molekuł wzrasta, podobnie jak prawdopodobieństwo ich ścinania, ponownie przyczyniając się do błędów Rys. 2.

Plik zewnętrzny, który przechowuje zdjęcie, ilustrację itp. Nazwa obiektu to 4-embor719-f2.jpg

Molekularna maszyna Turinga Ehuda Shapiro.

Weiss nie jest pewny pokonania tych problemów technicznych, co jest odczuciem powtarzanym przez innych w tej dziedzinie. Obecnie panuje powszechna zgoda co do tego, że w wyniku tych ograniczeń, obliczenia DNA nigdy nie będą w stanie bezpośrednio konkurować z technologią opartą na krzemie. Nie oznacza to jednak, że technologia obliczeniowa DNA jest martwa – wręcz przeciwnie. Ale problemy wymusiły poważne przemyślenia i „nacisk został przesunięty z pierwotnego celu”, twierdzi Amos. Uważa on, że nadal istnieje wielki potencjał w obliczeniach DNA, ale dla niego „bogaty potencjał obliczeń DNA leży w obliczeniach in vivo” – używając tej technologii na mniejszą skalę, wewnątrz komórek. Dla Weissa, realistycznym celem jest „zademonstrowanie kontroli na poziomie molekularnym.”

Jedną z takich demonstracji tego celu osiągnęła dwa lata temu grupa Ehuda Shapiro z Instytutu Weizmanna w Izraelu (Y. Benenson et al. . Nature 414, 430-434; 2001 ), która zbudowała programowalną i autonomiczną maszynę obliczeniową wykonaną z biomolekuł. Automat ten jest podobny do hipotetycznej maszyny Turinga opracowanej przez brytyjskiego matematyka Alana Turinga (1912-54) w 1936 r., urządzenia przetwarzającego informacje z jednej formy na inną i operującego na skończonej sekwencji symboli – maszyna Shapiro korzystała z dwóch „wejść”. W oparciu o serię reguł przejścia, automat zmienia swój stan wewnętrzny w zależności od stanu bieżącego i danych wejściowych, aż do osiągnięcia „stanu końcowego”, gdy wszystkie dane wejściowe zostaną przetworzone. Automat Shapiro wykorzystuje endonukleazy restrykcyjne i ligazę jako „sprzęt” do zmiany stanu maszyny, a dwuniciowe DNA jako wejścia i reguły przejścia. Oprogramowanie” DNA jest nieustannie ligowane i cięte przez enzymy, aż osiągnie stan końcowy – zdefiniowany lepki koniec – do którego ligowane jest „reporterowe” DNA, kończąc w ten sposób proces obliczeniowy. Shapiro ma nadzieję, że będzie w stanie rozwijać tę bardzo prostą koncepcję i budować coraz bardziej skomplikowane modele, aż będzie w stanie skonstruować w pełni działającą molekularną maszynę Turinga. Byłoby to spore osiągnięcie, ponieważ maszyna Turinga jest zdolna do wykonywania wszystkich operacji matematycznych i jest uważana za podstawę dzisiejszych komputerów. Trudno mu przewidzieć, czy uda mu się zrealizować swój cel, ale „kierunek jest obiecujący”, dodał.

Jak powiedział Shapiro, „Wiele informacji jest dostępnych w postaci biologicznych molekuł. Jeśli możesz je zaprogramować i odpowiedzieć na informacje, wtedy możesz zrobić wiele.” Jego długoterminowa wizja to „stworzenie molekularnych maszyn obliczeniowych, które mogą analizować sytuacje w komórkach, a następnie syntetyzować molekuły, aby sobie z nimi poradzić.” Potencjalne zastosowania takiej technologii są ogromne. Wykorzystanie zaprogramowanych komórek jako „biologicznych wartowników”, jak określił je Weiss, mogłoby mieć oczywiste zastosowania w zwalczaniu chorób, poprzez rozpoznawanie uszkodzonych komórek lub tkanek i albo zgłaszanie problemu, albo, jeszcze lepiej, powodowanie uwalniania cząsteczek naprawczych.

Zewnętrzny plik, który przechowuje zdjęcie, ilustrację itp. Object name is 4-embor719-i1.jpgInnym obiecującym kierunkiem jest molekularne samoorganizowanie się DNA w celu budowania złożonych struktur molekularnych, co może mieć wpływ na inne dziedziny, takie jak nanotechnologia. Eric Winfree z California Institute of Technology, USA, poświęcił temu zagadnieniu sporo czasu i opracował metodę budowania molekularnych „płytek” – drobnych bloków DNA. Programując krawędzie tych płytek, udało mu się zmusić DNA do łączenia się w maleńkie molekularne wzory. On ma do tej pory tylko w stanie zbudować proste struktury, jednak, i, powiedział, „musimy dostać się do punktu, w którym możemy skonstruować skomplikowane wzory.”

Jeszcze, jak Amos wskazał, „to wszystko jest błękitne niebo w tej chwili.” Wszystkie te badania są wciąż w fazie proof-of-principle, a jakiekolwiek praktyczne zastosowania są odległe o co najmniej pięć do dziesięciu lat. Oczywiste jest, że obliczenia DNA nie staną się rywalem dla dzisiejszych maszyn opartych na krzemie i „nie wpłyną na sposób, w jaki ty czy ja żyjemy”, powiedział Weiss. Jednak prawdziwa ekscytacja w tej dziedzinie polega na połączeniu biologów, chemików, informatyków i matematyków w celu zrozumienia i symulacji podstawowych procesów biologicznych i algorytmów zachodzących w komórkach. „Nie powinniśmy szukać konkurencji z tradycyjnymi maszynami, powinniśmy szukać poza pudełkiem niszy dla innych zastosowań” – powiedział Amos. Dodał jednak: „Jeśli mam być szczery, biokomputing musi dopiero stworzyć tę niszę.”

.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.