I december förra året vid AGU:s höstmöte i San Francisco presenterade jag en affisch som inte innehöll ett uns av ny vetenskap. Ändå kan det visa sig vara den mest betydelsefulla presentation jag har gjort.
Med affischen presenterade flera kolleger och jag WALDO för världen. WALDO, eller Worldwide Archive of Low-frequency Data and Observations, är en stor och växande samling av lågfrekventa (0,5 till 50 kilohertz) radiodata som samlats in under årtionden på platser runt om i världen. Mark Golkowski vid University of Colorado Denver (CU Denver) och jag förvaltar databasen tillsammans.
Dessa data har alla möjliga användningsområden inom geofysiken, bland annat för att upptäcka och karakterisera blixtar, fjärranalysera jonosfäriska och magnetsfäriska fenomen samt upptäcka solutbrott, gammastrålningsblixtar och gravitationsvågor. Fram till nyligen har dock data på WALDO samlats och lagrats huvudsakligen på tiotusentals DVD-skivor – och har därför i stort sett varit otillgängliga för alla som är intresserade av att använda dem.
Vårt mål med WALDO är att överföra och organisera dessa historiska data, kompletterade med pågående datainsamling, till ett enda, standardiserat molnbaserat arkiv, så att dagens och framtidens forskare kan få tillgång till dem och använda dem i studier av blixtar, jonosfären, magnetosfären, rymdvädret och mycket annat.
Vetenskapen om ELF/VLF
Varje miljontals blixtnedslag per dag på jorden avger en intensiv, cirka 1 millisekund lång puls av extremt lågfrekvent till mycket lågfrekvent (ELF/VLF) radioenergi som kallas sferic. Dessa sferics reflekteras från den lägre jonosfären (60-90 kilometers höjd) och från marken, vilket gör att de kan färdas – och upptäckas – över hela världen. En handfull VLF-mottagare utspridda över hela världen kan geolokalisera de flesta blixtar med en otrolig noggrannhet på kilometernivå. Sferic-detektering kan också användas för att karakterisera de elektriska egenskaperna hos den lägre jonosfären mellan källan och en avlägsen mottagare.
Småbandsfyrar som används av den amerikanska flottan, nominellt för ubåtskommunikation, sänder också i ELF/VLF-frekvensbandet, vilket ger ytterligare en möjlighet till fjärranalys av jonosfären. Även om dessa meddelanden är krypterade av säkerhetsskäl är radiosignalerna i sig en användbar jonosfärsdiagnostik som kan fångas upp var som helst på jorden. Förändringar i jonosfärsförhållandena, dvs. elektrontätheten, visar sig i form av förändringar av antingen amplituden eller fasen hos de mottagna signalerna. Jonosfären kan i sin tur användas som en sensor för att övervaka alla typer av geofysiska fenomen, inklusive solutbrott, elektronutfällning från magnetosfären, solförmörkelser, blixtrelaterad uppvärmning, kosmisk gammastrålning, gravitationsvågor och mycket mer. Var och en av dessa fenomen stör VLF-signaler som utbreder sig under jonosfären på olika sätt – de påverkar till exempel hur snabbt en störning börjar och slutar – och dessa signaturer gör det möjligt att särskilja dem från varandra. Vissa störningar i jonosfären är mycket tillförlitliga och upprepningsbara, som effekten av att solen går upp och ner.
En del ELF/VLF-energi går också ut i magnetosfären (som blixtgenererade plasmaböljor som kallas whistlers), där den kan interagera med instängda energirika elektroner i jordens strålningsbälte och utlösa utfällning av elektroner i atmosfären. ELF/VLF-vågor genereras och accelereras också i magnetosfären (som vågor som kallas chorus och hiss) som ett resultat av våg-partikelinteraktioner och spelar därmed en roll för dynamiken i rymdvädret på jorden. Genom att studera ELF/VLF-radiovågor kan vi både studera och bättre förstå dessa processer och sätta ihop mysterier om vad som händer under rymdväderhändelser och geomagnetiska stormar.
Dessa användningsområden för ELF/VLF-data, som granskats av till exempel Barr et al. , Inan et al. och Silber och Price , har utvecklats sedan slutet av 1800-talet, då naturliga ELF/VLF-signaler kunde höras kopplas in i långa telegraflinjer. Men ett antal andra tillämpningar utanför den traditionella användningen av ELF/VLF-data har också dykt upp på senare tid. Till exempel kan detektion av föremål inuti metalllådor med hjälp av ELF/VLF-vågor användas för att upptäcka en vapengömma gömd i en fraktcontainer.
I samarbete med en forskargrupp för cybersäkerhet vid Georgia Institute of Technology (Georgia Tech) använder jag och mina kollegor också ELF/VLF-data för att öka säkerheten för elnätet mot cyberattacker, som till exempel den stora attacken i Ukraina i december 2015, då hackare satte flera elstationer ur spel. ELF/VLF-data som upptäcks av radiomottagare kan användas för att övervaka elnätssignaler för att upptäcka oegentligheter. Dessa data är också översållade med sferics från blixtar runt om i världen, som anländer till mottagarna vid kvasi-slumpmässiga tidpunkter när blixten inträffar. Naturen tillhandahåller således en effektiv och upptäckbar slumptalsgenerator som, eftersom blixtar inte kan förutsägas i förväg, gör det möjligt för oss att validera integriteten hos andra data som upptäcks av mottagarna.
Utveckling av WALDO
Databasen WALDO – som för närvarande uppgår till cirka 200 terabyte och som växer dagligen – innehåller redan eller kommer snart att innehålla data som skulle kunna berika studierna av alla de ovan nämnda fenomenen och tillämpningarna. En stor del av uppgifterna samlades in av Stanford Universitys ELF/VLF-mottagare och, på senare tid, av nya anläggningar som installerats av Georgia Tech och CU Denver.
.
.
WALDO innehåller också ELF/VLF-inspelningar från experiment som utförts inom ramen för High-frequency Active Auroral Research Program (HAARP) i Alaska , som sedan mitten av 1990-talet har genomfört experiment för att studera jonosfären på höga höjder. Den innehåller många års data från Palmer Station på den antarktiska halvön. Och det kommer så småningom att inkludera många data från det berömda ELF-experimentet vid Siple Station, som pågick mellan 1973 och 1988 för att studera förstärkning och utlösning av ELF-signaler i magnetosfären med hjälp av en 42 kilometer lång antenn i Antarktis. I slutet av året räknar vi med att ha 500-1 000 terabyte data tillgängliga.
Ansträngningen att sammanställa dessa disparata datamängder till en enda databas inleddes hösten 2018, när utrymmet vid Stanford University där dessa data fysiskt lagrades – på ungefär 80 000 DVD-skivor och CD-skivor och på en svårt skadad server – måste rensas. Skivorna, varav en del var skadade efter decennier av lagring, packades och skickades till antingen Georgia Tech eller CU Denver, där DVD-läsningsrobotar som kan riva en stapel med 300 skivor åt gången används för att flytta data till hårddiskar. Under tiden har John DeSilva på Stanford långsamt extraherat innehållet i den gamla servern och placerat dessa data i tillfällig molnlagring så att vi kan hämta dem.
Efter hämtning passerar data genom ett digitalt sorteringsschema som uppdaterar formateringen så att allt är konsekvent och sedan placerar data i sorterade mappar. Vi har utvecklat ett online-gränssnitt som gör det enkelt att få tillgång till uppgifterna, som på begäran också kan delas med alla som har ett Google-konto. Via webbplatsen kan användarna se automatiskt genererade snabbdiagram för att göra det enkelt att ta reda på vad som finns tillgängligt, till exempel kartor över mottagarplatser från vilka data från en viss dag finns tillgängliga, årliga kalendrar som visar datatillgängligheten och sammanfattande diagram över data dag för dag.
Värdet av dammiga data
Arbetet med att bevara data är hårt och tidskrävande, men också givande. Vi har sett bevis på detta inom många områden. Historiska och långsiktiga datamängder har varit avgörande i studier av klimat och ekosystem, till exempel, och kastat ljus inte bara på tidigare förhållanden utan också på nutid och framtid. Och tack vare bevarandet har vi turen att ha solfläcksdata som sträcker sig mer än 400 år tillbaka i tiden – data som ligger till grund för viktiga tidiga upptäckter av rymdvädrets dynamik.
Som junior på Stanford i januari 2002 gick jag fram till en av mina professorer, Umran Inan, och frågade om jag kunde engagera mig i forskning. Jag misstänker att han inte förväntade sig mycket av en student som just hade fått ett C i hans klass. Några dagar senare befann jag mig i en dammig, nästan övergiven lagerlokal nära Stanford Dish och rotade bland 15 år gamla Betamax- och Ampex-magnetband fyllda med ELF/VLF-radiodata. Banden var fortfarande stoppade i sina ursprungliga kartonger och stod uppradade på hyllor staplade 5 meter höga i flera rader, var och en förmodligen 30 meter lång. Varför var jag där?
Under 1994 upptäckte man genom en tillfällighet från rymden utbrott av högenergiblixtar som kallas terrestriska gammastrålar (TGFs). Det verkade som om TGFs hade sitt ursprung i blixtar, men det var i stort sett allt vi visste om dem. ELF/VLF-data kan användas för att karakterisera den blixt som orsakade fenomenet, men forskarna hade bara två exempel på TGF:er som kunde kopplas direkt till blixten via ELF/VLF-data. Min uppgift var att hitta fler exempel gömda i data på alla dessa band.
När jag hostade bort spindelväven tänkte jag på allt det besvär som människor hade gjort sig för att hålla dessa Betamaxband (som sedan länge var ett föråldrat format även vid den tidpunkten) i gång. De data jag tittade igenom registrerades vid Palmer Station i Antarktis av en mottagare monterad på en skiftande glaciär som övervakades noggrant av en heltidsanställd vetenskaplig tekniker och som varje år servades av en student i gruppen. Vid varje båtresa från stationen skickades banden i stora lådor, som sedan staplades och förvarades i detta gnagarinfiltrerade utrymme – allt finansierat av amerikanska skattepengar via National Science Foundation. Och denna typ av datainsamling hade pågått i årtionden på platser över hela världen som underhålls av denna forskargrupp.
Living Data Sets
”Var det värt det?” Jag tänkte medan jag slet mig fram i lagret. Svaret, som jag kom att upptäcka, är ett entydigt ja (och inte bara för att dessa data ledde till mina första peer-reviewed forskningsartiklar och hjälpte mig att få in en fot i forskarvärlden). Jag lärde mig att geofysiska datamängder är levande och att deras intellektuella värde skiftar i takt med att våra vetenskapliga prioriteringar gör det.
När de mätningar som spelades in på dessa Betamaxband erhölls var det ingen som tänkte sig att de så småningom skulle behövas för att studera TGF:er; mätningarna samlades ursprungligen in av andra skäl. Det hade varit lätt att slänga uppgifterna innan de visade sig vara användbara för att studera TGF – eller till och med efter det också. Efter användningen av Betamaxband övergick vi till att registrera digitala data på CD-skivor, sedan på DVD-skivor, sedan på externa hårddiskar, sedan på en stor dataserver – och nu flyttar vi dem till molnet. Vid varje steg var vi tvungna att dra alla ackumulerade data från gamla medier till nutid. Men eftersom dessa data inte har kasserats finns de fortfarande tillgängliga i dag för att studera många naturliga fenomen och processer.
Det är rimligt att fråga sig om det är värt det med tanke på kostnaderna och ansträngningarna. Jag tror att det är det. Man vet aldrig hur dessa data kan komma att användas. Jag skulle aldrig ha förväntat mig att geofysiska blixtdata skulle få genomslag i cybersäkerhetsvärlden, till exempel. I dag ser vi hur högpresterande datorer och maskininlärning avslöjar nya insikter från gamla data, och tvärvetenskapliga projekt hittar ofta överraskande användningsområden för historiska datamängder. Inom en inte alltför avlägsen framtid misstänker jag att någon kommer att komma på ett nytt sätt att titta på ELF/VLF-data som samlades in för tio år sedan. Men kommer uppgifterna fortfarande att vara tillgängliga?
Vi är skyldiga framtida forskare – och de amerikanska skattebetalarna, som har finansierat en stor del av detta arbete – att se till att de är tillgängliga. Sedan vi tillkännagav WALDO i december har vi fått flera förfrågningar och anmälningar från personer som använder databasen. Vår förhoppning är att vi genom att bevara dessa uppgifter i WALDO kommer att öppna dörrar för överraskande och oväntade upptäckter.