Horisonten af ​​det tidligere - og hinsides ...
Teknologi

Horisonten af ​​det tidligere - og hinsides ...

På den ene side skulle de hjælpe os med at besejre kræft, præcist forudsige vejret og mestre atomfusion. På den anden side er der frygt for, at de vil forårsage global ødelæggelse eller gøre menneskeheden til slave. I øjeblikket er beregningsmonstrene dog stadig ikke i stand til at gøre stort godt og universelt ondt på samme tid.

I 60'erne havde de mest effektive computere magten megaflops (millioner af flydende kommaoperationer pr. sekund). Første computer med processorkraft ovenfor 1 GFLOPS (gigaflops) var Cray 2, produceret af Cray Research i 1985. Den første model med processorkraft over 1 TFLOPS (teraflops) var ASCI rød, skabt af Intel i 1997. Effekt 1 PFLOPS (petaflops) nået Roadrunner, udgivet af IBM i 2008.

Den nuværende regnekraftsrekord tilhører den kinesiske Sunway TaihuLight og er 9 PFLOPS.

Selvom, som du kan se, har de mest kraftfulde maskiner endnu ikke nået hundredvis af petaflops, flere og flere exascale systemerhvori magten skal tages i betragtning exaflopsach (EFLOPS), dvs. omkring 1018 operationer i sekundet. Sådanne designs er dog stadig kun på stadiet af projekter af varierende grad af sofistikering.

REDUKTIONER (, flydende kommaoperationer pr. sekund) er en enhed for computerkraft, der primært bruges i videnskabelige applikationer. Den er mere alsidig end den tidligere brugte MIPS-blok, hvilket betyder antallet af processorinstruktioner pr. sekund. Et flop er ikke en SI, men det kan tolkes som en enhed på 1/s.

Du har brug for en exascale for kræft

En exaflops eller tusind petaflops er mere end alle top XNUMX supercomputere tilsammen. Forskere håber, at en ny generation af maskiner med en sådan kraft vil bringe gennembrud på forskellige områder.

Exascale processorkraft kombineret med hurtigt fremadskridende maskinlæringsteknologier skulle for eksempel hjælpe endelig knække kræftkoden. Mængden af ​​data, som læger skal have for at kunne diagnosticere og behandle kræft, er så enorm, at det er svært for konventionelle computere at klare opgaven. I en typisk enkelttumorbiopsiundersøgelse foretages mere end 8 millioner målinger, hvor lægerne analyserer tumorens adfærd, dens reaktion på farmakologisk behandling og virkningen på patientens krop. Dette er et rigtigt hav af data.

sagde Rick Stevens fra US Department of Energy (DOE) Argonne Laboratory. -

Ved at kombinere medicinsk forskning med computerkraft arbejder forskerne på CANDLE neurale netværkssystem (). Dette giver dig mulighed for at forudsige og udvikle en behandlingsplan, der er skræddersyet til den enkelte patients individuelle behov. Dette vil hjælpe videnskabsmænd med at forstå det molekylære grundlag for vigtige proteininteraktioner, udvikle prædiktive lægemiddelresponsmodeller og foreslå optimale behandlingsstrategier. Argonne mener, at exascale-systemer vil være i stand til at køre CANDLE-applikationen 50 til 100 gange hurtigere end de mest kraftfulde supermaskiner, der kendes i dag.

Derfor ser vi frem til fremkomsten af ​​exascale supercomputere. De første versioner vises dog ikke nødvendigvis i USA. Selvfølgelig er USA i kapløbet om at skabe dem, og den lokale regering i et projekt kendt som Aurora samarbejder med AMD, IBM, Intel og Nvidia og stræber efter at komme foran udenlandske konkurrenter. Det forventes dog ikke at ske før 2021. I mellemtiden annoncerede kinesiske eksperter i januar 2017 oprettelsen af ​​en exascale prototype. En fuldt fungerende model af denne form for beregningsenhed er - Tianhe-3 - det er dog usandsynligt, at den bliver klar i de næste par år.

Kineserne holder godt fast

Faktum er, at siden 2013 har kinesisk udvikling toppet listen over de mest kraftfulde computere i verden. Han dominerede i årevis Tianhe-2og nu hører palmen til de nævnte Sunway TaihuLight. Det menes, at disse to mest kraftfulde maskiner i Mellemriget er meget kraftigere end alle enogtyve supercomputere i det amerikanske energiministerium.

Amerikanske videnskabsmænd ønsker selvfølgelig at genvinde den førende position, de havde for fem år siden, og arbejder på et system, der vil give dem mulighed for dette. Det bliver bygget på Oak Ridge National Laboratory i Tennessee. topmødet (2), en supercomputer, der er planlagt til idriftsættelse senere i år. Det overgår kraften fra Sunway TaihuLight. Det vil blive brugt til at teste og udvikle nye materialer, der er stærkere og lettere, til at simulere Jordens indre ved hjælp af akustiske bølger og til at støtte astrofysiske projekter, der undersøger universets oprindelse.

2. Rumlig plan for Summit-supercomputeren

På det nævnte Argonne National Laboratory planlægger forskerne snart at bygge en endnu hurtigere enhed. Kendt som A21Ydeevnen forventes at nå 200 petaflops.

Japan deltager også i supercomputerræset. Selvom det for nylig er blevet lidt overskygget af rivaliseringen mellem USA og Kina, er det dette land, der planlægger at lancere ABKI system (), der tilbyder 130 petaflops kraft. Japanerne håber, at sådan en supercomputer kan bruges til at udvikle AI (kunstig intelligens) eller deep learning.

I mellemtiden har Europa-Parlamentet netop besluttet at bygge en supercomputer på en milliard euros. Dette computermonster vil begynde sit arbejde for forskningscentrene på vores kontinent ved årsskiftet 2022 og 2023. Maskinen vil blive bygget indenfor EuroGPC projektog dets opførelse vil blive finansieret af medlemsstaterne - så Polen vil også deltage i dette projekt. Dens forudsagte kraft omtales almindeligvis som "pre-exascale".

Indtil videre, ifølge 2017-ranglisten, af de fem hundrede hurtigste supercomputere i verden, har Kina 202 sådanne maskiner (40 %), mens Amerika kontrollerer 144 (29 %).

Kina bruger også 35 % af verdens computerkraft sammenlignet med 30 % i USA. De næste lande med flest supercomputere på listen er Japan (35 systemer), Tyskland (20), Frankrig (18) og Storbritannien (15). Det er værd at bemærke, at uanset oprindelsesland bruger alle fem hundrede af de mest kraftfulde supercomputere forskellige versioner af Linux ...

De designer selv

Supercomputere er allerede et værdifuldt værktøj, der understøtter videnskabs- og teknologiindustrien. De gør det muligt for forskere og ingeniører at gøre støt fremskridt (og nogle gange endda store spring fremad) inden for områder som biologi, vejr- og klimaudsigter, astrofysik og atomvåben.

Resten afhænger af deres magt. I løbet af de næste årtier kan brugen af ​​supercomputere ændre den økonomiske, militære og geopolitiske situation markant i de lande, der har adgang til denne type banebrydende infrastruktur.

Fremskridtene på dette område er så hurtige, at designet af nye generationer af mikroprocessorer allerede er blevet for vanskeligt selv for mange menneskelige ressourcer. Af denne grund spiller avanceret computersoftware og supercomputere i stigende grad en førende rolle i udviklingen af ​​computere, herunder dem med præfikset "super".

3. Japansk supercomputer

Farmaceutiske virksomheder vil snart være i stand til at fungere fuldt ud takket være computersuperkræfter behandler et stort antal menneskelige genomer, dyr og planter, der vil være med til at skabe ny medicin og behandlinger for forskellige sygdomme.

En anden grund (faktisk en af ​​de vigtigste), hvorfor regeringer investerer så meget i udviklingen af ​​supercomputere. Mere effektive køretøjer vil hjælpe fremtidige militærledere med at udvikle klare kampstrategier i enhver kampsituation, tillade udvikling af mere effektive våbensystemer og støtte retshåndhævelses- og efterretningstjenester med at identificere potentielle trusler på forhånd.

Ikke nok strøm til hjernesimulering

Nye supercomputere skal hjælpe med at tyde den naturlige supercomputer, vi har kendt i lang tid - den menneskelige hjerne.

Et internationalt hold af videnskabsmænd har for nylig udviklet en algoritme, der repræsenterer et vigtigt nyt skridt i modelleringen af ​​hjernens neurale forbindelser. Ny INGEN algoritme, beskrevet i et open access papir offentliggjort i Frontiers in Neuroinformatics, forventes at simulere 100 milliarder indbyrdes forbundne menneskelige hjerneneuroner på supercomputere. Forskere fra det tyske forskningscenter Jülich, Norges Biovidenskabelige Universitet, Universitetet i Aachen, det japanske RIKEN-institut og KTH Royal Institute of Technology i Stockholm var involveret i arbejdet.

Siden 2014 har der kørt store neurale netværkssimuleringer på RIKEN- og JUQUEEN-supercomputere på Jülich Supercomputing Center i Tyskland, der simulerer forbindelserne mellem cirka 1 % af neuronerne i den menneskelige hjerne. Hvorfor kun så mange? Kan supercomputere simulere hele hjernen?

Susanne Kunkel fra den svenske virksomhed KTH forklarer.

Under simuleringen skal et neuronaktionspotentiale (korte elektriske impulser) sendes til cirka alle 100 personer. små computere, kaldet noder, hver udstyret med en række processorer, der udfører selve beregningerne. Hver knude kontrollerer, hvilke af disse impulser, der er relateret til de virtuelle neuroner, der findes i denne knude.

4. Modellering af neuronernes hjerneforbindelser, dvs. vi er kun i begyndelsen af ​​rejsen (1%)

Det er klart, at mængden af ​​computerhukommelse, der kræves af processorer til disse ekstra bits pr. neuron, stiger med størrelsen af ​​det neurale netværk. At gå ud over den 1% simulering af hele den menneskelige hjerne (4) ville kræve XNUMX gange mere hukommelse end hvad der findes i alle supercomputere i dag. Derfor ville det kun være muligt at tale om at opnå en simulering af hele hjernen i forbindelse med fremtidige exascale supercomputere. Det er her, næste generations NEST-algoritme skal fungere.

TOP-5 supercomputere i verden

1. Sanway TaihuLight – En 93 PFLOPS supercomputer lanceret i 2016 i Wuxi, Kina. Siden juni 2016 har den toppet TOP500-listen over supercomputere med den højeste computerkraft i verden.

2. Tianhe-2 (Mælkevejen-2) er en supercomputer med en regnekraft på 33,86 PFLOPS bygget af NUDT () i Kina. Fra juni 2013

indtil juni 2016 var det den hurtigste supercomputer i verden.

3. Pease Dynt - et design udviklet af Cray, installeret på Swiss National Supercomputing Center (). Den blev for nylig opgraderet - Nvidia Tesla K20X acceleratorer blev udskiftet med nye, Tesla P100, som gjorde det muligt at øge computerkraften fra 2017 til 9,8 PFLOPS i sommeren 19,6.

4. Gyokou er en supercomputer udviklet af ExaScaler og PEZY Computing. Placeret hos Japan Agency for Marine Science and Technology (JAMSTEC) fra Yokohama Institute of Geosciences; på samme etage som Jordsimulatoren. Effekt: 19,14 PFLOPs.

5. Titanium er en 17,59 PFLOPS supercomputer fremstillet af Cray Inc. og lanceret i oktober 2012 på Oak Ridge National Laboratory i USA. Fra november 2012 til juni 2013 var Titan verdens hurtigste supercomputer. Den ligger i øjeblikket på en femteplads, men er stadig den hurtigste supercomputer i USA.

De konkurrerer også om overherredømmet i kvante

IBM mener, at i de næste fem år, ikke supercomputere baseret på traditionelle silicium chips, men vil begynde at sende. Industrien er lige begyndt at forstå, hvordan kvantecomputere kan bruges, ifølge virksomhedens forskere. Ingeniører forventes at opdage de første store applikationer til disse maskiner på kun fem år.

Kvantecomputere bruger en computerenhed kaldet kubitem. Almindelige halvledere repræsenterer information i form af sekvenser på 1 og 0, mens qubits udviser kvanteegenskaber og samtidigt kan udføre beregninger som 1 og 0. Det betyder, at to qubits samtidigt kan repræsentere sekvenser på 1-0, 1-1, 0-1 . ., 0-0. Regnekraften vokser eksponentielt for hver qubit, så teoretisk set kunne en kvantecomputer med kun 50 qubits have mere processorkraft end verdens mest kraftfulde supercomputere.

D-Wave Systems sælger allerede en kvantecomputer, som der siges at være 2 af. qubits. Imidlertid D-Wav kopiere(5) kan diskuteres. Selvom nogle forskere har brugt dem godt, har de stadig ikke overgået klassiske computere og er kun nyttige til visse klasser af optimeringsproblemer.

5. D-Wave kvantecomputere

For et par måneder siden viste Google Quantum AI Lab en ny 72-qubit kvanteprocessor kaldet børstehår kegler (6). Det kan snart opnå "kvanteoverherredømme" ved at overgå en klassisk supercomputer, i det mindste når det kommer til at løse nogle problemer. Når en kvanteprocessor viser en tilstrækkelig lav fejlrate i drift, kan den være mere effektiv end en klassisk supercomputer med en veldefineret it-opgave.

6. Bristlecone 72 qubit kvanteprocessor

Næste i rækken var Google-processoren, for i januar annoncerede Intel for eksempel sit eget 49-qubit kvantesystem, og tidligere introducerede IBM en 50-qubit-version. intel chip, Loihi, den er også innovativ på andre måder. Det er det første "neuromorfe" integrerede kredsløb designet til at efterligne, hvordan den menneskelige hjerne lærer og forstår. Det er "fuldt funktionelt" og vil være tilgængeligt for forskningspartnere senere i år.

Dette er dog kun begyndelsen, for for at kunne håndtere siliciummonstre skal du bruge z millioner af qubits. En gruppe videnskabsmænd ved det hollandske tekniske universitet i Delft håber, at vejen til at opnå en sådan skala er at bruge silicium i kvantecomputere, fordi deres medlemmer har fundet en løsning på, hvordan man bruger silicium til at skabe en programmerbar kvanteprocessor.

I deres undersøgelse, offentliggjort i tidsskriftet Nature, kontrollerede det hollandske hold rotationen af ​​en enkelt elektron ved hjælp af mikrobølgeenergi. I silicium ville elektronen snurre op og ned på samme tid og effektivt holde den på plads. Når det var opnået, forbandt holdet to elektroner sammen og programmerede dem til at køre kvantealgoritmer.

Det var muligt at skabe på basis af silicium to-bit kvanteprocessor.

Dr. Tom Watson, en af ​​forfatterne til undersøgelsen, forklarede til BBC. Hvis Watson og hans team formår at sammensmelte endnu flere elektroner, kan det føre til et oprør. qubit processorerdette vil bringe os et skridt tættere på fremtidens kvantecomputere.

- Den, der bygger en fuldt fungerende kvantecomputer, vil regere verden Manas Mukherjee fra National University of Singapore og hovedefterforsker ved National Center for Quantum Technology sagde for nylig i et interview. Kapløbet mellem de største teknologivirksomheder og forskningslaboratorier er i øjeblikket fokuseret på de såkaldte kvanteovermagt, det punkt, hvor en kvantecomputer kan udføre beregninger ud over noget, de mest avancerede moderne computere kan tilbyde.

Ovenstående eksempler på resultater fra Google, IBM og Intel indikerer, at virksomheder fra USA (og dermed staten) dominerer på dette område. Imidlertid har Kinas Alibaba Cloud for nylig frigivet en 11-qubit processor-baseret cloud computing-platform, der giver videnskabsfolk mulighed for at teste nye kvantealgoritmer. Det betyder, at Kina inden for kvanteberegningsblokke heller ikke dækker pærerne med aske.

Men bestræbelser på at skabe kvantesupercomputere er ikke kun begejstrede for nye muligheder, men skaber også kontroverser.

For et par måneder siden, under den internationale konference om kvanteteknologier i Moskva, sagde Alexander Lvovsky (7) fra Russian Quantum Center, som også er professor i fysik ved University of Calgary i Canada, at kvantecomputere ødelæggelsesværktøjuden at skabe.

7. Professor Alexander Lvovsky

Hvad mente han? Først og fremmest digital sikkerhed. I øjeblikket er alle følsomme digitale oplysninger, der transmitteres over internettet, krypteret for at beskytte interesserede parters privatliv. Vi har allerede set tilfælde, hvor hackere kunne opsnappe disse data ved at bryde krypteringen.

Ifølge Lvov vil fremkomsten af ​​en kvantecomputer kun gøre det lettere for cyberkriminelle. Intet krypteringsværktøj, der kendes i dag, kan beskytte sig mod processorkraften fra en rigtig kvantecomputer.

Lægejournaler, finansiel information og endda hemmeligheder fra regeringer og militære organisationer ville være tilgængelige i en gryde, hvilket ville betyde, som Lvovsky bemærker, at ny teknologi kan true hele verdensordenen. Andre eksperter mener, at russernes frygt er ubegrundet, da skabelsen af ​​en rigtig kvantesupercomputer også vil tillade igangsætte kvantekryptografi, betragtes som uforgængelig.

En anden tilgang

Ud over traditionelle computerteknologier og udvikling af kvantesystemer arbejder forskellige centre på andre metoder til at bygge fremtidens supercomputere.

Det amerikanske bureau DARPA finansierer seks centre for alternative computerdesignløsninger. Den arkitektur, der bruges i moderne maskiner, kaldes konventionelt von Neumann arkitekturÅh, han er allerede halvfjerds år gammel. Forsvarsorganisationens støtte til universitetsforskere har til formål at udvikle en smartere tilgang til at håndtere store mængder data end nogensinde før.

Buffer og parallel computing Her er nogle eksempler på de nye metoder, som disse teams arbejder på. En anden ADA (), hvilket gør det nemmere at udvikle applikationer ved at konvertere CPU- og hukommelseskomponenterne med moduler til én samling i stedet for at håndtere problemer med deres forbindelse på bundkortet.

Sidste år viste et team af forskere fra Storbritannien og Rusland med succes, at typen "Magisk støv"som de er sammensat af lys og stof - i sidste ende overlegen i "performance" til selv de mest kraftfulde supercomputere.

Forskere fra de britiske universiteter i Cambridge, Southampton og Cardiff og det russiske Skolkovo Institut brugte kvantepartikler kendt som polaritonersom kan defineres som noget mellem lys og stof. Dette er en helt ny tilgang til computerbehandling. Ifølge videnskabsmænd kan den danne grundlag for en ny type computer, der er i stand til at løse aktuelt uløselige spørgsmål - inden for forskellige områder, såsom biologi, finans og rumrejser. Resultaterne af undersøgelsen er offentliggjort i tidsskriftet Nature Materials.

Husk at nutidens supercomputere kun kan klare en lille brøkdel af problemerne. Selv en hypotetisk kvantecomputer, hvis den endelig bliver bygget, vil i bedste fald give en kvadratisk speedup til løsning af de mest komplekse problemer. I mellemtiden skabes polaritonerne, der skaber "fe-støv", ved at aktivere lag af gallium-, arsen-, indium- og aluminiumatomer med laserstråler.

Elektronerne i disse lag absorberer og udsender lys af en bestemt farve. Polaritoner er ti tusinde gange lettere end elektroner og kan nå tilstrækkelig tæthed til at give anledning til en ny stoftilstand kendt som Bose-Einstein kondensat (otte). Kvantefaserne af polaritoner i den er synkroniseret og danner et enkelt makroskopisk kvanteobjekt, som kan detekteres ved fotoluminescensmålinger.

8. Plot, der viser et Bose-Einstein-kondensat

Det viser sig, at i denne særlige tilstand kan et polariton-kondensat løse det optimeringsproblem, vi nævnte, da vi beskrev kvantecomputere meget mere effektivt end qubit-baserede processorer. Forfatterne af britisk-russiske undersøgelser har vist, at når polaritoner kondenserer, er deres kvantefaser arrangeret i en konfiguration svarende til det absolutte minimum af en kompleks funktion.

"Vi er i begyndelsen af ​​at udforske potentialet i polaritonplot til at løse komplekse problemer," skriver Nature Materials medforfatter Prof. Pavlos Lagoudakis, leder af Hybrid Photonics Laboratory ved University of Southampton. "Vi skalerer i øjeblikket vores enhed til hundredvis af noder, mens vi tester den underliggende processorkraft."

I disse eksperimenter fra verden af ​​subtile kvantefaser af lys og stof synes selv kvanteprocessorer at være noget klodset og fast forbundet med virkeligheden. Som du kan se, arbejder forskerne ikke kun på morgendagens supercomputere og overmorgenens maskiner, men de planlægger allerede, hvad der skal ske i overmorgen.

På dette tidspunkt vil det være noget af en udfordring at nå exaskalaen, så vil du tænke på de næste milepæle på flopskalaen (9). Som du måske har gættet, er det ikke nok at tilføje processorer og hukommelse til det. Hvis man skal tro videnskabsmænd, vil opnåelse af en så stærk computerkraft give os mulighed for at løse megaproblemer, vi kender, såsom at tyde kræft eller analysere astronomiske data.

9. Fremtiden for supercomputing

Match spørgsmålet med svaret

Hvad er det næste?

Tja, i tilfælde af kvantecomputere opstår der spørgsmål om, hvad de skal bruges til. Ifølge det gamle ordsprog løser computere problemer, der ikke ville eksistere uden dem. Så vi burde nok bygge disse futuristiske supermaskiner først. Så vil problemerne opstå af sig selv.

På hvilke områder kan kvantecomputere være nyttige?

Kunstig intelligens. AI () arbejder ud fra princippet om at lære gennem erfaring, som bliver mere og mere præcist efterhånden som der modtages feedback og indtil computerprogrammet bliver "smart". Feedback er baseret på beregninger af sandsynligheden for en række mulige muligheder. Vi ved allerede, at Lockheed Martin, for eksempel, planlægger at bruge sin D-Wave kvantecomputer til at teste autopilotsoftware, der i øjeblikket er for kompleks til klassiske computere, og Google bruger en kvantecomputer til at udvikle software, der kan skelne biler fra vartegn. .

Molekylær modellering. Takket være kvantecomputere vil det være muligt nøjagtigt at modellere molekylære interaktioner, og lede efter de optimale konfigurationer for kemiske reaktioner. Kvantekemi er så kompleks, at moderne digitale computere kun kan analysere de enkleste molekyler. Kemiske reaktioner er kvante i naturen, fordi de skaber meget sammenfiltrede kvantetilstande, der overlapper hinanden, så fuldt udviklede kvantecomputere nemt kan evaluere selv de mest komplekse processer. Google har allerede udvikling på dette område – de har modelleret brintmolekylet. Resultatet bliver mere effektive produkter, lige fra solpaneler til medicin.

Kryptografi. Sikkerhedssystemer i dag er afhængige af effektiv primær generation. Dette kan opnås med digitale computere ved at se på alle mulige faktorer, men den store mængde tid, der kræves for at gøre det, gør "kodebrud" dyrt og upraktisk. I mellemtiden kan kvantecomputere gøre dette eksponentielt, mere effektivt end digitale maskiner, hvilket betyder, at nutidens sikkerhedsmetoder snart vil blive forældede. Der er også lovende kvantekrypteringsmetoder, der er ved at blive udviklet for at drage fordel af den ensrettede karakter af kvantesammenfiltring. Bydækkende netværk er allerede blevet demonstreret i flere lande, og kinesiske videnskabsmænd annoncerede for nylig, at de med succes sender sammenfiltrede fotoner fra en "kvantesatellit" i kredsløb til tre separate basestationer tilbage til Jorden.

Finansiel modellering. Moderne markeder er blandt de mest komplekse systemer, der findes. Selvom det videnskabelige og matematiske apparat til deres beskrivelse og kontrol er blevet udviklet, er effektiviteten af ​​sådanne aktiviteter stadig stort set utilstrækkelig på grund af den grundlæggende forskel mellem videnskabelige discipliner: der er ikke noget kontrolleret miljø, hvori eksperimenter kan udføres. For at løse dette problem har investorer og analytikere vendt sig til kvantecomputere. En umiddelbar fordel er, at den tilfældighed, der er iboende i kvantecomputere, stemmer overens med finansmarkedernes stokastiske natur. Investorer ønsker ofte at evaluere fordelingen af ​​resultater i et meget stort antal tilfældigt genererede scenarier.

Vejrudsigt. NOAAs cheføkonom Rodney F. Weiher hævder, at næsten 30 % af USA's BNP (6 billioner USD) er direkte eller indirekte afhængig af vejret. til fødevareproduktion, transport og detailhandel. Således ville evnen til bedre at forudsige auraen være meget nyttig på mange områder, for ikke at nævne den længere tid, der er afsat til naturkatastroferbeskyttelse. Storbritanniens nationale meteorologiske arm, Met Office, er allerede begyndt at investere i sådanne innovationer for at imødekomme de kraft- og skalerbarhedsbehov, som det skal håndtere fra 2020 og fremefter, og har udgivet en rapport om sine egne exascale computing-behov.

Partikelfysik. Faste partikelfysiske modeller er ofte ekstremt komplekse, indviklede løsninger, der kræver meget beregningstid til numeriske simuleringer. Dette gør dem ideelle til kvanteberegning, og videnskabsmænd har allerede udnyttet dette. Forskere ved Universitetet i Innsbruck og Instituttet for Kvanteoptik og Kvanteinformation (IQOQI) brugte for nylig et programmerbart kvantesystem til at udføre denne simulering. Ifølge en publikation i Nature brugte gruppen en simpel version af en kvantecomputer, hvor ioner udførte logiske operationer, de grundlæggende trin i enhver computerberegning. Simuleringen viste fuldstændig overensstemmelse med de virkelige eksperimenter i den beskrevne fysik. siger teoretisk fysiker Peter Zoller. - 

Tilføj en kommentar