Hvordan fungerer optiske og kvantum datamaskiner?
Datamaskinhistorikken er full av flops.
Apple III hadde en ekkel vane med å lage mat i sitt deformerte skall. Atari Jaguar, en "nyskapende" spillkonsoll som hadde noen falske påstander om ytelsen, kunne ikke gripe markedet. Intels flaggskip Pentium-chip designet for høyytelsesøkonomiske applikasjoner hadde problemer med desimaltall.
Men den andre typen flop som hersker i verden av databehandling, er FLOPS-måling, lenge hyllet som en rimelig god sammenligning mellom forskjellige maskiner, arkitekturer og systemer.
FLOPS er et mål for flytende punktoperasjoner per sekund. Enkelt sagt, det er hastighetsmåleren for et databehandlingssystem. Og det har vokst eksponentielt i flere tiår.
Så hva om jeg fortalte deg at i løpet av få år har du et system som sitter på skrivebordet ditt, eller på TVen din eller på telefonen din, som vil tørke gulvet i dagens superdatamaskiner? Utrolig? Jeg er en galning? Ta en titt på historien før du dømmer.
Supercomputer til supermarked
En ny Intel i7 Haswell Så Hva er forskjellen mellom Intels Haswell og Ivy Bridge CPUer? Så Hva er forskjellen mellom Intels Haswell og Ivy Bridge CPUer? Leter du etter en ny datamaskin? De som kjøper etter en ny, Intel-drevet bærbar PC eller et skrivebord trenger å vite forskjellene mellom den siste og den nyeste generasjonen av Intel-prosessorer. Read More prosessoren kan utføre omkring 177 milliarder FLOPS (GFLOPS), som er raskere enn den raskeste superdatamaskinen i USA i 1994, og Sandia National Labs XP / s140 med 3680 databehandlingskerner jobber sammen.
En PlayStation 4 kan operere på rundt 1,8 trillion FLOPS takket være sin avanserte Cell mikroarkitektur, og ville ha trumpet den $ 55 millioner ASCI Red-superdatamaskinen som toppet verdensomspennende supercomputer-liga i 1998, nesten 15 år før PS4 ble utgitt.
IBMs Watson AI-system IBM avslører revolusjonerende "Brain on a Chip" IBM avslører revolusjonerende "Brain on a Chip" Bekreftet i forrige uke via en artikkel i Science, "TrueNorth" er det som kalles en "neuromorfisk chip" etterligne biologiske nevroner, til bruk i intelligente datasystemer som Watson. Les mer har en (nåværende) topp-operasjon 80 TFLOPS, og det er ikke i nærheten av å la det komme inn i Top 500-listen over dagens superdatamaskiner. Den kinesiske Tianhe-2 har overskriften Top 500 de siste tre sammenhengende anledninger, med topp ytelse av 54 902 TFLOPS, eller nesten 55 Peta-FLOPS.
Det store spørsmålet er hvor er den neste stasjonære supercomputer Den nyeste datateknologien du må se for å tro på den nyeste datateknologien du må se for å tro Sjekk ut noen av de nyeste datateknologiene som er satt for å forandre verden av elektronikk og PCer de neste årene. Les mer kommer til å komme fra? Og enda viktigere, når får vi det?
En annen murstein i muren
I nyere historie har drivkraften mellom disse imponerende gevinstene i fart vært i materialvitenskap og arkitekturdesign; mindre nanometer skala produksjonsprosesser betyr at sjetonger kan bli tynnere, raskere og dumpe mindre energi ut i form av varme, noe som gjør dem billigere å løpe.
Også med utviklingen av multi-core arkitekturer i løpet av slutten av 2000-tallet, blir mange "prosessorer" nå presset på en enkeltbrikke. Denne teknologien, kombinert med den økende modenheten til distribuerte beregningssystemer, hvor mange datamaskiner kan fungere som en enkelt maskin, betyr at Top 500 alltid har vokst, bare om å holde tritt med Moores berømte lov.
Imidlertid begynner fysikkloven å komme i veien for all denne veksten, selv Intel er bekymret for det, og mange over hele verden jakter på den neste tingen.
... om ti år eller så, vil vi se sammenbruddet av Moores lov. Faktisk ser vi allerede en senking av Moores lov. Datamaskinen kan ganske enkelt ikke opprettholde sin hurtige eksponensielle økning ved bruk av standard silikonteknologi. - Dr. Michio Kaku - 2012
Det grunnleggende problemet med dagens prosessdesign er at transistorene er enten på (1) eller av (0). Hver gang en transistorport "flips", må den utvise en viss mengde energi i materialet som porten er laget av for å gjøre det "flip". Da disse portene blir mindre og mindre, blir forholdet mellom energien til å bruke transistoren og energien til å "flippe" transistoren større og større, noe som gir store oppvarmings- og pålitelighetsproblemer. Nåværende systemer nærmer seg - og i noen tilfeller overstiger - den rå varme tettheten av atomreaktorer, og materialer begynner å mislykkes deres designere. Dette kalles klassisk 'Power Wall'.
Nylig har noen begynt å tenke annerledes på hvordan man utfører nyttige beregninger. Særlig to selskaper har fått oppmerksomhet når det gjelder avanserte former for kvant- og optisk databehandling. Kanadiske D-Wave Systems og UK basert Optalysys, som begge har svært forskjellige tilnærminger til svært forskjellige problemstillinger.
Tid til å endre musikk
D-Wave har fått mye press på sistone, med sin superkjølte, uhyggelige sorte boks med en ekstremt cyberpunk interiørspike som inneholder en gåtefull naken-chip med hardt forestående krefter.
I hovedsak tar D2-systemet en helt annen tilnærming til problemløsing ved effektivt å kaste ut årsak og virkning regelboken. Så hva slags problemer er dette Google / NASA / Lockheed Martin støttet behemoth siktet på?
The Rambling Man
Historisk sett, hvis du vil løse et NP-Hard eller Intermediate-problem, hvor det er et ekstremt høyt antall mulige løsninger som har et bredt spekter av potensial, bruker "verdier" den klassiske tilnærmingen ganske enkelt ikke. Ta for eksempel problemet med Traveling Salesman; gitt N-byer, finn den korteste banen for å besøke alle byer en gang. Det er viktig å merke seg at TSP er en viktig faktor på mange områder som mikrochipproduksjon, logistikk og til og med DNA-sekvensering,
Men alle disse problemene koker ned til en tilsynelatende enkel prosess; Velg et punkt for å starte fra, generer en rute rundt N 'ting, måle avstanden, og hvis det finnes en eksisterende rute som er kortere enn den, kaster du forsøk på rute og går videre til neste til det ikke er flere ruter å sjekke.
Dette høres lett ut, og for små verdier er det det; For 3 byer er det 3 * 2 * 1 = 6 ruter for å sjekke, for 7 byer er det 7 * 6 * 5 * 4 * 3 * 2 * 1 = 5040, noe som ikke er så ille for en datamaskin å håndtere. Dette er en Faktorisk sekvens, og kan uttrykkes som “N!”, så 5040 er 7!.
Men på den tiden du går bare litt lenger, til 10 byer å besøke, må du teste over 3 millioner ruter. Når du kommer til 100, er det mange ruter du må sjekke 9 etterfulgt av 157 sifre. Den eneste måten å se på denne type funksjoner, bruker en logaritmisk graf, hvor y-aksen starter ved 1 (10 ^ 0), 10 (10 ^ 1), 100 (10 ^ 2), 1000 (10 ^ 3 ) og så videre.
Tallene blir bare for store til å kunne behandles på en hvilken som helst maskin som eksisterer i dag eller kan eksistere ved hjelp av klassiske databehandlingsarkitekturer. Men hva D-Wave gjør er veldig forskjellig.
Vesuvius Emerges
Vesuvius-brikken i D2 bruker rundt 500 qubits eller Quantum Bits for å utføre disse beregningene ved hjelp av en metode som kalles Quantum Annealing. I stedet for å måle hver rute om gangen, blir Vesuvius Qubits satt i en superposisjonstilstand (hverken på eller utenfor, fungerer sammen som et slags potensielt felt) og en rekke stadig mer komplekse algebraiske beskrivelser av løsningen (dvs. en serie av Hamiltonian beskrivelser av løsningen, ikke en løsning selv) blir anvendt på overføringsfeltet.
I virkeligheten tester systemet på alle mulige løsninger samtidig som en ball "bestemmer" hvilken måte å gå nedover bakken. Når superposisjonen er avslappet til en jordtilstand, bør den grunnleggende tilstanden til qubits beskrive den optimale løsningen.
Mange har spurt hvor mye av en fordel D-Wave-systemet gir over en vanlig datamaskin. I en nylig test av plattformen mot et typisk Traveling Saleman Problem, som tok 30 minutter for en klassisk datamaskin, tok bare et halvt sekund på Vesuvius.
Men for å være klar, kommer dette aldri til å være et system du spiller Doom on. Noen kommentatorer prøver å sammenligne dette høyt spesialiserte systemet mot en generell prosessor. Du ville være bedre å sammenligne en ubåt i Ohio-klassen med F35 Lightning; noen metriske du velger for en er så upassende for den andre som å være ubrukelig.
D-bølgen klokker i flere størrelsesordre raskere for sine spesifikke problemer enn en standardprosessor, og FLOPS estimater spenner fra en relativt imponerende 420 GFLOPS til en imponerende 1,5 Peta-FLOPS (Setter den i topp 10 Supercomputer liste i 2013 på tidspunktet for den siste offentlige prototypen). Hvis noe er noe, fremhever denne ulikheten begynnelsen av slutten av FLOPS som en universell måling når den brukes på bestemte problemområder.
Dette området av databehandling er rettet mot et svært spesifikt (og veldig interessant) sett med problemer. Bekymringsfullt er et av problemene i denne sfæren kryptering Krypter Gmail, Hotmail og annen webmail: Slik krypterer du Gmail, Hotmail og annen webmail: Slik redigerer Edward Snowden's NSA-åpenbaringer sjokk og ærefrykt i amerikanske husstander, som enkeltpersoner og familier begynte å innse at deres kommunikasjon ikke var helt så privat som de opprinnelig hadde tenkt. Å delvis roe noen ... Les mer - spesielt Public Key Cryptography.
Heldigvis er D-Waves implementering fokusert på optimaliseringsalgoritmer, og D-Wave tok noen designbeslutninger (som den hierarkiske peeringstrukturen på brikken) som indikerer at du ikke kunne bruke Vesuvius til å løse Shor's algoritme, noe som potensielt låser opp Internett så ille ville det gjøre Robert Redford stolt.
Laser matematikk
Det andre selskapet på vår liste er Optalysys. Dette britiske baserte selskapet tar databehandling og setter det på hodet ved hjelp av analog lysoppløsning for å utføre bestemte klasser av beregning ved hjelp av selve lysets natur. Den nedenstående videoen viser noen av bakgrunnen og grunnleggende for Optalysys-systemet, presentert av prof. Heinz Wolff.
Det er litt håndbølget, men i hovedsak er det en boks som forhåpentligvis en dag sitter på skrivebordet ditt og gir beregningsstøtte til simuleringer, CAD / CAM og medisinsk bildebehandling (og kanskje bare kanskje dataspill). Som Vesuvius, er det ingen måte at Optalysys-løsningen skal utføre vanlige databehandlingsoppgaver, men det er ikke det det er designet for.
En nyttig måte å tenke på denne typen optisk behandling er å tenke på det som en fysisk grafikkbehandlingsenhet (GPU). Moderne GPU Bli kjent med grafikkakselereren din i uhyggelig detalj med GPU-Z [Windows] Bli kjent med grafikkakselereren din i uhyggelig detalj med GPU-Z [Windows] GPU- eller grafikkbehandlingsenheten er den delen av datamaskinen som er ansvarlig å håndtere grafikk. Med andre ord, hvis spill er hakket på datamaskinen din eller det ikke kan håndtere svært høye kvalitetsinnstillinger, ... Les mer bruker mange parallellstrømsprosessorer parallelt, og utfører den samme beregningen på forskjellige data som kommer inn fra forskjellige områder av minnet. Denne arkitekturen kom som et naturlig resultat av måten datagrafikk genereres, men denne massivt parallelle arkitekturen har blitt brukt til alt fra høyfrekvent handel til kunstige nevrale nettverk.
Optalsys tar lignende prinsipper og oversetter dem til et fysisk medium; datadisisjonering blir strålesplitting, lineær algebra blir kvanteinnblanding, MapReduce-stilfunksjoner blir optiske filtreringssystemer. Og alle disse funksjonene opererer i konstant, effektivt øyeblikkelig tid.
Den første prototypenheten bruker et 20Hz 500 × 500 elementnett for å utføre Fast Fourier Transformations (i utgangspunktet, “Hvilke frekvenser dukker opp i denne inngangsstrømmen?”) og har levert en underwhelming ekvivalent på 40 GFLOPS. Utviklere retter seg mot et 340 GFLOPS-system ved neste år, som vurderer estimert strømforbruk, ville være en imponerende poengsum.
Så hvor er min svarte boks?
Historien om databehandling En kort historie om datamaskiner som forandret verden En kort historie om datamaskiner som forandret verden Du kan bruke mange år til å dvale inn i datamaskinens historie. Det er tonnevis av oppfinnelser, tonnevis av bøker om dem - og det er før du begynner å komme inn i fingerpekingen som uunngåelig opptrer når ... Les mer viser oss at det som utgangspunktet er reserve av forskningslaboratorier og myndigheter raskt gjør veien til forbrukerne maskinvare. Dessverre har historien til databehandling ikke hatt å håndtere begrensningene i fysikkens lover ennå.
Personlig tror jeg ikke D-Wave og Optalysys kommer til å være den eksakte teknologien vi har på vårt skrivebord i løpet av 5-10 år. Vurder at den første gjenkjennelige “Smartklokke” ble avduket i 2000 og mislyktes miserably; men essensen av teknologien fortsetter i dag. På samme måte vil disse utforskningene i Quantum og Optical computing akseleratorer ende opp som fotnoter i "neste store ting".
Materialvitenskap er kantet nærmere biologiske datamaskiner, ved hjelp av DNA-lignende strukturer for å utføre matematikk. Nanoteknologi og 'Programmerbar Materiell' nærmer seg punktet, i stedet for å behandle data, vil materialet både inneholde, representere og behandle informasjon.
Alt i alt er det en modig ny verden for en beregningsforsker. Hvor tror du dette går alt? La oss snakke om det i kommentarene!
Photo credits: KL Intel Pentium A80501 av Konstantin Lanzet, Asci red - tflop4m av US Government - Sandia National Laboratories, DWave D2 av Vancouver Sun, DWave 128chip av D-Wave Systems, Inc., Traveling Salesman Problem av Randall Munroe (XKCD)
Utforsk mer om: CPU.