Varför kvantberäkning kan vara nästa sväng på Big Data Highway

Författare: Judy Howell
Skapelsedatum: 27 Juli 2021
Uppdatera Datum: 11 Maj 2024
Anonim
Varför kvantberäkning kan vara nästa sväng på Big Data Highway - Teknologi
Varför kvantberäkning kan vara nästa sväng på Big Data Highway - Teknologi

Innehåll


Källa: Krishnacreations / Dreamstime.com

Hämtmat:

Datatekniken har utvecklats på samma väg i årtionden, men kvantberäkning är ett stort avvikelse från vad som kom före den.

Den 28 september 2012 sprang New York Times en berättelse, "Australians Surge in Quest for New Class of Computer", om vad som verkar vara ett genombrott i tävlingen om att bygga en fungerande kvantdator.

Även om definitionen av en kvantdator kommer att antyda många läsare, räcker det med att säga att en fungerande kvantdator kommer att vara revolutionerande i teknologiens värld.

Datateknologi ligger till grund för förändringarna i världen som vi har upplevt under de senaste 50 åren - den globala ekonomin, internet, digital fotografering, robotik, smartphones och e-handel förlitar sig alla på datorer. Jag tror att det är viktigt för oss att ha en viss grundläggande förståelse för tekniken för att förstå var kvantberäkning kan ta oss.


I början var det ENIAC

Så låter börja i början. Den första fungerande elektroniska datorn var den elektroniska numeriska integratorn och datorn, mer känd som ENIAC. Det utvecklades vid University of Pennsylvania's Moore School of Engineering under finansiering av den amerikanska armén för att beräkna sprutbanor under andra världskriget. (Förutom att det var ett ingenjörsunderverk blivit ENIAC spåret för många stora IT-projekt under åren sedan, men det var för sent för andra världskriget, som slutade innan datorn slutfördes.)

Kärnan i ENIACs bearbetningsförmåga var vakuumrör - 17 468 av dem. Eftersom ett vakuumrör endast har två tillstånd - av och på (även kallad 0/1) - antog datorer binär aritmetik, snarare än decimalt aritmetik, där värden går från 0 till 9. Var och en av dessa enskilda representationer kallas lite, kort för "binär siffra." (För att lära dig mer om ENIAC: s historia, se ENIAC: s kvinnor: Programmera pionjärer.)


Det var uppenbart nödvändigt att det fanns något sätt att representera de siffror, bokstäver och symboler som vi känner till, så ett kodningsschema som föreslagits av American National Standards Institute (ANSI), känt som American Standard Character Information Interchange (ASCII), blev så småningom standarden. Under ASCII kombinerar vi 8 bitar för att bilda ett tecken, eller byte, under ett förutbestämt schema. Det finns 256 kombinationer som representerar siffror, versaler, gemener och specialtecken.

Förvirrad? Oroa dig inte för det - den genomsnittliga datoranvändaren behöver inte veta detaljerna. Det presenteras här endast som en byggsten.

Därefter gick datorerna ganska snabbt från vakuumrör till transistorer (William Shockley och hans Bell Labs-team vann Nobelpriset för utveckling av transistorer) och sedan förmågan att sätta flera transistorer på ett chip för att skapa integrerade kretsar. Det var inte länge innan dessa kretsar inkluderade tusentals eller till och med miljoner transistorer på ett chip, vilket kallades mycket storskalig integration. Dessa kategorier: 1) vakuumrör, 2) transistorer, 3) IC och 4) VLSI betraktas som de fyra generationerna av hårdvaruutveckling, oavsett hur många transistorer som kan fastna på ett chip.

Inga buggar, ingen stress - din steg-för-steg-guide för att skapa livsförändrad programvara utan att förstöra ditt liv

Du kan inte förbättra dina programmeringsfärdigheter när ingen bryr sig om mjukvarukvalitet.

Under tiden sedan ENIAC "gick live" 1946 och genom alla dessa generationer har den underliggande användningen av den vakuumrörsbaserade binära aritmetiken förblivit på plats. Kvantberäkning representerar ett radikalt utbrott från denna metod.

Quantum Computing: The Big Break

Kvantdatorer utnyttjar atomer och molekylers kraft att bearbeta och utföra minnesuppgifter med mycket snabbare hastighet än en kiselbaserad dator ... åtminstone teoretiskt. Även om det finns några grundläggande kvantdatorer som kan utföra specifika beräkningar, är en praktisk modell troligen fortfarande flera år bort. Men om de dyker upp, kan de drastiskt ändra datorns bearbetningskraft.

Som ett resultat av denna kraft har kvantberäkning kraften att förbättra stordatabehandling kraftigt, eftersom den åtminstone teoretiskt borde vara utmärkt vid den massivt parallella behandlingen av ostrukturerad data.

Datorer har fortsatt med binär bearbetning av en anledning: Det hade verkligen inte funnits någon anledning att tänka på något som fungerade. När allt kommer omkring har datorhastigheten fördubblats var 18 månader till två år. 1965 skrev Intel Vice President Gordon Moore ett papper som detaljerade vad som blev känt som Moores lag, där han uttalade att processorns täthet skulle fördubblas vartannat år, vilket resulterade i en fördubbling av bearbetningshastigheten. Även om han hade skrivit att han förutspådde att denna trend skulle pågå i tio år har den - anmärkningsvärt - fortsatt till idag. (Det har varit några datorpionjärer som har brutit den binära formen. Läs mer i Varför inte ternära datorer?)

Men ökningen av behandlingshastigheten har varit långt ifrån den enda faktorn för förbättrad datorprestanda. Förbättringar av lagringstekniken och telekommunikationens framkomst har varit nästan lika viktig. Under de första dagarna av persondatorer innehöll disketter 140 000 tecken och den första hårddisken som jag köpte innehöll 10 miljoner tecken. (Det kostade mig också 5 500 $ och var lika stort som en stationär dator). Tack och lov har lagring blivit mycket större i kapacitet, mindre i storlek, snabbare i överföringshastighet och mycket, mycket billigare.

Den stora kapacitetsökningen gör det möjligt för oss att samla in information i områden som vi antingen bara kunde skrapa ytan på eller inte ens fördjupa i. Detta inkluderar ämnen med mycket data, som väder, genetik, lingvistik, vetenskaplig simulering och hälsoforskning, bland många andra.

Sense of Big Data

I allt större utsträckning upptäcker stora datautnyttjelser att trots alla vinster i bearbetningskraften som vi har gjort är det bara inte tillräckligt. Om vi ​​kommer att kunna ge mening med denna enorma mängd data som vi samlar in, kommer vi att behöva nya sätt att analysera den och presentera den såväl som snabbare datorer för att bearbeta den. Kvantdatorer kanske inte är redo för handling, men experter har sett deras progression som nästa nivå av datorbehandlingskraft. Vi kan inte säga med säkerhet, men nästa stora förändring i datatekniken kan vara en verklig avvikelse från kiselchipen som har funnit oss hittills.