https://frosthead.com

Big Data eller for mye informasjon?

Vi vet alle at det er mye mer informasjon i verdenene våre enn det pleide å være. Når det gjelder hvor mye mer, vel, de fleste av oss er ganske uklare.

Relatert innhold

  • Infografikk gjennom tidene Fremhever Visual Visual of Science
  • Hvorfor Google Flu Trends ikke kan spore influensa (ennå)

Her er en uvurderlig nugget om all den informasjonen, komplimenter av Dave Turek, karen som har ansvaret for superdatarutvikling hos IBM: Fra året 2003 og jobbet bakover til begynnelsen av menneskehetens historie, genererte vi, ifølge IBMs beregninger, fem eksabyte - det er fem milliarder gigabyte - med informasjon. Senest i fjor fikk vi ut så mye data annenhver dag. Innen neste år, spår Turek, skal vi gjøre det hvert 10. minutt.

Men hvordan er dette mulig? Hvordan ble data så digital kudzu? Enkelt sagt: Hver gang du klikker på Like-knappen på Facebook, legger du en annen digital melding på en flaske hver gang mobiltelefonen sender ut GPS-plasseringen, hver gang du kjøper noe online. Og nå er verdenshavene stort sett dekket av dem.

Og det er bare en del av historien. Tekstmeldinger, kundeoppføringer, minibank-transaksjoner, bilder av sikkerhetskameraer ... listen fortsetter og fortsetter. Buzzword for å beskrive dette er "Big Data", men det gir neppe rettferdighet i omfanget av monsteret vi har laget.

Det er det siste eksemplet på teknologi som overskrider vår evne til å bruke den. I dette tilfellet har vi ikke begynt å innhente vår evne til å fange opp informasjon, og det er grunnen til at en favorittgruppe av ledelsesundervisning i disse dager er at fremtiden tilhører selskaper og myndigheter som kan gi mening om all dataen de er samling, helst i sanntid.

Virksomheter som kan tolke alle digitale brødsmuler som kundene sine etterlater seg, vil ha en fordel, tenkningen går - ikke bare hvem som kjøpte hva der den siste timen - men om de twitret om det eller la ut et bilde et sted i virvlingen av sosiale nettverk. Det samme gjelder byene som kan samle data fra de tusenvis av sensorer som nå prikker bylandskap og gjør bylivets ujevnheter, som trafikkflyt, til en vitenskap.

Ikke overraskende tar politiske kampanjer allerede steget og raser gruvedata som en del av deres fokus på å "nanotargete" velgere, slik at de vet nøyaktig hvordan de skal gi dem for sine stemmer og penger. Blant konklusjonene som analytikere har trukket, er ifølge New York Times spaltist Thomas Edsall, at republikanere viser en preferanse for "The Office" og Cracker Barrel-restaurantene, mens demokratene er mer sannsynlig å se "Late Night With David Letterman" og spise på Chuck E Ost.

Dette hastverket med å tolke digital flotsam forklarer hvorfor Google i forrige uke kunngjorde at de vil begynne å selge et produkt den kaller BigQuery, programvare som kan skanne terabyte med informasjon på få sekunder. Og hvorfor en oppstart ved navn Splunk, som har teknologi som kan analysere enorme mengder kunde- og transaksjonsdata, så verdien av aksjene sveve nesten 90 prosent dagen den ble offentlig forrige måned. Dette for et selskap som tapte 11 millioner dollar i fjor.

Datavitenskapens oppgang

Men selv tilgang til de beste data-dechiffreringsverktøyene er ingen garanti for stor visdom. Svært få selskaper har ansatte som har opplæring, ikke bare for å evaluere fjell med data - inkludert masse ustrukturerte småting fra millioner av Facebook-sider og smarttelefoner - men også for å faktisk gjøre noe med det.

I fjor ga McKinsey Global Insitute ut en rapport som beskrev "Big Data" som "neste grense for innovasjon", men forutså også at innen 2018 vil selskaper i USA ha en alvorlig mangel på talent når det gjelder de nødvendige analytiske ferdighetene - like mange 190 000 mennesker. Og den hevder at ytterligere 1, 5 millioner ledere vil trenge å bli opplært til å ta strategiske beslutninger med strømmen av data som kommer.

Ikke alle er imidlertid troende på magien med Big Data. Peter Fader, professor i markedsføring ved Penn's Wharton School of Business, er ikke overbevist om at mer data er bedre. Ikke at han mener et selskap ikke skal prøve å lære så mye det kan om kundene sine. Det er bare det at det nå er så mye fokus på å samle hver bit av data at han mener volum er verdsatt over ekte analyse.

Her er Fader fra et nylig intervju med MITs Technology Review: “Selv med uendelig kunnskap om tidligere oppførsel, har vi ofte ikke nok informasjon til å komme med meningsfulle forutsigelser om fremtiden. Faktisk, jo mer data vi har, jo mer falsk tillit vil vi ha ... Den viktige delen er å forstå hva våre grenser er og å bruke den best mulige vitenskapen for å fylle ut hullene. Alle dataene i verden vil aldri oppnå det målet for oss. ”

Hvem er dataene dine?

Her er et utvalg av hvordan Big Data brukes til å løse store problemer:

  • De vet når de har vært dårlige eller gode: Mens de fleste selskaper fokuserer på å analysere kundene sine, scorer Amazon poeng ved å bruke Big Data for å hjelpe dem.
  • Studien av pigger: Vil du vite hvilke okser som gyter de mest produktive melkekyrne? Meieriindustrien har tenkt ut en måte å knuse tallene på.
  • Diagnostikk etter data: Forskere ved SUNY Buffalo analyserer enorme datasett i deres forsøk på å finne ut om det er en kobling mellom multippel sklerose og miljøfaktorer, for eksempel ikke nok eksponering for sollys.
  • Ser du etter trøbbel: Et selskap som heter Record Future, gruvedriftinfo fra sosiale nettverk og myndigheter og finansnettsteder for å lage prognoser for hvordan befolkningsvekst, vannmangel og ekstremvær kan føre til fremtidig politisk uro og terrorisme.

Videobonus: Innhenting av data er en ting. Å få det til å se attraktivt og forståelig er en helt annen utfordring. David McCandless vokser over kraften i "informasjonskart" i denne TED-praten.

Big Data eller for mye informasjon?