Notice: Function WP_Scripts::localize was called incorrectly. The $l10n parameter must be an array. To pass arbitrary data to scripts, use the wp_add_inline_script() function instead. Please see Debugging in WordPress for more information. (This message was added in version 5.7.0.) in /var/www/14.1.1/sources/sources/wordpress/wp-includes/functions.php on line 6078
Disse fem datatrendene bør du holde øye med

Disse fem datatrendene bør du holde øye med

ig er ikke lenger nok, det må være «huge». For å holde styr på den stadig økende flommen av data, er det nødvendig med nye og virkelig store dataprogrammer. Det gjelder å ha de kommende trendene og mulighetene på skjermen allerede nå og føye dem inn i en bærekraftig bedriftsstrategi. Vi har oppsummert den viktigste utviklingen i datatrendene.

Mengden data som genereres daglig øker eksponentielt. Aktuelle tall fra Statista indikerer at det globale datavolumet i 2025 vil utgjøre om lag 175 zettabyte (175 milliarder gigabyte). I 2018 var det «bare» 33 zettabyte. Rundt 80 prosent av det samlede volumet utgjøres av data som er lagret i selskaper. Forvaltningen av dataflyten blir dermed det viktigste aspektet ved en helhetlig digitaliseringsstrategi. Nøkkelen: Big Data.

Allerede nå er Big Data tatt i bruk med stor fortjeneste på mange forretningsområder. Men betydningen og kravene vil øke enormt i nær fremtid: «Omfanget og kompleksiteten, dataenes distribusjon, tempoet i handelen og det den digitale virksomheten krever av «continuous intelligence» gjør at rigid og sentralisert arkitektur og verktøy vil mislykkes. For at et foretak skal overleve, kreves det en smidig, datasentrert arkitektur som reagerer på den stadige endringen», lyder den klare meldingen fra Gartners Vice President og Analyst Donald Feinberg. Nettopp derfor mener vi at fem trender vil være avgjørende i fremtiden.

#1 Edge Computing og 5G-kommunikasjon

Med Edge Computing mener man et mesh-nettverk av mikrodatasentre som bearbeider eller lagrer data lokalt og overfører dem til et sentralt datasenter eller et skylager. En enkelt «Edge Computer» er ikke en ny maskinvaredel, men en «ting» som er koplet til nettverket eller (Industrial) Internet of Things: Produksjonsmaskiner og -enheter, biler og fly kan betraktes som «edge». På den ene siden produserer de data til den løpende driften, mens de på den andre siden håndterer analyse og forbedring, eksempelvis med en digital tvilling.
Edge Computing er altså en infrastruktur som gjør det mulig å bearbeide enorme mengder data «i utkanten (at the edge) av nettverket» – derav navnet – eller nærmest mulig kilden og så raskt som mulig i prosessen.

5G-kommunikasjon er en vesentlig del av denne prosessen. Det er den høye hastigheten, korte ventetiden og den store kapasiteten som i det hele tatt gjør avansert IoT mulig.
Båndbredden og hastigheten i 5G åpner opp for nye muligheter, spesielt i industriell sammenheng. For eksempel kan roboter brukes mer effektivt og responsivt i intelligente fabrikker. Mindre og dedikerte datasentre på stedet vil kunne ta beslutninger raskere og utnytte AI-teknologier bedre.

#2 Big Data blir til Huge Data

De enorme datamengdene øker raskt på grunn av nye industrielle sensorer og Internett-aktiverte wearables. Disse sender løpende så store mengder at man ifølge forfatteren Kevin Coleman må endre begrepene: «Big Data var en harmløs tid, de virkelige datautfordringene kommer først nå i form av Huge Data.»

Dette skaper utfordringer når det gjelder datasikkerhet og -lagring: Sanntidsdata registreres hvert sekund av sensorer og skal bearbeides og lagres. På sikt må vi finne mer effektive løsninger for å lagre disse datamengdene. Flere og større datalagre, komprimerte data eller maskiner som er koplet til direkte datautveksling er mulige løsninger. Det er også tenkelig med nye retningslinjer og regelverk. Det kan for eksempel besluttes en «utløpsdato» ved lov der data må slettes.

#3 Øyeblikkelig databehandling via Persistent Memory Server

I fremtiden vil In-Memory-Computing-kompatibel (IMC) arkitektur gi gode muligheter til «øyeblikkelig» databehandling. Nye teknologier for ikke-flyktig eller varig lagring vil gjøre det mulig å innføre slik arkitektur kostnadseffektivt og relativt enkelt.

Nettopp persistent lagring – et nytt ekstra lagringssjikt mellom DRAM- og NAND-flashlagring – vil sikre kostnadseffektiv masselagring ved arbeidsbelastninger med høy ytelse og ha en positiv innvirkning på applikasjonsytelse, tilgjengelighet, oppstarttider, klyngemetoder og sikkerhetsprosedyrer. Dessuten kan de hjelpe bedrifter å redusere kompleksiteten i deres bruk og dataarkitektur fordi behovet for dataduplisering reduseres til et minimum.

#4 Kontinuerlig intelligens forbedrer analyseforløpet

For bedrifter er det viktigere enn noensinne å gjennomføre og evaluere analyser raskt. Til dette trenger de rettidig og kontinuerlig informasjon fra alle tilgjengelige data. Uavhengig av antall datakilder eller størrelsen på datavolumet.

Nøkkelen til dette er kontinuerlig informasjon (Continuous Intelligence, CI). En moderne maskinstyrt, automatisert tilnærming som muliggjør rask og smidig tilgang til aktuelle og historiske data for raskere å foreta  nødvendige analyser og løpende generere forretningsfordeler.

Ifølge Gartner vil mer enn halvparten av de nye forretningssystemene ha kontinuerlig informasjon som benytter kontekstuelle sanntidsdata til sine beslutninger innen 2022.

#5 Nytenkning rundt bedriftenes datastruktur

Blant alle oppførte trender er denne egentlig den som er mest forsinket: For å kunne møte de kommende endrede kravene, trenger foretakene allerede nå en helhetlig datastruktur. Denne må muliggjøre utveksling av data som for det meste er å finne i distribuerte datamiljøer og datasiloer.

For å få til dette må foretakene ha den riktige dataforvaltningen: Et enhetlig og konsistent rammeverk for sømløs datatilgang og målrettet behandling via en ellers isolert lagring. Med det skaffer de seg den avgjørende forutsetningen for å kunne reagere raskest mulig på vekslende markedsforhold og sikre seg avgjørende konkurransefortrinn.

Vi har utviklet en løsning for dette som gir foretak optimal støtte i databehandlingen og tilbyr nettopp disse fordelene. Vår selvbetjente Big Data-plattform gir fagavdelingene rask og enkel tilgang til alle datapooler innenfor organisasjonen og til eksterne datakilder. Konvertert og lagret, klart til behandling. I tillegg har den et grensesnitt til tilkoplede analyse- og rapporteringsverktøy, slik at relevante data kan behandles uavhengig og på kort varsel.