Verder gaan dan datagestuurd: de drie pijlers van data-analyse

Klik voor meer informatie over auteur Eva Murray.

De drang naar digitale transformatie is niets nieuws. Toch is de versnelde acceptatie van digitale transformatie geïnspireerd door de coronavirus-pandemie anders dan alles wat we ooit eerder hebben gezien. Bedrijven zijn gedwongen hun digitale strategieën snel op te voeren om te overleven in onze nieuwe wereld van virtueel zakendoen. Degenen die niet snel konden draaien en hun bedrijfsstrategie opnieuw konden instellen, hebben het niet overleefd.

Nu we verder gaan dan de aanvankelijke haast om ons aan te passen aan de digitale werkplek, wat hebben we geleerd van die eerste fase van de pandemie? Bedrijven die kunnen evolueren en hun bedrijfsstrategie opnieuw kunnen afstemmen, houden stand. Dit is nog nooit zo duidelijk geweest als in het snel veranderende zakelijke landschap en de onzekere economie van vandaag.

Geavanceerde gegevensanalyse is belangrijk – verder gaan dan gegevensgestuurd

Historisch gezien was het doel om een ​​datagedreven bedrijf te zijn. Dat was toen prima, maar de tijden zijn veranderd. Tegenwoordig bedrijven hebben gegevensgestuurd zijn om te concurreren in de chaotische post-COVID-19-wereld. Het vermogen om uw bedrijfsstrategie te draaien en snel te veranderen met betrekking tot mensen, producten en / of processen op basis van actuele gebeurtenissen – of deze nu plaatsvinden op de wereldmarkt of intern – is nog nooit zo duidelijk geweest als nu.

Het doel is nu verder gaan dan datagestuurd, wat betekent dat geavanceerde data-analyse moet worden gebruikt om realtime te rijden Bedrijfsstrategie.

Stimuleer bedrijfsflexibiliteit en strategie met geavanceerde analyse – maximaliseer de drie pijlers van gegevensanalyse

De mogelijkheid om de kracht van geavanceerde gegevensanalyse te benutten die uiteindelijk helpt bij het stimuleren van flexibele bedrijfsstrategieën, vereist sterke pijlers voor gegevensanalyse. Deze pijlers omvatten de trifecta die snelheid, behendigheid en schaalbaarheid is, en hieronder staat wat praktisch advies om ze allemaal te versterken.

Snelheid (en prestaties) – Ondersteunt GPU’s

Volgens Gartner’s Onderzoek CIO Agenda 2019tussen 2018 en 2019 groeiden organisaties die AI gebruikten van 4 procent naar 14 procent. Nu de adoptie van AI blijft groeien, moeten bedrijven verder kijken dan het traditionele gebruik van CPU-kracht en hun AI- en machine learning-toepassingen (ML) versterken met Graphics Processing Units (GPU’s). Hierdoor kunnen ze hun analytische modellen sneller ontwikkelen, trainen en omscholen en uitvoeren, wat op zijn beurt kan leiden tot betere producten en diensten voor hun klanten.

GPU’s stellen organisaties in staat om operaties massaal te parallelliseren om de training van analytische modellen en / of inferenties te ondersteunen, waardoor de schaal en prestaties worden geboden die nodig zijn om meerdere tijdperken efficiënt te voltooien in een korter tijdsbestek en om het model te verfijnen. Bovendien geeft het gebruik van GPU’s in de cloud organisaties de mogelijkheid om verschillende AI / ML-workloads uit te voeren met de flexibiliteit die nodig is voor een kosteneffectieve, schaalbare en veilige AI-oplossing.

Behendigheid – Het modelprobleem oplossen

Zoekmachines zorgen er tegenwoordig vaak voor dat mensen de snelle optie kiezen in plaats van wat ze zochten, dus het algoritme kan hun zoekopdracht beïnvloeden in plaats van andersom. Dit gebeurt omdat onderliggende gegevens de suggesties aandrijven voor het automatisch aanvullen van een zoekopdracht, een proces dat sterk afhankelijk is van het gegevensmodel. Een datamodel is echter zo goed als de informatie die is gebruikt om het te maken en de vereisten die het bedrijf aan de data-ingenieurs communiceert.

Een datamodel moet alle relevante data en gerelateerde tabellen uit verschillende databronnen samenbrengen, zodat analisten ze in hun geheel en in relatie tot elkaar kunnen raadplegen. Anders is de informatie en de waarde van de inzichten die analisten produceren beperkt.

Om rekening te houden met alle noodzakelijke gegevens die analisten nodig hebben, is het belangrijk dat data-ingenieurs, data-analisten, en zakelijke belanghebbenden communiceren met elkaar om zakelijke vereisten, het beoogde gebruik van de gegevens en mogelijke (huidige) beperkingen als het gaat om gegevenstoegang te schetsen. Dergelijke communicatie vereist voortdurende gesprekken, het stellen van de juiste vragen en het eens zijn over de zakelijke behoeften en tijdlijnen waar iedereen naar toe werkt.

In het hart van de Gegevensstrategie moet rekening houden met de omgeving waarin het bedrijf opereert. We zien de impact die het milieu op dit moment speelt tijdens een pandemie temidden van zoveel onzekerheid. Een methode om een ​​flexibel datamodel te creëren, evenals een datawarehousing-benadering, is het gebruik van datakluismodellering. Met de datakluis kunnen organisaties eenvoudig hun datavolumes vergroten en reageren op snelle zakelijke veranderingen, waardoor hun datamodel flexibel blijft en tegelijkertijd een gedetailleerde datacatalogus bijhoudt. Dit blijkt erg handig voor compliance- en auditvereisten aangezien een volledige historie van de gegevens beschikbaar is.

Prestaties – inclusief semi en ongestructureerde gegevens

Semi en ongestructureerde gegevens zijn veel lastiger te analyseren dan gestructureerde gegevens, maar zijn veel productiever in de onderneming. IDC voorspelt dat 80 procent van de wereldwijde data zal tegen 2025 ongestructureerd zijn, met als belangrijkste factoren de opkomst van IoT en sociale media-inhoud. Om concurrerend te blijven, hebben organisaties een methode nodig om een ​​breed scala aan gegevens samen te brengen in een 360 ° -weergave die diepere, nauwkeurigere en nauwkeurigere analytische inzichten biedt. Het vermogen om te ondersteunen semi-gestructureerde gegevens formaten zoals JSON zijn essentieel voor zakelijk succes, omdat het zakelijke voordelen biedt aan bedrijven die het goed verwerken en analyseren. Bovendien kunnen AI-algoritmen betekenis helpen extraheren uit grote hoeveelheden ongestructureerde data, aangestuurd door datawetenschappers en data-analisten met diepgaande expertise in het ontwikkelen van de juiste modellen en benaderingen om met deze data te werken.

Door deze stappen te implementeren, kunnen ondernemingen een duurzame gegevensarchitectuur creëren die hen in staat stelt om verder te gaan dan alleen datagestuurd zijn om bedrijfsinformatie echt te stimuleren met geavanceerde analyses. En hoewel ik niet kan voorspellen wat er daarna zal gebeuren in deze ongekende en enorm onvoorspelbare tijden, is het versterken van de pijlers van uw data-analysestrategie een van de meest effectieve manieren om door een onzekere omgeving te navigeren.

follow:
admin

admin

Related Posts

Een korte geschiedenis van gegevensbeheer

Datamanagement is de organisatie van gegevens, de stappen die worden gebruikt om efficiëntie te bereiken en informatie uit die gegevens

Datakans klopt! Moet je antwoorden?

Klik voor meer informatie over auteur Kartik Patel. Als zakenmensen krijgen we vaak te maken met wat misschien een geweldige

Een korte geschiedenis van gegevensbeheer

Datamanagement is de organisatie van gegevens, de stappen die worden gebruikt om efficiëntie te bereiken en informatie uit die gegevens

Datakans klopt! Moet je antwoorden?

Klik voor meer informatie over auteur Kartik Patel. Als zakenmensen krijgen we vaak te maken met wat misschien een geweldige