Michael_Jack_600x448.jpg

Case Study: UMass Memorial Health Care migreert naar nieuwe opslaginfrastructuur

Klik voor meer informatie over auteur Michael Jack.

Achtergrond

UMass Memorial Gezondheidszorg is het grootste gezondheidszorgsysteem in Centraal Massachusetts. Het is de klinische partner van UMass Medical School, met toegang tot de nieuwste technologie, onderzoek en klinische proeven. De ziekenhuizen worden volledig geaccrediteerd door de Joint Commission, een nationale organisatie die kwaliteitsnormen vaststelt voor ziekenhuizen. Naast de volledig uitgeruste ziekenhuizen omvat het UMass Memorial Health Care-systeem ook thuiszorg- en hospiceprogramma’s, gedragsprogramma’s en praktijkgerichte artsenpraktijken. UMass Memorial Health Care is aangesloten bij CareWell Urgent Care om regionale spoedeisende zorg te verlenen. Ook biedt de UMass Memorial Medical Group hoogwaardige, goedkope ambulante operatiediensten in The Surgery Center in Shrewsbury.

UMass Memorial Health Care in cijfers:

  • 1.700 artsen op haar actieve medische staf
  • 3.000 geregistreerde verpleegkundigen
  • Meer dan 14.000 werknemers in totaal
  • 1.125 bedden in zijn ziekenhuizen

De uitdaging

Kevin Davis, de Senior Storage Engineer in Systems Administration and Information Services voor UMass Memorial Health Care, weet dat in de digitale wereld van vandaag buitengewone gezondheidszorg niet

alleen verzekerd door de medische professionals. Om uitzonderlijke zorg en diensten te kunnen bieden, moeten zorgorganisaties gebruik maken van even geavanceerde, innovatieve en betrouwbare technologie.

Eerder dit jaar erkende het datacenter van UMass Memorial Health Care dat het tijd was om een ​​deel van zijn gegevensopslaginfrastructuur bij te werken. Het was en maakt nog steeds gebruik van een Network Attached Storage Platform (NAS) om een ​​verscheidenheid aan gegevens te beheren en op te slaan, waaronder medische toepassingen en patiëntendossiers, evenals administratieve bestanden. Het doel was om al deze gegevens van de vorige opslag naar een nieuwe, beter presterende opslag te verplaatsen.

“De bestaande opslag had meer dan een petabyte aan NAS-gegevens, maar elke ingenieur die de confrontatie aangaat met het verplaatsen van gegevens tussen platforms, laat staan ​​zoveel gegevens, begrijpt dat de problemen die kunnen optreden onoverkomelijk kunnen zijn”, legt Davis uit. Hij legde verder uit:

“Om het nog ingewikkelder te maken, is dat, hoewel veel van de gegevens tientallen jaren oud zijn, en we schatten dat ongeveer 70 procent ervan zou moeten worden gearchiveerd, de opslag nog in productie was, dus er worden de hele tijd nieuwe bedrijfskritische gegevens naar geschreven. tijd. En de gegevens zijn complex – er zijn talloze ongelijksoortige apps die worden gebruikt door de artsen en afdelingen in het UMass Memorial Health Care-netwerk. “

“Toen we begonnen met plannen, voelde het alsof je verhuist en alles wat je bezit in dozen gooit om naar je nieuwe huis te brengen, ook al weet je dat een groot deel ervan moet worden opgeslagen of helemaal moet worden verwijderd, ‘Zei Davis. “Bovendien hadden we een extra druk om snel te handelen. De bestaande opslag was aan het einde van zijn levensduur, wat betekent dat updates, ondersteuning en services nu vrijwel onbestaande zijn. Het is dus niet alleen veel duurder om deze uitrusting te ondersteunen, het kan ook gegevens in gevaar brengen. “

De oplossing

Door de omvang en het cruciale belang van de taak te erkennen, hebben Davis en zijn team mogelijke oplossingen zorgvuldig onderzocht en geëvalueerd. Davis legde uit:

“Ik heb gekeken naar NetApp XCP-software, maar hun CIFS-tool ontbreekt. En ik had eerdere ervaring met Robocopy en rsync, maar ik had gewoon niet de tijd voor alle planning, probleemoplossing en scripting waarvan ik wist dat die bij die tools betrokken zouden zijn. Bovendien missen Robocopy en rsync rapportagemogelijkheden, met uitzondering van enkele zeer eenvoudige logboeken. Dat betekent meer werk wanneer het tijd is om een ​​rapport voor het management te maken. “

Davis koos Datadobi als zijn DobiMigrate software van ondernemingsklasse stelt hen in staat om bestands- of objectgegevens te migreren tussen elk opslagplatform, on-premise of in de cloud – veilig, snel, gemakkelijk en kosteneffectief. Dit maakte de overgangstijd naadloos en het veranderingsbeheerproces eenvoudig.

“Verandering is overal moeilijk. Maar ziekenhuizen draaien op iets krappere marges. Met DobiMigrate zijn we in staat om een ​​verandering droog te laten lopen, te zien hoe lang het zal duren en nauwkeurig advies te geven aan andere datacenterteamleden, evenals degenen buiten de IT die hierdoor kunnen worden getroffen. ”

Migratiesnelheid en beheersgemak waren voor Davis van groot belang. Hij en zijn team waren onder de indruk van hun vermogen om taken uit te voeren op momenten die voorheen uren hadden geduurd. “De initiële replicatie is snel, maar nadat het platform het heeft voltooid, is het belachelijk snel. Je kunt zoveel threads openen als je netwerk aankan, “zei hij en legde uit:

“Het is ook in staat om op een ongelooflijk snelle en efficiënte manier door metadata te ploegen en veranderingen in onze databases te ontdekken. En elke fout is ook een cakewalk. DobiMigrate beheert het allemaal, zelfs als gebruikers zoiets vreemds als emoji’s in de bestandsnaam toevoegen. Ja, dat gebeurt echt. “

Bovendien was het feit dat het een enkele, door meerdere protocollen ondersteunde oplossing bood, ook een zegen. “We moesten kunnen omgaan met CIFS- en SMB-protocollen, maar ook met NFS en DobiMigrate.”

Last but not least scoorden ook de continue bewakingsmogelijkheden hoog.

“Ziekenhuizen hebben behoefte aan langdurige retentie. Mijn eindgebruikers – zorgverleners en beheerders – moeten gegevens jarenlang bewaren en beschermen als onderdeel van onze activiteiten en om te voldoen aan wettelijke vereisten, en dat kan tot tientallen jaren duren voor klinische gegevens. We kunnen nu zien welke gegevens actief worden gebruikt, de exacte ouderdom van elk bestand en wanneer het voor het laatst is aangeraakt, tot op afdelingsniveau en gebruiker. “

Davis zei: ‘Het gaf ons ruim een ​​jaar voorsprong op de concurrentie. Zonder dit zouden we constant tegen obstakels zijn gestuit. “

De toekomst

Het is niet verrassend dat COVID-19 nieuwe prioriteiten veroorzaakte, en UMass Memorial Health Care moest de laatste omschakeling naar de nieuwe NetApp-infrastructuur in de wacht zetten. Tot op heden is ongeveer de helft van de opslag, of ongeveer 500 TB, gemigreerd naar de nieuwe NetApp-opslag. Totdat de omschakeling is voltooid, wordt DobiMigrate gebruikt om elke drie uur gegevens te repliceren.

“Alle afdelingsaandelen zijn verplaatst, maar de homedirectory’s hangen nog steeds”, zei Davis.

In de komende maanden is het plan om de migratie naar de NetApp te voltooien en de bestaande opslag buiten gebruik te stellen. De gedateerde bestaande opslag is momenteel verbonden met een verscheidenheid aan even gedateerde netwerkswitches. Zodra de verhuizing is voltooid, kan het netwerkteam de switches ook buiten bedrijf stellen.

“Dankzij hen heeft het opslagteam al onze eenden op een rijtje”, zei Davis. “Zodra de verhuizing is voltooid, hoeven we geen ingewikkelde wijzigingen aan te brengen in onze oude opslag hier of op onze DR-site. We kunnen gewoon de schakelaar omdraaien en de lichten uitdoen. “

ad_dgvvoreh_082520.jpg

Gegevensbeheer: balans tussen veiligheid en beschikbaarheid

Toen Maria Voreh bij het Federal Bureau of Investigation (FBI) begon, was haar eerste opdracht het werken aan het Integrated Automated Fingerprint System (IAFS), een technologie die vaak te zien is in politiefilms en televisieshows zoals ‘CSI’. “Ze maken een afdruk en de machine doet dit magische werk, en een paar seconden later wordt de verdachte gevonden.” Voreh is Chief Data Officer (CDO) bij de FBI en was keynote speaker bij DATAVERSITY® DG Vision-conferentie. Haar presentatie zoals getiteld Gegevensbeheer in de moderne tijd: gegevensbeveiliging in balans brengen met gegevensbeschikbaarheid.

De gegevens die IAFS doorzoekt, zijn niet die van de FBI – de gegevens zijn afkomstig van alle wetshandhavingsgemeenschappen in het land. Om het te beschermen, zijn er regels, beperkingen en beleid van kracht over hoe het kan worden gebruikt of gedeeld. Dat is hoe Voreh echt begon te werken bij de FBI, zei ze: werken aan regels om de integriteit en veiligheid van persoonlijke gegevens te behouden, en tegelijkertijd beschikbaar stellen in minder dan een seconde voor de wetshandhavingsambtenaar.

‘Als je een wetshandhavingsambtenaar aan de kant van de weg hebt staan, heeft hij geen vijf minuten om op antwoord te wachten. Hij heeft letterlijk seconden of subseconden om te weten of de persoon in deze auto gewoon moeder is die op weg is naar voetbal en dat ze te laat is, of de man die wordt gezocht voor een massamoord ergens verderop. “

Hoewel dataveiligheid en beschikbaarheid is Voreh’s leven de afgelopen 20 jaar bij de FBI geweest, ze denkt niet aan haar focus in termen van de gegevens, maar eerder over het aanbieden van een dienst aan gebruikers, terwijl ze de belangen beschermt van degenen die bereid zijn hun gegevens.

Enorme datacyclusuitdagingen

“We worden overspoeld met gegevens.” Grubhub heeft elke minuut meer dan 8.000 verzoeken om eten, terwijl 18 miljoen sms’jes worden verzonden en 45 miljoen Google-zoekopdrachten worden uitgevoerd in dezelfde hoeveelheid tijd, zei ze. “We hebben letterlijk zoveel gegevens in ons leven”, en diezelfde hoeveelheid gegevens stroomt ook de overheid in en uit.

Technologie levert meer gegevens en de mogelijkheid om meer te weten dan ooit tevoren, maar om er betekenis aan te geven, zijn extra lagen technologie en gegevens nodig. “Dit wordt een zelflikkend ijshoorntje. We veroorzaken letterlijk een exponentiële groei van onze eigen data, maar we kunnen het niet stoppen – en we moeten het ook niet stoppen. ”

Juridische, ethische en morele uitdagingen

De Privacywet voor persoonlijke informatie kwam uit in 1974, net als de Federale wet inzake onderwijsrechten en privacy (FERPA), die persoonlijke gegevens (naam, adres, geboortedatum, burgerservicenummer) in onderwijsinstellingen beschermde. Later, halverwege de jaren negentig, werd aanvullende wetgeving aangenomen om financiële gegevens te beschermen en mocht de Federal Trade Commission (FTC) het gebruik van financiële gegevens gaan controleren. Recente wetgeving zoals de Algemene verordening gegevensbescherming (AVG) en de California Consumer Privacy Act (CCPA), gaat verder dan het beschermen van een specifiek soort gegevens, maar ook het beschermen van de rechten van de consument of ingezetene om te bepalen wat bedrijven doen met persoonlijke gegevens.

Diezelfde verandering in focus is ook voelbaar bij de overheid, waar het niet langer alleen een proces is om bepaalde datavelden op een gereguleerde manier te beschermen. Nu strekt de verantwoordelijkheid zich uit tot het beschermen van die informatie tegen misbruik, tegen gecompromitteerd raken en tegen misbruik van de rechten om die gegevens te gebruiken.

Voreh zei dat gegevensbeoefenaars serieus moeten overwegen:

  • Wat is de impact op de persoon en op de mensheid als ik die gegevens gebruik?
  • Schep ik een precedent?
  • Heiligen de doelen de middelen?
  • Doe ik meer goed dan kwaad?

Eén misstap, en het vertrouwen van de klant is verloren. “Als ik in mijn bedrijf het vertrouwen van het publiek verlies, wordt mijn baan onmogelijk.”

De realiteit van vertrouwen

Voreh deelde de volgende statistieken uit een artikel met de titel J. Clement Online privacy – Statistieken en feiten:

  • 22 procent van de online gebruikers gaf aan dat het online opslaan van gevoelige gegevens niet veilig genoeg was
    • 40 procent van de online gebruikers geeft aan bezorgd te zijn over misbruik van hun online gegevens
    • 53 procent van de online gebruikers maakt zich meer zorgen over hun privacy dan een jaar eerder
    • 24 procent van de wereldwijde online gebruikers vertrouwt hun overheid het beheer en de bescherming van hun persoonlijke gegevens toe
    • 66 procent van de online gebruikers gaf aan zich vanwege de eigen overheid in toenemende mate zorgen te maken over hun online privacy

Voreh zei dat het laatste cijfer haar bang maakt: 66 procent is bezorgd dat ze hun gegevens gaat misbruiken. ‘Als ik dat zie, maak ik me zorgen. Wat moet ik doen om ze het vertrouwen te geven dat ik voor hun gegevens ga zorgen? ” Professionals in de particuliere sector en de academische wereld delen dezelfde bezorgdheid, omdat misbruik van vertrouwen leidt tot verloren klanten, gederfde inkomsten of minder studenten.

Opkomende technologische uitdagingen

Opkomende technologie heeft ongekende mogelijkheden geboden om gegevens te analyseren, gegevens te exploiteren en deze te gebruiken om echt een verschil te maken. Toen de FBI in 2001 aan de Enron-zaak werkte, werkten ze met een paar gigabytes aan gegevens en hadden ze 100 agenten eraan toegewijd.

Bij de bomaanslag op de Boston Marathon in 2013 werkten ze met terabytes aan gegevens. “We begonnen veel tv met ondertiteling te ontvangen, enkele video’s van telefoons, en we gooiden er wat technologie en veel agenten in.”

Tegen de tijd dat de opnames in Las Vegas in 2017 plaatsvonden, hadden ze 22.000 uur aan gesloten tv-circuit, evenals persoonlijke video’s en overschreden ze een petabyte aan gegevens. “We hadden tools en we probeerden wat computer vision-technologie te gebruiken om afbeeldingen en mensen te detecteren, maar nogmaals, de technologie was er, maar we maakten ons zorgen over het gebruik ervan vanwege de onbedoelde resultaten.”

Panda of Gibbon?

De uitdaging van technologieën zoals kunstmatige intelligentie (AI), machine learning en neurale netwerken kunnen ons op de vooravond van grootsheid zetten, maar ze zijn nog niet helemaal bewezen. “We kunnen ze niet uitleggen aan onze gebruikers, en daardoor komen we in onbedoelde uitkomsten”, wat deze technologieën kwetsbaar maakt voor misbruik.

Voreh had het over een experiment een neuraal netwerk gebruiken om een ​​foto van een panda te identificeren. Onderzoekers veranderden 0,04 procent van de pixels in het beeld, waardoor het neurale netwerk zijn classificatie veranderde van “Panda, met 57,7 procent vertrouwen” in “Gibbon, met 99,3 procent vertrouwen”. Voor het menselijk oog is de verandering niet waarneembaar. De foto lijkt op een panda, maar de computer is het daar niet mee eens. ‘Dus we kunnen de mens niet in de lus verwijderen. Wij mensen moeten nog steeds deel uitmaken van onze technologie, deze trainen en bijscholen. ”

Kwaliteitsgegevens en goede datamanagementpraktijken zijn nodig om algoritmen te trainen en bij te scholen, omdat nieuwe technologie die is getraind op basis van slechte data slechte resultaten oplevert. “Daar beginnen we het vertrouwen van het publiek te verliezen”, zei ze.

Nieuwe technologie vereist ook getrainde mensen die de waarde van de gegevens begrijpen, hoe ze er op de juiste manier mee om moeten gaan en hoe ze metagegevens kunnen annoteren om de bron, het doel en het toegestane gebruik van de gegevens te documenteren. “Zonder dat is deze nieuwe technologie gewoon leuk en leuk. Het doet niets voor onze werkelijke missiedoeleinden. “

Gegevensbeveiliging versus gegevensbeschikbaarheid

De verantwoordelijkheid voor gegevensbeveiliging zou niet langer uitsluitend de verantwoordelijkheid van IT moeten zijn, zei ze. Bescherming, toegangscontrole, privacy, vertrouwelijkheid, naleving en risicovermindering moeten worden gedeeld. Beleid en tools kunnen dit vergemakkelijken, maar uiteindelijk moeten gebruikers de verantwoordelijkheid voor gegevens delen.

Aan de andere kant zei Voreh dat gegevensbeoefenaars en mensen in de IT vaak deze eisen van gebruikers horen:

  • Ik heb meer en betere gegevens nodig om betere analyses te kunnen doen
    • Ik moet die visualisatie nu kunnen maken
    • Ik heb de gegevens nodig in een formaat dat ik kan gebruiken. Laat me niet de datum en tijd omrekenen of uitzoeken welk veld de achternaam is
    • Ik moet toegankelijk zijn op mijn homecomputer, als ik niet aan het werk ben, in het vliegtuig
    • Ik heb normen nodig, zodat ik dat allemaal meteen kan doen

‘Het is een balans. Ik kan het een niet hebben zonder het ander. Ik kan me niet zozeer concentreren op de kenmerken van gegevensbeveiliging, dat ik de beschikbaarheid negeer, ”zei ze.

De oplossing: gegevensbeheer en gegevensbeheer

Zei Voreh Gegevensbeheer en Gegevensbeheer zijn de sleutels tot het vinden van een evenwicht tussen veiligheid en toegankelijkheid. Governance en management bieden een manier om:

  • Begrijp welke gegevens moeten worden beheerd en wanneer
  • Zorg voor goede programma’s en praktijken die vangrails en grenzen bieden aan gebruikers
  • Zorg voor een bestuursproces dat een raamwerk voor gegevensbeheer toepast, waardoor open en inclusieve besluitvorming mogelijk is

Het eerste instinct is om gewoon een stel wetenschappers in dienst te nemen, maar als de kwaliteit van de gegevens er niet is en de gegevens niet voor hen beschikbaar zijn, is het gewenste resultaat waarschijnlijk een stel dure wetenschappers en geen inzicht, ze zei.

“Ik zou oplossingen kunnen kopen, maar zonder een idee van wat ik beheer en waarom, zet ik die kar gewoon voor het paard.”

Governance verbindt paard en wagen

Eerst liet Voreh een cartoon zien van een kar (data-oplossingen) die een paard trekt (Data Management), daarna keerde Voreh de twee om, waarbij het paard op de eerste plaats kwam met de schacht die paard en wagen met het label “Governance” verbindt. “Wat we echt moeten doen, is nadenken over wat de behoefte van onze organisatie aan datamanagement is”, in het licht van de bedrijfsdoelstellingen voor de komende vijf jaar.

Een plan dat is afgestemd op het bedrijf is essentieel, maar omdat elke organisatie uniek is, “kun je van niemand anders een datamanagementplan lenen.” Een datamanagementstrategie moet op maat worden gemaakt en de governance koppelt het aan uw oplossingen.

Voreh zei dat wanneer belanghebbenden worden betrokken bij de ontwikkeling van Governance, datamanagementpraktijken democratisch zijn en dat governance wordt geaccepteerd door de cultuur in de bredere organisatie. “Anders verzin je regels op een bureaucratische manier, en niemand zal ze opvolgen.”

Hoe u gegevensbeheer kunt vergroten

Voreh behaalde succes met het bestuur bij de FBI door zich te concentreren op de missie en visie van de organisatie, en stelde voor om drie vragen te overwegen tijdens het proces van het laten groeien van een Data Governance-programma:

  • Wat zijn wij als organisatie?
    • Waar is de visie die de directeur wil dat we over vijf jaar realiseren?

Vanaf daar is een Gegevensstrategie kan worden gebruikt om prioriteit te geven aan datamanagementpraktijken en om die te bevorderen die het meest aansluiten bij de missie. Begin met de meest kritieke gegevens in uw organisatie en pas kwaliteitsnormen toe, en pak vervolgens compliance en toezicht aan. “Een beleid opstellen zonder effectief toezicht en naleving is als het schrijven van een memo die niemand zal lezen.” Betrek bij het aannemen van dit beleid de zakenmensen en andere gebruikers van de gegevens.

Faciliteer met openheid

Voor wat gewoonlijk ‘issue management’ wordt genoemd, geeft Voreh er de voorkeur aan om de term ‘openheid’ te gebruiken om te verwijzen naar het proces van luisteren en het aanpakken van gebruikersproblemen. “Het is niet mijn taak om te dicteren, het is mijn taak om te faciliteren.” Het is belangrijk om problemen te kunnen accepteren zoals ze door de gebruiker zijn gedefinieerd en ze te begeleiden naar een oplossing die ze bezitten.

Vorig jaar combineerde de FBI verschillende teams om gezamenlijk kwesties rond mensen, processen, capaciteiten en gegevens aan te pakken: “Het was een enorm succes”, zei ze. De mensen aan de raad zijn onder meer datawetenschappers, analisten, datastewards, eerstelijnsgebruikers, juridische zaken, beleidsmensen, agenten en inlichtingenanalisten. Door problemen vanuit een 360-gradenbeeld te bespreken, kunnen beslissingen worden genomen met behulp van de capaciteit van de mensen die gegevens onderhouden, verzamelen, gebruiken en IT-diensten verlenen.

Vooruit gaan

Voreh zei dat het gemakkelijk is om het gevoel te hebben dat alle problemen in één keer moeten worden opgelost. “Dat kan niet, tenzij je veel geld en veel personeel hebt. Neem de babystapjes, werk aan je foundation en laat het groeien om je te helpen. ”

Wilt u meer weten over de aankomende evenementen van DATAVERSITY? Bekijk onze huidige line-up van online en persoonlijke conferenties hier.

Hier is de video van de presentatie van DG Vision:

Afbeelding gebruikt onder licentie van Shutterstock.com

jz_cscarrtools_102419.jpg

Case Study: Data Protection and HCI for Carrs Tool Data Architecture Upgrade

“Bestaande condities” is een term voor condities die niet erg lang duren. Amazon veranderde het aanzien van de detailhandel. Google heeft de toegang tot informatie gedemocratiseerd. Facebook en vrijwel elke sociale mediasite hebben de manier waarop we met elkaar omgaan veranderd.

Er kwam verandering Carrs Tool Steelsook. De Britse leverancier van gereedschapsstaal en producten van hoge sterkte aluminiumlegeringen aan fabrikanten heeft het koopgedrag van zijn klanten zien veranderen van het in bulk kopen van grote stukken materiaal naar het nauwkeurig inkopen van geblokkeerd gereedschapsstaal voor just-in-time-productie.

Het heeft het afgelopen decennium veel werk verricht aan zijn ERP-systeem en zijn bedrijfsmodel, zodat het efficiënter kan reageren op klanten wier eigen modellen ertoe leiden dat ze kleinere, maar meer bestellingen plaatsen. De geüpgradede Priority ERP-software die het bedrijf gebruikt, stelt het in staat om op elk moment de exacte afmetingen van elk stuk voorraad in het magazijn vast te leggen, te traceren en te doorzoeken, zodat klanten binnen enkele seconden de beste match krijgen voor hun vereisten.

Maar de hardware die het ondersteunde, was niet veranderd. “De hardware moet het werk aankunnen”, zegt Mark Mullaly, Carrs Tool Steels Systems Manager.

De infrastructuur bestond uit een reeks stand-alone, niet-gevirtualiseerde servers die werden overladen met verschillende ERP-applicaties die allemaal met elkaar verbonden waren. “We hadden meerdere workloads op elke server en als één workload problemen zou veroorzaken, zou dit een domino-effect hebben op andere workloads,” zei Mullaly. Een probleem met één stuk software kan de hele operatie doen mislukken.

En inderdaad, Carrs had een situatie waarin zijn ERP-systeem meer dan een dag offline was. Toen er grotere maar minder bestellingen werden geplaatst, zei hij, kon het bedrijf problemen met de infrastructuur omzeilen. Maar strakke tijdlijnen bij gestroomlijnde productie betekent dat klanten snelle en betrouwbare services verwachten – geen excuses. Voor Carrs was een volledige set back-up- en herstelmogelijkheden om ervoor te zorgen dat gegevens altijd worden beschermd, een prioriteit.

Gegevensbescherming met tanden

Toen Mullaly voor het eerst hardware-opties overwoog, dacht hij dat het zinvol zou zijn om systemen gewoon te vervangen door andere merknaamservers en opslag of te kiezen voor een zelfgebouwde virtualisatie-oplossing. Aparte servers kopen om te draaien VMware met een enkele opslageenheid zou echter een enkel storingspuntprobleem zijn.

Kosten en opleiding waren een punt van zorg. Het bedrijf kon het zich niet veroorloven om te kiezen voor een oplossing die, met licentiekosten en ondersteuningskosten, over vijf jaar ergens in de buurt van £ 100.000 zou kosten. Bovendien, zei Mullaly, had hij niet de tijd om te besteden aan hoogwaardige training voor het beheren van systemen.

“We hebben een klein IT-team in huis, en dat ben ik,” zei hij. “Er is een beperkte hoeveelheid tijd die ik buiten het werk kan besteden, en ik heb een oplossing nodig waarvoor ik niet duizenden verschillende vaardigheden hoef te leren om hardware te beheren.”

Hyperconvergentiesystemen waren de volgende optie om te overwegen als een schaalbare benadering voor het poolen van datacenterfuncties op hardware en deze te delen tussen virtuele machines die op elke host in het cluster draaien. Even belangrijk was dat het HCI-systeem echte tanden heeft als het ging om alles-in-één gegevensbescherming.

De keuze van Carrs hing ervan af of het systeem geschikt was voor een klein bedrijf en dezelfde betrouwbaarheid bood die systemen in veel grotere organisaties gewoonlijk hebben. Mullaly besloot mee te gaan Schaal Computing’s HC3-oplossing, die opslag-, reken- en virtualisatielagen van infrastructuur integreert in één oplossingsarchitectuur voor het automatiseren van het beheer van de IT-omgeving.

Mullaly zei dat hij het op prijs stelde gegevensbescherming vormde de kern van het systeem, niet alleen als achteraf toegevoegd. De geïntegreerde snapshot-gegevensreplicatie voor verbeterde bedrijfscontinuïteit op het Scale Computing-systeem is belangrijk voor het bedrijf. Elk bedrijf moet zijn gegevens off-site kunnen herstellen of vanaf een eerder tijdstip kunnen herstellen om het te helpen herstellen van een niet-geplande gebeurtenis.

“Het is zo eenvoudig om schema’s op te stellen die elk uur en / of dagelijkse momentopnamen kunnen produceren en vervolgens kunnen kiezen welk schema op welke VM moet worden toegepast”, zei hij. “Het meest indrukwekkende aspect is echter dat de productie van deze snapshots een verwaarloosbaar effect heeft op de systeemprestaties.”

Carrs hoefde niet na te denken over licentiekwesties of iets dat complicaties toevoegt door een HCI-systeem te kopen. “We gaan niet de grenzen verleggen van welk systeem dan ook. Het hoeft alleen maar onze software betrouwbaar en consistent te laten werken, ”zei hij. Een ander voordeel van het kiezen van een volledig geïntegreerde oplossing is dat gegevensverlies tot een minimum wordt beperkt. Er is meer gegevensverlies – gemiddeld 2,36 terabyte – wanneer meer leveranciers betrokken zijn bij gegevensbescherming.

Carrs koos eigenlijk voor een computersysteem op een iets grotere schaal dan nodig was, maar Mullaly vond het slimmer om het datacenter voor de komende drie jaar voorbereid te hebben, in plaats van het systeem gaandeweg te moeten vergroten. “We gingen uiteindelijk voor een systeem dat ongeveer twee keer zo groot was als onze grootste schatting, om de groei van gegevens en verwerking mogelijk te maken.”

Op langere termijn zou hij de HC3-oplossing kunnen uitbreiden door gewoon op een ander knooppunt te schroeven. Carrs heeft momenteel één cluster met drie knooppunten op het HC3-platform waarop zes VM’s draaien, en in de toekomst wil het tot 8-10 VM’s draaien. De Priority ERP-software, bestands- en printservices, Remote Desktop Services, antivirus en Active Directory draaien op het platform.

De kosten in de gaten houden

Het komt vaak voor dat organisaties, met name kleinere met weinig IT-middelen, hun infrastructuur naar de cloud verplaatsen. Maar Mullaly was bezorgd dat de kosten onverwachts zouden stijgen.

“We wilden iets dat van ons was en waarvan we de kosten kenden”, zei hij. “We hebben nog werk aan de winkel om systemen betrouwbaarder te maken en Scale Computing zo goed mogelijk te gebruiken.”

Scale Computing helpt de totale eigendomskosten voor klanten laag te houden door gebruik te maken van de open source KVM-hypervisor die vergelijkbare functionaliteit biedt als VMware.

Carrs schrijft zijn verhuizing naar een nieuwe infrastructuur om zijn belangrijkste ERP-oplossing uit te voeren, in ieder geval gedeeltelijk toe aan zijn prestaties op het gebied van tijdige levering in de afgelopen zes maanden. Er is de afgelopen zeven maanden geen ongeplande downtime geweest. “We kunnen klanten nu beter tevreden stellen dan vorig jaar.”

De populariteit van hypergeconvergeerde oplossingen komt tot uiting in het feit dat de wereldwijde HCI-marktomvang naar verwachting zal groeien van $ 4,1 miljard in 2018 naar $ 17,1 miljard in 2023, tegen een CCAGR van 32,9 procent.

Afbeelding gebruikt onder licentie van Shutterstock.com

pg_datafabuc_090120.jpg

Data Fabric-gebruiksscenario’s – DATAVERSITY

Gegevens nemen toe in volume, variëteit en bronnen; Daarom is er ook behoefte aan betrouwbare, nauwkeurige en tijdige gegevens voor on-demand ‘competitieve informatie’. EEN data fabric biedt een technologische oplossing voor de lange termijn voor het omgaan met de talloze uitdagingen die gepaard gaan met zo’n complex data-ecosysteem. Dit “geconvergeerde platform”, ontworpen met een unieke architectuur en een bundel datadiensten, is goed uitgerust om te voorzien in de diverse behoeften op het gebied van databeheer van een complex data-ecosysteem.

Volgens Allied Market Researchwordt verwacht dat de Data Fabric Market tegen 2026 $ 4.546,9 miljoen zal bedragen. Het rapport Data Fabric-markt per implementatie, type, bedrijfsgrootte en brancheverticaal: wereldwijde kansenanalyse en brancheprognose, 2019-2026 bevestigt dat de datafabric-markt naar verwachting zal groeien met een CAGR van 23,8 procent tussen 2019 en 2026, met als hoogtepunt $ 4.546,9 miljoen in 2026. Tijdens deze geprojecteerde periode wordt verwacht dat de Noord-Amerikaanse datafabric-markt ‘dominant zal blijven’, aangezien de cloud de markt van serviceproviders, de grootste gebruiker van datafabric-oplossingen, zal in dezelfde periode ook aanzienlijk stijgen.

The Data Fabric: een innovatieve oplossing voor gegevensbeheer legt uit dat een datafabriek platformtools biedt voor risicobeoordeling, grote opslag voor gegevens van meerdere typen, toegang tot gegevens uit meerdere bronnen en één gegevensweergave voor de hele onderneming.

Wat is precies een datafabriek?

Een datafabric, een van Gartner’s Top 10 trends in gegevensanalyse, is gedefinieerd als:

“Een op maat gemaakt ontwerp dat herbruikbare dataservices, pijplijnen, semantische lagen of API’s biedt via een combinatie van data-integratiebenaderingen op een georkestreerde manier.”

In het digitale tijdperk vereisen meerdere klantcontactpunten een soepele informatiestroom voor realtime analyses en onmiddellijke besluitvorming. Een technologisch raamwerk zoals een datafabriek biedt een naadloos analyseproces over verschillende datapijplijnen en serviceplatforms.

In een tijdperk waarin betrouwbare opslagfaciliteiten cruciaal zijn voor het succes van enterprise Data Management, lijkt de ‘opnieuw ontworpen opslag’ van een datafabriek, met voldoende beveiliging, schaalbaarheid, replicatie-opties en hoogwaardige kenmerken, perfect te passen bij de cloudinfrastructuur-as-a-service (IaaS) -platform. In Wat zijn enkele van de verschillende componenten van een Enterprise Data Fabric?, Senior Director of Product Marketing bij Datameer John Morrell vertelt over zijn videoserie over veel belangrijke datatechnologische onderwerpen, waaronder de datafabric.

Een recente diavoorstelling beschikt over 15 vooraanstaande leveranciers die een big data fabric aanbieden. Een big data fabric als een opkomend platform dat zakelijke inzichten versnelt “door opname, beheer, ontdekking, voorbereiding en integratie vanuit datasilo’s te automatiseren.” verder Een big data fabric ondersteunt “vele soorten gebruiksscenario’s, waaronder realtime inzichten, machine learning, streaminganalyses en geavanceerde analyses.”

Gebruiksscenario’s voor Big Data Fabric voor geavanceerde analyses

Bij typische big data-projecten is de grootste uitdaging het grote volume en de complexiteit van de gegevens die voor analyse worden gebruikt. De behendigheid en flexibiliteit van een datafabric-infrastructuur maakt snelle toegang tot de juiste gegevens op het juiste moment mogelijk voor verbeterde analyse.

Zoals recente gevallen van big data-gebruik zonder twijfel hebben bevestigd, was de big data-fabric de game-changer, zoals uitgelegd in Big Data Fabric: een noodzaak voor elk succesvol Big Data-initiatief. Het big data fabric-platform biedt end-to-end-beveiliging in combinatie met ondersteunde gegevens integratie en zelfbedieningsanalysemogelijkheden voor de gemiddelde zakelijke gebruiker. Het artikel bespreekt ook een andere gerelateerde technologie – datavirtualisatie, wat van onschatbare waarde is voor:

  • Toegang tot een breed scala aan gegevens
  • Big data-analyse uitvoeren zonder technische vaardigheden
  • Verschillende use-cases verkennen

Volgens Forrester, big data fabric is:

“Een uniforme, vertrouwde en uitgebreide weergave van bedrijfsgegevens die worden geproduceerd door gegevensbronnen automatisch, intelligent en veilig te orkestreren en ze vervolgens voor te bereiden en te verwerken in big data-platforms zoals Hadoop en Apache Spark, data meren, in-memory en NoSQL. “

Data Fabric-gebruiksscenario’s voor zakelijke toepassingen

Moderne bedrijven floreren op de rand, dus moeten ze technologiegestuurde oplossingen in realtime benutten voor een reeks gebruiksscenario’s. Dergelijke use-cases kunnen zijn:

  • Preventieve onderhoudsanalyses uitvoeren om stilstand te voorkomen
  • Klantensentimenten opvolgen om churn te voorspellen
  • Monitoring van de markten om fraude op te sporen
  • Geavanceerde voorspellende en prescriptieve analyses uitvoeren om producten of processen te optimaliseren

Hoewel deze use-cases vrij gebruikelijk zijn binnen een bedrijf van elke omvang, zijn de technologische middelen en modi om oplossingen te bieden niet overal in het zakelijke landschap hetzelfde. De bedrijven die zichzelf als “datagedreven” beschouwen en al geavanceerde datatechnologiesystemen hebben geïmplementeerd, zullen waarschijnlijk sneller slagen dan hun concurrenten.

EEN data fabric kan het verschil betekenen tussen succes en mislukking voor een dergelijk bedrijf, aangezien dit unieke ecosysteem voor gegevensbeheer tal van voordelen biedt, bijvoorbeeld flexibiliteit, schaalbaarheid, beveiliging, realtime analyse en geavanceerde analysemogelijkheden – allemaal op één plek. Dit Cloudera blogpost verzekert dat big data fabric het hoofd biedt aan “de uitdagingen van onvoldoende beschikbaarheid van gegevens, onbetrouwbaarheid van gegevensopslag en -beveiliging, geïsoleerde gegevens, slechte schaalbaarheid en afhankelijkheid van ondermaats presterende legacy-systemen.”

Gegevensdemocratisering en de gegevensstructuur heeft het over de “interoperabiliteit” van gegevens uit meerdere bronnen in een gegevensstructuur, in zekere zin, wat duidt op de democratisering van gegevens. De auteur legt uit hoe dit raamwerk datamanagementtaken vereenvoudigt in de cloud en on-premise databronnen.

De MapR-gegevensbeheer platform, bijvoorbeeld, bindt “realtime, dode en batch” -gegevens samen voor collectieve analyse. De MapR-datafabric stelt de gebruiker in staat om toegang te verlenen tot zowel bestaande applicaties of tools als nieuwe tools zoals Apache Drill. Dit platform biedt toegang tot “gegevens in alle vormen” op “alle locaties”. Het basisdoel van MapR-datafabric is het afbreken van datasilo’s voor just-in-time toegang tot alle soorten data, zoals uitgelegd in De moderne gegevensstructuur Wat het voor uw bedrijf betekent.

De Talend Data Fabric Solutions helpt IT-teams om te schakelen tussen projecten zonder enige leercurve. Dit platform combineert tools voor data-integratie, cloud, Master Data Management (MDM), Data Quality (DQ) en data-integratietools op één “enkel platform met een gemeenschappelijke ontwikkel- en beheeromgeving.” Het uiteindelijke doel is een hogere productiviteit.

Data Fabric Use Case voor Machine Learning

Machine learning (ML) -modellen kunnen efficiënt worden gebruikt in een datafabric-omgeving omdat data voorbereiding tijd wordt geminimaliseerd terwijl de bruikbaarheid van de voorbereide gegevens toeneemt tussen modellen en toepassingen. Wanneer gegevens over een onderneming worden gedistribueerd – in de cloud, on-premise en aan de rand (IoT) – biedt datafabric ‘gecontroleerde toegang’ tot beveiligde gegevens, wat verbeterde ML-processen mogelijk maakt. De leermogelijkheden van ML-modellen worden aanzienlijk verbeterd wanneer de juiste gegevens op het juiste moment aan hen worden toegevoerd.

Over het algemeen kunnen voor één use case een aantal modellen worden gebruikt. In een typisch scenario voor bedrijfsanalyses kan datafabriek de uitdagingen van gedistribueerde gegevensstapels en tijdrovende ML-processen effectief aanpakken.

Een andere interessante use case voor data fabric is ‘data in beweging’, die in rustmodus moet worden geraadpleegd en geanalyseerd. Succesvolle machine learning met een wereldwijde datafabric wijst erop dat door gegevens te beheren, te controleren en te distribueren naar datawetenschappers voor geavanceerde analyses, helpen datafabric-platforms hen zich te concentreren op de data-analysefase in plaats van tijd te verspillen aan datavoorbereiding.

Volgens KD Nugget:

“Reproduceerbaarheid is belangrijk voor datawetenschap en natuurlijk voor machine learning, dus we hebben een gemakkelijke manier nodig om geharmoniseerde gestructureerde en ongestructureerde data te hergebruiken door catalogi van datasets te beheren.”

De KDNugget-tutorial over data fabric voor ML leert hoe een graph-database en een semantische datalaag samen alle databronnen in een datafabric-omgeving ‘integreert en harmoniseert’.

Data Fabric Use Case voor Data Discovery

Gegevensdetectie is een zeer belangrijke laag van het bedrijfsanalyseproces, aangezien deze laag de toegang tot de juiste gegevens regelt. Wanneer bedrijven zowel datavirtualisatie- als datafabric-platforms samen gebruiken, behalen ze aanzienlijke voordelen in bedrijfsanalyses. De gegevensdetectielaag ontvouwt welke gegevens beschikbaar zijn voor gebruik, wat lijkt op de “laad” -functie van traditionele ETL-tools. Wat het datafabric-framework zo krachtig maakt, is de laatste datamanagementlaag, die door alle andere lagen loopt en de beveiliging, datagovernance en MDM beheert.

Afbeelding gebruikt onder licentie van Shutterstock.com