Gegevensarchitectuur en kunstmatige intelligentie: hoe werken ze samen?

data-architectuur

Kunstmatige intelligentie (AI) wint snel terrein als zakelijke kerncompetentie. Machine learning (ML) of diep leren (DL) -algoritmen beloven een revolutie teweeg te brengen in bedrijfsmodellen en -processen, personeelsbestand te herstructureren en data-infrastructuren te transformeren om de procesefficiëntie te verbeteren en de besluitvorming in de hele onderneming te verbeteren. Voorbij zijn de dagen van datasilo’s en handmatige algoritmen.

Er is echter een wijdverbreid geloof door te stellen dat de groei van AI in het verleden werd belemmerd, voornamelijk als gevolg van het niet beschikbaar zijn van grote datasets. Big data veranderde dat allemaal – waardoor bedrijven konden profiteren van grote hoeveelheden en snelle gegevens om AI-algoritmen te trainen voor verbeteringen van bedrijfsprocessen en verbeterde besluitvorming.

De weg naar AI leidt via informatiearchitectuur beschrijft hoe hybride GegevensbeheerData Governance en bedrijfsanalyses kunnen samen de besluitvorming binnen de onderneming transformeren. Volgens deze auteur kunnen deze drie kernbedrijfspraktijken organisaties van elke omvang in staat stellen “de kracht van AI in de onderneming te ontketenen”.

De rol van data-architectuur bij het ontketenen van de kracht van kunstmatige intelligentie

William McKnight, de president McKnight Consulting Group, heeft gezegd dat die “Informatiearchitectuur” een sleutelrol speelt bij het scheppen van orde in de voortdurende evolutie van opkomende datatechnologieën. McKnight bespreekt specifieke maatregelen die organisaties zouden moeten nemen om AI en streaming-datatechnologieën te omarmen, en de langetermijnimpact van de algemene verordening gegevensbescherming (AVG) over bedrijfsgegevensbeheerpraktijken. Hij erkent dat terwijl het streamen van gegevens de enige manier is om met de hoge snelheid van big data om te gaan, sterke maatregelen voor gegevensbeheer ervoor zorgen dat de AVG wordt nageleefd.

Onlangs heeft het overkoepelende veld van AI aan kracht gewonnen vanwege de innovatieve IT-oplossingen die mogelijk worden gemaakt door machine learning of deep learning-technologieën. De termen “intelligent” of “slim” die met een IT-systeem worden geassocieerd, verwijzen specifiek naar de ML- of Dl-mogelijkheden van dergelijke systemen.W.

Goed beheerd Data-architectuur en AI-technologieën zijn klaar om toekomstige innovaties in IT te stimuleren, die bedrijven betere kansen zullen bieden door technologische verstoringen. Deze trends geven echter ook aan dat de bedrijven zeer bekwame veldexperts op het gebied van Data Science nodig hebben, getraind in AI, voorspellende modellen, ML en DL, naast andere vaardigheden, om dit transformerende technische leiderschap te stimuleren.

EEN DATAVERSITEIT® webinar wijst erop dat alle kerntechnologieën voor gegevensbeheer, zoals kunstmatige intelligentie, machine learning of big data, een geluid vereisen Data-architectuur met gegevensopslag en best practices voor gegevensbeheer. Dit webinar bespreekt hoe de laatste Trends in gegevensarchitectuur ondersteuning van organisatiedoelen. De datatechnologie-expert van morgen zal verantwoordelijk zijn voor het implementeren en onderhouden van een datastrategie en zal naar verwachting de risico’s en de nieuwere winstkansen met evenveel finesse aanpakken.

Maar met welke data-infrastructuur kan dat gebeuren? Een goed gedefinieerd en gestructureerd Data-architectuur dat ruimte biedt aan big data, IoT en AI en tegelijkertijd voldoet aan alle toepasselijke GDPR-voorschriften.

Cloud: de huidige en toekomstige redder van Enterprise Analytics

Nu bedrijven steeds meer vertrouwen op data en analyses om te concurreren, begint Data Architecture een grotere rol in de onderneming te spelen. In het tijdperk van digitale bedrijven is de nieuwe norm voor data-architectuur een dynamisch en schaalbaar model waaraan tot op zekere hoogte wordt voldaan door de openbare cloud. De nieuwste analytische vereiste is om gegevens bij de bron te verwerken, waardoor op AI gebaseerde analyses over het datacenternetwerk tot aan de rand van de onderneming mogelijk zijn, zoals besproken in Hoe cloudgebaseerde gegevensarchitecturen te creëren

De directe voordelen van cloud-infrastructuur bij het beheer en de levering van datagestuurde, bruikbare informatie. De trend van analytics overal, die aan kracht wint, zal de verandering stimuleren van on-premise of gehoste analytics naar de edge computing tijdperk, waarin bedrijfsanalyses in realtime plaatsvinden en veel dichter bij de gegevensbron.

In het IoT-tijdperk kunnen bedrijven het zich niet veroorloven kostbare tijd en geld te verliezen bij het verzamelen en deponeren van de binnenkomende gegevens op een verre locatie. Analytics vindt plaats aan de rand van bedrijven, wat de volgende fase van cloud computing aangeeft. De cloud-eerst strategie is er al met steeds meer organisaties die de cloud adopteren. Dus, wat is de volgende stap voor analyse? Edge computing? Serverloos computergebruik?

Als data-architecturen robuust genoeg zijn, kunnen analyses ‘viraal’ gaan, zowel binnen als buiten de organisatie. In dat scenario kunnen zelfs citizen datawetenschappers optreden selfservice-analyse op het punt van gegevensopname.

Mensgerichte AI-systeemontwerpen: een wondermiddel?

Andrew Ng beveelt aan dat AI wordt aangenomen als een bedrijfsbrede besluitvormingsstrategie. Aangezien kunstmatige-intelligentietechnologieën nauwkeurige prognosetechnieken, verbeterd procesbeheer door automatisering en betere prestatiestatistieken voor de hele organisatie mogelijk maken, zullen bedrijven die ervoor kiezen AI te negeren, achterblijven. Machine learning, deep learning, mens-machine-interacties en autonome systemen kunnen samen resultaten opleveren die ongeëvenaard zijn door enig ander bedrijfssysteem.

Kunstmatige intelligentie voor gegevensgestuurde verstoring bespreekt de kracht van een “AI-aangedreven motor” om realtime inzichten te leveren voor managementbeslissingen. Met het steeds groter wordende volume, de verscheidenheid en de snelheid van bedrijfsgegevens, heeft elke zakelijke gebruiker, van de burger datawetenschapper tot de ervaren datastewards, snelle en tijdige toegang tot gegevens nodig.

De mensen leven in het tijdperk van slimme systemen en kunnen niet voorbijgaan aan het feit dat zelfs AI-algoritmen geen resultaten kunnen opleveren als ze niet correct worden geïmplementeerd of aangepast in de menselijke werkomgeving. De AI-algoritmen die tegenwoordig worden gebruikt, zijn vergelijkbaar met die van vele jaren geleden, maar de computers of processors zijn sneller en krachtiger geworden.

Hoewel algemeen wordt erkend dat geavanceerd kunstmatige intelligentie kunnen veel gewone menselijke taken automatiseren en kunnen in beperkte gevallen zelfs “denken”. AI-systemen hebben “rampsituaties” niet echt doorstaan ​​zoals in het geval van zelfrijdende auto’s of voorspellingen van natuurrampen. Dus hoewel AI-algoritmen uitgebreid kunnen worden getraind met het gebruik van gegevens om het menselijk denken tot op zekere hoogte na te bootsen, zijn AI-onderzoekers er nog steeds niet in geslaagd om de menselijk-cognitieve vaardigheden van een robot of een slimme machine vast te stellen.

Het meest fundamentele verschil is dat het menselijk brein kan reageren op originele situaties, terwijl het machinebrein alleen situaties uit de tweede hand kan aannemen die worden overgedragen via gegevens over menselijke ervaringen, zoals uitgelegd in Slimmer samen: waarom kunstmatige intelligentie mensgericht ontwerp nodig heeft.

Toekomstige algoritmen kunnen worden getraind om menselijk-cognitieve capaciteiten na te bootsen. Maar hoewel mensen fouten kunnen maken door overmoed, is machine-intelligentie strikt afhankelijk van een studie en toepassing van datagestuurde feiten. Zelfs een slecht algoritme kan het menselijk denken verbeteren, dus volgens de “wet van Kasparov” moet het proces worden verbeterd om de best mogelijke samenwerking tussen mens en machine mogelijk te maken.

De kunstmatige intelligentie-algoritmen van de toekomst moeten worden ontworpen vanuit een menselijk oogpunt, om de feitelijke zakelijke omgeving en informatiedoelstellingen van de besluitvormer te weerspiegelen. De AI software-ingenieur is de persoon in een Data Science-team die de cruciale rol speelt bij het overbruggen van de kloof tussen datawetenschappers en data architecten.

Architecturale vereisten van door machine learning aangedreven kunstmatige-intelligentiesystemen

Bij machine learning zijn data zowel de leraar als de trainer die het algoritme op een specifieke manier vormgeven zonder enige programmering. Datavoorbereiding voor ML-pipelines kan dus een uitdaging zijn als de data-architecturen niet voldoende verfijnd zijn om samen te werken met de onderliggende analyseplatforms.

Machine learning is het meest geschikt voor gegevens met grote volumes en hoge snelheden. De Data Architecture-laag in een end-to-end-analysesubsysteem moet het vereisten voor gegevensvoorbereiding om algoritmen voor machine learning te laten werken. Er moet een speciale ontwikkelingscyclus beschikbaar zijn die ML-leermodellen ondersteunt, en het ML-platform moet verschillende ML-frameworks ondersteunen voor aangepaste oplossingen van commerciële leveranciers. De openbare cloud is een geweldige opslag- en rekenomgeving voor ML-systemen, simpelweg vanwege zijn architecturale elasticiteit.

Een organisatie kan alleen profiteren van deze enorme hoeveelheid gegevens uit veel verschillende bronnen als er een degelijke gegevensarchitectuur (gegevens als ondernemingslaag) in de hele organisatie aanwezig is en als end-to-end AI-aangedreven analysesystemen zijn geïmplementeerd om geef alle soorten zakelijke gebruikers de mogelijkheid om just-in-time-analyses en BI-activiteiten uit te voeren.

De toekomst van AI en data-architectuur

In de komende jaren, naarmate informatie afgeleid van ‘data’ een bedrijfsmiddel wordt met een hoog omzetpotentieel, zullen organisaties meer gedisciplineerd worden in het genereren van inkomsten en het meten van de impact van data, net als de andere KPI’s.

Gartner stelt dat datacenters tegen 2021 AI-mogelijkheden zullen moeten integreren in hun architecturen. Maak ruimte voor AI-toepassingen in de datacenterarchitectuur voorspelt dat AI-toepassingen zullen in de nabije toekomst elke branche doordringen, dus het is logisch om kunstmatige intelligentie, machine learning en deep learning-praktijken toe te passen in de datacenters. Aangezien deze technologieën bestaande technologieën voor gegevensopslag zullen uitdagen, kunnen nieuwere en betere platforms zoals de edge of serverless het antwoord zijn.

Afbeelding tegoed: Shutterstock.com

follow:
admin

admin

Related Posts

Een korte geschiedenis van gegevensbeheer

Datamanagement is de organisatie van gegevens, de stappen die worden gebruikt om efficiëntie te bereiken en informatie uit die gegevens

Datakans klopt! Moet je antwoorden?

Klik voor meer informatie over auteur Kartik Patel. Als zakenmensen krijgen we vaak te maken met wat misschien een geweldige

Een korte geschiedenis van gegevensbeheer

Datamanagement is de organisatie van gegevens, de stappen die worden gebruikt om efficiëntie te bereiken en informatie uit die gegevens

Datakans klopt! Moet je antwoorden?

Klik voor meer informatie over auteur Kartik Patel. Als zakenmensen krijgen we vaak te maken met wat misschien een geweldige