Ion_Stoica_Ben_Lorica_600x448.jpg

Waar u op moet letten in een modelserver om op machine learning gebaseerde services te bouwen

Klik voor meer informatie over co-auteur Ion Stoica.

Klik voor meer informatie over co-auteur Ben Lorica.

Machine learning wordt ingebed in applicaties waarin veel gegevenstypen en gegevensbronnen zijn betrokken. Dit betekent dat softwareontwikkelaars met verschillende achtergronden moeten werken aan projecten waarbij ML betrokken is. In onze vorige posthebben we de belangrijkste functies opgesomd die machine learning-platforms nodig hebben om aan de huidige en toekomstige workloads te voldoen. We hebben ook MLOps beschreven, een reeks praktijken gericht op het produceren van de levenscyclus van machine learning.

Afbeeldingsbron: Anyscale

In dit bericht richten we ons op modelservers, software die de kern vormt van machine learning diensten die in realtime of offline werken. Er zijn twee veelgebruikte benaderingen voor het presenteren van machine learning-modellen. De eerste benadering integreert modelevaluatie in een webserver (bijvoorbeeld Flask) als een API-service-eindpunt dat is toegewijd aan een voorspellingsservice.

De tweede benadering verplaatst modelevaluatie naar een aparte dienst. Dit is een actief gebied voor startups en er zijn steeds meer opties die in deze categorie vallen. Het aanbod omvat services van cloudproviders (SageMaker, Azuur, Google Cloud), open source-projecten voor het bedienen van modellen (Ray Serve, Seldon, TorchServe, TensorFlow Serving, etc.), eigen software (SAS, Datatron, ModelOps, etc.), en op maat gemaakte oplossingen die meestal in een generiek raamwerk zijn geschreven.

Hoewel machine learning kan worden gebruikt voor eenmalige projecten, proberen de meeste ontwikkelaars machine learning te integreren in hun producten en services. Modelservers zijn belangrijke componenten van de software-infrastructuur voor het produceren van machine learning, en daarom moeten bedrijven hun opties zorgvuldig evalueren. Dit bericht richt zich op de belangrijkste functies waar bedrijven naar moeten zoeken in een modelserver.

Ondersteuning voor populaire toolkits

Uw modelserver staat waarschijnlijk los van uw modeltrainingssysteem. Kies een modelserver die een getraind modelartefact kan gebruiken dat is geproduceerd met behulp van een aantal populaire tools. Ontwikkelaars en machine learning-ingenieurs bouwen modellen met behulp van veel verschillende bibliotheken, waaronder die voor deep learning (PyTorch, TensorFlow), machine learning en statistieken (scikit-learn, XGBoost, SAS, statsmodels). Modelbouwers blijven ook verschillende programmeertalen gebruiken. Hoewel Python naar voren is gekomen als de dominante taal voor machine learning, hebben andere talen zoals R, Java, Scala, Julia en SAS nog steeds veel gebruikers. Meer recentelijk hebben veel bedrijven Data Science-werkbanken geïmplementeerd, zoals Databricks, Cloudera, Dataiku, Domino Data Lab en anderen.

Een GUI voor modelimplementatie en meer

Ontwikkelaars gebruiken misschien een opdrachtregelinterface, maar zakelijke gebruikers willen een grafische gebruikersinterface die hen door het proces van het implementeren van modellen leidt en de verschillende fasen van de levenscyclus van machine learning belicht. Naarmate de implementatieprocessen volwassen worden, kunnen ze meer migreren naar scripting en automatisering. Model servers met gebruikersinterfaces omvatten Seldon implementeren, SAS Model Manager, Datatron, en anderen die zich richten op zakelijke gebruikers.

Eenvoudig te bedienen en te implementeren, maar met hoge prestaties en schaalbaarheid

Nu machine learning wordt ingebed in kritieke applicaties, hebben bedrijven modelservers met lage latentie nodig die grootschalige voorspellingsservices kunnen aandrijven. Bedrijven zoals Facebook en Google hebben machine learning-services die realtime reacties bieden miljarden keren elke dag. Hoewel dit extreme gevallen kunnen zijn, implementeren veel bedrijven ook applicaties zoals aanbeveling en personalisatiesystemen die dagelijks met veel gebruikers communiceren. Met de beschikbaarheid van open source-software hebben bedrijven nu toegang tot modelservers met lage latentie die naar veel machines kunnen worden geschaald.

De meeste modelservers gebruiken een microservice-architectuur en zijn toegankelijk via een REST- of gRPC-API. Dit maakt het gemakkelijker om machine learning (“aanbevolen”) te integreren met andere services (“winkelwagentje”). Afhankelijk van uw configuratie wilt u misschien een modelserver waarmee u modellen kunt implementeren in de cloud, op locatie of beide. Uw modelserver moet deelnemen aan infrastructuurfuncties zoals automatisch schalen, resourcebeheer en hardware-inrichting.

Sommige modelservers hebben recente innovaties toegevoegd die de complexiteit verminderen, de prestaties verbeteren en flexibele opties bieden voor integratie met andere services. Met de introductie van een nieuw Tensor-gegevenstype ondersteunt RedisAI data lokaliteit – een functie waarmee gebruikers Tensors van hun favoriete client kunnen krijgen en instellen en ‘hun AI-model kunnen uitvoeren waar hun gegevens leven’. Ray Serve brengt modelevaluatielogica dichter bij bedrijfslogica door ontwikkelaars end-to-end controle te geven van API-eindpunt tot modelevaluatie en terug naar het API-eindpunt. Bovendien is het eenvoudig te bedienen en net zo eenvoudig in te zetten als een eenvoudige webserver.

Bevat tools voor testen, implementatie en uitrol

Zodra een model is getraind, moet het worden beoordeeld en getest voordat het wordt geïmplementeerd. Seldon Deploy, Datatron en andere modelservers hebben een aantal interessante mogelijkheden waarmee u modellen kunt testen met een enkele voorspelling of met een belastingtest. Om foutidentificatie en testen te vergemakkelijken, kunt u met deze modelservers ook testgegevens uploaden en testvoorspellingen visualiseren.

Nadat uw model is beoordeeld en getest, zou uw modelserver u de mogelijkheid moeten bieden om modellen veilig te promoten en te degraderen. Andere populaire uitrolpatronen zijn onder meer:

  • Kanarie: Een klein deel van de verzoeken wordt naar het nieuwe model gestuurd, terwijl het grootste deel van de verzoeken naar een bestaand model wordt gerouteerd.
  • Schaduwen: Productieverkeer wordt gekopieerd naar een niet-productieservice om het model te testen voordat het in productie wordt genomen.

Idealiter zijn uitroltools volledig automatiseerbaar, zodat uw implementatietools kunnen worden aangesloten op uw CI / CD- of MLOps-proces.

Ondersteuning voor complexe implementatiepatronen

Naarmate u meer gebruikmaakt van machine learning, moet uw modelserver in staat zijn om veel modellen in productie te ondersteunen. Uw modelserver moet ook complexe implementatiepatronen ondersteunen waarbij meer dan één model tegelijk moet worden geïmplementeerd. Het moet een verscheidenheid aan patronen ondersteunen, waaronder:

  • A / B-tests: Een fractie van de voorspellingen gebruikt één model en de rest gaat naar een ander model.
  • Ensembles: Meerdere modellen worden gecombineerd om een ​​krachtiger voorspellend model te vormen.
  • Cascade: Als een basismodel een voorspelling met weinig zekerheid oplevert, wordt het verkeer naar een alternatief model geleid. Een andere use case is verfijning: detecteer of er een auto op de foto staat en, als die er is, stuur de foto naar een model dat de kentekenplaat van de auto leest.
  • Multi-Arm Bandit: Een vorm van bekrachtigingsleren, bandieten verdelen verkeer over verschillende concurrerende modellen.

Out of the Box Metrics en Monitoring

Machine learning-modellen kunnen in de loop van de tijd achteruitgaan en het is belangrijk om systemen te hebben die aangeven wanneer modellen minder nauwkeurig worden of vooringenomenheid en ander onverwacht gedrag gaan vertonen. Uw modelserver moet prestaties, gebruik en andere aangepaste metrische gegevens uitzenden die kunnen worden gebruikt door visualisatie en realtime monitoringtools. Sommige modelservers beginnen geavanceerde mogelijkheden te bieden, waaronder anomaliedetectie en waarschuwingen. Er zijn zelfs startups (Superwijs, Arize) die zich richten op het gebruik van ‘machine learning om machine learning te monitoren’. Hoewel dit momenteel gespecialiseerde tools zijn die losstaan ​​van en moeten worden geïntegreerd met modelservers, is het vrij waarschijnlijk dat sommige modelservers geavanceerde monitoring- en observatiemogelijkheden in hun aanbod zullen inbouwen.

Integreert met Model Management Tools

Naarmate u meer modellen implementeert voor productie, moet uw modelserver worden geïntegreerd met uw modelbeheertools. Deze tools vallen onder vele labels – toegangscontrole, modelcatalogus, modelregistratie, dashboard voor modelbeheer – maar in wezen bieden ze u een 360-gradenoverzicht van eerdere en huidige modellen.

Omdat modellen periodiek moeten worden geïnspecteerd, moet uw modelserver worden gekoppeld aan services voor het controleren en reproduceren van modellen. Modelversiebeheer is nu standaard en wordt geleverd met de meeste modelservers die we hebben onderzocht. Datatron heeft een dashboard voor modelbeheer dat tools biedt voor het controleren van slecht presterende modellen. Veel modelservers hebben data lineage services die registreren wanneer verzoeken zijn verzonden en wat de invoer en uitvoer van het model waren. Debugging- en controlemodellen vereisen ook een verfijnd begrip van hun belangrijkste drijfveren. Seldon Deploy kan worden geïntegreerd met een open source tool voor modelinspectie en uitlegbaarheid.

Verenigt batch- en online scoren

Stel dat u uw model heeft bijgewerkt of dat u een groot aantal nieuwe records heeft ontvangen. In beide voorbeelden moet u uw model wellicht toepassen op een grote gegevensset. U hebt een modelserver nodig die grote datasets efficiënt kan scoren in mini-batches, en die ook een lage latentie biedt, online scoren (Ray Serve ondersteunt bijvoorbeeld batch- en online scoring).

Samenvatting

Nu machine learning in meer softwaretoepassingen wordt ingebed, moeten bedrijven hun modelservers zorgvuldig selecteren. Hoewel Ray Serve een relatief nieuwe open source modelserver is, heeft deze al veel van de functies die we in dit bericht hebben genoemd. Het is een schaalbare, eenvoudige en flexibele tool voor het implementeren, bedienen en bewaken van machine learning-modellen. Zoals we in ons vorige bericht hebben opgemerkt, geloven we dat Ray en Ray Serve in de toekomst de basis zullen zijn van veel ML-platforms.

pg_aiautomation_101320.jpg

Automatisering en AI: uitdagingen en kansen

Bedrijven over de hele wereld zijn gefascineerd door het idee van AI en automatisering, omdat deze geavanceerde technologie operationele efficiëntie, verbeterde processen en aanzienlijke kostenbesparingen belooft. AI en de aanverwante technologieën hebben echter ook voor onzekerheden, verwarring en twijfels gezorgd over het menselijk vermogen om deze magische systemen in daadwerkelijke zakelijke situaties aan te nemen, te implementeren en uit te voeren – simpelweg omdat de bedrijfsleiders en operators nog steeds allemaal mensen zijn.

Tegenwoordig wordt dat algemeen erkend automatisering en AI technologieën zullen de wereldwijde werkplek geleidelijk transformeren, waarbij intelligente machines in sommige gevallen menselijke taken uitvoeren en in andere gevallen de mens helpen. De aanwezigheid van robotmachines op de werkplek zal uiteindelijk de efficiëntie verhogen en de kosten verlagen. Als gevolg hiervan zullen veel menselijke beroepen verdwijnen, terwijl andere zich zullen aanpassen aan door technologie ondersteunde rollen.

EEN Verslag van de Europese Commissie over AI stelt dat de:

“De wereldwijde uitgaven voor robots zullen in 2020 188 miljard dollar bedragen, vergeleken met minder dan de helft van dat bedrag in 2016. Tegen 2025 zal de wereldwijde AI-markt naar verwachting groeien tot 59 miljard dollar, een aanzienlijke stijging ten opzichte van de 1,8 miljard dollar die in 2016 werd uitgegeven. . “

De Op weg naar Data Science artikel Kansen en uitdagingen op het gebied van kunstmatige intelligentie in bedrijven, stelt:

  • Accenture heeft bevestigd dat AI-technologie het potentieel heeft om de bedrijfsproductiviteit met wel 40 procent te verhogen
  • Het aantal AI-startups is tussen 2000 en 2019 14 keer gegroeid

Hoewel bedrijven een recente trend hebben laten zien om AI-ontwikkelaars in een razend tempo in te huren om aan hun interne automatiseringsbehoeften te voldoen, begrijpen maar weinigen de fundamentele uitdagingen die deze technologie met zich meebrengt. Als gevolg hiervan ontbreekt de “AI-comfortzone” nog steeds in zakelijke kringen van ondernemingen, en zijn exploitanten nog steeds twijfelachtig over de kostenvoordelen van AI.

De huidige status van automatisering: jaar 2020

Overal waar je vandaag kijkt, kom je geautomatiseerde machines of systemen tegen die worden aangedreven door krachtige computers, meerkanaals gegevens en zeer slimme algoritmen. De moderne samenleving worstelt met chatbots, pda’s, zelfrijdende voertuigen op wegen en geautomatiseerde kassa’s in supermarkten.

Van geautomatiseerde zorgassistenten tot sensorgestuurde apparaten, er is geen branche onaangetast door AI. Toepassingen voor kunstmatige intelligentie: een revolutie in gegevensbeheer bespreekt hoe geavanceerde geautomatiseerde technologieën transformeren gegevensbeheer.

EEN Forbes Raadspost over AI en bedrijfsautomatisering onthult het volgende:

  • Procesautomatisering met robots komt nu overeen met of overtreft de menselijke prestatieniveaus in alle bedrijfsprocessen.
  • Bedrijven moeten “vervelende, repetitieve taken aan RPA-bots” delegeren, zodat het menselijk brein zich kan concentreren op belangrijke uitdagingen.
  • Bedrijven moeten zich concentreren op het ontwikkelen van de juiste “cultuur” rond AI en implementaties van automatiseringstechnologie om grootschalige acceptatie te bevorderen.
  • Op dit moment is het opschalen van use-cases een probleem, dat mogelijk verband houdt met het ontbreken van de juiste technologische “cultuur”.
  • Een studie van Goldsmiths, University of London, meldde dat “72% van de 4.000 ondervraagde werknemers in Noord-Amerika, het Verenigd Koninkrijk, Japan en India” denkt dat AI en automatisering hun werkprestaties zullen verbeteren.

Impact van AI

De Gartner Hype Cycle voor kunstmatige intelligentie onthult hoe AI wereldwijde bedrijven beïnvloedt, aangezien nieuwere, aanverwante technologieën zoals augmented intelligence, edge AI en verklaarbare AI steeds naar boven komen. Augmented intelligence is een perfect voorbeeld van samenwerking tussen mens en machine (teamwerk) die ‘cognitieve prestaties’ ondersteunt.

Hoewel Gegevensbeheer is nog steeds een punt van zorg bij de meeste ondernemers, het is algemeen aanvaard dat augmented intelligence het menselijk besluitvormingsproces kan nabootsen. Deze trend heeft geleid tot een hele nieuwe stroom intelligente oplossingen, met ingebouwde algoritmen om menselijke activiteiten te repliceren of te vervangen via datagestuurde inzichten.

De plotselinge groei van de algoritme-economie heeft een impuls gegeven aan complementaire bedrijfsmodellen zoals ‘AI-platform as a service’ of ‘AI Cloud-services’. Tegenwoordig is de meest levensvatbare commerciële prospect “embedded AI” in bedrijfssystemen zoals ERM of CRM.

Toekomst van AI en de uitdagingen citeert Gartner Director Analyst Peter Krensky:

“Slechts 40 procent van de toppresteerders ziet kunstmatige intelligentie als een gamechanger. Er is dus veel groen binnen veel verschillende soorten organisaties, zelfs hele industrieën die gewoon hun tenen onderdompelen in wat mogelijk is met machine learning. “

Het artikel parafraseert Krensky en zegt dat hij gelooft dat de meeste organisaties enorme investeringen doen in plaats van te kiezen voor “goedkopere alternatieven zoals vooraf getrainde modellen en cloudinfrastructuur, terwijl de resultaten vergelijkbaar zouden zijn”. De AI-voordelen worden dus niet volledig gerealiseerd door dure implementaties.

Ten tweede is de uitdaging voor het ontwikkelen van vaardigheden waarschijnlijk de meest formidabele belemmering voor de grootschalige acceptatie van AI in ondernemingen. In veel gevallen worden interne AI- of ML-projecten aangestuurd door data-ingenieurs terwijl in werkelijkheid diverse vaardigheden zoals data science, ML en domeinexpertise even cruciaal zijn voor het succes van een project.

Gartner’s observaties gerapporteerd in de AI Hype Cycle kunnen worden samengevat als:

  • Organisaties moeten goedkopere alternatieven vinden voor dure, interne AI-opstellingen om de volledige voordelen van procesverbeteringen, prestatie-efficiëntie en kostenbesparingen te realiseren.
  • De AI- of ML-projectteams zouden beter afgerond moeten zijn met een verscheidenheid aan talenten in plaats van Data Engineers die de show leiden.

Bedrijfsautomatisering in 2020: voorspellingen van Gartner en Forrester

Deze Analytics Insights-artikel bekijkt voorspellingen van Gartner en Forrester over de status van bedrijfsautomatisering in 2020 uit drie rapporten: Voorspellingen 2020: automatisering door Forrester; Pas op voor de automatiseringsparadox door Forrester; en 2020 technologietrends door Gartner.

Hier is een overzicht van enkele van de belangrijkste voorspellingen:

  • Volgens Forrester zullen in 2020 waarschijnlijk meer dan een “miljoen kenniswerkbanen” worden vervangen door robots, geautomatiseerde systemen, virtuele agenten en chatbots.
  • Forrester stelt ook dat “automatisering in ongetrainde handen” gevaarlijk kan zijn
  • Een andere belangrijke observatie van Forrester is dat 80 procent van de ondernemingen wordt bedreigd door het vooruitzicht van hyperautomatisering
  • Volgens Gartner zullen fysieke apparaten in combinatie met AI-technologie (autonome dingen) in 2020 menselijke functies vervangen
  • Zowel Forrester als Gartner melden dat AI en automatisering nieuwe banen zullen creëren. Het Europees Centrum voor de ontwikkeling van beroepsopleiding (CEDEFOP) voorspelt dat “tussen 2016 en 2030 er meer dan 151 miljoen vacatures zullen zijn, waarvan 91% wordt gecreëerd door vervangingsbehoeften en de resterende 9% door nieuwe vacatures.”

Forbes, aan de andere kant, maakt zijn mening vrij duidelijk in Kunstmatige intelligentie: belangrijke uitdagingen en kansen. Volgens Forbes zijn hier de belangrijkste uitdagingen rond de implementatie van AI-oplossingen:

  • Gegevensprivacykwesties en Algemene Verordening Gegevensprivacy (AVG) en de daarvan afgeleide regelgeving
  • Beperkingen van “rechtvaardigingen” in geautomatiseerde beslissingen, en de rol van verklaarbare AI is het bestrijden van die beperking
  • AI van de volgende generatie, zoals transfer learning, actief leren, semi-begeleid leren, enzovoort

Grootste kansen en uitdagingen van AI

Volgens Elon Musk van Tesla, een futuroloog en visionair, “zullen robots en AI alles beter kunnen doen dan wij, waardoor het grootste risico ontstaat waarmee we als beschaving worden geconfronteerd.” Hier zijn de grootste kansen waar zelfs de meest sceptische mens van kan dromen:

  • AI-technologie zal de afnemende groei van de arbeidsproductiviteit omkeren
  • AI-automatisering als zakelijke oplossingen die helpen, maar niet indringen of controleren
  • AI-automatisering zorgt voor ‘ethische’ beslissingen. Mogelijk? Misschien met verklaarbare AI
  • AI-systemen vervangen mensen bij routinetaken
  • AI-systemen die de menselijke efficiëntie verbeteren bij de taken van mens-machine-teams

En hier zijn de grootste uitdagingen waarmee internationale bedrijven worden geconfronteerd:

  • De acceptatiegraad van AI-technologie is ongelijk tussen landen en sectoren. Sommige landen, zoals de VS en het VK, en specifieke sectoren zoals BFSI en de automobielsector lopen ver voor op andere wat betreft de acceptatie en implementatie van technologie.
  • Zal AI echt kosteneffectief zijn voor grote bedrijven met interne AI-ontwikkelingsopstellingen?
  • Juiste trainingsfaciliteiten voor AI. De auteur van Robot en ik: toekomst van het personeelsbestand legt uit waarom AI-trainingsinspanningen moeten worden verbeterd.
  • Beschikken ondernemingen met hoge ambities over het nodige bekwame personeel voor de ontwikkeling van AI-oplossingen?
  • Worden toekomstige AI-vooruitzichten meer een bedreiging dan een opluchting voor bedrijfsleiders en operators?
  • Hoe beïnvloeden privacywetten zoals GDPR en CCPA de implementatie van AI-systemen en technologie-implementatie in werkelijke bedrijfsscenario’s?
  • Taalproblemen bij interactie tussen mens en machine. Kunnen bots omgangstaal interpreteren?
  • Gendervooroordelen in AI-beroepen overwinnen.

Slotopmerkingen

De McKinsey-rapport AI, automatisering en de toekomst van werk: tien dingen om op te lossen stelt dat de meest opvallende verandering in toekomstige bedrijven zal zijn “menselijke arbeiders die naast machines op de werkplek werken”. Het grootste culturele voordeel waarop je kunt hopen van wijdverbreide AI en automatisering is de nauwe integratie van AI, robotica en automatisering, waardoor een platte, samenwerkende organisatiestructuur ontstaat in tegenstelling tot ‘traditionele top-down hiërarchische structuren’.

Afbeelding gebruikt onder licentie van Shutterstock.com

Ashok_Sharma_600x448.png

Hoe AI de sociale zichtbaarheid revolutioneert

Klik voor meer informatie over auteur Ashok Sharma.

Kunstmatige intelligentie heeft de kracht om de sociale zichtbaarheid van merken radicaal te veranderen en plaats te maken voor een zeer inclusieve benadering van online marketing. Tegenwoordig gaan de kracht van digitale marketing en kunstmatige intelligentie hand in hand.

Kunstmatige intelligentie (AI) in digitale marketing is nuttig om gegevens van alle aspecten te verzamelen, deze te analyseren, te vereenvoudigen en vervolgens gemakkelijk inzicht te krijgen in de behoeften en voorkeuren van een consument.

De voorspellende beoordeling van sociale platforms zal naar verwachting groeien tot meer dan $ 2,1 miljard in waarde in het jaar 2023. Vandaar dat de markt van voorspellende gegevens, die gebruik maakt van de diepgaande leermethoden van AI, in opkomst is.

AI-technologie helpt marketeers om nauwkeuriger inzichten te krijgen en om consumentenervaringen op maat te leveren. Ontwikkeling met AI heeft bedrijven geholpen om te gaan met klantinteracties en analyses. Dit is de reden waarom AI-technologie alle mogelijkheden heeft om digitale marketingstrategieën te verbeteren.

Waarom organisaties AI-technologie waarderen om de maatschappelijke zichtbaarheid te verbeteren:

  • Meer dan 84 procent van de organisaties of bedrijven gelooft dat AI hen zal helpen een concurrentievoordeel te behalen ten opzichte van hun rivalen. 75 procent van de bedrijven gelooft dat AI-technologie uitbreiding en nieuwe zakelijke vooruitzichten mogelijk maakt.
  • Meer dan 69 procent van de gevestigde concurrenten zal binnenkort AI-technologie gebruiken.
  • Meer dan 63 procent van de mensen gelooft dat de druk om AI te gebruiken de totale kosten zal verlagen.
  • 59 procent van de klanten vraagt ​​om AI-gestuurde aanbiedingen, waardoor dit de meest populaire keuze in technologie is.
  • AI is in vele vormen aangepast, de meest voorkomende zijn chatbots. Als je op een website klantondersteuning zoekt, stuurt de chatbot je bericht automatisch door naar de betreffende afdeling.

Zelfs smartphones en andere gadgets hebben veel functies die worden aangedreven door AI. Het GPS-aangedreven navigatiesysteem is zo’n voorbeeld. De entertainment-apps op smartphones, zoals Amazon Prime en Netflix, maken voor veel aanbevelingen volledig gebruik van de mogelijkheden van AI.

Machine learning is een belangrijke subset van AI die de sociale zichtbaarheid verbetert. Door de integratie van machine learning kunnen machines intelligente, nauwkeurige en futuristische voorspellingen doen op basis van verschillende gegevensniveaus. Dit helpt bij het verhogen van het prestatieniveau, het verbeteren in de loop van de tijd en helpt digitale marketeers hun doelgroep en zakelijke niche te begrijpen.

Prestatie-inzichten: AI

Veel AI-tools kunnen digitale marketeers helpen bij het volgen en traceren van de prestaties van elke beslissing die ze nemen met behulp van een socialemediaplatform. Advertentiecampagnes en gebruikersbetrokkenheid kunnen worden geanalyseerd met behulp van AI-prestatiestatistieken.

Meer dan 51 procent van de mensen geeft de voorkeur aan een berichtentoepassing of chattoepassing en 49 procent van de mensen geeft de voorkeur aan een normaal telefoongesprek.

De meeste sociale mediaplatforms maken gebruik van het gebruik van AI- en machine learning-tools om het juiste publiek te bedienen. Facebook gebruikt een AI-tool om zijn advertenties te focussen. Het biedt adverteerders talloze opties om het publiek te beperken en relevante mensen te bedienen.

Facebook geeft advertenties weer op basis van de voorkeur van het publiek. Social media platforms gebruiken niet alleen AI om houd gebruikers betrokken maar ook voor aanbevelingen en inzichten.

AI matchen met Data Science voor sociale media

Facebook is het meest populaire sociale mediaplatform dat er op de juiste manier gebruik van maakt Data Science technologie. Het maakt gebruik van geavanceerde gezichtsherkenningstechnologie binnen zijn AI-raamwerk. De herkenningstool die door Facebook wordt gebruikt, kan mensen tag-suggesties geven en vrienden op foto’s identificeren. Deze technologie biedt adverteerders ook de mogelijkheid om gezichtsherkenning te gebruiken in verschillende advertentiecampagnes.

Selectieve advertentiecampagnes met AI-technologie en Data Science ontwikkelen zich in een sneller tempo. AI-technologie en -tools helpen niet alleen om de kooppatronen van consumenten te beoordelen, maar voldoen ook aan verschillende online platforms om de sociale aanwezigheid te vergroten.

Overigens maakt Instagram ook gebruik van AI om inhoud aan te passen voor het tabblad verkennen voor elke gebruiker. Elke Instagram-gebruiker krijgt dus aanbevelingen en samengestelde inhoud op basis van gegevens die zijn verzameld uit vroeger en nu gebruik. U kunt zelfs slimme technologie gebruiken zoals Sociale tradia, wat helpt bij het kopen en verkopen van Instagram-accounts, zodat mensen echte volgers krijgen die in realtime met hun inhoud omgaan.

AI-technologie met UX

AI heeft een behoorlijke impact gehad op de gebruikerservaring. De meeste digitale marketeers beschouwen AI als de belangrijkste trend om de gebruikerservaring te beïnvloeden. Het is de beste technologie voor socialemediamarketeers om ongeëvenaarde toegang te krijgen tot een beter begrip van de voorkeuren van de consument. AI-integratie kan digitale marketeers helpen hypergerichte advertentiecampagnes te maken die direct een beroep kunnen doen op de interesses van gerichte gebruikers.

Verschillende AI-tools kunnen helpen om te bepalen welke pagina’s de gebruikers bekijken vanaf verschillende sociale medianetwerken. Dit stelt de digitale marketeers of website-eigenaren vervolgens in staat zich te concentreren op platforms met het hoogste bereik. AI-integratie kan ook helpen om boeiende en aansprekende inhoud effectiever te maken.

3 manieren waarop AI digitale marketing heeft veranderd

1. Voorspellend consumentengedrag

AI kan gedrag voorspellen voor nieuwe gebruikers en klanten. Het houdt ook rekening met de klantervaring op basis van gedrag uit het verleden. AI-technologie kan worden geïntegreerd met datamanagementplatforms (DMP’s) en kan gegevens van tweede en derde partijen verzamelen.

AI-tools kunnen alle informatie over uw gebruikers op elk platform verzamelen en niet alleen op basis van een enkele sitesessie. Dit helpt om de behoeften van de gebruikers te personaliseren op basis van hun profielen en hun browse-patronen. Het stelt digitale marketeers in staat om potentiële leads te targeten, waardoor de marketeer zich kan concentreren op het uitvoeren en formuleren van verschillende marketingstrategieën.

AI-tools en -technologie analyseren, interpreteren en verzamelen voortdurend gegevens om te leren hoe ze deze op slimmere manieren kunnen gebruiken. Met de nieuwe updates en algoritmen die zijn gemaakt op sociale mediaplatforms, wordt de nauwkeurigheid van consumenteninzichten nog efficiënter.

AI-technologie helpt ook om de verkoopprognoses samen met de ROI te bepalen. Het richt zich op de juiste digitale marketingtools die helpen om uw sociale zichtbaarheid te vergroten.

Integratie met AI-technologie helpt digitale marketeers tijd te besparen en zich te concentreren op andere vruchtbare marketingcampagnes. Het richten op de juiste doelgroep speelt een belangrijke rol in marketing. AI helpt om de juiste basis te bereiken en helpt ook bij het formuleren van strategieën op basis van zoekmachineoptimalisatie.

2. Geweldige klantenservice

De functie voor klantenondersteuning is het belangrijkste kenmerk van elk bedrijf. Het zorgt ervoor dat een bepaald merk positief opvalt. Klanten willen altijd een onmiddellijke reactie en een snelle oplossing voor hun problemen.

AI heeft online klantenondersteuning getransformeerd met de introductie van chatbots. Chatbots zijn geautomatiseerde AI-reactietools die klanten de indruk geven dat ze met echte mensen praten. Chatbots zijn een menselijke manier om met potentiële klanten te praten. Ze maken normaal gesproken gebruik van de FAQ’s of Knowledge Base-systemen om klanten te helpen met eenvoudige problemen of vragen.

Het grote voordeel van chatbots is dat ze 24/7 beschikbaar zijn voor uw klanten. Dit vermindert de werkelijke wachttijd voor de meeste klanten die problemen ondervinden. Chatbots-integratie helpt de klanttevredenheid te vergroten.

AI moet goed worden geïmplementeerd in uw digitale marketingstrategie. Door dit te doen, creëer je een verbeterde ervaring voor al je oude en nieuwe klanten. Het helpt digitale marketeers om een ​​beter inzicht te krijgen in de voorkeuren van de doelgroep, zodat ze marketingstrategieën kunnen aanpassen op basis van de inzichten. AI biedt volledige klantenondersteuning die resultaten oplevert.

3. Verbeterde marketingstrategie

Als een digitale marketeer niet de juiste marketingstrategie creëert, zal het ook niet de juiste klantervaring creëren. Wanneer u inhoud maakt die relevant is voor klanten, creëert u een nogal persoonlijke ervaring. Hiermee creëer je de mogelijkheid dat een klant weer terugkomt.

Het zorgt ook voor merkloyaliteit. Wanneer digitale marketeers integreren met AI, vergroot dit de mogelijkheid om zich te concentreren op klantgegevens. Met behulp van gebruikersdata kan de marketeer op basis van locatie en voorkeur bepalen welke content relevant is. Het helpt ook om bij te houden op basis van websitebezoeken.

Dit type strategie werkt niet alleen voor online retail, maar ook voor sociale platforms. AI-integratie met e-commerce helpt om de algehele winkelervaring van een klant aan te passen.

De meeste online websites maken gebruik van algoritmen uit het verleden om producten aan klanten aan te bevelen. Wanneer u online winkelt en de lijst met aanbevolen producten ziet, is het eigenlijk het gebruik van AI dat in het spel komt.

Het algoritme houdt rekening met de winkelgeschiedenis, items in de winkelwagen en eerder gekochte items van de website. De klant wil misschien een product kopen op basis van deze aanbevelingslijst.

AI-oplossingen en sociale zichtbaarheid

AI-tools kunnen verschillende sociale platforms met elkaar verbinden. De mix van Data Science die wordt aangedreven door AI op verschillende sociale media-accounts, helpt om het publiek te categoriseren op basis van demografie en interesses.

Dit helpt vervolgens om over te brengen naar het campagnemateriaal. AI biedt digitale marketeers de juiste mogelijkheid om sociale mediamarkten te penetreren.

Zowel consumenten als marketeers kunnen profiteren van de hypergepersonaliseerde marketingcampagnes die gebruikmaken van AI-tools. AI maakt de juiste weg vrij voor campagne met toenemende maatschappelijke zichtbaarheid.

Wat voor ons ligt

Met steeds veranderende en nieuwe opkomende trends hebben AI en Data Science-technologie de weg geëffend voor geweldige zakelijke kansen. Zowel marketeers als consumenten profiteren van AI-technologie omdat het het sociale bereik vergroot.

Voor digitale marketeers wordt het gemakkelijk om gegevens te analyseren op basis van voorkeuren en nieuwe strategieën te ontwikkelen. Daarnaast biedt het voor consumenten maatwerk. AI heeft de sociale zichtbaarheid van merken getransformeerd en de toekomst ziet er ook rooskleurig uit.

kf_bcanddatasec_100620.jpg

Kruispunten voor blockchain en gegevensbeveiliging

Blockchain vertegenwoordigt een lijst met records, ook wel “blokken” genoemd, die door middel van cryptografie met elkaar zijn verbonden. Elk individueel blok bevat een cryptografische hash van het vorige blok, evenals een tijdstempel en transactiegegevens. Het lijkt een ideale oplossing voor organisaties die enorme hoeveelheden gegevens veilig willen opslaan. Blockchain is in 2008 gemaakt door een persoon (of personen) die de alias “Satoshi Nakamoto” gebruikt.

De data zijn transparant voor de juiste partijen, wat handig is in een aantal zakelijke situaties. Hoewel ze veilig zijn, worden gegevens in een blockchain niet noodzakelijk als ‘privé’ beschouwd.

Blockchain kan worden omschreven als een open communicatie die transacties tussen mensen en organisaties op een verifieerbare en efficiënte manier kan vastleggen en de integriteit ervan behoudt.

Wanneer blockchain wordt gebruikt als een gedistribueerd grootboek, wordt het normaal gesproken beheerd met een netwerk dat collectief voldoet aan gevestigde protocollen. Eenmaal geregistreerd, kunnen de gegevens van een individueel blok niet met terugwerkende kracht worden gewijzigd, tenzij alle volgende blokken worden gewijzigd. Dit proces vereist de goedkeuring van de meerderheid van het netwerk. Hoewel blockchain-records kunnen worden gewijzigd, worden ze nog steeds als veilig beschouwd vanwege het gedecentraliseerde consensusgoedkeuringsproces.

Blockchain biedt een zeer redelijk alternatief voor de cloud- en gegevensopslagbedrijven. Gegevens die in een blockchain zijn opgeslagen, blijven puur en ongewijzigd. Dataveiligheid wordt als vrij belangrijk beschouwd in de zakenwereld. Voor veel organisaties hebben data en de integriteit ervan een hoge prioriteit gekregen.

Versleuteling en validatie

Een blockchain-platform versleutelt zijn gegevens, wat betekent dat het moeilijk te lezen is (zonder het juiste algoritme) of aan te passen. Het kan ook cryptografische handtekeningen van documenten of bestanden opslaan. Dit biedt een manier om ervoor te zorgen dat er niet met een bestand is geknoeid. Handtekeningen van bestanden kunnen altijd worden gecontroleerd en geverifieerd. Wanneer een bestand wordt onderzocht, kan erop worden vertrouwd dat het dezelfde versie is die op een eerder tijdstip bestond. Als het bestand wordt gewijzigd, wordt de handtekening ongeldig.

De blockchain-structuur biedt een betrouwbaar, onafhankelijk gegevensverificatiesysteem. Bij gebrek aan een centrale autoriteit is vertrouwen in de blockchain-structuur opgebouwd door het gebruik van gedecentraliseerde consensus en cryptografie.

Cryptografie omvat het gebruik van cryptografische algoritmen. Over het algemeen wordt cryptografie gebruikt om gegevens te versleutelen of te coderen, zodat hackers het bericht niet kunnen ontcijferen. Het bevordert vertrouwelijke tweerichtingscommunicatie, waarbij elke partij toegang heeft tot het bericht, terwijl niemand anders dat kan. De basiscomponenten van cryptografie zijn:

  • Een bericht of payload (ook wel platte tekst genoemd) – De gegevens of payload in het versleutelde bericht.
  • Het coderings- / decoderingsalgoritme – Een algoritmepaar dat wordt gebruikt om de berichten in platte tekst en gecodeerde tekst te vertalen.
  • Cipher (ook wel cijfertekst genoemd) – De uitvoer van de coderingsfunctie of het gecodeerde bericht dat wordt verzonden tussen de afzender en de ontvanger.

Gegevensbeveiliging door middel van decentralisatie

Blockchain is gedecentraliseerd van aard en is niet afhankelijk van één centraal controlepunt. Blockchain vertegenwoordigt een digitaal grootboek van transacties en elke computer binnen het systeem heeft een kopie van de gegevens.

Het ontbreken van één enkele autoriteit maakt de gegevens aanzienlijk veiliger. In plaats van afhankelijk te zijn van één centrale autoriteit om veilige transacties te bieden, gebruikt blockchain een innovatief consensusproces, met protocollen die werken in netwerken van knooppunten. Dit consensusproces valideert transacties en registreert gegevens op een manier die normaal gesproken onomkoopbaar is.

Blockchain, als grootboek van gegevens, concentreert zich op het belang van informatie-integriteit. De gegevens die worden opgeslagen, moeten eerlijk en nauwkeurig zijn. Omdat de gegevens op meerdere computers worden opgeslagen, zijn ze veilig, zelfs als een computer of twee defect raken.

Verslagen van Transparantie Marktonderzoek voorspellen dat de wereldwijde blockchain-markt in 2025 $ 20 miljard waard zal zijn. Mensen zijn wijselijk voorzichtig met het openbaar maken van hun privégegevens, uit angst dat criminelen deze zullen veranderen of stelen in de hoop er profijt van te hebben. Het is niet verrassend dat mensen hun gegevens veilig en met een fraudebestendig platform willen delen. Blockchain helpt bij het bieden van dat veilige platform en heeft een groot potentieel om kosten en verbetering van de veiligheid. Hoewel er voordelen zijn, mogen de zwakke punten van blockchains niet over het hoofd worden gezien.

Blockchain is gehackt

De eerste blockchain-hack vond online plaats in juni 2011 en er werd $ 50.000 gestolen. Dit is een van de bekendste blockchain-hacks. Eerst slaagde de cybercrimineel erin om de inloggegevens van de auditor te bemachtigen en gebruikte deze vervolgens om toegang te krijgen tot het systeem. De hacker converteerde vervolgens één BTC naar één cent. Daarna verzamelde de hacker 2609 BTC van verschillende klanten, die hun BTC verkochten voor deze extreem lage, tijdelijke prijs.

Een ander voorbeeld van het hacken van blockchain is een diefstal op 6 december 2017. Tachtig miljoen dollar (4700 BTC) werd gestolen. Het Sloveense uitwisselingsplatform, NiceHash genaamd, werd gehackt en de CEO kondigde het aan op Facebook Live. Het is bekend dat een van de computers van hun staf is gecompromitteerd en dat ze alle transacties 24 uur hebben opgeschort. Hierdoor konden ze de situatie analyseren en een plan ontwikkelen om te voorkomen dat het opnieuw gebeurt.

Helaas, hoe gecompliceerder het systeem van een blockchain is, hoe groter de kans dat er fouten worden gemaakt bij het opzetten ervan, waardoor er per ongeluk een opening voor hackers overblijft. In februari 2019 kondigde het bedrijf dat de leiding had over Zcash (cryptocurrency die ingewikkelde wiskundige coderingen gebruikt voor transactieprivacy) aan dat ze in het geheim een ​​”subtiele cryptografische fout” hadden gerepareerd die per ongeluk in de protocollen was ingebouwd. Een hacker had deze zwakte kunnen misbruiken om onbeperkt vervalste Zcash te creëren. Gelukkig hebben ze het opgelost voordat dat gebeurde.

Bekijk de 51% aanval. De 51% -aanval is een verwijzing naar een blockchain-aanval door een aantal miners die meer dan 50% van de rekenkracht van het netwerk beheersen. Dit type aanval is zeldzaam en is meestal gericht op kleinere blockchains, met minder rekenkracht.

Blockchain-hackers verslaan

Protocollen moeten veilig zijn. Een protocol bestaat uit de regels en richtlijnen die worden gebruikt om een ​​bepaald doel te bereiken en wordt beschouwd als de softwarebackbone voor blockchainsystemen. Er worden verschillende protocollen gemaakt om verschillende doelen en doelstellingen te bereiken. Slecht ontworpen blockchain-protocollen zijn vaak het doelwit van hackers.

Over het algemeen hebben hackers de blockchains echter niet zelf aangevallen, maar zijn ze achter beurzen aan gegaan – websites waar cryptocurrencies kunnen worden gekocht, verkocht, verhandeld en vastgehouden. Veel van deze diefstallen zijn te wijten aan slechte beveiligingspraktijken.

Sommige bedrijven, zoals die van Tsankov ChainSecurity, werken aan de ontwikkeling van auditservices met behulp van een gevestigde techniek genaamd formele verificatie. Hun doel is om wiskundig te bewijzen dat de code van een contract doet wat hij moet doen. Auditingtools zijn de afgelopen jaren in opkomst en hebben slimme contractmakers geholpen om veel van de zwakke punten in blockchainsystemen te elimineren.

Philip Daian van Cornell’s Initiatief voor cryptocurrencies en contracten stelt voor om slimme contracten te gebruiken om een ​​op blockchain gebaseerde “bug bounty” te organiseren. Dit zou gebruikers aanmoedigen om gebreken en zwakheden te melden in ruil voor een beloning.

Er zijn een aantal stappen die intern kunnen worden ondernomen om de blockchain-beveiliging te verbeteren. Ze bevatten:

  • Waakzaamheid: Herhaalde wachtwoorden of inloggen vanaf buitenlandse apparaten moeten worden vermeden.
  • Consensus-algoritmen: Het blockchain-systeem moet anti-hacking gebruiken consensus-algoritmen.
  • Up-to-date beveiligingsprotocollen: Beveiligingsprotocollen moeten zo snel mogelijk worden bijgewerkt. Het helpt ervoor te zorgen dat er geen zwakke punten in de software zijn.
  • Uitgebreide tests: Slimme contractcodes moeten regelmatig – en vaak – worden getest om mazen in de wet te vinden. Er zijn duizenden real-time tests nodig om erachter te komen of het systeem bugs bevat.
  • Auditing: Er zijn controleprocessen beschikbaar die codes van blockchain-protocollen testen. Dit moet worden gedaan “voor het starten” en daarna. Met dit proces kan gemakkelijk een valse of slechte code worden gedetecteerd. Bovendien zou het installeren van een AI in de mix om audits uit te voeren een zeer serieuze beveiliging bieden.
  • Privésleutels: Privésleutels moeten privé worden gehouden. Ze mogen met niemand worden gedeeld. Bewaar de privésleutel op een veilige plaats.
  • Toezicht houden: Blockchain-platforms moeten monitoringopties gebruiken om abnormale activiteiten snel en efficiënt te detecteren.
  • Gebruikersrapporten: Gebruikers van het netwerk wordt gevraagd om eventuele bugs in het systeem te melden wanneer ze deze detecteren.

Kunstmatige intelligentie is ook een optie om de blockchain-beveiliging te verbeteren. AnChain.ai is een recente startup die is gemaakt om hackdreigingen tegen blockchainsystemen aan te pakken. Het gebruikt AI om transacties te volgen tijdens het scannen op verdachte activiteiten.

Blockchain
Basisproblemen en oplossingen

Cryptocurrency identificeert de valuta zelf, maar identificeert niet de eigenaar ervan. Degene die controle heeft over de persoonlijke coderingssleutel van de munt, heeft controle over de valuta. Wanneer cryptocurrency wordt gestolen, is er geen manier om deze terug te krijgen. Een manier om dit te voorkomen, is door de privécoderingssleutels veilig op te slaan met een “FIPS”Gevalideerd wortel van vertrouwen.

Slimme contracten een overeenkomst beschrijven die zichzelf kan uitvoeren en de voorwaarden van het contract kan afdwingen. Als de blockchain echter wordt gehackt, kan het slimme contract worden gewijzigd. Hierdoor wordt het vertrouwen in blockchain verbroken en doen de twee partijen geen zaken meer met het blockchain-systeem. Mogelijk moet de hele transactie worden geschrapt of moet er opnieuw worden onderhandeld.

Om dit probleem te voorkomen, voert u zelf de contractvoorwaarden uit met anonieme partijen met behulp van sterke authenticatie en door de privésleutels op te slaan in een “Hardware” wortel van vertrouwen. Dit zorgt ervoor dat de juiste partijen correct worden geïdentificeerd.

Het Internet of Things (IoT) heeft beperkingen die worden toegepast door een vertrouwensmodel van de centrale autoriteit, wat het IoT kwetsbaar maakt. Botnets in Mirai-stijl stond hackers toe om in april 2018 duizenden IoT-apparaten over te nemen. De IoT-apparaten werden alleen beschermd met standaardwachtwoorden, waardoor de hackers DDoS-aanvallen (Distributed Denial of Service) konden initiëren.

Dit kan worden voorkomen door het gedistribueerde consensusmodel van blockchain op te nemen. Door het single-point-of-failure te verwijderen, kunnen de knooppunten binnen een bepaald netwerk back-up bieden en kunnen knooppunten die zich vreemd gaan gedragen, in quarantaine worden geplaatst.

Afbeelding gebruikt onder licentie van Shutterstock.com

paul-barba_300x224.png

Zijn we een investering van $ 1 miljard verwijderd van algemene AI?

Klik voor meer informatie over auteur Paul Barba.

Zoals bijna iedereen die AI volgt weet, heeft het R & D-bedrijf OpenAI onlangs een paper uitgebracht over GPT-3, zijn derde generatie taalmodel dat, met 175 miljard parameters, de roem heeft dat het ongeveer een orde van grootte groter is dan enig ander taalmodel dat eraan voorafging.

GPT-3 is momenteel beschikbaar in privé-bèta voor geselecteerde ontwikkelaars aangetoond dat het kan genereer alles, van geloofwaardige korte verhalen, rapnummers en persberichten tot HTML-code voor het maken van webpagina-indelingen, allemaal met minimale invoer of prompts. Dit is een heel groot probleem.

Tot nu toe omvatten de meest geavanceerde taalmodellen Google’s BERT, Microsoft’s Turing Natural Language Generation en GPT-3’s voorganger GPT-2, die dingen kan doen zoals het op een natuurlijk klinkende manier voltooien van zinnen, korte antwoorden op e-mailberichten voorstellen, antwoorden bieden op basisvragen en genereer tekst die lijkt alsof deze door een mens kan zijn geschreven. Hoewel deze modellen indrukwekkend zijn, genereren ze vaak ook onhandige of absurde resultaten, waardoor sceptici denken dat we nog ver verwijderd zijn van machines die de taalvaardigheid van mensen kunnen benaderen.

Met taalmodellen is groter beter

Wat de GPT-3-paper laat zien, is hoe de grootte van taalmodellen de nauwkeurigheid beïnvloedt bij een aantal taaltaken die mensen beheersen: het beantwoorden van vragen in een gesloten boek, het oplossen van dubbelzinnige voornaamwoorden, redeneren met gezond verstand en geavanceerd begrijpend lezen, om er maar een paar te noemen. . Vanwege zijn enorme omvang gaat GPT-3 veel verder dan wat eenvoudigere taalmodellen kunnen bereiken.

Als je naar alle verschillende modellen kijkt, verschijnen er duidelijke trendlijnen. Het toevoegen van meer parameters heeft een redelijk voorspelbare invloed op de nauwkeurigheid. En als we de trends volgen, zien we consequent een kruising met nauwkeurigheid op menselijk niveau in het parameterbereik van 15-20 biljoen, ongeveer 100 keer groter dan GPT-3.

De kosten van al die rekenkracht

Schattingen voor de kosten van het trainen van GPT-3 variëren van $ 4-12 miljoen, wat lineair lijkt te groeien met de modelgrootte. Daarom kunnen we extrapoleren dat een parametermodel van 15-20 biljoen ergens in het investeringsbereik van $ 300 miljoen tot $ 1,3 miljard nodig zou zijn.

De belofte zou zijn dat, gegeven een handvol voorbeelden van een tekstuele taak, het model zou kunnen presteren op menselijk niveau zonder enige herscholing, dus algemene AI – dat wil zeggen, in plaats van voorbeelden te gebruiken als trainingsgegevens om de synapsen in de hersenen te veranderen, het zoekt uit hoe de taak moet worden uitgevoerd door het gewoon te “verwerken”. Vaak is een beschrijving van de taak zonder voorbeelden voldoende.

Enkele voorbehouden

Hoewel dit slechts een ruwe trendlijnaanpassing is, zijn er verschillende kanttekeningen: 1) Kleine fouten zou kunnen leiden tot een orde van grootte-effecten in de extrapolatie, 2) Er is geen garantie dat de bestaande trend blijft bestaan, en 3) Het is onduidelijk of er voldoende tekst beschikbaar is om te blijven opschalen wat er vandaag wordt gedaan. Zelfs de auteurs merken de mogelijke tekortkomingen van het model, schrijven:

“Een meer fundamentele beperking van de algemene benadering die in dit artikel wordt beschreven – het opschalen van elk LM-achtig model, of het nu autoregressief of bidirectioneel is – is dat het uiteindelijk tegen de limieten van de pretraining-doelstelling kan aanlopen (of al zou kunnen lopen).”

Dus hoewel de taken die GPT-3 uitvoert moeilijk zijn voor de meeste machines en zelfs mensen soms lijkt het onwaarschijnlijk dat ze de diepten van menselijke vaardigheden, zoals complexe programmering, het schrijven van nieuwe boeken of geavanceerde strategische redeneringen, zullen doorgronden. En wat nog belangrijker is, het heeft, net als veel andere AI’s ervoor, laten zien dat het vatbaar is voor het genereren van vooringenomen taalgebruik rond geslacht, etniciteit, seksualiteit en ras.

Dus, zal $ 1 miljard leiden tot algemene AI?

Afgezien van het voorbehoud, wat ongelofelijk is, is dat GPT-3 suggereert dat we binnen zeer korte afstand zijn van de rekenkracht die nodig is om een ​​echte AI voor algemene doeleinden uit te voeren. Voor een investering van $ 1 miljard lijkt het aannemelijk dat we een AI kunnen bereiken die in staat is om dingen als de Turing-test te halen, algemene gesprekken te voeren over uiteenlopende onderwerpen op een volledig menselijke manier (of zelfs onmenselijk omdat hij meer weet dan een normaal mens), in staat zijn om gecompliceerde instructies te voltooien en de ruggengraat te vormen van virtuele assistenten die in principe alles kunnen doen wat een menselijke assistent zou kunnen, om nog maar te zwijgen van de verschillende zakelijke contexten op gebieden als verkoop, marketing en programmeren.

Al tientallen jaren voorspellen mensen een op handen zijnde opkomst van true kunstmatige intelligentie. Voor het eerst lijken deze extrapolaties me niet zo vergezocht. Kernverbeteringen aan onze deep learning-architecturen zijn vrijwel zeker nog steeds vereist, maar de basisbouwstenen lijken aanwezig te zijn, en een geëxtrapoleerd rekenbudget lijkt binnen het bereik van grote bedrijven en overheden, ongeacht wat verdere hardware-vooruitgang zou kunnen brengen.

pg_dlupdates_020118.png

Updates voor Deep Learning: Machine Learning, Deep Reinforcement Learning en beperkingen

diep leren

In de afgelopen jaren zijn enkele verbazingwekkende technologische doorbraken op het gebied van kunstmatige intelligentie (AI) en het subveld deep learning begonnen om machines te trainen om zich als mensen te gedragen.

Aangezien machines in toenemende mate complexe cognitieve functies nabootsen, zoals deductief redeneren, gevolgtrekkingen en geïnformeerde besluitvorming, zijn robots die als mensen functioneren tegenwoordig in veel industriële praktijken een realiteit.

Machines lopen echter nog steeds achter bij het verwoorden van de redenen achter hun keuzes of acties. Met andere woorden, een machine-getuige kan nog steeds niet worden gebruikt in een rechtbank om een ​​zaak op te lossen, aangezien deze acties uit het verleden niet kan ‘rechtvaardigen’. De opmerkelijke prestaties in AI-toepassingen zijn onder meer de opname van neurale netwerken en diep leren (DL), die unieke trainingsmogelijkheden voor machines combineren om te leren van kennislagen en die kennis vervolgens toe te passen om bepaalde doelen te bereiken.

Neurale netwerken en diep leren doordringen de intens complexe gebieden van natuurkunde, wiskunde, statistiek, signaalverwerking, machine learning, neurowetenschappen en vele anderen.

Machine leren (ML), neurale netwerken en deep learning vormen samen een snel voortschrijdende kerngroep van technologieën binnen het grotere gebied van kunstmatige intelligentie. Tegenwoordig zijn machines in staat om veel complexe problemen onmiddellijk op te lossen met behulp van deze technieken, waar normaal gesproken een menselijk brein voor nodig zou zijn over een veel langere tijd.

De menselijke samenleving vertrouwt steeds meer op slimme machines om beslissingen te nemen en dagelijkse problemen op te lossen. Dit is mogelijk gemaakt door de aanwezigheid van neurale netwerken en Deep Learning in AI-toepassingen.

Triumph of Deep Reinforcement Learning: Deep Q-Network (DQN)

Diep Q-netwerk of DQN is het geesteskind van DeepMind op het gebied van Deep Reinforcement Learning. De eerste paper over DQN werd in 2015 gepubliceerd in Nature Magazine, waarna veel gereputeerde onderzoeksorganisaties zich in dit vakgebied begaven. De hele onderzoeksgemeenschap is van mening dat diepe neurale netwerken (DNN) kunnen verbeteren versterking van leren (RL) voor interactie met HD-beelden en andere vanwege de aanwezigheid van DQN-technieken. Van Google tot Facebook, vele andere marktleiders wachten geduldig op de resultaten van geavanceerd onderzoek met DQN.

Marktsucces van evolutiestrategieën in versterkingsleren

Evolutiestrategieën (ES) lijken een comeback te hebben gemaakt in reinforcement learning. De reden voor het schijnbare succes zijn de exploratieve algoritmen die niet afhankelijk zijn van gradiënten, schaalbaarheid van algoritmen en goedkope hardwarevereisten – er is geen dure GPU nodig voor snelle parallelle verwerking.

Kaders voor diep leren

2020 is zeker het Jaar van Deep Learning Frameworks. Hoewel beide Google’s Tensorflow en PyTorch van Facebook kreeg veel bijval onder de natuurlijke taalverwerking (NLP) onderzoeksgemeenschappen, is Tensorflow meer geschikt voor statische grafieken. Aan de andere kant is PyTorch ideaal voor dynamische constructies. Zowel Tensorflow als PyTorch hebben positieve gebruikersfeedback ontvangen in hun respectievelijke arena’s en maken grotere plannen voor de toekomst.

Versterkende leeragent verslaat menselijke AlphaGo-spelers

Deze Natuur paper herinnert aan een glorieus moment waarop een leermedewerker versterking verslaat ’s werelds beste menselijke Go-spelers. In de eerste versie van AlphaGo werden trainingsgegevens van menselijke spelers gebruikt, en verder afgestemd door het gecombineerde gebruik van self-play en Monte Carlo Tree Search. Daarna in AlphaGo Zero, leerde de machine zelfstandig te spelen zonder enige menselijke tussenkomst. De wetenschap en technologie die in deze versie van het spel worden gebruikt, wordt treffend beschreven in het papier getiteld Snel en langzaam denken met Deep Learning en Tree Search . Deze spellen hebben zoveel menselijke spelers gemotiveerd om hun technieken te perfectioneren dat DeepMind een AlphaGo Teach om menselijke spelers te trainen.

De volgende hindernis voor DeepMind

Getuige van het recente succes en de populariteit van AlphaGo-gameserie, DeepMind begon na te denken over pokerspellen voor meerdere spelers met behulp van RL-technieken. DeepMind werkt ook aan Starcraft 2 – een RL onderzoeksomgeving.

De rol van diep leren bij AI: verkeerde informatie is mogelijk

Volgens de waakhond van de industrie KDNugget, Deep Learning is niet de toekomst van AI. Omdat zowel Google als Facebook hun DL-aanbod wereldwijd op de markt hebben gebracht, hebben de gebruikers ten onrechte de verkeerde berichten ontvangen over het belang van DL in kunstmatige-intelligentietoepassingen. KDNuggets denkt dat de wereldwijde publiciteit van DL-technieken meer hype dan inhoud is. In zijn verdediging stelt KDNuggets verder dat technieken zoals Beslissingsbomen zoals gebruikt in XGBoost “halen geen krantenkoppen”, maar zijn net zo belangrijk als deep learning, zo niet meer.

Zelfs in het geval van AlphaGo waren de media gehyped over DL, terwijl de Monte Carlo Tree Search-methode in werkelijkheid net zo goed bijdroeg aan het succes van het spel als DL. Bij RL worden veel leertaken behaald via Neuroevolution’s NEAT en niet vanwege terugpropagatie, zoals beweerd door de media.

De grootste beperking van diep leren: machines kunnen geen juridische uitleg geven

DL heeft momenteel twee grote nadelen: de eerste is de neiging om eerdere leerervaringen abrupt te vergeten, en de tweede is het onvermogen om de verstrekte informatie in twijfel te trekken of te rationaliseren. In een andere wereld, in de DL-wereld, gelooft de machine wat hij tijdens het leerproces krijgt, en heeft hij niet het vermogen om de verworven kennis in twijfel te trekken. De laatste trend is gevaarlijk omdat de machine onzin kan worden gevoerd in de naam van “truisms”.

De NLP-opmerkingen in DL-aanvragen kunnen niet door een rechter worden geaccepteerd of in een rechtszaak worden ingevoerd als bewijs of argument. Met andere woorden, zelfs de slimste AI-systemen kunnen om zojuist beschreven redenen niet ‘verantwoordelijk’ worden gehouden voor hun daden. In de toekomst zullen veel DL-gestuurde AI-systemen vanwege deze enorme beperking als illegaal of niet-klachten worden beschouwd.

DL-geschikte systemen voor gegevensverzameling voldoen niet aan de AVG-vereisten

Omdat gegevensbeveiliging van cruciaal belang zal zijn in de Data Science-wereld van 2021 en daarna, hebben veel AI-systemen met DL-technologie te maken met de beveiligingsvoorschriften die zijn opgesteld door verschillende regelgevende instanties. Een mooi voorbeeld hiervan niet-naleving van de beveiliging is de Algemene Verordening Gegevensbescherming (AVG) die vereist dat alle geautomatiseerde besluitvorming wordt becommentarieerd met zeer gedetailleerde, logische uitleg om discriminatie op basis van ras, gezondheidsomstandigheden, persoonlijke meningen, enzovoort te voorkomen. AVG werd van kracht in 2018. Alle gegevensverzamelingsbureaus die actief zijn in de 28 Europese landen werden lang daarvoor gedwongen hun DL-apps of platforms te wijzigen, anders riskeerden ze ernstige strafmaatregelen.

Fotocredits: Shutterstock.com

Ved-Raj_600x448.png

Zeven RPA-use-cases en -toepassingen voor diverse industrieën

Klik voor meer informatie over auteur Ved Raj.

De vraag van klanten voor kleine, middelgrote en grote bedrijven neemt elke dag toe om een ​​modernere aanpak te gaan gebruiken.

Er is vastgesteld dat organisaties die geavanceerde technologieën zoals robotica-procesautomatisering (RPA) in hun back-end-activiteiten integreren, de exponentiële groei van bedrijfsstatistieken kunnen vergroten.

Vorig jaar 24 procent van de grote organisaties en 9 procent van de kleine en middelgrote organisaties aangenomen RPA.

Afbeeldingsbron: Statista

Wat is RPA?

In eenvoudige bewoordingen is robotachtige procesautomatisering (RPA) een productieve manier om taken uit te voeren die kunnen worden georganiseerd door het gebruik van kunstmatige intelligentie (AI).

In 2020, RPA-marktinkomsten naar verwachting meer dan $ 2,9 miljard wereldwijd. Geschat wordt dat als de groei de komende jaren in dit tempo doorzet, de marktwaarde tegen 2023 meer dan $ 10 miljard zal bedragen.

Afbeeldingsbron: Statista

Top RPA-use cases voor verschillende industrieën

Als we het hebben over industriële groei, biedt RPA echt voordelen voor verschillende industrieën door verschillende bedrijfsprocessen te vereenvoudigen. Om dit automatiseringsproces in uw bedrijf te implementeren, kunt u het beste inhuren RPA-ontwikkelaars die u zullen helpen om deze technologie te begrijpen en er effectief gebruik van te maken.

RPA-implementatie in de meest groeiende sectoren

RPA kan in verschillende sectoren nuttig zijn. Laten we eens kijken naar de belangrijkste groeisectoren die RPA bij hun processen betrekken (zie onderstaande afbeelding).

Afbeeldingsbron: Protiviti

Laten we eens kijken hoe RPA verschillende industrieën ten goede kan komen.

RPA-use cases in de zorgsector

Er zijn tal van automatiseringsprecedenten in de zorgsector. De gezondheidszorg haalt veel voordeel uit het gebruik van het bedrijfsautomatiseringsproces.

Laten we eens kijken hoe RPA de zorgsector helpt:

  • Verwerking van betalingen: In veel zorginstellingen is het personeel zo druk bezig met het beheren van de betaling van de patiënt dat ze de familie en het andere personeel van de patiënt niet de tijd kunnen geven die ze nodig hebben. Dit kan worden voorkomen door RPA te betrekken bij betaalafdelingen in de gezondheidszorg.
  • Claimbeheer: Claimmanagement in de zorg is over het algemeen een tijdrovend proces en er komt veel papierwerk bij kijken. Maar deze taak kan eenvoudig worden beheerd door RPA te gebruiken. Deze bot-software kan claims nauwkeurig afhandelen met behulp van vooraf gedefinieerde parameters.
  • Patiëntregistratie: De meeste zorgbedrijven die RPA al gebruiken, gebruiken het voor het beheer van de patiëntregistratie, aangezien dit proces ook tijdrovend is. Met RPA-bots duurt dit type proces slechts enkele seconden. De softwarebot vult de details van het registratieformulier in zeer korte tijd in, waardoor het personeel ander belangrijk werk kan afhandelen.
Afbeeldingsbron: Allerin

RPA-use cases in de maakindustrie

In de productiesector zijn er talrijke gebruiksscenario’s van RPA; dit helpt de maakindustrie bij het uitvoeren van foutloze en vereenvoudigde procedures.

Laten we eens kijken hoe RPA de maakindustrie helpt:

  • Strategie en rapportage: Het belangrijkste voordeel van het gebruik van RPA bij de productie is dat het nauwkeurige en gedetailleerde productierapporten kan produceren en een duidelijk beeld van de resultaten kan geven. Het versnelt robuuste besluitvorming en zorgt voor snellere reacties op productieverplichtingen.
  • Voorraadadministratie: RPA in voorraadbeheer kan worden gebruikt om e-mails te automatiseren, voorraadniveaus te bewaken en papierwerk en productlijsten te digitaliseren.
  • Rekeningen voor materialen: RPA-softwarebots kunnen nauwkeurige facturen genereren en foutloze en betrouwbare gegevens extraheren.
  • Klantenervaring: Als het gaat om het verrijken van klantcommunicatie, kan RPA worden ingezet om de klantervaring te behouden en te verbeteren.

RPA-use cases in de telecomsector

Er zijn maar weinig use-cases voor robotica voor procesautomatisering geregistreerd in de telecomsector, maar de RPA kan deze sector helpen zich te concentreren op belangrijke taken, zoals het bieden van betaalbare, snelle en geavanceerde oplossingen voor hun klanten.

Laten we eens kijken hoe RPA-applicaties de telecomsector kunnen helpen:

  • Accountinspectie: De telecomsector moet regelmatig gebruikersaccountcontroletaken uitvoeren voor accountgebruikers. Deze taak kan best saai zijn voor een medewerker, maar kan worden geautomatiseerd met behulp van RPA.
  • Rapport genereren: In de telecomsector zijn operators verplicht om handmatig meldingen van connectiviteitsproblemen te genereren en deze naar ambtenaren te sturen. RPA is ideaal voor dit soort rapportages.
  • Eenvoudig doorsturen van zoekopdrachten: RPA-bots kunnen e-mails van gebruikers en andere belanghebbenden verzamelen en deze automatisch naar de betrokken klant sturen. Dit vereenvoudigt de taak en maakt het personeel vrij om ander werk te doen.
  • Nummeroverdracht: Een uitstekend RPA-voorbeeld in de telecomsector is het overdragen van klantnummers, een methode die gemakkelijk kan worden geautomatiseerd.

RPA-use cases in informatietechnologie (IT)

Robotic Process Automation (RPA) in de IT-sector is bij uitstek geschikt om ontwikkelingsprocessen te stroomlijnen en de efficiëntie en effectiviteit te verhogen.

Laten we eens kijken hoe RPA-applicaties de IT-industrie helpen:

  • Tool Installatie: RPA kan het proces van het installeren van tools op het apparaat regelen en de werktijd van werknemers besparen.
  • Configuratie: Ontwikkelaars moeten codes schrijven voor het ontwikkelen van software, apps en websites. RPA is uitstekend geschikt voor de initiële configuratie en setup van de coderingsomgeving.
  • Automatiseringstesten: We weten allemaal dat het testen van gebruikers tijd kost als het handmatig wordt uitgevoerd, maar dit proces kan worden verbeterd door middel van RPA, en door deze automatisering kunnen bugs ook sneller worden onderzocht en verholpen dan met handmatig testen.

RPA-use cases in het bankwezen en de financiële sector

In de bancaire en financiële sector zijn er verschillende kansen op fouten, maar dit kan worden geminimaliseerd door gebruik te maken van robotic process automation (RPA). In de banksector wordt RPA-software ook wel aangeduid als banksoftware. Een vooraanstaand softwareontwikkelingsbedrijf kan bedrijven in deze sector helpen deze software in een beperkt tijdsbestek te bouwen.

Laten we eens kijken hoe RPA-applicaties de bank- en financiële sector helpen:

  • Kredietcontroles: RPA-softwarebots kunnen nu kredietcontroles uitvoeren voor potentiële klanten en herkennen of ze binnen de betalingsparameters van de lening vallen of niet. Dit automatiseringsproces helpt bij het verkorten van de verwerkingstijd van leningen.
  • Gegevensinvoer: Bankiers moeten verschillende formulieren handmatig invullen, en dit kan een tijdverspiller zijn. Maar het uitvoeren van deze taak met behulp van RPA kan tijd besparen en ook de kans op fouten verkleinen.
  • Toepassingen beoordelen: Banken zoals United Overseas Bank automatiseerden hun werkproces voor het onderzoeken van creditcardaanvragen, en dit hielp hun snelheid en reactietijd te verhogen.

RPA-use cases voor de detailhandel

De detailhandel is een sector die volledig door de consument wordt gedreven, en dankzij zijn snelle diensten heeft deze sector een naam op de markt gekregen. Weinig taken in de detailhandel kunnen niet worden afgehandeld door RPA, en deze automatisering helpt bedrijven hun kosten te verlagen en de efficiëntie te verhogen.

Laten we eens kijken hoe RPA-applicaties de detailhandel helpen:

  • Product categorisering: RPA-softwarebots kunnen SKU-gegevens extraheren om bedrijven te ondersteunen bij het classificeren van producten en het herkennen van hun marktaandelen in verschillende regio’s. Het helpt bij het besparen van vele uren werk.
  • Levering en retouren van producten: Het bezorgen en retourneren van een product kan veel verwerkings- en douanetaken met zich meebrengen. Met RPA-bots kunnen medewerkers het aankooprecord controleren en het hele proces van levering en retouren versnellen.
  • Voorraadbeheer: RPA bij het toezicht op de winkelvoorraad speelt een cruciale rol. RPA-bots kunnen gegevens presenteren voor noodzakelijke items en het systeem informeren wanneer er een tekort of overschot is.

RPA-gebruiksscenario’s in klantenservice

RPA kan worden gebruikt om klantrelaties te verbeteren en gunstige klantresultaten te behalen. Met behulp van RPA kan klantenservice ook de klantervaring verbeteren en het klantbehoud verbeteren.

Laten we eens kijken hoe RPA-applicaties de klantenservice kunnen helpen:

  • Snelle primaire reacties: Met behulp van RPA-softwarebots kunnen veelvoorkomende vragen van klanten worden opgelost en krijgen klanten onmiddellijk antwoord. In dit geval kan AI voor een beter resultaat worden geïntegreerd.
  • Query doorsturen: RPA-bots kunnen op basis van ingestelde parameters vragen in verschillende categorieën oplossen en deze ook automatisch naar de bijbehorende afdelingen sturen.
  • Verkoopdata: RPA kan worden gebruikt om klantrelatiebeheer te automatiseren door feitelijke gegevens aan verkoopvertegenwoordigers te presenteren. Dit helpt om tijd en geld te besparen.
  • Gegevenscategorisatie: RPA stelt organisaties in staat om klanten te classificeren en hun reizen te herkennen voor betere targeting, benaderingen en services.

Gevolgtrekking

Het gebruik van Robotic Process Automation (RPA) in verschillende industrieën neemt in hoog tempo toe. RPA-use cases laten zien dat deze automatisering bedrijven op veel verschillende manieren helpt en uiteindelijk de bedrijfsproductiviteit verbetert. In verschillende branches worden enkele RPA-businesscasecriteria als het belangrijkst beschouwd. Die zijn te vinden in de onderstaande afbeelding.

Afbeeldingsbron: Protiviti

Als u een start-up, MKB of grote onderneming runt, dan kunt u RPA ook implementeren in uw bedrijfsautomatiseringsproces. Een RPA-expert kan u helpen deze automatiseringstechnologie aan te leren en correct en effectief te gebruiken.

pg-daai_082218.png

Gegevensarchitectuur en kunstmatige intelligentie: hoe werken ze samen?

data-architectuur

Kunstmatige intelligentie (AI) wint snel terrein als zakelijke kerncompetentie. Machine learning (ML) of diep leren (DL) -algoritmen beloven een revolutie teweeg te brengen in bedrijfsmodellen en -processen, personeelsbestand te herstructureren en data-infrastructuren te transformeren om de procesefficiëntie te verbeteren en de besluitvorming in de hele onderneming te verbeteren. Voorbij zijn de dagen van datasilo’s en handmatige algoritmen.

Er is echter een wijdverbreid geloof door te stellen dat de groei van AI in het verleden werd belemmerd, voornamelijk als gevolg van het niet beschikbaar zijn van grote datasets. Big data veranderde dat allemaal – waardoor bedrijven konden profiteren van grote hoeveelheden en snelle gegevens om AI-algoritmen te trainen voor verbeteringen van bedrijfsprocessen en verbeterde besluitvorming.

De weg naar AI leidt via informatiearchitectuur beschrijft hoe hybride GegevensbeheerData Governance en bedrijfsanalyses kunnen samen de besluitvorming binnen de onderneming transformeren. Volgens deze auteur kunnen deze drie kernbedrijfspraktijken organisaties van elke omvang in staat stellen “de kracht van AI in de onderneming te ontketenen”.

De rol van data-architectuur bij het ontketenen van de kracht van kunstmatige intelligentie

William McKnight, de president McKnight Consulting Group, heeft gezegd dat die “Informatiearchitectuur” een sleutelrol speelt bij het scheppen van orde in de voortdurende evolutie van opkomende datatechnologieën. McKnight bespreekt specifieke maatregelen die organisaties zouden moeten nemen om AI en streaming-datatechnologieën te omarmen, en de langetermijnimpact van de algemene verordening gegevensbescherming (AVG) over bedrijfsgegevensbeheerpraktijken. Hij erkent dat terwijl het streamen van gegevens de enige manier is om met de hoge snelheid van big data om te gaan, sterke maatregelen voor gegevensbeheer ervoor zorgen dat de AVG wordt nageleefd.

Onlangs heeft het overkoepelende veld van AI aan kracht gewonnen vanwege de innovatieve IT-oplossingen die mogelijk worden gemaakt door machine learning of deep learning-technologieën. De termen “intelligent” of “slim” die met een IT-systeem worden geassocieerd, verwijzen specifiek naar de ML- of Dl-mogelijkheden van dergelijke systemen.W.

Goed beheerd Data-architectuur en AI-technologieën zijn klaar om toekomstige innovaties in IT te stimuleren, die bedrijven betere kansen zullen bieden door technologische verstoringen. Deze trends geven echter ook aan dat de bedrijven zeer bekwame veldexperts op het gebied van Data Science nodig hebben, getraind in AI, voorspellende modellen, ML en DL, naast andere vaardigheden, om dit transformerende technische leiderschap te stimuleren.

EEN DATAVERSITEIT® webinar wijst erop dat alle kerntechnologieën voor gegevensbeheer, zoals kunstmatige intelligentie, machine learning of big data, een geluid vereisen Data-architectuur met gegevensopslag en best practices voor gegevensbeheer. Dit webinar bespreekt hoe de laatste Trends in gegevensarchitectuur ondersteuning van organisatiedoelen. De datatechnologie-expert van morgen zal verantwoordelijk zijn voor het implementeren en onderhouden van een datastrategie en zal naar verwachting de risico’s en de nieuwere winstkansen met evenveel finesse aanpakken.

Maar met welke data-infrastructuur kan dat gebeuren? Een goed gedefinieerd en gestructureerd Data-architectuur dat ruimte biedt aan big data, IoT en AI en tegelijkertijd voldoet aan alle toepasselijke GDPR-voorschriften.

Cloud: de huidige en toekomstige redder van Enterprise Analytics

Nu bedrijven steeds meer vertrouwen op data en analyses om te concurreren, begint Data Architecture een grotere rol in de onderneming te spelen. In het tijdperk van digitale bedrijven is de nieuwe norm voor data-architectuur een dynamisch en schaalbaar model waaraan tot op zekere hoogte wordt voldaan door de openbare cloud. De nieuwste analytische vereiste is om gegevens bij de bron te verwerken, waardoor op AI gebaseerde analyses over het datacenternetwerk tot aan de rand van de onderneming mogelijk zijn, zoals besproken in Hoe cloudgebaseerde gegevensarchitecturen te creëren

De directe voordelen van cloud-infrastructuur bij het beheer en de levering van datagestuurde, bruikbare informatie. De trend van analytics overal, die aan kracht wint, zal de verandering stimuleren van on-premise of gehoste analytics naar de edge computing tijdperk, waarin bedrijfsanalyses in realtime plaatsvinden en veel dichter bij de gegevensbron.

In het IoT-tijdperk kunnen bedrijven het zich niet veroorloven kostbare tijd en geld te verliezen bij het verzamelen en deponeren van de binnenkomende gegevens op een verre locatie. Analytics vindt plaats aan de rand van bedrijven, wat de volgende fase van cloud computing aangeeft. De cloud-eerst strategie is er al met steeds meer organisaties die de cloud adopteren. Dus, wat is de volgende stap voor analyse? Edge computing? Serverloos computergebruik?

Als data-architecturen robuust genoeg zijn, kunnen analyses ‘viraal’ gaan, zowel binnen als buiten de organisatie. In dat scenario kunnen zelfs citizen datawetenschappers optreden selfservice-analyse op het punt van gegevensopname.

Mensgerichte AI-systeemontwerpen: een wondermiddel?

Andrew Ng beveelt aan dat AI wordt aangenomen als een bedrijfsbrede besluitvormingsstrategie. Aangezien kunstmatige-intelligentietechnologieën nauwkeurige prognosetechnieken, verbeterd procesbeheer door automatisering en betere prestatiestatistieken voor de hele organisatie mogelijk maken, zullen bedrijven die ervoor kiezen AI te negeren, achterblijven. Machine learning, deep learning, mens-machine-interacties en autonome systemen kunnen samen resultaten opleveren die ongeëvenaard zijn door enig ander bedrijfssysteem.

Kunstmatige intelligentie voor gegevensgestuurde verstoring bespreekt de kracht van een “AI-aangedreven motor” om realtime inzichten te leveren voor managementbeslissingen. Met het steeds groter wordende volume, de verscheidenheid en de snelheid van bedrijfsgegevens, heeft elke zakelijke gebruiker, van de burger datawetenschapper tot de ervaren datastewards, snelle en tijdige toegang tot gegevens nodig.

De mensen leven in het tijdperk van slimme systemen en kunnen niet voorbijgaan aan het feit dat zelfs AI-algoritmen geen resultaten kunnen opleveren als ze niet correct worden geïmplementeerd of aangepast in de menselijke werkomgeving. De AI-algoritmen die tegenwoordig worden gebruikt, zijn vergelijkbaar met die van vele jaren geleden, maar de computers of processors zijn sneller en krachtiger geworden.

Hoewel algemeen wordt erkend dat geavanceerd kunstmatige intelligentie kunnen veel gewone menselijke taken automatiseren en kunnen in beperkte gevallen zelfs “denken”. AI-systemen hebben “rampsituaties” niet echt doorstaan ​​zoals in het geval van zelfrijdende auto’s of voorspellingen van natuurrampen. Dus hoewel AI-algoritmen uitgebreid kunnen worden getraind met het gebruik van gegevens om het menselijk denken tot op zekere hoogte na te bootsen, zijn AI-onderzoekers er nog steeds niet in geslaagd om de menselijk-cognitieve vaardigheden van een robot of een slimme machine vast te stellen.

Het meest fundamentele verschil is dat het menselijk brein kan reageren op originele situaties, terwijl het machinebrein alleen situaties uit de tweede hand kan aannemen die worden overgedragen via gegevens over menselijke ervaringen, zoals uitgelegd in Slimmer samen: waarom kunstmatige intelligentie mensgericht ontwerp nodig heeft.

Toekomstige algoritmen kunnen worden getraind om menselijk-cognitieve capaciteiten na te bootsen. Maar hoewel mensen fouten kunnen maken door overmoed, is machine-intelligentie strikt afhankelijk van een studie en toepassing van datagestuurde feiten. Zelfs een slecht algoritme kan het menselijk denken verbeteren, dus volgens de “wet van Kasparov” moet het proces worden verbeterd om de best mogelijke samenwerking tussen mens en machine mogelijk te maken.

De kunstmatige intelligentie-algoritmen van de toekomst moeten worden ontworpen vanuit een menselijk oogpunt, om de feitelijke zakelijke omgeving en informatiedoelstellingen van de besluitvormer te weerspiegelen. De AI software-ingenieur is de persoon in een Data Science-team die de cruciale rol speelt bij het overbruggen van de kloof tussen datawetenschappers en data architecten.

Architecturale vereisten van door machine learning aangedreven kunstmatige-intelligentiesystemen

Bij machine learning zijn data zowel de leraar als de trainer die het algoritme op een specifieke manier vormgeven zonder enige programmering. Datavoorbereiding voor ML-pipelines kan dus een uitdaging zijn als de data-architecturen niet voldoende verfijnd zijn om samen te werken met de onderliggende analyseplatforms.

Machine learning is het meest geschikt voor gegevens met grote volumes en hoge snelheden. De Data Architecture-laag in een end-to-end-analysesubsysteem moet het vereisten voor gegevensvoorbereiding om algoritmen voor machine learning te laten werken. Er moet een speciale ontwikkelingscyclus beschikbaar zijn die ML-leermodellen ondersteunt, en het ML-platform moet verschillende ML-frameworks ondersteunen voor aangepaste oplossingen van commerciële leveranciers. De openbare cloud is een geweldige opslag- en rekenomgeving voor ML-systemen, simpelweg vanwege zijn architecturale elasticiteit.

Een organisatie kan alleen profiteren van deze enorme hoeveelheid gegevens uit veel verschillende bronnen als er een degelijke gegevensarchitectuur (gegevens als ondernemingslaag) in de hele organisatie aanwezig is en als end-to-end AI-aangedreven analysesystemen zijn geïmplementeerd om geef alle soorten zakelijke gebruikers de mogelijkheid om just-in-time-analyses en BI-activiteiten uit te voeren.

De toekomst van AI en data-architectuur

In de komende jaren, naarmate informatie afgeleid van ‘data’ een bedrijfsmiddel wordt met een hoog omzetpotentieel, zullen organisaties meer gedisciplineerd worden in het genereren van inkomsten en het meten van de impact van data, net als de andere KPI’s.

Gartner stelt dat datacenters tegen 2021 AI-mogelijkheden zullen moeten integreren in hun architecturen. Maak ruimte voor AI-toepassingen in de datacenterarchitectuur voorspelt dat AI-toepassingen zullen in de nabije toekomst elke branche doordringen, dus het is logisch om kunstmatige intelligentie, machine learning en deep learning-praktijken toe te passen in de datacenters. Aangezien deze technologieën bestaande technologieën voor gegevensopslag zullen uitdagen, kunnen nieuwere en betere platforms zoals de edge of serverless het antwoord zijn.

Afbeelding tegoed: Shutterstock.com

Ion_Stoica_600x448.jpg

Vijf belangrijke functies voor een machine learning-platform

Klik voor meer informatie over auteur Ion Stoica.

Ontwerpers van machine learning-platforms moeten de huidige uitdagingen het hoofd bieden en plannen maken voor toekomstige workloads.

Zoals machine learning voet aan de grond krijgt in steeds meer bedrijven, worstelen teams met de fijne kneepjes van het managen van de levenscyclus van machine learning.

Het typische startpunt is om elke datawetenschapper een Jupyter-notebook te geven die wordt ondersteund door een GPU-instantie in de cloud en om een ​​apart team de implementatie en bediening te laten beheren, maar deze aanpak valt uiteen naarmate de complexiteit van de applicaties en het aantal implementaties toeneemt.

Als gevolg hiervan zijn meer teams op zoek naar platforms voor machine learning. Verschillende startups en cloudproviders beginnen end-to-end platforms voor machine learning aan te bieden, waaronder AWS (SageMaker), Azure (Machine Learning Studio), Databricks (MLflow), Google (Cloud AI Platform) en andere. Veel andere bedrijven kiezen ervoor om hun eigen bedrijf te bouwen, waaronder Uber (Michelangelo), Airbnb (BigHead), Facebook (FBLearner), Netflix en Apple (Overton).

Afbeeldingsbron: Anyscale
Figuur 1: Open Source Ray kan worden gebruikt om inplugbare componenten voor platforms voor machine learning te bouwen. De blauwe vakken zijn componenten waarvoor er enkele bibliotheken bovenop zijn gebouwd.

Veel gebruikers bouwen ML-tools en -platforms. Dit is een actieve ruimte: verschillende startups en cloudplatforms beginnen end-to-end machine learning-platforms aan te bieden, waaronder Amazon, Databricks, Google en Microsoft. Maar gesprekken met mensen in de gemeenschap blijven gebruikers terugdrijven naar deze tool om veel onopgeloste uitdagingen op te lossen.

De verzameling bibliotheken van Ray kan naast andere ML-platformcomponenten worden gebruikt. En in tegenstelling tot monolithische platforms, hebben gebruikers de flexibiliteit om een ​​of meer van de bestaande bibliotheken te gebruiken of om hun eigen bibliotheken te bouwen. Een gedeeltelijke lijst van machine learning-platforms die dergelijke functies al bevatten, omvat:

In dit bericht zullen we inzichten delen die zijn afgeleid van gesprekken met veel ML-platformbouwers. We zullen functies vermelden die van cruciaal belang zijn om ervoor te zorgen dat uw ML-platform goed gepositioneerd is voor moderne AI-toepassingen. We zullen er ook voor zorgen dat ontwikkelaars die ML-platforms en ML-componenten bouwen, een dergelijk platform zouden moeten overwegen, omdat het een ecosysteem van zelfstandige bibliotheken heeft die kunnen worden gebruikt om enkele van de onderstaande items aan te pakken.

Ecosysteemintegratie

Ontwikkelaars en ingenieurs voor machine learning gebruiken verschillende tools en programmeertalen (R, Python, Julia, SAS, etc.). Maar met de opkomst van diep leren, Python is de dominante programmeertaal voor machine learning geworden. Dus als er iets is, moet een ML-platform Python en het Python-ecosysteem ondersteunen.

In de praktijk vertrouwen ontwikkelaars en machine learning-ingenieurs op veel verschillende Python-bibliotheken en tools. De meest gebruikte bibliotheken zijn onder meer deep learning-tools (TensorFlow, PyTorch), machine learning en bibliotheken voor statistische modellering (scikit-learn, statsmodels), NLP-tools (spaCy, Knuffelend gezicht, AllenNLP) en het afstemmen van modellen (Hyperopt, Afstemmen).

Omdat het naadloos integreert in het Python-ecosysteem, gebruiken veel ontwikkelaars Ray voor het bouwen van machine learning-tools. Het is een gedistribueerd computerplatform voor algemene doeleinden dat kan worden gebruikt om eenvoudig bestaande Python-bibliotheken en -toepassingen te schalen. Het heeft ook een groeiende verzameling zelfstandige bibliotheken die beschikbaar zijn voor Python-ontwikkelaars.

Eenvoudig schalen

Zoals wij dat is genoteerd in De toekomst van computers wordt gedistribueerd, nemen de “eisen van machine learning-applicaties razendsnel toe”. De opkomst van deep learning en nieuwe workloads betekent dat gedistribueerd computergebruik gebruikelijk zal zijn voor machine learning. Helaas hebben veel ontwikkelaars relatief weinig ervaring met gedistribueerd computergebruik.

Schalen en gedistribueerde berekeningen zijn gebieden waarop Ray veel gebruikers heeft geholpen met wie we hebben gesproken. Het stelt ontwikkelaars in staat zich te concentreren op hun applicaties in plaats van op de fijne kneepjes van gedistribueerd computergebruik. Het gebruik ervan biedt verschillende voordelen voor ontwikkelaars die machine learning-applicaties moeten schalen:

  • Het is een platform waarmee u uw bestaande applicaties eenvoudig naar een cluster kunt schalen. Dit kan zo simpel zijn als het schalen van uw favoriete bibliotheek naar een rekencluster (zie dit recente post over het gebruik ervan om scikit-learn te schalen). Of het zou kunnen gaan om het gebruik van de API om een ​​bestaand programma naar een cluster te schalen. Het laatste scenario is er een die we hebben zien gebeuren voor toepassingen in NLP, online leren, fraudedetectie, financiële tijdreeksen, OCR, en vele andere use-cases.
  • RaySGD vereenvoudigt gedistribueerde training voor PyTorch en TensorFlow. Dit is goed nieuws voor de vele bedrijven en ontwikkelaars die worstelen met het trainen of afstemmen van grote neurale netwerken.
  • In plaats van tijd te besteden aan DevOps, maakt een ingebouwde clusterstarter het eenvoudig om een ​​cluster op te zetten.

Uitbreidbaarheid voor nieuwe workloads

Moderne AI-platforms hebben notoir honger naar rekenkracht. In De toekomst van computers wordt gedistribueerd post waarnaar hierboven wordt verwezen, hebben we dat opgemerkt model afstemmen is een belangrijk onderdeel van het ontwikkelingsproces van machine learning:

“Je traint een model niet één keer. Doorgaans hangt de kwaliteit van een model af van verschillende hyperparameters, zoals het aantal lagen, het aantal verborgen eenheden en de batchgrootte. Om het beste model te vinden, moet u vaak tussen verschillende hyperparameterinstellingen zoeken. Dit proces wordt hyperparameter-afstemming genoemd en kan erg duur zijn. ” Ion Stoica

Ontwikkelaars kunnen kiezen uit verschillende bibliotheken om modellen af ​​te stemmen. Een van de meer populaire tools is Afstemmen, een schaalbare bibliotheek voor het afstemmen van hyperparameters die bovenop Ray is gebouwd. Tune draait op een enkel knooppunt of op een cluster en is snel een van de meer populaire bibliotheken in dit ecosysteem geworden.

Reinforcement learning (RL) is een ander gebied dat het vermelden waard is. Veel van de recente artikelen over RL hebben betrekking op gameplay (Atari, Go, videogames voor meerdere spelers) of op toepassingen in industriële omgevingen (bijv. Efficiëntie van datacenters). Maar zoals we hebben eerder opgemerktzijn er opkomende toepassingen in aanbevelingen en personalisatie, simulatie en optimalisatie, financiële tijdreeksen en publiek beleid.

RL is rekenintensief, complex om te implementeren en op te schalen, en als zodanig zullen veel ontwikkelaars gewoon bibliotheken willen gebruiken. Ray biedt een eenvoudige, zeer schaalbare bibliotheek (RLlib) die ontwikkelaars en machine learning-ingenieurs in verschillende organisaties al in de productie gebruiken.

Tools ontworpen voor teams

Nu bedrijven meer modellen voor machine learning gaan gebruiken en implementeren, zullen teams van ontwikkelaars met elkaar moeten kunnen samenwerken. Ze hebben toegang nodig tot platforms die zowel delen als ontdekken mogelijk maken. Houd bij het overwegen van een ML-platform rekening met de belangrijkste fasen van modelontwikkeling en -operaties, en ga ervan uit dat teams van mensen met verschillende achtergronden tijdens elk van die fasen zullen samenwerken.

Bijvoorbeeld, feature winkels (eerste geïntroduceerd door Uber in 2017) zijn handig omdat ze ontwikkelaars in staat stellen te delen en te ontdekken Kenmerken waar ze anders misschien niet aan hadden gedacht. Teams moeten ook kunnen samenwerken tijdens de levenscyclus van modelontwikkeling. Dit omvat het beheren, volgen en reproduceren van experimenten. Het toonaangevende open source-project op dit gebied is MLflow, maar we zijn gebruikers tegengekomen van andere tools zoals Gewichten en afwijkingen en Komeet, evenals gebruikers die hun eigen tools hebben gebouwd om ML-experimenten te beheren.

Ondernemingen hebben aanvullende functies nodig, waaronder beveiliging en toegangscontrole. Modelbeheer en modelcatalogi (analogen van vergelijkbare systemen voor het beheren van gegevens) zullen ook nodig zijn naarmate teams van ontwikkelaars meer modellen bouwen en implementeren.

Eerste klas MLOps

MLOps is een reeks praktijken gericht op het produceren van de levenscyclus van machine learning. Het is een relatief nieuwe term die ideeën put uit continue integratie (CI) en continue implementatie (CD), twee veelgebruikte methoden voor softwareontwikkeling. Een recent Thoughtworks-bericht somde enkele belangrijke overwegingen op voor het opzetten van CD voor machine learning (CD4ML). Enkele belangrijke items voor CI / CD voor machine learning zijn reproduceerbaarheid, experimentbeheer en -tracking, modelbewaking en observatie, en meer. Er zijn een paar startups en open source-projecten die MLOps-oplossingen bieden, waaronder Datatron, Verta, TFX, en MLflow.

Ray heeft componenten die nuttig zouden zijn voor bedrijven die overstappen op CI / CD of die CI / CD-tools bouwen voor machine learning. Het heeft al bibliotheken voor de belangrijkste fasen van de ML-levenscyclus: opleiding (RaySGD), afstemmen (Tune), en inzet (Dienen). Door toegang te hebben tot bibliotheken die naadloos samenwerken, kunnen gebruikers CI / CD-methoden gemakkelijker in hun MLOps-praktijk integreren.

Samenvatting

We hebben de belangrijkste elementen opgesomd waarover machine learning-platforms zouden moeten beschikken. Onze uitgangspunten zijn dat Python de voorkeurstaal zal blijven voor ML, gedistribueerde computing zal steeds meer nodig zijn, nieuwe workloads zoals afstemming van hyperparameters en RL moeten worden ondersteund, en tools om samenwerking en MLOps mogelijk te maken, moeten beschikbaar zijn.

Met deze aannames in gedachten, geloven we dat Ray de basis zal zijn van toekomstige ML-platforms. Veel ontwikkelaars en ingenieurs gebruiken het al voor hun machine learning-toepassingen, waaronder training, optimalisatie en service. Het pakt niet alleen de huidige uitdagingen aan, zoals schaal en prestaties, maar is ook goed gepositioneerd om toekomstige workloads en gegevenstypen te ondersteunen. Ray, en het groeiende aantal bibliotheken dat erop wordt gebouwd, zal de komende jaren helpen bij het opschalen van ML-platforms. We kijken ernaar uit om te zien wat je bouwt.

Tommy_Weir_600x448.jpg

Hoe u externe werknemers gemotiveerd houdt met AI

Klik hier voor meer informatie over Dr. Tommy Weir.

Nu werken op afstand de norm wordt, is het portfolio van vereiste leiderschapsvaardigheden uitgebreid met het vermogen om medewerkers van ver te inspireren. De vraag van een miljoen dollar is natuurlijk hoe?

Welnu, een mix van wortel en stok zou de basis van uw strategie moeten vormen. “Sticks” hoeven niet streng te zijn – ze betekenen simpelweg het vaststellen van de basisregels waarmee het team zal werken. Deze moeten van tevoren worden uitgewerkt en door iedereen worden goedgekeurd.

Van daaruit moeten die regels ergens worden vastgelegd waar ze kunnen worden geraadpleegd als teamgedrag begint af te wijken van wat eerder was afgesproken. Beginnen met duidelijke basisregels zal helpen om de gevaren te voorkomen die kunnen ontstaan ​​door de dingen gewoon zelf uit te laten komen – wat ze overigens zelden doen. Achterover leunen en dingen laten gebeuren is geen strategie; het is een recept voor wrok, waargenomen vriendjespolitiek, achterdocht en een laag moreel.

Tegenwoordig is een van de onderling overeengekomen kenmerken van een goede strategie voor werken op afstand het gebruik van AI-tools om de productiviteit te beheren. Deze tools kunnen ook helpen om eerlijk en transparant management te bevorderen, omdat ze de prestaties objectief beoordelen, wat op zijn beurt vertrouwen opbouwt tussen leiders en werknemers, maar ook binnen teams. Om AI-tools te laten werken, moeten ze volledig transparant zijn ingebed, zodat iedereen weet waarvoor ze zijn ontworpen en hoe de gegevens die ze onthullen zullen worden gebruikt bij het streven naar productiviteit en de campagne om werknemers te helpen hun potentieel te bereiken. Het ontketenen van het potentieel van medewerkers houdt rechtstreeks verband met het ontketenen het potentieel van het bedrijf, en AI heeft veel te bieden om deze cruciale link te versterken.

Communicatie is ook essentieel. Goede communicatie is fundamenteel voor een goede teamdynamiek en om individuen gemotiveerd te houden. Je hebt een mix van individuele interacties en teambijeenkomsten nodig – zowel virtueel als persoonlijk, zodra de COVID-crisis dergelijke interacties mogelijk maakt. Deze bijeenkomsten mogen niet ad hoc worden gehouden. Als leider moet u zich ertoe verbinden regelmatig bij elke persoon in te checken en op geplande tijden teamvergaderingen te houden. Dit is essentieel om uw team gefocust te houden en hen te helpen begrijpen dat u er bent om hen te ondersteunen. Probeer vergaderingen niet te veel te verplaatsen – laat uw mensen zien dat het voor u een prioriteit is om met hen in contact te komen.

Wat betreft “wortelen”, u kunt zo creatief zijn als u wilt. Nogmaals, dit is iets dat het beste kan worden bedacht en goedgekeurd door de teamleden zelf. Ze kunnen veel plezier beleven aan het uitwerken van een systeem van activiteiten, beloningen en traktaties die ze allemaal kunnen delen en waarin ze betrokken kunnen raken om het moreel op te bouwen. Er zijn veel ideeën over hoe teams kunnen ontspannen en samen plezier kunnen hebben, zelfs virtueel, en uw mensen zullen graag ideeën bundelen en een schema met evenementen bedenken.

Verwaarloos de training niet. Het feit dat u mensen niet naar cursussen op locatie kunt sturen, betekent niet dat u geen manieren kunt vinden om hen te helpen hun vaardigheden op afstand te ontwikkelen. Dit is een goed moment om te onderzoeken welke training uw mensen nodig hebben en welke training geschikt is om hun vaardigheden en productiviteit te verhogen. Het is vooral belangrijk voor de C-suite om te investeren in training voor hun leiders – ga er niet alleen vanuit dat ze over alle vaardigheden beschikken die nodig zijn om op afstand te leiden.

Vergeet vooral de menselijke aanraking niet – zelfs als u het op afstand moet doen! Maak tijd vrij voor een praatje en interesse in uw collega’s. Het is een geweldige manier om teambanden te versterken en elkaar te waarderen als goed afgeronde individuen, in plaats van alleen maar collega’s. Als de mensen in uw team elkaar en hun respectievelijke uitdagingen begrijpen, is de kans groter dat ze een stapje extra voor elkaar doen en doorgaan wanneer iemand de spanning voelt. En dit laatste punt is belangrijk – alleen omdat uw werknemers niet op kantoor werken, betekent niet dat uw HR-functie is opgeheven. In feite is het hebben van robuuste HR-procedures net zo belangrijk – zo niet meer – als het gaat om het ondersteunen van externe medewerkers. Het kan moeilijker zijn om op te merken wanneer iemand een burn-out heeft of interventie nodig heeft, dus het is belangrijk om proactief te zijn en regelmatig contact op te nemen. Op afstand of niet, het welzijn van uw team blijft uw verantwoordelijkheid.

Op afstand werken kan grote voordelen bieden, maar het sturen ervan is een managementvaardigheid als elke andere, die moet worden geleerd, geoefend en voortdurend moet worden bijgewerkt. Als u op zoek bent naar gemotiveerd en productief personeel, laat het dan niet aan het toeval over.