De top 10 zakelijke AI-trends van het jaar – tot nu toe

De top 10 zakelijke AI-trends van het jaar – tot nu toe



“En misschien hebben we het zelfs onderschat”, zegt Patience.

Hij volgt momenteel 262 generatie AI-leveranciers, waarvan er 117 gespecialiseerd zijn in het genereren van tekst, en is van plan om in de komende zes maanden een nieuwe versie van het rapport te produceren. Normaal gesproken, zegt hij, worden dit soort rapporten elke twee jaar vernieuwd, maar daarvoor beweegt deze markt te snel.

Eén van de redenen dat generatie AI sneller aan bedrijfssoftware wordt toegevoegd dan eerdere generaties AI is dat het mogelijk de relatie tussen mens en software kan veranderen, zegt hij.

“Het heeft de mogelijkheid om mensen in natuurlijke taal te laten praten en dingen voor elkaar te krijgen”, zegt hij. “Vroeger moesten ze Excel of een querytaal coderen of begrijpen. Door het gebruik van natuurlijke taal kun je als mens complexe queries uitvoeren op datasets en andere zaken die te complex zijn om alleen te doen.”

Patience volgt deze ruimte al meer dan twintig jaar en zegt dat hij nog nooit zoiets heeft gezien.

“Het is ongelooflijk”, zegt hij. “Onze klanten, en klanten met wie ik nog nooit eerder heb gesproken, willen allemaal weten wat er aan de hand is. Voor degenen die over vaardigheden beschikken, zal het een krachtvermenigvuldiger zijn. Voor anderen zal het een beetje meer een bedreiging zijn. Maar het zal mensen in staat stellen waardevoller werk te doen dan ze momenteel kunnen doen.”

Automatisering van bedrijfsprocessen

AI speelt al lang een rol in RPA, zij het een kleine. ML werd gebruikt voor sentimentanalyse en om documenten te scannen, afbeeldingen te classificeren, opnames te transcriberen en andere specifieke functies. Toen kwam generatie AI uit.

“De wereld is sinds 2022 omgedraaid”, zegt David McCurdy, chief enterprise architect en CTO bij Insight. “We hebben met onze klanten een aantal dingen gedaan die twaalf maanden geleden nog niet in de gereedschapskist zaten. Dankzij generatieve technologie heb je nu de mogelijkheid om over processen heen te springen die al jaren, soms tientallen jaren bestaan.”

Een van de beste toepassingen voor direct gebruik is het samenvatten van documenten en het extraheren van informatie uit materiaal, zegt hij.

“Vroeger was dit niet mogelijk”, zegt hij. “Nu kun je naar binnen gaan en er een concept uit halen, niet alleen maar een woord. Het transformeert een aantal van onze workflows.”

Bedrijven halen echter nog steeds niet genoeg waarde uit ongestructureerde gegevens die verborgen zijn in documenten, zegt Nick Kramer, VP voor toegepaste oplossingen bij managementadviesbureau SSA & Company.

“De bestaande technologie brengt de meest relevante inhoud gewoon niet consistent en gemakkelijk genoeg naar boven”, zegt hij. “Dit is waar grote taalmodellen mij echt enthousiast maken. Het vermogen om het corpus aan bedrijfskennis op te nemen, biedt grenzeloze mogelijkheden.”

Beheer van AI-leveranciers

Alleen de grootste bedrijven gaan hun eigen AI-modellen bouwen of beheren, en zelfs die zullen afhankelijk zijn van leveranciers om het grootste deel van de AI die ze gebruiken te leveren. Microsoft, Google, Salesforce: alle grote spelers houden zich allemaal bezig met AI, dus het is alleen maar logisch om daar gebruik van te maken. Maar naarmate de generatie AI steeds meer gegevens, mensen en processen van een bedrijf raakt, wordt dat leveranciersselectie- en managementproces steeds belangrijker.

Lees ook:  PepsiCo transformeert voor het digitale tijdperk

“Ik zou geen operationele technologie aanschaffen die geen ML- en AI-mogelijkheden biedt”, zegt McCurdy van Insight. “Als de bedrijven geen gebruik maken van AI en geen roadmap hebben, zullen we hun software niet kopen.”

Dit is een van de manieren waarop bedrijven technische schulden kunnen vermijden, zegt hij, door te investeren in partners en bedrijven die in AI investeren. Maar zelfs als een leverancier AI op de routekaart heeft staan, of deze al aan het bouwen is, zijn er nog steeds risico’s. “Net als in de begindagen van het internet zullen er veel bedrijven komen en gaan”, zegt Rob Lee, hoofdcurriculumdirecteur en faculteitsleider van het SANS Institute. Hij ziet dit al op het gebied van cyberbeveiliging. “Bij Black Hat zag ik minstens honderd bedrijven”, zegt hij. “Maar hebben ze iets dat echt verkoopbaar is?”

Eén ding waar kopers voorzichtig mee moeten zijn, zijn de veiligheidsmaatregelen die verkopers hebben getroffen. Bij de implementatie van nieuwe technologieën komt beveiliging vaak als bijzaak. Met AI zou dat een grote vergissing zijn.

“Wat gebeurt er als je je gegevens uploadt naar deze AI’s?” vraagt ​​Lee. “Je wilt experimenteren, maar als iemand de verkeerde spreadsheet naar de verkeerde AI uploadt, heb je een datalek.”

Betrouwbare AI

Vorig jaar, toen klassieke AI steeds meer in de productie werd ingezet, begonnen bedrijven de kwestie van betrouwbaarheid serieuzer te nemen. Ze wilden modellen die betrouwbaar waren, vrij van vooroordelen en gebaseerd op ethische principes. Bovendien moet de AI transparant en begrijpelijk zijn, omdat mensen willen weten waarom AI’s de beslissingen nemen en aanbevelingen doen. Tegenwoordig is betrouwbaarheid een topprioriteit voor iedereen, van studenten die hulp proberen te krijgen bij hun huiswerk, tot wereldleiders die een AI-apocalyps willen vermijden. Onderzoekers, verkopers, consultants en toezichthouders werken aan het bedenken van vangrails en ethische principes die bepalen hoe AI wordt getraind en ingezet.

“We bevinden ons nog in de beginfase hiervan”, zegt Donncha Carroll, partner in de omzetgroeipraktijk en hoofd van het data science-team bij Lotis Blue Consulting. “Je wilt een systeem niet vertrouwen waarvan je niet kunt zien of controleren hoe het werkt, vooral niet als het beslissingen kan nemen die gevolgen kunnen hebben. Het toezichtstuk is nog niet ontdekt.”

Open source AI

Open source is lange tijd een drijvende kracht geweest achter innovatie op het gebied van AI. Veel datawetenschapstools en basismodellen zijn open source of zijn sterk gebaseerd op open source-projecten. Dit jaar waren er al een paar maanden zorgen dat de nieuwe ruimte van generatie AI gedomineerd zou worden door technologiegiganten, bedrijven die over de miljoenen dollars beschikten die nodig waren om grote taalmodellen (LLM) te trainen, en de gegevens om ze te trainen.

OpenAI’s ChatGPT, Google’s Bard, IBM’s Watson, Anthropic’s Claude en andere belangrijke basismodellen zijn gepatenteerd. Maar in februari bracht Meta Llama uit, een open-source LLM met een licentie voor niet-commercieel gebruik, die al snel de basis werd voor veel projecten. Toen, in juli, kwam Meta’s Llama 2 uit, en deze keer kreeg het een licentie voor commercieel gebruik. Iedereen kon het gratis gebruiken of aanpassen, zolang er maar minder dan 700 miljoen actieve dagelijkse gebruikers waren. Microsoft beloofde snel om het te ondersteunen op zijn Azure-platform. Dat deed Amazon ook op AWS. En VMware maakte er een van de hoekstenen van zijn generatie AI-stack van.

Lees ook:  Scrumfall: When Agile wordt Waterfall met een andere naam

In augustus ging Meta door met het uitbrengen van modellen. Deze keer was het Code Llama, een LLM die is opgeleid in het schrijven van code. Vervolgens bracht het Technology Innovation Institute van de VAE in september Falcon 180B uit, het grootste open-sourcemodel tot nu toe. Het steeg snel naar de top van het open LLM-klassement van Hugging Face, dat voorheen werd gedomineerd door Llama 2 en zijn varianten.

Falcon werd ook uitgebracht onder een variant van de Apache 2-licentie, beschikbaar voor commercieel gebruik, en werkt zowel voor het genereren van natuurlijke taal als voor code.

De open-sourcemodellen maken het voor ondernemingen mogelijk om AI op maat in hun eigen infrastructuur in te zetten, zonder dat ze hun data naar een cloudprovider hoeven te sturen, en bieden meer flexibiliteit en lagere kosten. Sommige van deze open-sourcemodellen zijn zelfs klein genoeg om op desktopcomputers of mobiele apparaten te draaien.

“Je zult zien dat deze ongelooflijke rekenkracht steeds meer langs de rand wordt verspreid”, zegt Carroll van Lotis Blue.

Veilige, betrouwbare data-infrastructuur

Zowel ML als generatie AI zijn afhankelijk van data. De afgelopen tien jaar zijn data uitgegroeid tot het meest waardevolle bezit van een bedrijf: de elektriciteit die innovatie en waardecreatie aandrijft. Om dit allemaal mogelijk te maken, moesten de gegevens op een betrouwbare, efficiënte, schaalbare en veilige manier worden verzameld, verwerkt en ingevoerd in de systemen die deze nodig hadden. Datawarehouses evolueerden vervolgens naar datameren, en vervolgens naar datafabrics en andere ondernemingsbrede data-architecturen. Dat zal allemaal waardevol blijken, zowel nu bedrijven hun traditionele AI-projecten blijven uitbreiden als voor de nieuwe generatie AI-functionaliteit die online komt. Voor veel bedrijven betekent dit dat openbare chatbots zoals ChatGPT geen optie zijn vanwege het gebrek aan gegevensbescherming op bedrijfsniveau.

“Er is behoefte aan bescherming van de gegevens die daarin worden opgeslagen”, zegt McCurdy. “Dat creëert voor sommige gebruiksscenario’s een voor de hand liggende barrière totdat je die veiligheidsperimeter hebt vastgesteld.”

Voor sommigen betekent dit dat het OpenAI-model of een ander model in privéclouds moet worden uitgevoerd, of zelfs open-sourcemodellen op locatie moeten worden uitgevoerd, afhankelijk van het risicoprofiel van een bedrijf. Ondertussen hebben veel bedrijven, zelfs na jaren van inspanning, hun data nog steeds niet klaar voor AI. Volgens het nieuwe 2023 Global Trends in AI-onderzoek van S&P Global onder 1.500 AI-beoefenaars en besluitvormers, dat in augustus werd gepubliceerd, is databeheer de grootste technologische uitdaging bij de inzet van AI. En ook al heeft 69% van de bedrijven minstens één AI-project in productie, slechts 28% heeft de schaal op ondernemingsniveau bereikt.

Versneld tempo van verandering

Gen AI zou niet mogelijk zijn zonder de mondiale connectiviteit die internet biedt en de enorme hoeveelheid informatie die zo gemakkelijk beschikbaar is in digitale vorm, klaar om te worden gebruikt als trainingsgegevens. Dan zijn er nog cloud computing, SaaS en API’s, waarmee nieuwe technologieën snel en eenvoudig kunnen worden geïmplementeerd zonder grote integratiekosten vooraf voor bedrijven. Het is dus geen verrassing dat de acceptatiegraad van gen-AI sneller is dan die van welke technologie dan ook. Maar daarnaast is gen-AI ook een technologie die de eigen ontwikkeling helpt versnellen.

Lees ook:  Maak kennis met de CIO Tech Talk-community

In april vroeg durfkapitalist Yohei Nakajima zich af of het mogelijk was om een ​​‘AI-oprichter’ te hebben, die een bedrijf autonoom zou kunnen runnen, en vroeg ChatGPT om het te bouwen. Het duurde in totaal ongeveer drie uur en ChatGPT schreef de code, het onderzoekspaper en een Twitter-thread. Nakajima noemde het “BabyAGI” en het ging viraal op GitHub. Het was een veelzijdige agent die voor elk doel kon worden ingezet, niet alleen voor het starten van een bedrijf.

“Ik vroeg de autonome agent gekscherend om zoveel mogelijk paperclips te maken”, schreef Nakajima in een blogpost waarin hij het project beschreef. “Het ontdekte de AI-paperclip-apocalyps en begon met het genereren van een veiligheidsprotocol.”

BabyAGI gebruikt OpenAI’s GPT-4 API, Pinecone vector search en het LangChain AI-framework om erachter te komen welke taken moeten worden uitgevoerd om een ​​doel te bereiken, hoe deze taken moeten worden geprioriteerd, en om ze vervolgens uit te voeren. Soortgelijke projecten zijn onder meer AutoGPT en AgentGPT.

Een ander voorbeeld van AI die zichzelf dit jaar aan zichzelf optrok was Alpaca, waar onderzoekers van Stanford University een van de vroege Llama-modellen van Meta gebruikten. Dit was een ruw model dat geen versterkend leren van menselijke feedback had ondergaan – een duur en tijdrovend proces. Alpaca gebruikte een kortere weg en gebruikte OpenAI’s text-davinci-003, een nauwe verwant van ChatGPT, om 52.000 vraag- en antwoordparen te genereren en gebruikte deze om zijn nieuwe chatbot te trainen. Het hele proces kostte minder dan $600, zeiden onderzoekers, waarvan $500 werd besteed aan de OpenAI API en $100 aan computerkosten. En toen het team het testte, was het qua prestaties vergelijkbaar met tekst-davinci-003. Met andere woorden: generatie AI-modellen kunnen nieuwe code schrijven om hun eigen prestaties te verbeteren, en ze kunnen gegevens genereren om de volgende generatie modellen te trainen.

“De tools en toolkits veranderen zo snel”, zegt Priya Iragavarapu, VP digitale technologiediensten bij AArete, een managementadviesbureau. “Nog voordat leiders en de gemeenschap de handleiding kunnen lezen en begrijpen.” Dit schept uitdagingen voor bedrijven die vooruit proberen te plannen, zegt ze, omdat het moeilijk te zeggen is wat al mogelijk is en wat nog in ontwikkeling is. “Het wordt voor leiders steeds lastiger om een ​​onderscheid te maken tussen deze twee”, zegt ze.

Als gevolg van het snelle tempo van de veranderingen willen veel bedrijven flexibele raamwerken bouwen, die hen in staat stellen om verschillende modellen in te voeren naarmate ze zich ontwikkelen. PricewaterhouseCoopers bindt zich bijvoorbeeld niet aan een bepaalde LLM.

“We hebben een plugin-architectuur”, zegt Greenstein van PwC. “We hebben mensen geholpen te bouwen volgens de bestaande normen, maar toch over flexibiliteit te beschikken.”

Het bedrijf heeft ook mensen die de voorhoede van de ontwikkeling nauwlettend in de gaten houden. “Met AI gaat het zo snel”, zegt hij. “We concentreren ons op ‘geen spijtbewegingen’, zoals het bouwen van een LLM-agnostische infrastructuur. Dat is nu van cruciaal belang omdat de modellen elkaar overlappen.”

Meer informatie over ?

De top 10 zakelijke AI-trends van het jaar – tot nu toe
Of weten wat het voor jouw organisatie kan betekenen?

Onze business consultants komen het graag op locatie uitleggen.

Meer kennis uit deze categorie

Dus je wilt een data-ingenieur worden?

Het werk van data-engineers is buitengewoon technisch. Ze zijn verantwoordelijk voor het ontwerpen en onderhouden van het architectuur van datasystemen, dat concepten omvat die variëren

De top 10 zakelijke AI-trends van het jaar – tot nu toe

Gratis scan aanvragen
voor jouw organisatie?

    De top 10 zakelijke AI-trends van het jaar – tot nu toe

    Gratis scan aanvragen
    voor jouw organisatie?