Door Charna Parkey en Steven Tiell, DataStax.
Bedrijven die AI-oplossingen ontwikkelen en implementeren hebben robuust bestuur nodig om ervoor te zorgen dat ze op verantwoorde wijze worden gebruikt. Maar waar moeten ze zich precies op concentreren? Gebaseerd op een recente DataStax-paneldiscussie, ‘Enterprise Governance in a Responsible AI World’, zijn er een paar moeilijke en gemakkelijke dingen waar organisaties op moeten letten bij het ontwerpen van governance om het verantwoorde gebruik van AI te garanderen.
De makkelijke dingen: een duidelijk begrip van AI-terminologie en risico’s
Er zijn een heleboel dingen die relatief gemakkelijk in een vroeg stadium van het AI-traject van een organisatie kunnen worden vastgesteld. Het eenvoudigweg vaststellen van gedeelde terminologie en een gemeenschappelijke achtergrond van begrip binnen de hele organisatie is een belangrijke fundamentele stap op weg naar inclusiviteit. Van ontwikkelaars tot de C-suite: een organisatie die de kernconcepten en -terminologie van AI begrijpt, verkeert in een betere positie om deze te bespreken en te innoveren met AI.
ABONNEER OP ONZE NIEUWSBRIEF
Van onze redactie rechtstreeks in uw inbox
Ga aan de slag door hieronder uw e-mailadres in te voeren.
Om tot dit gedeelde begrip te komen, kan training op het gebied van AI en/of digitale geletterdheid nodig zijn. Tijdens deze training is het ook belangrijk om de beperkingen van AI uit te leggen. Waar is dit model goed in en wat moeten de grenzen zijn van hoe en waar het wordt toegepast? Het begrijpen van beperkingen helpt misbruik op de lange termijn te voorkomen.
Deze duidelijkheid in de communicatie moet zich ook buiten het bedrijf uitstrekken. Bedrijven, vooral startups, moeten hun vaardigheden verbeteren in het uitleggen van hun technologie in duidelijke taal, zelfs met kleine teams. Dit draagt niet alleen bij aan het onderbouwen van aannames over wat wel en niet mogelijk is, maar bereidt bedrijven ook voor op het voeren van gesprekken met en mogelijk zelfs het opleiden van groepen belanghebbenden, zoals klanten en zelfs toekomstige bestuursleden.
Als onderdeel van dit proces is het belangrijk om rekening te houden met de context van elk individu of elke groep die hierbij betrokken is. Ethische overwegingen verschillen per sector, zoals de gezondheidszorg, het bankwezen en het onderwijs. Het kan bijvoorbeeld nuttig zijn als leerlingen werk delen om leerresultaten te behalen, maar het is voor een bank illegaal om aandelentransacties van de ene klant naar andere groepen te delen. Deze context is niet alleen belangrijk om uw publiek te ontmoeten waar zij zich bevinden, maar ook om de risico’s te begrijpen die specifiek zijn voor de context van uw AI-toepassing.
De moeilijkere dingen: beveiliging en externe bijwerkingen
Vanaf hier beginnen de dingen moeilijker te worden. De risico’s die aanwezig waren toen de AI werd ingezet, zijn mogelijk niet meer dezelfde risico’s een jaar later. Het is belangrijk om voortdurend nieuwe potentiële bedreigingen te evalueren en bereid te zijn om als gevolg daarvan de governance-processen bij te werken. Naast het bestaande potentieel voor AI om schade te veroorzaken, introduceert generatieve AI nieuwe vectoren voor schade die speciale aandacht vereisen, zoals snelle technische aanvallen, modelvergiftiging en meer.
Zodra een organisatie routinematige monitoring en beheer van de ingezette modellen heeft opgezet, wordt het mogelijk om uitgebreide en indirecte ethische gevolgen zoals milieuschade en maatschappelijke cohesie in overweging te nemen. Al met generatieve AI zijn de computerbehoeften en het energieverbruik radicaal toegenomen. Onbeheerde risico’s op maatschappelijke schaal worden overvloediger in een generatieve AI-wereld.
Deze aandacht voor mogelijke schade kan ook een tweesnijdend zwaard zijn. Door modellen open source te maken, wordt de toegang vergroot, maar open modellen kunnen door slechte actoren worden bewapend. Open toegang moet in evenwicht worden gebracht met de kans op schade. Dit strekt zich uit van trainingsgegevens tot modeluitvoer, en eventuele functieopslag of inferentie-engines daartussen. Deze mogelijkheden kunnen de modelprestaties verbeteren om zich in realtime aan te passen aan een veranderende context, maar ze zijn ook nog een andere aanvalsvector. Bedrijven moeten deze afwegingen zorgvuldig afwegen.
Ook bredere externe factoren moeten op passende wijze worden beheerd. Sociale en ecologische neveneffecten worden vaak buiten beschouwing gelaten, maar deze kwesties worden bedrijfsproblemen wanneer de toeleveringsketens wankelen of het vertrouwen van het publiek en de klant erodeert. De kwetsbaarheid van deze systemen kan niet worden onderschat, vooral in het licht van de recente verstoringen van de toeleveringsketens als gevolg van COVID-19 en de steeds catastrofalere natuurrampen.
In het licht van deze risico’s op maatschappelijk niveau hebben regeringen AI in hun regelgevend vizier. Elk bedrijf dat met AI werkt, klein en groot, zou zich moeten voorbereiden op de komende AI-regelgeving, zelfs als deze nog ver weg lijkt. Het opbouwen van governance- en ethische praktijken bereidt bedrijven nu voor op naleving van de komende regelgeving.
Een verantwoord beheer van AI vereist voortdurend evoluerende kaders die zijn afgestemd op nieuwe mogelijkheden en risico’s. Het volgen van de eenvoudige – en soms uitdagende – praktijken hierboven zal organisaties op de goede weg zetten bij het vormgeven van de manier waarop zij kunnen profiteren van AI, en hoe dit de samenleving ten goede kan komen.
Ontdek hoe DataStax generatieve AI-toepassingen mogelijk maakt.
Over Charna Parkey, Real-Time AI-product- en strategieleider, DataStax
GegevensStax
Charna Parkey is de Real-Time AI-product- en strategieleider bij DataStax en lid van de Sustainable Applications and Transformation-werkgroep van de WEF AI Governance Alliance, die opkomt voor verantwoord mondiaal ontwerp en de release van transparante en inclusieve AI-systemen. Ze heeft met meer dan 90% van de Fortune 100 samengewerkt om AI-producten op grote schaal te implementeren.
Over Steven Tiell, VP Strategie, DataStax

GegevensStax
Steven Tiell is VP Strategy bij DataStax en fungeert als Nonresident Senior Fellow bij het Atlantic Council GeoTech Center. In 2016 richtte Steven de Data Ethics and Responsible Innovation-praktijk van Accenture op, die hij leidde tot hij vorig jaar bij DataStax kwam. Steven heeft tientallen AI-transformaties gekatalyseerd en was Fellow bij het World Economic Forum, waar hij leiding gaf aan Digital Trust- en Metaverse Governance-initiatieven.