Het lijdt geen twijfel dat AI en machine learning (ML) de komende jaren een steeds belangrijkere rol zullen spelen bij de ontwikkeling van bedrijfstechnologie en een breed scala aan bedrijfsinitiatieven zullen ondersteunen.
Volgens marktonderzoeker IDC zullen de wereldwijde inkomsten voor de AI-markt, inclusief software, hardware en diensten, dit jaar naar verwachting 341,8 miljard dollar bedragen en met 18,8% per jaar groeien om tegen 2024 de grens van 500 miljard dollar te overschrijden. En tegen 2026 zal 30% van de organisaties routinematig vertrouwen op AI/ML-ondersteunde inzichten om acties te stimuleren die kunnen leiden tot 60% meer gewenste resultaten (inderdaad, 30% is misschien een lage schatting).
Ondanks het optimisme, is het vuile geheim van de deep neural network (DNN)-modellen die de toename van ML-adoptie stimuleren, dat onderzoekers niet precies begrijpen hoe ze werken. Als IT-leiders een technologie inzetten zonder de basis van de werking ervan te begrijpen, riskeren we een aantal slechte resultaten. De systemen kunnen onveilig zijn in die zin dat ze bevooroordeeld en onvoorspelbaar kunnen zijn en/of resultaten opleveren die niet gemakkelijk kunnen worden begrepen door hun menselijke operators. Deze systemen kunnen ook eigenaardigheden bevatten die door tegenstanders zullen worden uitgebuit.
Wanneer ML wordt toegepast op bedrijfskritische applicaties, worden CIO’s en hun engineeringteams geconfronteerd met een paradox: de keuze tussen de betere resultaten die ML kan bieden versus het risico op slechte resultaten. Dit kan zelfs een moreel dilemma worden. Stel dat een DNN die wordt gebruikt om medische beelden te verwerken bepaalde vormen van kanker beter kan herkennen dan de gemiddelde beoefenaar. Zijn we moreel verplicht om deze technologie, die levensreddende positieve effecten kan hebben, in de praktijk te brengen, zelfs als we niet weten hoe ze haar resultaten bereikt?
Een langetermijndoel van sommige ML-onderzoekers is om een vollediger begrip van DNN’s te ontwikkelen, maar wat moeten beoefenaars tussen nu en dan doen, vooral wanneer slechte resultaten risico’s voor leven en/of eigendom met zich mee kunnen brengen?
Vangrails voor machine learning tot stand brengen
Ingenieurs hebben in het verleden met soortgelijke situaties te maken gehad. In de begindagen van de luchtvaart hadden we bijvoorbeeld niet zo’n volledig begrip van de onderliggende fysica of het vermogen om vliegtuigontwerpen te analyseren. Om dat gebrek aan begrip te compenseren, zouden luchtvaartingenieurs en testpiloten de operationele envelop: waarbinnen het vliegtuig veilig kon worden gevlogen en nam vervolgens maatregelen – via vluchtcontrolesystemen, pilootopleiding enzovoort – om ervoor te zorgen dat het vliegtuig alleen binnen die veilige omhulling wordt gebruikt.
Dezelfde benadering van het ontwikkelen van een veilige en voorspelbare operationele envelop kan worden toegepast op ML door vangrails te creëren die ML-modellen op het goede spoor houden en de mogelijkheid van onveilige en/of onvoorspelbare outputs minimaliseren. Hier volgen enkele voorgestelde benaderingen bij het opzetten van ML-systemen met meer veiligheid en voorspelbaarheid:
1. Identificeer de reeks modeluitgangen die als veilig worden beschouwd. Zodra het veilige uitgangsbereik is geïdentificeerd, kunnen we ons een weg banen door het model om een reeks veilige ingangen te identificeren waarvan de uitgangen altijd binnen de gewenste envelop zullen vallen. Onderzoekers hebben aangetoond dat deze analyse kan worden uitgevoerd voor bepaalde typen op DNN gebaseerde modellen.
2. Monteer vangrails “voor” het model. Zodra u het veilige bereik van ingangen kent, kunt u een softwarematige reling voor het model installeren om ervoor te zorgen dat er nooit ingangen worden getoond die het naar een onveilige plaats brengen. In feite houden de vangrails het ML-systeem onder controle. Ook al weten we niet precies hoe het model tot een bepaalde output komt, we zullen wel weten dat de outputs altijd veilig zijn.
3. Focus op modellen die voorspelbare resultaten opleveren. Naast het binnen een veilig bereik houden van de outputs, willen we ook weten dat de modellen geen resultaten opleveren die wild van het ene deel van de outputruimte naar het andere slingeren. Voor bepaalde klassen van DNN’s is het mogelijk om ervoor te zorgen dat als een invoer slechts een kleine hoeveelheid verandert, de uitvoer proportioneel verandert en niet onvoorspelbaar naar een geheel ander deel van het uitvoerbereik springt.
4. Train modellen om veilig en voorspelbaar te zijn. Onderzoekers vinden manieren om de training van DNN’s subtiel te veranderen, zodat ze vatbaar worden voor de bovenstaande analyse zonder hun patroonherkenningsmogelijkheden in gevaar te brengen.
5. Blijf wendbaar. Aangezien dit een snel bewegende ruimte is, is het belangrijk om vangrails in de ML-architectuur in te bouwen, met behoud van de flexibiliteit om ze te ontwikkelen en te verbeteren wanneer nieuwe technieken beschikbaar komen.
De taak voor IT-leiders is ervoor te zorgen dat de ML-modellen die ze ontwikkelen en implementeren onder controle zijn. Het plaatsen van vangrails is een belangrijke tussenstap, terwijl we een beter begrip ontwikkelen van hoe DNN’s werken.