Arthur C. Clarke, een van de grondleggers van de moderne sciencefiction, zei ooit: "Elke voldoende geavanceerde technologie is niet meer te onderscheiden van magie." Hoewel AI tegenwoordig minder mysterieus lijkt dan in de jaren 60, begrijpen we nog steeds niet altijd hoe het tot specifieke conclusies komt. Ook met betrekking tot onze netwerken.
Van ‘Terminator’ tot ‘The Matrix’, van ‘Battlestar Galactica’ tot ‘2001: A Space Odyssey’ - het idee dat kunstmatige intelligentie de mensheid zou kunnen verdringen als de dominante intelligente soort op aarde, is al tientallen jaren een veelvoorkomend thema in de popcultuur. In veel gevallen kwam de rivaliteit tussen metaal en mens door niets meer dan… slechte communicatie.
Herinner je je deze nog? HAL 9000, de intelligente computer die een ruimteschip onderhoudt terwijl het grootste deel van de bemanning buiten bewustzijn is, werkt niet meer als gevolg van een conflict in zijn orders. VIKI, een AI-supercomputer uit ‘I, Robot’, komt logischerwijs voort uit de Three Laws of Robotics a Zeroth Law of Robotics van Asimov. Daarmee rechtvaardigt de computer het doden van meerdere individuen, ter bescherming van de hele populatie.
‘Explain yourself, HAL!’
Hoewel deze duistere scenario's ver weg lijken, weten we niet altijd hoe de machines eigenlijk denken. Krachtige AI/ML-modellen, met name Deep Neural Networks, zijn vaak erg moeilijk uit te leggen. Soms is er het dilemma van het moeten accepteren van een bepaald model (een LSTM neuraal netwerk bijvoorbeeld) dat veel beter werkt dan een ander (een eenvoudige logistieke regressie), hoewel het moeilijker te begrijpen en te verklaren is.
De hedendaagse kunstmatige intelligentie gebruikt vaak een zogenaamd ‘black box’-concept. De AI krijgt input en levert vervolgens output. Maar wat er gebeurt in de black box, is onzichtbaar voor ons. Bij machine learning worden deze black box-modellen rechtstreeks gemaakt door een algoritme, op basis van data. Dat betekent dat zelfs degenen die ze ontwerpen, vrijwel niet begrijpen hoe variabelen worden gecombineerd om voorspellingen te doen.
We weten vaak niet hoe machines daadwerkelijk denken.
Natuurlijk biedt de oplossing zelf grote voordelen voor organisaties. Het verhoogt de efficiëntie en maakt nieuwe manieren van werken mogelijk. Maar verklaarbaarheid is uiterst cruciaal in systemen die verantwoordelijk zijn voor beslissingen en geautomatiseerde acties. Het gebrek aan goede uitleg van black box ML-modellen zorgt nu bijvoorbeeld al voor problemen in de gezondheidszorg, het strafrecht, werving en andere gebieden, waaronder IT-netwerken.
We moeten begrijpen dat het ML-model altijd een vereenvoudigde weergave is van de werkelijkheid, dat de werkelijkheid niet altijd correct modelleert. HAL begreep bijvoorbeeld tegenstrijdige instructies niet. Een goed model interpreteert de werkelijkheid 'meestal' correct, dus je kunt je voorstellen hoe een slecht model zou presteren. Als onderdeel van de evaluatie van ML-modellen willen we weten hoe vaak een model een specifieke gebeurtenis correct identificeert. Dat percentage bepaalt of het model goed of slecht is. Zelfs uitstekende modellen kunnen niet alles nauwkeurig identificeren. Dat leidt tot de volgende vragen: Wat als jouw probleem deel uitmaakt van een reeks onjuiste identificaties? Hoe weet je dat? En als je het niet weet, hoe kun je dan de beslissing van de AI negeren?
Verklaarbare AI voor cloudgestuurde netwerken
Explainable AI (XAI) houdt in dat dat elk ML-model verklaarbaar is en interpretatie van besluitvorming biedt. XAI betekent ook dat het gebruik van eenvoudigere modellen inherent interpreteerbaar zijn. Bij Extreme realiseren we ons dat het belangrijk is om de menselijke factor mee te nemen bij het bouwen van ML/AI-applicaties. Dus hebben we besloten om een CoPilot te bouwen rond het concept van XAI, ons cloudgebaseerde platform voor netwerkmanagement: ExtremeCloud IQ.
Bij ons betekent dit dat elke ML/AI die helpt bij het oplossen van netwerkproblemen een leesbare output moet bieden. Hierin wordt duidelijk hoe inzichten zijn verkregen en het biedt bewijs ter ondersteuning van de beslissing. Als domeinexpert kan een netwerkbeheerder deze beslissingen voor elke bedrijfskritieke omgeving negeren. Wanneer ML/AI-beslissingen controleerbaar zijn, verwijdert het onduidelijkheid over aansprakelijkheid en helpt het om vertrouwen op te bouwen tussen de netwerkbeheerder en de ML/AI.
ExtremeCloud IQ CoPilot biedt dus verklaarbare ML/AI. Daarmee kun je met meer vertrouwen activiteiten automatiseren, de beveiliging verbeteren en gebruikerservaringen verrijken.
En als bonus plaats je goocheltrucs en bloeddorstige robots weer waar ze horen - in de sectie fantasie!