Verzekeraars zouden bij AI/ESG dezelfde proactieve preventieve aanpak moeten toepassen als bij acceptatie cyberrisico's

Verzekeraars zouden bij AI/ESG dezelfde proactieve preventieve aanpak moeten toepassen als bij acceptatie cyberrisico's

Artificial Intelligence, kortweg AI, is momenteel een van de meest besproken onderwerpen in de samenleving, zo niet hét meest besproken thema. Kranten en vakbladen staan bol van artikelen over dit fenomeen en ook in de vele talkshows op de Nederlandse televisie is het regelmatig onderwerp van gesprek. Ook in de verzekeringsbranche staat het (mogelijke) gebruik van kunstmatige intelligentie volop op de agenda, zeker in relatie met een ander hot topic: ESG (Environmental, Social & Governance)- regelgeving. Twee zaken die volgens Marvin van Bekkum, promovendus aan de Radboud Universiteit in Nijmegen, en Louis Jonker, advocaat Tech & Data bij Van Doorne, op gespannen voet met elkaar kunnen staan. In dit artikel gaan zij hier, ieder vanuit zijn eigen vakgebied en achtergrond, nader op in en op de mogelijke gevolgen voor de werkzaamheden in de (zakelijke) verzekeringsbranche.

Beiden hebben een sterke affiniteit met het thema. Marvin is momenteel als promovendus aan de Nijmeegse Radboud Universiteit bezig met het schrijven van een proefschrift over discriminatoire toepassingen van AI-systemen in de verzekeringsbranche. “Als jurist en informaticus wil ik beide disciplines bij elkaar brengen. In andere sectoren is het gebruik van AI-systemen al onderzocht, zoals bij de overheid en diverse bedrijfstakken, maar dat was nog niet het geval in de verzekeringsbranche. Het onderzoek brengt de risico’s in kaart van de toepassing van AIsystemen voor de verzekeringssector en komt met aanbevelingen hoe hiermee goed om te gaan. Ik ben nu ongeveer halverwege en hoop mijn proefschrift over twee jaar af te kunnen ronden.” Louis is ruim 20 jaar actief in de advocatuur, waarvan de afgelopen 17 jaar bij Van Doorne, waar hij zich inmiddels vijf jaar bezighoudt met AI-vraagstukken. “Ik heb van jongs af aan altijd een enorme belangstelling gehad voor nieuwe technologieën en dus ook voor AI. Vanwege mijn werk ben ik extra geïnteresseerd in de juridische kant ervan. Opvallend is dat vanuit juridisch perspectief een nieuwe technologische ontwikkeling voor het eerst ook vragen oproept over de ethische aspecten ervan. Ook de aandacht voor ‘duurzaamheid’ is veel groter dan bij eerdere technologieën. Tijdens een recent congres werd zelfs gesteld dat advocaten de gatekeepers op ethisch vlak zullen moeten worden”, aldus Louis, die momenteel met diverse collega-juristen, zowel intern als van andere kantoren, ook nadrukkelijk kijkt naar de mogelijke impact van AI op legal services. 

De praktijk

Grote bedrijven worden op basis van nieuwe EU-regelgeving verplicht om bij de presentatie van hun jaarrekening over 2024 hun ESG-footprint mee te nemen. Hierin moeten zij op milieutechnisch, sociaal en bestuurlijk vlak verantwoording afleggen over wat zij dat jaar op die terreinen hebben gedaan. Louis ervaart in de praktijk dat ondernemend Nederland hier tot dusver weinig mee heeft gedaan, met name als het aankomt op de daarvoor benodigde informatie uit de supply chain. “Je kunt stellen dat dit onderwerp nog niet helemaal is geland bij het bedrijfsleven in brede zin.” Daarentegen is AI al wat meer in beeld in ondernemersland, al wordt er volgens hem meer over gepraat dan dat er zaken worden gedaan. “De vragen die we krijgen betreffen vooral of de gebruikte AI-systemen op een juiste manier worden toegepast. Dat neemt niet weg dat AI ontegenzeggelijk een opkomend onderwerp is.” Marvin geeft aan dat vandaag de dag in elke bedrijfstak en zelfs door de overheid gebruik wordt gemaakt van AI, denk maar aan de toeslagenaffaire.

Marvin van Bekkum

“Verzekeraars zijn voorzichtiger geworden, mede door de angst voor een mogelijk nieuw schandaal à la de woekerpolisaffaire en de daarmee gepaard gaande imago- en reputatieschade.

Marvin van Bekkum
Marvin van Bekkum

Louis Jonker

“Zakelijke verzekeraars moeten keuzes maken in welke mate zij de risico’s van bedrijven die AI inzetten willen verzekeren, en moeten daarbij ook ESG meewegen.”

Louis Jonker
Louis Jonker

De mate waarop verschilt echter per sector en zelfs per bedrijf. “Ik merk dat ook verzekeraars met steeds complexere modellen bezig zijn, vaak in een pioniersfase. Velen lopen met de vraag rond of de door hun toegepaste AI-modellen als discriminatoir bestempeld kunnen worden of niet”. aldus de promovendus zegt te merken dat het risicobewustzijn bij verzekeraars is gegroeid en zij op dit vlak aan het vernieuwen zijn. “Ze zijn voorzichtiger geworden, mede door de angst voor een mogelijk nieuw schandaal à la de woekerpolisaffaire en de daarmee gepaard gaande imago- en reputatieschade. Daarnaast heeft de Consumentenbond ooit naar buiten gebracht dat autoverzekeraars de premie mede bepaalden op postcode, straat, huisnummer en zelfs per toegevoegde letter (a,b,c,d, etc.). Als dat soort voorbeelden alom bekend worden, is dat lastig uit te leggen aan verzekerden.” 

Jonker: “De afzonderlijke elementen van het thema ESG zijn eigenlijk altijd al belangrijk geweest voor bedrijven, maar staan de laatste tijd helemaal in de spotlights. Ik vind het daarom ronduit ongelooflijk dat er vandaag de dag nog steeds bedrijven zijn die mannen en vrouwen niet hetzelfde behandelen en belonen voor dezelfde werkzaamheden, om er één ESG-onderwerp even uit te tillen. Zelfs bij nieuwe start- & scale-ups, waar je toch iets anders zou verwachten. Door voorop te lopen in de naleving van ESG-normen kunnen juist verzekeraars, die veelal een lange staat van dienst hebben in de samenleving, een voorbeeld zijn van wat het betekent om een goede, betrouwbare businesspartner te zijn. ”Marvin sluit zich daarbij volmondig aan. “ESG is belangrijk voor het imago voor verzekeraars. Het laat zien waar je als verzekeraar maatschappelijk staat als bedrijf en dat wordt in de huidig tijd steeds relevanter.”

Relatie AI-ESG 

Volgens beiden is er ontegenzeggelijk een relatie tussen AI en ESG. Op basis van de gestelde ESG-criteria wordt bekeken of bedrijven en andere instanties op een twaalftal terreinen maatschappelijk, sociaal en bestuurlijk verantwoord opereren. Marvin: “De relatie AI-ESG is nog zo nieuw, dat we die niet helemaal onderzocht hebben. We hebben wel de impact van AI op het milieu en mogelijke risico’s voor mensenrechten in kaart gebracht. Dat overlapt met ESG.” AI heeft ontzettend veel voordelen, benadrukken beiden. Louis noemt onder meer de besparing van kosten en vooral resources. “Je kunt met minder mensen hetzelfde werk doen. Maar je kunt de betreffende overbodig geworden medewerkers ook ander werk laten doen en zo de kwaliteit van de dienstverlening naar een hoger niveau tillen. Bijvoorbeeld door een snelle respons bij offertes en schadeclaims. Daarmee kan de omzet verder worden verhoogd. Daarbij geloof ik sterk in de combinatie mens en machine, die elkaar kunnen versterken. Alleen vertrouwen op AI is niet voldoende, want er zijn altijd checks & balances nodig. En die kunnen alleen uitgevoerd worden door mensen. Voor een effectieve toepassing van AI zijn in mijn ogen dan ook drie zaken nodig: mensen, data en tools. Alleen een goede besturing van deze drie factoren in samenhang kunnen zorgen voor een succesvolle implementatie van AI met behoud van ESGnormen”, aldus de advocaat.

Op gespannen voet 

Volgens Marvin kunnen AI en ESG dan ook op gespannen voet met elkaar staan. “Het gaat over het gebruik van gigantische datasets en miljarden parameters, zoals met ChatGPT. Fintechbedrijven zien daar veel voordelen van in: betere voorspellingen door AI betekent beter toegespitste verzekeringen (risk pooling). AI kan daarnaast ook helpen bij het vinden van nieuwe risico’s om te verzekeren en dus nieuwe producten. Maar als we aan de andere kant ESG erbij betrekken, dan wordt de afweging voor een verzekeraar moeilijker. Zo is bijvoorbeeld de milieu-impact groot doordat complexe AI-modellen zoals ChatGPT veel data nodig hebben om het systeem te trainen en daarmee enorme ‘energieslurpers’ zijn. Onderzoek heeft onder meer uitgewezen dat het trainen van een ‘klein’ AI-model al meer energie verbruikt dan een huishouden in een heel jaar. Daarnaast neemt een AI-systeem bestaande biasses (verkeerde veronderstellingen) in de gebruikte datasets over. Daaruit vloeien discriminatie- en privacyrisico’s voort. Bovendien zijn complexe AI-modellen niet transparant, dus een bedrijf weet zelf niet zeker hoe het systeem tot een bepaalde conclusie komt. Het gebruik van AI kan dan als ‘onethisch’ worden bestempeld.” Louis zegt hierover: “Het is een gegeven dat in elk AI-systeem een of meerdere biasses zitten. Het systeem wordt nu eenmaal door mensen gevoed. Wat een en ander zou kunnen voorkomen is wanneer er meer diversiteit wordt ingebracht in de groep die het AI-systeem ontwikkelt en traint. Echter, mensen zijn doorgaans ook ‘lui’ en hebben de neiging ervan uit te gaan dat wanneer 9 van de 10 uitkomsten goed zijn, de 10e dat ook wel zal zijn. Bedrijven zien veelal niet in dat ze niet voor de volle 100% op de uitkomsten van een AI-systeem kunnen vertrouwen, of ze laten het gebeuren en grijpen niet of te laat in als ze het fout zien gaan.

Keuzes maken 

Zakelijke verzekeraars moeten volgens Louis keuzes maken in welke mate zij de risico’s van bedrijven die AI inzetten willen verzekeren, en moeten daarbij ook ESG meewegen. Als een bedrijf complexe AI-modellen gebruikt, met grote risico’s op effecten die sociale ongelijkheid bevorderen, en dat bedrijf heeft hier vanuit zijn interne governance onvoldoende aandacht voor, is het dan verstandig om de risico’s van dat bedrijf te verzekeren? “Risico’s dekken vormt de core business voor verzekeraars, maar als je bij acceptatie onvoldoende aandacht besteedt aan dergelijke ESGaspecten rond de inzet van AI, dan ben je in feite een brandend huis aan het verzekeren.” Hij verwijst in dit verband naar de manier waarop de cyberverzekeringsbranche te werk gaat. “Verzekeraars zijn zich bij hun risicoanalyses vóór acceptatie gaan bemoeien met de manier waarop verzekerden binnen hun bedrijf omgaan met preventie en risicomanagement. Dat zouden zij ook met betrekking tot AI en ESG kunnen gaan doen. Als zij ‘blind’ zaken in dekking nemen, dan is er een grote kans dat zij daarvan een keer de financiële rekening Hoewel het niet altijd verplicht is op basis van de huidige regelgeving, raad ik verzekeraars aan vooral hun morele kompas in gedachten te houden gepresenteerd krijgen; en ik doel dan op een financiële rekening die aan de zijde van de verzekerde voorkomen had kunnen worden.”

Morele kompas

Wat zouden jullie met betrekking tot dit onderwerp mee willen geven aan de verzekeringsmarkt en andere bedrijven? Jonker: “Lees je in, lees je in, lees je in! Er is bij eenieder nog te veel onwetendheid over zowel AI als ESG, maar er is volop info voor handen. Creëer besef en bewustzijn bij alle medewerkers, bijvoorbeeld door hen wekelijks een half uurtje bij te laten lezen over de impact van AI en ESG op de dagelijkse praktijk en de dienstverlening aan klanten. Kortom, ga ermee aan de slag, maar probeer op dit vlak je in het begin niet meteen al te perfect op te stellen. Goed genoeg is voorlopig ook goed genoeg.” Marvin zegt te vrezen dat met betrekking tot AI bedrijven, verzekeraars incluis, de grenzen zullen opzoeken wat binnen de regelgeving mogelijk en toegestaan is. Hoewel het niet altijd verplicht is op basis van de huidige regelgeving, raad ik hen aan vooral hun morele kompas in gedachten te houden.”

Zoeken binnen VNAB