För något år sedan hade vi på Länsförsäkringar en bred kunskapsinsats där många av oss deltog i en kurs för att få introduktion till AI. Jag blev väldigt glad av den kursen, den definierade GLM-metoder som en del av AI-verktygslådan och det kan jag ändå en del om.
Jag förstår att alla inte vet vad GLM är, men det är den metod vi använt för att prissätta sakförsäkring de senaste 20 åren. Förenklat går metoden ut på att utifrån ett antal parametrar (ålder, modell på bil etc) skatta en sannolikhet som leder till att vi får veta vilken riskpremie vi behöver ta ut av en kund. När jag läste om GLM i slutet av 90-talet i Uppsala fick jag lära mig att bevisa att det både var den bästa metoden då och dessutom den bästa metoden som skulle kunna finnas. Modigt konstaterande och kanske inget de trycker på idag.
Jag ska inte låtsats som att jag förstår hur alla nya AI-metoder faktiskt fungerar men det finns en grupp metoder som jag förstår bra eftersom de ur ett processperspektiv är ganska lika de ”gamla” GLM-metoderna. Vi kan kalla det för maskininlärningsmetoder. Även om det matematiskt/kodningsmässigt är något annat så skickas en stor mängd data in till något som liknar en miniräknare. Vi får sedan tillbaka ett svar, ofta i form av ett tal eller sannolikhet. Min bild är att vi i vår bransch har väldigt mycket kvar för att få in den gruppen av modeller i våra nyckelprocesser. Nu kommer det en annan sorts metoder, så kallade generativa AI-metoder och vi har nog nu passerat peaken på buzz-kurvan. Det vill säga den punkt då vi allmänt tror att metoden kommer göra allt, men med liten konkret idé om hur.
Nu tror jag att vi börjar inse saker som Generativ AI inte gör eller förändrar, samtidigt som vi kommer inse att det som det går att göra förändrar väldigt mycket. Vi går från en allmän känsla av stor förändring, eller kanske till och med förundran, till konkreta användningsfall. Jag tror att vi både i maskininlärning och generativ AI kan lära oss av vad en del av oss gjorde i den ”gamla” metoderna.
Det var ganska länge sedan som jag själv gjorde modellerna. Men jag har ägnat en osund stor del av min arbetstid åt att studera de modeller som andra har gjort. Försäkring är ju en värld av modeller och ofta har jag behövt ta beslut som baserar sig på vad modeller säger eller vad de missar. I början så gick det att faktiskt att titta på parametrarna i formlerna. Modellerna var så enkla att de gick att förstå.
Men för ganska länge sedan så kom modeller som var så komplexa att de inte går att förstå från formeln utan vi fick kolla på olika visualiseringar av hur modellen var byggd. Detta för att vi behövde kunna ta och motivera beslut. Men också för att modellerna ibland hade fel. Mycket pengar har förlorats i branschen av modeller som är fel. De extrapolerar, det saknas data eller data är fel. Strukturen i modellen tvingar fram ett resultat. Min personliga favorit är mötet när modellen var byggd som en linjär modell och det gjordes en stor poäng att resultatet var ett linjärt samband fast datat indikerade att sambandet var allt annat än linjärt. Mitt skräckexempel är bolag som fått in i stort sett alla dåliga risker inom en kategori för att deras modell inte kunde fånga det som egentligen drev risken. Med en del nya modeller så minskar den risken men i andra tror jag den ökar. Vi kommer säkert få krav på oss med ytterligare kontroller av våra modeller, men frågan är ju vilka kontroller som behövs. Min oro är att det kommer ytterligare och höga kontrollkrav som liknar det vi gör i redovisning. Vi ser ju utvecklingen nu på hållbarhet där vi kommer lägga mycket tid på att säkerställa att dataflöden sker kontrollerat och spårbart. Det är mycket bra men inte självklart att de mäter det vi vill att de ska mäta. Det vill säga vi riskerar att bli exakt irrelevanta. Modeller som är exakt irrelevanta kan vara dyra att göra och förstöra.
Det handlar också om etik. Vi pratar inte mycket om etik bland annat för att vi inte kan prata om våra affärsbeslut med varandra. Jag arbetar i en värdedriven ömsesidig grupp. Men jag upplever att de flesta beslutsfattare i branschen har en mer eller mindre uttalad etisk hållning. Det finns helt enkelt affärsbeslut baserade på modeller som man tror är korrekta modellmässigt men som ändå ingen vill ta. Jag tror att vi skulle behöva prata mer om det här. Jag vill slå ett slag för den väg jag själv tror på. I ett bolags affärsmässighet så ligger det i grunden olika konsekvens- eller nyttoteoretiska argument, av karaktären; vi tjänar mera pengar eller får mer kunder. Jag tror inte att etiken behöver lägga till mer av det från nyttoteorier. Vi har redan omfattande regelverk och fler är på väg så regel eller pliktetik tror jag inte behöver betonas mer. Däremot tror jag att vi kan lära oss av dygdeetik.
Dygdetik handlar mer om att göra saker utifrån vilken person eller bolag vi vill vara. För mig handlar det om vem jag vill se i spegeln på morgonen. Kan jag se mig själv och tycka att jag agerar på ett sätt som speglar den jag vill vara. Kan jag se mig själv förklara för mina barn, vänner eller föräldrar vilka beslut jag tar om jag fick och de ville lyssna. Jag har en del ganska tydliga beslut där jag är säker på att vi lagligt hade kunnat göra annorlunda, vi hade tjänat mer på det men där vi ändå inte gjorde det för att ”vi inte är sådana som bolag”. Med kraftfullare metoder kommer vi ha möjligheten att veta och därmed göra mycket mer. Vi ska inte vara naiva men jag tror att vi behöver prata mer om hur vi använder kraftfulla modeller och det tror jag inte regleringar kan ersätta.