De færreste ønsker at kunstig intelligens tar avgjørelser i enkelte situasjoner innenfor bank og forsikring.

Foto

AP Photo/Dake Kang.

Nordmenn er skeptiske til la roboter ta avgjørelser i disse spørsmålene

Publisert: 25. november 2021 kl 11.07
Oppdatert: 25. november 2021 kl 11.07

Kunstig intelligens og automatiserte løsninger kommer for fullt i bank og forsikring, men foreløpig er få villige til å la roboter ta avgjørelser i bank- og forsikringsspørsmål.

På oppdrag for Fremtind, forsikringsselskapet til SpareBank 1 og DNB, har Respons Analyse undersøkt nordmenns holdninger til kunstig intelligens, ofte kalt roboter eller automatiserte løsninger.

De færreste ønsker at kunstig intelligens tar avgjørelser i enkelte situasjoner innenfor bank og forsikring.

– Dette handler både om kunnskap og folks tillit til selskapene som tar i bruk kunstig intelligens. For de fleste av oss er det umulig å se forskjell på etisk god og dårlig, uetisk kunstig intelligens.

– Det finnes ikke noe stempel som «godkjenner» kunstig intelligens, og derfor må etikk og mangfold inn i algoritmene, sier Emanuele Lapponi, maskinlæringsingeniør i Fremtind.

De færreste nordmenn ønsker å la kunstig intelligens ta avgjørelser, fremfor et mennesker, i enkelte bank- og forsikringsspørsmål:

  • Hvilken pris jeg får tilbud om på forsikringene mine. 27 prosent

  • Om jeg har rett på forsikringsoppgjør i en skadesak. 13 prosent.

  • Om jeg får boliglån eller ikke. 12 prosent.

  • 66 prosent oppgir at det ikke er greit at kunstig intelligens tar avgjørelser i noen av de tre situasjonene.

  • Det er de mellom 18 og 24 år, som i størst grad oppgir at dette er greit.

Saken fortsetter under annonsen

Menn mer positive

Menn er i større grad enn kvinner positive til at kunstig intelligens tar avgjørelser, i alle tre situasjoner.

– 12 og 13 prosent er lavt, men jeg forstår at folk er skeptiske. I Fremtind vil vi bruke kunstig intelligens til å gjennomføre automatiske utbetalinger i helt opplagte skadesaker. Det bidrar både til at kundene får oppgjøret sitt raskere, og at de sakene vi behandler manuelt også vil gå raskere, sier Lapponi.

Foruten helt opplagte saker, mener Fremtind at saker som går i kundenes disfavør, som mistanke om svindel, skal avgjøres av mennesker og ikke kunstig intelligens.

– Kommunikasjon og åpenhet er også viktig, og kundene må få vite hvilke avgjørelser som er tatt av mennesker og hvilke som er tatt av kunstig intelligens, sier Lapponi.

Kunstig intelligens:

Det brukes mange ord på kunstig intelligens (KI). I dag sier mange bare «AI», forkortelsen for artificial inteligence, men stadig flere bruker «KI».

Du hører ofte begrepet maskinlæring, og det er en metode som bygger det vi oppfatter som kunstig intelligens.

Automatiserte løsninger, som chatbots, er en form for kunstig intelligens, og noen bruker bare ordet robot.

Felles for dem alle er at det er mennesker som har laget og forhåndsprogrammert algoritmer og regler som gjør at en digital løsning er, eller fremstår som, kunstig intelligent for den som bruker den.

Fare for å forsterke fordommer

Saken fortsetter under annonsen

Kun 2 av 10 ville akseptert at kunstig intelligens bruker ens kroppsspråk og ansiktsmimikk fra videoopptak til å avgjøre om du snakker sant eller ikke i et forsikringsoppgjør, for å avdekke eventuelt svindelforsøk. 64 prosentoppgir at de ikke ville akseptert dette.

– Dette er sunn skepsis. Det er flere utfordringer og etiske problemer med å bruke kunstig intelligens på denne måten. Det er alltid fare for at menneskers bevisste og ubevisste fordommer blir med inn i algoritmene. Dermed står en i fare for å forsterke både tilsiktede og utilsiktede fordommer, og for eksempel rasisme, i stor skala, sier Lapponi.

Lapponi mener at det å bruke kunstig intelligens og såkalt «computer vision» på mennesker, som teknologi for å avgjøre svindel, er basalt feil.

– Det er nær 100 år siden vi lærte at vi ikke kan bruke kroppsspråk og utseende til å avgjøre om du juger eller ikke. Det er helt andre ting som skal undersøkes for å avgjøre forsikringssvindel.

Mangfold kan øke tilliten

Kun 4 av 10 synes det er greit at kunstig intelligens påvirker hva de blir anbefalt på Netflix og Spotify. – Etikk må inn i algoritmene, sier ekspert på kunstig intelligens.

– Kunstig intelligens styrer dine valg hver gang du åpner Spotify eller Netflix, og de fleste synes nok dette er veldig praktisk.

Saken fortsetter under annonsen

– Men, det har vært mye snakk om hvilke konsekvenser algoritmer kan føre med seg. Derfor tror jeg nordmenn fått mer kunnskap om kunstig intelligens og utviklet en sunn skepsis til hva som er greit og ikke, sier Lapponi.

Samme teknologi – ulik konsekvens

Denne høsten har varslingene om Facebook vist at selskapets algoritmer, som avgjør hva du får presentert av innhold, kan trekke folk i radikale retninger, bli utsatt for mobbing eller eksponeres for innhold som eksempelvis fremmer selvskading eller spiseforstyrrelser.

– Det er en vesentlig forskjell mellom det å få anbefalt musikk på Spotify, og få anbefalinger på Facebook eller YouTube som kan være falske nyheter, innhold med grov vold eller noe som en med spiseforstyrrelser ikke bør se. Det er den samme teknologien, men sistnevnte er farligere og kan gi alvorlige konsekvenser, sier Lapponi.

Undersøkelsen viser at få ønsker at kunstig intelligens, fremfor mennesker, tar avgjørelser, spesielt i enkelte situasjoner innenfor bank og forsikring.

I disse situasjonene mener nordmenn det er greit at kunstig intelligens tar eller hjelper en med valg:

Hva jeg bør se eller høre på Netflix, Spotify eller andre strømmetjenester. 40 prosent

Hva jeg bør ha til middag. 25 prosent

Hvilke aksjer eller aksjefond jeg bør kjøpe. 25 prosent

Hvilke forsikringer jeg bør kjøpe. 20 prosent

Ingen av de over. 45 prosent.

Umulig å se forskjell på god og dårlig kunstig intelligens

Saken fortsetter under annonsen

De aller fleste av oss har ikke kompetanse til å se forskjell på etisk god og forsvarlig, og dårlig og uetisk kunstig intelligens.

– Det finnes dessverre ikke et stempel som sier: «Dette er god og etisk forsvarlig kunstig intelligens». Derfor må vi som lager løsninger med kunstig intelligens ha både etikk og mangfold med inn i datasamlingene og algoritmene, sier Lapponi.

– Også er det viktig å være klar over hvilke konsekvenser og problemer som kan oppstå med de løsningene vi utvikler, og iverksette tiltak for å forhindre dem. Da vil tilliten til kunstig intelligens og vi som lager løsningene øke.

Maskinlæringsingeniøren påpeker at etikk ikke er en fast størrelse, og den etiske jobben må gjøres hver eneste gang et selskap eller et team utvikler nye løsninger med kunstig intelligens.

– I tillegg er dialogen med kundene viktig. For eksempel om du har fått oppgjør på en skade, så bør du få vite om det er en maskinlæringsmodell som har avgjort det eller et menneske.

Flere funn fra undersøkelsen:

Det er de mellom 18 og 34 år som i størst grad synes det er greit at kunstig intelligens hjelper dem med valg. Det gjelder alle fire situasjoner nevnt over. I motsatt ende finner vi de over 65 år. Over 70 prosent av de eldre oppgir at de ikke vil at kunstig intelligens skal hjelpe dem med valg i noen av de fire situasjonene.

Det er menn som i størst grad oppgir at de synes det er greit, og er mer positive til dette enn kvinner i alle fire situasjoner.

Det er de med høyest inntekt som i størst grad (i forhold til de som tjener mindre) synes det er greit at kunstig intelligens hjelper dem med avgjørelser.

Det er innbyggerne i Oslo som i størst grad er positive til å la kunstig intelligens hjelpe dem med valg, mens innbyggerne i Møre og Romsdal er mer skeptiske.

 

Saken fortsetter under annonsen