Datakvalitet, kunstig intelligens og hvordan etikk kan bli et konkurransefortrinn

«Akkurat som alle andre verktøy kan kunstig intelligens misbrukes. Kunstig intelligens, også kjent som AI, har ingen onde hensikter, det er vi mennesker som bruker det uklokt. Å hevde at verktøyene er i ferd med å ta over, blir dermed en feilslutning. Det som imidlertid er sant, er at kunstig intelligens kan programmeres til å handle på en lite hensiktsmessig måte. Men hvordan kan vi hindre at algoritmene som vi har så store forhåpninger til, får en bias, enten bevisst eller ubevisst?», spør Luc Julia, som er teknologidirektør i Samsung Electronics og en av opphavsmennene bak Siri.

Algoritmer med innebygd bias

Det har vært flere tilfeller der kunstig intelligens har forårsaket feil. «I 2015 tok 21 amerikanske domstoler i bruk en risikovurderingsalgoritme som skulle hjelpe dommere med å avgjøre om tiltalte burde fengsles før saken deres kom opp», forklarer teknologistrateg Fayçal Boujemaa ved OrangeLabs Research**. Året etter avdekket en undersøkelse at systemets bruk av historiske data førte til at det «feilaktig plukket ut svarte tiltalte i nesten dobbelt så mange tilfeller som hvite».

Men hva er det som bidrar til slike feil, og hva kan bedriftene gjøre for å luke dem ut i størst mulig grad?

Françoise Soulié-Fogelman er vitenskapelig rådgiver ved Hub France IA. Hun peker spesielt på tre etiske risikoer knyttet til kunstig intelligens: algoritmebias, behov for åpenhet og rettferdighet og spørsmål knyttet til ansvar.

La oss først ta en kikk på algoritmebias. Soulié-Fogelman argumenterer med at det faktum at algoritmebias forekommer, indikerer at det også finnes mange andre, mindre, former for bias i kunstig intelligens. Hun mener at algoritmenes utforming kan gjenspeile en bevisst eller ubevisst bias hos dataviterne som bygger dem. Siden kunstig intelligens ikke kan korrigere sin egen innebygde programmering, må vi måle virkningen av disse algoritmene i praksis – rettsdokumentene i eksemplet ovenfor kan være en god illustrasjon på det.

En annen utfordring knyttet til etisk ansvarlig bruk av kunstig intelligens er behovet for å avdekke hvilke beslutninger som ligger bak. Vi må kunne se hvordan den kunstige intelligensen har kommet fram til en beslutning, slik at det blir mulig å gjøre nødvendige justeringer i algoritmen, sikre regulerte næringer nødvendig rettsvern og studere bevisene ved eventuelle feilaktige beslutninger. Manglende åpenhet og algoritmebias gjør det enda viktigere å skape ansvarskjeder som fungerer i den virkelige verden, og å fortsette å granske og plassere ansvaret der det hører hjemme, ikke minst når ting går galt.

En måte å løse dette på kan være å gi dataviterne støtte fra etikkrådgivere og andre fagfolk som kan analysere bias og diskriminering. Direktør for forretningsinnovasjon Mick Lévy i Business & Decision* foreslår en teambasert tilnærming til etisk anvendelse av data, der organisasjoner kurses i å betrakte dataene som en eiendel. En annen mulighet er å sikre at mennesker fortsatt har en sentral rolle i beslutningstakingen. Michael Sandel, som er Professor of Government ved Harvard-universitetet, formulerer det slik: «Er visse elementer ved menneskelig dømmekraft uunnværlig for å ta avgjørelser om noen av de viktigste tingene i livet?»

Kvalitetsdata en forutsetning

«Søppel inn, søppel ut» er et kjent munnhell blant datavitere. I forbindelse med kunstig intelligens betyr det at hvis dataene er falske, ikke nøyaktig nok målt, gjenspeiler en samfunnsmessig eller personlig bias eller har andre feil eller mangler, blir resultatene dårlige. Dataene må være konsekvente, nøyaktige og riktige. De må oppfylle gjeldende standarder for personvern og gjeldende lovgivning og stamme fra pålitelige kilder. De må også være hentet fra en relevant kontekst. Kunstig intelligens som bygger på femti år gamle data, kan være svært relevant for historiske hendelser, men uten relevans i dag. Ni av ti selskaper frykter allerede i dag at databasene deres inneholder for mange feil. «Det er lett å forestille seg at datasett fra et hvilket som helst datasystem i nær framtid vil bli matet inn i eller brukt til å lære opp kunstig intelligens», sier Didier Gaultier, som er direktør for datavitenskap og AI i Business & Decision*.

«En rekke forhold, for eksempel falske, inkonsekvente og manglende (og/eller ikke representative) data, kan komme i veien for god opplæring av kunstig intelligens. Listen er langt fra uttømmende, og faren er at dette ikke bare kan gi dataene en skjevhet, men at menneskelig bias kan bli reprodusert og kanskje til og med forsterket på grunn av algoritmebias.»

Dette er et stort etisk dilemma, og mange bedrifter og myndigheter forsøker derfor å finne en løsning på problemet. Europakommisjonen arbeider med å utvikle prinsipper som kan støtte opp om etisk bruk av kunstig intelligens. Orange Business Services er en av aktørene som utvikler etiske prinsipper for bruk. Den europeiske ekspertgruppen har uttalt at kunstig intelligens må være:

  • lovlig
  • teknisk og sosialt robust
  • etisk, og altså rettferdig og mulig å forklare og få innsyn i

Skal disse standardene oppfylles, må produktsjefer, datavitere og etiske rådgivere samarbeide tett. Det må tas etiske hensyn i hele utviklingssyklusen, fra avgrensing av kontekst og målsettinger til datainnsamling, utvikling og distribusjon. Kommisjonen argumenterer for at enhver risiko for bias må identifiseres og rapporteres før løsningen for kunstig intelligens kan settes i drift.

De etiske kravene kan rangeres etter viktighet. Rettferdighet betyr for eksempel at mennesker og grupper av mennesker ikke skal behandles annerledes på grunn av sensitive forhold. Europakommisjonen har publisert en evalueringsliste for pålitelig kunstig intelligens. Tanken er at datavitere og etikkrådgivere skal innlemme disse kravene i koden for å demme opp for bias og sikre åpenhet om beslutninger.

Ulike rekrutteringsverktøy brukes av 99 prosent av selskapene på Fortune 500-listen, men en fersk Harvard-studie viser at enkelte AI-baserte rekrutteringsverktøy filtrerer ut potensielle kandidater med relevant erfaring på grunn av begrensninger i den kunstige intelligensen. HR-folk mener nå at mange slike systemer ikke er bygd for å gjenspeile den nyanserte virkeligheten de står overfor i forbindelse med rekruttering. En måte å demme opp for dette på kan være å bygge beslutningstrær der bias takles ved hjelp av åpne og ærlige forklaringer på hvordan beslutningene tas.

Vanlige folk blir stadig mer skeptiske til den voldsomme datainnsamlingen. I Frankrike føler 57 prosent av internettbrukerne seg mer overvåket enn før, 80 prosent anser automatiserte anbefalingssystemer som forstyrrende og 74 prosent stoler ikke på hvordan appene deres bruker dataene deres.

Bedrifter som forsikrer kundene om at løsningene for kunstig intelligens bruker dataene deres på en ansvarlig måte, kan sikre seg en fordel. «Bedriftene vil kunne skille seg ut fra mindre etisk bevisste konkurrenter ved å være fullstendig åpne om databruken og i kommunikasjonen med allmennheten», forklarte Indexicals medgrunnlegger Emmanuel Dubois i en fersk rapport fra Business & Decision*. Etisk bruk av kunstig intelligens er ikke bare en «riktig» tilnærming, det kan også vise seg å være lønnsomt for dem som lager systemer som støtter opp om dette.