Artikel

af Anna Felländer. Stifter af anch.AI

07. september 2022

Compliance er grundlæggende. Alt andet er etik. Hvor står du?


Datadrevet teknologi og kunstig intelligens (AI) er magtfuld og har store fordele for samfundet. Men med stor magt følger også et stort ansvar. Dette gælder især for advokatfaget. Hvis AI ikke er styret, kan utilsigtede etiske faldgruber og juridiske overtrædelser stige eksponentielt og uden for vores kontrol. Den kommende EU-forordning, AI-loven, vil betyde, at de juridiske afdelinger skal handle og bryde alle eksisterende teknologiske siloer. Alle organisationer har et valg at træffe her og nu: Lader vi teknologien styre os, eller skal vi styre teknologien?


Anna Felländer
Stifter anch.AI

Hvad AI kan gøre, og hvad AI bør gøre – tag stilling!


Kunstig intelligens, hvis den ikke er styret, udgør etiske risici og juridiskeovertrædelser. AI er drivkraften bag den teknologiske udvikling og kan betragtes som den nye teknologi til generelle formål (GPT). I fremtiden vil vi ikke længere kalde teknologien for teknologi, men snarere se den som elektricitet. AI er velegnet til opgaver, hvor der er en høj grad af forudsigelighed i kraft af læring fra store datamængder; f.eks. mønstergenkendelse i juridiske efterforskninger. AI-modeller har også vist sig at være i stand til at foretage antagelser og forudsigelser om meget komplekse opgaver og dermed efterligne menneskelig adfærd. I sidstnævnte tilfælde har det været vanskeligt at forklare og fortolke algoritmens beslutninger.

Teknologiteams udvikler "Black Box"-AI-løsninger i en organisatorisk silo uden krav om overholdelse af lovgivningen eller overholdelse af organisationens etiske værdier. Som følge heraf har der været tilfælde af utilsigtet forskelsbehandling og indgreb i privatlivets fred . Der er eksempler i retssager, hvor AI-modeller har forstærket skævheder og givet forkerte domme baseret på historiske normer og mønstre. De grundlæggende årsager kan findes i manglende valideringsprocesser for AI-løsningens markedsparathed, uønsket skævhed i data, over- eller misbrug af data og AI samt skævhed hos den, der har skabt koden.

 

Opgaver med en høj grad af intuition, kreativitet og empati – brug AI som et supplement, ikke som en sandhedskilde

Der, hvor kunstig intelligens kommer til kort, er, når det drejer sig om evnen til at være kreativ, intuitiv og empatisk, som er en del af analytiske færdigheder. Når man tænker på AI, der anvendes inden for advokaterhvervet, er der opgaver med en høj grad af disse komponenter. Efter min mening vil disse opgaver blive værdsat mere end tidligere, og det er her, organisationer skal være gennemsigtige med hensyn til deres værdier for at skabe tillid og mindske alle bekymringer om uønsket menneskelig skævhed. Her kan AI bruges som et supplement til den juridiske profession, når AI-løsningen har omdannet alle data til værdifuld indsigt, og den menneskelige interaktion overlades til kreativ, intuitiv og empatisk navigation. Når alt kommer til alt, er menneskets færdigheder inden for kreativitet, intuition og empati stadig bedre end AI's færdigheder.

Hvad angår årsagerne til at investere i AI, er der en relativt lav procentdel af svarene, der fokuserer på kundernes behov. I fremtiden bør advokaterhvervet tage hensyn til klientens behov – billige AI-drevne juridiske tjenester uden menneskelig interaktion til de fleste opgaver og højt kvalificerede advokater til håndtering af opgaver af høj kompleksitet, herunder menneskelige følelser.

EU's kommende forordning om kunstig intelligens vil kræve orkestrering på tværs af organisationer

Der skal tre til at danse tango – ny styringsdans for advokatfaget

AI-løsninger udvikles ofte i en teknologisk silo uden integreret teknisk, juridisk, etisk og forretningsrelateret opsyn, hvilket åbner døren for dyre og skadelige risici for virksomheden. For eksempel betyder begrebet "retfærdighed" forskellige ting i det teknologiske team og i det juridiske team. I det teknologiske team har begrebet "retfærdighed" ikke noget grundlag i lovgivningen eller overensstemmelse med organisationernes etiske værdier og principper. Desuden tages der ikke hensyn til begrebet "retfærdighed" i de forskellige sammenhænge, hvor løsningen skal anvendes eller forbruges.

Advokater er ikke uddannet til at forstå kode. Kodere er ikke uddannet eller vejledt i organisationens etiske principper, og nogle gange er det kun forretningsteamet, der kender de forskellige kontekster, som løsningen skal bruges i. Eller misbruges. Vigtige forretningsbeslutninger kan ikke træffes i den teknologiske silo. F.eks. overvejelserne eller afvejningen af, hvor intelligent en by kan blive uden at krænke privatlivets fred. Eller når en anbefalingsmotor er ved at gå fra at være hensigtsmæssig til at krænke vores ret til som mennesker at træffe selvstændige beslutninger. Det er her, at advokaterhvervet skal træde ud af sin komfortzone og kræve fuld tilpasning og visualisering af etiske overvejelser, der overholder lovgivningen og er i overensstemmelse med organisationens etiske værdier og principper. Hvis der er lovkrav, som ikke anvendes af teknologiteamet, hvor gode er de så? Hvor gode er de forklaringsmodeller, der anvendes i teknologiteamet, når de ikke forstås af det juridiske eller forretningsmæssige team? Afstemning og visualisering mellem teknologiske, juridiske og forretningsmæssige teams er altafgørende.

Image - 1005 x 600 - Tech hjerte

Den kommende AI-forordning – et nyt GDPR-øjeblik


Forbudt AI vil blive sanktioneret med op til 6 % af omsætningen, og AI med høj risiko vil blive reguleret med sanktioner på op til 4 % af omsætningen. Definitionen af AI med høj risiko er baseret på det tilsigtede formål og risikoen for at skade menneskerettighederne, sikkerheden og de grundlæggende rettigheder. Det vil kræve omfattende rapportering, styring og revision af AI inden for f.eks. finans-, transport-, offentlig-, uddannelses-, ansættelses- og retssektoren. AI med "begrænset risiko", som f.eks. chat bots, vil kræve gennemsigtighed. Dette er helt klart et nyt GDPR-øjeblik.

Jeres organisation kan være udsat for dyre forretningsmæssige og omdømmemæssige risici, og I skal vurdere alle AI-løsninger i jeres organisation ud fra jeres egne specifikke forretningsrisici. I kan vælge at lade forordningen blive en administrativ våd klud eller se den som en mulighed for at have bæredygtige forretningsmodeller, der skaber tillid. Min sidste bemærkning til resultatet af betænkningen er, at det ikke kun drejer sig om implementering af ny teknologi, men også om viden om, hvordan man implementerer eksisterende og nye krav i et nyt og konstant skiftende miljø. Tilpasningsevne og evne til at reagere på forandringer er afgørende, og det samme gælder ledelsens engagement i værdidrevne forretningsmodeller.

For mere information - kontakt:

Gitte Trier, PR & Brand Communications Manager
Email: gitte.trier@karnovgroup.com

 

Karnov Group

Karnov Group er en førende leverandør af forretningskritisk information inden for jura, skat, revision og regnskab samt miljø, sundhed og sikkerhed i Danmark og Sverige. Med brands som Karnov, Norstedts Juridik, Notisum, Legal Cross Boarder, Forlaget Andersen, Ante, Bella Intelligence, LEXnordics, DIBkunnskap og Echoline leverer Karnov Group viden og indsigt, der gør flere end 80.000 brugere i stand til at træffe bedre beslutninger, hurtigere – hver dag. Med kontorer i København, Stockholm, Oslo, Paris og Malmø beskæftiger Karnov Group i dag ca. 290 medarbejdere. Nettoomsætningen i 2021 beløb sig til SEK 878 mio. Karnov Group er noteret på Nasdaq Stockholm, Mid Cap-segmentet under “KAR”. For mere information, besøg www.karnovgroup.com