Fra papirutgaven

Illustrasjon.

Roboter i rettssalen

Snart kan roboter avgjøre dommen i straffesaker, skal vi tro forskerne. Ikke bra for rettssikkerheten, mener Advokatforeningen.

Publisert Sist oppdatert

– Kunstig intelligens-teknologien blir hele tiden kraftigere med et forrykende tempo, og kommer til å dominere på så mange områder at det snart er vanskelig å tenke seg fagfelt uberørt av kunstig intelligens. Rettssalen er definitivt intet unntak, sier Morten Goodwin ved Senter for kunstig intelligens på Universitetet i Agder.

Kunstig intelligens vil være et supplement, og ikke erstatte dommere fullt ut. Menneskelig klokskap er ingen kontrast til kunstig intelligens

Kunstig intelligens er et forskningsfelt innenfor datateknologien som konstruerer datasystemer som er «intelligente». Det innebærer systemer som er i stand til å løse problemer og lære av egne erfaringer. Et eksempel er blant annet teknologien som brukes i førerløse biler. Goodwin mener kunstig intelligens vil bedre rettsikkerheten til den enkelte ved å være et supplement for dommere, og eventuelt en jury:

– Kunstig Intelligens vil kunne støtte oppunder avgjørelser dommere gjør slik at dommere kan få et økt beslutningsgrunnlag. Et bedre beslutningsgrunnlag fører til økt beslutningsgrunnlag, og det vil vi alle ha, sier Goodwin, men understreker at han ikke ser for seg en rettssak der kunstig intelligens alene vil kunne avgjøre dom i saken:

– Jeg har ingen tro på at kunstig intelligens fullt ut erstatter dommere. Kunstig intelligens vil være et supplement, og ikke erstatte dommere fullt ut. Menneskelig klokskap er ingen kontrast til kunstig intelligens, sier Goodwin.

Kunstig intelligens brukes allerede aktivt i enkelte lokale domstoler i USA, deriblant i Wisconsin. Basert på tidligere informasjon brukes kunstig intelligens for å bestemme risiko for at tiltalte kommer til å utføre flere kriminelle handlinger ved en eventuell løslatelse, og om vedkommende i det hele tatt kommer til å dukke opp i rettssalen. Dommeren har siste ord og det juridiske ansvaret men får råd og verdifull støtte fra kunstig intelligens, forklarer Goodwin

– Her fungerer den kunstige intelligensen fordi den trenes opp med store mengder historisk data, og bygger opp erfaring over hvilke mønstre som øker risikoen for kriminell adferd. Ved å saumfare eksisterende rettsdokumenter forstår kunstig intelligens-verktøyene selv hva som fører til gjentagelse blant annet basert på alvorlighetsgrad av tiltalen, tidligere domfellelser, rehabiliteringsbehov og faktorer som tiltaltes inntekt og om han i det hele tatt har et hjem å gå til ved løslatelse, sier Goodwin.

Kritisk til robotdommere

Flere av de store advokatfirmaene i Norge rapporterer allerede om at de bruker kunstig intelligens til ulike oppgaver, som gjennomgang av store mengder informasjon. Generalsekretær i Den norske advokatforeningen, Merete Smith, mener kunstig intelligens kan være et nyttig verktøy i juridiske tjenesteyting forutsett at man fører kontroll, og er nøye med hvilke algoritmer den kunstige intelligensen bygges på:

– Jeg tror vi i framtiden vil se mer til kunstig intelligens innen standard problemstillinger og generelle juridiske spørsmål, for eksempel ved skilsmisse. Det er bra fordi det gjør en del juridiske tjenester billigere, noe som vil gjøre tjenestene mer tilgjengelig. Jeg tror vi kommer til å få mer av dette i Norge i tiden som kommer - snart kan man kanskje bruke Siri på telefonen sin som juridisk rådgiver, sier Smith.

Når man skal vurdere straffen for en kriminell handling vil det alltid være nødvendig å bruke skjønn. Poenget er at man skal dømmes på bakgrunn av det man har gjort, ikke det man kan komme til å gjøre

Hun mener det er stor forskjell på om man bruker kunstig intelligens i forbindelse med rådgivning og informasjonssamling, eller om man bruker det i fastsettelse av dommer, og legger til at vurdering av faren for gjentagelse strider imot norsk praksis for rettsikkerhet:

– Når man skal vurdere straffen for en kriminell handling vil det alltid være nødvendig å bruke skjønn. Poenget er at man skal dømmes på bakgrunn av det man har gjort, ikke det man kan komme til å gjøre. Det å bruke kunstig intelligens for å forebygge at en person gjør noe straffbart i framtiden kan kanskje høres besnærende ut, men det strider mot rettsikkerheten, sier Smith.

p.p1 {margin: 0.0px 0.0px 0.0px 0.0px; font: 11.0px Helvetica}li.li1 {margin: 0.0px 0.0px 0.0px 0.0px; font: 11.0px Helvetica}span.s1 {font-kerning: none}span.s2 {text-decoration: underline ; font-kerning: none}ul.ul1 {list-style-type: disc}
Powered by Labrador CMS