Big Challenge:
Kan algoritmer være onde?
En far har mistet sin datter i kreft tidlig på året. Ved årsskiftet plukker Facebook et bilde av henne, rammer det inn og legger det inn på farens tidslinje med overskriften «It has been a great year!»
Zeynep Tüfekci er en tyrkisk-amerikansk professor i sosiologi.
Helene Mariussen
Den tyrkisk-amerikanske professoren og tekno-sosiologen Zeynep Tüfekci fortalte om faren som fikk datterens bilde i strømmen ved juletider og hva det gjorde med ham og familien hans. Deloverskriften var «onde algoritmer». Kan algoritmer begå onde handlinger?
Algoritmer og kunstig intelligens (KI) var tema for seansen «Code of Etics» onsdag formiddag. En algoritme er, slik NTNU-professor Keith Downing formulerte det i et senere foredrag, meninger lagt inn i en kode.
Slike meninger kan være ondsinnede, men behøver ikke være det. Algoritmer vokser voldsomt i kraft, de kan anvendes til det meste, foreløpig i menneskets tjeneste: De kan vurdere om du bør få banklån, om du bør settes i fengsel, hvilket parti du bør stemme på. Algoritmer kan kjøre deg fra A til B, etter å ha vurdert hva B bør være. Algoritmer kan også, når de integreres i selvbevegelige våpensystemer, vurdere om du bør drepes.
Som Universitetsavisa skrev i mai tok en rekke norske akademikere og universitetsledere initiativ til et opprop mot «killer robots.» Slike selvstyrte våpensystemer er den mest ekstreme formen for avanserte algoritmer. Men de etiske utfordringene når det gjelder kunstig intelligens er ikke begrenset til drapsroboter.
Bygger egne verdener
Professor Tüfekci gav en rad eksempler innen programmering og effekt i kategorien 'veien til helvete er brolagt med de beste hensikter.' Hun minnet om at også programmerere er gode mennesker, i det minste like gode som alle andre.
- Programmerere, kodere, er i sin natur systembyggere. Det er det de tenner på, å bygge opp systemer fra grunnen av. Det er blant annet derfor så mange av dem er pasjonerte spillere. De elsker dette, å bygge egne verdener. Poenget er at dette er verdener de har full kontroll over, sa hun.
Så beveger programmererne seg ut i den virkelige verden med algoritmer i den oppgave å styre aktiviteter der ute. Kan mennesker ta tilbake kontrollen over algoritmene gjennom GDPR, ved selv å bestemme om man vil avgi informasjon om seg selv?
Det har professor Tüfekci ingen tro på.
- Facebook og Google kommer til å få tillatelse (consent) uansett. Det hjelper ikke. Jeg mener politikerne må begynne å se på personvern og kontroll over egne data som forurensing, som må reguleres.
- Vi bør frykte KI
Bør vi frykte kunstig intelligens? Antakelig, i det minste om vi ikke finner måter å kontrollere dem på, ifølge Keith Downing. Kunstig intelligens er bedre på mønstergjenkjenning enn oss. Deres evne øker i voldsom fart.
Vi er, bør, være redde for KI, fordi de er ekstremt adaptive, og deres virkemåte - «resonnering» - er mørklagt. Transparensen innen KI-forskning er dessuten på retur. Men akkurat her, akkurat nå, befinner vi oss på et punkt i historien hvor vi har mulighet til å lage regler for KI. Vi må bare bli enige om hva regler betyr i denne sammenhengen, og hvilke de bør være.
Det er en «trade off» mellom tilbyder og den enkelte bruker av digitale tjenester som involverer algoritmer, hvor den enkelte avgir egne data mot tjenester. Spørsmålet er om denne er rettferdig i sin natur, sa Downing.
I debatten etterpå kommenterte dekan Geir Egil Dahle Øien dette poenget ved å vise til at for den enkelte kan det være grei skuring å avgi egne data, handelen kan være gunstig, mens for samfunnet som helhet er effekten dårlig.
Ett moment i dette, som flere av debattantene var innom, er tillit, som også er overskriften for Big Challenge onsdag. Kan man ha tillit til algoritmene når man ikke har tillit til hverandre?
Et sentralt spørsmål der framme er hvordan vi mennesker skal oppfatte KI, kommenterte Keith Downing.
- Bør vi se på dem som en ny art, a new specie, med rettigheter og plikter som følger med? Eller som et meget avansert verktøy. Den problemstillingen vil bli vanskelig å unngå å ta stilling til.