Gå til innhold

6. Redaksjonelle erfaringer med KI⚓︎

Automatisering av ressurskrevende (og ofte kjedelige) oppgaver ser ut til å bli tatt godt imot av norske redaksjoner. Det samme gjelder digital hjelp i krevende graveprosjekter. Men alle finner at automatisering og KI er tidkrevende, lite hokus pokus og mye arbeid.

Bildet er KI-generert ved hjelp av Adobe Firefly

Bildet er KI-generert ved hjelp av Adobe Firefly.

Mange av våre informanter påpeker at andre i redaksjonen viser lite forståelse for hvor mye ressurser som må til og hvor lang tid det tar å utvikle prosjekter.

Henrik Lied, journalist, NRK Beta

«Jeg opplever ofte manglende forståelse for hva KI kan levere. At man på en måte ser på det som litt sånn magi som bare kan løse veldig mange problem, uten forståelsen for hvor mye arbeid som ligger bak å bygge et sånn systemet og forståelse for feilmarginene. Altså, jeg er jo egentlig mer opptatt av det som jeg sikkert har sagt veldig mange ganger nå, at generelt teknisk kompetanse, forståelse for hva som skal til for å skrape en nettside og systematisere det. Jeg føler vi må fokusere på det før vi på en måte må fokusere på å få utstrakt bruk av KI- løsninger inn i redaksjonelle miljø. Litt fordi at det å bygge et KI-basert system nesten uavhengig av hva det måtte være krever veldig multidisiplinær kompetanse (felles innsats i gruppe). Jeg tror vi hadde løst veldig mange problem dersom 50 prosent flere i journaliststokken hadde kunnet Python og Jupyter Notebook og litt statistikk.»

Som nevnt i forbindelse med data mining er det mange prosjekter som begynner som et automatisert graveprosjekt, men der journalistene ender med å gjennomgå alt manuelt i redsel for at de skal bli tatt i feil.

Christer S. Johnsen, utviklingsredaktør Adresseavisen

«Vi har også opplevet at redaksjonene og avdelingene kommer til oss og sier: du, er dette her mulig? Er dette noe vi kan skrape i? Bruke robotjournalistikk til både å lage journalistikk, men også til å overvåke det som kan bli en sak om et års tid. Her vokser det, og vi lærer i lag. Det handler om å vite mulighetene. Min opplevelse er at folk ser på dette som veldig positivt. Vi har jo for det meste brukt KI på de områdene der vi kanskje ikke har hatt så mye journalistikk før. Ja, vi har aldri sittet og skrevet boligsaker, eller, vi har kanskje laget en i ny og ne. Nå får vi en helt annen mengde og vi plukker fortsatt ut det vi ønsker. Det er ingen som blir arbeidsledige som følge av noe av dette.»

Mye journalistikk blir til i samarbeid mellom journalister og utviklere. Kanskje fremtiden krever andre typer kunnskaper fra journalistene?

Henrik Lied, journalist, NRK Beta

«Skal du drive med gravende journalistikk i åra framover og du ikke besitter IT og datakompetanse så tror jeg du er litt vingeklippet. Da er det mye du ikke får gjort. Jeg blir ofte dratt inn i veldig mange forskjellige prosjekt nettopp fordi jeg kan den type ting og fordi de andre ikke kan det. Da blir jeg spurt om jeg ikke kan bidra. Da er spørsmålet: skal man ha en reinspikka utvikler i det redaksjonelle miljøet eller at dette demokratiseres, at forståelsen for det er spredd utover blant journalistene?»

Nyrekruttering til redaksjonelle stillinger kan med andre ord gå ut over tradisjonelle journalister uten særskilt teknisk kompetanse. Trygve Hegnar skal en gang ha sagt at det er lett å lære økonomer journalistikk, og nær umulig å lære journalister økonomi. Det ser ikke ut til å være overflod av journalister med interesse for bruk av KI heller. Det kan være et problem for redaksjonene: «Bare det å samarbeide med folk som ikke er journalister er et problem. Altså, hvordan samarbeider du med en utvikler? Journalister og utviklere snakker fundamentalt forskjellige språk.» Ingeborg Voland, redaktør, Dagens Næringsliv.

6.1 Svart boks⚓︎

«For programmerere er algoritmer enkle sett med operatører og programmatiske regler som datamaskiner skal følge. For programvarebrukere oppfattes gjerne algoritmene som uforståelige programmer lukket inne svarte bokser.» (Lewis, 2019, s. 60)

Norske journalister er i liten grad datautdannet og redaksjonelle medarbeidere med innsikt i koding og maskinlæring er i liten grad journalister. I svært mange tilfeller er journalistikk basert på KI et resultat av samarbeid mellom journalister og redaksjonelle utviklere. Innsikten i algoritmen og forståelsen for hva som foregår og resultatet av maskinlæring blant journalister kan derfor være noe haltende. Det betyr at dere kan ha vansker med å vurdere resultatene av overvåking, dokumentanalyser, oversettelser etc. som kommer ut av KI-baserte redaksjonelle støttesystemer. Det er et åpenbart etisk dilemma dersom du som journalist må basere redaksjonell produksjon på noe du ikke helt forstår og har vansker med å forklare. Det kan også være et juridisk problem. Med støtte i GDPR (EUs General Data Protection Regulation) kan personer utsatt for maskinstøttede vurderinger forlange innsyn i logikken bak vurderingen. Med andre ord må noen i redaksjonen være i stand til å forklare hva som foregår inne i den «svarte boksen». Det finnes allerede en rekke skrekkeksempler på at KI-baserte systemer har lært seg - eller tatt opp i seg – fordommer som ligger innbakt i datagrunnlaget og/eller bryter personvernet.

6.2 Etiske betenkeligheter⚓︎

Robot asking question - painted as oil painting

Bildet er KI-generert ved hjelp av Adobe Firefly med beskjed “robot asking question - painted as oil painting”.

Algoritmer har ingen etikk. Det betyr at all etisk behandling, alle etiske dilemma, alle vurderinger som må gjøres av tekst, bilder og lyd opp mot etikkplakaten, må legges inn i algoritmen. Da blir systemet akkurat så etisk som mennesket klarer å programmere det. Verdier, ikke minst etiske vurderinger, er særs vanskelige å kode.

Det ligger og et etisk dilemma i at KI-baserte systemer blir bedre jo større datagrunnlag det kan bygges på er. Jo større datagrunnlag jo mer personlige opplysninger kan havne i kurven. Med andre ord er det slik at KI-baserte redaksjonelle systemer blir bedre av et størst mulig antall artikler/bilder/lyd/programmer i datagrunnlaget. Det kan gi systemet muligheter til å koble opplysninger, og dermed komme til å registrere og bygge opp langt mer kunnskap om enkeltpersoner enn det som er nødvendig enn si lovlig.

6.3 Hvem har skylden om det går galt?⚓︎

The House of Lords Artificial Intelligence Committee i Storbritannia har avslått å gjøre roboter til rettslige personer og ansvarlig for egne avgjørelser. Du kan med andre ord ikke skylde på en robot eller gå til sak mot den. Hvem har da skylden når noe går galt? Så som når systemet blander sammen navn, offentliggjør navn på offer før de er frigitt, trekker feil slutninger og bryter presseetikken. I redaktørstyrte medier er redaktøren ansvarlig for alt som publiseres, selv om det skyldes feilkoding eller maskinkrøll. Spørsmålet om algoritmer kan være injurierende ble satt på spissen da Facebook i 2016 sa opp alle ansatte som kurerte «trending topics» for å gå over til en algoritme som automatisk skulle gjenkjenne og fremme populære poster. Endringen kom etter måneder med kritikk av Facebook for å være partiske i presidentvalget. Resultatet var at «trending topics» gikk fra rot til katastrofe. 28. august 2016 toppet en fake news artikkel fra en åpenbar tvilsom kilde (endingthefed.com) «trending topics» i åtte timer. Innholdet i artikkelen var at Megyn Kelly, nyhetsanker i Fox News, fikk sparken for å ha støttet Hillary Clinton. Kelly mente seg æreskrenket og troverdigheten til Facbook sank som en stein.

6.4 Angrep på lenkeøkonomien⚓︎

Redaksjonell forretning er i hovedsak basert på abonnement, salg av reklame og at folk som søker informasjon finner fram til redaksjonen via lenker og blir der en stund. Det siste betyr at den som vil vite noe om noe søker på nettet og kommer inn på det redaksjonelle nettet via et funn som altså er lenker til saker. I et intervju med Ezra Eeman, endringsdirektør i nederlandske Mediahus (Henriksson, 2023), hevder Eeman at KI kan forstyrre hele nyhetsindustrien. Eeman mener at Midjourney version 4 (illustrasjoner) og ChatGPT gjør det mulig for alle å bruke KI på en brukervennlig måte. Argumentet er at du og jeg ikke trenger å søke for å finne illustrasjoner eller lenker til mulige artikler med svar på det en lurer på. I stedet kan ChatGPT skrive svaret spesifikt til ditt spørsmål. Sett at du lurer på hva som skjer i spansk politikk, så kan du få en analytisk artikkel som tar for seg det kommende valget, partiene som deltar og hva de står for samt en analyse av hvilken vei den politiske vinden blåser. Alternativet er å lese en artikkel på Wikipedia og supplere med artikler fra spanske redaksjoner. Du kan risikere å lese mange artikler før du finner en passende analyse tilpasset ditt kunnskapsnivå angående spansk politikk. Dersom folk flest velger å spørre ChatGPT i stedet for Google, forstyrrer det redaksjonens lenkeøkonomi som er en av redaksjonenes økonomiske støttebein. Et svar på det vil være at redaksjonene utvikler sine egne chatteprogrammer basert på egenproduserte tekster. Altså at Dagens Næringsliv eller Stavanger Aftenblad bygger sin egen chat-database der brukerne i stedet for å søke i arkivet «samtaler» med en KI-basert robot som lager svar på spørsmål basert på kunnskap fra eget arkiv.

6.5 Troverdighet⚓︎

Dagens KI baserte chat-roboter er laget for å konversere (språkmodeller for å holde samtaler), ikke for å gi korrekte svar. Troverdighet er regnet som den viktigste kapitalen for en redaksjon. Dersom en redaksjon mister troverdigheten er grunnlaget for bedriften borte. Med andre ord må redaksjoner som vurderer å bruke KI-baserte chat-roboter til å generere informasjon finne fram til tekst-generatorer basert på å gi korrekte og sanne svar. Dagens ChatGPT og Snapchats My AI kan gi svar med falske referanser og bøker som ikke eksisterer. Det kan en redaksjon ikke tillate seg.