All posts by Anders Skov

Medlemmer af ekspertgruppe taler ud:  – Vi ser studerende kopiere sine lærebøger ind i ChatGPT

Kulturministeriets nedsatte ekspertgruppe har fået til opgave at komme med løsninger til de udfordringer, kunstig intelligens har for det ophavsretlige system. Nu taler to af ekspertgruppens medlemmer ud.

I forbindelse med udviklingen af sprogmodeller som ChatGPT, er der rejst store problematikker for det ophavsretlige system. Derfor nedsatte kulturministeriet tidligere på året en ekspertgruppe, der skal kortlægge løsninger og udfordringer på den indflydelse, som kunstig intelligens har på det ophavsretlige system.

En af medlemmerne af ekspertgruppen er Maria Fredenslund, direktør og stifter af interesseorganisationen Rettighedsalliancen. Da arbejdet i ekspertgruppen stadig er i gang, udtaler Maria Fredenslund sig på vegne af egne holdninger og meninger og ikke med udgangspunkt i ekspertgruppen. Hun ser en helt klar problematik i måden, nogen bruger ChatGPT på.

  • Vi ser studerende kopiere sine lærebøger ind i ChatGPT for at stille den spørgsmål om pensum og få den til at løse sine opgaver. De informationer fra lærebøgerne kan derfor ryge ud og blive gjort tilgængelig for alle andre. Det er forlagene og forfatterne super kede af, da det er deres forretning, det går ud over, siger Maria Fredenslund.

Derfor mener Maria Fredenslund, at de danske myndigheder bør rette mere fokus på vejledning og oplysning af brugen af sprogmodeller.

Ret til egen stemme

En af gruppens andre medlemmer er ophavsretsekspert Martin Gormsen. Han udtaler sig ligesom Maria Fredenslund på egne vegne og ikke på ekspertgruppens.

  • Jeg synes, man skal lave nogle regler, der kan lette aftaleindgåelsen mellem rettighedshavere og tech-virksomhederne bag sprogmodellerne. Der er for store transaktionsomkostninger, hvis man skal lave individuelle aftaler i alle tilfælde, siger Martin Gormsen.

Martin Gormsen forklarer, at kompetencen til at lave ny lovgivning på området i mange tilfælde ligger hos EU. Når det for eksempel handler om mere gennemsigtighed i, hvad tech-virksomheder træner deres AI-modeller på, så er det reguleret i EU-forordningen om kunstig intelligens.

Martin Gormsen ser dog alligevel et sted, man fra dansk lovgivning kan gøre noget.

  • Man kan indføre en beskyttelse af kunstneres ret til egen stemme og personlige kendetegn, siger Martin Gormsen.

Visse AI-systemer kan nemlig lave sange, hvor der indgår AI-genererede stemmer der lyder ligesom kunstnernes rigtige stemmer. Her bruger Martin Gormsen et eksempel med Kim Larsen.

  • Man kan tydeligt høre, det er Kim Larsen, men det er ikke Kim Larsen, det er en AI-genereret version af Kim Larsen, siger Martin Gormsen og tilføjer:
  • Ifølge ophavsretslovens § 65 står der, at man ikke må kopiere eller gengive udøvende kunstneres fremførelse af litterære kunstneriske værker, altså at man ikke må lave en efterligning af en sang eller en roman. Men man må faktisk godt lave en efterligning af en udøvende kunstners præstation efter gældende ret. Det kunne man ændre for så vidt angår digitalt generede efterligninger. Det ville man kunne indføre i national ret, siger Martin Gormsen.

Fordel for tech-giganterne

Efterligning af udøvende kunstneres stemmer er et af eksemplerne på, at Martin Gormsen synes, man skal have præciseret lovgivningen af, hvad man må, og hvad man ikke må på området. At skabe nogle klarere og mere præcise regler, som skal gøre systemet mere lige for blandt andet de mindre virksomheder.

  • At lovgivningen er uklar på flere områder er en fordel for de store tech-virksomheder, som godt kan leve med risikoen, da de jo bare kan hyre tusindvis advokater og indsende en masse milliarder til retssager og se, hvad der sker. På den måde ændrer den nuværende lovgivning ikke på, hvad tech-virksomhederne gør, siger Martin Gormsen.

Ekspertgruppen består af aktører fra brancheforeninger, rettighedshaverorganisationer og tekniske eksperter, der alle har enten ophavsretlig viden, teknisk viden om kunstig intelligens eller praktisk erfaring inden for området.

Om Martin Gormsens og Maria Fredenslunds egne meninger og anbefalinger kommer med i den endelige afrapportering fra ekspertgruppen, når den afleveres til kulturministeren i vinteren 2024/2025, vil tiden vise.

Danske medier vælger at bruge kunstig intelligens på trods af mulige krænkelser af loven:  – Det er stadig journalisten, der har ansvaret

Mens JFM har haft succes med at bruge ChatGPT til idéudvikling og omskrivning af pressemeddelelser, forklarer eksperter, at der kan være potentielle faldgruber ved brugen af ChatGPT. Falske påstande og ophavsretskrænkelser kan snige sig ind i artiklerne, hvis ikke man er opmærksom.

JFM introducerede sidste år sine medarbejdere for et særligt prompt-bibliotek, der er en side med forskellige tekster, man kan kopiere ind i ChatGPT, som efterfølgende kan hjælpe journalisten med alt fra forslag til alternative rubrikker og idéer til opfølgende historier. Manden bag hedder Peter Ammitzbøll, udviklingsredaktør og tovholder for brugen af ChatGPT i JFM.

  • ChatGPT er super god til at lave idéudvikling. Hvis du for eksempel har en artikel, der har klaret sig godt, så ved vi, at vores læsere rigtig gerne vil have en opfølgende artikel. Der er ChatGPT super god til at hjælpe dig med at idéudvikle på opfølgende historier eller for eksempel dine rubrikker, siger Peter Ammitzbøll.

I december 2023 stod Peter Ammitzbøll bag et kursus for medarbejderne i JFM, og det blev ifølge udviklingsredaktøren en stor succes. Derfor valgte man i JFM at lave et opfølgende kursus i 2024, der fokuserede mere på, hvordan man konkret kunne bruge ChatGPT i sit arbejde som journalist.

  • Efterhånden har vi fundet ud af, at der hvor AI giver den største værdi for os, det er på det kreative felt, siger Peter Ammitzbøll.

ChatGPT bliver dog også brugt til andre ting end ideer til opfølgende historier og rubrikker.

På Vejle Amts Folkeblad, som er en del af JFM, benytter man for eksempel ChatGPT til at omskrive pressemeddelelser til artikler.

Falske påstande og krænkelser

Man skal dog være påpasselig med brugen af ChatGPT. Ira Assent, professor ved Aarhus Universitet og forsker i kunstig intelligens og maskinlæring, forklarer, at ChatGPT kan finde på at opdigte falske påstande, hvis den ikke kender svaret på det, man spørger den om.

  • Grundlæggende er det et problem, at modellerne genererer noget, der ligner de data, de har fået i deres træning. Hvis de ikke lige er blevet trænet på det, de bliver spurgt om, så vil de finde nogle data, der ligner, og dermed opdigte falske påstande, siger Ira Assent.

Også på det juridiske område kan der med brugen af sprogmodeller såsom ChatGPT opstå problematikker, forklarer Peter Schønning, advokat med speciale i ophavsret og EU-ret.

  • Fordi ChatGPT er blevet trænet på for eksempel nogle nyhedsartikler, så kan det svar, ChatGPT kommer med, når en journalist beder om et eller andet, i sig selv være en ophavsretskrænkelse, fordi der i svaret fra ChatGPT kan være nogle dele af de ophavsretligt beskyttede værker, som journalisterne så kan komme til at publicere, siger Peter Schønning.

Du er ansvarlig

Til spørgsmålet, om man ikke risikerer, at der sniger sig både opdigtede påstande og dele af ophavsretligt beskyttede værker med i artiklerne, når journalisterne i JFM bruger ChatGPT, svarer Peter Ammitzbøll, at reglerne er, som de altid har været.

  • Hvad end du bruger ChatGPT til, så er det stadig dig som journalist, der er ansvarlig for artiklen. Vi har ikke nogen artikler, som er skrevet af ChatGPT og som er udgivet, uden at der er mennesker, der har været inde over, siger Peter Ammitzbøll.

At der skal være et menneske i processen med brugen af ChatGPT er også noget, der går igen i det såkaldte PIN-projekt, som er en rapport med 15 anbefalinger til nyhedsmediers brug af kunstig intelligens, som netop er blevet udgivet af JP/Politikens Hus.

Kasper Lindskow, der er chef for AI i JP/Politikens Hus og projektchef for PIN-projektet, forklarer, at anbefalingen, om at der skal være et menneske i processen med kunstig intelligens, handler om kontrol.

  • Det er for at sikre redaktionel kontrol med systemerne i en situation, hvor systemerne er baseret på sandsynlighed, og stadig har en usikkerhed i den sandsynlighed, hvor man ikke kan planlægge udfaldet på forhånd. Derfor bliver man nødt til at have nogle mennesker i processen, siger Kasper Lindskow.

__________________________________________________________________________________________________

Faktaboks: Hvad er PIN-projektet?

’PIN’ er en forkortelse for Platform Intelligence in News. Målet for projektet har været at udvikle ansvarlige og effektive AI-systemer til JP/Politikens Hus’ nyhedsmedier. På baggrund af projektet har JP/Politikens Hus sammen med forskere fra Copenhagen Business School, Københavns Universitet og Danmarks Tekniske Universitet nu udgivet en rapport med 15 indsigter og 15 anbefalinger til nyhedsudgivere om brug af kunstig intelligens.

Kilde: JP/Politikens Hus

__________________________________________________________________________________________________

Det er dog stadig ikke uden mulige konsekvenser at bruge ChatGPT selv med et menneske inde over processen. Ira Assent forklarer, at der er et problem med gennemsigtigheden af AI-modeller som ChatGPT.

  • Det er et problem, at de her AI-modeller bliver bygget af nogle virksomheder, som ikke giver andre adgang til at se, hvordan de gør. I et demokrati er det jo et problem, at man ikke kan se, hvad de er trænet på, siger Ira Assent.

Derfor er det også usikkert, om de informationer, som journalister taster ind i for eksempel ChatGPT, bliver gemt og brugt som træning af modellerne.

Det er en af grundene til, at JFM bevidst har valgt at gøre brug af OpenAI-tjenesten ChatGPTTeam, som lover en sikker server, hvorpå medarbejdere i virksomheder kan benytte ChatGPT.

  • Når du vælger den, så træner ChatGPT ikke på dit materiale. Der er intet af det, vi taster ind, som ChatGPT tager og træner på, siger Peter Ammitzbøll.

Der er dog alligevel ting, som Peter Ammitzbøll ikke vil have journalisterne i JFM til at bruge ChatGPT til.

  • Vi har nogle ret klare regler for, at man ikke må bruge ChatGPT til at lave fotorealistiske billeder. Fotorealistiske billeder definerer vi som, at hvis man kan tro, at et AI-generet billede er et ægte billede, så må man ikke bruge det, siger Peter Ammitzbøll.

Alle skal med på vognen

På trods af problematikker, hvad angår ophavsret og falske påstande, så synes Tine Johansen, formand for Dansk Journalistforbund, at AI-modellerne skal bruges i den journalistiske arbejdsproces.

  • Alle skal med på vognen. Det her kræver, at vi efteruddanner os, og at vi bliver dygtige til at bruge de værktøjer, der er. Og så er vores holdning også, at det skal bruges med forsigtighed. Man skal vide, hvad man har mellem hænderne for, at man kan træffe de rigtige beslutninger om, hvordan man bedst muligt bruger AI i den journalistiske arbejdsproces, siger Tine Johansen.

Det er også en af grundene til, at Dansk Journalistforbund har været med til at opdatere de presseetiske regler.

  • Nu fremgår det tydeligt, at et medie har ansvaret for, hvad det bringer, uanset hvordan det er blevet tilvejebragt. Det har vi fået understreget. Selvom man bruger AI, så står man selvfølgelig selv til ansvar for indholdet, siger Tine Johansen.

Hvad tænker du om, at der kan ske ophavskrænkelse ved, at journalister ude på de danske medier bruger sprogmodeller såsom ChatGPT?

  • Der er kæmpe problemer med ophavsret, når det kommer til kunstig intelligens. Det er jo umuligt at få indblik i, hvordan de har trænet de her sprogmodeller, og der er alle mulige grunde til at tro, at DJ-medlemmers værker bliver krænket, i forhold til at lære ChatGPT det, den kan, siger Tine Johansen.

Når eksperter nævner, at der kan ske brud på ophavsretten ved at bruge sprogmodeller som ChatGPT, synes du så ikke, det er farligt, at journalisterne bruger det?

  • Jeg synes, det er to forskellige problemstillinger. Den ene er, hvordan vi forsvarligt bruger kunstig intelligens i vores arbejde. Så er der den anden helt overordnede problemstilling, som handler om, at der sker ophavskrænkelser hvert sekund med brugen af de her AI-værktøjer, siger Tine Johansen.

Flere medier følger trop

Udover JFM har JP/Politikens hus også rullet deres AI-værktøj ’Magna’ ud på Ekstra Bladet, Politiken og Jyllands-Posten. Magna skal ligesom prompt-biblioteket i JFM hjælpe journalisterne med blandt andet assistance til skrivearbejdet, forklarer Kasper Lindskow.

  • Det giver alle medarbejdere i JP/Politikens hus mulighed for at bruge Magna i et sikkert miljø, hvor den ikke bliver trænet på det, man taster ind, siger Kasper Lindskow.

Det er dog hensigten, at Magna skal hjælpe med mere end det.

  • Næste skridt er at se på, hvordan værktøjet kan hjælpe med nyhedsopdagelsen, altså arbejdet med research, siger Kasper Lindskow.

Arbejdet med AI-værktøjet Magna er resultatet af næsten fire års forskning i blandt andet kunstig intelligens. I marts i år blev Magna så endelig tilgængelig for journalisterne på Ekstra Bladet, Jyllands-Posten og Politiken.

Trænet på millionvis af data: Journalisters brug af kunstig intelligens kan ende med krænkelser af loven

Nyere former for kunstig intelligens er trænet på millionvis af data. Også ophavsretligt materiale, og ifølge eksperter kan brugen af den kunstige intelligens føre til utilsigtede brud på ophavsretten, der rammer både journalister og rettighedshavere.

Journalister, der bruger ChatGPT i deres arbejdsproces, kan komme til at krænke ophavsretten, når de udgiver deres artikler.

Det står klart, ifølge advokat og ekspert i ophavsret og EU-ret, Peter Schønning.

  • Fordi ChatGPT er blevet trænet på for eksempel nogle nyhedsartikler, så kan det svar, ChatGPT kommer med, når en journalist beder om et eller andet, i sig selv være en ophavsretskrænkelse, fordi der i svaret fra ChatGPT kan være nogle dele af de ophavsretligt beskyttede værker, som journalisterne så kan komme til at publicere, siger Peter Schønning.

En undersøgelse fra Dansk Erhverv fra 2023 viser, at over en million danskere over 18 år har prøvet at bruge sprogmodellen ChatGPT. Også de danske medier er i fuld gang med at eksperimentere med og bruge den kunstige intelligens i den journalistiske arbejdsproces, heriblandt JFM, Sjællandske Nyheder, Ekstra Bladet, Jyllandsposten og Politiken. Samtidig oplyser Tine Johansen, formand for Dansk Journalist Forbund, at deres kurser i AI-værktøjer bliver revet væk på ingen tid.

Kunstig intelligens har dog eksisteret længe, og det er ikke noget nyt fænomen, forklarer Ira Assent, professor ved datalogisk institut på Aarhus Universitet og forsker i kunstig intelligens og maskinlæring.

  • Det er en integreret del af rigtig mange af de produkter, vi bruger. Det kunne for eksempel være en telefons forslag til det næste ord, man skal skrive i en sms. Forstået på den måde, at den lærer, hvilke ord der plejer at blive brugt i en sammenhæng, og den så kommer med forslag på baggrund af det, siger Ira Assent og forklarer, at denne type kunstige intelligens kaldes for en sprogmodel.

Der er dog sket en stor udvikling af sprogmodellerne i de seneste år. Da virksomheden OpenAI lancerede deres sprogmodel, ChatGPT i 2022, fik det stor opmærksomhed. Blandt andet, fordi ChatGPT ikke bare kan foreslå enkelte ord, men hele sætninger og afsnit. I kølvandet på ChatGPT har en række virksomheder også lanceret deres bud på sprogmodeller. Blandt andet Microsoft med sprogmodellen Copilot.

__________________________________________________________________________________________________

Faktaboks: Hvad er en sprogmodel?

En sprogmodel – også kaldet LLM (Large Language Model) – er en type kunstig intelligens, der er trænet på en stor mængde tekstuel data – f.eks. artikler, bøger og hjemmesider. Ud fra dataene opnår modellen en menneskelignende sprogforståelse og -generering, som gør den i stand til at sandsynlighedsberegne et svar eller resultat. ChatGPT fra virksomheden OpenAI bygger blandt andet på en sprogmodel.

Kilde: Danmarks Tekniske Universitet

__________________________________________________________________________________________________

  • Sidenhen er modellerne blevet trænet på millionvis af dokumenter fra internettet. Det er en af årsagerne til, at der er sket et stort gennembrud i kunstig intelligens. Den større mængde træningsdata betyder, at modellerne er blevet bedre til at lære komplekse sammenhænge, siger Ira Assent.

Må gætte sig til det

Sprogmodellerne har dog ikke hukommelse nok til at huske alt det data, den bliver bedt om. Det forklarer Anders Søgaard, Professor ved Københavns Universitet og forsker i sprogteknologi og maskinlæring.

  • Det betyder, at modellerne nogle gange kan svare på noget, de ikke har set i deres træningsdata, fordi de kan gætte sig til det, siger Anders Søgaard.

Men ifølge Ira Assent er det altså også her nogle problemer ved brugen af ChatGPT kan opstå.

  • Der er et problem med, at sprogmodellen kan komme med falske påstande, siger Ira Assent.

Det opstår, når ChatGPT ikke er trænet på data om det spørgsmål, den bliver bedt om, og den bliver derfor nødt til at gætte sig til et svar, og her kan den altså godt gætte forkert og dermed opdigte noget, som ikke er sandt.

__________________________________________________________________________________________________

Faktaboks: Hvad er kunstig intelligens?

Kunstig intelligens eller AI, som det kaldes efter det engelske udtryk artificial intelligence, er computerprogrammer og maskiner, som efterligner et eller flere aspekter af den menneskelige intelligens. Det gælder abstrakt tænkning, analyse, problemløsning, mønstergenkendelse, sprogbeherskelse og -forståelse, planlægning og lignende.

Computerprogrammer der spiller skak, diagnosticerer patienter, planlægger ruter eller fører en samtale er eksempler på kunstig intelligens.

Kilde: Danmarks Tekniske Universitet

__________________________________________________________________________________________________

Kan krænke ophavsretten

Ira Assent ser dog også en anden problematik ved brugen af ChatGPT.

  • Man ved ikke, hvilke data modeller som ChatGPT er trænet på, da der ikke er givet adgang til at se, hvordan virksomhederne bag gør, siger Ira Assent.

Spørger man professor Anders Søgaard, er han ikke i tvivl om, at sprogmodellen ChatGPT er trænet på ophavsretligt beskyttet materiale.

  • Der er ingen tvivl om, at ChatGPT er trænet på ophavsretligt beskyttet materiale, og man kan sagtens få svar fra ChatGPT, der indeholder ophavsretligt beskyttet materiale. ChatGPT og de fleste af de her modeller er i stand til at reproducere ret store passager fra ophavsretligt beskyttet tekst, siger Anders Søgaard.

Peter Schønning, der er advokat og ekspert i ophavsret og EU-ret, ser to helt klare problematikker, når det kommer til ChatGPT og det ophavsretlige system.

  • Der er dels den problemstilling, at man langt hen ad vejen har trænet sprogmodellerne ulovligt. At man har krænket ophavsretten til en masse værker og andet materiale ved ikke at have fået tilladelse til at træne sprogmodellerne på det, siger Peter Schønning og understreger, at det drejer sig om ophavsretslovens paragraf 2 om at indhente samtykke fra forfatteren, hvis man vil bruge en hel tekst eller væsentlige dele af den.

__________________________________________________________________________________________________

Faktaboks: Ophavsretslovens paragraf 2, stk. 1

Ophavsretten medfører eneret til at råde over værket ved at fremstille eksemplarer af det og ved at gøre det tilgængeligt for almenheden i oprindelig eller ændret skikkelse, i oversættelse, omarbejdelse i anden litteratur- eller kunstart eller i anden teknik.

Kilde: Ophavsretsloven

__________________________________________________________________________________________________

  • Det grundlæggende i det er, at vil man bruge noget ophavsretligt beskyttet materiale i et AI-system, så skal man bede om tilladelse til det, og det er der mange tech-virksomheder, der ikke har gjort, konstaterer Peter Schønning, der selv har rådgivet i sager om sprogmodellers indflydelse på det ophavsretlige system.

Peter Schønning ser dog også en mulig konsekvens ved, at mange journalister på de danske medier i dag er i fuld gang med at benytte sig af blandt andet ChatGPT.

  • Hvis man indsætter et udkast til en artikel, man er i gang med at skrive, så er det jo muligt, at det her udkast indgår i sprogmodellens repertoire, som den trænes på, siger Peter Schønning.

Det kan i sidste ende få en stor konsekvens for rettighedshavere såsom journalister, forfattere og udgivere, fordi de ikke længere kan tjene penge på deres værker, forklarer Peter Schønning.

  • Hvis man får ChatGPT til at lave en ny geografibog, så er der jo ikke længere nogen, der vil bruge penge på at få forfattere og forlag til at udgive nye geografibøger. På samme måde med artikler. På den måde gør man mange forfattere, journalister og udgivere arbejdsløse, siger Peter Schønning.

Ændring af ophavsretsloven

Den 1. juli 2023 blev dele af ophavsretsloven ændret, da Danmark implementerer EU’s DSM-direktiv om ophavsret. En af de nye, væsentlige bestemmelser er § 11b, som i udgangspunktet gør tekst- og datamining lovligt, medmindre rettighedshaveren frabeder sig det. Tekst- og datamining er blandt andet det, AI-virksomhederne foretager sig, når deres sprogmodeller såsom ChatGPT trænes på data fra internettet.

Der er dog mange forbehold, og tekst- og datamining er ikke identisk med AI-virksomhedernes træning af sine modeller, forklarer Peter Schønning.

  • Der er ikke lighedstegn mellem træning af AI-modeller og § 11b. Der kan være noget af det, man gør i forbindelse med AI-træningen som kan kaldes tekst- og datamining, men der kan også være nogle andre elementer i det, såsom kopiering af materiale, som ikke er omfattet af den bestemmelse, siger Peter Schønning.

Derfor understreger Peter Schønning også, at ændringen af ophavsretsloven ikke betyder, at AI-virksomhederne ikke stadig kan krænke ophavsretten, når de træner deres AI-modeller.

  • AI-virksomhederne kan stadig have foretaget tekst- og datamining af ophavsbeskyttet materiale, hvor rettighedshaverne har frabedt sig det, og der kan også være sket træning på baggrund af ophavsbeskyttet materiale, før lovændringen trådte i kraft, siger Peter Schønning.

__________________________________________________________________________________________________

Faktaboks: Hvad er tekst- og datamining?

Ved tekst- og datamining forstås enhver automatiseret, analytisk fremgangsmåde, der har til formål at analysere tekst og data i digital form med henblik på at generere oplysninger, herunder mønstre, tendenser og korrelationer.

Kilde: ophavsretslovens § 11 b. stk. 1.

__________________________________________________________________________________________________

Forbehold kan ignoreres

Som følge af lovændringen har både brancheorganisationen Danske Medier og Dansk Journalist Forbund dog anbefalet, at man som rettighedshaver skriver et forbehold på sin hjemmeside, hvor det blandt andet fremgår, at man forbeholder sig alle rettigheder til indholdet.

Virksomheden bag ChatGPT, OpenAI, har også selv meddelt, at man kan blokere for at få brugt sine informationer til træning af deres sprogmodel ved at indtaste ordene ’User-agent: GPTBot Disallow:/’ i sin hjemmesides tekstfil.

Sådanne forbehold betyder dog ikke, at sprogmodeller ikke stadig kan tilgå og træne på informationerne. Det forklarer Kasper Green Larsen, professor og forsker i algoritmer og maskinlæring på Aarhus Universitet.

  • Der er ikke noget, der forhindrer dem i at gøre det alligevel, men man må jo så forvente, at OpenAI agerer efter de regler, de selv har sat op. Andre AI-firmaer kan dog i princippet godt stadig træne deres modeller på dine data alligevel, siger Kasper Green Larsen.

Kompetencerne ligger hos EU

Tidligere på året kunne regeringens ekspertgruppe om tech-giganter med professor Mikkel Flyverbom fra CBS i spidsen præsentere en række anbefalinger til, hvordan man skal håndtere tech-giganternes udvikling og anvendelse af kunstig intelligens.

En af disse anbefalinger lyder, at AI-virksomheder skal kunne dokumentere, at de ikke overtræder ophavsretslovgivningen.

Kompetencerne til at gøre anbefalingerne til lov ligger hos EU, og i august trådte EU’s AI-forordning i kraft, hvis formål er at regulere anvendelsen af kunstig intelligens inden for EU. Her fremgår det blandt andet, at udbydere af generelle AI-modeller såsom ChatGPT fra 2. august næste år skal offentliggøre en detaljeret oversigt over det indhold, der er brugt til at træne AI-modellen.

_________________________________________________________________________________________________

Faktaboks om EU’s AI-forordning

2. august 2025 træder forpligtelser for udbydere af sprogmodeller i kraft. Det betyder, at udbyderne skal udarbejde og løbende opdatere teknisk dokumentation for deres sprogmodeller. Der skal implementeres en politik for overholdelse af EU-lovgivningen om ophavsret, og tech-virksomhederne skal offentliggøre en detaljeret oversigt over det indhold, der er brugt til træning af sprogmodellen. Disse regler skal sikre, at udbydere af sprogmodeller opererer på en gennemsigtig måde.

Kravene til ChatGPT bliver blandt andet:

  • At oplyse, at indholdet var genereret af kunstig intelligens.
  • Designe modellen til at forebygge, at det genererer ulovligt indhold.
  • Udgive resuméer om, hvilket ophavsretligt beskyttet materiale, der er brugt til oplæring af sprogmodellen.

Kilde: Dansk Erhverv og Europa-Parlamentet

__________________________________________________________________________________________________

Det er den danske EU-parlamentariker Morten Løkkegaard (V), som kom med forslaget om, at der skal være mere gennemsigtighed i, hvordan AI-modeller trænes, og han er glad for, at det endte med at blive vedtaget i EU’s AI-forordning.

  • Transparens er et fundament for at opbygge en tillid til AI og for at beskytte ophavsrettigheder, skriver Morten Løkkegaard i et mailsvar.

Morten Løkkegaard er ikke i tvivl om, at forslaget om dokumentation vil betyde bedre vilkår for rettighedshavere på længere sigt.

  • Når virksomhederne dokumenterer deres træningsdata, kan vi begynde at se, hvor udfordringerne ligger, og hvordan vi bedst håndterer dem. Det er et vigtigt første skridt, i forhold til at sikre gode betingelser for ophavsrethavere, skriver Morten Løkkegaard.

Samtidig forklarer Morten Løkkegaard, at dokumentationen på sigt kan føre til ordninger, hvor ophavsrethavere bliver krediteret, kompenseret eller giver samtykke til, at deres indhold bliver anvendt i sprogmodeller.

Også EU-parlamentariker Christel Schaldemose (S) er positivt stemt over for øget gennemsigtighed med, hvad AI-modeller bliver trænet på.

  • Det er en essentiel del af AI-forordningen, da åbenhed er vigtigt for, at vi kan sikre, at AI udvikles ansvarligt. For længe har AI været en sort boks, som vi ikke har haft indsigt i. Derfor har vi heller ikke haft nogen chance for at vide, hvordan det påvirker os eller vores samfund. Det er på rette tid, at vi har fået gjort op med det, skriver Christel Schaldemose i et mailsvar.

Et stykke vej endnu

Helt så afklaret og positivt stemt som de to EU-parlamentarikere er for bestemmelsen om øget gennemsigtighed, er Peter Schønning dog ikke. Ifølge ham er det stadig meget svært at sige med sikkerhed, om det bliver en endegyldig bestemmelse, som forpligter AI-virksomhederne til konkret at dokumentere, hvad de træner deres modeller på.

  • Det er en bestemmelse om, at der skal være transparens, og at man skal give rettighedshaverne en eller anden form for information, men hvordan det helt præcist bliver udmøntet, og hvordan det bliver opfattet og forstået, det har vi stadig til gode at se, siger Peter Schønning, der dog samtidig fastslår, at det er positivt set fra rettighedshavernes synspunkt, at der overhovedet er en bestemmelse om transparens i EU’s AI-forordning.

Ifølge Maria Fredenslund, direktør i interesseorganisationen Rettighedsalliancen, er der også et stykke vej endnu, før man kan få armene op over hovedet.

  • Jeg synes, bestemmelsen er meget udetaljeret. Vi har brug for at få adgang til datasættene, hvor vi kan se indholdet, og hvor indholdet er kommet fra. Vi er glade på rettighedshavernes vegne, at ordet ’transparens’ indgår, men der er lang vej til noget, vi rigtigt kan bruge i praksis, siger Maria Fredenslund.

Det er digitaliseringsstyrelsen, der skal koordinere implementeringen af EU’s forordning om kunstig intelligens.

Strategisk indsats

I december 2024 udkom regeringen med en ny rapport om, hvordan Danmark forholder sig til udviklingen og anvendelsen af kunstig intelligens. Her vil man med fire nye initiativer skabe et fundament og en retning for udviklingen og brugen af kunstig intelligens.

__________________________________________________________________________________________________

Faktaboks: Regeringens indsats for kunstig intelligens i Danmark

De fire nye initiativer:

  • Den Digitale Taskforce for kunstig intelligens, som er etableret i samarbejde med KL og Danske Regioner, skal rulle kunstig intelligensløsninger ud i den offentlige sektor i stor skala.
  • Et nyt center for kunstig intelligens i samfundet skal yde rådgivning om ansvarlig anvendelse af kunstig intelligens. Dermed kommer vigtig viden om kunstig intelligens ud at leve i myndigheder og virksomheder.
  • Etablering af en platform, som sætter skub på udviklingen af sikre og transparente danske sprogmodeller. Dermed styrkes grundlaget for arbejdet med kunstig intelligens i virksomheder og myndigheder.
  • Tilgængeliggørelse af danske tekstdata. Dermed understøttes grundlaget for at få flere kunstig intelligensløsninger af høj kvalitet, der fungerer på dansk.

Kilde: Digitaliseringsministeriet

__________________________________________________________________________________________________

Kunstig intelligens er altså en enorm størrelse, der kun er blevet større i de seneste år i takt med udviklingen af sprogmodellen ChatGPT, som mange har taget til sig. Heriblandt journalisterne, som må se i øjnene, at brugen af sprogmodeller er forbundet med risici, der kan krænke ophavsretten. Til gengæld sker der meget på området politisk, hvor aktører kommer med anbefalinger til, hvordan man skal forholde sig til den kunstige intelligens. Selvom det ikke står klart, hvordan bestemmelsen om øget gennemsigtighed af sprogmodellerne kommer til at udmønte sig, så træder bestemmelsen i AI-forordningen i kraft 2. august næste år, hvor reglerne sandsynligvis er blevet mere konkrete.

Anders kan med kunstig intelligens skrive artikler på få minutter, men det kommer med en afgørende pris

Journalist Anders Kynde bruger ChatGPT til at hjælpe med at skrive sine artikler. Hvad der normalvis havde taget timer, tager nu kun minutter. Brugen af den kunstige intelligens kommer dog med en pris. En pris, som man som journalist ikke kan se bort fra.

– Jeg bruger det hver dag og også gerne flere gange om dagen, siger Anders Kynde, idet han taster ordet ’ChatGPT’ ind på sin computer.

Der er stille på redaktionen denne formiddag. Duften af stærk kaffe og lyden af taster, der hastigt bliver trykket på, kæmper om at fylde mest i det aflange redaktionslokale.

Regndråber fra store, grå skyer pibler mod ruderne.

Anders Kynde er journalist på Vejle Amts Folkeblad, og han er netop hjemvendt til redaktionen fra et interview med en kilde. Historien, han skal til at skrive, omhandler 28-årige Sofie, som for ti år siden blev udsat for en voldtægt og derfor i lang tid forbandt sex med skam. Gennem selvudvikling er hendes syn på sex i dag dog forbundet med at vinde sin krop tilbage.

Anders Kynde har optaget sit interview med Sofie og lægger et udskrift af det ind i ChatGPT. Derudover skriver han nogle linjer om sin kilde og baggrunden for historien, hvorefter han beder ChatGPT om at udforme en artikel på omkring 4000 anslag med udgangspunkt i interviewet og de informationer, han har givet.

Han kigger afventende på skærmen, mens han tager en tår af sin kaffe, som han knapt nok når at stille tilbage på bordet, før ChatGPT selv begynder at skrive.

Efter lidt tid, der føles som yderligere ti sekunder, har Anders Kynde en historie på 4000 anslag stående på sin skærm.

Sådan så en arbejdsdag ud for Anders Kynde for et par måneder siden. Hvad der nok havde taget et par timer den dag, tog med hjælp fra ChatGPT et par minutter.

Og dog.

Artiklen, der på få minutter er blevet til med hjælp fra ChatGPT, indeholder nemlig en ret væsentlig fejl, konstaterer Anders Kynde, da han i dag kigger artiklen igennem baseret på de informationer fra hans interview, som han har givet ChatGPT.

Det her har kilden ikke sagt, siger Anders Kynde og peger på et citat på skærmen.

Faktaboks: Hvad er ChatGPT?

Navnet “ChatGPT” står for ”Chat Generative Pre-trained Transformer”. Teknologien er baseret på en avanceret sprogmodel, der anvender maskinlæring til at skabe en sammenhængende tekst. ChatGPT er trænet på store mængder tekstdata fra internettet, herunder bøger, artikler og hjemmesider, hvilket giver modellen en bred og omfattende viden om mange forskellige emner. At modellen er trænet på store mængder tekstdata, gør den i stand til at forstå komplekse sætninger og levere relevante svar på mange typer af forespørgsler. ChatGPT er udviklet af virksomheden OpenAI.

Kilde: Teknologisk Institut

Falske påstande

Det er kendt, at der kan være en pris at betale ved at bruge ChatGPT. En pris i form af at være ekstra opmærksom på, at ChatGPT kan finde på at opdigte ting. Det, der også kaldes, at ChatGPT ’hallucinerer’. Det forklarer Ira Assent, professor og forsker i kunstig intelligens og maskinlæring ved Datalogisk institut på Aarhus Universitet.

Det er et problem, at modellerne kan komme med falske påstande. Altså hallucinationer. Grundlæggende er problemet, at modellerne genererer noget, der ligner de data, de er blevet trænet på. Så hvis de ikke lige har noget i deres træning om det, de bliver spurgt om, så vil de finde noget, der ligner, siger Ira Assent.

For at undgå, at der skal snige sig falske informationer ind i artiklerne hos de 14 dagblade i JFM, er reglerne, som de altid har været. Det forklarer Peter Ammitzbøll, udviklingsredaktør og tovholder for brugen af ChatGPT i JFM.

Uanset hvad du vælger at bruge ChatGPT til, så er det din byline, der er på, og det er dig, der er ansvarlig, siger Peter Ammitzbøll og tilføjer, at der altid skal være et menneske i processen i det at skrive en artikel.

Kan gå lige hurtigt nok

At ChatGPT kan finde på at opdigte ting er dog ikke noget, Anders Kynde oplever ofte, og generelt bruger han god tid på at undgå, at det sker.

Det gør jeg blandt andet ved at skrive en god prompt, siger Anders Kynde.

Faktaboks: Hvad er en prompt?

En prompt er en instruktion eller et spørgsmål, som man giver til ChatGPT for at styre og definere dens respons. Det fungerer som en start på samtalen og giver kontekst for, hvad du ønsker at få svar på. Prompts kan variere fra enkle spørgsmål til komplekse kommandoer og kan indeholde specifikke oplysninger, der hjælper ChatGPT med at forstå, hvad du forventer af den. Jo mere detaljeret og specifik prompten er, desto bedre kan ChatGPT levere relevante og præcise svar. 

Kilde: Teknologisk Institut

Nok kan gode prompts minimere chancen for, at der kan snige sig fejl ind i svaret fra ChatGPT, men alene brugen af ChatGPT sikrer ikke en god artikel, der opnår det ønskede læsertal.

Man skal stadig selv gøre noget, siger Anders Kynde.

At ChatGPT på få minutter kan omskrive noter og tekstbider til hele artikler, kan friste nogle journalister, erkender Anders Kynde, der fortæller, at brugen af ChatGPT har været oppe at vende på flere morgenmøder på Vejle Amts Folkeblad.

Jeg har hørt om undskyldninger ved morgenmøder, hvor vi står og diskuterer, hvorfor en historie ikke har klaret sig så godt, hvor nogle kolleger har sagt, at de bare lige hurtigt har brugt ChatGPT til at omskrive en pressemeddelelse, som skulle publiceres hurtigt. Det er ikke en undskyldning. ChatGPT er en hjælper, det er ikke en erstatning for journalisten, siger Anders Kynde.

Flittigt brugt

På trods af, at der kan være fristelser og fejl, bliver ChatGPT dog stadig flittigt brugt af journalisterne hos Vejle Amts Folkeblad.

En af de flittige brugere hedder Jørgen Flindt, som sidder på et kontor længere nede ad gangen i det aflange redaktionslokale.

Han er i gang med at kigge den kommunale dagsorden igennem for mulige historier. Her er han stødt på et punkt med en længere tekst om to tårne, hvor det skal besluttes, om der skal gives nedrivningstilladelse.

Jørgen Flindt kopierer sagsfremstillingen fra den kommunale dagsorden ind i ChatGPT og skriver blot ordene ’giv mig essensen’. På omkring tre sekunder har Jørgen Flindt nu fået fem linjer om, hvad sagen helt konkret handler om.

Klokken har passeret 12 på den lille redaktion i Vejle, og det virker til, at den stærke morgenkaffe har haft tid til at virke. Der bliver i kontrast til formiddagen nemlig talt højlydt henover skrivebordene med de mange notesblokke.

Jørgen Flindt bruger også ChatGPT til at komme med ideer til opfølgende artikler.

Det er den bedre end os til. Til idégenerering er det mig, der følger med den, siger Jørgen Flindt, da han læner sig tilbage i den knirkende kontorstol.

Har du nogle etiske overvejelser, om at lade ChatGPT komme med ideerne?

Nej, ikke rigtigt. Det er trods alt stadig mig, der har det sidste ord, siger Jørgen Flindt.

Jørgen Flindt bekymrer sig generelt heller ikke om, at ChatGPT kan finde på at opdigte ting og komme med falske påstande. Han mener, at man skal bruge sin sunde fornuft.

Man kan ikke slippe hjernen, men jeg er ikke bekymret for at sætte noget fra den kommunale dagsorden ind i ChatGPT og få den til at komme med essensen af det, siger Jørgen Flindt.

Der er dog punkter, hvor Jørgen Flindt er skeptisk ved brugen af ChatGPT i sin arbejdsproces

Jeg er bekymret for, hvad ChatGPT kan finde på at skrive, hvis jeg beder den om at lave en faktaboks, siger Jørgen Flindt.

Derudover er Jørgen Flindt heller ikke altid helt tryg ved tanken om, at ChatGPT kan gemme de oplysninger, han indtaster.

Det er overvejelser, jeg gør mig, og jeg sætter for eksempel ikke personfølsomme informationer ind i ChatGPT. Men hvis det bare er informationer fra den kommunale dagsorden, så ser jeg ikke et problem i det, siger Jørgen Flindt.

Ikke de eneste

Vejle Amts Folkeblad, der er en del af JFM, er langt fra det eneste danske medie, der har taget ChatGPT til sig. Sammen med Vejle Amts Folkeblad, har JFM sendt alle medarbejdere i koncernen på efteruddannelse i brugen af ChatGPT ad to omgange i henholdsvis 2023 og 2024, oplyser Peter Ammitzbøll.

I koncernen har man udviklet et særligt prompt-bibliotek med tekster, som journalisterne kan kopiere ind i ChatGPT for at få forslag til blandt andet alternative rubrikker, spørgsmål til interviews eller ideer til opfølgende historier.

Efterhånden har vi fundet ud af, at der hvor ChatGPT giver den største værdi for os, det er på det kreative felt, siger Peter Ammitzbøll.

En lignende udvikling er i disse dage at finde hos Ekstra Bladet, Jyllandsposten og Politiken. Kasper Lindskow, der er chef for AI i JP/Politikens Hus, forklarer, at man har udviklet AI-systemet Magna, som ligesom prompt-biblioteket i JFM, skal hjælpe journalisterne i deres arbejdsproces.

Det er blandt andet værktøjer, der i første omgang hjælper journalisterne med skriveassistance, men på sigt kigger vi på, hvordan det kan hjælpe med nyhedsopdagelsen i arbejdet med research, siger Kasper Lindskow.

En sparringspartner

Vibeke Frost Nissen er en af de journalister, som har taget prompt-biblioteket i JFM til sig.

Jeg bruger ChatGPT som sparringspartner, siger Vibeke Frost Nissen, idet hun skal til at kopiere en ældre artikel ind i ChatGPT for at få et bud på en opfølgende artikel, hun kan lave.

Vibeke Frost Nissen fortæller, at hun ikke selv har oplevet, at ChatGPT kommer med falske påstande, og at den begynder at opdigte ting, og derfor har hun heller ikke de store overvejelser om, hvordan hun vil tackle den problemstilling.

Samtidig understreger hun, at hun aldrig bruger præcist det bud, ChatGPT kommer med. I stedet får hun inspiration til, hvordan hun selv kan gribe historien an, til ideer og til forslag til kritiske spørgsmål, som Vibeke Frost Nissen fortæller, hun godt kan have svært ved, når hun skal til at lave et kritisk interview. Og så er der en helt bestemt prompt i JFM’s prompt-bibliotek, hun flittigt benytter.

Vi har en rigtig god prompt, der kan foreslå én at bruge andre ord, hvis man har en tendens til at bruge ord, der går meget igen i éns artikler, siger Vibeke Frost Nissen.

Det er dog også hændt, at Vibeke Frost Nissen har brugt ChatGPT mere aktivt i selve udformningen af sine artikler. Tilbage i juli skrev hun en artikel om, hvilke kunstnere vejlenserne helst ville se til Jelling Festival i 2025.

Her havde jeg forinden lavet et opslag på Facebook, hvori jeg stillede spørgsmålet, siger Vibeke Frost Nissen, mens hun scroller ned gennem opslaget, der afslører, at der er kommet over femhundrede kommentarer.

Derefter bad Vibeke Frost Nissen ChatGPT om at samle de ti forslag, der gik mest igen i kommentarfeltet.

Det tog to minutter. Det havde ellers været ret tidskrævende, i forhold til den nyhedsværdi, det havde, siger Vibeke Frost Nissen.

Selvom Vibeke Frost Nissen vælger at se mulighederne ved ChatGPT, kan hun dog stadig ikke slippe nogle dunkle tanker om kunstig intelligens’ indtog i journalistikken. Hun kan nemlig godt være bange for, at det en dag kan gøre hende overflødig.

Jeg synes, det er skræmmende og fascinerende på samme tid, siger Vibeke Frost Nissen.