Mens JFM har haft succes med at bruge ChatGPT til idéudvikling og omskrivning af pressemeddelelser, forklarer eksperter, at der kan være potentielle faldgruber ved brugen af ChatGPT. Falske påstande og ophavsretskrænkelser kan snige sig ind i artiklerne, hvis ikke man er opmærksom.
JFM introducerede sidste år sine medarbejdere for et særligt prompt-bibliotek, der er en side med forskellige tekster, man kan kopiere ind i ChatGPT, som efterfølgende kan hjælpe journalisten med alt fra forslag til alternative rubrikker og idéer til opfølgende historier. Manden bag hedder Peter Ammitzbøll, udviklingsredaktør og tovholder for brugen af ChatGPT i JFM.
- ChatGPT er super god til at lave idéudvikling. Hvis du for eksempel har en artikel, der har klaret sig godt, så ved vi, at vores læsere rigtig gerne vil have en opfølgende artikel. Der er ChatGPT super god til at hjælpe dig med at idéudvikle på opfølgende historier eller for eksempel dine rubrikker, siger Peter Ammitzbøll.
I december 2023 stod Peter Ammitzbøll bag et kursus for medarbejderne i JFM, og det blev ifølge udviklingsredaktøren en stor succes. Derfor valgte man i JFM at lave et opfølgende kursus i 2024, der fokuserede mere på, hvordan man konkret kunne bruge ChatGPT i sit arbejde som journalist.
- Efterhånden har vi fundet ud af, at der hvor AI giver den største værdi for os, det er på det kreative felt, siger Peter Ammitzbøll.
ChatGPT bliver dog også brugt til andre ting end ideer til opfølgende historier og rubrikker.
På Vejle Amts Folkeblad, som er en del af JFM, benytter man for eksempel ChatGPT til at omskrive pressemeddelelser til artikler.
Falske påstande og krænkelser
Man skal dog være påpasselig med brugen af ChatGPT. Ira Assent, professor ved Aarhus Universitet og forsker i kunstig intelligens og maskinlæring, forklarer, at ChatGPT kan finde på at opdigte falske påstande, hvis den ikke kender svaret på det, man spørger den om.
- Grundlæggende er det et problem, at modellerne genererer noget, der ligner de data, de har fået i deres træning. Hvis de ikke lige er blevet trænet på det, de bliver spurgt om, så vil de finde nogle data, der ligner, og dermed opdigte falske påstande, siger Ira Assent.
Også på det juridiske område kan der med brugen af sprogmodeller såsom ChatGPT opstå problematikker, forklarer Peter Schønning, advokat med speciale i ophavsret og EU-ret.
- Fordi ChatGPT er blevet trænet på for eksempel nogle nyhedsartikler, så kan det svar, ChatGPT kommer med, når en journalist beder om et eller andet, i sig selv være en ophavsretskrænkelse, fordi der i svaret fra ChatGPT kan være nogle dele af de ophavsretligt beskyttede værker, som journalisterne så kan komme til at publicere, siger Peter Schønning.
Du er ansvarlig
Til spørgsmålet, om man ikke risikerer, at der sniger sig både opdigtede påstande og dele af ophavsretligt beskyttede værker med i artiklerne, når journalisterne i JFM bruger ChatGPT, svarer Peter Ammitzbøll, at reglerne er, som de altid har været.
- Hvad end du bruger ChatGPT til, så er det stadig dig som journalist, der er ansvarlig for artiklen. Vi har ikke nogen artikler, som er skrevet af ChatGPT og som er udgivet, uden at der er mennesker, der har været inde over, siger Peter Ammitzbøll.
At der skal være et menneske i processen med brugen af ChatGPT er også noget, der går igen i det såkaldte PIN-projekt, som er en rapport med 15 anbefalinger til nyhedsmediers brug af kunstig intelligens, som netop er blevet udgivet af JP/Politikens Hus.
Kasper Lindskow, der er chef for AI i JP/Politikens Hus og projektchef for PIN-projektet, forklarer, at anbefalingen, om at der skal være et menneske i processen med kunstig intelligens, handler om kontrol.
- Det er for at sikre redaktionel kontrol med systemerne i en situation, hvor systemerne er baseret på sandsynlighed, og stadig har en usikkerhed i den sandsynlighed, hvor man ikke kan planlægge udfaldet på forhånd. Derfor bliver man nødt til at have nogle mennesker i processen, siger Kasper Lindskow.
__________________________________________________________________________________________________
Faktaboks: Hvad er PIN-projektet?
’PIN’ er en forkortelse for Platform Intelligence in News. Målet for projektet har været at udvikle ansvarlige og effektive AI-systemer til JP/Politikens Hus’ nyhedsmedier. På baggrund af projektet har JP/Politikens Hus sammen med forskere fra Copenhagen Business School, Københavns Universitet og Danmarks Tekniske Universitet nu udgivet en rapport med 15 indsigter og 15 anbefalinger til nyhedsudgivere om brug af kunstig intelligens.
Kilde: JP/Politikens Hus
__________________________________________________________________________________________________
Det er dog stadig ikke uden mulige konsekvenser at bruge ChatGPT selv med et menneske inde over processen. Ira Assent forklarer, at der er et problem med gennemsigtigheden af AI-modeller som ChatGPT.
- Det er et problem, at de her AI-modeller bliver bygget af nogle virksomheder, som ikke giver andre adgang til at se, hvordan de gør. I et demokrati er det jo et problem, at man ikke kan se, hvad de er trænet på, siger Ira Assent.
Derfor er det også usikkert, om de informationer, som journalister taster ind i for eksempel ChatGPT, bliver gemt og brugt som træning af modellerne.
Det er en af grundene til, at JFM bevidst har valgt at gøre brug af OpenAI-tjenesten ChatGPTTeam, som lover en sikker server, hvorpå medarbejdere i virksomheder kan benytte ChatGPT.
- Når du vælger den, så træner ChatGPT ikke på dit materiale. Der er intet af det, vi taster ind, som ChatGPT tager og træner på, siger Peter Ammitzbøll.
Der er dog alligevel ting, som Peter Ammitzbøll ikke vil have journalisterne i JFM til at bruge ChatGPT til.
- Vi har nogle ret klare regler for, at man ikke må bruge ChatGPT til at lave fotorealistiske billeder. Fotorealistiske billeder definerer vi som, at hvis man kan tro, at et AI-generet billede er et ægte billede, så må man ikke bruge det, siger Peter Ammitzbøll.
Alle skal med på vognen
På trods af problematikker, hvad angår ophavsret og falske påstande, så synes Tine Johansen, formand for Dansk Journalistforbund, at AI-modellerne skal bruges i den journalistiske arbejdsproces.
- Alle skal med på vognen. Det her kræver, at vi efteruddanner os, og at vi bliver dygtige til at bruge de værktøjer, der er. Og så er vores holdning også, at det skal bruges med forsigtighed. Man skal vide, hvad man har mellem hænderne for, at man kan træffe de rigtige beslutninger om, hvordan man bedst muligt bruger AI i den journalistiske arbejdsproces, siger Tine Johansen.
Det er også en af grundene til, at Dansk Journalistforbund har været med til at opdatere de presseetiske regler.
- Nu fremgår det tydeligt, at et medie har ansvaret for, hvad det bringer, uanset hvordan det er blevet tilvejebragt. Det har vi fået understreget. Selvom man bruger AI, så står man selvfølgelig selv til ansvar for indholdet, siger Tine Johansen.
Hvad tænker du om, at der kan ske ophavskrænkelse ved, at journalister ude på de danske medier bruger sprogmodeller såsom ChatGPT?
- Der er kæmpe problemer med ophavsret, når det kommer til kunstig intelligens. Det er jo umuligt at få indblik i, hvordan de har trænet de her sprogmodeller, og der er alle mulige grunde til at tro, at DJ-medlemmers værker bliver krænket, i forhold til at lære ChatGPT det, den kan, siger Tine Johansen.
Når eksperter nævner, at der kan ske brud på ophavsretten ved at bruge sprogmodeller som ChatGPT, synes du så ikke, det er farligt, at journalisterne bruger det?
- Jeg synes, det er to forskellige problemstillinger. Den ene er, hvordan vi forsvarligt bruger kunstig intelligens i vores arbejde. Så er der den anden helt overordnede problemstilling, som handler om, at der sker ophavskrænkelser hvert sekund med brugen af de her AI-værktøjer, siger Tine Johansen.
Flere medier følger trop
Udover JFM har JP/Politikens hus også rullet deres AI-værktøj ’Magna’ ud på Ekstra Bladet, Politiken og Jyllands-Posten. Magna skal ligesom prompt-biblioteket i JFM hjælpe journalisterne med blandt andet assistance til skrivearbejdet, forklarer Kasper Lindskow.
- Det giver alle medarbejdere i JP/Politikens hus mulighed for at bruge Magna i et sikkert miljø, hvor den ikke bliver trænet på det, man taster ind, siger Kasper Lindskow.
Det er dog hensigten, at Magna skal hjælpe med mere end det.
- Næste skridt er at se på, hvordan værktøjet kan hjælpe med nyhedsopdagelsen, altså arbejdet med research, siger Kasper Lindskow.
Arbejdet med AI-værktøjet Magna er resultatet af næsten fire års forskning i blandt andet kunstig intelligens. I marts i år blev Magna så endelig tilgængelig for journalisterne på Ekstra Bladet, Jyllands-Posten og Politiken.