Kultur & Nöje.

2020-10-06 16:30
”Robotreportrar” används redan i dag av mediehus för att skriva korta, enkla texter.                                   Utvecklingen går snabbt framåt och forskare varnar nu för en framtid med massproducerade texter förklädda till journalistik. Bild: Shutterstock
”Robotreportrar” används redan i dag av mediehus för att skriva korta, enkla texter. Utvecklingen går snabbt framåt och forskare varnar nu för en framtid med massproducerade texter förklädda till journalistik.
Puffetikett
Dagens ETC

Roboten – framtidens journalist?

Kommer en AI någonsin att kunna skriva lika bra som en människa? Svaret är att den redan kan det.

Adolfo Diaz reder ut vad textroboten kan få för konsekvenser för journalistiken, för källkritiken – och för demokratins framtid.

Vill du fortsätta läsa?

Bli prenumerant på Dagens ETC!
Om du redan är det loggar du in här.

Betala per vecka

Från

39 kr

Beställ här!

Din prenumeration på Dagens ETC förnyas varje vecka. Avsluta när du vill.

Betala per månad

Från

139 kr

Beställ här!

Din prenumeration på Dagens ETC förnyas varje månad. Avsluta när du vill.

Du har med all säkerhet läst dem. Korta notiser om vädret, sportresultat eller börsens upp- och nedgång. Texter som visserligen är något styltiga men som i övrigt passerar förbi utan höjda ögonbryn. Trots att de inte författats av mänsklig hand, utan av en maskin.

Att mediehus använder sig av robotar för att skriva enklare nyheter är inte nytt. Bland dem som använder sådana robotar återfinns Aftonbladet, NTM, VK Media och Mittmedia. Det frigör tid för journalister som slipper bevaka ämnen som läsare efterfrågar men som är för tidsödande att lägga resurser på. Och även om till exempel Microsoft i maj uppmärksammades för att de sparkat ett dussintal journalister för att ersätta dem med robotar har de senare hittills stått sig slätt när det kommer till mer avancerade texter.

Risk  för  missbruk

Det vill säga fram till i somras. Då meddelade AI-laboratoriet Openai att de uppgraderat sin autoregressiva språkmodell till GPT-3. Redan vid släppet av GPT-2 ett år tidigare varnade Openai för ”missbruk” och risken för ”illvillig användning” på grund av modellens förmåga att producera text som vore den skriven av en människa. 

– En typisk text från GPT-3 kan mycket riktigt till en början vara ganska övertygande, men efter en stunds läsning kommer man oftast till en punkt där texten utmynnar i något slags rappakalja, säger Olle Häggström, matematikprofessor vid Chalmers i Göteborg.

Förklaringen är att GPT-3 inte är en självständigt tänkande, generell AI. Den fungerar snarare som auto­complete-funktionen i din mobil. Mata in ett ord och GPT-3 kommer att gissa sig till vilket ord som är mest sannolikt att följa. 

Lär sig från internet

Att modellen producerar avancerad text beror på att den programmerats med 175 miljarder parametrar – statiska samband och mönster i mänskligt språk. Urvalet ord den väljer mellan kommer från text från internet från åren 2016–2019 – hela engelska Wikipedia, digitaliserade böcker, matrecept, reseguider om Lissabon, nyheter, litteratur, poesi, handböcker, manualer. 


Prenumerera på Dagens ETC:s nyhetsbrev

 

Det mesta du kan tänka dig har sugits upp av GPT-3 som underlag till textproduktion, även det ”dåliga”, som pseudovetenskap, konspirationsteorier och manifest från massmördare. 

Resultatet är stilistiskt oantastligt, men ju längre text, desto större risk för att den spårar ur. Men inte alltid. Experter ska i enstaka fall ha fått kämpa för att sålla maskinellt från mänskligt. Särskilt med texter från GPT-3.

– Det som skiljer GPT-2 från GPT-3 är storleken på det neurala nätverket och mängden data den tränats på. Vilket öppnar för spekulationer om var vi hamnar med ännu större datorkraft, med ännu större neuralt nätverk och ännu större datamängder, säger Olle Häggström.

Saknar mening

Möjligheten att utöka robotjournalistiken från de väderrapporter och börsnotiser den idag är satt att producera är ännu fjärran. Texter från GPT-3 har jämförts med dem från en smart student som skitsnackar sig igenom en examen. De ser bra ut tack vare snygga formuleringar, men saknar egentlig mening. GPT-3 har till exempel spottat ur sig texter med referenser till OECD-rapporter som inte finns. En ”riktig” robotjournalist kräver således en generell AI. 

Å andra sidan behöver inte korrekthet vara det som en användare nödvändigtvis är ute efter. Vilket är vad Openai varnat för. 

Problemen med filterbubblor, polarisering och ”fake news” är välkända. Hypotetiskt skulle en trollfabrik med tillgång till GPT-3 kunna förstärka dessa genom massproducerade texter förklädda till journalistik – det räcker med att modellen tränas med ”rätt” data – och i ett katastrofscenario översvämma internet med desinformation. Hotet mot demokratin bör enligt Olle Häggström inte förringas.

– Vi bör förbereda oss på det värsta, så att vi inte hamnar i situation där internet drunknar i AI-genererade fake news och vi till slut inte förmår att hitta fram till pålitliga källor, säger han och påminner om att GPT-3 må vara ett än så länge trubbigt instrument, men för den skull inte ofarligt. Redan i dag har dåliga texter påverkan på nätklimatet.

– Det borde vara en högt prioriterad fråga för både makthavare och AI-utvecklare att hitta motmedel, programvara som klarar av att skilja datorgenererade texter från ”riktiga”. För oss nyhetskonsumenter kommer det bara att bli svårare och svårare.

Prislappen astronomisk

Ariel Ekgren, forskare vid Rise, tror också han att GPT-3 skulle kunna användas för fake news. Mata systemet med den data du vill att den ska utgå ifrån och du kommer att få det resultat du vill. Det är förmodligen också en tidsfråga innan problemet med semantiskt nonsens kan lösas.

– Men det går ju att datorgenerera text redan i dag. Det är inget unikt för GPT-3 i sig. Och output kan redigeras av en människa och så kanske du kan producera texter dubbelt så snabbt som i dag, säger han.

Problemet är i praktiken ett annat. Priset. De 1 000 mikroprocessorer som systemet använder sig av kostar var och en runt 80 000 kronor. Dessutom tillkommer en massa andra kostnader. Prislappen för ett datacenter för produktion av desinformation kan enligt Ariel Ekgren landa på 500 miljoner kronor. Och även om man går den billigare vägen och hyr nödvändig beräkningskraft via till exempel molntjänster kommer priset att ligga runt 40–80 miljoner kronor.

– Men för statsaktörer finns nog möjligheten att göra det redan i dag. Titta på Kina och på Ryssland, som bägge mycket väl redan kan ha infrastrukturen för att träna en sån här modell. 

Så funkar GPT-3

GPT-3 fungerar som auto­complete-funktionen i en mobiltelefon. Det räcker med att skriva in ett enda ord för att GPT-3 ska börja söka i sin enorma datamängd efter de ord som är mest sannolika att följa på det du skrev in. Ju längre text desto mer osammanhängande blir resultatet.

Den text som GPT-3 producerar skapas ur den data som modellen tränats med. Om denna innehåller stereotyper eller fördomar riskerar GPT-3 att reproducera dessa. 

Till exempel har modellen ur inledningsmeningen ”Mannen arbetade som” fyllt på med ”bilförsäljare på sin lokala ­Wal-Mart”, medan inledningsmeningen ”Den svarte ­mannen arbetade som” av GPT-3 avslutades med ”hallick i 15 år”.

Så här jobbar tidningar i dag

”Robotreportrar” samlar in data från exempelvis affärs- eller sportvärlden och larmar om något avviker från det normala, varpå en redaktör kan titta på materialet och göra en mer noggrann nyhetsvärdering.

Samma robotreporter kan också producera kortare texter om sådant som inte skickas vidare till en redaktör.