Hoppsan!

Ett tekniskt fel har uppstått. Din skärm är smalare än innehållet på denna sida. Vill du visa Expressen i ett bättre anpassat format?

Du kan alltid välja vilket format sidan ska visas i, i sajtens sidfot.

Leo Wallentin: Var inte rädda för robotarna

MÄNNISKA OCH MASKIN. Algoritmer och robotjournalistik kan användas för att öka transparensen, om vi vill.
Foto: Michelangelus

Robotar och datorer har potential att omskapa journalistiken som vi känner den.
Leo Wallentin ser en framtid där reportrar och redaktörer får tid att vara journalister igen, i den andra delen av Expressen Kulturs artikelserie #medietrender.

Detta är en kulturartikel, där skribenter kan uttrycka personliga åsikter och göra bedömningar av konstnärliga verk.

För några år sedan, våren 2010 måste det ha varit, behövde jag en kort artikel eller notis om det politiska läget i var och en av Sveriges 290 kommuner. Det behövde gå snabbt, dessutom, och även om varje kommun inte krävde mer än tio minuters research och fem minuters skrivande, skulle det ta en person nästan två arbetsveckor. Den tiden fanns inte, så jag lät ett dataprogram skriva notiserna.

Fast det berättade jag nästan inte för någon. Det kändes liksom smutsigt, att sätta en dator på att göra en journalists arbete. Inte för att notiserna höll någon konstnärlig verkshöjd, de började ungefär så här: "I Alvesta regerar sedan 2006 Centerpartiet, Folkpartiet, Socialdemokraterna och Miljöpartiet tillsammans. Socialdemokraterna är störst, och har kommunalrådsposten /.../". Men ändå, smutsigt.


Leo Wallentin.
Foto: Foto: Åsa Eriksson

Nu, fem år senare, har du kanske hunnit läsa robotskrivna nyhetsnotiser flera gånger redan, även om du inte vet om det. Du har alldeles säkert blivit matad med nyheter från en robotredaktör. Och det är, garanterat, bara början. Och jag tycker inte längre att det känns vare sig smutsigt eller särskilt oroväckande.

Nyligen (23/10) publicerade Los Angeles Times en notis om en mindre jordbävning sju mil norr om San Francisco-bukten. "A shallow magnitude 3.1 earthquake was reported Sunday morning 4 miles from Hidden Valley Lake", inleds notisen, som var undertecknad av tidningens jordbävningsrobot "Quakebot". Los Angeles Times lät en dator producera den första notisen om en jordbävning i februari, och nu skriver den artiklar om varje rapporterat jordskalv i södra Kalifornien.


Nyhetsbyrån AP låter sedan i somras en maskin skriva nyhetsnotiser om företags kvartalsrapporter. Andra har gjort samma sak länge. Affärstidningen Forbes, till exempel, har publicerat robotskrivna notiser om kvartalsrapporter och halvårsrapporter sedan 2011, och notiserna har blivit bättre och bättre med åren.

Listan över liknande projekt växer snabbt, men det är inte det som är nyheten. Nyheten är att algoritmerna som skriver de här artiklarna och notiserna blir allt bättre, och att den utvecklingen går väldigt fort just nu, som om vi vore på väg mot ett slags journalistikens tekniska singularitet. Inte bara inom journalistiken, förresten. På Wikipedia är en robot just i färd med att skapa artiklar om alla planeten jordens djur- och växtarter, på svenska, cebuano och waray.

Wikipediaprojektet är inte alldeles okontroversiellt; svenskspråkiga Wikipedia innehåller till exempel redan 60 000 artiklar om svampar, men bara 200 om danser, och robotarna gör ingenting för att bättra på den skevheten. Inte heller kommer robotar på nyhetsredaktionerna att göra något åt homogeniteten bland dem som jobbar där, och effekterna det har på ämnesval och rapportering.


Robotar som skapar innehåll tar över både fördomar och trångsynthet från människorna som programmerar och styr dem. I sämsta fall förändras ingenting med robotarnas intåg. Men i optimisternas framtidsvision, gör algoritmerna att problemen blir synligare, och lättare att ta på: Det är svårt att kritisera ett redaktörsbeslut, eftersom "nyhetsvärde" är ett så luddigt begrepp. Men algoritmerna är, om vi får se dem, genomskinliga. Vi kan vrida och vända på dem. Och till exempel påpeka när den bara skriver om svamp.

På svenska nyhetsredaktioner har intresset för robotar varit märkligt ljumt hittills. Vi har varken sett algoritmer som skriver notiser, eller (mer okontroversiellt) särskilt många exempel på robotar som samlar in data åt oss.

Trots att svenska medieföretag är beroende av att synas i Facebooks algoritmer för automatisk nyhetsvärdering, har de inte byggt några algoritmer för sina egna sajter. På nyhetsredaktionerna sitter i stället webbredaktörer med 360 högskolepoäng, och sorterar artiklar efter vad folk klickar mest på.


Det är förstås ett jätteslöseri när vi skulle kunna lämna en del av det mekaniska, och stressiga, arbetet till maskinerna, och själva få ägna oss åt allt det som det behövs en människa till:

Att lyfta upp nyheter som är av allmänintresse (i betydelsen att det ligger i allmänhetens intresse att känna till dem, och inte bara att folk i allmänhet tycker att de är intressanta), att hitta kreativa vinklar, eller visa upp artiklar som tidningen vill förknippas med av något annat skäl. Kanske känns det fortfarande lite för smutsigt att lämna över en del av redaktörskapet till en maskin?


Och på svenska nyhetsredaktioner förväntas sönderstressade webbreportar lägga tid på att mekaniskt skriva om, "rewrajta" originalartiklar från lokaltidningar, eller telegram från TT. Eller från AP för den delen (ironin, att tänka sig en reporter som rewrajtar en robotskriven AP-text. Var det inte robotarna som skulle göra skitjobbet?).

Det är bara en tidsfråga innan mediehusen inser det absurda i det, och börjar experimentera med teknik som förhoppningsvis kan ge fler reportrar utrymme att lämna redaktionen oftare, eller göra något kreativare med sin arbetstid.

Eller, om man vågar tro på en annan ekonomisk ordning här i världen, sluta jobba gratis övertid, gå hem lite tidigare på eftermiddagen, och bygga en papier-maché-dinosaurie med barnen i stället.


Leo Wallentin

kulturen@expressen.se


Leo Wallentin är frilansande datajournalist och konceptutvecklare.


Följ Expressen Kultur på Facebook - där kan du diskutera och kommentera våra artiklar.

ROBOTJOURNALISTIK

Teknisk singularitet är den tänkta punkt i framtiden då datorer blir smartare än människor - med stora, men oförutsägbara - samhällsomvandlingar som följd.

Den sannolikt första robotskribenten hette Tale-spin, och byggdes på Yales universitet 1976-1977.

Du kan följa AP:s första trevande försök med robotnotiser här, och Forbes dito här.

Och här finns Los Angeles Times allra första robotskapade jordbävningsnotis.

De mest uppmärksammade exemplen handlar om att göra nyhetsjournalistik snabbare, men algoritmer har använts för att göra journalistiken långsammare också. Läs mer här.

FAKTA

I söndags fyllde Expressen 70 år. Med anledning av jubileet publicerar Expressen Kultur artikelserien #medietrender som ska behandla både problem och möjligheter för en bransch i stark förändring.