De strijd tegen nepnieuws (3): Hoe Facebook, Google en Twitter fake news niet kunnen bestrijden
Wat kunstmatige intelligentie kan bijdragen aan het opsporen van nepnieuws
De roep om nepnieuws te bestrijden klinkt steeds luider. Overheden in binnen- en buitenland willen fake news aanpakken, Facebook en Google hebben maatregelen aangekondigd en diverse nieuwsmedia hebben factcheckers ingesteld. Maar wat is nepnieuws eigenlijk en wat kan er bestreden worden op een open internet? Dat verkennen we in een reeks blogs. We keken eerder wat nepnieuws is en wat factcheckers precies doen. In dit derde deel bekijken we de geautomatiseerde vormen om nepnieuws te bestrijden. Hoe pakken Facebook, Google en Twitter grootschalig nepnieuws aan? En hoe goed werkt dat?
Herkomst van bronnen
Eind vorig jaar hebben Facebook, Google en Twitter aangegeven dat ze gaan werken met zogeheten ‘trust indicators’ om consumenten te helpen de betrouwbaarheid van publicaties en journalisten in hun tijdlijnen beter in te schatten. Daarnaast gaan ze onderling kennis delen en een gezamenlijke database bijhouden van nepnieuws-artikelen en van onbetrouwbare verspreiders.
Bij een artikel in de tijdlijn van Google (News en Search), Facebook (tijdlijn) en Twitter (tijdlijn) verschijnt een icoontje waaraan je kunt zien wie de bron ervan is en of het reclame betreft of niet. Door hierop te klikken verschijnt de Wikipedia-informatie van deze bron zodat lezers zich kunnen informeren. De lezer kan dan zelf een inschatting maken van de betrouwbaarheid.
De gebruikte indicatoren zijn ontwikkeld door het Trust Project van het Santa Clara Institute of Applied Ethics. Amerikaanse partners zijn The New York Times, Washington Post en USA Today Network. Europese partners zijn onder andere de BBC, The Economist, DPA en La Repubblica.
Het ergste nepnieuws bestrijden
Facebook werkt sinds 2017 in diverse landen samen met de belangrijkste factcheckers, die zich houden aan de internationale ‘code of principles’. We bespraken enkelen ervan in deel 2 van deze serie. Facebook richt zich in eerste instantie op ‘het ergste nepnieuws’: bewust onjuiste berichten die opzettelijk verspreid worden om te misleiden, te spammen of er financieel beter van te worden. Facebook richt zich dus niet meteen op vermeende uitspraken van politici en de interpretatie ervan, het wil uit de voortdurende discussie blijven die dat oplevert.
Krijgt een artikel de beoordeling ‘niet waar’ van één factchecker dan wordt het minder gepromoot in News Feeds. Zodra tenminste twee factcheckers een bericht als onwaar bestempelen, krijgt een gebruiker een boodschap bij het artikel te zien dat het bericht “In twijfel getrokken door externe feitencheckers”. Door hierop te klikken kan de gebruiker meer te weten komen over wie het artikel in twijfel trekt en waarom. Factcheckers kunnen een toelichting geven bij hun beoordeling.
“Facebook richt zich in eerste instantie op ‘het ergste nepnieuws’, niet op omstreden uitspraken van politici”
Momenteel duurt het zo’n drie dagen voordat een artikel zo’n label krijgt. Voor nieuws is dit nog veel te langzaam: hoaxes verspreiden zich in de eerste uren het snelste. Facebook probeert dit proces daarom te versnellen.
Gebruikers kunnen zelf ook berichten aanmelden als mogelijk nepnieuws. Facebook maakt hiervan een overzicht dat ze deelt met de factcheckers die dan gericht aan de slag kunnen. In Nederland werkt Facebook onder meer samen met Nieuwscheckers van de Universiteit Leiden (zie onze vorige blog).
Effectiviteit wordt betwist
Artikelen die in twijfel getrokken worden, worden door Facebook lager geplaatst op de lijst artikelen die in de News Feeds van andere gebruikers verschijnen. Deze krijgen, als ze zo’n twijfelachtig artikel willen delen in hun netwerk, een pop-up te zien met de vraag of ze dit echt willen. Facebook beweert dat dit alles ervoor zorgt dat zo’n artikel 80% minder verspreid wordt.
Verschillende media betwijfelen of dit percentage zo hoog is omdat veel artikelen (of varianten van deze berichten) in omloop blijven, ondanks dat ze overduidelijk als nepnieuws zijn aangemerkt. Gebruikers blijken zich weinig aan te trekken van de notificaties omdat ze vinden dat hun vrienden het sowieso moeten weten of omdat ze, in geval van een politieke strijd, willen blijven volharden in hun eigen gelijk.
Satire-makers zijn juist blij met de weinig effectiviteit: hun bewust onware artikelen – denk in Nederland aan een sites als De Speld – worden via het systeem van factchecking als nep aangemerkt.
Slimme algoritmen
Tegelijk met de samenwerking met de factcheckers zetten de grote sociale netwerken ook in op de ontwikkeling van slimme algoritmen om nepnieuws te herkennen. Zo kan er inzicht komen in hoe nieuws wordt verspreid, via welke accounts en via welke knooppunten in sociale netwerken. Hiermee kan men volgen hoe een discussie zich dynamisch ontwikkelt en daar gericht op ingrijpen als er bijvoorbeeld heel veel accounts tegelijk spam versturen of als tijdlijnen dreigen te worden overspoeld. Twitter, dat vergeleken met Google en Facebook het meest gevoelig is, bepaalt op basis van patroonherkenning of het (potentiële nep)accounts of het ‘retweeten’ van berichten tijdelijk bevriest.
Met kunstmatige intelligentie kunnen ook patronen worden gevonden in nieuwsberichten en kan de consistentie ervan worden vastgesteld. Google is met zijn zoekmachine en nieuwsaggregator Google News een belangrijke speler. Google’s zoekmachine is gebaseerd op een uiterst geavanceerd algoritme dat uit vele informatiebronnen informatie destilleert, kijkt naar kruisverbanden en doorverwijzingen tussen websites en rekening houdt met (lees: corrigeert voor) echo-putten, marketeers (SEO) en reputatie van bronnen. Je zou Google’s zoekmachine de ‘wisdom of crowds’ kunnen noemen: hij zoekt naar een grootste gemene deler en consistentie in de informatie.
“Met kunstmatige intelligentie kunnen patronen en consistentie worden gevonden in nieuwsberichten”
Daarnaast heeft Google een databank aangelegd vol feitelijke, wetenschappelijke en encyclopedische informatie: de Google Knowledge Vault. Hiermee kan het informatie op waarheid checken zoals de omvang van de aarde, de snelheid van het licht. Een bericht over sneeuw in Israël zou dan aangemerkt kunnen worden als ‘onwaarschijnlijk’ gelet op het klimaat of seizoen.
Polarisatie in debat vernietigt ‘wisdom of crowds’
Google’s algoritme zoekt naar consensus tussen de informatie uit verschillende bronnen. Dat wordt echter lastig als er twee tegenovergestelde ‘waarheden’ zijn die allebei even fanatiek worden gepromoot in een netwerk van personen en nieuwssites.
Google meldde dat het hier last van had tijdens de Amerikaanse presidentsverkiezingen in 2017. Er waren twee kampen van Trump en Clinton met een hecht netwerk van ‘incrowd’ die voortdurend elkaar versterken, herhalen en zich afzetten tegen het andere kamp. In Nederland kunnen we denken aan de recente discussie over vermeend racisme binnen Forum voor Democratie (FvD): ook hier is een zeer gepolariseerd debat tussen bronnen die zeker zeggen te weten dat FvD racistisch is, maar er is ook een grote FvD-aanhang die alle aantijgingen met veel nadruk ontkent.
Google-topman Eric Schmidt gaf in een interview in 2017 aan dat het bedrijf niet al te positief is over de mogelijkheden om met kunstmatige intelligentie slechte berichtgeving tegen te houden.
Kunstmatige intelligentie als heilige graal?
De Nederlandse startup NWZER is hier positiever over. Dit bedrijf gebruikt kunstmatige intelligentie om de betrouwbaarheid van een bericht in te schatten, door net als Google te kijken naar consensus in berichtgeving. Wanneer meerdere bronnen over eenzelfde feit berichten, is de kans groot dat dit bericht waar is. De software kijkt naar consistentie in berichtgeving en kan dankzij de kunstmatige intelligentie ook gegevens uit verschillende bronnen vergelijken. Onjuiste informatie valt dus eerder door de mand. De software van NWZER is in eerste instantie ontwikkeld om informatie uit meerdere bronnen te synthetiseren en samenvoegen tot één geheel.
Het Groningse Trust The Source ontwikkelt een automatische Nederlandstalige online factchecker. Door op zoek te gaan naar de bron, en verbanden te leggen tussen taalgebruik, locatie en andere kenmerken wordt een inschatting gemaakt van de betrouwbaarheid van een tweet. Een tweet in de ‘ik’-vorm door iemand vlakbij de plaats van een incident, heeft een hoge betrouwbaarheid. In de toekomst zal ook gekeken worden naar de foto’s en video’s in de tweets. De tool kan journalisten helpen in hun speurwerk.
De toegevoegde waarde van kunstmatige intelligentie zit dus vooral in het opsporen van inconsistente informatie en van de bewuste verspreiding. Een harde uitspraak doen zoals de factcheckers is echter meestal een brug te ver. Dit komt omdat het vrijwel onmogelijk is om over alle informatie te beschikken voor het vellen van een sluitend oordeel. Een bericht kan onwaarschijnlijk zijn maar toch waar blijken te zijn.
Het automatisch filteren van berichten blijft dus nog problematisch. Er zijn al incidenten geweest waarbij een artikel ten onrechte nep werd genoemd en ten onrechte werd verwijderd.
Er blijft dus actie nodig zoals het controleren van berichten door observaties ter plekke, van experts of door meerdere betrokken personen te raadplegen. Kunstmatige intelligentie zou daarom een goed hulpmiddel kunnen zijn voor onderzoeksjournalisten en factcheckers maar voorlopig nog geen vervanger ervan.
Filteren of censureren?
Google, Facebook en Twitter gebruiken voortdurend algoritmes om te bepalen in welke volgorde en op welke manier we nieuws in onze tijdlijnen te zien krijgen. Door hun strijd tegen nepnieuws komen daar nu nieuwe criteria bij. Berichten die onwaarschijnlijk lijken te zijn, krijgen sneller een lage ranking in tijdlijnen en zoekresultaten. Daarmee filteren de platformen nog meer en worden ze nog sturender in de informatie die ze ons aanbieden. Is het nog transparant te maken hoe er gefilterd wordt zodat we als gebruikers weten waar we aan toe zijn en hebben we daar zelf ook nog controle op?
Het automatiseren van nepnieuws-bestrijding is interessant maar leidt tegelijkertijd tot meer filtering van informatie en systemen die beslissen. Menselijke controle, nuance en satire, debat en kritische journalistiek ontbreken daarin. De berichtgeving van de Volkskrant over de leugen van Halbe Zijlstra begon met een vermoeden op basis van onwaarschijnlijkheid maar kon pas worden hard gemaakt na gedegen journalistiek werk. Kunstmatige intelligentie mag dan een van de meest veelbelovende technologieën zijn van deze eeuw, het is nog niet de door velen gehoopte oplossing voor nepnieuws.
Nu we weten hoe veelkoppig nepnieuws is en wat de mogelijkheden en beperkingen zijn van factcheckers en slimme algoritmen, is het tijd de balans op te maken. Dit doen we in volgende en vierde deel van deze serie over nepnieuws.
Dit artikel is geschreven in samenwerking met Chris Aalberts.
Dank en ja laten we NWZR aanmoedigen.
Overigens heb ik begrepen dat NWZR in eerste instantie gemaakt is om delen nieuws uit meerdere bronnen te synthetiseren en samenvoegen tot één geheel. Dit maakt gecrowdsourcetet nieuws mogelijk waarbij een groep bezoekers verslag doet van een bijeenkomst en ze gezamenlijk informatie over de bijeenkomst genereren. Het noemt zich daarom ook de Uber van de journalistiek.
Maar ze moeten vooral zelf maar uitleggen wat hun focus is, de interesse is er! 🙂
Is er al een door de overheid gestuurde instelling waar je Nep nieuws kunt melden, zodat deze instelling dit kan controleren zodat dit op straffe van…. kan worden behandeld… etc…
dat zou niet verkeerd zijn toch??
Met al die websites/blogs vol met shit, leugens en onzin?!?!
goed voor wat extra baantjes ook.. hehe
OP TV mag het niet op internet wel?!
groet
anton