Infografiikka: Facebookin viha-reaktio ja algoritmin muutokset

Facebookin algoritmit ovat aina olleet sen suurimpia salaisuuksia. Niiden toiminnasta on aiemmin tihkunut vain vähän tietoja, ja sekin vähän, mitä on tiedetty, on perustunut pikemminkin ulkopuolisten havaintoihin ja päätelmiin kuin pitäviin todisteisiin. Tähän tuli kuitenkin muutos, kun Facebookin ex-työntekijä Frances Haugen vuosi tuhansia yhtiön salaisia asiakirjoja ja keskusteluja ensin syyskuussa Wall Street Journalille ja sen jälkeen Yhdysvaltain kongressille, jonka jälkeen tietoihin on päässyt tutustumaan myös muita sanomalehtiä.

Koostin mediassa esiintyneistä tiedonmuruista infografiikan, joka kuvaa mm.

  1. Kuinka Facebook kehitti ja julkaisi emoji-reaktiot vuonna 2016.
  2. Kuinka Facebook kertoi julkisuudessa emoji-reaktioiden vaikutuksen olevan uutissyötteen algoritmissa vain vähän tavallista tykkäystä suurempi, vaikka se alunperin oli viisinkertainen.
  3. Kuinka Facebookin sisällä havahduttiin hitaasti emoji-reaktioiden (erityisesti ”vihainen”-reaktion) ongelmiin ja huomattiin uutissyötteen algoritmin tuottavan ei-toivottuja tuloksia.
  4. Kuinka Facebookilla kesti vuosia tehdä tarpeelliset korjaukset ja muuttaa ”vihainen”-reaktion arvo algoritmissa nollaksi.

Avaa iso kuva klikkaamalla:

Aikajanan sisältö tekstinä:

  • 2008-2010
    Facebook otti käyttöön ”tykkäämisen” vuonna 2008. Vuodesta 2010 lähtien Facebookin tykkäysnapin pystyi upottamaan myös muille nettisivuille.
  • 2012 (julki 2014)
    Facebook teki kokeilun, jonka mukaan käyttäjille näytetyt positiiviset julkaisut synnyttivät näissä positiivisia tunteita ja negatiiviset julkaisut negatiivisia tunteita. Facebook vakuutti, ettei se aio manipuloida käyttäjiä saamiensa tulosten avulla.
  • 2016
    Facebook julkaisi emoji-reaktiot ”ihastu”, ”haha”, ”vau”, ”surullinen” ja ”vihainen”. Niiden avulla Facebook pystyi näyttämään uutissyötteessä käyttäjille heidän tunnetilansa mukaisia julkaisuja.
  • 2017
    Emoji-reaktioiden arvoksi muutettiin uutissyötteen algoritmissa viisi kertaa normaalin tykkäyksen arvo. Tavoitteena oli näin saada ihmiset ja Facebookissa toimivat julkaisijat käyttämään emoji-reaktioita.
    Facebook väitti kuitenkin Mashablelle, että niiden arvo olisi vain ”vähän” tykkäystä korkeampi.
  • 2018
    Facebook alensi emoji-reaktioiden arvon algoritmissaan neljäksi normaaliksi tykkäykseksi.
    Facebookin tietovuoto ja hyväksikäyttö vaaleissa tulee ilmi Cambridge Analytica -skandaalissa.
    Mark Zuckerberg käy USA:n kongerssin kuultavana.
  • 2019
    Facebookin tutkijoiden mukaan ”vihainen”-reaktioita keränneet julkaisut sisälsivät todennäköisemmin virheellistä sekä vahingollista sisältöä, ja sitä käytettiin ”poliittisena aseena”. Algoritmi saattoi myös nostaa näkyvyyttä suhteettoman paljon. Facebook teki muutoksia, joiden oli tarkoitus vähentää vihaisten reaktioiden vaikutusta.
  • 2020
    Koronan myötä Facebook lisäsi ”läheisyys”-reaktion.
    Facebookissa vakuututaan muutosten tarpeesta. Selvitysten mukaan käyttäjät eivät pidä julkaisujensa saamista ”vihainen”-reaktioista. Lopulta ”vihainen”-reaktion arvoksi muutettiin puolitoista tykkäystä.
  • 2021
    Kritiikki Facebookia kohtaan kasvaa Yhdysvaltain kongressitalon 6.1.2021 valtauksen myötä.
    Syyskuussa Facebook muutti ”vihainen”-reaktion arvon nollaksi. ”Ihastu” ja ”surullinen” -reaktioiden arvot muutettiin kahdeksi tavalliseksi tykkäykseksi.
    Frances Haugen vuotaa Facebookin sisäisiä dokumentteja The Wall Street Journalille, jotka todistivat mm. tässä kuvattuja tapahtumia.
  • 2021 lokakuu
    Frances Haugen on kongressin kuultavana.
    Vuodettujen dokumenttien mukaan Facebookin käyttäjät saavat nyt aiempaa vähemmän väärää tietoa, ”häiritsevää” sisältöä ja ”graafista väkivaltaa”.
    Muutokset eivät laskeneet käyttäjien aktiivisuutta.

Tärkein käyttämäni lähde on The Washington Postin artikkeli 26.10.2021. Muut lähteet:

Mitä tästä aikajanasta ja Facebookin toiminnasta pitäisi ajatella?

Olen seurannut Facebookin muutoksia ja algoritmeja aina siitä lähtien, kun liityin Facebookiin vuonna 2007. Kuten alussa viittasin, nyt on saatu kerralla enemmän tietoa Facebookin algoritmien toiminnasta kuin kertaakaan aiemmin 14 vuoden aikana.

1. Isoin ongelma on juuri tämä: Facebookin kuten muidenkin netti- ja somepalvelujen algoritmit ovat niiden liikesalaisuuksia, jonka takia niiden vaikutuksista ei tiedetä tarpeeksi.

Facebook on perustellut algoritmien salassa pitoa sillä, että näin Facebookissa julkaisevat tahot eivät voi käyttää algoritmeja väärin. Mutta juuri tämä on mahdollistanut sen, että Facebook on itse käyttänyt algoritmeja käyttäjille vahingollisella tavalla.

2. Toinen tärkeä seikka on se, että jälleen kerran paljastui, kuinka suuri valta Facebookilla ja sen algoritmeilla on maailman ihmisiin. Kun Facebook halusi saada käyttäjät käyttämään uusia emoji-reaktioita, se antoi niille viisinkertaisen arvon normaaliin tykkäykseen verrattuna. Facebook oletti aivan oikein, että ihmiset ja muut Facebookissa julkaisevat huomaisivat kyllä emoji-reaktioiden vaikutuksen siihen, mitkä julkaisut nousevat uutissyötteessä kärkeen, ja muuttaisivat toimintaansa.

Algoritmi, joka vaikuttaa miljardien ihmisten käytökseen, ei saisi olla valvonnan ulkopuolella.

3. Kolmanneksi tapahtumat osoittavat Facebookin olleen epärehellinen. Kun se vuonna 2014 julkaisi tulokset kokeilustaan, jolla manipuloitiin käyttäjiä näyttämällä näille joko korostetun positiivisia tai negatiivisia julkaisuja, se vakuutti, ettei havaintoja tultaisi käyttämään uutissyötteen algoritmissa. Kuitenkin se tuki juuri niin julkaistessaan emoji-reaktiot vuonna 2016.

Kertauksena: emoji-reaktioiden myötä käyttäjät näkivät uutissyötteessään enemmän sen mukaisia julkaisuja kuin mitä reaktioita he olivat itse käyttäneet aiemmin näkemiinsä julkaisuihin. Esimerkiksi jos käyttäjä reagoi julkaisuihin ”vihainen”-reaktiolla, niin hän sai entistä enemmän nähtäväkseen julkaisuja, joihin muut olivat reagoineet samaten ”vihainen”-reaktiolla. Näin Facebook saattoi ikään kuin synkronoitua käyttäjän tunnetilaan. Tarkoituksena oli saada ihmiset pysymään palvelussa tätä kautta mahdollisimman pitkään, jolloin he myös näkivät enemmän mainoksia ja klikkasivat niitä. Tämä on Facebookin liiketoimintamallin ydin.

Karuin esimerkki ilmenee tilanteesta, jossa eräs Facebookin käyttäjä kertoi haluavansa saada palveluun ”en tykkää” -reaktion, jolla voisi ilmaista algoritmille, ettei halua saada enempää tietyn tyyppisiä julkaisuja. Alla olevassa kuvakaappauksessa näkyy, miten Facebookin toimitusjohtaja Mark Zuckerberg vastasi kysyjälle:

Kuvan lähde: The Washington Post, 26.10.2021 (alunperin tietovuotaja Haugenin Yhdysvaltain kongressille toimittamasta materiaalista)

Zuckerbergin ohje oli, että kysyjän tulisi käyttää ”vihaista naamaa”. Todellisuudessa käyttäjä saisi ”vihainen”-reaktiota käyttämällä uutissyötteeseensä vain entistä enemmän julkaisuja, joita hän nimenomaan ei haluaisi saada. Zuckerbergin ohje oli siis päinvastainen kuin mitä kysyjä halusi – mitä hän ei kuitenkaan tälle kertonut.

4. Neljänneksi Haugenin vuotamat tiedot osoittavat Facebookin toiminnan olleen vastuutonta. Kun Facebook lanseerasi emoji-reaktiot, osa sen työntekijöistä arveli seurauksena olevan nimenomaan vahingollisten julkaisujen näkyvyyden ja määrän kasvamisen. Tästä huolimatta Facebook päätti buustata emoji-reaktioiden näkyvyyttä voimakkaasti vuonna 2017.

Kun ongelmista alkoi olla selvää näyttöä vuoden 2018 Cambridge Analytica -skandaalin sekä vuoden 2019 Facebookin omien tutkimusten perusteella, Facebook ei siltikään puuttunut nopeasti algoritminsa toimintaan. ”Vihainen”-reaktion arvo muutettiin nollaksi vasta tämän vuoden syyskuussa.

Vastuuttomana voi myös pitää Facebookin tekemiä ”ihmiskokeita”. Niistä tunnetuin on jo edellä viittaamani vuoden 2012 uutissyötteen manipulointikoe. Sen lisäksi Haugen kertoi tapauksesta, jossa osalta Facebookin käyttäjältä otettiin kokeilun ajaksi kokonaan pois käytöstä algoritmin turvaominaisuudet. Facebook antoi näin tarkoituksella kyseisten käyttäjien saada kaiken mahdollisen palvelussa olevan kuonan. Tulokset näkyvät alla olevassa kuvassa.

Kuvan lähde: The Washington Post, 26.10.2021 (alunperin tietovuotaja Haugenin Yhdysvaltain kongressille toimittamasta materiaalista)

5. Viidenneksi tapahtumat osoittavat, ettei Facebook itsekään hallitse algoritmiensa toimintaa.

Haugenin paljastamista tiedoista käy ilmi, että Facebookin algoritmin itse asiassa olisi pitänyt havaita julkaisut, jotka saivat suhteettoman paljon ”vihainen”-reaktioita ja alentaa niiden näkyvyyttä uutissyötteessä. Algoritmi ei kuitenkaan toiminut oikein.

Algoritmin toiminta oli ohjelmoitu niin, että tällaisessa tilanteessa julkaisun näkyvyyspisteet puolitettiin. Ongelmana oli kuitenkin se, että muiden algoritmiin vaikuttavien muuttujien vuoksi näkyvyysluvulla ei kuitenkaan ollut mitään maksimilukua, jolloin ”vihainen”-reaktioita keränneet julkaisut saivat pahimmillaan rajattoman korkeita näkyvyyspisteitä ja sijoittuivat silloin uutissyötteen kärkeen.

Kuvaavaa on, että kun Facebookin uutissyötteen algoritmi antoi suhteettoman suuren näkyvyyden esim. disinformaatiota, vihapuhetta ja klikkiotsikoita sisältäville julkaisuille, yhtiön omat moderaattorit tekivät samaan aikaan parhaansa sen tyyppisten sisältöjen karsimiseksi.

Facebookilla ei ollut tarpeeksi moderaattoreita, minkä takia vahingollisia julkaisuja ei voitu poistaa samassa tahdissa, kun niitä tuli lisää.