YouTuben algoritmit saattavat radikalisoida ihmisiä - mutta todellinen ongelma on, että meillä ei ole aavistustakaan siitä, kuinka he toimivat Herra Tempter / Shutterstock

Luoko YouTube ääriaineksia? Tuoreen tutkimuksen aiheutti tutkijoiden keskuudessa väitteitä väittämällä, että sivustoa käyttävät algoritmit eivät auta radikalisoimaan ihmisiä suosittelemalla yhä äärimmäisiä videoita, kuten on ehdotettu viime vuosina.

Ensimmäisessä maanantaina avoimeen julkaisuun toimitetussa, mutta vielä virallisesti vertaisarvioitavassa artikkelissa analysoitiin erityyppisten kanavien vastaanottamat videosuositukset. Se väitti, että YouTuben algoritmi suosii mainstream mediakanavia riippumattoman sisällön suhteen, ja päätteli, että radikalisoitumisella on enemmän tekemistä ihmisillä, jotka luovat haitallista sisältöä kuin sivuston algoritmilla.

Alan asiantuntijat olivat nopeasti mukana vastaamalla tutkimukseen, kritiikin kanssa paperin menetelmät ja muut, jotka väittivät algoritmia, olivat yksi useita tärkeitä tekijöitä ja se tietoaineisto yksin ei anna meille vastausta.

Tämän keskustelun ongelma on, että emme voi oikeasti vastata kysymykseen siitä, mikä rooli YouTuben algoritmilla on ihmisten radikalisoimisessa, koska emme ymmärrä miten se toimii. Ja tämä on vain oire paljon laajemmalle ongelmalle. Näillä algoritmeilla on kasvava rooli jokapäiväisessä elämässämme, mutta niistä puuttuu kaikenlaista avoimuutta.

On vaikea väittää, että YouTube ei ole mukana radikalisoitumisessa. Tätä huomautti ensin teknologiasotsiologi Zeynep Tufekci, joka havainnollisti, kuinka suositellut videot ajavat käyttäjiä vähitellen kohti äärimmäistä sisältöä. Tufekci sanoo, että lenkkeilyä koskevat videot johtavat videoihin ultramaratonien juoksusta, rokotteita koskevat videot johtavat salaliiton teorioihin ja politiikkaa koskevat videot johtavat ”holokaustin kieltämiseen ja muuhun häiritsevään sisältöön”.


sisäinen tilausgrafiikka


Tästä on myös kirjoitettu yksityiskohtaisesti kirjoittanut YouTube-entinen työntekijä Guillaume Chaslot, joka työskenteli sivuston suositusalgoritmissa. Chaslot on jatkanut yrityksestä lähtien yrittäessään antaa näitä suosituksia läpinäkyvämpää. Hänen mukaansa YouTube-suositukset ovat puolueellisia salaliitoteoriat ja tosiasiallisesti epätarkkoja videoita, joka kuitenkin saa ihmiset viettämään enemmän aikaa sivustolla.

Itse asiassa, maksimoidaan katseluaika on YouTube-algoritmien ydin, ja tämä rohkaisee videon tekijöitä taistelemaan huomion suhteen kaikin mahdollisin tavoin. Yrityksen silkkaa avoimuuden puute tarkalleen kuinka tämä toimii, on lähes mahdotonta torjua radikalisoitumista sivustolla. Loppujen lopuksi ilman avoimuutta on vaikea tietää, mitä voidaan muuttaa tilanteen parantamiseksi.

YouTuben algoritmit saattavat radikalisoida ihmisiä - mutta todellinen ongelma on, että meillä ei ole aavistustakaan siitä, kuinka he toimivat YouTube-algoritmin toiminta on edelleen mysteeri. Kuka on Danny / Shutterstock

Mutta YouTube ei ole tässä suhteessa epätavallinen. Algoritmien toimintatapojen avoimuuden puute on yleensä tapausta, kun niitä käytetään suurissa järjestelmissä, olivatpa ne sitten yksityisiä yrityksiä tai julkisia elimiä. Koneoppimisalgoritmit ovat nyt päättäneet sen lisäksi, kuinka päätetään, mitä videota näytetään seuraavana sijoita lapset kouluihin, päättää vankeusrangaistukset, määritä luottopisteet ja vakuutushinnat, samoin kuin maahanmuuttajat, työnhakijat ja yliopisto-hakijat. Ja yleensä emme ymmärrä kuinka nämä järjestelmät tekevät päätöksensä.

Tutkijat ovat löytäneet luovia tapoja osoittaa näiden algoritmien vaikutukset yhteiskuntaan tutkimalla reaktio-oikeuden nousu tai salaliitoteorioiden leviäminen YouTubessa tai näyttämällä kuinka hakukoneet heijastavat rasistista puolueellisuutta ihmisistä, jotka luovat ne.

Koneoppimisjärjestelmät ovat yleensä suuria, monimutkaisia ​​ja läpinäkymättömiä. Sopivasti niitä kuvataan usein nimellä mustat laatikot, missä tieto menee sisään ja tieto tai toiminnot tulevat esiin, mutta kukaan ei näe, mitä tapahtuu niiden välillä. Tämä tarkoittaa, että koska emme tiedä tarkalleen kuinka YouTube-suositusjärjestelmän kaltaiset algoritmit toimivat, yrittää selvittää, miten sivusto toimii, olisi kuin yrittää ymmärtää autoa avamatta konepellää.

Tämä puolestaan ​​tarkoittaa, että yritetään kirjoittaa lakeja sen sääntelemiseksi, mitä algoritmeja pitäisi tai ei pitäisi tehdä, tulee sokea prosessi tai erehdys. Näin tapahtuu YouTuben ja niin monien muiden koneoppimisalgoritmien kanssa. Yritämme saada sananvaltaa heidän tuloksiinsa, ilman todellista ymmärrystä siitä, kuinka he todella toimivat. Meidän on avattava nämä patentoidut tekniikat tai ainakin tehtävä niistä riittävän avoimia, jotta voimme säännellä niitä.

Selitykset ja testaus

Yksi tapa tehdä tämä olisi algoritmien tarjoama vastapuoliset selitykset yhdessä heidän päätöstensä kanssa. Tämä tarkoittaa sitä, että määritetään vähimmäisedellytykset, joita algoritmille tarvitaan erilaisen päätöksen tekemiseksi, kuvaamatta sen koko logiikkaa. Esimerkiksi algoritmi, joka tekee päätöksiä pankkilainoista, saattaa tuottaa tuloksen, joka sanoo, että ”jos olit yli 18-vuotias ja sinulla ei ollut aikaisempaa velkaa, sinulla olisi pankkilainasi hyväksyttävä”. Tätä voi olla vaikea tehdä YouTuben ja muiden sivustojen kanssa, jotka käyttävät suositusalgoritmeja, koska teoriassa kaikkia alustan videoita voitaisiin suositella milloin tahansa.

Toinen tehokas työkalu on algoritmitestaus ja -auditointi, joka on ollut erityisen hyödyllinen diagnoosissa puolueellisia algoritmeja. Äskettäisessä tapauksessa ammattimainen jatkamisen seulontayritys havaitsi, että sen algoritmi oli priorisoimalla kaksi tekijää parhaimpana työn suorittimen ennustajana: oliko ehdokkaan nimi Jared ja pelasiko hän lakrossea lukiossa. Näin tapahtuu, kun kone menee ilman valvontaa.

Tässä tapauksessa jatkavan seulontaalgoritmi oli huomannut, että valkoisilla miehillä oli suurempi mahdollisuus palkata, ja he olivat löytäneet korreloivia välityspalvelimen ominaisuuksia (kuten nimeltään Jared tai pelaa lakrossea) läsnä palkattavilla ehdokkailla. YouTubessa algoritmitarkastus voisi auttaa ymmärtämään, millaisia ​​videoita suositellaan etusijalle - ja ehkä auttaa ratkaisemaan keskustelun siitä, edistävätkö YouTube-suositukset radikalisoitumista vai ei.

Konfaktatietojen selitysten esittely tai algoritmien tarkistaminen on vaikea ja kallis prosessi. Mutta se on tärkeää, koska vaihtoehto on huonompi. Jos algoritmeja ei tarkisteta ja sääntelemättä, voimme nähdä mediaamme salaliitoteoreetikkojen ja ääriliikkeiden asteittaisen ryömimisen, ja huomioamme hallitsee se, kuka voi tuottaa kannattavan sisällön.Conversation

kirjailijasta

Chico Q. Camargo, tietojenkäsittelytutkija, Oxfordin yliopisto

Tämä artikkeli julkaistaan ​​uudelleen Conversation Creative Commons -lisenssin alla. Lue alkuperäinen artikkeli.