Algoritmien lajittelu asettaa meidät laatikoihin. Kuinka tiedämme, että he ovat oikeat? luotu, CC BYAlgoritmien lajittelu asettaa meidät laatikoihin. Kuinka tiedämme, että he ovat oikeat? luotu, CC BY

Yhteiskunta näyttää olevan kurssilla siihen pisteeseen, jossa elämäämme valvotaan tietokonealgoritmeja. Keräämämme tiedot analysoidaan ja analysoidaan riippumatta siitä, ovatko hallitukset kansalliselle turvallisuudelle tai yrityksille voittoa, ja tämä ei todennäköisesti muutu - tietojen löytämisen valtaa ja vetoomusta, kun se on löydetty, ei luovuta helposti.

Totisesti, ihmettelen, olenko huolissani siitä, että tietoja kerätään, tai siitä, että emme tiedä mitään niistä algoritmeista, jotka tuomitsevat tuomion meille.

Yksityiskohdat elämästämme ja tottumuksistamme, jotka voidaan jättää pois jäljessä olevista tiedoista, on keskusteltu aiemmin, ja se saa tuoreen tuuletuksen osana keskustelua Yhdistyneen kuningaskunnan luonnoksesta Tutkintavaltuuksia Bill. Tiedämme ainakin jotain siitä, mitä tietoja kerätään ja kuinka kauan se tallennetaan, joista osa kuuluu Yhdistyneen kuningaskunnan ja EU: n lainsäädännön piiriin.

In lakiehdotuksen tekstiTiedämme esimerkiksi, että Yhdistyneen kuningaskunnan hallitus "vaatii" vain (ei-perusteltua) pääsyä viestinnän metatietoihin, sähköpostiviestien otsikoihin ja aiheisiin sekä puheluiden tietueisiin. Mutta me tiedämme myös, kuinka vain metatietojen paljastaminen voi olla: katso MIT Media Labin upotusprojekti voimakas esimerkki siitä, kuinka paljon siitä voidaan selvittää. Se on varmasti ei ole verrattavissa eriteltyyn puhelinlaskuun, kuten väitettiin.


sisäinen tilausgrafiikka


Joten parempaan tai huonompaan, meillä, yleisöllä, on jotakin aavistustakaan siitä, mitä tallennetaan. Meillä ei kuitenkaan ole aavistustakaan siitä, mitä analyyttisiä välineitä ja tekniikoita käytetään näihin tietoihin - ja sen merkitystä ei pidä aliarvioida.

Mitä murtaa numerot?

Voimme tehdä koulutettuja arvauksia. Kansalliset turvallisuusvirastot käyttävät metatietojamme luodaksemme sosiaalisia verkostoja ihmisten ja paikkojen välillä muun muassa yhdistämällä meidät yhteen. Näitä suhteellisuusverkostoja analysoidaan sitten sen määrittämiseksi, olemmeko kyseessä kiinnostuksen kohteena oleva henkilö, joka määräytyy sen mukaan, miten verrataan muihin kiinnostuksen kohteena oleviin henkilöihin ja miten muodostat yhteyden olemassa oleviin henkilöihin tai niihin liittyviin henkilöihin.

Tutkijat, jotka käyttävät näitä tekniikoita, ymmärtävät niiden rajoitukset ja että niitä käyttävät algoritmit voivat sisältää virheitä tai taustalla olevia oletuksia, joilla on syvällinen vaikutus niiden tuotokseen. Tällöin tämä voi tarkoittaa sitä, onko sinut merkitty terroristiksi vai ei, tai onko sinulla oikeus saada lainaa tai kiinnitystä.

Ei myöskään ole täysin selvää, missä fuzzy-raja-alueilla suhteiden olemassaolo on määritelty. Onko vain sama sivusto kuin terroristi merkitsee yhteisiä arvoja, tai saman linja-autoliikenteen kuljettaminen joka päivä viittaavat siihen, että keskustelet säännöllisesti terroristien kanssa? On täysin mahdollista käydä tiedossa olevien terroristien suosimilla sivustoilla monista laillisista syistä. Jos saat uutiset samoista sivustoista kuin terroristit, olet todennäköisesti terroristi? Syrjintä ja puolueettomuus voidaan ottaa käyttöön tiedonkeruun yhteydessä, ja sitten uudelleen, kun päätetään siitä, miten näitä tietoja analysoidaan. Myös algoritmit voivat syrjiä.

Epäselvät rajat

Mahdollisuus, että algoritmit esittävät epätoivottua harhaa, on hyvin todellinen. Esimerkiksi tietoturvapalvelujen käyttämät opetukset tunnetaan tunnetuilta terroristeilta ja tunnetuilta ei-terroristeilta. Tarkoittaako tämä sitä, koska useimmat tunnetut terroristit ovat 20-30-ikäisiä miehiä, olet todennäköisesti luokiteltu terroristiksi pelkästään mieheksi ja ikääntyneeksi noin 20-30iksi, muista ominaisuuksistasi riippumatta ?. Jos näin on, onko sillä merkittävää vaikutusta siihen, miten tietoja käytetään?

Ongelma johtuu siitä, että minä ja muut akateemiset tutkijat, jotka käyttävät monimutkaisia ​​verkkoanalyysejä, koneen oppimista, kuvioiden sovittamista tai keinotekoisia älykkyysmenetelmiä, ovat käyttäneet näitä menetelmiä julkisesti vertaisarvioitujen tekniikoiden vahvuuden ja päätelmien pätevyyden määrittämiseksi; valtion turvallisuuspalvelut ja yksityisen sektorin organisaatiot eivät. Meillä ei ole aavistustakaan menetelmiensä laadusta ja siitä, miten he käyttävät niitä. Onko tähän ratkaisu?

Toisesta turvallisuudesta, salakirjoituksesta saaneet oppivat kauan sitten, että paras tapa parantaa algoritmiensa laatua ja siten turvallisuutta oli tehdä niistä julkisia. Salausohjelmat ja salakirjoitukset julkaistaan, ja tutkijoita kannustetaan yrittämään löytää virheitä tai virheitä, mikä parantaa turvallisuutta kaikille niitä käyttäville. Lisäksi suljettujen lähteiden (ei-julkisten) kryptogafisten algoritmien mahdollinen toteutus on yleensä pidetään epäilyttävinä. Jos he haluavat lausua elämää muuttavia tuomioita meille - olemmeko nimetty terroristeiksi tai taloudellisesti arvottomiksi - sama malli olisi sovellettava turvallisuusalgoritmeihin.

Argumentti tällaista siirtoa vastaan ​​on, että avoimet ja läpinäkyvät algoritmit saattavat johtaa terroristeihin muuttamaan todellista käyttäytymistään välttääkseen havaitsemisen. Tämä merkitsisi sellaisten asioiden muuttamista, kuten niiden vuorovaikutukset, yhdistykset, selailutottumukset ja mahdollisesti liikkeet. Mutta jos algoritmit toimivat oikein, ne merkitsisivät, että ne lakkaavat olemasta toimimattomia terroristeina. Jos tulevaisuuden turvallisuus, vapaus ja turvallisuus ovat riippuvaisia ​​näistä algoritmeista, meidän on varmistettava, miten - ja että - ne toimivat.

AuthorConversation

Philip Garnett, luennoitsija, Yorkin yliopisto.

Tämä artikkeli julkaistiin alunperin Conversation. Lue alkuperäinen artikkeli.

Aiheeseen liittyvä kirja:

at