4-tapoja Google-haun ja sosiaalisen median vaikutukset elämässäsi
Shutterstock.

Riippumatta siitä, ymmärrätkö tai suostut siihen, suuret tiedot voivat vaikuttaa sinuun ja siihen, miten elätte elämääsi. Luodut tiedot sosiaalista mediaa käytettäessä Internetin selaaminen ja kuntoilulaitteet on kerätty, luokiteltu ja käytetty yrityksiä ja valtio luoda profiileja meistä. Näitä profiileja käytetään sitten kohdistamaan tuotteiden ja palveluiden mainoksia niille, jotka todennäköisesti ostavat ne, tai ilmoittamaan hallituksen päätöksistä.

Suuret tiedot antavat valtioille ja yrityksille mahdollisuuden tutustua, yhdistää ja analysoida tietojaan ja rakentaa paljastavia - mutta epätäydellinen ja mahdollisesti epätarkka - elämämme profiilit. He tekevät niin tunnistamalla korrelaatioita ja kuvioita meistä ja ihmisistä, joilla on samanlaisia ​​profiileja, tekemään ennusteita siitä, mitä voisimme tehdä.

Mutta vain siksi, että suuret datan analysointi perustuu algoritmeihin ja tilastoihin, ei tarkoita, että ne ovat tarkka, neutraali tai luonnostaan ​​objektiivinen. Ja vaikka suuret tiedot voivat antaa tietoa ryhmän käyttäytymisestä, ne eivät välttämättä ole luotettava tapa yksilöllisen käyttäytymisen määrittämiseksi. Itse asiassa nämä menetelmät voivat avata syrjintää ja uhkaavat ihmisten ihmisoikeuksia - he voisivat jopa työskennellä sinua vastaan. Seuraavassa on neljä esimerkkiä, joissa suurten tietojen analysointi voi johtaa epäoikeudenmukaisuuteen.

1. Luottoarvojen laskeminen

Suuria tietoja voidaan käyttää päätösten tekemiseen luottokelpoisuus, vaikuttavat siihen, onko sinulle myönnetty asuntolaina, vai kuinka korkea autovakuutus palkkioiden olisi oltava. Nämä voivat ilmoittaa näistä päätöksistä sosiaalisen median viestit ja muiden sovellusten tietoja, jotka on tarkoitettu osoittamaan riskitasosi tai luotettavuutesi.

Tietojen, kuten koulutuksen tausta tai asuinpaikka, tiedot eivät välttämättä ole asianmukaisia ​​tai luotettavia tällaisia ​​arviointeja varten. Tällaiset tiedot voivat toimia rotujen tai sosioekonomisen aseman välittäjänä, ja sen käyttäminen luottoriskiä koskevien päätösten tekemiseen voi johtaa syrjintään.


sisäinen tilausgrafiikka


2. Työhaku

Suurten tietojen avulla voidaan määrittää joka näkee työpaikkailmoituksen tai valitsee haastatteluun. Työilmoitukset voivat kohdistua tiettyihin ikäryhmiin, kuten 25 36 -vuotiaille, joka jättää nuoremmat ja ikääntyvät työntekijät jopa näkemättä tiettyjä työpaikkoja ja aiheuttaa ikäsyrjinnän riskin.

Automaatiota käytetään myös hakijoiden suodattamisen, lajittelun ja sijoittamisen tehostamiseen. Tämä seulontaprosessi voi kuitenkin jättää ihmiset pois sellaisten indikaattorien perusteella, kuten etäisyys heidän työmatkastaan. Työnantajat saattavat olettaa, että pidempään työmatkalla olevat työntekijät jäävät todennäköisesti vähemmän työpaikkaan, mutta tämä voi tosiasiallisesti syrjiä ihmisiä, jotka asuvat kauempana kaupungin keskustasta kohtuuhintaisten asuntojen sijainnin vuoksi.

3. Lupa- ja takuupäätökset

Yhdysvalloissa ja Yhdistyneessä kuningaskunnassa suuria tietoriskien arviointimalleja käytetään auttamaan virkamiehiä päättämään, myönnetäänkö ihmisiä ehto tai takuitatai mainitaan kuntoutusohjelmat. Niitä voidaan käyttää myös arvioimaan, kuinka suuri osa rikoksentekijän riskistä yhteiskunnalle on, mikä on yksi tekijä, jonka tuomari voi harkita tuomion pituuden määrittämisessä.

Ei ole selvää, mitä tietoja käytetään näiden arvioiden tekemiseen, vaan siirrytään kohti digitaalinen poliisitoiminta kerää vauhtia, on yhä todennäköisempää, että nämä ohjelmat sisältävät avoimen lähdekoodin tietoja, kuten sosiaalinen mediaalinen toiminta - jos he eivät jo ole.

Nämä arviot eivät välttämättä katso vain henkilön profiilia, vaan myös sitä, miten heidän vertailu on muiden kanssa. Jotkut poliisivoimat ovat historiallisesti liian valvottu tietyille vähemmistöyhteisöille, mikä johtaa suhteettomaan määrään ilmoitettuja rikoksia. Jos nämä tiedot syötetään algoritmiin, se vääristää riskinarviointimalleja ja johtaa suoraan syrjintään henkilön oikeus vapauteen.

4. Viisumihakemusten tarkastaminen

Viime vuonna Yhdysvaltojen maahanmuutto- ja tulliviranomainen ilmoitti haluavansa ottaa käyttöön automaattisenäärimmäisen viisumin tarkastaminen”. Se tutkii automaattisesti ja jatkuvasti sosiaalisen median tilejä arvioidakseen, tekisivätkö hakijat "positiivisen panoksen" Yhdysvaltoihin ja voiko syntyä kansallisia turvallisuuskysymyksiä.

Sen lisäksi, että se uhkaa ajatuksen, mielipiteen, ilmaisun ja yhdistyksen vapautta, oli olemassa merkittäviä riskejä, joita tämä ohjelma syrjisi tiettyjen kansallisuuksien tai uskontojen henkilöitä. Kommentoijat luonnehti sitä ”muslimien kielto algoritmilla”.

Ohjelma peruutettiin äskettäinväitetään perustuen siihen, että ”ei ollut olemassa” out-of-the-box-ohjelmistoa, joka voisi tarjota viraston valvonnan laadun ”. Tällaisten tavoitteiden sisällyttäminen hankintadokumentteihin voi kuitenkin aiheuttaa huonoja kannustimia teknologiateollisuudelle kehittää ohjelmia, jotka ovat syrjiviä.

ConversationEi ole epäilystäkään siitä, että suurten tietojen analysointi toimii tavalla, joka voi vaikuttaa yksilöiden mahdollisuuksiin elämässä. Mutta avoimuuden puute siitä, miten suuret tiedot kerätään, käytetään ja jaetaan, on vaikeaa tietää, mitä tietoja käytetään, miten ja milloin. Suuret data-analyysit ovat yksinkertaisesti liian monimutkaisia, jotta yksilöt voivat suojata tietojaan sopimattomalta käytöltä. Sen sijaan valtioiden ja yritysten on annettava - ja seurattava - määräyksiä varmistaakseen, että suurten tietojen käyttö ei johda syrjintään.

Tietoja kirjoittajista

Lorna McGregor, johtaja, ihmisoikeuskeskus, PI ja johtaja, ESRC: n ihmisoikeudet, suuret tiedot ja teknologia-apurahat, Essexin yliopisto; Daragh Murray, kansainvälisen ihmisoikeusoikeuden luennoitsija Essex Law Schoolissa, Essexin yliopistoja Vivian Ng, ihmisoikeustutkija, Essexin yliopisto

Tämä artikkeli julkaistiin alunperin Conversation. Lue alkuperäinen artikkeli.

Näiden kirjoja

Author

at