Miksi teknologia tuo ihmisoikeudet vaaraan

Miksi teknologia tuo ihmisoikeudet vaaraan
Spainter_vfx / Shutterstock.com

Elokuvat kuten 2001: Space Odyssey, Blade Runner ja Terminator toi kovalevyt robotit ja tietokonejärjestelmät elokuvateatteriin. Mutta näinä päivinä tällaiset klassiset fantastiset silmälasit eivät näytä niin kaukana todellisuudesta.

Elämme, työskentelemme ja pelataan yhä useammin itsenäisiä ja älykkäitä laskennallisia teknologioita. Näihin järjestelmiin kuuluvat ohjelmistot ja laitteistot, joilla on kyky itsenäiseen päättelyyn ja päätöksentekoon. He työskentelevät meille tehtaan lattialla; he päättävät, saammeko asuntolainan; he seuraavat ja mittaavat toiminta- ja kuntotasoja; ne puhdistavat olohuoneemme lattiat ja leikkaavat nurmikon.

Autonomisilla ja älykkäillä järjestelmillä on mahdollisuus vaikuttaa lähes kaikkiin yhteiskunnallisen, taloudellisen, poliittisen ja yksityisen elämän osa-alueisiin, mukaan lukien arkipäiväiset arkipäivän näkökohdat. Suuri osa tästä näyttää viattomalta, mutta on syytä huoleen. Laskennalliset teknologiat vaikuttavat kaikkiin ihmisoikeuksiin, oikeuteen elämään ja oikeuteen yksityisyyteen, ilmaisunvapauteen sosiaalisiin ja taloudellisiin oikeuksiin. Miten siis voimme puolustaa ihmisoikeuksia teknologiaympäristössä, jota muotoilevat yhä enemmän robotiikka ja tekoäly (AI)?

AI ja ihmisoikeudet

Ensinnäkin on olemassa todellinen pelko siitä, että koneen lisääntynyt autonomia heikentää ihmisten tilaa. Tätä pelkoa täydentää selkeyden puute siitä, kuka pidetään kirjanpidossa, joko laillisessa tai moraalisessa mielessä, kun älykkäät koneet vahingoittavat. Mutta en ole varma siitä, että ihmisoikeuksien huolenaihe olisi oikeastaan ​​oltava rogue robotit, kuten se näyttää tällä hetkellä. Pikemminkin meidän pitäisi huolehtia siitä, että robotit ja keinotekoinen äly ja ihminen käyttävät niitä epäoikeudenmukaisissa ja eriarvoisissa poliittisissa, sotilaallisissa, taloudellisissa ja sosiaalisissa yhteyksissä.

Tämä huoli on erityisen merkityksellinen kuolemaan johtaneiden itsenäisten asejärjestelmien (LAWS) osalta, joita usein kuvataan tappajaroboteiksi. Kuten me siirtyä kohti AI-aseiden kilpailua- ihmisoikeusalan tutkijat ja kampanjat, kuten entinen YK: n erityisraportti, joka käsittelee oikeudenkäyntiä, yhteenvetoa tai mielivaltaisia ​​teloituksia, kuten Christof Heyns, pelkäävät, että LAWS-järjestelmien käyttö asettaa autonomiset robottijärjestelmät vastuussa elämän ja kuoleman päätöksistä, joilla on rajoitettu tai ei lainkaan ihmisen hallintaa.

AI myös mullistaa sodan ja valvontakäytäntöjen välisen yhteyden. Ryhmät, kuten Kansainvälinen robottivalvontakomitea (ICRAC) äskettäin ilmaisi vastustavansa Googlen osallistumista Projekti Maven- sotilaallinen ohjelma, joka käyttää koneen oppimista analysoimaan drone-valvontamateriaalia, jota voidaan käyttää tuomitsemattomiin tapauksiin. ICRAC valitti Googlelle sen varmistamiseksi, että sen käyttäjiltä keräämiä tietoja ei koskaan käytetä sotilaallisiin tarkoituksiin, ja yhdistää Googlen työntekijöiden protestit yrityksen osallistumisesta hankkeeseen. Google ilmoitti äskettäin, että se on ei uusita sopimuksen.

2013issa Edward Snowden korosti valvontakäytäntöjen laajuutta paljastukset. Nämä opettivat meille paljon yksityisyyden suojaan ja tietojen jakamiseen tiedustelupalvelujen, valtion virastojen ja yksityisten yritysten välillä. Viimeaikainen kiista Cambridge Analyticahenkilötietojen kerääminen käyttämällä sosiaalisen median järjestelmiä, kuten Facebookia, aiheuttaa edelleen vakavaa ahdistusta, tällä kertaa manipulointia ja demokraattisiin vaaleihin puuttumista, jotka vahingoittavat sananvapautta.


Hanki viimeisin InnerSelfistä


Samaan aikaan kriittiset datan analyytikot haastavat syrjiviä käytäntöjä liittyy siihen, mitä he kutsuvat AI: n "valkoisen kaverin ongelmaksi". Tämä on huoli siitä, että olemassa oleviin tietoihin koulutetut AI-järjestelmät toistavat olemassa olevia rotu- ja sukupuolistereotypioita, jotka jatkavat syrjiviä käytäntöjä esimerkiksi poliisitoiminnassa, oikeudellisissa päätöksissä tai työssä.

AI voi toistaa ja vahvistaa stereotypioita.
AI voi toistaa ja vahvistaa stereotypioita.
Ollyy / Shutterstock.com

Epäselvät robotit

Äskettäin julkaistussa tutkimuksessa korostettiin laskennallisten teknologioiden mahdollisia uhkia ihmisoikeuksille ja fyysiselle, poliittiselle ja digitaaliselle turvallisuudelle Keinotekoisen älykkyyden haitallinen käyttö. Tässä Cambridgen yliopiston raportissa ilmaistut huolenaiheet on otettava vakavasti. Mutta miten meidän pitäisi käsitellä näitä uhkia? Ovatko ihmisoikeudet valmiita robotiikan ja AI: n aikakaudelle?

Tämän aikakauden nykyisiä ihmisoikeusperiaatteita päivitetään jatkuvasti. Näitä ovat mm YK: n yritystoiminnan ja ihmisoikeuksien kehys- ja ohjausperiaatteet, yrittää kirjoittaa a Magna Carta digitaalista aikakautta varten ja elämän tulevaisuuden instituutin Asilomar AI -periaatteet, jossa määritellään suuntaviivat eettiselle tutkimukselle, arvojen noudattamiselle ja sitoutumiselle AI: n pitkän aikavälin hyödylliselle kehitykselle.

Nämä ponnistelut ovat kiitettäviä, mutta eivät riittäviä. Hallitusten ja valtion virastojen, poliittisten puolueiden ja yksityisten yritysten, erityisesti johtavien teknologiayritysten, on sitouduttava AI: n eettiseen käyttöön. Tarvitsemme myös tehokasta ja täytäntöönpanokelpoista lainsäädäntövalvontaa.

Riippumatta siitä, mitä uusia toimenpiteitä otamme käyttöön, on tärkeää tunnustaa, että elämämme ovat entistä tiiviimmin itsenäisten koneiden ja älykkäiden järjestelmien kanssa. Tämä sekoittuminen parantaa ihmisten hyvinvointia esimerkiksi lääketieteellisen tutkimuksen ja hoidon, liikennejärjestelmän, sosiaalipalvelujen ja ympäristönsuojelun aloilla.

Mutta muilla aloilla tämä sotkeutuminen herättää huolestuttavia näkymiä. Laskennallisia tekniikoita käytetään tarkkailemaan ja seuraamaan toimintaamme ja käyttäytymistämme, jäljittämään askeleemme, sijaintimme, terveytemme, maistemme ja ystävyytemme. Nämä järjestelmät muokkaavat ihmisen käyttäytymistä ja tarttuvat meihin itsevalvonnan käytäntöihin, jotka rajoittavat vapautta ja heikentävät ihmisoikeuksien ideoita ja ihanteita.

ConversationJa tässä on ydin: laskennallisten tekniikoiden kaksikäyttömahdollisuudet hämärtävät hyvän ja haitallisen käytännön välistä linjaa. Lisäksi laskennalliset teknologiat ovat syvästi sidoksissa erilaisten kansalaisten, valtion ja sen virastojen ja yksityisten yritysten välisiin eriarvoisiin suhteisiin. Jos ne jäävät tehokkaista kansallisista ja kansainvälisistä tarkastus- ja tasapainojärjestelmistä, ne muodostavat todellisen ja huolestuttavan uhan ihmisoikeuksillemme.

Author

Birgit Schippers, vieraileva tutkija, senaattori George J Mitchellin kansainvälisen rauhan, turvallisuuden ja oikeuden instituutti, Queen's University Belfast

Tämä artikkeli julkaistiin alunperin Conversation. Lue alkuperäinen artikkeli.

Liittyvät kirjat

{amazonWS: searchindex = Kirjat; Birgit Schippers = innerself; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

seuraa InnerSelfia

facebook-kuvakeTwitter-kuvakeRSS-kuvake

Hanki uusimmat sähköpostitse

{Emailcloak = off}