Emme heränneet yhtenä päivänä ja antaneet ohjat koneille. Se tapahtui hiljaa, yksi kätevä asia kerrallaan. Sähköpostisi järjestyi itsestään. Kalenterisi oppi ehdottamaan tapaamisaikoja. Pankkisi oli jo ilmoittanut petoksesta ennen kuin huomasit veloituksen. Nämä tuntuivat hyödyllisiltä päivityksiltä, ​​eivät vallansiirroilta. Mutta jokin muuttui matkan varrella, ja useimmat meistä eivät huomanneet sitä.

Tässä artikkelissa

  • Ymmärrys siitä, mitä tekoälyagentit oikeastaan ​​ovat ja miten ne eroavat tavallisista ohjelmistoista
  • Avustuksen ja delegoinnin välinen kriittinen ero automatisoiduissa järjestelmissä
  • Miksi optimointi ilman viisautta luo ennustettavia ongelmia
  • Todellisia esimerkkejä sekä eettisestä käytöstä että uusista väärinkäytöksistä
  • Käytännön vinkkejä toimistosi ylläpitämiseen automatisoidussa maailmassa

Järjestelmät, jotka nykyään lajittelevat, ehdottavat ja joskus päättävät puolestamme, alkoivat yksinkertaisina apuvälineinä. Roskapostisuodattimet pelastivat meidät loputtomalta roskalta. Suosittelukoneet ohjasivat meidät kirjojen pariin, joista saattaisimme pitää. Aikataulutusavustajat löysivät aikoja, jotka sopivat kaikille. Jokainen innovaatio ratkaisi todellisen ongelman. Jokainen helpotti elämää aavistuksen verran. Ja jokainen opetti meidät odottamaan, että teknologia hoitaisi yhä monimutkaisempia päätöksiä puolestamme.

Olemme nyt pisteessä, jossa järjestelmät eivät ainoastaan ​​auta meitä päättämään – ne päättävät ja toimivat. Ne eivät odota hyväksyntää. Ne eivät aina selitä itseään. Ja ne toimivat mittakaavassa ja nopeudessa, joka tekee ihmisen valvonnasta outoa, jopa mahdotonta. Tämä ei tapahtunut siksi, että teimme yhden suuren valinnan luopua kontrollista. Se tapahtui siksi, että teimme kymmenentuhatta pientä valintaa hyväksyä mukavuus kyseenalaistamatta kustannuksia.

Mitä nämä järjestelmät oikeasti tekevät

Tekoälyagentti eroaa ohjelmistosta, jonka parissa kasvoit. Perinteiset ohjelmat noudattavat ohjeita. Ne odottavat syötettä, käsittelevät sen kiinteiden sääntöjen mukaisesti ja pysähtyvät. Laskin ei jatka laskemista poistuttuasi. Tekstikäsittelyohjelma ei ala kirjoittaa itsestään. Nämä työkalut ovat inerttejä, kunnes ne aktivoidaan. Ne ovat palvelijoita, eivät toimijoita.

Tekoälyagentit toimivat eri tavalla. Ne tarkkailevat ympäristöään jatkuvasti. Ne tekevät päätöksiä havaintojensa perusteella. Ne ryhtyvät toimiin tavoitteiden saavuttamiseksi. Ja ne toistavat tätä sykliä ilman jatkuvaa ihmisen ohjausta. Määrittelevä ominaisuus ei ole älykkyys inhimillisessä mielessä – se on aloitekyky. Agentti ei vain vastaa kutsuun. Se toimii.


sisäinen tilausgrafiikka


Ajattele termostaattia. Vanhassa termostaattimallissa sitä piti säätää manuaalisesti lämpötilan muuttuessa. Älykäs termostaatti havainnoi malleja, oppii mieltymyksesi, ennustaa aikataulusi ja säätää lämmitystä ja jäähdytystä itse. Se tekee päätöksiä. Pieniä, mutta päätöksiä kuitenkin. Skaalaa tämä nyt järjestelmiin, jotka käyvät kauppaa osakkeilla, suodattavat työhakemuksia, moderoivat sisältöä ja hallitsevat toimitusketjuja. Periaate on sama. Seuraukset eivät ole.

Auttamisen ja korvaamisen välinen ero

Automaatiossa on moraalinen käännekohta, jonka useimmat keskustelut ohittavat. Se on ero tekoälyn käyttämisen ja harkintakyvyn tueksi antamisen välillä. Toinen pitää sinut vastuullisena. Toinen vapauttaa sinut vastuusta.

Kun lääkäri käyttää tekoälyjärjestelmää lääketieteellisten kuvien analysointiin, mutta silti tarkastelee tuloksia ja tekee diagnoosin, kyseessä on tehostettu analyysi. Työkalu tuo esiin malleja, joita ihminen saattaa olla huomaamatta. Ihminen yhdistää nämä löydökset potilaan historiaan, oireisiin ja kliiniseen kokemukseen. Vastuu pysyy selvänä. Mutta kun vakuutusyhtiö käyttää algoritmia korvaushakemusten hyväksymiseen tai hylkäämiseen ja ihmisarvioijista tulee kumileimasimia, jotka harvoin kumoavat järjestelmän suosituksia, jokin tärkeä on muuttunut. Ihmisen valvonnan ilmaantuminen peittää alleen sen, mikä on käytännössä algoritmista auktoriteettia.

Delegointi tuntuu tehokkaalta. Se tuntuu neutraalilta. Se tuntuu edistykseltä. Miksi ihmisten pitäisi käyttää aikaa päätöksiin, jotka koneet pystyvät käsittelemään nopeammin ja johdonmukaisemmin? Vastaus on, että johdonmukaisuus ei ole sama asia kuin oikeellisuus, eikä tehokkuus ole sama asia kuin oikeudenmukaisuus. Koneilla ei ole omaa osuutta pelissä. Ne eivät menetä yöuniaan virheiden takia. Kun delegoimme harkintakykyä järjestelmille, joilta puuttuu harkintakyky, luomme vastuutyhjiön. Ja tämä tyhjiö täyttyy tekosyillä. Algoritmi teki sen. Järjestelmä merkitsi sen. Näistä lauseista on tullut kilpiä vastuuta vastaan.

Miksi armoton optimointi epäonnistuu

Tekoälyagentit ovat optimoijia. Heille annetaan tavoitteita, ja he pyrkivät näihin tavoitteisiin hellittämättä, usein paljon tehokkaammin kuin ihmiset pystyisivät. Se kuulostaa edulta, kunnes katsot, mitä itse asiassa optimoidaan. Sosiaalisen median algoritmit optimoivat sitoutumista varten, mikä käytännössä tarkoittaa närkästyksen ja kiistojen voimistamista, koska ne pitävät ihmiset vierittämässä sivua. Rekrytointialgoritmit optimoivat aiempien onnistuneiden rekrytointien mallien perusteella, mikä tarkoittaa, että ne toistavat historiallisia vinoumia. Hinnoittelualgoritmit optimoivat tuloja varten, mikä voi tarkoittaa sitä, että eri ihmiset maksavat samasta tuotteesta eri hintoja sen perusteella, kuinka paljon järjestelmän mielestä he sietävät.

Ongelma ei ole se, että nämä järjestelmät olisivat rikki. Ongelma on se, että ne toimivat täsmälleen suunnitellusti. Ne tekevät sitä, mitä niille on käsketty. Mutta niille annetut tavoitteet ovat epätäydellisiä. Ne eivät ota huomioon totuutta, oikeudenmukaisuutta, ihmisarvoa tai pitkän aikavälin hyvinvointia, koska näitä asioita on vaikea mitata ja vielä vaikeampi koodata. Niinpä järjestelmät maksimoivat sen, mitä voidaan mitata – klikkaukset, konversiot, tehokkuuden, voiton – ja tärkeimmät asiat käsitellään ulkoisvaikutuksina.

Ihmisten oletetaan olevan niitä, jotka punnitsevat kontekstia ja arvoja. Meidän on tarkoitus huomata, milloin optimointi aiheuttaa haittaa. Mutta kun järjestelmät toimivat skaalautuvasti ja nopeasti, tuo ihmisen harkintakyky muuttuu epäkäytännölliseksi. Siihen mennessä, kun huomaamme, että jokin on vialla, algoritmi on jo tehnyt kymmenentuhatta päätöstä. Se, mikä voidaan optimoida, ei aina ole sitä, mikä pitäisi maksimoida. Tämä on totuus, jota koneet eivät pysty ymmärtämään ja ihmiset unohtavat jatkuvasti.

Miten näitä järjestelmiä käytetään väärin

Suurin osa tekoälyagenttien aiheuttamasta vahingosta ei johdu pahantahtoisuudesta. Se johtuu tarkastamattomista järjestelmistä, jotka tekevät juuri sitä, mihin ne on ohjelmoitu, mittakaavassa ja nopeudella, joka suurentaa jokaista puutetta. Yhdenkin ihmisen epäeettinen toiminta on ongelma. Yhden järjestelmän salliminen yhden toimijan toimia ikään kuin heitä olisi tuhansia, on kriisi.

Vastuuton skaalautuminen näkyy kaikkialla. Sosiaalisen median keskusteluja manipuloivat botit, väärennetyt arviointijärjestelmät ja automatisoitu roskaposti, joka mukautuu nopeammin kuin suodattimet, voivat havaita sen. Kun seuraukset saapuvat, puolustus on aina sama: järjestelmä teki sen. Minä vain asetin parametrit. Nämä tekosyyt toimivat, koska vastuu on tarkoituksella peitetty.

Delegoitu vahinko on erityisen salakavalaa, koska se antaa instituutioille mahdollisuuden välttää vastuuta ja silti käyttää valtaa. Algoritmi hylkää lainahakemuksesi. Automaattinen järjestelmä merkitsee julkaisusi yhteisön normien vastaiseksi. Rekrytointityökalu seuloo sinut pois ennen kuin ihminen edes näkee ansioluetteloasi. Kun valitat, sinulle usein kerrotaan, että päätös on voimassa, koska järjestelmä on oikeudenmukainen ja objektiivinen. Mutta oikeudenmukaisuus ei ole sama asia kuin johdonmukaisuus, ja objektiivisuus on myytti, kun järjestelmä on koulutettu puolueellisella datalla tai suunniteltu optimoimaan vääriä tavoitteita.

Syvin riski

Todellinen vaara ei ole se, että koneet ottavat vallan. Vaarana on se, että lakkaamme yrittämästä. Ihmiset sopeutuvat ympärillään oleviin järjestelmiin. Kun päätökset tuntuvat automatisoiduilta ja väistämättömiltä, ​​kyseenalaistaminen hiipuu. Kun tuloksia saavutetaan ilman näkyvää ihmisen osallistumista, vastuu näyttää haihtuvan. Harjoittelemme itseämme hyväksymään sen, mitä meille annetaan, sen sijaan, että vaatisimme sitä, mikä on oikein.

Tämä kaava on tuttu. Byrokratia opettaa ihmisille, että säännöt ovat kiinteitä eikä poikkeuksia ole. Alustamonopolit opettavat ihmisille, että palveluehdoista ei voida neuvotella. Taloudellinen automaatio opettaa ihmisille, että markkinat ovat ihmisen vaikutusvallan ulkopuolella. Jokainen järjestelmä heikentää tunnetta siitä, että yksilön valinnalla on merkitystä. Ja tekoälyagentit, koska ne toimivat nopeammin ja läpinäkymättömämmin kuin mikään aiempi järjestelmä, kiihdyttävät tätä prosessia.

Toimijuus ei ole oletusarvoinen tila. Se on jotain, jota joko harjoittelet tai menetät. Mitä useammin annat periksi järjestelmille, sitä vähemmän kykenet käyttämään omaa harkintaa. Mitä useammin hyväksyt algoritmien tulokset kyseenalaistamatta, sitä vaikeammaksi sinun tulee kuvitella, että asiat voisivat olla toisin. Se on suurin vaara. Ei koneiden kontrolli, vaan tottuminen päätöksentekokyvyttömyyteen.

Mitä voit oikeasti tehdä

Toimijuuden murenemisen vastustaminen ei vaadi suuria eleitä. Se vaatii jokapäiväistä harjoittelua. Aloita kyseenalaistamalla näkymätön automaatio. Kun järjestelmä tekee sinuun vaikuttavan päätöksen, kysy, miten se toimii ja kuka on vastuussa. Ennen kuin luotat automatisoituihin tuloksiin, kysy, onko tulos järkevä ja puuttuuko järjestelmästä jotain tärkeää. Suosi järjestelmiä, jotka selittävät itsensä, luottamusta vaativien mustien laatikoiden sijaan.

Pysy mukana siellä, missä sillä on merkitystä. Älä delegoi päätöksiä vain siksi, että voit. Jos työkalu tarjoutuu kirjoittamaan sähköpostisi, muokkaamaan työsi tai tekemään suosituksia puolestasi, harkitse, onko kätevyys sen sinun ja tehtävän välille luoman etäisyyden arvoinen. Ja kun kohtaat järjestelmiä, jotka toimivat ilman vastuuvelvollisuutta, vaadi parempaa. Torju algoritmisia päätöksiä. Pyydä ihmisen tarkistusta. Kieltäydy hyväksymästä, että järjestelmän vastaus on lopullinen vain siksi, että se on automatisoitu.

Toimijuus on käytäntö, ei oletusasetus. Joka kerta, kun kyseenalaistat automatisoidun tuloksen, käytät kykyä, joka surkastuu käyttämättömyydestä. Joka kerta, kun vaadit ihmisen vastuuta, vastustat algoritmisen auktoriteetin normalisointia. Nämä pienet tietoisen valinnan teot ovat tärkeitä, koska ne muokkaavat ympäristöä, jossa kaikki muut navigoivat.

Työkalut, joita muokkaamme, tai voimat, jotka muokkaavat meitä

Tekoälyagentit ovat työkaluja, joita suunnittelemme. Se on ensimmäinen totuus. Mutta kun ne on otettu käyttöön, ne muokkaavat käyttäytymistä ja valtaa. Se on toinen totuus. Molemmat ovat todellisia, ja toisin teeskentely on vaarallista. Kysymys ei ole siitä, jatkavatko nämä järjestelmät toimintaansa. Ne jatkavat. Kysymys on siitä, pysyvätkö ihmiset vastuussa siitä, mikä toimii heidän nimissään.

Tulevaisuutta rakennetaan juuri nyt miljoonalla pienellä päätöksellä siitä, missä automatisoidaan ja missä vaaditaan ihmisen harkintaa. Nämä päätökset eivät ole vain teknisiä. Ne ovat moraalisia. Ne koskevat sitä, millaisessa maailmassa olemme valmiita elämään ja millaisen toimijuuden olemme valmiita säilyttämään. Oletuspolku on selvä. Enemmän automaatiota, vähemmän valvontaa, enemmän mukavuutta, vähemmän vastuuta. Tämä polku on helppo, koska se on kannattava ja tehokas ja vaikuttaa väistämättömältä.

Mutta väistämättömyys on tarina, jonka kerromme itsellemme välttääksemme valinnan epämukavuutta. Todellisuudessa jokainen tekoälyagentin käyttöönotto on valinta. Jokainen algoritmisen auktoriteetin hyväksyminen on valinta. Joka kerta kohautamme olkapäitämme ja sanomme, että järjestelmän päätös on valinta. Ja jokainen valinta muokkaa sitä, mitä tapahtuu seuraavaksi. Joten kysymys ei ole siitä, mitä tekoäly tekee. Kysymys on siitä, mitä päätöksiä olet vielä valmis tekemään itse. Vastaus tähän kysymykseen on tärkeämpi kuin mikään algoritmi.

kirjailijasta

Alex Jordan on InnerSelf.comin henkilökunnan kirjoittaja

Suositeltava Kirjat

Kohdistusongelma: koneoppiminen ja inhimilliset arvot

Syvällisesti tutkittu selvitys siitä, miten tekoälyjärjestelmät oppivat arvoja ja miksi niiden yhteensovittaminen ihmisen kukoistuksen kanssa on paljon monimutkaisempaa kuin useimmat ihmiset ymmärtävät.

Osta Amazonista

Matemaattisten tietojen tuhoamisen aseet: Kuinka massadata lisää eriarvoisuutta ja uhkaa demokratiaa

Helppolukuinen tutkimus siitä, miten algoritmit juurruttavat epätasa-arvoa ja toimivat ilman vastuuvelvollisuutta. Kirjoittajana on matemaatikko, joka työskenteli järjestelmien sisällä, joita hän kritisoi.

Osta Amazonista

Eriarvoisuuden automatisointi: Kuinka huipputeknologiset työkalut profiloivat, valvovat ja rankaisevat köyhiä

Vahva tutkimus siitä, miten automatisoidut järjestelmät kohdistavat hyökkäyksensä köyhiin ja rankaisevat heitä, paljastaen algoritmisen päätöksenteon inhimilliset kustannukset julkisissa palveluissa.

Osta Amazonista

Artikkelin tiivistelmä

Tekoälyagentit edustavat siirtymistä ihmisen harkintaa avustavista työkaluista järjestelmiin, jotka korvaavat sen ja toimivat oma-aloitteisesti ja itsenäisesti nopeuksilla, jotka vaikeuttavat valvontaa. Todellinen riski ei ole koneäly, vaan ihmisen toimijuuden asteittainen heikkeneminen, kun sopeudumme automatisoituun päätöksentekoon ilman vastuuvelvollisuutta. Eettinen käyttö edellyttää ihmisten pitämistä vastuussa seurauksellisista päätöksistä, läpinäkyvyyden ylläpitämistä ja sen tunnustamista, että optimointi ilman viisautta aiheuttaa ennustettavaa vahinkoa.

#tekoälyagentit #automaatio #ihmisagentti #algoritminenvastuullisuus #eettinentekoäly #digitaalinenautonomia #teknoetiikka