miehet - ja maat - sodassa
Napoleon olisi voinut oppia menneisyydestä. maalaus Adolph Northen/wikipedia

Se on klisee, että historian tuntemattomuus saa ihmisen toistamaan sitä. Kuten monet ovat myös huomauttaneet, ainoa asia, jonka opimme historiasta, on se, että opimme harvoin mitään historiasta. Ihmiset osallistuvat maasodat Aasiassa uudestaan ​​ja uudestaan. He myös toistavat samat treffivirheet yhä uudelleen ja uudelleen. Mutta miksi näin tapahtuu? Ja tekeekö teknologia lopun sille?

Yksi ongelma on unohtaminen ja "likinäköisyys”: emme näe, kuinka menneillä tapahtumilla on merkitystä nykyisten tapahtumien kannalta, emmekä näe avautuvaa kuviota. Napoleonin olisi pitänyt huomata yhtäläisyydet hänen Moskovaan-marssinsa ja Ruotsin kuninkaan välillä Kaarle XII:n epäonnistunut yritys tehdä samoin noin vuosisataa ennen häntä.

Olemme myös huono oppimaan kun asiat menee pieleen. Sen sijaan, että päättäisimme, miksi päätös oli väärä ja kuinka välttää sen toistuminen, yritämme usein jättää huomiotta kiusallisen tapahtumien käänteen. Tämä tarkoittaa, että seuraavan kerran kun samanlainen tilanne tulee eteen, emme näe samankaltaisuutta – ja toistamme virheen.

Molemmat paljastavat tiedonongelmia. Ensimmäisessä tapauksessa emme muista henkilökohtaisia ​​tai historiallisia tietoja. Toisessa tapauksessa emme pysty koodaamaan tietoa, kun se on saatavilla.


sisäinen tilausgrafiikka


Teemme kuitenkin virheitä myös silloin, kun emme pysty tehokkaasti päättelemään, mitä tapahtuu. Ehkä tilanne on liian monimutkainen tai liian aikaa vievä ajatellakseen. Tai olemme puolueellisia tulkitsemaan väärin, mitä tapahtuu.

Tekniikan ärsyttävä voima

Mutta varmasti teknologia voi auttaa meitä? Voimme nyt tallentaa tietoa aivomme ulkopuolelle ja käyttää tietokoneita sen hakemiseen. Sen pitäisi tehdä oppimisesta ja muistamisesta helppoa, eikö?

Tietojen tallentaminen on hyödyllistä, kun se voidaan hakea hyvin. Mutta muistaminen ei ole sama asia kuin tiedoston hakeminen tunnetusta sijainnista tai päivämäärästä. Muistamiseen kuuluu yhtäläisyuksien havaitseminen ja asioiden tuominen mieleen.

Tekoälyn (AI) on myös kyettävä tuomaan mieleemme spontaanisti yhtäläisyyksiä – usein ei-toivottuja yhtäläisyyksiä. Mutta jos se on hyvä havaitsemaan mahdollisia yhtäläisyyksiä (se voi loppujen lopuksi etsiä koko internetistä ja kaikista henkilötiedoistamme), se huomaa usein myös vääriä.

Epäonnistuneiden treffien osalta se saattaa huomata, että ne kaikki sisälsivät illallisen. Mutta se ei koskaan ollut syöminen ongelmana. Ja oli pelkkä sattuma, että pöydällä oli tulppaaneja – ei mitään syytä välttää niitä. Toistamme usein treffivirheitä. 

Tämä tarkoittaa, että se varoittaa meitä asioista, joista emme välitä, mahdollisesti ärsyttävällä tavalla. Sen herkkyyden säätäminen lisää riskiä siitä, ettei varoitusta saa tarvittaessa.

Tämä on perustavanlaatuinen ongelma ja koskee yhtä lailla kaikkia neuvonantajia: varovainen neuvonantaja itkee sutta liian usein, optimistinen neuvonantaja jättää riskejä huomiotta.

Hyvä neuvonantaja on joku, johon luotamme. He ovat suunnilleen yhtä varovaisia ​​kuin me, ja tiedämme, että he tietävät, mitä haluamme. Tätä on vaikea löytää ihmisneuvojasta ja vielä enemmän tekoälystä.

Missä tekniikka estää virheet? Idioottisuojaus toimii. Leikkuukoneet edellyttävät, että pidät painikkeita alhaalla ja pidät kätesi poissa teristä. "Kuolleen miehen kytkin" pysäyttää koneen, jos käyttäjä tulee toimintakyvyttömäksi.

Mikroaaltouunit sammuttavat säteilyn, kun ovi avataan. Ohjusten laukaisemiseksi kahden ihmisen on käännettävä avaimia samanaikaisesti huoneen poikki. Tässä huolellinen suunnittelu vaikeuttaa virheiden tekemistä. Mutta emme välitä tarpeeksi vähemmän tärkeistä tilanteista, mikä tekee suunnittelusta paljon vähemmän idioottivarman.

Kun tekniikka toimii hyvin, luotamme siihen usein liikaa. Lentoyhtiöiden lentäjillä on nykyään vähemmän todellisia lentotunteja kuin aikaisemmin autopilottijärjestelmien hämmästyttävän tehokkuuden ansiosta. Tämä on huono uutinen, kun autopilotti epäonnistuu, ja ohjaajalla on vähemmän kokemusta tilanteen korjaamisesta.

Ensimmäinen a uudenlainen öljylautta (Sleipnir A) upposi koska insinöörit luottivat siihen vaikuttavien voimien ohjelmistolaskentaan. Malli oli väärä, mutta se esitti tulokset niin vakuuttavasti, että ne näyttivät luotettavilta.

Suuri osa teknologiastamme on uskomattoman luotettavaa. Emme esimerkiksi huomaa, kuinka kulissien takaa löydetään jatkuvasti kadonneita datapaketteja internetistä, kuinka virheenkorjauskoodit poistavat melua tai kuinka sulakkeet ja redundanssi tekevät kodinkoneista turvallisia.

Mutta kun kasaamme monimutkaisuutta tasolta toisensa jälkeen, se näyttää erittäin epäluotettavalta. Huomaamme, kun Zoom-video viivästyy, tekoälyohjelma vastaa väärin tai tietokone kaatuu. Mutta kysy jokaiselta, joka käytti tietokonetta tai autoa 50 vuotta sitten, kuinka ne todella toimivat, niin huomaat, että he olivat sekä heikompia että vähemmän luotettavia.

Teemme tekniikasta monimutkaisempaa, kunnes siitä tulee liian ärsyttävää tai vaarallista käyttää. Kun osista tulee parempia ja luotettavampia, päätämme usein lisätä uusia jännittäviä ja hyödyllisiä ominaisuuksia sen sijaan, että pysyisimme siinä, mikä toimii. Tämä tekee tekniikasta viime kädessä vähemmän luotettavan kuin se voisi olla.

Virheitä tulee tehtyä

Tästä syystä tekoäly on kaksiteräinen miekka virheiden välttämiseksi. Automaatio tekee asioista usein turvallisempia ja tehokkaampia, kun se toimii, mutta epäonnistuessaan se lisää ongelmia. Autonomia tarkoittaa, että älykkäät ohjelmistot voivat täydentää ajatteluamme ja kuormittaa meitä, mutta kun se ei ajattele haluamallamme tavalla, se voi toimia väärin.

Mitä monimutkaisempi se on, sitä upeampia virheet voivat olla. Jokainen, joka on ollut tekemisissä erittäin älykkäiden tutkijoiden kanssa, tietää, kuinka hyvin he voivat sotkea asioita suurella kekseliäisyydellä, kun heidän terve järkensä pettää heidät – ja tekoälyllä on hyvin vähän inhimillistä maalaisjärkeä.

Tämä on myös syvä syy olla huolissaan siitä, että tekoäly ohjaa päätöksentekoa: he tekevät uudenlaisia ​​virheitä. Me ihmiset tiedämme inhimilliset virheet, joten voimme varoa niitä. Mutta älykkäät koneet voivat tehdä virheitä, joita emme olisi koskaan voineet kuvitella.

Lisäksi ihmiset ohjelmoivat ja kouluttavat tekoälyjärjestelmiä. Ja tällaisista järjestelmistä on monia esimerkkejä muuttumassa puolueelliseksi ja jopa kiihkoilevaksi. He jäljittelevät ennakkoluuloja ja toistavat ihmismaailman virheitä, vaikka mukana olevat ihmiset yrittäisivät välttää niitä.

Lopulta virheitä tulee jatkuvasti. On olemassa perustavanlaatuisia syitä, miksi olemme väärässä maailman suhteen, miksi emme muista kaikkea, mitä meidän pitäisi, ja miksi teknologiamme ei voi täydellisesti auttaa meitä välttämään ongelmia.

Mutta voimme työskennellä vähentääksemme virheiden seurauksia. Kumoa-painike ja automaattinen tallennus ovat tallentaneet lukemattomia asiakirjoja tietokoneillemme. Monumentti Lontoossa, tsunamin kiviä Japanissa ja muut monumentit muistuttavat meitä tietyistä riskeistä. Hyvät suunnittelukäytännöt tekevät elämästämme turvallisempaa.

Viime kädessä on mahdollista oppia jotain historiasta. Tavoitteenamme pitäisi olla selviytyä ja oppia virheistämme, ei estää niitä koskaan tapahtumasta. Teknologia voi auttaa meitä tässä, mutta meidän on mietittävä tarkkaan, mitä todella haluamme siltä – ja suunnitella sen mukaan.

Author

Anders Sandberg, James Martin tutkija, Future of Humanity Institute & Oxford Martin School, Oxfordin yliopisto

Tämä artikkeli julkaistaan ​​uudelleen Conversation Creative Commons -lisenssin alla. Lue alkuperäinen artikkeli.