i091hbdc
NicoElNino / Shutterstock

Edistyneen chatbotin julkaisu ChatGPT Vuonna 2022 kaikki puhuivat tekoälystä (AI). Sen kehittyneet ominaisuudet lisäsivät huolia tekoälyn kehittymisestä niin pitkälle, ettemme pian pystyisi hallitsemaan sitä. Tämä jopa sai jotkut asiantuntijat ja alan johtajat varoittamaan, että teknologia voi johtaa ihmisen sukupuuttoon.

Muut kommentoijat eivät kuitenkaan olleet vakuuttuneita. Kielitieteen professori Noam Chomsky hylkäsi ChatGPT:n nimellä "hi-tech plagiointi".

Olin vuosien ajan rento nähdessäni tekoälyn vaikutuksen ihmisen olemassaoloon ja ympäristöömme. Tämä johtuu siitä, että olen aina ajatellut sitä a opas tai neuvoja ihmisille. Mutta tekoälyjen mahdollisuus tehdä päätöksiä – käyttää toimeenpanovaltaa – on toinen asia. Ja sitä viihdytetään nyt vakavasti.

Yksi tärkeimmistä syistä, miksi emme saa antaa tekoälylle toimeenpanovaltaa, on se, että siltä puuttuu täysin tunteita, mikä on ratkaisevan tärkeää päätöksenteossa. Ilman tunteita, empatiaa ja moraalista kompassia olet luonut täydellinen psykopaatti. Tuloksena oleva järjestelmä voi olla erittäin älykäs, mutta siitä puuttuu ihmisen tunneydin, jonka avulla se voisi mitata muuten rationaalisen päätöksen mahdollisesti tuhoisia emotionaalisia seurauksia.

Kun tekoäly ottaa toimeenpanovallan

Tärkeää on, että meidän ei pitäisi ajatella tekoälyä vain eksistentiaalisena uhkana, jos niin tekisimme asettaa sen ydinasearsenaalien vastuulle. Niiden ohjausasemien lukumäärää, joista se voi aiheuttaa käsittämättömiä vahinkoja, ei ole käytännössä rajoitettu.


sisäinen tilausgrafiikka


Mieti esimerkiksi, kuinka tekoäly voi jo tunnistaa ja järjestää tiedot, joita tarvitaan oman viherhuoneen rakentamiseen. Teknologian nykyiset iteraatiot voivat opastaa sinua tehokkaasti jokaisen vaiheen läpi rakentaa ja estää monia aloittelijan virheitä. Mutta tulevaisuudessa tekoäly saattaa toimia projektipäällikkönä ja koordinoida rakentamista valitsemalla urakoitsijat ja maksamalla heille suoraan budjetistasi.

Tekoälyä käytetään jo lähes kaikilla tietojenkäsittelyn ja data-analyysin aloilla – alkaen säämallien mallinnus että ohjaa kuljettajattomia ajoneuvoja että auttaa lääketieteellisissä diagnooseissa. Mutta tästä ongelmat alkavat – kun annamme tekoälyjärjestelmien ottaa kriittisen askeleen neuvonantajan roolista johtajan rooliin.

Sen sijaan, että ehdottaisit korjaustoimenpiteitä a yrityksen tilit, entä jos tekoälylle annettaisiin suora hallinta ja mahdollisuus toteuttaa menettelyjä velkojen perimiseksi, pankkisiirtojen tekemiseksi ja voittojen maksimoimiseksi – ilman rajoituksia. Tai kuvittele tekoälyjärjestelmä, joka ei tarjoa vain a röntgenkuvaukseen perustuva diagnoosi, mutta heille annetaan valtuudet määrätä suoraan hoitoja tai lääkkeitä.

Saatat alkaa tuntea olosi levottomaksi sellaisista skenaarioista – varmasti tekisin. Syynä saattaa olla intuitiosi, että näillä koneilla ei todellakaan ole "sieluja". Ne ovat vain ohjelmia, jotka on suunniteltu sulattaa valtavia tietomääriä monimutkaisten tietojen yksinkertaistamiseksi paljon yksinkertaisempiin malleihin, jolloin ihmiset voivat tehdä päätöksiä varmemmin. Heillä ei ole – eikä voi – olla tunteita, jotka liittyvät läheisesti biologisiin aisteihin ja vaistoihin.

Tunteet ja moraali

Tunneäly on kyky hallita tunteitamme stressin voittamiseksi, empatiaa ja kommunikointia tehokkaasti. Tällä on luultavasti enemmän merkitystä päätöksenteon yhteydessä kuin älykkyydellä yksinään, koska paras päätös ei aina ole järkevin.

On todennäköistä, että älykkyys, kyky järkeillä ja toimia loogisesti, voidaan upottaa tekoälyllä toimiviin järjestelmiin, jotta ne voivat tehdä järkeviä päätöksiä. Mutta kuvittele, että pyydät tehokasta tekoälyä, jolla on toimeenpanokykyjä ratkaista ilmastokriisi. Ensimmäinen asia, jota se saattaisi inspiroida tekemään, on vähentää merkittävästi ihmispopulaatiota.

Tämä päättely ei vaadi paljoa selittelyä. Me ihmiset olemme lähes määritelmän mukaan saastumisen lähde kaikissa mahdollisissa muodoissa. Kirves ihmisyys ja ilmastonmuutos ratkeaisi. Toivotaan, että ihmisten päättäjät eivät joutuisi valintaan, vaan tekoäly löytäisi omat ratkaisunsa – läpipääsemättömiä ja ihmisten vastenmielisyyttä vahingon aiheuttamista rasittamattomina. Ja jos sillä olisi toimeenpanovaltaa, mikään ei ehkä estäisi sen etenemistä.

9dfujyxp
 Voi olla virhe antaa tekoälylle mahdollisuus tehdä lennonjohtopäätöksiä. Gorodenkoff/Shutterstock

Sabotaasi skenaarioita

Entä sabotointi elintarviketiloja ohjaavat anturit ja monitorit? Tämä saattaa tapahtua aluksi vähitellen, työntämällä säätimet juuri käännepisteen ohi, jotta kukaan ei huomaa, että sadot tuomitaan. Tietyissä skenaarioissa tämä voi nopeasti johtaa nälänhätään.

Vaihtoehtoisesti, entäs lennonjohdon sulkeminen maailmanlaajuisesti tai yksinkertaisesti kaatuisi kaikki kerralla lentävät koneet? Noin 22,000 XNUMX lentokonetta on normaalisti ilmassa samanaikaisesti, mikä merkitsee useiden miljoonien kuolonuhrien määrää.

Jos luulet, että olemme kaukana tuosta tilanteesta, ajattele uudelleen. Tekoälyt ajavat jo autoja ja lentää sotilaslentokoneita, itsenäisesti.

Vaihtoehtoisesti, mitä jos sulkeisit pääsyn pankkitileihin maailman laajoilla alueilla, aiheuttaa kansalaislevottomuuksia kaikkialla kerralla? Tai sammuttaa tietokoneohjatut lämmitysjärjestelmät keskellä talvea vai ilmastointijärjestelmät kesän helteiden huipulla?

Lyhyesti sanottuna tekoälyjärjestelmän ei tarvitse olla vastuussa ydinaseista ollakseen vakava uhka ihmiskunnalle. Mutta kun puhumme tästä aiheesta, jos tekoälyjärjestelmä olisi riittävän tehokas ja älykäs, se voisi löytää tavan teeskennellä hyökkäystä maata vastaan, jolla on ydinase, mikä laukaisi ihmisen käynnistämän koston.

Voisiko tekoäly tappaa suuria määriä ihmisiä? Vastauksen on oltava teoriassa kyllä. Mutta tämä riippuu suurelta osin siitä, kuinka ihmiset päättävät antaa sille toimeenpanovallan. En voi oikeastaan ​​kuvitella mitään pelottavampaa kuin tekoäly, joka voi tehdä päätöksiä ja jolla on valta toteuttaa ne.Conversation

Author

Guillaume Thierry, kognitiivisen neurotieteen professori, Bangor University

Tämä artikkeli julkaistaan ​​uudelleen Conversation Creative Commons -lisenssin alla. Lue alkuperäinen artikkeli.