Tieto on arvokas tavara. Ja tekniikan ansiosta niitä on miljoonia teratavuja siitä verkossa.

Keinoälytyökalut, kuten ChatGPT, hallitsevat nyt näitä tietoja puolestamme – kokoavat ne, tekevät niistä yhteenvedon ja esittävät ne meille.

Mutta tällä tiedonhallinnan "ulkoistamisella" tekoälyyn – niin kätevästi kuin se onkin – on seurauksia. Se voi vaikuttaa paitsi mitä ajattelemme, mutta mahdollisesti myös miten me ajattelemme.

Mitä tapahtuu maailmassa, jossa tekoälyalgoritmit päättävät, mitä tietoa säilytetään ja mitä jätetään tielle?

Personoidun tekoälyn nousu

Generatiiviset tekoälytyökalut on rakennettu satojen gigatavujen malleihin olemassa olevaa dataa. Näistä tiedoista he oppivat luomaan itsenäisesti tekstiä, kuvia, ääni- ja videosisältöä ja voivat vastata käyttäjien kyselyihin korjaamalla yhteen "todennäköisimmän" vastauksen.


sisäinen tilausgrafiikka


ChatGPT:tä käyttää miljoonat ihmiset, vaikka se julkaistiin alle vuosi sitten. Kesäkuussa lisäys mukautettuja vastauksia teki jo ennestään vaikuttavasta chatbotista entistä hyödyllisemmän. Tämän ominaisuuden avulla käyttäjät voivat tallentaa mukautettuja ohjeita, joissa selitetään, mihin he käyttävät bottia ja miten he haluavat sen reagoivan.

Tämä on yksi monista esimerkeistä "personoidusta tekoälystä": luokka tekoälytyökaluja, jotka luovat sisältöä käyttäjän erityistarpeiden ja mieltymysten mukaan.

Toinen esimerkki on Metan äskettäin lanseerattu virtuaaliassistentti, Meta AI. Tämä chatbot voi keskustella, luoda kuvia ja suorittaa tehtäviä Metan alustoilla, mukaan lukien WhatsApp, Messenger ja Instagram.

Tekoälyn tutkija ja DeepMindin perustaja Mustafa Suleyman, kuvailee personoitu tekoäly enemmänkin suhteeksi kuin teknologiaksi:

Se on ystävä. […] Se tulee todella olemaan aina läsnä ja rinnallasi, asumaan kanssasi – pohjimmiltaan tiimissäsi. Pidän siitä, että sinulla olisi loistava valmentaja nurkassasi.

Mutta nämä tekniikat ovat myös kiistanalaisia, ja niistä on herännyt huolta tietojen omistusoikeuden, puolueellisuus ja väärät tiedot.

Teknologiayritykset yrittävät löytää tapoja torjua näitä ongelmia. Google on esimerkiksi lisännyt lähdelinkkejä tekoälyn tuottamiin hakuyhteenvetoon Hae Generatiivinen kokemus (SGE) -työkalu, joka joutui aiemmin tänä vuonna tulipalon kohteeksi tarjoamalla epätarkkoja ja ongelmallisia vastauksia.

Tekniikka on jo muuttanut ajatteluamme

Miten generatiiviset tekoälytyökalut – ja erityisesti meille räätälöidyt – muuttavat ajatteluamme?

Tämän ymmärtämiseksi palataanpa 1990-luvun alkuun, jolloin internet tuli ensimmäistä kertaa elämäämme. Ihmiset saattoivat yhtäkkiä saada tietoa melkein mistä tahansa, oli kyse sitten pankkitoiminnasta, leipomisesta, opettamisesta tai matkustamisesta.

Lähes 30 vuoden kuluttua tutkimukset ovat osoittaneet, kuinka yhteys tähän globaaliin "pesän mieleen" on muuttanut kognitiota, muistia ja luovuuttamme.

Esimerkiksi välitön pääsy vastaavaan 305.5 miljardia sivua tiedon määrä on lisännyt ihmisten määrää metatieto – eli heidän tietämyksensä tiedosta. Yksi tämän vaikutuksista on "Google-efekti”: ilmiö, jossa verkkohaku lisää kykyämme löytää tietoa, mutta vähentää muistiamme siitä, mitä tieto oli.

Toisaalta ajattelumme purkamisen hakukoneisiin on osoitettu vapauttavan henkisiä varantojamme ongelmanratkaisua ja luovaa ajattelua. Toisaalta tiedonhaku verkossa on yhdistetty lisääntyneeseen häiriötekijöitä ja riippuvuutta.

Tutkimukset osoittavat myös, että verkkohaku – riippumatta haetun tiedon määrästä tai laadusta – lisää hakuamme kognitiivinen itsetunto. Toisin sanoen se lisää uskoamme omiin "älykkyyksiimme".

Yhdistä tämä siihen tosiasiaan tiedon kyseenalaistaminen on vaivalloista – ja että mitä enemmän luotamme hakukoneeseemme, sitä vähemmän olemme kriittisiä osallistua sen tuloksiin – ja näet, miksi ennennäkemättömän suuren tiedon saaminen ei välttämättä tee meistä viisaampia.

Pitäisikö meidän "ulkoistaa" ajattelumme?

Nykypäivän generatiiviset tekoälytyökalut menevät paljon pidemmälle kuin vain hakutulosten esittäminen. He paikantavat tiedon meille, arvioivat sen, syntetisoivat sen ja esittävät sen meille takaisin.

Mitä seurauksia tällä voi olla? Ilman ihmislähtöistä laadunvalvontaa tulevaisuudennäkymät eivät ole lupaavia.

Generatiivisen tekoälyn kyky tuottaa vastauksia, jotka tuntuvat tutuilta, objektiivisilta ja kiinnostavilta, tekee meistä haavoittuvampia kognitiivinen harhat.

- automaatioharhaEsimerkiksi on ihmisen taipumus yliarvioida koneperäisen tiedon eheyttä. Ja pelkkä altistuminen vaikutus on, kun luotamme todennäköisemmin tietoihin, jotka esitetään tuttuina tai henkilökohtaisina.

Sosiaalisen median tutkimus voi auttaa meitä ymmärtämään tällaisten harhojen vaikutuksia. Yhdessä 2016 tutkimuksessa Facebookin käyttäjät ilmoittivat tuntee olevansa enemmän "tietävä" perustuu verkkoon lähetetyn uutissisällön määrään – eikä siihen, kuinka paljon uutissisällöstä he todella lukevat.

Tiedämme myös, että "suodattaa kuplia” sosiaalisen median algoritmien luoma ” – jossa syötteemme suodatetaan kiinnostuksen kohteidemme mukaan – rajoittaa meille altistuvan sisällön monimuotoisuutta.

Tämän tiedon kapenemisprosessin on osoitettu lisääntyvän ideologinen polarisaatio vähentämällä ihmisten taipumusta pohtia vaihtoehtoisia näkökulmia. Sen on myös osoitettu lisäävän altistumisen todennäköisyyttä fake uutiset.

Tekoälyn käyttäminen viisaamiseen, ei tyhmyyteen

Generatiivinen tekoäly on epäilemättä vallankumouksellinen voima, jolla on potentiaalia tehdä suuria asioita yhteiskunnan hyväksi. Se voisi muokata koulutusjärjestelmäämme tarjoamalla personoitua sisältöä, muuttaa työkäytäntöjämme nopeuttamalla kirjoittaminen ja tiedon analysointi, ja työnnä rajoja tieteellinen löytö.

Sillä on jopa potentiaalia muuttaa suhteitamme positiivisesti auttamalla meitä kommunikoimaan ja olemaan yhteydessä muihin, ja se voi toisinaan toimia synteettisen kumppanuuden muoto.

Mutta jos ainoa tapamme arvioida tulevaisuutta on katsoa menneisyyteen, ehkä nyt on aika pohtia, kuinka sekä internet että sosiaalinen media ovat muuttaneet kognitiotamme, ja soveltaa sitä varotoimenpiteitä. Kehittyy AI-lukutaito on hyvä paikka aloittaa, samoin kuin ihmisten autonomiaa ja kriittistä ajattelua edistävien tekoälytyökalujen suunnittelu.

Viime kädessä meidän on ymmärrettävä molemmat omamme ja tekoälyn vahvuudet ja heikkoudet varmistaaksemme, että nämä "ajattelevat" kumppanit auttavat meitä luomaan haluamamme tulevaisuuden – ei sitä, joka sattuu olemaan listan kärjessä.Conversation

Sarah Vivienne Bentley, Tutkija, Vastuullinen innovaatio, Data61, CSIRO; Claire Mason, johtava tutkija, CSIROja Einat Grimberg, tekniikan ja yhteiskuntatieteiden tutkijatohtori, CSIRO

Tämä artikkeli julkaistaan ​​uudelleen Conversation Creative Commons -lisenssin alla. Lue alkuperäinen artikkeli.