4rupi02z

R. Classen / Shutterstock

Yritykset käyttävät jo laajasti tekoäly-chatbotteja asiakkaiden tervehtimiseen ja heidän kysymyksiinsä vastaamiseen – joko puhelimitse tai verkkosivuilla. Jotkut yritykset ovat havainneet, että ne voivat jossain määrin korvata ihmiset puhelinkeskuksen rooleissa olevilla koneilla.

Käytettävissä olevat tiedot viittaavat kuitenkin siihen, että joillakin aloilla – kuten terveydenhuolto ja henkilöresurssit – on noudatettava äärimmäistä varovaisuutta näiden etulinjan työkalujen käytössä, ja eettinen valvonta saattaa olla tarpeen.

Tuore ja paljon julkisuutta saanut esimerkki on a chatbot nimeltä Tessa, jota käytti National Eating Disorder Association (NEDA) Yhdysvalloissa. Organisaatiolla oli alun perin ylläpidetty neuvontapuhelinta, jota toimi toimihenkilöiden ja vapaaehtoisten yhdistelmä. Tämän nimenomainen tavoite oli auttaa syömishäiriöistä kärsiviä haavoittuvia ihmisiä.

Kuitenkin tänä vuonna järjestö hajotti neuvontapuhelimen henkilökuntaa, ilmoitti, että se korvaisi ne Tessa-chatbotilla. Syyt tähän ovat kiistanalaisia. Entiset työntekijät väittävät, että muutos seurasi neuvontapuhelimen henkilökunnan päätöstä liittyä ammattiliittoon. The NEDA:n varapresidentti mainittu puheluiden ja odotusaikojen lisääntyminen sekä vapaaehtoistyöntekijöiden käyttöön liittyvät juridiset vastuut.

Oli miten oli, hyvin lyhyen toiminta-ajan jälkeen Tessa joutui offline-tilaan, koska chatbot oli antanut ongelmallisia neuvoja, jotka olisivat saaneet pahentaa syömishäiriöihin hakevien ihmisten oireita.


sisäinen tilausgrafiikka


Siitä kerrottiin myös Tohtori Ellen Fitzsimmons-Craft ja tohtori C Barr Taylor, kaksi Tessan luomisessa avustanutta korkeasti pätevää tutkijaa, olivat todenneet, että chatbotia ei koskaan ollut tarkoitettu korvaamaan olemassa olevaa neuvontapuhelinta tai tarjoamaan välitöntä apua niille, joilla on voimakkaita syömishäiriön oireita.

Merkittävä päivitys

Joten mihin Tessa oli suunniteltu? Tutkijat olivat kollegoidensa kanssa luoneet seurantatutkimus korostaa haasteita, joita he kohtasivat suunniteltaessa sääntöpohjaista chatbotia vuorovaikutuksessa syömishäiriöistä huolissaan olevien käyttäjien kanssa. Se on varsin kiehtovaa luettavaa, havainnollistaen suunnitteluvalintoja, toimintoja, sudenkuoppia ja muutoksia.

Tessan alkuperäinen versio oli perinteinen, sääntöpohjainen chatbot, vaikkakin erittäin hienostunut, joka noudattaa ennalta määritettyä logiikkaan perustuvaa rakennetta. Se ei voinut poiketa luojiensa kalibroimista standardoiduista esiohjelmoiduista vasteista.

Heidän johtopäätöksensä sisälsi seuraavan kohdan: "Sääntöpohjaisilla chatbotilla on mahdollisuus tavoittaa suuria väestöryhmiä alhaisin kustannuksin tarjoamalla tietoa ja yksinkertaista vuorovaikutusta, mutta ne eivät ymmärrä odottamattomia käyttäjien vastauksia ja reagoivat niihin asianmukaisesti."

Tämä saattaa näyttää rajoittavan käyttötarkoituksia, joihin Tessa sopi. Joten miten se päätyi korvaamaan NEDA:n aiemmin käyttämän neuvontapuhelimen? Tarkka tapahtumaketju on keskusteluna erilaisten näkemysten keskellä, mutta NPR:n mukaan chatbotin isännöintiyritys muutti Tessan sääntöpohjaisesta chatbotista, jossa on esiohjelmoidut vastaukset. "Parannettu kysymys- ja vastausominaisuus".

Tessan myöhempi versio käytti generatiivista tekoälyä, aivan kuten ChatGPT ja vastaavat tuotteet. Nämä edistyneet AI-chatbotit on suunniteltu simuloimaan ihmisten keskustelumalleja, joiden tarkoituksena on antaa realistisempia ja hyödyllisempiä vastauksia. Näiden räätälöityjen vastausten luominen perustuu suuriin tietokantoihin, joita tekoälymallit on koulutettu "ymmärtämään" useiden teknisten prosessien avulla: koneoppiminen, syvä oppiminen ja luonnollinen kielenkäsittely.

Oppitunteja

Lopulta chatbot loi mahdollisesti haitallisia vastauksia joihinkin käyttäjien kysymyksiin. Sitä seuranneet keskustelut ovat siirtäneet syytteen toimielimeltä toiselle. Asia on kuitenkin edelleen se, että seuranneet olosuhteet olisi mahdollisesti voitu välttää, jos olisi ollut eettistä valvontaa harjoittava elin, "ihminen silmukassa" ja noudattanut Tessan alkuperäisen suunnittelun selkeää tarkoitusta.

On tärkeää ottaa oppia tämän kaltaisista tapauksista, kun on kiire integroida tekoälyä erilaisiin järjestelmiin. Ja vaikka nämä tapahtumat tapahtuivat Yhdysvalloissa, ne sisältävät opetuksia niille, jotka haluavat tehdä saman muissa maissa.

Yhdistyneellä kuningaskunnalla näyttää olevan hieman hajanainen lähestymistapa tähän kysymykseen. Dataetiikka- ja innovaatiokeskuksen (CDEI) neuvottelukunta purettiin hiljattain ja sen istuimen pöydässä otti vasta muodostettu Frontier AI Taskforce. On myös raportoitu, että tekoälyjärjestelmiä testataan jo Lontoossa työkaluina työntekijöiden auttamiseksi – tosin ei korvaamaan neuvontapuhelinta.

Molemmat esimerkit tuovat esiin mahdollisen jännitteen eettisten näkökohtien ja liike-elämän etujen välillä. Meidän on toivottava, että nämä kaksi kohtaavat lopulta ja tasapainottavat yksilöiden hyvinvoinnin tehokkuuden ja etujen kanssa, joita tekoäly voisi tarjota.

Kuitenkin joillakin alueilla, joilla organisaatiot ovat vuorovaikutuksessa yleisön kanssa, tekoälyn luomat vastaukset ja simuloitu empatia eivät ehkä koskaan riitä korvaamaan aitoa inhimillisyyttä ja myötätuntoa – erityisesti lääketieteen ja mielenterveyden aloilla.Conversation

Mark Tsagas, luennoitsija, rikosoikeus, Itä-Lontoon yliopisto

Tämä artikkeli julkaistaan ​​uudelleen Conversation Creative Commons -lisenssin alla. Lue alkuperäinen artikkeli.