Aikooko keinotekoinen älykyky koskaan ymmärtää ihmisen tunteita?

Miten sinusta tuntuu saada hoitoa robotilta? Emotionaalisesti älykkäät koneet eivät ehkä ole niin kaukana kuin näyttää. Viime vuosikymmeninä keinotekoinen älykkyys (AI) on tullut yhä paremmin lukemaan ihmisten emotionaalisia reaktioita.

Mutta lukeminen ei ole sama kuin ymmärrys. Jos AI ei voi kokea tunteita itse, voivatko he koskaan ymmärtää meitä? Ja jos ei, onko olemassa riski, että määrittelemme robottien ominaisuuksia, joita heillä ei ole?

Uusimmat AI-sukupolvet ovat syntyneet, koska tietokoneiden käytettävissä olevien tietojen määrä on kasvanut, sekä niiden parannettu käsittelyteho. Nämä koneet ovat yhä kilpailukykyisempiä tehtävissä, joita on aina pidetty ihmisinä.

AI voi nyt muun muassa tunnistaa kasvot, käänny kasvojen luonnoksia valokuviksi, tunnistaa puhe ja pelaa Go.

Rikollisten tunnistaminen

Viime aikoina tutkijat ovat kehittäneet AI: n, joka pystyy kertomaan, onko henkilö rikollinen juuri katsomalla heidän kasvonsa piirteitä. Järjestelmää arvioitiin käyttämällä kiinalaisen ID - valokuvien tietokantaa ja tulokset ovat leuka pudottamassa. AI luokitteli syyllisyytensä väärin rikollisiksi vain noin 6%: ssa tapauksista, kun taas se pystyi tunnistamaan rikollisten 83%: n. Tämä johtaa lähes 90%: n yleiseen tarkkuuteen.

Järjestelmä perustuu lähestymistapaan, jota kutsutaan ”syväksi oppimiseksi”, joka on onnistunut havaitsevissa tehtävissä, kuten kasvojen tunnistamisessa. Tässä syvässä oppimisessa yhdistettynä ”kasvojen pyörimismalliin” AI voi tarkistaa, edustavatko kaksi kasvokuvaa samaa yksilöä, vaikka valaistus tai kulma muuttuisivat kuvien välillä.


sisäinen tilausgrafiikka


Syvällinen oppiminen rakentaa ”hermoverkon”, joka on löyhästi mallinnettu ihmisen aivoissa. Tämä koostuu sadoista tuhansista eri kerroksissa järjestetyistä neuroneista. Kukin kerros muuntaa tulon, esimerkiksi kasvokuvan, korkeammaksi abstraktiotasoksi, kuten reunojen joukoksi tietyissä suunnissa ja paikoissa. Tämä korostaa automaattisesti ominaisuuksia, jotka ovat tärkeimpiä tietyn tehtävän suorittamisessa.

Syvällisen oppimisen onnistumisen vuoksi ei ole yllättävää, että keinotekoiset hermoverkot voivat erottaa rikolliset ei-rikollisista - jos todellakin on kasvojen piirteitä, jotka voivat syrjiä niitä. Tutkimuksen mukaan on kolme. Yksi on kulma nenäkärjen ja suun kulmien välillä, joka oli keskimäärin 19.6% pienempi rikollisille. Ylempi huulen kaarevuus oli myös keskimäärin 23.4% suurempi rikollisille, kun taas silmien sisäkulmien välinen etäisyys oli keskimäärin 5.6% kapeampi.

Ensi silmäyksellä tämä analyysi näyttää viittaavan siihen vanhentuneita näkymiä että rikolliset voidaan tunnistaa fyysisten ominaisuuksien perusteella eivät ole täysin väärässä. Se ei kuitenkaan välttämättä ole täydellinen tarina. On mielenkiintoista, että kaksi tärkeintä ominaisuutta liittyvät huuliin, jotka ovat kaikkein ilmeisimpiä kasvojen piirteitä. ID-valokuvien, kuten tutkimuksessa käytettyjen valokuvien, tulee olla neutraalilla kasvojen ilmeellä, mutta se voi olla, että AI onnistui löytämään piilotettuja tunteita näissä kuvissa. Nämä saattavat olla niin vähäisiä, että ihmiset olisivat voineet taistella huomatessaan niitä.

On vaikea vastustaa kiusausta tarkastella paperissa näytettäviä näytekuvia, joita ei ole vielä vertaisarvioitu. Huolellinen tarkastelu paljastaa vähäisen hymyn rikollisten valokuvissa. Katso itse. Mutta vain muutama esimerkkikuva on käytettävissä, joten emme voi yleistää päätelmiä koko tietokantaan.

Affektiivisen laskennan voima

Tämä ei olisi ensimmäinen kerta, kun tietokone pystyi tunnistamaan ihmisen tunteet. Ns.affektiivinen tietojenkäsittely”On ollut jo usean vuoden ajan. Väitetään, että jos haluamme mukavasti elää ja olla vuorovaikutuksessa robottien kanssa, näiden koneiden pitäisi pystyä ymmärtämään ja reagoimaan asianmukaisesti ihmisten tunteisiin. Alueella on paljon työtä, ja mahdollisuudet ovat suuret.

Esimerkiksi tutkijat ovat käyttäneet kasvojen analysointia paikalla kamppailevat opiskelijat tietokoneohjaustapaamisissa. AI: tä koulutettiin tunnistamaan erilaiset sitoutumis- ja turhautumistasot, jotta järjestelmä voisi tietää, milloin opiskelijat löysivät työn liian helposti tai liian vaikeaksi. Tämä tekniikka voisi olla hyödyllistä parantaa oppimiskokemusta online-alustoilla.

AI on myös tottunut tunnistaa ääniimme perustuvat tunteet nimetty yritys BeyondVerbal. He ovat tuottaneet ohjelmistoa, joka analysoi äänimodulaatiota ja etsii tiettyjä kuvioita ihmisten puhuessa. Yhtiö väittää pystyvänsä tunnistamaan tunteet oikein 80% tarkkuudella. Tulevaisuudessa tällainen teknologia voi esimerkiksi auttaa autistisia yksilöitä tunnistamaan tunteita.

Sony yrittää jopa kehittää robotti kykenevät muodostamaan emotionaalisia sidoksia ihmisten kanssa. Ei ole paljon tietoa siitä, miten he aikovat saavuttaa tämän, tai mitä robotti tekee. He mainitsevat kuitenkin, että he pyrkivät ”integroida laitteisto ja palvelut tarjoamaan emotionaalisesti pakottavia kokemuksia".

Emotionaalisesti älykäs AI: llä on useita mahdollisia etuja, olipa kyseessä sitten joku kumppani tai auttaa meitä suorittamaan tiettyjä tehtäviä - aina rikostutkimuksesta puheterapiaan.

On kuitenkin myös eettisiä ongelmia ja riskejä. Onko oikein, että dementiaa sairastava potilas luottaa AI-kumppaniin ja uskoo, että sillä on emotionaalinen elämä, kun se ei ole? Ja voitko tuomita henkilön, joka perustuu AI: hen, joka luokittelee heidät syyllisiksi? Ei selvästikään. Sen sijaan, kun tällaista järjestelmää parannetaan ja arvioidaan edelleen, vähemmän haitallinen ja mahdollisesti hyödyllinen käyttö voi olla sellaisten henkilöiden jatkotarkastusten käynnistäminen, joita AI: n mielestä pidetään epäilyttävinä.

Mitä meidän pitäisi siis odottaa AI: lta? Subjektiiviset aiheet, kuten tunteet ja tunteet, ovat AI: lle vielä vaikea oppia, osittain siksi, että AI: llä ei välttämättä ole tarpeeksi hyviä tietoja analysoida niitä objektiivisesti. Voiko AI esimerkiksi ymmärtää sarkasmin? Tietty lause voi olla sarkastinen, kun sitä puhutaan yhdessä yhteydessä, mutta ei toisessa.

Tiedon ja käsittelytehon määrä kuitenkin kasvaa edelleen. Joten muutaman poikkeuksen lisäksi AI voi pystyä vastaamaan ihmisiin tunnistamaan erilaisia ​​tunteita seuraavien vuosikymmenten aikana. Mutta onko AI koskaan kokenut tunteita on a kiistanalainen aihe. Vaikka he voisivatkin, voi varmasti olla tunteita, joita he eivät koskaan voineet kokea - mikä vaikeuttaa niiden todellista ymmärtämistä.

Conversation

Author

Leandro Minku, tietojenkäsittelytieteen laitos, Leicesterin yliopisto

Tämä artikkeli julkaistiin alunperin Conversation. Lue alkuperäinen artikkeli.

Liittyvät kirjat:

at InnerSelf Market ja Amazon