AI voi ennustaa, että suhde kestää, miten puhut kumppanillesi

Jokainen lapsi (tai puoliso), joka on peloteltu äänensä sävyyn - kuten huutamiseen tai sarkastiseen - tietää, että tapa puhut jonkun kanssa voi olla yhtä tärkeä kuin sanoja että käytät. Äänitaiteilijat ja näyttelijät hyödyntävät tätä hyvin - he ovat taitavia luovuttamaan merkitystä tavalla, jolla he puhuvat, joskus paljon enemmän kuin pelkät sanat ansaitsevat.

Mutta kuinka paljon ääni- ja keskustelumalleissa on tietoa ja miten se vaikuttaa suhteisiin muihin? Laskennalliset järjestelmät voivat jo luoda jotka ihmiset ovat heidän äänestään, voisiko he myös kertoa meille mitään rakkauselämästämme? Hämmästyttävää, se tuntuu siltä.

Uusi tutkimus juuri julkaistu lehdessä PLOS-ONE, on analysoinut hoidettavien 134-parien ääniominaisuuksia. Etelä-Kalifornian yliopiston tutkijat käyttivät tietokoneita standardin puheanalyysiominaisuuksien poimimiseen hoidon istuntojen osallistujien tallenteista kahden vuoden aikana. Ominaisuudet - mukaan lukien piki, piki- ja intonaatiomuutokset - kaikki liittyvät ääniominaisuuksiin, kuten sävy ja intensiteetti.

Koneen oppimisalgoritmi koulutettiin sitten oppimaan suhdetta näiden ääniominaisuuksien ja hoidon mahdollisen lopputuloksen välillä. Tämä ei ollut niin yksinkertaista kuin huutaminen tai korotetut äänet - se sisälsi keskustelun vuorovaikutuksen, joka puhui milloin ja kuinka kauan ja äänien ääni. Kävi ilmi, että sanotun huomiotta jättäminen ja pelkästään nämä puhemallit olivat riittäviä ennustamaan, pysyisivätkö parit yhdessä. Tämä oli pelkästään tietojen ohjaama, joten se ei liittynyt tuloksiin tiettyihin ääniominaisuuksiin.

Miten äänen sävy voi muuttaa muutaman sanan merkitystä.

{youtube}https://youtu.be/GVqJtvRjuns{/youtube}


sisäinen tilausgrafiikka


Mielenkiintoista on, että terapeuttisen istunnon koko videotallenne annettiin asiantuntijoille luokitusta varten. Toisin kuin AI, he tekivät ennusteensa käyttäen psykologista arviointia, joka perustui laulu (ja muihin) attribuutteihin - mukaan lukien puhutut sanat ja kehon kieli. Yllättäen niiden ennuste mahdollisesta lopputuloksesta (ne olivat oikein 75.6%: ssa tapauksista) oli huonompi kuin AI: n tekemät ennusteet, jotka perustuivat vain ääniominaisuuksiin (79.3%). On selvää, että on olemassa elementtejä, jotka on koodattu siten, että puhumme, että edes asiantuntijat eivät ole tietoisia. Paras tulos saavutettiin kuitenkin yhdistämällä automaattinen arviointi asiantuntijoiden arviointiin (79.6% oikein).

Tämän merkitys ei ole niinkään AI: n ottamiseen avioliittoon liittyviin neuvontaan tai pariskuntien hankkimiseen, jotta he puhuisivat toisiaan (kuitenkin ansaitsevat). Merkitys on paljastaa, kuinka paljon tietoa taustalla olevista tunteistamme on koodattu tapaan, jolla puhumme - jotkut siitä ovat täysin tuntemattomia meille.

Sivulle tai ruudulle kirjoitetuilla sanoilla on niiden sanakirjamääritelmistä johdetut leksikaaliset merkitykset. Näitä muutetaan ympäröivien sanojen yhteydessä. Kirjallisesti voi olla suurta monimutkaisuutta. Mutta kun sanoja luetaan ääneen, on totta, että he ottavat lisää merkityksiä, joita ilmaisevat sanat stressi, tilavuus, puheaika ja äänen sävy. Tyypillisessä keskustelussa on myös merkitystä, kuinka kauan jokainen puhuja puhuu, ja kuinka nopeasti yksi tai toinen saattaa kuulla.

Harkitse yksinkertaista kysymystä ”Kuka sinä olet?”. Yritä puhua tästä stressillä eri sanoilla; "Ketkä ovat te? ”,” Kuka olemme te ja "Kuka Oletko?". Kuuntele näitä - semanttinen merkitys voi muuttua, kun luemme, vaikka sanat pysyisivät samoina.

Tietokoneet, jotka lukevat "vuotavat aistit"?

Ei ole yllättävää, että sanat välittävät erilaisia ​​merkityksiä riippuen siitä, miten he puhuvat. On myös yllättävää, että tietokoneet voivat tulkita joitakin merkityksiä siitä, miten haluamme puhua (ehkä jonakin päivänä he voivat jopa ymmärtää ironiaa).

Mutta tämä tutkimus vie asiat pidemmälle kuin pelkkä lauseen merkityksen tarkastelu. Näyttää siltä, ​​että se paljastaa lauseiden takana olevia asenteita ja ajatuksia. Tämä on paljon syvempi ymmärryksen taso.

Hoidon osallistujat eivät lukeneet sanoja kuten näyttelijöitä. He puhuivat vain luonnollisesti - tai yhtä luonnollisesti kuin terapeutin toimistossa. Ja vielä analyysi paljasti tietoja heidän keskinäisistä tunteistaan ​​siitä, että he "vuotivat" tahattomasti heidän puheessaan. Tämä voi olla yksi ensimmäisistä vaiheista tietokoneiden käyttämisessä sen määrittämiseksi, mitä todella ajattelemme tai tunne. Kuvittele hetki keskustelemalla tulevien älypuhelimien kanssa - voimmeko "vuotaa" tietoja, joita he voivat poimia? Miten he reagoivat?

Voisiko he kertoa meille mahdollisista kumppaneista kuuntelemalla meitä puhumasta yhdessä? Voisiko he havaita taipumusta antisosiaaliseen käyttäytymiseen, väkivaltaan, masennukseen tai muihin olosuhteisiin? Se ei olisi mielikuvituksen harppaus kuvitella itseään tulevina terapeutteina - vuorovaikutuksessa kanssamme monin eri tavoin seurata niiden toteuttamien toimien tehokkuutta.

Älä huoli vain siitä syystä, että olemme vuosia poissa tällaisesta tulevaisuudesta, mutta se nostaa tietosuoja-asioista, varsinkin kun olemme vuorovaikutuksessa syvemmällä tietokoneiden kanssa samaan aikaan kun ne ovat yhä voimakkaampia analysoimaan ympäröivää maailmaa.

ConversationKun keskeytämme myös ajatella muita ihmisen aistia lukuun ottamatta ääntä (puhe); ehkä myös vuotaa tietoa näkyvyyden kautta (kuten kehon kieli, punoitus), kosketus (lämpötila ja liike) tai jopa haju (feromonit). Jos älykkäät laitteet voivat oppia niin paljon kuuntelemalla, miten puhumme, ihmettelee kuinka paljon he voisivat kertoa muista aisteista.

Author

Ian McLoughlin, tietotekniikan professori, koulun johtaja (Medway), University of Kent

Tämä artikkeli julkaistiin alunperin Conversation. Lue alkuperäinen artikkeli.

Liittyvät kirjat:

at InnerSelf Market ja Amazon