Miten keinotekoinen älykkyys voi tehdä meistä paremman itseämme

Miten keinotekoinen älykkyys voi tehdä meistä paremman itseämme
Shutterstock

Mahdollisuus väittää, ilmaista ajatuksemme muille, on yksi ihmiselle määrittävistä piirteistä.

Argumentti ja keskustelu ovat sivistyneen yhteiskunnan ja henkisen elämän kulmakiviä. Argumentointiprosessit ohjaavat hallituksiamme, rakentavat tieteellisiä pyrkimyksiä ja rakentavat uskonnollista uskomusta. Joten meidän pitäisi huolestua siitä, että keinotekoisen älykkyyden uudet edistysaskeleet ottavat askeleita tietokoneiden varustamiseen näiden taitojen kanssa?

Kun teknologia muuttaa elämäämme, olemme tottuneet kaikkiin uusiin toimintatapoihin ja uusiin tapoihin vuorovaikutuksessa. Millennialit eivät ole tienneet mitään muuta. Hallitukset ja oikeuslaitokset heräävät teknologian tarjoamiin mahdollisuuksiin saada kansalaiset mukaan demokraattisiin ja oikeudellisiin prosesseihin. Jotkut poliitikot, yksilöllisesti, ovat enemmän kuin pelaavat ymmärtääkseen valtavan roolin, jota sosiaalinen media vaikuttaa vaaliprosesseihin. Mutta on olemassa syvällisiä haasteita.

Yksi on hienosti esitetty Upworthy Toimitusjohtaja Eli Pariser TED-keskustelussa. Siinä hän selittää, miten olemme alkaneet elää "suodatinkuplia": mitä näet, kun haet tiettyä termiä Googlessa, ei välttämättä ole sama kuin mitä näen, kun etsin samaa termiä. Mediaorganisaatiot Fox Newsista viimeisimpään BBC: hen ovat sisällön muokkaamiseen, ja ID: tä ja kirjautumista käytetään valitsemaan parhaiten näkyviä tarinoita. Tuloksena on se, että riskimme lukita itsemme samanhenkisten henkilöiden kaiun kammioihin, kun taas argumenttimme tulevat yksipuolisemmiksi, vähemmän tasapainoisiksi ja vähemmän ymmärrettäviksi muista näkökulmista.


TED / YouTube.

Miksi kriittinen ajattelu on kriittinen

Toinen huolenaihe on tapa, jolla uutiset ja tiedot, jotka ovat yhä laajempia, ovat yhä vähemmän luotettavia - syytökset ja ”vastalauseet”.fake uutiset”Ovat nyt yleisiä.

Tällaisten haasteiden edessä kriittisen ajattelun taidot ovat nyt tärkeämpiä kuin koskaan aikaisemmin - kyky arvioida ja arvioida todisteita nopeasti ja tehokkaasti, astua kaiun ulkopuolelle ja miettiä asioita vaihtoehtoisista näkökulmista, integroida tiedot, usein ryhmissä, tasapainottavat molempien osapuolten argumentteja ja saavuttavat vankat ja puolustettavat päätelmät. Nämä ovat argumenttiosaamisia, jotka ovat olleet filosofian akateemisen tutkimuksen kohteena yli 2,000-vuotta Aristoteleen jälkeen.

Det Argumenttitekniikan keskus (ARG-tech) Dundeen yliopistossa on filosofian, kielitieteen ja psykologian teorioiden ottaminen ja laajentaminen, jotka kertovat meille, miten ihmiset väittävät, miten he eri mieltä ja miten he pääsevät yksimielisyyteen - ja tehdä nämä teoriat lähtökohdaksi rakentamiselle keinotekoiset älytyökalut, jotka mallintavat, tunnistavat, opettavat ja jopa osallistuvat ihmisen argumentteihin.

Yksi nykyaikaisen tutkimuksen haasteista alueella on saanut tarpeeksi tietoa. AI-tekniikat, kuten syvä oppiminen vaativat valtavia määriä tietoja, huolellisesti tarkasteltuja esimerkkejä, jotka voivat auttaa rakentamaan vankoja algoritmeja.

Mutta tällaisten tietojen saaminen on todella kova: se vaatii erittäin koulutettuja analyytikoiden työtunteja, jotka erottavat toisistaan ​​sen, miten argumentit on koottu vain muutaman minuutin diskurssista.

Enemmän kuin 10 vuotta sitten, ARG-tech kääntyi BBC Radio 4 -ohjelmaan, Moral Mazeesimerkkinä "kulta-standardin" keskustelusta: tiukka ja tiukka argumentti tunteellisista, ajankohtaisista asioista huolellisesti ja mitattuna maltillisesti. Äärimmäisen arvokkaita ovat tiedot, jotka tuottivat empiirisesti perustellun argumenttiteknologian tutkimuksen.

Teknologia

Tällaisten vaativien tietojen käsittely on johtanut siihen, että kaikki filosofisesta teoriasta laajamittaiseen tietoinfrastruktuuriin on testattu. Lokakuussa 2017 käynnisti pilotin BBC Radio Religion & Ethics -osaston kanssa kahden uuden argumenttitekniikan käyttöönotossa.

Ensimmäinen oli joukko "analytiikkaa". Aloitimme rakentamalla valtavan kartan jokaisesta Moral Maze -keskustelusta, johon kuului tuhansia yksittäisiä ilmauksia ja tuhansia yhteyksiä kaikkien näiden lausuntojen sisällön välillä. Kukin kartta on sitten käännetty useiksi infografeiksi käyttäen algoritmeja keskeisten teemojen määrittämiseksi (käyttämällä jotain Googlen tapaan samanlaista) PageRank algoritmi). Tunnistimme automaattisesti erottamattomat ongelmat ja missä osallistujat seisoivat sekä keskustelun hetket konfliktin saavuttamisen jälkeen, kuinka hyvin tuetut argumentit olivat ja niin edelleen.

Tulos bbc.arg.tech yhdessä Moral Maze'n kanssa esittelee ensimmäistä kertaa todisteisiin perustuvan tavan ymmärtää, mitä keskustelussa todella tapahtuu.

Toinen oli työkalu nimeltäkeskustelija”, Jonka avulla voit ottaa moraalisen sokkelon puheenjohtajan roolin ja suorittaa oman version. Se vie kunkin osallistujan tarjoamat argumentit ja voit navigoida niitä seuraamalla omaa nenääsi hyvään väitteeseen.

Debater-työkalun avulla osallistujat voivat keskustella ja testata taitojaan. (Miten AI voi saada meidät paremmin ilmaisemaan itseämme)
Debater-työkalun avulla osallistujat voivat keskustella ja testata taitojaan. BBC / Dundee-yliopisto ARG-tech

Molempien näkökohtien tarkoituksena on tarjota tietoa ja kannustaa parempaan laatuun, heijastavampaan väitteeseen. Toisaalta työ sallii yhteenvetoja siitä, miten parantaa taitoja riitautua, johtuu todisteista siitä, mikä tosiasiallisesti toimii.

Toisaalta on mahdollisuus opettaa näitä taitoja nimenomaisesti: a Testaa argumenttisi prototyyppi, joka on sijoitettu BBC Taster -paikalle, käyttää esimerkkejä Moral Maze -oppaasta, jossa tutkitaan pienen määrän väitteitä, joiden avulla voit kiivetä witit suoraan koneeseen.

Tiimin ponnistelut

Loppujen lopuksi tavoitteena ei ole rakentaa konetta, joka voi voittaa meidät väitteellä. Paljon jännittävämpää on se, että AI-ohjelmisto voi edistää inhimillistä keskustelua - tunnistaa erilaisia ​​argumentteja, kritisoimalla niitä, tarjoamalla vaihtoehtoisia näkemyksiä ja koeteltavia syitä ovat kaikki AI: n ulottuvilla.

Ja juuri täällä todellinen arvo on - sillä on joukko riita-aseita, jotkut ihmiset, jotkut koneet, jotka työskentelevät yhdessä vaativien ja monimutkaisten tilanteiden käsittelemiseksi älykkyysanalyysistä yrityksen johtamiseen.

ConversationTällaiset yhteistoiminnalliset "seka-aloitteen" päättelyryhmät muuttavat tapaa, jolla ajattelemme vuorovaikutusta AI: n kanssa - ja toivottavasti myös muutamme kollektiivisia päättelykykyämme.

Author

Chris Reed, tietotekniikan ja filosofian professori, Dundeen yliopisto

Tämä artikkeli julkaistiin alunperin Conversation. Lue alkuperäinen artikkeli.

Liittyvät kirjat:

{amazonWS: searchindex = Kirjat; avainsanat = keinotekoinen älykkyys ihmisille; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

seuraa InnerSelfia

facebook-kuvakeTwitter-kuvakeRSS-kuvake

Hanki uusimmat sähköpostitse

{Emailcloak = off}