Keinotekoinen älykkyys voi nyt jäljitellä ihmisen käyttäytymistä ja pian se on vaarallisesti hyvä

Keinotekoinen älykkyys voi nyt jäljitellä ihmisen käyttäytymistä ja pian se on vaarallisesti hyväOnko tämä vain kokoonpano tietokoneita? PHOTOCREO Michal Bednarek / Shutterstock.com

Kun keinotekoiset älykäsjärjestelmät alkavat olla luovia, he voivat luoda suuria asioita - ja pelottavia. Ota esimerkiksi AI-ohjelma, joka antaa Web-käyttäjät kirjoittavat musiikkia yhdessä virtuaalinen Johann Sebastian Bach kirjoittamalla muistiinpanoja ohjelmaan, joka luo Bachin kaltaisia ​​harmonioita niiden mukaiseksi.

Käynnistä Google, sovellus Drew suuri ylistys on uraauurtava ja hauska pelata. Se houkutteli myös kritiikkija herätti huolta AI: n vaaroista.

Oma tutkimus siitä, miten kehittyvät teknologiat vaikuttavat ihmisten elämään on opettanut minulle, että ongelmat ylittävät varmasti suurta huolta onko algoritmeja voi todella luoda musiikkia tai taide yleensä. Jotkut valitukset näyttivät pieniltä, ​​mutta eivät todellakaan olleet, kuten Google AI: n havainnot perussääntöjen rikkominen musiikkikoostumuksen.

Itse asiassa pyrkimykset saada tietokone jäljitellä todellisten ihmisten käyttäytymistä voivat olla hämmentäviä ja mahdollisesti haitallisia.

Imaging-tekniikat

Googlen ohjelmassa analysoitiin Bachin musiikkiteosten 306in muistiinpanoja, etsimällä melodian ja harmoniaa tuottavien muistiinpanojen välisiä suhteita. Koska Bach noudatti tiukkoja kokoonpanosääntöjä, ohjelma oppi näitä sääntöjä tehokkaasti, joten se voisi soveltaa niitä, kun käyttäjät toimittivat omat muistiinpanonsa.

Google Doodle -tiimi selittää Bach-ohjelman.

Bach-sovellus itsessään on uusi, mutta taustalla oleva tekniikka ei ole. Algoritmit koulutettu tunnistaa kuvioita ja tehdä todennäköisyyspäätöksiä ovat olleet olemassa jo pitkään. Jotkut näistä algoritmeista ovat niin monimutkaisia, että ihmiset älä aina ymmärrä miten he tekevät päätöksiä tai tuottavat tietyn tuloksen.

AI-järjestelmät eivät ole täydellisiä - monet niistä luottavat tiedot, jotka eivät ole edustavia koko väestön tai jotka ovat vaikuttavat inhimilliset puolueet. Se ei ole täysin selvää kuka voisi olla oikeudellisesti vastuussa kun AI-järjestelmä tekee virheen tai aiheuttaa ongelmia.

Kuitenkin keinotekoiset älykkäät teknologiat ovat kehittyneet riittävän pitkälle, jotta ne voivat lähentää yksilöiden kirjoittamis- tai puhetyyliä ja jopa ilmeitä. Tämä ei ole aina huono: melko yksinkertainen AI antoi Stephen Hawkingille kyky kommunikoida tehokkaammin muiden kanssa ennustamalla sanoja, joita hän käyttää eniten.

Monimutkaisempia ohjelmia, jotka jäljittelevät ihmisen ääniä auttaa vammaisia - mutta sitä voidaan käyttää myös kuuntelijoiden pettämiseen. Esimerkiksi valmistajat Lyrebird, äänen jäljittelevä ohjelma, on julkaissut a simuloitu keskustelu Barack Obaman, Donald Trumpin ja Hillary Clintonin välillä. Se voi kuulostaa todelliselta, mutta tämä vaihto ei koskaan tapahtunut.

Hyvästä huonoon

Helmikuussa 2019, nonprofit-yhtiö OpenAI loi ohjelman, joka luo tekstiä käytännöllisesti katsoen erotettavissa tekstistä ihmiset kirjoittaneet. Se voi "kirjoittaa" puheen tyyliin John F. Kennedy, JRR Tolkien in “Lord of the Rings”Tai opiskelijan kirjoittama koulun tehtävä Yhdysvaltain sisällissodasta.

OpenAI: n ohjelmiston tuottama teksti on niin uskottava, että yritys on valinnut ei vapauta itse ohjelmaan.

Samankaltaiset tekniikat voivat simuloida valokuvia ja videoita. Esimerkiksi 2018in alussa näyttelijä ja elokuvantekijä Jordan Peele loivat videon, joka näytti osoittavan entisen Yhdysvaltain presidentti Barack Obaman sanovan Obama ei koskaan sanonut varoittaa yleisöä näiden teknologioiden aiheuttamista vaaroista.

Ole varovainen, mitä videoita uskot.

Alussa 2019, a fake nude photo USA: n edustaja Alexandria Ocasio-Cortez levitti verkossa. Valmistetut videot, usein kutsuttu "deepfakes, ”Odotetaan olevan yhä useammin käytetty vaalikampanjoissa.

Kongressin jäsenet ovat alkaneet tutkia tätä asiaa ennen 2020-vaaleja. Yhdysvaltain puolustusministeriö opettaa yleisöä miten havaita tohtoroituja videoita ja ääni. Uutiset järjestöt kuten Reuters ovat alkaneet kouluttaa toimittajia paikallaan syvyyksiä.

Mutta mielestäni vieläkin suurempi huolenaihe on: käyttäjät eivät ehkä pysty oppimaan tarpeeksi nopeasti erottamaan väärennettyjä sisältöjä, koska AI-tekniikka kehittyy entistä kehittyneemmäksi. Esimerkiksi, kun yleisö on alkanut saada tietoonsa syvyydestä, AI: tä käytetään jo vielä kehittyneempiin petoksiin. Nyt on ohjelmia, jotka voivat luoda väärennettyjä kasvoja ja väärennettyjä digitaalisia sormenjälkiäluodaan tehokkaasti koko henkilön kokoamiseen tarvittava tieto - ainakin yritys- tai valtion kirjauksissa.

Koneet oppivat edelleen

Tällä hetkellä näissä tekniikoissa on riittävästi mahdollisia virheitä, jotka antavat ihmisille mahdollisuuden havaita digitaalisia valmistuksia. Googlen Bachin säveltäjä teki joitakin virheitä asiantuntija voisi havaita. Esimerkiksi, kun yritin sitä, ohjelma antoi minulle mahdollisuuden tulla sisään rinnakkaiset viidennes, Bachin musiikkivälin välttää. Sovellus myös rikkoi musiikkisäännöt vastakohtaa harmonisoimalla melodiat väärään näppäimeen. Samoin OpenAI: n tekstinmuodostusohjelma kirjoitti ajoittain sellaisia ​​lauseita kuintulipalot veden alla”, Joka ei ollut järkevää heidän yhteyksissään.

Kun kehittäjät tekevät töitään, nämä virheet tulevat harvinaisemmiksi. Tehokkaasti AI-teknologiat kehittyvät ja oppivat. Parannettu suorituskyky voi tuoda monia sosiaalisia etuja - mukaan lukien parempaa terveydenhuoltoa, koska AI-ohjelmat auttavat demokratisoida lääketieteen käytäntöä.

Tutkijoiden ja yritysten vapauden tutkia, jotta nämä positiiviset saavutukset etsitään AI-järjestelmistä, avautuu riski kehittää kehittyneempiä tapoja luoda petoksia ja muita sosiaalisia ongelmia. AI-tutkimusten rajoittaminen voisi olla hillitä tätä edistystä. Mutta antaa hyödyllisiä tekniikoita tilaa kasvaa ei tule olemaan pieniä kustannuksia - ja mahdollinen väärinkäyttö, tekeekö epätarkkaa ”Bachin kaltaista” musiikkia tai pettää miljoonia, todennäköisesti kasvaa tavoilla, joilla ihmiset eivät vielä pysty ennakoimaan.Conversation

Author

Ana Santos Rutschman, apulaisprofessori, Saint Louis University

Tämä artikkeli julkaistaan ​​uudelleen Conversation Creative Commons -lisenssin alla. Lue alkuperäinen artikkeli.

Liittyvät kirjat

{amazonWS: searchindex = Kirjat; avainsanat = keinotekoinen älykkyys; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

seuraa InnerSelfia

facebook-kuvakeTwitter-kuvakeRSS-kuvake

Hanki uusimmat sähköpostitse

{Emailcloak = off}