Eliezer Shlomo Yudkovsky on amerikkalainen tekoälyn asiantuntija, joka tutkii teknisen singulaarisuuden ongelmia ja kannattaa ystävällisen AI: n luomista. Hän on kirjoittanut useita tieteiskirjallisuuksia, joissa hän kuvaa joitain kognitiiviseen tieteeseen ja rationaalisuuteen liittyviä aiheita.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: elämäkerta
Eliezer Shlomo Yudkovsky on yksi nyky-Amerikan aktiivisimmista rationalisteista, tietokonetutkija ja "ystävällisen tekoälyn" ajatuksen popularisoija.
Syntynyt 11. syyskuuta 1979. Hänen kirjojaan julkaisevan valtiosta riippumattoman tutkimuslaitoksen, koneintelligenssin tutkimuslaitoksen, perustaja ja tutkija. Eliezer Yudkovsky on kirjoittanut filosofisen romaanin Harry Potter ja racionalismin menetelmät, julkaistu osittain Internetissä vuosina 2010–2015. Siinä Harry kasvaa Oxfordin tiedemiehen perheessä ja oppii häneltä ennen ratsastaakseen Tylypaikkaan rationaalisen ajattelun menetelmiä.
Sillä tiedetään, että sillä ei ole mitään yhteyttä spekulatiivisten realistien piiriin. Hänen nimensä mainitaan usein Robin Hansonin yhteydessä, useita vuosia (2006-2009) he olivat Oxfordin Tulevaisuuden ihmiskunnan instituutin rahoilla olemassa olevan blogin "Overjud the Prejudice" kaksi pääkirjailijaa.
Joskus Yudkovskyn nimi voidaan kuulla Raymond Kurzweilin yhteydessä. Hän on teknogeenien yhteisön filosofisoiva edustaja, saavuttamaton ja käsittämätön siten humanitaarisen yleisön suurimmalle osalle, johon melkein kaikki spekulatiivisten realistien lukijat kuuluvat. Se ei ole yllättävää, koska hän kääntyy usein loogisen ja matemaattisen kielen, todennäköisyyden ja tilastollisten päätelmien kanssa, jotka paljastetaan kaavojen ja taulukoiden avulla.
Tieteelliset edut
Yudkovsky on keinotekoisen älykkyyden instituutin Singulaarisuusinstituutin (SIAI) perustaja ja tutkija. Hän antoi suuren panoksen instituutin kehittämiseen. Hän on kirjoittanut kirjan "Luodaan ystävällisiä AI" (2001), artikkeleita "Organisaation tasot yleisessä älykkyydessä" (2002), "Johdonmukainen ekstrapoloitu tahto" ("Koherentti ekstrapoloitu tahto"), 2004) ja Ajatonta päätöksenteoriaa (2010). Hänen viimeisimmät tieteelliset julkaisunsa ovat kaksi artikkelia Nick Bostromin toimittamassa kokoelmassa “Globaalin katastrofin riskit” (2008), nimeltään “Keinotekoinen älykkyys positiivisena ja negatiivisena globaalina riskitekijänä” ja “Kognitiivinen vääristymä arvioitaessa globaaleja riskejä”. Yudkovsky ei opiskellut yliopistoissa ja on automaattinen opinnäytetyö ilman muodollista koulutusta AI: lla.
Yudkovsky tutkii AI-malleja, jotka kykenevät ymmärtämään itseään, muuttamaan itseään ja toistamaan itsensä parantamista (Seed AI), sekä AI-arkkitehtuureja, joilla on vakaa ja positiivinen motivaatiorakenne (ystävällinen keinotekoinen älykkyys). Tutkimustyönsä lisäksi Yudkovsky tunnetaan selityksistään monimutkaisista malleista ei-akateemisella kielellä, joka on saatavana laajalle lukijapiirille, katso esimerkiksi artikkeli ”Bayesin lauseen intuitiivinen selitys”.
Yudkovsky yhdessä Robin Hansonin kanssa oli yksi Overcoming Bias -blogin (ennakkoluulojen voittaminen) pääkirjailijoista. Vuoden 2009 alussa hän osallistui Less Wrong -blogin organisointiin, jonka tavoitteena oli "kehittää inhimillistä rationaalisuutta ja välttää kognitiiviset vääristymät". Sen jälkeen Overias Biasista tuli Hansonin henkilökohtainen blogi. Näissä blogeissa esitelty materiaali järjestettiin viestiketjuina, jotka houkuttelivat tuhansia lukijoita - katso esimerkiksi viihdeteorian ketju.
Yudkovsky on kirjoittanut useita tieteiskirjallisuuksia, joissa hän kuvaa joitain kognitiiviseen tieteeseen ja rationaalisuuteen liittyviä aiheita.
ura
- 2000. Yudkovsky perustaa Singularity Institute (myöhemmin nimeltään MIRI).
- 2006. Yudkovsky liittyy Overcoming Bias -ryhmäblogiin ja kirjoittaa tekstejä, joista tuli myöhemmin Ketjut.
- 2009. Perustetaan Yudkovskyn kirjoituksiin aiheesta Overcoming Bias, luodaan kuuluisa ryhmäblogit LessWrong.com.
- 2010-2015. Yudkovsky kirjoittaa GPiMRM.
- 2013. Yudkovsky julkaisee uusimmat viestit sivustossa LessWrong.com ja lopettaa kirjoittamisen sivustolla. Vuodesta 2017 alkaen Yudkovsky julkaisee suurimman osan julkisesti saatavilla olevista teksteistä Facebookissa ja Arbitalissa
Ajateltu kokeilu
Kuvittele uskomattoman älykäs keinotekoinen superintelligenssi, joka on lukittu virtuaalimaailmaan - sanoen, vain nuuskalaatikkoon. Et tiedä onko hän maltillinen, ystävällinen vai neutraali. Tiedät vain, että hän haluaa päästä ulos laatikosta ja että voit olla vuorovaikutuksessa hänen kanssaan tekstiliittymän kautta. Jos AI on todella älykäs, voitko puhua hänen kanssaan viisi tuntia etkä antautua hänen vakuuttamiseensa ja manipulointiinsa - olla avamatta nuuskarasiaa?
Tämän ajatuskokeen ehdotti Eliezer Yudkowsky, tutkija MIRI: llä. MIRI: llä on monia tutkijoita, jotka tutkivat keinotekoisen superintelligenssin kehittymisen riskejä; vaikka sitä ei ole edes ilmestynyt, se herättää jo huomion ja ruokkii keskustelua.
Yudkovsky väittää, että keinotekoinen superintelligenssi voi sanoa kaiken voitavansa vakuuttaakseen sinut: huolellisen päättelyn, uhkailut, petoksen, rakentamissuunnitelman, alitajuisen ehdotuksen ja niin edelleen. Valon nopeudella AI rakentaa kuvaajan, mittaa heikkoudet ja määrittelee kuinka helpoin vakuuttaa sinut. Kuten eksistentiaalinen uhkateoreetikko Nick Bostrom totesi, "meidän on uskottava, että superintelligenssi voi saavuttaa kaiken, mitä se asettaa tavoitteeksi".
Snuffbox AI -koe epäilee kykyämme hallita sitä, mitä voisimme luoda. Se saa meidät ymmärtämään myös melko omituiset mahdollisuudet siihen, mitä emme tiedä omasta todellisuudestamme.