Жасанды интеллект. Екінші бөлім: жойылу немесе өлмеу?

Мазмұны:

Жасанды интеллект. Екінші бөлім: жойылу немесе өлмеу?
Жасанды интеллект. Екінші бөлім: жойылу немесе өлмеу?

Бейне: Жасанды интеллект. Екінші бөлім: жойылу немесе өлмеу?

Бейне: Жасанды интеллект. Екінші бөлім: жойылу немесе өлмеу?
Бейне: ЕҢ АҚЫЛДЫ 5 РОБОТ (2-БӨЛІМ) 2024, Наурыз
Anonim
Жасанды интеллект. Екінші бөлім: жойылу немесе өлмеу?
Жасанды интеллект. Екінші бөлім: жойылу немесе өлмеу?

Сіз бұрын «Күте тұрыңыз, мұның бәрі қалай шынайы болуы мүмкін, неге бұл туралы әлі әр бұрышта айтылмайды» сериясындағы мақаланың екінші бөлігі. Алдыңғы серияда интеллект жарылысы Жер планетасының адамдарына біртіндеп еніп келе жатқаны белгілі болды, ол тар бағытталған интеллектке және ақырында жасанды супер интеллектке дейін дамуға тырысады.

«Мүмкін, біз өте күрделі мәселеге тап болып отырмыз және оны шешуге қанша уақыт бөлінетіні белгісіз, бірақ адамзаттың болашағы оның шешіміне байланысты болуы мүмкін». - Ник Бостром.

Мақаланың бірінші бөлігі жазықсыз басталды. Біз тар бағытталған жасанды интеллект (маршруттарды анықтау немесе шахмат ойнау сияқты белгілі бір мәселені шешуге маманданған AI) туралы талқыладық, бұл біздің әлемде өте көп. Содан кейін олар жалпы бағытты жасанды интеллекті (интеллектуалдылық тұрғысынан кез келген мәселені шешуде адаммен салыстыруға болатын AI) өсіру неге соншалықты қиын екенін талдады. Біз технологиялық прогресстің экспоненциалды жылдамдығы жақын арада AGI жақында болатынын көрсетеді деген қорытындыға келдік. Ақырында, біз машиналар адам интеллектіне жеткеннен кейін бірден мыналар болуы мүмкін деп шештік:

Кескін
Кескін
Кескін
Кескін
Кескін
Кескін
Кескін
Кескін

Әдеттегідей, біз экранға қараймыз, жасанды супер интеллект (кез келген адамға қарағанда әлдеқайда ақылды) ISI біздің өмірімізде пайда болатынына сенбейміз және осы мәселе бойынша біздің пікірімізді көрсететін эмоцияларды таңдаймыз.

ISI ерекшеліктеріне тоқталмас бұрын, машинаның өте ақылды болуы нені білдіретінін еске салайық.

Негізгі айырмашылық жылдам супер интеллект пен сапалы супер интеллект арасында. Көбінесе, интеллектуалды компьютер туралы ойлағанда, ол адамға қарағанда әлдеқайда жылдам ойлауы мүмкін - миллиондаған есе жылдам, және бес минут ішінде адамға он жыл қажет болатынын түсінеді. («Мен кунг -фуды білемін!»)

Бұл әсерлі естіледі, және ISI шынымен де кез келген адамға қарағанда тезірек ойлауы керек - бірақ басты ерекшелігі оның интеллектінің сапасы болады, ол мүлде басқа. Адамдар маймылдарға қарағанда әлдеқайда ақылды, себебі олар тез ойлайды, бірақ олардың миында маймылдар қабілетсіз күрделі тілдік бейнелеуді, ұзақ мерзімді жоспарлауды, дерексіз ойлауды жүзеге асыратын көптеген танымдық модульдер бар. Егер сіз маймылдың миын мың есе тездетсеңіз, ол бізден ақылды болмайды - он жылдан кейін де ол нұсқаушыға сәйкес конструкторды жинай алмайды, бұл адамға бір -екі сағаттан аспайды. Маймыл қанша сағат жұмсаса да, миы қаншалықты жылдам жұмыс жасаса да, ешқашан үйренбейтін нәрселер бар.

Сонымен қатар, маймыл қаншалықты адамгершілік екенін білмейді, өйткені оның миы басқа әлемдердің бар екенін сезіне алмайды - маймыл адамның не екенін және көк тірегеннің не екенін білуі мүмкін, бірақ ол зәулім ғимараттың салынғанын ешқашан түсінбейді. адамдар Оның әлемінде бәрі табиғатқа тиесілі, макака тек зәулім ғимарат тұрғызып қана қоймай, оны кез келген адам тұрғыза алатынын түсінеді. Және бұл интеллект сапасының шамалы айырмашылығының нәтижесі.

Біз айтып отырған интеллектінің жалпы схемасында немесе биологиялық тіршілік иелерінің стандарттары бойынша адам мен маймыл арасындағы интеллект сапасының айырмашылығы шамалы. Алдыңғы мақалада биологиялық танымдық қабілеттерді баспалдаққа қойдық:

Кескін
Кескін

Супер интеллектуалды машинаның қаншалықты маңызды болатынын түсіну үшін оны баспалдақтағы адамнан екі саты жоғары қойыңыз. Бұл машина өте ақылды болуы мүмкін, бірақ оның танымдық қабілеттерімізден артықшылығы біздікімен бірдей болады - маймылдардан. Шимпанзе де зәулім ғимарат салуға болатынын ешқашан түсінбейтіні сияқты, егер машина бізге түсіндіруге тырысса да, біз бірнеше саты жоғары тұрған машинаны түсінетінін ешқашан түсінбеуіміз мүмкін. Бірақ бұл бір -екі қадам. Ақылды машина біздің ішімізде құмырсқаларды көреді - ол бізге көптеген жылдар бойы өз орнынан қарапайым нәрселерді үйретеді және бұл әрекеттер мүлдем үмітсіз болады.

Біз бүгін айтатын супер интеллект түрі бұл баспалдақтан әлдеқайда алыс. Бұл ақылдылықтың жарылуы - машина ақылды болған кезде, ол өзінің интеллектісін тез арттыра алады, бірте -бірте импульсті арттырады. Мұндай машинаның интеллектуалдығы бойынша шимпанзеден асып түсуі үшін бірнеше жыл қажет болуы мүмкін, бірақ бізден бірнеше сатыдан асып түсу үшін бірнеше сағат қажет болуы мүмкін. Осы сәттен бастап машина секундына төрт сатыдан жоғары секіре алады. Сондықтан біз машинаның адами интеллект деңгейіне жеткені туралы алғашқы хабар пайда болғаннан кейін көп ұзамай біз осы баспалдақта бізден әлдеқайда жоғары болатын нәрсемен жер бетінде өмір сүру шындығына кезігуіміз мүмкін екенін түсінуіміз керек. және миллиондаған есе жоғары):

Кескін
Кескін

Бізден екі саты жоғары машинаның қуатын түсінуге тырысудың мүлдем пайдасыз екенін анықтағаннан кейін, ISI не істейтінін және оның салдары қандай болатынын түсінудің ешқандай жолы жоқ екенін біржолата анықтайық. бұл біз үшін болады. Керісінше деп санайтын кез келген адам супер интеллект нені білдіретінін түсінбейді.

Эволюция жүздеген миллион жылдар бойы биологиялық миды баяу және біртіндеп дамытты, ал егер адамдар супер ақылды машинаны жасаса, біз мағынада эволюциядан асып түсеміз. Немесе бұл эволюцияның бір бөлігі болады - мүмкін эволюция интеллект біртіндеп дамып, барлық тіршілік иелерінің жаңа болашағы туралы хабар беретін бұрылыс нүктесіне жеткенше жұмыс істейді:

Кескін
Кескін

Біз кейінірек талқылайтын себептерге байланысты, ғылыми қоғамдастықтың үлкен бөлігі мәселе біздің бұл нүктеге жетуімізде емес, қашан жетуімізде деп санайды.

Осыдан кейін қайда барамыз?

Менің ойымша, бұл әлемде ешкім де, мен де, сіз де, біз нүктеге жеткенде не болатынын айта алмаймыз. Оксфорд философы және жетекші AI теоретигі Ник Бостром мүмкін болатын нәтижелерді екі үлкен категорияға бөлуге болады деп есептейді.

Біріншіден, тарихқа үңіле отырып, біз өмір туралы мынаны білеміз: түрлер пайда болады, белгілі бір уақытқа дейін өмір сүреді, содан кейін міндетті түрде тепе -теңдіктің сәулесінен түсіп, өледі.

Кескін
Кескін

«Барлық түрлер өледі» тарихта «барлық адамдар бір күні өледі» сияқты сенімді ереже болды. Түрлердің 99,9% -ы тіршілік журналынан құлаған, және егер бұл ағаш ұзақ уақыт бойы ілініп тұрса, табиғи желдің екпіні немесе кенеттен астероид бөренені аударып жіберетіні анық. Bostrom жоғалуды аттракционның күйі деп атайды - бұл барлық түрлердің әлі қайтып келмеген жерге құлап кетпеуі үшін тепе -теңдік сақтайтын орны.

Ғалымдардың көпшілігі ISI -дің адамдарды жойып жіберу мүмкіндігіне ие болатынын мойындағанымен, көптеген адамдар ISI мүмкіндіктерін пайдалану индивидтерге (және тұтастай алғанда түрге) аттракционердің екінші күйіне - түрдің өлмейтіндігіне қол жеткізуге мүмкіндік береді деп санайды. Бостром түрдің өлместігі түрдің жойылуындай тартқыш болып есептеледі, яғни егер біз бұған жетсек, біз мәңгілік өмір сүруге бейім боламыз. Осылайша, егер осы уақытқа дейін барлық түрлер осы таяқшадан жойылып бара жатса да, Бостром бөрененің екі жағы бар деп есептейді, ал басқа жаққа қалай түсуге болатынын түсінетін интеллект Жерде пайда болған жоқ.

Кескін
Кескін

Егер Bostrom және басқалар дұрыс болса және бізде бар ақпаратқа сүйенсек, олар солай болуы мүмкін, біз таң қалдыратын екі фактіні қабылдауымыз керек:

Тарихта бірінші рет ISI пайда болуы түрдің өлместікке жетуіне және өлімге әкелетін жойылу циклінен шығуына жол ашады.

ISI -дің пайда болуы адамзатты бұл бөренеден бір бағытта немесе басқа жаққа итермелейтін үлкен әсер етеді.

Мүмкін, эволюция осындай бетбұрыс кезеңіне жеткенде, ол әрқашан адамдардың өмір ағымымен қарым -қатынасына нүкте қояды және адамдармен немесе оларсыз жаңа әлем құрады.

Бұл қызықты сұраққа әкеледі, оны тек бумер сұрамайды: біз бұл нүктеге қашан жетеміз және ол бізді қайда қояды? Бұл қос сұрақтың жауабын әлемде ешкім білмейді, бірақ көптеген ақылды адамдар ондаған жылдар бойы оны анықтауға тырысты. Мақаланың қалған бөлігінде біз олардың қайдан шыққанын анықтаймыз.

* * *

Бұл сұрақтың бірінші бөлігінен бастайық: еңсеру нүктесіне қашан жетуіміз керек? Басқаша айтқанда: бірінші машина супер интеллектке жеткенше қанша уақыт қалды?

Пікірлер әр жағдайда әр түрлі болады. Профессор Вернор Винге, ғалым Бен Герцель, Sun Microsystems негізін қалаушы Билл Джой, футуролог Рэй Курцвейл сияқты көптеген адамдар TED Talk-те келесі графикті ұсынған кезде машина үйрену бойынша сарапшы Джереми Ховардпен келіскен:

Кескін
Кескін

Бұл адамдар ISI жақында келеді деген көзқараспен бөліседі - бұл экспоненциалды өсу, бізге баяу көрінеді, алдағы бірнеше онжылдықтарда сөзсіз жарылады.

Басқалары, мысалы, Microsoft негізін қалаушы Пол Аллен, зерттеуші психолог Гари Маркус, компьютерлік сарапшы Эрнест Дэвис және технологиялық кәсіпкер Митч Капор, Курцвейл сияқты ойшылдар мәселенің мәнін елеусіз бағалайды деп ойлайды және біз онша жақын емеспіз деп ойлайды. бұрылу нүктесі.

Курцвейлдің лагері экспоненциалды өсуді елемеу болып табылады, ал күмәнданушыларды 1985 жылы баяу қарқынмен дамып келе жатқан интернетке қарап, оның жақын арада әлемге ешқандай әсері болмайтынын айтқан адамдармен салыстыруға болатынын айтады.

Күмән келтірушілер технологиялық прогрестің типтік экспоненциалды бейтараптандыратын интеллектінің экспоненциалды дамуы туралы айтатын болсақ, әрбір келесі қадамға ілгерілеу қиынырақ болады деп ойламауы мүмкін. Тағыда басқа.

Ник Бостром орналасқан үшінші лагерь, біріншісімен де, екіншісімен де келіспейді, олар: а) мұның бәрі жақын арада болуы мүмкін; және б) бұл мүлде болатынына немесе одан да ұзақ уақытқа кепілдік жоқ.

Басқалары, философ Хуберт Дрейфус сияқты, барлық үш топ та құлдырау нүктесі болатынына және біз ISI -ге ешқашан жете алмайтынымызға сенеді деп сенеді.

Осы пікірлердің бәрін қосқанда не болады?

2013 жылы Bostrom сауалнама жүргізді, онда ол келесі тақырыптағы конференциялар сериясында AI -дің жүздеген сарапшыларынан сұхбат алды: «Адамдық деңгейдегі AGI -ге жету үшін сіздің болжамыңыз қандай?» және бізден оптимистік жыл (бізде 10 % мүмкіндігі бар AGI болады), шынайы болжам (бізде 50 % ықтималдығы бар AGI болатын жыл) және сенімді болжамды (ең алғашқы жылы болатын) атауды сұрады. AGI 90 пайыздық ықтималдылықтан бастап пайда болады). Міне нәтижелер:

* Орташа оптимистік жыл (10%): 2022 ж

* Орташа нақты жыл (50%): 2040 ж

* Орташа пессимистік жыл (90%): 2075 ж

Орташа респонденттер 25 жылдан кейін бізде AGI болмайды деп ойлайды. 2075 жылға қарай AGI пайда болуының 90 пайыздық мүмкіндігі, егер сіз әлі де жас болсаңыз, бұл сіздің өміріңізде болады.

Жақында Джеймс Баррат жүргізген жеке зерттеу (әйгілі «Біздің соңғы өнертабыс» кітабының авторы, үзінділер Мен оқырмандардың назарына ұсындым Hi-News.ru) мен Бен Герцель AGI конференциясында, AGI жыл сайынғы конференциясында адамдардың AGI-ге қай жылы жететініміз туралы пікірін көрсетті: 2030, 2050, 2100, кейінірек немесе ешқашан. Міне нәтижелер:

* 2030: респонденттердің 42%

* 2050: 25%

* 2100: 20%

2100 -ден кейін: 10%

Ешқашан: 2%

Bostrom нәтижелеріне ұқсас. Барраттың сауалнамасында сауалнамаға қатысқандардың үштен екісінен астамы AGI 2050 жылға дейін болады деп сенеді, ал жартысынан азы AGI келесі 15 жылда пайда болады деп сенеді. Респонденттердің тек 2% -ы, әдетте, біздің болашақта AGI көрмейтінін таң қалдырады.

Бірақ AGI ISI сияқты құлдырау нүктесі емес. Сарапшылардың пікірінше, бізде ISI қашан болады?

Bostrom сарапшылардан біз ASI -ге қашан жететінімізді сұрады: а) AGI -ге жеткеннен кейін екі жыл өткен соң (яғни, бірден интеллект жарылысына байланысты); б) 30 жылдан кейін Нәтижелер?

Орташа пікір - AGI -ден ISI -ге жылдам ауысу 10% ықтималдықпен болады, бірақ 30 жылдан кейін немесе одан аз уақытта 75% ықтималдықпен болады.

Бұл мәліметтерден біз респонденттер ASI -дің 50 % ықтималдығы деп қандай күнді атайтынын білмейміз, бірақ жоғарыдағы екі жауапқа сүйене отырып, бұл 20 жыл деп есептейік. Яғни, AI -ның әлемдегі жетекші мамандары 2060 жылы бетбұрыс кезеңі келеді деп есептейді (AGI 2040 жылы пайда болады + AGI -ден ISI -ге көшу үшін 20 жыл қажет).

Кескін
Кескін

Әрине, жоғарыда келтірілген статистиканың барлығы алыпсатарлық сипатта және жасанды интеллект саласындағы сарапшылардың пікірін білдіреді, бірақ олар сонымен қатар қызығушылық танытқан адамдардың көпшілігінің 2060 жылға қарай АИ келуі мүмкін екендігімен келісетіндігін көрсетеді. Небәрі 45 жылда.

Екінші сұраққа көшейік. Біз бұрылу нүктесіне жеткенде, өлімге әкелетін таңдаудың қай жағы бізді анықтайды?

Superintelligence ең қуатты күшке ие болады, және біз үшін маңызды сұрақ келесідей болады:

Бұл билікті кім немесе не басқарады және олардың мотивациясы қандай болады?

Бұл сұрақтың жауабы ISI керемет қуатты дамуға, өлшеусіз қорқынышты дамуға немесе олардың арасындағы нәрсеге байланысты болады.

Әрине, сарапшылар қауымдастығы бұл сұрақтарға да жауап беруге тырысады. Bostrom сауалнамасы AGI -ның адамзатқа әсер етуінің ықтимал салдарының ықтималдығын талдады, және 52 % мүмкіндікте бәрі жақсы болады, ал 31 % -да бәрі нашар немесе өте нашар болады. Сіздердің араларыңызда, Hi-News-тың құрметті оқырмандары, осы тақырыптың алдыңғы бөлігінің соңында берілген сауалнама дәл осындай нәтижелерді көрсетті. Салыстырмалы бейтарап нәтиже үшін ықтималдылық 17%ғана болды. Басқаша айтқанда, біз бәріміз AGI үлкен мәселе болатынына сенеміз. Бұл сауалнама AGI пайда болуына қатысты екенін атап өткен жөн - ISI жағдайында бейтараптық пайызы төмен болады.

Сұрақтың жақсы және жаман жақтары туралы терең ойланбас бұрын, сұрақтың екі жағын біріктірейік - «бұл қашан болады?». және «бұл жақсы ма, жаман ба?» көптеген сарапшылардың пікірлерін қамтитын кестеге.

Кескін
Кескін

Біз бір минуттан кейін негізгі лагерь туралы сөйлесеміз, бірақ алдымен сіздің позицияңызды шешіңіз. Мүмкін, сіз осы тақырыпта жұмыс жасамас бұрын мен сияқты болдыңыз. Адамдардың бұл тақырып туралы мүлдем ойламауының бірнеше себептері бар:

* Бірінші бөлімде айтылғандай, фильмдер жасанды интеллектпен шындыққа жанаспайтын сценарийлерді көрсете отырып, адамдар мен фактілерді қатты шатастырды, бұл бізді интеллектке мүлдем мән бермеуімізге әкелді. Джеймс Баррат бұл жағдайды біздің ауруларды бақылау орталығымен (CDC) біздің болашақта вампирлер туралы байыпты ескертумен салыстырды.

* Когнитивті қиғаштық деп аталатындықтан, бізде дәлел болмайынша, бір нәрсенің шынайы екеніне сену өте қиын. 1988 жылғы компьютерлік ғалымдар Интернеттің салдары мен оның салдары туралы үнемі талқылайтынын сенімді түрде елестетуге болады, бірақ адамдар бұл өмірді шынымен болғанша өзгертетініне сенбеді. Тек 1988 жылы компьютерлер мұны қалай жасау керектігін білмеді, ал адамдар компьютерлеріне қарап: «Шынымен де? Бұл әлемді өзгертетін нәрсе ме? » Олардың қиялдары жеке тәжірибеден алған білімдерімен шектелді, олар компьютердің не екенін білді және болашақта компьютердің қандай қабілетті болатынын елестету қиын болды. Дәл қазір AI -мен де солай болып жатыр. Біз бұл маңызды нәрсеге айналады деп естідік, бірақ біз оны әлі бетпе -бет кездестірмегендіктен және, әдетте, біздің қазіргі әлемде АИ -нің әлсіз көріністерін байқайтындықтан, оның түбегейлі болатынына сену бізге қиын. өмірімізді өзгерту. Барлық лагерьлердің көптеген мамандары, сондай -ақ қызығушылық танытқан адамдар күнделікті ұжымдық эгоцентризмнің шуы арқылы біздің назарымызды аударуға тырысады.

* Егер біз осының бәріне сенген болсақ та - сіз мәңгіліктің қалғанын жоқтықта өткізетіндігіңіз туралы бүгін қанша рет ойладыңыз? Аз, келісемін. Тіпті егер бұл факт күндіз -түні жасайтын нәрселерден әлдеқайда маңызды. Себебі, біздің миымыз, әдетте, ұзақ уақытқа созылатын жағдайға қарамастан, қаншалықты алдамшы болса да, күнделікті қарапайым нәрселерге бағытталған. Тек біз жаратылғанбыз.

Бұл мақаланың мақсаттарының бірі - сізді «басқа нәрселер туралы ойланғанды ұнатамын» деп аталатын лагерден шығару және сізді алаңдағы екі нүктелі сызықтың қиылысында тұрсаңыз да, сарапшылар лагеріне орналастыру. жоғарыда, толығымен шешілмеген.

Зерттеу барысында адамдардың көпшілігінің пікірі «негізгі лагерьге» тез ауысатыны белгілі болды, ал мамандардың төрттен үш бөлігі негізгі лагерьдегі екі қосалқы лагерге түседі.

Кескін
Кескін

Біз бұл екі лагерьге де толық барамыз. Көңілдіден бастайық.

Неліктен болашақ біздің ең үлкен арманымыз болуы мүмкін?

Біз AI әлемін зерттей отырып, таңғажайып көптеген адамдарды біздің жайлылық аймағында кездестіреміз. Жоғарғы оң жақ алаңдағы адамдар толқып жатыр. Олар бөрененің жақсы жағына түсеміз деп сенеді, сонымен қатар біз бұған сөзсіз келеміз деп сенеді. Олар үшін болашақ тек армандауға болатын ең жақсы нәрсе.

Бұл адамдардың басқа ойшылдардан ерекшелігі олардың бақытты болғысы келетіндігінде емес, олар бізді күтіп тұрғанына сенімді екендігінде.

Бұл сенім дау -дамайдан туындайды. Сыншылар бұл әлеуетті жағымсыз жақтарын көлеңкелейтін керемет толқудан туындайды деп санайды. Бірақ жақтаушылар мұңды болжамдар әрқашан ақымақтық дейді; технология жалғасуда және бізге зиян келтіруден гөрі әрқашан көмектеседі.

Сіз бұл пікірлердің кез келгенін таңдай аласыз, бірақ скептицизмді қойып, сіз оқығанның бәрі бұрыннан болғанын мойындауға тырысыңыз. Егер сіз аңшы жинаушыларға біздің жайлылықты, технологияны және шексіз молшылық әлемін көрсетсеңіз, оларға сиқырлы фантастика болып көрінер еді - және біз өзімізді қарапайым түрде ұстаймыз, бізді болашақта дәл осындай түсініксіз өзгеріс күтетінін мойындай алмаймыз.

Ник Бостром интеллектуалды интеллектуалды жүйенің үш жолын сипаттайды:

* Кез келген нақты сұраққа, соның ішінде адамдар жауап бере алмайтын күрделі сұрақтарға жауап бере алатын оракуль - мысалы, «автомобиль қозғалтқышын қалай тиімді ету керек?» Google - бұл «ораклдың» қарабайыр түрі.

* Кез келген жоғары деңгейлі команданы орындайтын - автомобиль қозғалтқышының жаңа, тиімдірек нұсқасын жасау үшін молекулярлық ассемблерді қолдана отырып, келесі команданы күтетін жын.

* Дүние жүзінде еркін жұмыс істеуге, жеке шешімдер қабылдауға және процесті жақсартуға мүмкіндіктері бар егемен. Ол автокөліктен гөрі жеке тасымалдаудың арзан, жылдам және қауіпсіз жолын ойлап табады.

Бізге қиын болып көрінетін бұл сұрақтар мен тапсырмалар супер интеллектуалды жүйеге біреу «менің қарындашым үстелден құлап кетті» деген жағдайды жақсартуды сұрағандай болып көрінеді, оны сіз жай ғана алып, қайта қоясыз.

Элиезер Юдковски, жасанды интеллект бойынша американдық маман:

«Ешқандай күрделі проблемалар жоқ, тек белгілі бір деңгейдегі интеллект үшін қиын мәселелер. Бір саты жоғарылаңыз (интеллект тұрғысынан), және кейбір мәселелер кенеттен «мүмкін емес» санатынан «айқын» лагеріне ауысады. Бір қадам жоғары - және олардың бәрі айқын болады ».

Біздің үстелден сенімді жайлылық аймағын таңдаған көптеген шыдамсыз ғалымдар, өнертапқыштар мен кәсіпкерлер бар, бірақ бізге осы әлемдегі ең жақсысында жүру үшін бір ғана нұсқаулық қажет.

Рэй Курцвейл екіұшты. Кейбіреулер оның идеяларын пұтқа табады, кейбіреулер оны жек көреді. Кейбіреулер ортада қалады - Дуглас Хофстадтер Курцвейлдің кітаптарының идеяларын талқылап, «сіз көп жақсы тамақ пен кішкене иттің нәжісін алып, сосын бәрін түсіну мүмкін болмайтындай етіп араластырғандай боласыз» деп шешендікпен атап өтті. не жақсы, не жаман ».

Сіз оның идеяларын ұнатасыз ба, жоқ па, оларды қызығушылықсыз өткізуге болмайды. Ол жасөспірім кезінде заттарды ойлап таба бастады, ал келесі жылдары ол бірнеше маңызды заттарды ойлап тапты, оның ішінде бірінші планшетті сканер, мәтінді сөйлеуге түрлендіретін бірінші сканер, әйгілі Курцвейл музыкалық синтезаторы (алғашқы нағыз электр пианино) және алғашқы коммерциялық табысты сөйлеуді танушы. Ол сонымен қатар бес сенсациялық кітаптың авторы. Курцвейл өзінің батыл болжамдары үшін бағаланады және оның рекорды өте жақсы - 80 -ші жылдардың аяғында, Интернет әлі дамымаған кезде, ол 2000 -шы жылдары Интернет ғаламдық құбылысқа айналады деп болжаған. Wall Street Journal Курцвейлді «мазасыз гений» деп атады, Forbes «жаһандық ойлау машинасы», Inc. Журнал - «Эдисонның заңды мұрагері», Билл Гейтс - «жасанды интеллект болашағын болжайтындардың ең жақсысы». 2012 жылы Google негізін қалаушы Ларри Пейдж Курцвейлді CTO қызметіне шақырды. 2011 жылы ол NASA орналастырған және ішінара Google демеушілік ететін Singularity университетін құрды.

Оның өмірбаяны маңызды. Курцвейл өзінің болашаққа деген көзқарасы туралы айтқан кезде, бұл ақылға қонымсыз сияқты естіледі, бірақ оның ақылға сыймайтын жері - ол ақылсыздықтан алыс - ол керемет ақылды, білімді және саналы адам. Сіз оның болжамында қателескен деп ойлауыңыз мүмкін, бірақ ол ақымақ емес. Курцвейлдің болжамдарын жайлылық аймағының көптеген сарапшылары Питер Диамандис пен Бен Герцель бөліседі. Бұл болады деп ойлайды.

Хронология

Курцвейл компьютерлер 2029 жылға қарай жалпы жасанды интеллект (AGI) деңгейіне жетеді деп есептейді, ал 2045 жылға қарай бізде жасанды супер интеллект ғана емес, сонымен қатар мүлдем жаңа әлем - сингулярлық деп аталатын уақыт болады. Оның АИ хронологиясы әлі де шамадан тыс әсіреленген болып саналады, бірақ соңғы 15 жыл ішінде жоғары бағытталған жасанды интеллект (AI) жүйелерінің тез дамуы көптеген мамандарды Курцвейлге қосылуға мәжбүр етті. Оның болжамдары Bostrom сауалнамасына (2040 жылға қарай AGI, 2060 жылға қарай ISI) қарағанда әлдеқайда өршіл, бірақ көп емес.

Курцвейлдің айтуынша, 2045 жылғы сингулярлыққа биотехнология, нанотехнология және, ең бастысы, AI бір мезгілде үш революция әсер етеді. Бірақ жалғастырмас бұрын - және нанотехнология жасанды интеллектке жақын - нанотехнологияға бір сәт бөлейік.

Кескін
Кескін

Нанотехнология туралы бірнеше сөз

Біз әдетте нанотехнологияларды 1-100 нанометр диапазонында затпен жұмыс жасаумен айналысатын технологиялар деп атаймыз. Нанометр - метрдің миллиардтан бір бөлігі немесе миллиметрдің миллионнан бір бөлігі; 1-100 нанометр диапазонында вирустар (диаметрі 100 нм), ДНҚ (ені 10 нм), гемоглобин молекулалары (5 нм), глюкоза (1 нм) және басқаларды орналастыруға болады. Егер нанотехнология бізге бағынатын болса, келесі қадам - шамасы бір ретті (~ 1 нм) аспайтын жекелеген атомдарды манипуляциялау.

Адамдар мұндай масштабта материяны өңдеуге тырысатын қиындықтарға тап болатынын түсіну үшін, кеңірек масштабқа көшейік. Халықаралық ғарыш станциясы Жерден 481 километр биіктікте. Егер адамдар алыптар болып, ХҒС -ты басымен ұрса, олар қазіргіден 250 000 есе үлкен болар еді. Егер сіз кез келген нәрсені 1 -ден 100 нанометрге дейін 250 000 есе үлкейтсеңіз, сіз 2,5 сантиметр аласыз. Нанотехнология - бұл ХҒС -ты айналатын, құм түйірі немесе көз алмасы тәрізді заттарды басқаруға тырысатын адамның баламасы. Келесі деңгейге өту үшін - жекелеген атомдарды басқару - алпауыт диаметрі 1/40 миллиметр болатын заттарды мұқият орналастыруға мәжбүр болады. Оларды көру үшін қарапайым адамдарға микроскоп қажет болады.

Алғаш рет Ричард Фейнман нанотехнология туралы 1959 ж. Содан кейін ол: «Менің түсінуімше, физиканың принциптері заттарды атоммен басқару мүмкіндігіне қарсы айтпайды. Негізінде физик химик жазған кез келген химиялық заттарды синтездей алады. Қалай? Химик затты алуды талап ететін атомдарды орналастыру арқылы ». Бұл бүкіл қарапайымдылық. Егер сіз жеке молекулаларды немесе атомдарды қалай жылжытуды білсеңіз, сіз кез келген нәрсені жасай аласыз.

Нанотехнология 1986 жылы инженер Эрик Дрекслер өзінің негізін өзінің Машиналар жасау кітабында ұсынған кезде елеулі ғылыми салаға айналды, бірақ Дрекслердің өзі нанотехнологиядағы заманауи идеялар туралы көбірек білгісі келетіндер оның 2013 жылғы кітабын оқу керек деп санайды. Толық молшылық «(Радикал Молшылық).

«Сұр Гу» туралы бірнеше сөз

Біз нанотехнологияға тереңірек үңілеміз. Нақтырақ айтсақ, «сұр гу» тақырыбы нанотехнология саласындағы өте жағымды емес тақырыптардың бірі болып табылады, оны елемеуге болмайды. Нанотехнология теориясының ескі нұсқалары бір нәрсені жасау үшін бірге жұмыс істейтін триллиондаған кішкентай нанороботтарды құруды қамтитын нано-жинақтау әдісін ұсынды. Триллион нанороботтарды құрудың бір жолы-өздігінен қайталанатын, яғни бірден екіге дейін, екіден төртке дейін және т.б. Бір күнде бірнеше триллион наноробот пайда болады. Бұл экспоненциалды өсудің күші. Күлкілі, солай емес пе?

Бұл күлкілі, бірақ дәл апокалипсиске дейін. Мәселе мынада, экспоненциалды өсудің күші, бұл оны триллион наноботтарды тез құрудың өте ыңғайлы әдісі етеді, ұзақ мерзімді перспективада өзін-өзі қайталауды қорқынышты етеді. Егер жүйе бұзылып, екі триллионға репликацияны тоқтатудың орнына наноботтар көбейе берсе ше? Егер бұл процесс көміртекке тәуелді болса ше? Жер биомассасында 10 ^ 45 көміртек атомы бар. Нанобот 10 ^ 6 көміртек атомының тәртібінде болуы керек, сондықтан 10 ^ 39 нанобот Жердегі барлық тіршілікті 130 репликацияда жейді. Наноботтар мұхиты («сұр гу») планетаны басып кетеді. Ғалымдар наноботтар 100 секундта қайталана алады деп ойлайды, яғни қарапайым қате Жердегі барлық тіршілікті небәрі 3,5 сағатта өлтіреді.

Одан да нашар болуы мүмкін - егер лаңкестер мен қолайсыз мамандар нанотехнологияның қолына жетсе. Олар бірнеше триллион наноботтар құрып, оларды бір -екі аптадан кейін бүкіл әлемге тыныш таратуға бағдарламалай алады. Содан кейін, бір түймені басқанда, небәрі 90 минут ішінде олар ешнәрсені мүлде жейді.

Бұл қорқынышты оқиға көптеген жылдар бойы талқыланса да, жақсы жаңалық - бұл жай ғана қорқынышты оқиға. «Сұр гу» терминін енгізген Эрик Дрекслер жақында мынаны айтты: «Адамдар қорқынышты оқиғаларды жақсы көреді және бұл зомби қорқынышты оқиғалардың бірі. Бұл идея өздігінен миды жейді ».

Нанотехнологияның түбіне жеткен соң, біз оны техникалық құрылғыларды, киімдерді, тағамдарды, биоқондырғыларды - қан жасушаларын, вирустар мен қатерлі ісіктерге қарсы, бұлшықет тіндерін және т.б. Нанотехнологияны қолданатын әлемде материалдың құны оның жетіспеушілігіне немесе өндіріс процесінің күрделілігіне байланысты болмайды, керісінше оның атомдық құрылымының күрделілігіне байланысты болады. Нанотехнологиялар әлемінде алмаз өшіргіштен арзан болуы мүмкін.

Біз әлі жақындаған жоқпыз. Біз бұл жолдың күрделілігін бағаламаймыз немесе асыра бағалаймыз ба, мүлдем түсініксіз. Дегенмен, бәрі нанотехнология алыс емес екеніне дейін барады. Курцвейл 2020 жылға қарай бізде болады деп болжайды. Әлемдік мемлекеттер нанотехнологияның үлкен болашаққа уәде бере алатынын біледі, сондықтан олар оған миллиардтаған инвестиция салуда.

Егер наноөлшемді сенімді жинақтаушыға ие болса, супер интеллектуалды компьютер қандай мүмкіндіктерге ие болатынын елестетіп көріңіз. Бірақ нанотехнология - бұл біздің идеямыз, және біз оған мінуге тырысамыз, бұл бізге қиын. Егер олар ISI жүйесі үшін әзіл болса, ал ISI өзі біз ойлағаннан әлдеқайда күшті технологияларды ойлап тапса ше? Біз келістік: ешкім жасанды супер интеллектке не қабілетті екенін елестете алмайды? Біздің миымыз не болатынын тіпті болжай алмайды деп есептеледі.

AI бізге не істей алады?

Кескін
Кескін

Супер интеллект және барлық бар технологиялармен қаруланған ISI, мүмкін, адамзаттың барлық мәселелерін шеше алады. Жаһандық жылыну? ISI алдымен көмірқышқыл газын шығаруды тоқтатады, ол қазба отынмен байланысты емес энергия өндірудің көптеген тиімді әдістерін ойлап табады. Содан кейін ол атмосферадан СО2 -нің артық мөлшерін шығарудың тиімді, инновациялық әдісін ойлап табады. Қатерлі ісік және басқа аурулар? Мәселе емес - денсаулық сақтау мен медицина ойға келмейтіндей өзгереді. Әлемдегі аштық? ISI нанотехнологияны қолдана отырып, натуралды, нағыз етке ұқсас ет жасайды.

Нанотехнология үйілген қоқысты жаңа піскен етке немесе басқа тағамға айналдыра алады (міндетті түрде тіпті өзінің әдеттегі түрінде емес - алып алманың текшесін елестетіп көріңіз) және осы тағамның барлығын жетілдірілген тасымалдау жүйелерінің көмегімен бүкіл әлем бойынша таратуға мүмкіндік алады. Әрине, бұл тамақ үшін өлуге тура келмейтін жануарлар үшін керемет болады. ISI сонымен қатар жойылып кету қаупі төнген түрлерді сақтау немесе сақталған ДНҚ -дан жойылып кеткендерді қайтару сияқты басқа да көптеген нәрселерді жасай алады. ISI біздің ең күрделі макроэкономикалық мәселелерді шеше алады - біздің ең күрделі экономикалық пікірталастар, этикалық және философиялық мәселелер, жаһандық сауда - мұның бәрі ISI үшін ауыр болады.

Бірақ ISI біз үшін жасай алатын ерекше нәрсе бар. Барлық нәрсені өзгертетін тартымды және тартымды: ISI бізге өліммен күресуге көмектеседі … АИ мүмкіндіктерін біртіндеп түсіне отырып, мүмкін сіз өлім туралы барлық ойларыңызды қайта қарайтын боларсыз.

Біздің өмір сүру ұзақтығын қазіргіден ұзартуға эволюцияның ешқандай себебі жоқ еді. Егер біз бала туып, бала асырап алатындай ұзақ өмір сүретін болсақ, эволюция жеткілікті. Эволюциялық тұрғыдан алғанда, даму үшін 30+ жыл жеткілікті, ал мутацияның өмірді ұзартуға және табиғи сұрыпталудың құндылығын төмендетуге ешқандай негіз жоқ. Уильям Батлер Йейтс біздің түрді «өліп бара жатқан жануарға байланған жан» деп атады. Көп қызық емес.

Біз бәріміз бір күні өлетіндіктен, біз өлім сөзсіз деген оймен өмір сүреміз. Біз уақыт өте келе қартаю туралы ойлаймыз - алға жылжуды жалғастырамыз және бұл процесті тоқтата алмаймыз. Бірақ өлім туралы ой сатқындық болып табылады: біз оған өмір сүруді ұмытып кетеміз. Ричард Фейнман былай деп жазды:

«Биологияда керемет нәрсе бар: бұл ғылымда өлім туралы айтатын ештеңе жоқ. Егер біз мәңгілік қозғалыс машинасын жасағымыз келсе, біз физикада мұның мүмкін еместігін немесе заңдардың қате екенін көрсететін жеткілікті заңдар тапқанымызды түсінеміз. Бірақ биологияда өлімнің болмайтынын көрсететін ештеңе жоқ. Бұл мені бұлай болмайтынына сенуге итермелейді, ал биологтардың бұл проблеманың, қорқынышты әмбебап аурудың себебін анықтауы - емделетін уақыттың еншісінде ».

Қартаюдың уақытқа еш қатысы жоқ. Қартаю - бұл физикалық материалдардың тозуы. Автокөлік бөлшектері де тозады - бірақ қартаю сөзсіз ме? Егер сіз автокөлікті бөлшектері тозған кезде жөндейтін болсаңыз, ол мәңгі қалады. Адам ағзасының айырмашылығы жоқ - тек күрделі.

Курцвейл адам денсаулығына сансыз көп міндеттерді орындай алатын, оның ішінде дененің кез келген жерінде тозған жасушаларды үнемі жөндеп немесе ауыстыра алатын, қанға қосылатын ақылды, Wi-Fi қосылған наноботтар туралы айтады. Бұл процесті жақсарту (немесе ақылды ASI ұсынған баламаны табу) денені сау етіп қана қоймайды, ол қартаюды қайтаруы мүмкін. 60 жастағы және 30 жастағы дененің айырмашылығы-дұрыс технологиямен түзетуге болатын физикалық мәселелер. ISI адам 60 жастан кейін кіріп, 30 жастан кейін кететін көлік құрастыра алады.

Тіпті тозған ми жаңартылуы мүмкін. ISI мұны мидың деректеріне (жеке басы, естеліктер және т. Мидың толық деградациясымен ауыратын 90 жастағы қария қайта даярлықтан өтіп, жаңарып, өмірінің басына оралуы мүмкін. Бұл абсурд болып көрінуі мүмкін, бірақ денесі - бірнеше атомдар, және ISI, әрине, кез келген атомдық құрылымдарды оңай басқара алады. Бұл соншалықты абсурд емес.

Курцвейл жасанды материалдар уақыт өте келе денеге көбірек енетініне сенеді. Бастапқыда органдарды мәңгілікке созылатын және ешқашан үзілмейтін өте жетілдірілген машиналық нұсқалармен алмастыруға болады. Содан кейін біз денені толықтай қайта құра аламыз, эритроциттерді өздігінен қозғалатын керемет наноботтарға алмастырып, жүрекке қажеттілікті мүлдем жоямыз. Біз сондай -ақ танымдық қабілеттерімізді жақсартып, миллиардтаған есе жылдам ойлауды бастай аламыз және бұлт арқылы адамзатқа қол жетімді барлық ақпаратқа қол жеткізе аламыз.

Жаңа көкжиектерді түсіну мүмкіндіктері шексіз болар еді. Адамдар секске жаңа мақсат сыйлады, олар мұны тек көбею үшін емес, рахат алу үшін жасайды. Курцвейл біз тамақпен де осылай жасай аламыз деп санайды. Наноботтар зиянды заттардың ағза арқылы өтуіне мүмкіндік беретін идеалды тамақтануды дененің жасушаларына тікелей жеткізе алады. Нанотехнология теоретигі Роберт Фрейтас қан жасушаларының алмастырғышын жасап шығарды, оны адам ағзасына енгізгенде оған 15 минут бойы тыныс алмауға мүмкіндік береді - және оны адам ойлап тапқан. ISI қашан билікке ие болатынын елестетіп көріңіз.

Ақыр соңында, Курцвейл адамдар толықтай жасанды болатын деңгейге жететініне сенеді; біз биологиялық материалдарды қарап, олардың қаншалықты қарабайыр болғанын ойлайтын уақыт; Адамзат тарихының алғашқы кезеңдері туралы оқитын уақыт, біз микробтардың, жазатайым оқиғалардың, аурулардың немесе жай қартаюдың адамды өз еркіне қарсы қалай өлтіретініне таң қаламыз. Ақыр соңында, адамдар өздерінің биологиясын жеңіп, мәңгілікке айналады - бұл біз басынан бері айтып келе жатқан тепе -теңдік сәулесінің бақытты жағына апаратын жол. Бұған сенетін адамдар сондай болашақтың бізді жақын арада күтетініне сенімді.

Курцвейлдің идеялары қатты сынға ұшырағанына таң қалмайтын шығарсыз. Оның 2045 жылғы ерекшелігі және одан кейінгі адамдар үшін мәңгілік өмір «нердтердің өрлеуі» немесе «интеллектуалдық деңгейі 140 -пен адамдардың ақылды жаратылуы» деп аталды. Басқалары оптимистік уақыт шеңберіне, адам денесі мен миының түсінігіне күмән келтірді, әлі күнге дейін жойылмаған Мур заңын еске түсірді. Курцвейлдің идеясына сенетін әрбір сарапшы үшін оны қателескен деп санайтын үш адам бар.

Бірақ бұл жерде ең қызығы, онымен келіспейтін сарапшылардың көпшілігі бұл мүмкін емес деп айтпайды. Олар «блять, бұл ешқашан болмайды» деп айтудың орнына, «егер біз ISI -ге жетсек осының бәрі болады, бірақ бұл мәселе» деген сияқты сөздер айтады. AI -ның қауіпті екендігі туралы ескерту жасаған AI сарапшыларының бірі Bostrom да мойындайды:

«Супер интеллект шеше алмайтын, тіпті шешуге көмектесе алмайтын мәселе қалмайды. Ауру, кедейлік, қоршаған ортаның бұзылуы, барлық түрдегі азап - нанотехнологияның көмегімен бұл барлаудың бәрін бір сәтте шешуге болады. Superintelligence сонымен қатар наномедицинаны немесе бізді бұлтқа жүктеу мүмкіндігін қолдана отырып қартаю процесін тоқтату және кері қайтару арқылы бізге шексіз өмір сүруге мүмкіндік береді. Супер интеллект интеллектуалдық және эмоционалдық мүмкіндіктердің шексіз өсуіне мүмкіндіктер жасай алады; ол біздің идеалдарға жақындай отырып, біздің арманымызды үнемі орындай отырып, қуаныш пен түсіністікте өмір сүретін әлемді құруға көмектеседі ».

Бұл Курцвейл сыншыларының бірінің цитатасы, алайда егер біз қауіпсіз АСИ құра алсақ, мұның бәрі мүмкін екенін мойындайды. Курцвейл мүмкіндігінше жасанды супер интеллект қандай болу керектігін анықтады. Ал егер ол жақсы құдай болса.

Жайлылық аймағының адвокаттарына ең айқын сын - олар ISI болашағын бағалаған кезде қателесуге болады. Курцвейл өзінің «Ерекшелігі» кітабында ISI -дің 700 ықтимал қауіпінің 20 бетін бөлді. Мәселе біз ISI -ге жеткенде емес, мәселе оның мотивациясы қандай болады деген сұрақ. Курцвейл бұл сұраққа сақтықпен жауап береді: «ISI көптеген әр түрлі күш -жігерден туындайды және біздің өркениеттің инфрақұрылымына терең енеді. Шын мәнінде, бұл біздің денемізге және миымызға тығыз енетін болады. Ол біздің құндылықтарымызды көрсетеді, өйткені ол бізбен бір болады ».

Бірақ егер жауап болса, неге бұл әлемде көптеген ақылды адамдар жасанды интеллект болашағына алаңдайды? Неліктен Стивен Хокинг ISI -нің дамуы «адамзаттың жойылуын білдіруі мүмкін» дейді? Билл Гейтс бұл туралы «алаңдамайтын адамдарды түсінбейтінін» айтады. Илон Маск бізді «жын шақырамыз» деп қорқады. Неліктен көптеген сарапшылар ISI адамзатқа ең үлкен қауіп деп санайды?

Бұл туралы келесі жолы сөйлесетін боламыз.

Ұсынылған: