Ғалымдар жасанды интеллект қаупінен қорқады

Ғалымдар жасанды интеллект қаупінен қорқады
Ғалымдар жасанды интеллект қаупінен қорқады

Бейне: Ғалымдар жасанды интеллект қаупінен қорқады

Бейне: Ғалымдар жасанды интеллект қаупінен қорқады
Бейне: 33 Жасанды интеллект 2024, Желтоқсан
Anonim

Болашақта өзін-өзі жетілдіретін жасанды интеллект (АИ) қаласа адамдарды құлдыққа немесе өлтіруі мүмкін. Бұл туралы ғалым Амнон Эден айтты, ол еркін ойлаудың және жоғары интеллектуалды сананың даму қаупі өте жоғары деп санайды және «егер сіз интеллектті бақылау мәселелеріне қазіргі кезеңінде қарамасаңыз. даму, онда ертең келмеуі мүмкін ». Ағылшын Express басылымының хабарлауынша, адамзат, Амнон Иденнің айтуынша, бүгінде әйгілі «Терминатор» кинопопасының сюжетін іске асыру үшін «қайтып оралмас нүктеде» тұр.

Айта кету керек, доктор Амнон Эден - бұл жобаның жетекшісі, оның басты мақсаты АИ -дің ықтимал жойқын әсерін талдау. Ғалымның пікірінше, жасанды интеллект құрудың салдары туралы дұрыс түсінік болмаса, оның дамуы апат қаупін төндіруі мүмкін. Қазіргі уақытта біздің қоғамда ғылыми ортада АИ -нің ықтимал әсерін талдау туралы болып жатқан пікірталастар туралы ақпарат аз. «Алдағы 2016 жылы ықтимал тәуекелдерді талдау корпорациялар мен үкіметтердің, саясаткерлер мен шешімдер қабылдауға жауапты адамдардың ойлауында айтарлықтай кеңінен таралуы керек», - дейді Эден.

Ғалым адамзатты роботтармен қиратуды суреттейтін ғылыми фантастика жақын арада біздің ортақ мәселемізге айналуы мүмкін екеніне сенімді, өйткені АИ құру процесі бақылаудан шығып кетті. Мысалы, Илон Маск, кәсіпкер Сэм Альтманның қолдауымен, адам санасынан асып түсетін, ашық көзі АИ дамытатын, 1 миллиард долларлық жаңа коммерциялық емес ұйым құруға шешім қабылдады. Сонымен қатар, американдық миллиардер Илон Масктың өзі жасанды интеллекті «біздің өмірімізге ең үлкен қауіп» қатарына қосады. Apple-дің негізін қалаған Стив Возняк өткен наурызда «болашақ адамдар үшін қорқынышты және өте қауіпті болып көрінеді … ақырында компьютерлер бізден жылдам ойлайтын күн келеді және олар баяу адамдардан арылады. компаниялар тиімдірек жұмыс істей алады ».

Кескін
Кескін

Айта кету керек, көптеген ғалымдар АИ -ден келетін қауіпті көреді. Белгілі бір түрде жасанды интеллект дамуымен байланысты ондаған белгілі ғалымдар, инвесторлар мен кәсіпкерлер ашық хатқа қол қойды. AI өрісі. Астрофизик Стивен Хокинг пен Tesla мен SpaceX негізін қалаушы Илон Маск осы құжатқа қол қойғандардың қатарында. Хат «Болашақ өмір институты» (FLI) дайындаған ілеспе құжатпен бірге жасанды интеллекттің еңбек нарығына әсері туралы, тіпті бүкіл адамзаттың ұзақ мерзімді өмір сүруі туралы алаңдаушылық кезінде жазылған. роботтар мен машиналардың мүмкіндіктері бақылаусыз өсетін орта.

Ғалымдар қазіргі кезде АИ әлеуеті өте үлкен екенін түсінеді, сондықтан ілеспе қателіктерден аулақ болу үшін оны біз үшін оңтайлы пайдалану мүмкіндіктерін толық зерттеу қажет, - делінген FLI хатында. Адам жасаған AI жүйелері біз қалағандай әрекет етуі қажет. Айта кету керек, «Болашақ өмірі» институтын өткен жылы ғана көптеген энтузиастар құрды, олардың арасында скайпты жасаушы Джаан Таллин «адамзат алдында тұрған тәуекелдерді барынша азайту» және зерттеулерді «оптимистік көзқараспен» ынталандыру мақсатында құрылды. болашақтың ». Ең алдымен, біз мұнда интеллект пен робот техникасының дамуынан туындайтын тәуекелдер туралы айтып отырмыз. FLI консультативтік кеңесіне Маск пен Хокинг кіреді, әйгілі актер Морган Фриман және басқа да атақты адамдар. Илон Масктың айтуынша, жасанды интеллектінің бақылаусыз дамуы ядролық қарудан гөрі қауіпті.

Атақты британдық астрофизик Стивен Хокинг 2015 жылдың соңында AI технологиясынан бас тартуын түсіндіруге тырысты. Оның пікірінше, уақыт өте келе, ақылды машиналар адамдарға өз міндеттерін шешуге кедергі келтіретін шығын материалдары немесе құмырсқалар ретінде қарайтын болады. Reddit порталының қолданушыларымен сөйлесе отырып, Стивен Хокинг мұндай интеллектуалды машиналар интеллектуалдық артықшылығының арқасында бүкіл адамзаттың көзін құртқысы келетін «зұлым жаратылыстар» болатынына сенбейтінін атап өтті. Мүмкін, олар адамгершілікті байқамайтыны туралы айтуға болады.

Кескін
Кескін

«Соңғы кездері бұқаралық ақпарат құралдары менің сөздерімді үнемі бұрмалап жүр. АИ дамуындағы басты қауіп - бұл машиналардың зұлымдығы емес, олардың құзыреттілігі. Жасанды интеллект керемет жұмыс жасайды, бірақ егер ол мен біздің мақсатымыз сәйкес келмесе, адамзат алдында өте күрделі проблемалар болады », - деп түсіндіреді атақты ғалым. Мысал ретінде Хокинг гипотетикалық жағдайды келтірді, онда супер қуатты интеллект жаңа гидроэлектрлік бөгеттің жұмысына немесе құрылысына жауап береді. Мұндай машина үшін сеніп тапсырылған жүйе қанша энергия өндіретіні басым болады, ал адамдардың тағдыры маңызды емес. «Құмырсқа құмыраларын таптап, ашуланғаннан құмырсқаларды басып кететіндер бізде аз, бірақ жағдайды елестетіп көрейік - сіз электр энергиясын өндіретін қуатты су электр станциясын басқарасыз. Егер сізге судың деңгейін көтеру қажет болса және сіздің әрекеттеріңіздің нәтижесінде бір құмырсқа су астында қалса, суға батып бара жатқан жәндіктердің проблемалары сізді мазаламайтын шығар. Адамдарды құмырсқаның орнына қоймайық », - дейді ғалым.

Хокингтің айтуынша, жасанды интеллектті одан әрі дамытудың екінші ықтимал мәселесі «машиналар иелерінің тираниясы» болуы мүмкін - өндірісті монополиялауға қабілетті бай адамдар арасындағы табыс деңгейінің алшақтығының тез өсуі. ақылды машиналар мен әлемнің қалған тұрғындары. Стивен Хокинг бұл ықтимал мәселелерді келесі жолмен шешуді ұсынады - интеллект дамуының процесін баяулатып, «әмбебап» емес, жоғары мамандандырылған жасанды интеллекті дамытуға көшу, ол өте шектеулі мәселелерді ғана шеше алады.

Хатқа Хокинг пен Масктан басқа Нобель сыйлығының лауреаты мен MIT физика профессоры Фрэнк Вилчек, Machine Intelligence Research Institute (MIRI) атқарушы директоры Люк Мюльгаузер, сондай -ақ ірі IT -компаниялардың көптеген мамандары қол қойды: Google, Microsoft және IBM, сондай -ақ Vicarious және DeepMind AI компанияларын құрған кәсіпкерлер. Хат авторлары олар көпшілікті қорқытуды мақсат етпейтінін, бірақ жасанды интеллект құруға байланысты жағымды және жағымсыз жақтарын бөліп көрсетуді жоспарлап отырғанын айтады. «Қазіргі кезде барлығы АИ саласындағы зерттеулер тұрақты түрде дамып келе жатқандығымен келіседі, ал қазіргі адамзат қоғамына АИ әсері артады», - делінген хатта, «адамдарға ашылатын мүмкіндіктер өте үлкен, қазіргі өркениеттің бәрі. ұсынысты интеллект адам жасаған. Егер адам интеллектін интеллектпен көбейтуге болатын болса, біз не нәрсеге қол жеткізе алатынымызды болжай алмаймыз, бірақ кедейлік пен аурудан құтылу мәселесі шексіз қиын емес ».

Кескін
Кескін

Жасанды интеллект саласындағы көптеген жетістіктер қазіргі өмірге енген, оның ішінде имидж мен сөйлеуді тану жүйелері, ұшқышсыз көліктер және тағы басқалар. Кремний алқабының бақылаушылары қазіргі уақытта бұл бағытта 150 -ден астам стартап іске асырылып жатыр деп есептейді. Сонымен қатар, бұл саладағы әзірлемелер көбірек инвестиция тартуда, ал Google сияқты компаниялар AI -ге негізделген жобаларын дамытуда. Сондықтан, хат авторлары адам өмірінің экономикалық, әлеуметтік және құқықтық аспектілері үшін байқалатын бумның барлық ықтимал салдарына көбірек назар аударатын уақыт жетті деп санайды.

Жасанды интеллект адамдарға қауіп төндіруі мүмкін деген ұстанымды антропикалық принцип бойынша жұмысымен танымал Оксфорд университетінің профессоры Ник Бостром ұстанады. Бұл маман AI интеллект оның адамдарға сәйкес келмейтін деңгейге жетті деп есептейді. Ник Бостром үкіметтер бақылау үшін жеткілікті қаражат бөлетін гендік инженерия мен климаттың өзгеруінен айырмашылығы, «AI эволюциясын бақылау үшін ештеңе жасалмайтынын» айтады. Профессордың айтуынша, қазіргі уақытта жасанды интеллектке қатысты «толтырылуы қажет құқықтық вакуум саясаты» жүргізілуде. Тіпті зиянсыз және пайдалы болып көрінетін өздігінен жүретін автокөліктер сияқты технологиялар көптеген сұрақтар туғызады. Мысалы, мұндай автокөлік жолаушыларды құтқару үшін шұғыл тежеу жүргізуі керек пе және ұшқышсыз көлікпен апат болған жағдайда кім жауап береді?

Ықтимал тәуекелдерді талқылай отырып, Ник Бостром «компьютер адамдарға пайдасы мен зиянын анықтай алмайды» және «адамгершілік туралы тіпті ұсақ түсінікке де ие емес» екенін атап өтті. Сонымен қатар, компьютерлерде өзін-өзі жетілдіру циклі адам бақылай алмайтын жылдамдықпен жүруі мүмкін және бұл туралы ештеңе істеуге болмайды, дейді ғалым. «Компьютерлер өз бетінше ойлай алатын даму кезеңінде, бұл хаосқа әкеледі ме, әлде біздің әлемді айтарлықтай жақсартады ма, ешкім нақты болжай алмайды», - деді Ник Бостром мысал ретінде компьютердің қарапайым шешімі - өшіру. суық климаты бар елдерде адамдардың денсаулығын жақсарту және олардың төзімділігін жоғарылату үшін «жасанды интеллект басына келуі мүмкін».

Кескін
Кескін

Сонымен қатар, Bostrom биоинтеллекті жоғарылату үшін адамның миын сындыру мәселесін көтереді. «Егер барлық процестер бақыланатын болса, мұндай рәсім пайдалы болуы мүмкін, бірақ егер имплантацияланған чип өзін қайта бағдарламалай алса не болады? Бұл қандай салдарға әкелуі мүмкін - суперменнің пайда болуына немесе адамға ұқсайтын компьютердің пайда болуына? » - деп сұрайды профессор. Компьютердің адам мәселесін шешуі біздікінен мүлде өзгеше. Мысалы, шахматта адам миы тар қозғалыстар жиынтығын ғана қарастырады, олардан ең жақсы нұсқаны таңдайды. Өз кезегінде, компьютер барлық ықтимал қозғалыстарды қарастырады, ең жақсысын таңдайды. Сонымен қатар, компьютер ойында қарсыласын ренжітеді немесе таң қалдырады деп ойламайды. Шахмат ойнайтын адамнан айырмашылығы, компьютер кездейсоқ ғана айлакерлік пен нәзік қимыл жасай алады. Жасанды интеллект ең жақсы әдіспен есептей алады - ол жерден «адамдық факторды» алып тастау арқылы кез келген жүйенің қатесін жою, бірақ адамнан айырмашылығы, робот адамдардың өмірін құтқаратын ерлік жасауға дайын емес.

Сонымен қатар, ақылды машиналар санының өсуі жаңа өнеркәсіптік революция кезеңін көрсетеді. Бұл өз кезегінде жақын арада адамзат міндетті түрде әлеуметтік өзгерістерге тап болатынын білдіреді. Уақыт өте келе жұмыс жоғары білікті мамандарға айналады, өйткені барлық қарапайым тапсырмаларды роботтар мен басқа механизмдер атқара алады. Ғалымдар біздің планетамыз роботтар мекендеген «Железяка» мультфильміне айналмауы үшін жасанды интеллект «көз бен көзді қажет етеді» деп есептейді.

Өндірістік процестерді автоматтандыру тұрғысынан болашақ қазірдің өзінде келді. Дүниежүзілік экономикалық форум (ДЭФ) өз есебін ұсынды, оған сәйкес автоматтандыру 2020 жылға қарай әр түрлі салада жұмыс істейтін 5 миллионнан астам адам жұмыссыз қалады. Бұл роботтар мен робот жүйелерінің біздің өмірімізге әсері. Есепті құрастыру үшін WEF қызметкерлері бүкіл әлем бойынша 13,5 миллион қызметкер туралы деректерді пайдаланды. Олардың айтуынша, 2020 жылға қарай 7 миллионнан астам жұмыс орындарына жалпы қажеттілік жоғалады, ал басқа салаларда жұмыспен қамтылудың күтілетін өсімі 2 миллионнан астам жұмыс орнын құрайды.

Ұсынылған: