«Біздің өркениеттегі жақсы көретіннің бәрі - интеллект туындысы, сондықтан жасанды интеллект арқылы адамдық интеллектімізді жетілдіру өркениеттің бұрын -соңды болмаған гүлденуіне көмектеседі - егер біз пайдалы технологияны сақтай алсақ» Макс Тегмарк
Жасанды интеллект (AI) жылдам дамуда - SIRI -ден автокөліктерге дейін. Ғылыми фантастика АИ -ді адами ерекшеліктері бар роботтар ретінде бейнелесе де, AI Google -дің іздеу алгоритмдерінен бастап IBM Watson және автономды қару -жарақтарға дейін қамтуы мүмкін.
АИ қалай қауіпті болуы мүмкін?
Зерттеушілердің көпшілігі интеллектуалды интеллект махаббат пен жеккөрушілік сияқты адами эмоцияларды көрсете алмайтындығымен келіседі және АI -ді әдейі мейірімді немесе қатыгез болады деп күтуге негіз жоқ. Оның орнына, AI қалай тәуекелге айналуы мүмкін екенін қарастыра отырып, сарапшылар екі сценарий ықтимал деп санайды:
1. AI жойқын нәрсе жасауға арналған: Автономды қару - бұл өлтіруге арналған жасанды интеллект жүйесі. Нашар қолдарда бұл қару жаппай құрбан болуға әкелуі мүмкін. Сонымен қатар, АИ қару жарысы байқаусызда AI соғысына әкелуі мүмкін, бұл сонымен қатар жаппай құрбан болуға әкеледі. Қарсыластың кедергілеріне жол бермеу үшін, бұл қаруды «сөндіру» өте қиын етіп жасалған, сондықтан адамдар мұндай жағдайды басқара алмайды. Бұл тәуекел тар АИ -де де бар, бірақ интеллект деңгейі мен автономия деңгейі жоғарылаған сайын ол өседі.
2. AI пайдалы нәрсені жасауға арналған, бірақ ол мақсатына жету үшін деструктивті әдісті дамытады:Бұл біз AI мақсаттарын өз мақсатымызға толық сәйкестендіре алмайтын кезде орын алуы мүмкін, бұл таңқаларлық қиын. Егер сіз мойынсұнғыш ақылды автокөліктен сізді әуежайға тезірек жеткізуін сұрасаңыз, ол сізді тікұшақтармен қуып жетіп, құсып, қалағаныңызды емес, дәл сіз сұраған нәрсені жасай алады. Егер супер интеллектуалды жүйеге геоинженерлік жобасы жүктелсе, ол біздің экожүйемізге жанама әсер ретінде зиян келтіруі мүмкін және адамның оны тоқтату әрекетін қауіп ретінде қарастыруы мүмкін.
Бұл мысалдар көрсеткендей, озық интеллект ашуға емес, құзырлылыққа қамқорлық жасайды.Өте интеллектуалды интеллект өз мақсаттарына жетуде өте жақсы болады, және егер бұл мақсаттар біздікімен сәйкес келмесе, бізде проблемалар болады. Сіз құмырсқаларға құмарлықтан басатын зұлым құмырсқаларды жек көретін шығарсыз, бірақ егер сіз таза гидроэнергетикалық жобаны басқаратын болсаңыз және бұл аймақта су басу керек құмырсқа бар болса, бұл құмырсқалар үшін өте зиянды. AI қауіпсіздігінің негізгі мақсаты - бұл құмырсқалардың орнына адамзатты ешқашан қою емес.
НЕГЕ АИ ҚАУІПСІЗДІГІНЕ ҚЫЗЫҚТЫ
Стивен Хокинг, Илон Маск, Стив Возняк, Билл Гейтс және басқа да көптеген ғылым мен техниканың қайраткерлері соңғы кезде алаңдаушылық туғызды. Неліктен бұл тақырып айдарларда кенеттен пайда болады?
Күшті АИ -ге ұмтылу ақыр соңында табысқа жетеді деген идея ұзақ уақыт бойы ғылыми фантастика деп саналды, бірнеше ғасыр немесе одан да көп уақыт қалды. Алайда, соңғы ашылулардың арқасында, бес жыл бұрын онжылдықтар бұрын ондаған жылдар бұрын сарапшылар сенген AI жетістіктерінің көпшілігіне қол жеткізілді, бұл көптеген сарапшылардың біздің өмірімізде супер интеллект болу мүмкіндігін байыпты қабылдауға әкеледі. Кейбір сарапшылар жасанды интеллектінің адамдық деңгейі бірнеше ғасырда болады деп болжаса да, зерттеулердің көпшілігі жасанды интеллект бұл 2060 жылға дейін болады деп ұсынды. Қауіпсіздік бойынша қажетті зерттеулерді аяқтау үшін ондаған жылдар қажет болатындықтан, қазірден бастаған жөн.
AI кез келген адамға қарағанда ақылды бола алатындықтан, оның қалай әрекет ететінін болжаудың сенімді әдісі жоқ. Біз өткен технологиялық жетістіктерді негіз ретінде пайдалана алмаймыз, өйткені біз ешқашан біле тұра немесе байқаусызда бізден асып түсетін нәрсені жасаған жоқпыз. Біз қарсы тұра алатын ең жақсы мысал - бұл біздің жеке эволюциямыз. Енді адамдар планетаны ең мықты, ең жылдам немесе үлкен болғандықтан емес, ең ақылды болғандықтан басқарады. Егер біз ең ақылды болуды тоқтатсақ, бақылауды сақтай аламыз ба?
FLI ұстанымы - біз өсіп келе жатқан технология мен оны басқаратын даналық арасындағы бәсекеде жеңіске жеткенше, біздің өркениет өркендейді. AI технологиясы тұрғысынан FLI -дің ұстанымы - бұл жарыста жеңудің ең жақсы жолы - бұл біріншісіне кедергі жасау емес, бірақ AI қауіпсіздігін зерттеуді қолдау арқылы екіншісін жылдамдату.
Қорыта келгенде, адамдар планетаны ең мықты, ең жылдам немесе үлкен болғандықтан емес, ең ақылды болғандықтан басқарады. Егер біз ең ақылды болуды тоқтатсақ, бақылауды сақтай аламыз ба? Сол үшін жасанды интеллект әрқашан бақылауда болуы тиіс.
Әл-Фараби атындағы ҚазҰУ-дың доценті,
философия ғылымының кандидаты
Жанатаев Д.Ж.
Әл-Фараби атындағы ҚазҰУ магистранты
Қали Марлен