2024 Автор: Adelina Croftoon | [email protected]. Акыркы өзгөртүү: 2023-12-17 02:14
Адамзаттын жашоосуна коркунуч туудурган супер интеллектуалдуу компьютерлер же роботтор - фантастиканын сүйүктүү сюжети. Чындыгында, илимпоздордун айтымында, мындай кыямат сценарийин жасалма интеллектти (AI) камтыган виртуалдык "түрмө" түзүү аркылуу гана алдын алууга болот. Жана муну ал өзүн билип, өркүндөтүүнү үйрөнүүдөн мурун жасоо керек..
Эгерде сиз бул жинди бөтөлкөдөн чыгарсаңыз, анда биздин көйгөйлөрүбүздү чечүүчү оракулдан ал апокалиптикалык коркунучка айланып кетиши мүмкүн, дейт компьютер илими тармагында иштеген Луисвилл, Кентукки университетинин илимпозу Роман Ямпольский. Жасалма интеллект камтыла турган шарттар коркутуу, пара алуу, азгыруу же компьютерди бузуу аркылуу бошонбош үчүн кылдат пландаштырылышы керек.
"Ал көптөгөн социалдык ыкмаларды ойлоп табышы мүмкүн, татаал социалдык-инженердик айкалышты жана учурдагы аппараттык компоненттерди биз элестете албаган максаттарда колдоно алат",-деп эсептейт Ямпольский. - Мындай программалык камсыздоонун компьютерлерди жана тармактарды жуктуруу үчүн чексиз мүмкүнчүлүктөрү бар. КИ адамдын психикасына таасир этүү, аны менен байланышта болгон адамдарды пара алуу же шантаж кылуу жолдорун таба алат."
Жасалма интеллект үчүн "түрмө" түзүү проблемасы менен байланышкан илимий изилдөөлөрдүн жаңы чөйрөсүнүн пайда болушу кошумча артыкчылыктарга ээ. Бул изилдөөлөр компьютер коопсуздугун жана криптографияны жакшыртуу үчүн абдан пайдалуу, Ямпольский ишенет. Анын сунуштары академиялык аң -сезим журналынын март айындагы санында кеңири жазылган.
Skynet үчүн тузакты кантип орнотсо болот
Баштоо үчүн жасалма интеллектти "виртуалдык машинанын" ичине камтууга болот. Кадимки операциялык системанын ичинде иштей берсин - башкы компьютердин программалык камсыздоосуна жана жабдууларына AIге кирүүнү чектөө аны алда канча зыянсыз кылат. Кандай болгон күндө да, акылдуу AI өзүнүн колдоочуларына жашыруун билдирүүлөрдү жөнөтө албайт, муздатуучу желдеткичтери менен Морзе кодун жеңип алат.
Жасалма интеллектти Интернетке кирбестен компьютерге коюу AIдин Жерди сизден жана менден коргоо боюнча тымызын пландарын жокко чыгаруунун жакшы жолу. Башка кандайдыр бир ийгиликсиздик болгон учурда, изилдөөчүлөр компьютердин иштөө ылдамдыгын басаңдатуу менен, AIнин ой жүгүртүү процессин жайлата алышат, дайыма баштапкы абалга келтирүү баскычын басышат же АИди электр булагынан ажыратышат.
Бул коопсуздук чаралары өтө акылдуу жана коркунучтуу компьютердик вирустар менен күрөшүү үчүн иштелип чыккан, бирок алар канчалык натыйжалуу болуп чыкканы кимдир бирөөнүн божомолу.
Catch-22 (америкалык жазуучу Дж. Хеллердин романы; болжол менен Mixednews)-AIди иштеп чыгуу аягына чыкмайынча, биз өз идеяларыбызды толук масштабдуу тестирлөө жүргүзө албайбыз. Бирок AIди коопсуз кылуу үчүн тиешелүү чаралардын комплексин иштеп чыгуу керек, дейт Ямпольский. "Эң жакшы вариант - AI системаларын колдонууга чектөө киргизүү жана андан кийин зарылчылыкка жараша AIдин мүмкүнчүлүктөрүнө жараша өзгөртүү."
Эч качан унаага адам күзөтчүсүн койбоңуз
Күзөтчү менен күнөөсүз көрүнгөн маектешүүдө, AIге достук же шантаж сыяктуу психологиялык ыкмаларды колдонууга эч нерсе тоскоол болбойт. Адамга ден соолугуна, өлбөстүгүнө, ал тургай башка дүйнөдөн туугандарына жана досторуна кайтып келүүгө убада берип, пара алса болот. Же коркутуу менен эч нерсеге жетпегиле.
Жасалма интеллект менен байланышуунун эң коопсуз жолу - бул белгилүү бир илимий же техникалык маселени чечүүдө көптөгөн жеткиликтүү варианттардын ичинен жоопту тандоо, деп түшүндүрөт Ямпольский. Бул супер-акылдуу оракулду кыска байлоодо сактоого жардам берет.
Көптөгөн изилдөөчүлөр, бардык сактык чараларына карабастан, акылдуу AIди кулпунун астында кармоо эч качан ийгиликтүү болбойт деп ишенишет. Жалгыздык институтунун илимий кызматкери Элиезер Юдковскийдин Жасалма интеллектти түзүү боюнча акыркы эксперименти адам деңгээлиндеги интеллект да адамды алдап, түрмөдөн "качып" кете аларын көрсөттү.
Ошого карабастан, Ямпольский AIди өзүнчө изоляцияда кармап турууну талап кылат - бул баш тартуудан жана ага толук эркиндик берүүдөн дагы жакшы. Бирок эгер AIдин өнүгүүсү адамды аң -сезимди (келечекти алдын ала айтуу), телепатияны же телекинезди колдонуп манипуляция кыла ала турган чекке жетсе, анын кесепети күтүүсүз болот.
"Эгерде мындай интеллектуалдык интеллект өзүн өзү өркүндөтүп, адамдын интеллектинин мүмкүнчүлүктөрүнөн кыйла жогору турган деңгээлге жетсе, анын кесепеттерин элестетүү да мүмкүн эмес",-деп эскертет Ямпольский.
Сунушталууда:
Чыгуу: Адамзат Марсты изилдөө үчүн аман калыш керек
Илон Маск ырастайт: эгерде адамзат анын аман калышына кызыкдар болсо, анда Марска бир миллион жерди жөнөтүшү керек. "Кел, бул Жер! - Илон Маск мага жылмайып капыстан берди. "Ал жөнүндө ким кам көрөт?" Биз анын кичинекей офисинде, SpaceXтин Лос -Анжелестеги башкы кеңсесинде жайгашкан кең кеңсенин бурчунда отурдук. Бул күн ачык болчу, бейшемби, Маскты SpaceXтен тапкан күндөрдүн бири. Бирок Илон куулук, ирония болчу, - баары бир, ал баарынан жогору болгон
Биз азыр жасалма интеллектти кантип коргоону ойлонушубуз керек
Стивен Хокинг жасалма интеллектке (AI) каршы "кресттүү жүрүштү" улантууда. Көптөн бери күтүлгөн Redditте "Баарынан сура" өнөктүгүндө, ал AI коопсуздук протоколун иштеп чыгуу иши алыскы келечекте эмес, азыр жасалышы керек деп жазган. "Биздин максатыбыз абстрактуу жасалма интеллектти жаратуу эмес, пайдалуу интеллектти түзүү болушу керек", - деп жазган атактуу физик, "муну кантип жасоону билүү үчүн ондогон жылдар керек, ошондуктан ооба
Стивен Хокинг жасалма интеллектти тарыхтагы эң чоң ката деп атады
Атактуу британиялык физик Стивен Хокинг, Джонни Депп башкы ролду ойногон Transcendence илимий фантастикалык фильминен шыктанган макаласында, жасалма интеллектин коркунучун баалабоо адамзат тарыхындагы эң чоң ката болушу мүмкүн экенин айткан. Берклидеги Калифорния университетинин информатика профессору Стюарт Расселл жана Массачусетс штатындагы физика профессорлору Макс Тегмарк жана Франк Уилчек менен бирге жазылган макалада
Философтор адамзат, келгиндер жана жасалма интеллект жөнүндө ойлонушат
Философия башка илимдер менен бир деңгээлде заманбап тенденцияларды ээрчип, бүгүнкү күндүн өзгөчөлүктөрүн изилдөөгө аракет кылат. Илимдин бул тармагы жасалма интеллект, роботтор жана келгиндер сыяктуу ысык темалар менен да алектенет. Алар кантип окшош болушу мүмкүн? Коннектикут университетинен окумуштуу Сюзан Шнайдер заманбап инженерия жана келгиндердин интеллектуалдык көз карашы жөнүндө айтып берди. Адамдар ааламдагы эң жогорку интеллектке ээ деп ойлобошуңуз керек. Биздин планета, Күн сыяктуу
Жасалма супер интеллектти өнүктүрүүнүн кесепеттери
Жакында эле дүйнөгө белгилүү физик Стивен Хокинг жетектеген илимпоздор тобу фантастикалык триллердин "Суперстан" премерасына арналган адаттан тыш макаланы жарыялады. Тилекке каршы, профессор Хокинг алдын ала айтуулары менен белгилүү Нострадамус сыяктуу таанылган пайгамбардын жетишкендиктерине ээ болгон жок - төрттүк. Анын саналуу гана журналисттери (негизинен илимий байкоочулар) интернеттин виртуалдык тереңдигиндеги "тармактык желмогуздун" бышып жетилгендиги тууралуу айткан сөздөрүнө кулак салышты. Британиялык