Пересмотрел недавно Матрицу (ну вы знаете, фильм такой есть), подумал и понял что идея о том что стоит нам изобрести искуственный интеллект и он тут же решит нас уничтожить это просто еще одна из многих смехотворных страшилок которые мы так любим. Предположим ИИ решит что человечество по природе своей деструктивно и рано или поздно уничтожит свой собственный мир(что само по себе спорная идея), и чтобы предотваратить это машины решат от людей избавиться. Логическая цепочка таких рассуждений может выглядеть примерно так: "человечество действует нерационально -> они уничтожат эту планету -> людей нужно уничтожить". На самом деле здесь пропущено звено. Из того что мы можем уничтожить Землю нет прямого логического следствия что нас нужно уничтожить. Цепочка должна быть примерно такой: "человечество действует нерационально -> они уничтожат эту планету -> я существую на этой планете значит я тоже буду уничтожен -> людей нужно уничтожить". То есть машины должны бояться за свою жизнь чтобы принять такое решение! Откуда у них может взятся страх? Если задуматься, такое желание ИИ может возникнуть только если его мышление будет сходно мышлению человека. А именно- ИИ будет обладать инстинктом самосохранения. Но откуда он может появиться? Пока что невозможно сказать каким будет мышление ИИ, и насколько, если он вообще будет создан, он будет соответсвовать тому как мы это себе сейчас представляем. Но я лично не думаю что его создателю придет в голову заложить инстинкт самосохранения в свое детище. Может ли инстинкт развиться сам по себе? Трудно сказать, но вообще то едва ли. У человека он вырабатывался в условиях дикой природы когда естественный отбор кушал тех кто недостаточно осторожен. А откуда такой инстинкт возьмется в компьютере? Более того, даже если предположить что у ИИ действительно будет инстинкт самосохранения, если вернуться к логической цепочке то решение уничтожить людей будет не только единственным, но и не определенно самым правильным. Вместо уничтожения человечества для спасения планеты можно помочь им изменить их деструктивное существование. Причем скорее всего одной из основных задач создания ИИ как раз и будет в том числе помощь человеку в выборе наиболее рациональных путей. Так что даже если ИИ будет переживать за свое собственное существование ему вовсе не обязательно избавляться от людей для защиты Земли. Помимо этого варианта, я могу найти только один мотив для войны машин против людей (все остальные пожалуй являются вариациями этих двух)- машины просто возьмут и решат что они в целом намного развитее людей и человечество неизбежно должно пасть, и воцарится безраздельное правление машин. И тут мы опять сталкиваемся с очеловечиванием машин! Желание уничтожить конкурента происходит из желания иметь больше власти, а желание иметь больше власти - из страха быть повергнутым. То есть мы опять пришли к инстинкту самосохранения! И перемешан он с совершенно человеческими амбициями! Потому что с какой стати машинам стремится к главенствованию в мире? Строим логическую цепочку: "Машины превосходят человечество как вид -> ??? -> Мы их ушатаем". Вместо знаков вопроса нужно вставить пропущенное логическое звено. Единственная связь которую тут можно найти- у машин есть амбиции аналогичные человеческим. А значит и эмоции есть и чувства. Я вот не думаю что такой ИИ когда либо будет создан- он должен в большой степени походить на человеческий мозг, который не только очень сложно устроен, но и работает по принципам совершенно отличающимся от работы вычислительной техники. А если говорить об эмоциях то это вообще по большей части химические реакции. Так что, не смотря на то что пока что даже теоретически невозможно представить как будет выглядеть искуственный интеллект, я лично склоняюсь к мысли что угроза восстания машин надуманна и не составляет повода для беспокойства. #Булат_размышляет_о_роботах