Принцип апокалипсиса. Сценарии конца света - Олег Фейгин Страница 25

Книгу Принцип апокалипсиса. Сценарии конца света - Олег Фейгин читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

Принцип апокалипсиса. Сценарии конца света - Олег Фейгин читать онлайн бесплатно

Принцип апокалипсиса. Сценарии конца света - Олег Фейгин - читать книгу онлайн бесплатно, автор Олег Фейгин

Вполне очевидно, что все прогнозы относительно «кибернетической эволюции» ИИ оказались очень далекими от действительности. Это и настораживает, и радует. Настораживает тем, что даже сами специалисты не могут понять, как же будут развиваться их электронные детища. А радует – потому, что детально разработанные в философских трудах и научно-фантастических романах сценарии гибели человечества в схватке с им же порожденным ИИ, скорее всего, так же далеки от реальности, как и прогнозы об искинах.

Обновление нейрофизиологии на механистической основе есть только половина задачи, которая предстоит физиологам будущего. Я убежден, что когда наступит равновесие интеллектуальных достижений будущего, мы увидим, что не только физиологи перенимали в свое время идеи у физиков, но и физики будут использовать многие идеи физиологов.

Н. Винер. Перспективы нейрокибернетики

Что же мы имеем сегодня в реальности? В магазинах бытовой техники все чаще стали появляться экземпляры с таинственным значком «А1» (Artificial Intelligence), вызывающие бурный восторг покупателей. В японской столице никто уже не удивляется мигающим огоньками тумбам кибердворников, самостоятельно регулирующим пространство уборки и силу поглощения мусора в зависимости от заполнения своего бункера. Новые поколения сильно поумневших плазменных и жидкокристаллических телевизоров умудряются подстраивать контрастность, не изменяя яркости картинки, а интеллектуальные стиральные машины выбирают температуру воды, продолжительность стирки и скорость отжима в соответствии с весом и типом белья.

После признания искусственного интеллекта отдельной областью кибернетической науки произошло его разделение на два основополагающих направления: «нейрокибернетика» и «кибернетика черного ящика». Эти направления развиваются практически независимо, существенно различаясь как методами исследования, так и технологиями создания искусственного интеллекта. И только в настоящее время стали заметны тенденции к объединению этих частей вновь в единое целое.

Правда, как всегда, существует и гибридный подход, как комбинация двух основных. Часть вычислений выполняют нейрокомпьютеры, а часть – обычные машины, но с использованием специальных программ.

Все подобные выводы основываются на новом нейрокибернетическом принципе: не имеет значения, как устроено «мыслящее» устройство. Главное, чтобы на заданные входные воздействия оно реагировало так же, как и человеческий мозг. Сторонники этого направления считают, что человек не должен слепо следовать природе в своих научных и технологических поисках. Так, например, очевиден успех колеса, которого не существует в природе, или самолета, не машущего крыльями, подражая птице.

Однако это лишь мирная сторона вопроса. Военные кибернетики также не оставляют своим вниманием вопросы ИИ.

Это проясняет картину будущего противостояния интеллектов. Судя по всему, человечеству придется сразиться не с классическим механическим ИИ, а с новой расой киборгов. Вполне возможно, что движущей силой подобного конфликта станет воля сверхразвитых нейрокомпьютеров, сохранивших у себя негативные стороны человеческого поведения: немотивированную агрессивность, стяжательство, жажду власти и т. п.

Кто может победить в подобном кибернетическом армагеддоне?

Вполне может быть, что – никто! Просто человечество сменит новая мыслящая формация, основанная, скажем, на принципах квантового сознания…

Глава 12
Восстание интеллектуальных машин

Когда миром станет править искусственный интеллект, мы вполне можем этого точно так же не заметить. Мы ведь уже не можем осмыслить и проанализировать те объемы данных, которые сами же и производим, – и нам приходится доверяться компьютеру. Вы можете спросить у машины: можешь что-то предсказать на основе этих данных? Она ответит: да, конечно. Вы спросите: а как ты это делаешь? Она скажет: прости, но ты не поймешь.

И все это – уже реальность.

М. Косииски, руководитель Центра психометрии Кембриджского университета.

Мировое научное сообщество в последнее время активно вовлечено в обсуждение рисков создания искусственного интеллекта (ИИ), который может стать угрозой существованию человечества. Очередную волну «киберофобии» (боязни кибернетики) подняли высказывания знаменитого британского физика-теоретика Стивена Хокинга, пришедшего к выводу, что ИИ способен положить конец человеческому роду. Его выводы основываются на ограниченных физиологией возможностях человека – с одной стороны, и быстрым развитием искинов-роботов – с другой.

Интервью Хокинга

Полезный искусственный интеллект мог бы сосуществовать с людьми и увеличивать наши возможности. Но искусственный интеллект, вышедший из-под контроля, может оказаться трудно остановить. При разработке искусственного интеллекта необходимо обеспечить соблюдение требований этики и мер безопасности…

Появление полноценного искусственного интеллекта может стать концом человеческой расы.

Из интервью С. Хокинга Л. Кингу (RT America)

Недавно, беседуя с легендарным американским журналистом Ларри Кингом, Хокинг сделал необычное заявление. По его словам, классические законы робототехники, введенные 75 лет назад Айзеком Азимовым [1], безнадежно устарели. В первую очередь это связано с военными проектами искинов-терминаторов, массово создаваемыми Пентагоном с помощью одиозного американского Агентства по перспективным оборонным научно-исследовательским разработкам (DARPA).

Надо сказать, что некоторую ограниченность трех законов робототехники прекрасно понимал и сам Азимов. Об этом говорит «нулевой закон», сформулированный в одном из его романов, входящих в цикл «Основание», который рассказывает об очень далеком будущем галактической расы землян. В книге «Основание и роботы» (1985 год) говорится: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред».

Сегодня американские военные, бредящие возрождением рейгановских «звездных войн», пытаются всячески переформулировать этику законов робототехники, подстраивая ее под образ «великой американской мечты господства над всем миром». Так возникают чудовищные проекты «звезд смерти», населенных искинами и следящих за соблюдением «базовых принципов либеральной демократии» на нашей планете. Ну а если электронный мозг «звезды смерти» решит, что где-то на Земле нарушаются «принципы свободы и демократии» в понимании Белого дома, туда немедленно ударят все испепеляющие лучи гайзеров (рентгеновских лазеров). Варианты этого страшного оружия с «ядерной накачкой» были созданы еще в эпоху параноидальной рейгановской СОИ (Стратегической оборонной инициативы)…

Перейти на страницу:
Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.
Комментарии / Отзывы

Comments

    Ничего не найдено.