Принцип апокалипсиса. Сценарии конца света - Олег Фейгин Страница 26

Книгу Принцип апокалипсиса. Сценарии конца света - Олег Фейгин читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

Принцип апокалипсиса. Сценарии конца света - Олег Фейгин читать онлайн бесплатно

Принцип апокалипсиса. Сценарии конца света - Олег Фейгин - читать книгу онлайн бесплатно, автор Олег Фейгин

Стивен Хокинг отмечал, что примитивные формы искусственного интеллекта, уже существующие на сегодняшний день, доказали свою полезность, но он опасался, что человечество создаст что-то такое, что превзойдет своего создателя.

Ученый предполагает, что такой разум очень быстро возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. А если учесть, что возможности людей ограничены слишком медленной эволюцией, мы никак не сможем соревноваться со скоростью «мышления» машин.

Хокингу возражает молодой разработчик веб-приложения Cleverbot Ролло Карпентер, который доказывает, что мы еще долго останемся хозяевами даже самых продвинутых искинов, которые, в свою очередь, могут помочь нам решить многие мировые проблемы.

Для подобных высказываний у Карпентера есть весомые основания, ведь Cleverbot хорошо зарекомендовало себя в так называемом тесте Тьюринга. Суть его заключается в том, сможет ли экзаменатор при анонимном общении по ряду ответов на его вопросы уверенно определить, кто перед ним – человек или машина. При этом главная задача разработчика образа искина – так «настроить» его на человеческую логику, чтобы его было невозможно распознать.

Карпентер считает, что мы не можем с уверенностью сказать, что произойдет, когда машины превзойдут нас интеллектом. Следовательно, мы не можем предсказать, как они поведут себя: станут ли они нам помогать, нас игнорировать или же рано или поздно нас уничтожат.

С другой стороны, Хокинга всячески поддерживает американский инженер, предприниматель и миллиардер Илон Маек. Он основал известные компании: – аэрокосмический стартап SpaceX и автомобильный концерн Tesla. Маек уверен, что успех создания искусственного интеллекта станет самым значительным событием нашего времени, но это же станет, к сожалению, и последним событием для существования человечества. Этот яркий и выдающийся бизнесмен, автор многих амбициозных высокотехнологичных проектов, предостерегает, что уже через 5-10 лет в недрах искинов появится нечто действительно очень опасное. Маек сравнивает создание «нейрокибернетических искинов» буквально с «вызовом демона-разрушителя» и уверен, что необходимо срочно создать некий международный комитет по надзору за ИИ-технологиями.

Террористический Интернет

Я из тех, кто считает, что суперинтеллект может угрожать человечеству. Сначала машины будут выполнять за нас работу и не будут обладать суперинтеллектом. Хорошо, если мы правильно будем этим управлять. Через несколько десятилетий машины поумнеют настолько, что это может стать для нас проблемой. Здесь я согласен с Илоном Маском и другими и не понимаю, почему многих людей это не волнует.

Б. Гейтс, основатель корпорации Microsoft

Уже сейчас, как уверен профессор Хокинг, есть серьезные проблемы с интернетом. Свои опасения он подкрепляет словами директора Британского Центра по контролю за коммуникациями GCHQ Роберта Ханнигана, который недавно предупредил, что интернет становится командным центром для террористических организаций.

Свои опасения высказывает и основатель корпорации Microsoft Билл Гейтс, который, в частности, считает, что ИИ в самом скором времени может превратиться в источник постоянных проблем, связанных с непонятной даже его создателям логикой поведения.

В общем, тему своего заявления Хокинг выбрал неслучайно. Высокотехнологичный сектор робототехники относится к одной из самых динамичных и быстроразвивающихся отраслей современной индустрии. Передовые технологии с примитивными формами ИИ были созданы еще в конце прошлого века и сегодня активно применяются в различных отраслях: атомной, нефтегазовой, медицине и фармацевтике.

Хорошим примером «скрытой угрозы искинов» являются проекты создания интеллектуального электромобиля без водителя. Так, несколько лет назад первые 40 машин, оснащенные 22 сенсорами, панорамными камерами и «умной» программой управления, начали передвигаться в тестовом режиме со скоростью 30 км/ч по улицам городов Британии. Ведущие же мировые производители интеллектуальной робототехники – США, Южная Корея, Япония – по оценкам экспертов, вообще уже стоят на пороге новых революционных открытий в плане создания «сверхинтеллектуальных» искинов.

Вместе с тем развитие с такой степенью интенсивности принципиально нового технологического феномена – «коммуникации естественного и искусственного разума» – требует совершенно иного подхода к искинам в глобальном масштабе. Так, по мнению ряда ученых, вполне назрела необходимость выработки согласованных международных подходов по целому ряду щекотливых вопросов и явных, уже сейчас очевидных правовых ловушек, связанных с развитием и адаптацией ИИ в обществе.

Но вот что настораживает: пока ученые спорят о перспективах развития искусственного интеллекта, это направление высоких технологий продолжает активно развиваться в военных целях. Мало кто из западных стран, а особенно США, хотят ограничивать создание систем искусственного интеллекта, которые уже сейчас активно используются для отслеживания глобального информационного пространства. Иными словами, речь идет еще об одной сфере развития человечества, где может быть предпринята попытка создания условий для глобального доминирования. Может быть, имеет смысл прислушаться к мнению ученых и подумать над правовым регулированием в рамках ООН. Или хотя бы начать обсуждать эту тему в ЮНЕСКО. Иначе клонирование и зачатие ребенка от трех родителей, на что получено разрешение в той же Великобритании, покажется детской шалостью.

Глава 13
Электронный апокалипсис по принципу домино

Отбросив дипломатию, США приступили к подготовке глобальной кибервойны в интернете. Так, Пентагон объявил о проведении нескольких тендеров на закупку множества вредоносных программ для уничтожения компьютерных центров вероятного противника. А знаменитое Агентство передовых оборонных технологий (ДАРПА) занялось созданием интерактивной карты мировой сети с военной инфраструктурой вражеских киберобъектов.

Оборонная киберстратегия

Долгое время Вашингтонские политики упорно отрицали разработку глобальных кибербомб, способных взорвать виртуальное пространство входе превентивных ударов по воображаемому противнику. При этом чиновники Пентагона широко рекламировали «оборонную киберстратегию», сводящуюся лишь к «адекватным ответам» в сфере интернет-технологий. Однако недавно Конгресс неожиданно открыл щедрое финансирование на развитие средств масштабного кибернаступления.

Первым прореагировало командование ВВС, представив программу «Возможности ведения военных операций в киберространстве» с первоначальным бюджетом, превышающим 10 миллионов долларов. В ней декларируются цели: «уничтожать, ослаблять, нарушать, вводить в заблуждение, искажать и захватывать компьютерные сети и центры управления противника, устанавливая контроль над киберпространством при помощи заражения и взлома операционных систем, серверов и иных сетевых устройств».

На разработку и реализацию подобного вредоносного программного обеспечения отводится не более года, что говорит о наличии солидного задела.

Перейти на страницу:
Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.
Комментарии / Отзывы

Comments

    Ничего не найдено.