Почему ии может быть опасен. Искусственный интеллект как угроза

Развитие искусственного интеллекта однажды приведёт к превосходству его над умственными способностями человека. Однако не станет ли это опасным для человечества? Изучить ситуацию можно в результате более точного определения понятия ИИ , взяв за основу для сравнения естественный интеллект. Может ли в одном человеке сочетаться ум и интеллект одновременно? Или же умный человек не может быть интеллектуалом и наоборот?

Такие вопросы возникают в связи с приближением эры ИИ, о возможной опасности которого человечество должно знать заранее и своевременно принять меры для обеспечения своей безопасности. В первую очередь опасность ИИ будет связана с его самостоятельностью и неконтролируемым принятием решений. На данный момент уже выделены средства для изучения этой проблемы. В институте OpenAI изучаются перспективы развития ИИ. На теперешней стадии развития систем ИИ опасность его применения может быть связана со следующим факторами:

  • ошибками ПО (программного обеспечения). Любому программному обеспечению может угрожать такая опасность;
  • самостоятельной активностью ИИ, вредной для человека. Опасность от ИИ может исходить после изобретения умного компьютера. Поэтому необходимо определиться со степенью ума для компьютера, которая способна быть допустимой, а также чрезмерной, представляющей опасность для человека. Эти свойства должны быть точно измерены из-за сближения умственных способностей человека и компьютера, которые неизбежны. Информационные системы, существующие сегодня, представляют собой человеко-машины, которые могут работать благодаря интеллекту пользователя либо эксперта по компьютерам.

Например, какая опасность будет исходить от интеллектуальной бухгалтерской системы, которой может выдаваться неверная информация? Опасность может возникнуть, когда у такой системы появятся элементы личности, например, собственная заинтересованность, не имеющая ничего общего с человеческой. Решением такой проблемы может быть запрет на создание систем, отличающихся возможностью эволюции.

Кроме того, опасность может быть связана с содержанием в ИИ логических ошибок. Он может использоваться для решения достаточно сложных задач, список которых сразу неизвестен. Поэтому должны быть предусмотрены специальные меры для подтверждения правильности решение, которое будет получено. Скорее всего, возникнет необходимость в разработке всевозможных способов контроля таких систем, например, специальных программных средств, которыми будет автоматически проверяться правильность решения и при этом участие человека не потребуется.

Правообладатель иллюстрации Thinkstock Image caption Симбиоз человека и машины - один из путей развития человечества

Умные машины научились блефовать, обыгрывать профессионалов в шахматы или Го, переводить и распознавать человеческий голос. Каждую неделю мы узнаем о все новых подвигах компьютерных программ, уже умеющих ставить медицинские диагнозы, рисовать не хуже Рембрандта, петь или генерировать текст. Стоит ли человеку опасаться искусственного интеллекта?

По-настоящему "горячей" тема искусственного интеллекта (ИИ/AI) стала в последние несколько лет. Ученые связывают это с бурным развитием нейронных сетей (одно из направлений исследований в области искусственного интеллекта), которое, в свою очередь, стало возможным с появлением мощных компьютеров.

"С начала 2010-х годов под влиянием впечатляющих успехов, полученных в результате применения многослойных нейронных сетей (в первую очередь сверточных и рекуррентных), эта область привлекла серьезное внимание как со стороны ученых и инженеров, так и со стороны инвесторов", - комментирует автор одной из российских шахматных программ, специалист по методам машинного обучения Сергей Марков.

Ученое сообщество может спорить о сроках появления умных машин, но сходится в одном: развитие технологий окажет безусловное влияние на общество, экономику и отношения между людьми в будущем. Уже сейчас раздаются призывы обдумать этические принципы разработки искусственного интеллекта, удостоверившись в том, что искусственный интеллект развивается в безопасном для людей направлении.

Этот м атериал подготовлен в качестве ответа на вопрос ы , присланны е нашими читателями о научных достижениях . Задать свои вопросы по другим темам вы можете по этим ссылкам ( , ).

Экономический эффект и влияние на рынок труда

Научная фантастика и Голливуд сформировали представление об "искусственном интеллекте" как о следующей форме жизни на планете, которая поработит человечество в Матрице или организует ему ядерный Судный день. Выживших добьет Терминатор.

Правообладатель иллюстрации Getty Images Image caption Умрет ли человечество от Skynet?

В действительности, несмотря на последние достижения в области искусственного интеллекта, до появления разумных машиносуществ еще далеко, признают ученые и специалисты. И те, и другие, впрочем, советуют на некоторые аспекты обратить внимание уже сейчас.

По оценкам исследовательской организации McKinsey Global Institute, в ближайшие десять лет новые технологии радикально изменят рынок труда на планете, что позволит сэкономить порядка 50 трлн долларов.

Изменения коснутся сотен миллионов рабочих мест. Люди все больше и больше будут перекладывать часть своих служебных заданий и многие рутинные задачи на машину, что позволит им сосредоточиться на творческой работе.

"С некоторой точки зрения у человечества в целом есть важная и интересная задача - развиваться каждому конкретному индивидууму гораздо быстрее, чем человечество развивает системы искусственного интеллекта", - считает эксперт, директор по распространению технологий "Яндекса" Григорий Бакунов.

Но вместе с автоматизацией неминуемо пострадают менее квалифицированные кадры, и уже сейчас необходимо задуматься, как их защитить, переучить и подготовить к новой жизни.

Пострадать, как показывает практика, могут не только синие воротнички, но и работники умственного труда. Несколько дней назад Goldman Sachs заменил команду из 600 трейдеров на двух человек и автоматизированные программы алгоритмического трейдинга, для обслуживания которых были наняты 200 разработчиков-программистов.

Правообладатель иллюстрации Thinkstock Image caption Многие задачи вскоре станут по силам роботизированным системам, которые последовательно начнут заменять людей

Искусственный интеллект сам по себе не тождественен автоматизации процессов, но развитие ИИ приведет к тому, что все больше задач будет по силам компьютерной программе.

Среди вариантов решения проблемы вытеснения человека машиной на рынке труда, как указывает Аллисон Дютман, координатор программ Foresight Institute - некоммерческой организации, базирующейся в Силиконовой долине для продвижения новых технологий, - введение понятия "универсальный базовый доход", который бы получал каждый житель вне зависимости от уровня дохода и занятости. Подобный доход финансировался бы за счет так называемого инновационного налога Land Value Tax, введение которого сейчас активно обсуждается в Силиконовой долине.

Личность ли искусственный интеллект?

Является ли роботизированная система личностью? Может ли умный компьютер голосовать? Какого он пола? Отношения человека и умной машины уже сейчас обсуждают депутаты Европарламента, задаваясь вопросом, следует ли наделять будущих роботом статусом "электронной личности".

Как указывает Дютман, люди нехотя делятся правами с теми, кто им непонятен, а значит будут сопротивляться "очеловечиванию" ИИ.

Правообладатель иллюстрации AFP Image caption Человека и машину разделяет главное - способность думать

"Принимая во внимание, как долго человечество шло к тому, чтобы наделить равными правами всех людей, вне зависимости от цвета их кожи, расы или гендера, можно уже сейчас предположить, что и машины они не сходу не признают равными.

Вместе с этическими появляются и юридические тонкости: кто возьмет на себя ответственность в случае аварии беспилотного автомобиля или поломки умного медицинского устройства - и нравственные вопросы: стоит ли развивать беспилотное оружие, способное действовать без ведома человека?

Третья этическая головоломка обсуждается чаще других и волнует человечество гораздо больше: что теоретически может сделать с человечеством суперинтеллект, настоящая умная машина?

Научить ИИ этике

Специалисты в области развития ИИ признают: пусть не в ближайшие 20-30 лет, но человечество все же доживет до появления настоящего искусственного интеллекта, который будет умнее своего создателя.

"Последний бастион будет взят тогда, когда будет создан так называемый "сильный ИИ" (Strong AI, Artificial General Intelligence), то есть такой ИИ, который будет способен решать неопределенно широкий спектр интеллектуальных задач", - говорит Сергей Марков.

А главное, такой ИИ сможет самостоятельно думать.

Исследованием угроз, которые таит ИИ, а также этическими проблемами, связанными с новыми технологиями, занимаются многие институты, в числе которых организация Future of Life Institute (Институт будущего жизни), Foresight Institute, Future of Humanity Institute, OpenAI и другие.

Решение Аллисон Дютман из Foresight Institute - дать компьютеру прочитать всю научную литературу, научные статьи, поднимающие вопрос об этике, и сделать эту информацию основой для его будущих решений.

Что такое Нейронные сети и какое у них будущее?

Большинство экспертов связывают прогресс в развитии ИИ с развитием нейронных сетей.

Нейронные сети - это одно из направлений исследований в области искусственного интеллекта, основанное на моделировании биологических процессов, которые происходят в человеческом мозгу.

Именно им мы обязаны появлению впечатляющих результатов в распознавании речи и изображений, постановке медицинских диагнозов, переводе текста и создании изображений, генерации речи и музыкальной композиции.

Правообладатель иллюстрации iStock Image caption Именно с развитием нейронных систем связывают ученые развитие искусственного интеллекта

На сегодня, как признают специалисты, нейронные сети признаны одним из лучших алгоритмов машинного обучения, а решения на их основе показывают на данный момент самые выдающиеся результаты.

И это несмотря на то, что современные нейронные сети устроены в полторы тысячи раз проще, чем головной мозг крысы.

"Пока что создаваемые нами нейронные сети относительно невелики по сравнению, скажем, с нейронной сетью человеческого мозга и, кроме того, они представляют собой весьма упрощенный аналог естественных нейронных сетей. Поэтому пока что при помощи нейронных сетей мы решаем в основном сугубо прикладные задачи", - рассказывает Сергей Марков.

Сейчас создаются специализированные процессоры для обучения таких сетей (так называемые нейроморфические процессоры), которые позволят увеличить скорость вычислений на несколько порядков.

Разработчики не просто заняты сейчас увеличением количества нейронов в сети, но и изменением конструкции сетей. "Сложные системы конфигурации сетей - то, с чем сейчас производится наибольшее число экспериментов", - рассказывает Григорий Бакунов.

Правообладатель иллюстрации iStock Image caption "Умных" помощников человека в ближайшее время станет больше - микросенсоры в стене, сенсор размером с пуговицу, оповещающий человека в случае опасности

А тот факт, что такие системы стали сравнительно доступными большому числу рядовых разработчиков, привел к появлению стартапов, экспериментирующих с нейронными сетями, например Prisma (приложение позволяет обрабатывать фотографии, превращая их в стилизации картин известных художников) и Mubert (онлайн-композитор электронной музыки).

Что нас ждет в ближайшее время

Как прогнозирует профессор Университетского колледжа Лондона и Principal Scientist Nokia Bell Labs Ник Лейн, человека будут окружать еще больше "умных вещей". Они станут компактнее и эффективнее.

Профессор приводит такой пример: если раньше встроенный в стену сенсор мог лишь осознавать, что кто-то прошел мимо, то в будущем он будет не только знать, кто конкретно прошел, но и как ведет себя человек, не нуждается ли в чем, не представляет ли он угрозу для себя или окружающих.

Сенсор размером с пуговицу сможет оповещать человека в случае опасности.

С профессором согласен и Григорий Бакунов из "Яндекса": "В ближайшее время нас ждет бум развития узких искусственных интеллектов, которые помогают решать какую-то одну довольно простую задачу, но которую они будут решать даже лучше, чем человек".

Правообладатель иллюстрации iStock Image caption Все больше появляется этических вопросов, связанных с развитием ИИ

"Наиболее вероятным путем развития нашей цивилизации является путь синтеза человека и машины: палка, одежда, автомобиль, мобильный телефон, кардиостимулятор или кохлеарный имплантат - по мере развития наши инструменты все более и более напоминают продолжение наших тел. Уже завтра машины смогут получать от человека мысленные команды, воспринимать мысленно формируемые визуальные образы, передавать информацию непосредственно в мозг - такие проекты уже сейчас существуют за стенами наиболее продвинутых технологических лабораторий", - подытоживает Сергей Марков.

Журналисты пока еще нужны?

Газета Financial Times в прошлом году провела довольно рискованный эксперимент, одновременно поставив задачу написать текст своему профильному корреспонденту и умной программе по имени Эмма. Обе статьи затем должен был прочитать редактор Financial Times и угадать, за какой из двух заметок стоит журналист, а за какой компьютер.

Перед этим своеобразным "краш-тестом" корреспондент Financial Times признавалась: "Я думаю, программа точно справится с задачей быстрее меня. Но, надеюсь, я все-таки сделаю это лучше".

Так и случилось: Эмма действительно оказалась быстрее - программа сгенерировала текст на основе статистики об уровне безработицы в Британии за 12 минут. Журналистке потребовалось 35 минут. И, как она сама впоследствии признавалась, Эмма превзошла ее ожидания. Программа не только умело обращалась с фактами, но и поставила новость в контекст, предположив, как возможный "брексит" (дело было в мае 2016 года, до референдума о выходе Британии из ЕС) может изменить ситуацию.

Правообладатель иллюстрации Thinkstock Image caption Заменят ли людей роботизированные системы? Лет 50 у человечества в запасе есть, успокаивают специалисты

Но кое-что Эмма сделала все же хуже журналистки. "Статья Эммы была написана немного более корявым языком. Но главное, в ней было очень много цифр, - признавался редактор FT. - А, пожалуй, главное, что мы тут пытаемся делать, так это выбирать только действительно важные цифры".

Эмма - продукт стартапа Stealth. В компании говорят, что у Эммы есть команда живых помощников, но утверждают, что все, что она пишет или делает, - продукт исключительно ее "мозгов".

И все-таки - надо ли бояться ИИ?

Многие, если не все специалисты, задействованные на сегодняшний день в разработке систем искусственного интеллекта, охотно признают, что ИИ не скоро сделает людей ненужными. Именно потому, что искусственный интеллект еще не настолько умен. Главное, чего ему на сегодняшний день не хватает, - автономной возможности думать.

"Сейчас бояться ИИ ни в каком виде не стоит. Можно подождать лет 30-40, пока действительно какие-то радикальные изменения произойдут", - считает Бакунов.

Но кое-что уже происходит: понемногу стирается грань между работой или задачей, выполненной человеком, и задачей, выполненной машиной. Как объясняют специалисты, уже сейчас порой бывает сложно понять, кто сидит внутри системы - человек или машина.

"Нет критериев, когда мы сможем понять, что внутри машины зародилось сознание", - задается вопросом Бакунов.

Человек станет скрепкой?

Известный адепт алармистской точки зрения, в рамках которой ужасы, описанные в Терминаторе, могут стать реальностью, - философ Ник Бостром - придерживается мнения, что достигший интеллектуального уровня человека ИИ способен будет уничтожить человечество.

Правообладатель иллюстрации Getty Images Image caption Станет ли описанное в фильме нашей повседневной реальностью?

Бостром объясняет на примере скрепок: вы ставите перед искусственным интеллектом задачу делать скрепки, как можно больше и лучше. ИИ в какой-то момент понимает, что человек представляет угрозу, потому что может выключить компьютер, что будет противоречить задаче делать как можно больше скрепок. В случае, если человек не представляет угрозу, ИИ решает, что человеческие тела состоят из атомов, которые можно использовать для производства отличных скрепок. Итог - компьютер изведет человечество на скрепки.

Такой сценарий многим кажется преувеличением. По мнению Сергея Маркова, например, "высокая эффективность выполнения нелепой цели несовместима с нелепостью этой цели - грубо говоря, ИИ, способный переделать весь мир в скрепки, будет неизбежно достаточно умен для того, чтобы отказаться от такой цели".

Искусственный интеллект как золотая рыбка

Британский специалист в области искусственного интеллекта, профессор когнитивной науки в Университете Сассекса Маргарет Боден относится к утверждениям о скором пришествии умных машин скептически.

Правообладатель иллюстрации Getty Images Image caption В мае 1997 года компьютер Deep Blue II впервые выиграл матч у Гарри Каспарова

Профессор приводит пример "золотой рыбки", когда в обмен на свободу рыбак загадывает три желания. Одно из желаний - вернуть сына с войны, второе - 50 тысяч долларов и третье - возможность наутро загадать еще одно желание.

В тот же вечер в дом рыбака постучали. Сына вернули с войны - в гробу. Рыбак получил страховку в 50 тысяч долларов.

"Замените в этой притче рыбку на ИИ, и все станет ясно - объясняет Боден. - Ах, да, на следующий день рыбак воспользовался третьим желанием и - отменил предыдущие два".

Возможен ли перенос сознания в машину?

Сергей Марков:

"Если говорить о возможности полного переноса сознания, то современными предшественниками такой технологии будущего являются проекты, подобные Blue Brain, направленные на создание действующих электронных аналогов мозга, а также проекты, направленные на создание интерфейсов мозг-машина (BCI) - аппараты для протезирования потерянного зрения, слуха, замены утраченных конечностей, даже частей мозга.

Правообладатель иллюстрации Science Photo Library Image caption Цель специалистов в области ИИ - создать "сильный искусственный интеллект", который был бы способен решать широкий спектр задач

Очень интересным и перспективным направлением является оптогенетика (в принципе для сопряжения мозга и машины можно менять не только машины, но и саму нервную ткань, создавая в ней искусственные фоторецепторы).

Когда будет решен широкий спектр инженерных задач в рамках таких частных проектов, я думаю, что задача переноса сознания станет вполне разрешимой. Уже сейчас мечтатели предлагают гипотетические схемы для осуществления подобного проекта.

Например, Ян Корчмарюк, предложивший в свое время название "сеттлеретика" для направления исследований, связанных с переносом сознания, считает, что наиболее перспективной схемой является использование специализированных нанороботов, внедряемых в нейроны человеческого мозга. Впрочем, для успешного воплощения подобной схемы необходимо решить целый ряд сложных инженерных проблем".

Илон Маск, известный бизнесмен-миллионер, на встрече Национальной ассоциации губернаторов (США) неожиданно назвал искусственный интеллект (далее - И.И.) главной угрозой для человечества.

"Искусственный интеллект - тот редкий случай, когда нам нужно быть активным в регулировании, а не реагировать, - заявил миллионер, - Потому что к тому времени, когда мы будем реагировать, станет уже слишком поздно". После этого Маск призвал законодателей серьезно подумать над вопросом.

Конечно, роботы - это уже не сказка в духе "Мира Дикого Запада", а реальность. Последние успешные эксперименты по автоматизации процессов уже привели к тому, что люди лишаются рабочих мест, а многие профессии отпадают за ненадобностью. Даже если и не произойдет "бунта машин", через несколько десятилетий может наступить момент, когда человек окажется не у дел.

Среди новых опасностей, считает Маск, участие И.И. в информационных войнах, подделка учетных записей и манипуляция информацией.

Впрочем, из уст бизнесмена, представляющего крупнейшие корпорации, такое заявление, пожалуй, выглядит несколько подозрительно. С чем может быть связано заявление Маска и насколько И.И. является угрозой для человечества, Царьграду объяснили эксперты в сфере IT.

Леонид Делицын: Маск просто может получить из этого выгоду

Аналитик холдинга "Финам", эксперт по IT Леонид Делицын пояснил, во всех случаях, когда в дело вмешиваются законодатели и начинают определять круг допустимых активностей, чаще всего выигрывают крупные корпорации. "Потому что им легче договориться с законодателями о степени вмешательства в эту сферу. Они могут пролоббировать свои интересы" , - отметил эксперт.

Маск, безусловно, один из самых успешных лоббистов в Соединенных Штатах, добавил Делицын. "Насколько я знаю, выражалась озабоченность проникновением китайского капитала в американские фирмы, которые занимаются разработкой в области искусственного интеллекта. И озабоченность, в частности, тем, что им уже трудно помешать получать доступ к любым разработкам и достижениям в этой сфере. Соответственно, потенциально это обозначает, что Китай может укреплять свою армию и силовые структуры за счет передовых разработок", - предположил эксперт.

Но скорее всего Китай проникает не в такие корпорации, как у Илона Маска, а в компании поменьше. Поэтому можно предположить, что если такие компании столкнутся с законодательными ограничениями и барьерами, им придется согласовывать все детали. А это станет некоторым барьером на пути доступа китайских силовиков к достижениям в Штатах, объяснил Делицын.

"В таком случае позиция Маска становится логичной - его корпорации, Google, Apple и другие монстры, извлекут некоторую выгоду из сотрудничества с государством. Может быть, будут какие-то заказы, в это время мелкие конкуренты будут приторможены" , - сказал эксперт.

Роботы против людей: как выжить?

Комментируя саму проблему робота и человека, Делицын напомнил, что прецеденты по борьбе с развитием технологий были - например, движение луддитов, у которых станки забрали рабочие места.

"Безусловно, мы видим, какую революцию сейчас испытывает рынок такси, как у них падают цены. Потому что в этот мир пришла автоматизация заказов и, в общем-то, система становится все более оптимизированной. Таксистов вынуждают брать очень мелкие заказы, которые они, может быть, не брали бы в обычной ситуации, покрывая их за счет цен, и т.д."

В перспективе из-за роботизации действительно могут исчезнуть некоторые профессии. Это коснется сфер, где используется человеческий интеллект или низкая квалификация. Речь идет, например, как об аналитиках и журналистах, так и о таксистах.

"Быстро будут автоматизироваться сферы, связанные с обработкой больших объемов информации, особенно с рутинной обработкой больших объемов информации", - пояснил Делицын, напомнив о судьбе бухгалтеров. "Поговаривают даже о том, что благодаря технологии block chain юридические специалисты окажутся под угрозой" .

"Сильнее пострадают те сферы, где человек выполняет рутинную работу, которую не очень приятно выполнять и которую, может быть, человек выполнять и не должен. То есть та, которая наиболее легко автоматизируется", - резюмировал эксперт.

Там же, где большую роль играет интуиция и опыт, автоматизация будет ниже.

Фото: www.globallookpress.com

Если есть потребление - значит, это кому-нибудь нужно…

Впрочем, кому-то же надо потреблять товары - а это стимул придумать систему, в которой для человека останется место.

"Найдется ли место человеку в этой системе - большой вопрос. Потому что, конечно, с одной стороны это интересы фирмы, которой нужно урезать расходы, с другой - сотрудник, который хочет сохранить свое рабочее место. Но надо понимать, что нужен еще и потребитель, который будет покупать товары и услуги. А чтобы потребитель покупал товары и услуги, он должен что-то зарабатывать", - пояснил эксперт.

Так что при желании выход найти можно. Либо создадут систему, как в странах, богатыми на нефть, где распределяются доходы от углеводорода. Возможно, придумают систему, при которой роботы будут работать, а мы будем получать пенсию лет с 25 лет, и на это мы сможем покупать товары и услуги.

"Понятно, что у робота нет интереса продать товар и услугу, потому что ему это не очень нужно. А вот у фирмы этот интерес есть, потому что у фирмы есть владелец, и сейчас это все еще человек, а не робот. Поэтому фирме и нужны потребители, а чтобы потребители могли потреблять, им нужны какие-то заработки".

Александр Токаренко: Раз люди между собой не могут договориться, то что говорить об искусственном интеллекте?

Как отметил в интервью Царьграду член "Ассоциации руководителей служб информационной безопасности", руководитель комитета Межрегиональной общественной организации" Александр Токаренко , И.И. может стать угрозой для людей. "Естественно, если люди между собой не могут договориться, то как они договорятся с интерактивным интеллектом?"

По прогнозам эксперта, реальной проблемой для людей это может стать где-то через столетие. На вопрос о том, как можно избежать катастрофы, Токаренко напомнил о трех законах робототехники Айзека Азимова.

"Если искусственные вычислительные системы будут придерживаться вот этих норм, изначально создаваться по ним, то, может, нам еще что-то светит".

При этом, по оценке эксперта, главная угроза - не в потере рабочих мест, и не в создании фейковых новостей (с этим и так прекрасно справляются сами люди) - а в создании автоматизированного оружия . Такие системы уже есть - и не дай Бог в них появится интеллект. Вот тогда у человечества возникнут огромные проблемы.

Фото: www.globallookpress.com

Игорь Ашманов: главной угрозой человечества являются такие, как Маск

В свою очередь, директор компании "Ашманов и партнеры" Игорь Ашманов не согласился с тем, что заявление Илона Маска нужно воспринимать серьезно. По его мнению, это скорее жулик, который спекулирует на горячих темах.

"Это бредовые идеи и апокалиптические прогнозы о том, что мы все погибнем и все пропадем. Они, в общей сложности, обычно нужны для получения медийного покрытия", - считает эксперт.

"На мой взгляд, главной угрозой человечества являются такие, как Маск. То есть, безответственные жулики, которые пытаются нам втюхать цифровое общество. А для нас они особенно опасны в связи с тем, что НАСА изучает цифровую колонизацию. Он, конечно, не все делает сам - кто-то передает ему технологии НАСА, вносит деньги, повышает оценку его компании".

Люди - самый опасный вид на этой планете

В целом, по мнению Ашманова, И.И. как злая угроза - довольно раздутая в фильмах тема. "На самом деле, гораздо хуже интеллект, в которого волю заложили люди. Например, автоматические дроны, при помощи которых американцы в пяти-семи странах охотятся на людей".

Уже сейчас И.И., встроенный в этот дрон, позволяет ему лучше распознавать цели, но пока не принимать решения. Но это решение не за горами.

"В итоге это будет не искусственный интеллект, который захватил власть, а боевая собака, которую натравливают на людей вполне конкретные люди" , - полагает Ашманов.

Поэтому основную опасность для нас, как всегда, представляют люди, а не искусственный интеллект, резюмировал эксперт. "Люди - самый опасный вид на этой планете, склонный к непрерывному кровопролитию. Самым опасным является не искусственный интеллект, а стремление некоторых людей передать ему право принимать решения. Это разные вещи".

Самосовершенствующийся искусственный интеллект (ИИ) в будущем может поработить или убить людей, если он этого захочет. Об этом рассказал ученый Амнон Иден, который полагает, что риски от разработки свободомыслящего и высокоинтеллектуального сознания очень велики, и, «если не озаботиться вопросами контроля ИИ уже на сегодняшнем этапе развития, то завтра может просто не наступить». Как сообщает английское издание Express, человечество, по мнению Амнона Идена, находится сегодня в «точке невозврата» для претворения в жизнь сюжета знаменитой киноэпопеи «Терминатор».

Стоит отметить, что доктор Амнон Иден является руководителем проекта, главная цель которого - это анализ потенциального разрушительного воздействия ИИ. Без правильного понимания последствий создания искусственного интеллекта его разработка может грозить катастрофой, полагает ученый. В настоящее время наше общество плохо информировано о тех спорах, которые ведутся в научных кругах об анализе потенциального воздействия ИИ. «В наступившем, 2016 году анализ возможных рисков должен будет получить существенно большее распространение в мышлении корпораций и правительств, политиков и тех лиц, которые ответственны за принятие решений», - считает Иден.


Ученый уверен, что научная фантастика, которая описывание уничтожение человечества роботами, вскоре может стать нашей общей проблемой, так как процесс создания ИИ вышел из-под контроля. К примеру, Илон Маск при поддержке предпринимателя Сэма Альтмана решил создать новую некоммерческую организацию стоимостью 1 миллиард долларов, которая занимается разработкой ИИ с открытым исходным кодом, который должен превзойти человеческий разум. При этом сам американский миллиардер Илон Маск причисляет искусственный интеллект к числу «самых больших угроз нашему существованию». Стив Возняк, который был соучредителем компании Apple, в марте прошлого года рассказал, что «будущее выглядит пугающим и очень опасным для людей… в конце концов настанет день, когда компьютеры будут думать быстрее, чем мы, и они избавятся от медленных людей для того, чтобы компании могли работать более эффективно».

Стоит отметить, что угрозу со стороны ИИ видят многие ученые. Десятки известных ученых, инвесторов и предпринимателей, деятельность которых, так или иначе, связана с разработкой искусственного интеллекта, подписали открытое письмо с призывом уделять более пристальное внимание вопросу безопасности и общественной полезности работ в области ИИ. Среди подписавших данный документ астрофизик Стивен Хокинг и основатель компании Tesla и SpaceX Илон Маск. Письмо вместе с сопроводительным документом, который был составлен общественной организацией Future of Life Institute (FLI), было написано в обстановке растущей обеспокоенности по поводу влияния искусственного интеллекта на рынок труда и даже на долгосрочную перспективу выживаемости всего человечества в условиях, когда возможности роботов и машин будут расти практически безудержно.

Ученые понимают тот факт, что потенциал ИИ сегодня очень велик, поэтому необходимо всецело исследовать возможности его оптимального для нас использования, чтобы избежать сопутствующих ловушек, отмечается в письме FLI. Необходимо, чтобы созданные человеком системы ИИ делали ровно то, чего мы от них хотим. Стоит отметить, что Future of Life Institute был основан лишь в прошлом году рядом энтузиастов своего дела, среди которых был создатель Skype Яан Таллинн, для того чтобы «минимизировать риски, стоящие перед человечеством» и стимулировать исследования с «оптимистическим видением будущего». Прежде всего, речь здесь идет о рисках, которые вызваны развитием ИИ и робототехники. В консультационный совет FLI входят Маск и Хокинг наряду со знаменитым актером Морганом Фриманом и другими известными людьми. По мнению Илона Маска, неконтролируемое развитие искусственного интеллекта представляет потенциально большую опасность, чем ядерное .

Известный британский астрофизик Стивен Хокинг в конце 2015 года постарался объяснить свое неприятие технологий ИИ. По его мнению, сверхразумные машины со временем будут смотреть на людей как на расходный материал или муравьев, которые просто мешают решению стоящих перед ними задач. Общаясь с пользователями портала Reddit, Стивен Хокинг отметил, что он не считает, что подобные сверхразумные машины будут «злыми существами», желающими уничтожить все человечество из-за своего интеллектуального превосходства. Скорее всего, речь можно будет вести о том, что они просто не будут замечать человечество.

«СМИ в последнее время постоянно искажают мои слова. Главный риск, который заключается в развитии ИИ, это не злоба машин, а их компетенция. Сверхразумный искусственный интеллект будет отлично справляться с задачами, но если его и наши цели не будут совпадать, у человечества появятся очень серьезные проблемы», - поясняет известный ученый. В качестве примера Хокинг привел гипотетическую ситуацию, в которой сверхмощный ИИ отвечает за функционирование или строительство новой плотины ГЭС. Для подобной машины первостепенным будет то, как много энергии вверенная система будет вырабатывать, а судьба людей не будет иметь никакого значения. «Среди нас найдется мало тех, кто топчет муравейники и наступает на муравьев со злости, но давайте представим ситуацию - вы контролируете мощную ГЭС, которая вырабатывает электроэнергию. Если вам необходимо будет поднять уровень воды и в результате ваших действий один муравейник будет затоплен, то проблемы утопающих насекомых вряд ли будут вас беспокоить. Давайте не будем ставить людей на место муравьев», - отметил ученый.

Второй потенциальной проблемой дальнейшего развития искусственного интеллекта, по мнению Хокинга, может стать «тирания хозяев машин» - стремительный рост разрыва в уровне доходов между богатыми людьми, которым удастся монополизировать выпуск разумных машин, и остальным населением планеты. Стивен Хокинг предлагает решать эти возможные проблемы следующим путем - замедлить процесс разработки ИИ и переключиться на разработку не «универсального», а узкоспециализированного искусственного разума, который сможет решать лишь крайне ограниченный круг задач.

Помимо Хокинга и Маска, свои подписи под письмом поставили нобелевский лауреат и профессор физики MIT Фрэнк Вильчек, исполнительный директор Института исследований машинного интеллекта (MIRI) Люк Мюльхаузер, а также многие специалисты из крупных IT-компаний: Google, Microsoft и IBM, а также предприниматели, основавшие компании Vicarious м DeepMind, специализирующиеся на разработке систем ИИ. Составители письма отмечают, что они не ставят своей целью напугать общественность, но планируют подчеркнуть как положительные, так и отрицательные стороны, которые связаны с созданием искусственного интеллекта. «В настоящее время все сходятся во мнении, что исследования в области ИИ уверенно прогрессируют, а влияние ИИ на современное человеческое общество будет только усиливаться, - сообщается в письме - открывающиеся перед человеком возможности огромны, все, что может предложить современная цивилизация, было создано интеллектом человека. Мы не в состоянии предсказать, чего нам удастся достичь, если интеллект человека можно будет помножить на средства ИИ, однако проблема избавления от бедности и болезней уже не представляется бесконечно трудной».

В современный быт уже включены многочисленные разработки в области искусственного интеллекта, включая системы распознавания изображений и речи, беспилотные транспортные средства и многое другое. Согласно оценкам наблюдателей из Кремниевой долины, в данной области сегодня реализуется более 150 стартапов. При этом разработки в этой области привлекают все больше инвестиционных вложении и все больше компаний наподобие Google развивают свои проекты на базе ИИ. Поэтому авторы письма полагают, что настало самое время, для того чтобы уделить повышенное внимание всем возможным последствиям наблюдаемого бума для экономических, социальных и юридических сторон человеческой жизни.

Позицию о том, что искусственный интеллект может представлять опасность для человека, разделяет и Ник Бостром профессор Оксфордского университета, который известен своими работами об антропном принципе. Данный специалист считает, что ИИ подошел к той точке, за которой последует его несовместимость с человеком. Ник Бостром подчеркивает, что в отличие от генной инженерии и изменений климата, для контроля которых правительства выделяют достаточные суммы, «ничего не делается, для того чтобы контролировать эволюцию ИИ». По мнению профессора, в отношении искусственного интеллекта в настоящее время ведется «политика правового вакуума, который нужно заполнить». Даже такие технологии, как беспилотные автомобили, которые представляются безобидными и полезными, вызывают ряд вопросов. К примеру, должен ли подобный автомобиль совершать экстренное торможение, для того чтобы спасти своих пассажиров и кто будет отвечать в случае ДТП, совершенного беспилотным автомобилем?

Рассуждая над потенциальными рисками, Ник Бостром отметил, что «компьютер не в состоянии определить пользу и вред для человека» и «не имеет даже малейшего представления о человеческой морали». Помимо этого, циклы самосовершенствования в компьютерах могут происходить с такой скоростью, за которой человек просто не сможет уследить, и с этим также почти ничего нельзя сделать, говорит ученый. «На том этапе развития, когда компьютеры смогут думать сами за себя, никто не сможет точно предсказать, приведет ли это к хаосу или существенно улучшит наш мир, - заявил Ник Бостром, в качестве примера приведя простое возможное решение компьютера - отключить в странах с холодным климатом отопление для оздоровления людей и повышения их выносливости, которое «может прийти в голову искусственному интеллекту».

Помимо этого, Бостром поднимает и проблему чипирования человеческого мозга с целью повышения нашего биоинтеллекта. «Во многих отношениях такая процедура может быть полезной, если все процессы будут контролируемыми, но что произойдет, если вживленный чип сможет перепрограммировать сам себя? К каким последствиям это может привести - к возникновению сверхчеловека или к появлению компьютера, который будет лишь выглядеть человеком?» - задается вопросами профессор. Способы, при помощи которых компьютеры решают человеческие проблемы, очень сильно отличаются от наших. К примеру, в шахматах человеческий мозг рассматривает лишь узкий набор ходов, выбирая из них самый лучший вариант. В свою очередь компьютер рассматривает все возможные ходы, выбирая лучший из всех. При этом компьютер не рассчитывает огорчить или удивить своего противника по игре. В отличие от человека, играя в шахматы, компьютер может сделать хитрый и тонкий ход лишь случайно. Искусственный интеллект может посчитать наилучшим способом - устранить ошибку из любой системы за счет удаления оттуда «человеческого фактора», но, в отличие от человека, робот не готов совершать подвиги, которые спасли бы людям жизнь.

Помимо всего прочего, рост количества умных машин представляет собой этап новой промышленной революции. В свою очередь, это означает, что уже в ближайшем будущем человечество столкнется с неизбежными социальными изменениями. Работа со временем станет уделом высококвалифицированных специалистов, так как практически все простые задания смогут взять на себя роботы и другие механизмы. Ученые считают, что за искусственным интеллектом «нужен глаз да глаз», чтобы наша планета не превратилась в мультипликационную планету «Железяка», которая была населена роботами.

В плане все большей автоматизации процессов производства будущее уже наступило. Всемирный экономический форум (ВЭФ) представил свой отчет, согласно которому автоматизация приведет к тому, что еще до 2020 года более 5 миллионов человек, трудящихся в самых разных областях, потеряют свое место работы. Таково влияние роботов и роботизированных систем на нашу жизнь. Для составления отчета сотрудники ВЭФ использовали данные о 13,5 млн. работников из различных стран мира. Согласно их данным, к 2020 году суммарно пропадет потребность в более чем 7 миллионах рабочих мест, тогда как ожидаемый рост занятости в других отраслях составит всего чуть более 2 миллионов рабочих мест.

Источники информации:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html

Когда люди наблюдают за техникой, которая ведёт себя подобно человеку и компьютерами, которые обрабатывают титанические объёмы данных, возникает немало мыслей о будущем. Приличная их часть основана на теме порабощения человеческой расы.

Научно-фантастическая литература и кинематограф от «2001: Космическая одиссея» (1968) до «Мстители: Эра Альтрона» (2015) прогнозируют, что искусственный интеллект превзойдёт ожидания создателей и выйдет из-под контроля. Якобы его целью станет не просто конкуренция с человеком, а порабощение и истребление нашего вида.

Научная фантастика или страшное будущее?

Конфликт между людьми и искусственным интеллектом основная тема научно-фантастического сериала «Люди», третий сезон которого вышел в этом году. В новых эпизодах «синтетические» люди сталкиваются с враждебностью обычных людей, которые относятся к ним с подозрением, страхом и ненавистью. Насилие бушует. «Синты» воюют за свои основные права против тех, кто считает их нечеловечными.

Фантастика – крайность воображения. Но и в реальном мире не все желают встречать ИИ с распростёртыми объятиями. В последние годы границы воображаемых возможностей искусственного интеллекта активно раздвигаются. Люди все чаще говорят о его опасности. А предположения о том, что технологии способны обречь человечество, кажутся реальнее. Искусственный интеллект пугает нас.

Мнение об искусственном интеллекте

Илон Маск – один из самых заметных людей, которые призывают к осторожности, обсуждая ИИ. В июле прошлого года на встрече Национальной ассоциации губернаторов он сказал: «Я обладаю большим опытом работы с технологичными ИИ и думаю, что человечеству действительно необходимо об этом беспокоиться. Я продолжаю давать сигнал тревоги. Пока роботизированные машины не пойдут по улицам, уничтожая людей, мы не поймём, как на это реагировать, потому что такая перспектива воспринимается как нереальная».

В 2014 году, Маск называл искусственный интеллект «нашей самой большой экзистенциальной угрозой», а в августе 2017 заявил, что для человечества ИИ представляет больший риск, чем северокорейская идеология.

Величайший физик Стивен Хокинг также выражал беспокойство по поводу злоумышленного применения искусственного интеллекта. В 2014 году он сообщил BBC, что «развитие полноценного ИИ может стать предзнаменованием конца для человечества».

Ещё один удар нанесла команда программистов из MIT Media Lab в Кембридже, которая решила доказать, что ИИ опасен. Нейронная сеть Nightmare Machine («Машина кошмаров»), представленная в MIT в 2016 году, превратила обычные фотографии в ужасные демонические пейзажи. Искусственный интеллект под названием Shelly (так же разработан в MIT), сочинил 140 000 рассказов в жанре ужасов, которые пользователи Reddit публиковали на форуме r/nosleep.

«Нас интересует, как искусственный интеллект вызывает эмоции, конкретно в этой ситуации он спровоцировал страх» — прокомментировал эксперимент Мануэль Себриан, менеджер по исследованиям MIT Media Lab.

Почему мы боимся?

По мнению Килиана Вайнбергера, доцента кафедры информатики в Корнельском университете, негативные впечатления от искусственного интеллекта делятся на две категории:

Идея о том, что ИИ станет сознательно-независимым и попытается уничтожить нас.
Мнение, что злоумышленники будут использовать ИИ в своих целях.

«Искусственный интеллект пугает нас, потому что мы думаем, что супериндустриальный ИИ, став умнее человека, будет относиться к нему, как к низшему существу. Так же, как мы – к приматам. И это, конечно, крайне волнительно для человечества».

Однако Вайнбергер отмечает, что опасения по поводу превосходства и желания ИИ уничтожать расу базируются на неправильных представлениях об этой технологии. Искусственный интеллект впечатляет, когда мы видим его в действии. Но он имеет и массу ограничений. ИИ определяется алгоритмами. Они задают его поведение с помощью предписанных функций и не более того.

Нейронные сети выполняют сложные задачи с несколькими видами данных. Но большинство навыков, которыми человек обладает, даже не развивая их намеренно, для машинного интеллекта недоступны.

Искусственный разум может во много раз превзойти человека в выполнении специализированных работ. Например, игре в шахматы, идентификации объектов по изображению или большому анализу данных в бухгалтерии или банковском секторе.

У ИИ, который бы обладал самостоятельным сознанием, не будет такого прогресса, что он поработит человечество. И нет оснований считать, что подобный прогресс появится в скором будущем — добавляет Вайнбергер.

Но есть ещё одна тема о том, почему искусственный интеллект пугает нас – это использование возможностей ИИ людьми с плохими намерениями. Этот сценарий более реален и опасен.

Рационален ли наш страх?

В мире телесериала «Люди» человечество испытывает страх перед разумным ИИ и вступают в ожесточённую конфронтацию с ним. И, судя по популярности проекта, этот сюжет отвечает на актуальный запрос общества.

Боязнь технологий нельзя назвать необоснованной, поскольку определённый риск, безусловно, присутствует. Но опасность любого инструмента заключается в мыслях того, кто им управляет. Очевидно, именно этот вопрос необходимо решить человечеству, чтобы искусственный интеллект служил во благо.