Искусственный интеллект опасен для человека. Эксперты предупреждают об опасности искусственного интеллекта! Экономический эффект и влияние на рынок труда

Искусственный интеллект (ИИ) - тема, которая уже давно не сходит со страниц научно-популярных журналов и постоянно затрагивается в кино и книгах. Чем больше специалисты развивают эту область науки, тем большими мифами она покрывается.

Развитие и будущее искусственного интеллекта волнует и тех, кто стоит у руля государства. Не так давно президент РФ Владимир Путин посетил офис Яндекса в день 20-летия компании, где ему объяснили, когда ИИ превзойдет человеческий интеллект.

Все, кто хоть немного проникает в суть потенциала искусственного интеллекта, понимают, что оставлять без внимания эту тему нельзя. Это не только важная тема для обсуждения, но и, наверное, одна из самых значимых в контексте будущего.

Словом, заметные успехи есть и у нас в стране.

Чем быстрее развиваются технологии искусственного интеллекта, тем сильнее людей захватывает опасение - как быстро они останутся без работы. Все действительно так плохо?

И да, и нет. Человечество уже несколько раз сталкивалось с возникновением технологий, революционно изменивших всю производственную сферу.

Так было с паровым двигателем в эпоху промышленной революции практически уничтожившим многие профессии (в основном, связанные с примитивным физическим трудом), так было с электронными вычислительными машинами, которые заменили человека в задачах, основанных на поточных математических расчётах.

В XV-XVIII вв.еках, когда в Англии «овцы съели людей», социальные последствия были действительно катастрофическими. Англия потеряла по разным оценкам от 7 до 30% своего населения. Властная элита того времени была всерьёз озабочена тем, куда девать лишних людей. Джонатан Свифт откликнулся на эти искания юмористическим памфлетом, в котором предлагал употреблять детей бедняков в пищу.

Однако в наши дни мы видим, что на смену вымершим профессиям пришли новые, и население Земли куда больше, чем в XVIII веке. В XX веке последствия автоматизации были уже не столь катастрофичны с социальной точки зрения. Однако недооценивать опасность всё-таки не стоит.

«Через 30 лет роботы смогут делать практически всё, что умеют делать люди, - такой прогноз дал Моше Варди (Moshe Vardi), профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди (Ken Kennedy Institute for Information Technology) при Университете Райса (William Marsh Rice University). Это приведёт к тому, что более 50% жителей Земли станут безработными».

Роботы забирают работы

На днях председатель комитета Госдумы по информационной политике, информационных технологиям и связи Леонид Левин заявил, что для России является важной проблема вытеснения рабочей силы искусственным интеллектом.

Рано или поздно людей заменят автоматизированной системой, и на рынок выплеснется 2% работоспособного населения страны. Именно поэтому о том, как их трудоустроить, тех, кто потеряет работу вследствие развития цифровых технологий, нужно думать уже сейчас сказал Левин.

По мнению председателя, уже в скором будущем мы столкнемся с ростом безработицы. Но действительно ли роботы «отберут» наши рабочие места и стоит ли беспокоиться по этому поводу рассказал «Ридусу» специалист по машинному обучению Сергей Марков.

Сергей, даже сейчас уже есть «мертвые профессии», которые не требуют человеческого труда, хотя, казалось бы, лет 10 назад никто и не думал, что, например, кондуктора скоро станут ненужными. А какие еще профессии вытеснят технологии?

Мы приближаемся к тому времени, когда машины превзойдут людей почти в любом деле. Я считаю, что обществу нужно посмотреть в лицо этой проблеме до того, как она встанет во весь рост. Если машины будут способны делать почти всё, что умеют люди, что тем останется делать? сказал Моше Варди, профессор вычислительной инженерии и директор Института информационных технологий Кена Кеннеди при Университете Райса.

Долгое время на пути автоматизации стояли технологические ограничения - машины не могли распознавать образы и речь, не могли говорить, не могли достаточно хорошо понимать смысл высказываний на естественном языке, не имели достаточно данных для того, чтобы научиться многим привычным для человека вещам.

Благодаря последним достижениям в сфере искусственного интеллекта многие из этих ограничений фактически оказались сняты. Кроме того, многие профессии сами претерпели трансформацию, что сделало их более удобными для автоматизации.

Например, современный офисный клерк ведёт переписку не в бумажном, а в электронном виде, бухгалтер выполняет проводки не на бумаге, а в бухгалтерской программе, оператор станка управляет станком зачастую не при помощи рукоятей, а при помощи управляющей программы. Поэтому сейчас задача автоматизации во многих профессиях перестала быть научной и стала чисто инженерной.

Правда пока что производственная сфера, связанная с ИИ, скорее создаёт рабочие места - нужны специалисты в области машинного обучения и подготовки данных, сотрудники для разметки обучающих массивов, специалисты по внедрению и т. д. Но в какой-то момент электроовцы определённо начнут есть людей, и о последствиях нужно позаботиться уже сейчас.

При этом важно понимать, что остановить технический прогресс нельзя, и попытка это сделать обернётся куда более катастрофичными последствиями.

Мы сможем когда-нибудь полностью довериться роботам (ИИ), или все-таки в любом деле должен быть человеческий фактор?

У этого вопроса есть несколько аспектов. С одной стороны, люди в прошлом с опаской относились практически к любой технике. Первый лифт, первый автомобиль, первый поезд или самолёт - всё это когда-то было непривычным, и многим казалось опасным. Да во многом опасным и было - техногенные катастрофы унесли немало жизней.

И тем не менее в наши дни все эти вещи стали привычными и уже не вызывают сильного страха. В этом смысле - наши потомки будут относиться к системам ИИ более спокойно. Люди порой склонны мистифицировать вещи, которые им непонятны. Дикарь думает, что в паровозе живёт злой дух, а современный обыватель думает, что наши системы ИИ обладают сознанием, хотя это далеко не так.

С другой стороны, я не думаю, что универсальные системы ИИ когда-либо станут частью нашей производственной сферы. На мой взгляд будущее скорее за синтетическими системами - то есть за объединением человека и машины в единый организм. В этом смысле искусственным интеллектом будущего будет усовершенствованный человеческий интеллект.

Кстати говоря, человеческий интеллект тоже не совсем корректно называть естественным. Ребёнок от рождения не обладает интеллектом, всему его учит общество, родители, окружающая среда. В этом смысле мы с вами все по сути дела «искусственные интеллекты», и наши страхи, связанные с ИИ, во многом являются страхами перед самими собой.

Последнее время многие ученые, например, Стивен Хокинг , Билл Гейтс или тот же Илон Маск , начали паниковать, что ИИ обрекает человечество на гибель, а будущее они видят какой-то антиутопией. Стоит ли воспринимать такие прогнозы всерьез?

Честно говоря, я бы не спешил всерьёз пугаться этих заявлений. Стивен Хокинг, безусловно, не является специалистом в области ИИ, как, в общем-то, и Илон Маск.

На другой чаше весов высказывания таких людей, как например, Эндрю Ын - американский учёный в области информатики, доцент Стэнфордского университета, исследователь робототехники и машинного обучения, ведущий специалист лаборатории искусственного интеллекта китайской корпорации Baidu .

Ын, говоря о проблеме безопасности ИИ, сравнивает её с проблемой перенаселения Марса - конечно, мы когда-нибудь колонизируем Марс, и тогда, возможно, в какой-то момент там возникнет проблема перенаселения. Но стоит ли заниматься ей сегодня?

Марк Цукерберг также довольно скептически отнёсся к заявлениям Маска. «Искусственный интеллект сделает в будущем нашу жизнь лучше, а предсказывать конец света очень безответственно», - заявил он.

Лично я думаю, что высказывания Маска стоит рассматривать в прагматическом ключе - Маск хочет застолбить эту тему и в идеале получить от государства средства для её разработки.

Неужели все так безоблачно и не о чем беспокоиться?

Реальные опасности, связанные с развитием ИИ, лежат, на мой взгляд, совсем в иной плоскости, чем об этом принято думать. Главные риски связаны не с тем, что мы своими создадим «Скайнет», который поработит человечество. Риски от внедрения технологий ИИ и машинного обучения куда более прозаичны.

Доверяя решение важных вопросов тем или иным математическим моделям, мы можем пострадать от ошибок, допущенных при их разработке. Искусственный интеллект, воспроизводящий действия людей-экспертов, унаследует их ошибки и предубеждения. Недоработки в системах управления производством или транспортом могут привести к катастрофам.

Вмешательство злоумышленников в работу жизненно важных систем в условиях тотальной автоматизации может повлечь опасные последствия. Чем сложнее системы, тем больше в них может быть потенциальных уязвимостей, в том числе связанных со спецификой тех или иных алгоритмов искусственного интеллекта.

Безусловно, для управления этими рисками следует создавать законодательную базу, разумные регламенты безопасности, специальные методы для выявления уязвимостей. Одни системы ИИ будут использоваться для контроля других. Возможно, код жизненно важных систем будет обязателен к публикации для независимого аудита. Словом, специалистам в этой сфере предстоит ещё много работы.

Популярный американский интернет-журнал Wired опубликовал крайне любопытный текст Кевина Келли, в котором он обстоятельно критикует идею об опасности искусственного интеллекта. «НИ» публикует перевод этого материала, сделанный силами телеграм-канала Newochem с небольшими сокращениями.

«Мне приходилось слышать, что в будущем компьютеры с искусственным интеллектом станут настолько умнее человека, что лишат нас рабочих мест и ресурсов, и в итоге человечеству придет конец. Но так ли это? Подобный вопрос мне задают каждый раз, когда я читаю лекции об ИИ.

Вопрошающие при этом серьёзны как никогда, их беспокойство отчасти связано с тревогами некоторых экспертов, которых терзает тот же самый вопрос. К их числу относятся умнейшие из наших современников - Стивен Хокинг, Илон Маск, Макс Тегмарк, Сэм Харрис и Билл Гейтс.

Все они допускают возможность подобного сценария. На состоявшейся недавно конференции по ИИ коллегия из девяти наиболее просвещенных гуру в этой области пришла к единодушному заключению, что создание сверхчеловеческого интеллекта неминуемо и уже не за горами.

И всё же сценарий порабощения человечества искусственным интеллектом основывается на пяти допущениях, которые при более внимательном рассмотрении оказываются бездоказательными. Эти утверждения могут быть истинными в будущем, но на сегодняшний день ничем не подтверждены.

Вот они:

  1. Искусственный интеллект уже становится умнее человеческого разума, причем этот процесс носит экспоненциальный характер.
  2. Мы разработаем ИИ общего назначения, схожий с нашим.
  3. Мы можем создать человеческий интеллект из кремния.
  4. Интеллект может быть безграничен.
  5. Создание грандиозного сверхинтеллекта разрешит большинство наших проблем.

В противовес этим ортодоксальным постулатам я могу привести следующую доказанную ересь:

  1. Интеллект не одномерен, поэтому «умнее человека» - бессмысленное понятие.
  2. Люди не наделены разумом общего назначения, что не грозит и искусственному интеллекту.
  3. Соперничество между человеком и компьютером будет ограничено затратами.
  4. Интеллект не безграничен.
  5. Создание ИИ - лишь часть прогресса.

Если вера в порабощение человека искусственным интеллектом базируется на пяти безосновательных допущениях, то эта идея в большей мере схожа с религиозными верованиями - мифами. В следующих главах я дополню мои контраргументы фактами и докажу, что сверхчеловеческий искусственный интеллект и в самом деле не более, чем миф.

Наиболее распространенное заблуждение об ИИ исходит из не менее популярного мнения о естественном интеллекте, будто он одномерен. В точных науках многие изображают интеллект так, как Ник Бостром в своей книге «Сверхразум» - буквально в виде одномерного линейного графика с растущей амплитудой.

На одном конце расположены существа с наиболее низким уровнем интеллекта, к примеру, маленькие животные, а на другом - гении, словно уровень интеллекта ничем не отличается от уровня звука, измеряемого в децибелах. Конечно, в таком случае легко представить дальнейшее увеличение, при котором уровень интеллекта превышает самую высокую отметку графика и даже выходит за его пределы.

Такая модель топологически эквивалентна лестнице, на ступенях которой уровни интеллекта расставлены в порядке возрастания. Менее разумные животные занимают нижние ступени лестницы, а искусственный интеллект более высокого уровня будет неизбежно располагаться над нами. Временные рамки того, когда это случится, не играют роли. Куда важнее сами ступени иерархии - метрики растущего интеллекта.

Проблема этой модели заключается в том, что она мифична, как и модель эволюционной лестницы. До дарвинизма живая природа представлялась лестницей живых существ, где человек занимал ступень над более примитивными животными.

И даже после Дарвина одним из наиболее распространенных понятий остается лестница эволюции. Она демонстрирует превращение рыб в рептилий, их - в млекопитающих, приматов в человека. При этом каждое следующее существо более развитое (и разумеется, более разумное), чем его предшественник. Так лестница интеллекта коррелирует с лестницей мироздания. Однако обе модели отражают совершенно антинаучные взгляды.

Более точной схемой для природной эволюции был бы диск, расходящийся наружу, как на изображении выше. Впервые такое строение было разработано Дэвидом Хиллисом из Техасского университета, он сделал это на основании ДНК. Эта генеалогическая мандала начинается в центре с самых примитивных форм жизни, а затем разветвляется наружу. Время идет вперед, поэтому наиболее поздние формы жизни располагаются по периметру круга.

Это изображение подчеркивает не поддающийся оценке факт об эволюции фундаментального значения - все живые существа эволюционировали в равной степени. Человек располагается на внешней части диска наравне с тараканами, моллюсками, папоротниками, лисами и бактериями.

Все без исключения виды прошли неразрывную цепочку успешного воспроизводства длиной в три миллиарда лет, а значит, бактерии и тараканы так же высоко эволюционировали, как и человек. Нет никакой лестницы.

Аналогично, что нет никакой лестницы интеллекта. Интеллект не одномерен. Это комплекс различных видов и способов познания, каждый из которых непрерывен. Давайте выполним простое упражнение по измерению интеллекта у животных. Если бы интеллект был одномерен, мы без труда расположили бы в порядке возрастания интеллекта попугая, дельфина, лошадь, белку, осьминога, голубого кита, кошку и гориллу.

Сейчас нет научного доказательства существования такой последовательности. Причиной тому может быть отсутствие различий между уровнем интеллекта тех или иных животных, но это так же необоснованно.

Зоология богата примерами ярких различий в мышлении животных. Может быть, все животные наделены интеллектом «общего назначения»? Возможно, но у нас нет единого инструмента для измерения такого вида интеллекта. Однако у нас есть множество систем измерения для разных видов познания.

Вместо единой линии децибелов правильнее было бы изображать интеллект в виде схемы вероятностного пространства , как в визуализации возможных форм, которая была создана алгоритмом Ричарда Докинза. Интеллект - это комбинаторный континуум. Множество узлов, каждый из которых - континуум, создают комплекс колоссального многообразия в множестве измерений. Одни разновидности интеллекта могут быть очень сложными, с большим набором суб-узлов мышления. Другие - проще, но экстремальнее, они достигают крайней точки пространства.

Эти комплексы, которые означают для нас различные разновидности интеллекта, можно воспринимать как симфонии, исполненные на разных видах музыкальных инструментов. Они отличаются не только громкостью, но и мелодией, окраской, темпом, и т. д. Можно воспринимать их как экосистему. В этом смысле различные компоненты узлов мышления взаимозависимы и создаются друг из друга.

Как говорил Марвин Минский, человеческое сознание - это общество разума. Наше мышление - полноценная экосистема. Наш мозг обладает множеством способов познания, которые выполняют разные мыслительные функции: дедукция, индукция, эмоциональный интеллект, абстрактное и пространственное мышление, краткосрочная и долгосрочная память.

Вся нервная система человека представляет собой часть мозга с собственным уровнем познания. На самом деле процесс мышления осуществляется не мозгом, а всем телом человека.

Все разновидности мышления различаются как между видами, так и между представителями одного вида. Белка может годами помнить точное местоположение нескольких тысяч желудей, что для человека совершенно непостижимо. В этом виде мышления люди уступают белкам. Разум белки представляет собой сочетание этой суперспособности с другими формами интеллекта, в которых человек превосходит белку. В царстве животных можно найти множество примеров превосходства отдельных форм животного интеллекта над человеческим.

Такая же ситуация сложилась с искусственным интеллектом, который в некоторых областях уже превосходит человеческий. Любой калькулятор - гений математики, а память поисковика Google уже в некотором смысле лучше нашей собственной.

Некоторые ИИ совершают такую мыслительную деятельность, на которую мы не способны. Запомнить каждое слово на шести миллиардах веб-страниц - непосильная задача для человека и пустяк для поисковых систем. В будущем мы создадим совершенно новые способы мышления, не доступные человеку и не существующие в природе.

Изобретатели летательных аппаратов вдохновлялись естественным полетом - взмахами крыльев. Однако позже было придумано неподвижное крыло с прикрепленными к нему пропеллерами, и это был совершенно новый, не встречающийся в природе принцип полета.

Так мы изобретаем новые способы мышления, на которые не способен ни один биологический вид. Скорее всего, это будут принципы, применимые только к узкоспециализированным задачам: например, новые логические построения, которые нужны только в статистике и теории вероятностей.

Новый вид мышления поможет решить проблемы, с которыми человеческому разуму не удается справиться. Некоторые из сложнейших вопросов бизнеса и науки требуют двухступенчатого решения. Первый этап - изобрести новый способ естественного мышления. Второй - приступить к поиску ответов вместе с ИИ.

Люди начнут считать ИИ умнее себя, если с его помощью удастся решить ранее неразрешимые проблемы. На самом деле, мышление ИИ не лучше нашего, оно просто иное. Я считаю, что основная польза искусственного интеллекта в том, что он способен мыслить как чужак, и эта чуждость - главное его достоинство.

Более того, мы создадим комплексные «сообщества» ИИ с различными образами мышления. Они будут настолько сложны, что смогут решать проблемы, с которыми мы справиться не в силах. Потому некоторые люди ошибочно решат, что комплексы ИИ разумнее людей. Но ведь мы не считаем, что поисковая система Google умнее человека, хотя его память лучше нашей.

Вероятно, эти комплексы искусственных интеллектов превзойдут нас во многих сферах, но ни один из них не превзойдет человека сразу везде. Похожая ситуация сложилась с нашей физической силой. Прошло двести лет после индустриальной революции, и ни одна машина не стала сильнее среднего человека по всем показателям, хотя машины как класс значительно превосходят человека в скорости бега, подъеме тяжестей, точности разреза и других видах деятельности.

Несмотря на усложнение структуры ИИ, измерить ее методами современной науки невозможно. У нас нет инструментов, чтобы определить, что сложнее - огурец или Boeing 747, как нет и способов измерить отличия в их сложности. Именно поэтому у нас до сих пор нет точных критериев интеллектуальных возможностей.

Со временем станет все труднее установить, что сложнее, и, соответственно, умнее: интеллект А или интеллект Б. Существует множество неизученных сфер мыслительной деятельности, и главным образом, это мешает нам понять, что разум не одномерен.

Второе заблуждение относительно человеческого ума заключается в том, что мы убеждены, будто наш разум носит универсальный характер. Эта распространенная уверенность влияет на то, каким путем мы идем к созданию общего искусственного интеллекта (AGI), идею которого однажды провозгласили ИИ-специалисты.

Однако, если мы представляем ум как обширное пространство возможностей, нельзя говорить о состоянии общего назначения. Человеческий разум не занимает какое-то абстрактное центральное место, а вокруг него не вращаются остальные специализированные виды разума.

Скорее, человеческий интеллект представляет собой чрезвычайно специфический тип интеллекта, который миллионы лет эволюционировал для выживания нашего вида на этой планете. Если бы мы захотели расположить наш интеллект среди всех остальных возможных видов разума, он оказался бы где-нибудь в уголке - как и сам наш мир, ютящийся на краю огромной галактики.

Конечно, мы можем представить себе, а иногда и изобрести некий вид мышления, похожий по своим характеристикам на швейцарский нож. Он вроде бы и справляется со многими задачами, но не на ура.

Туда же можно отнести и техническое правило, которому должны подчиняться все вещи, вне зависимости от того, были они созданы намеренно или появились на свет естественным путем: «Невозможно оптимизировать все измерения. Можно лишь находить компромиссы. Универсальный многофункциональный аппарат не может превзойти в производительности специализированные функции».

Сознание модели «сделай все» не может работать наравне со специализированными исполнителями конкретных задач. Поскольку мы считаем свое сознание универсальным механизмом, мы верим, что познание не должно быть основано на компромиссе и что есть возможность изобрести искусственный интеллект, демонстрирующий максимальную степень эффективности во всех видах мышления.

Однако я не вижу никаких доказательств этому утверждению. Мы просто-напросто еще не создали достаточное число разновидностей сознания, которые позволили бы нам увидеть полную картину (а пока предпочитаем не рассматривать сознание животных через призму одного параметра как отдельный тип мышления с переменной амплитудой).

Отчасти эта убежденность, что наше мышление носит максимально универсальный характер, проистекает из концепции универсального вычисления. Это предположение в 1950 году назвали тезисом Чёрча-Тьюринга. Он гласит, что все вычисления, удовлетворяющие определенным параметрам, являются равноценными.

Таким образом, существует универсальная для всех вычислений база. Вне зависимости от того, производится ли расчет с помощью одной машины с множеством быстрых механизмов, машиной с менее высокой производительностью или даже в биологическом мозгу - речь идет об одном и том же логическом процессе. Это, в свою очередь, означает, что мы можем имитировать любой вычислительный процесс (мышление) с помощью любой машины, которая может совершать «универсальные» вычисления.

С помощью этого принципа сторонники сингулярности обосновывают свои ожидания, будто мы сможем спроектировать работающий на кремниевой основе искусственный мозг, способный вместить в себя человеческое сознание, будто мы сможем создать искусственный интеллект, который будет мыслить так же, как человек, но в разы эффективнее. К этим надеждам следует относиться с известной долей скепсиса, поскольку в их основе лежит неправильная интерпретация тезиса Чёрча-Тьюринга.

Исходное положение этой теории гласит: «В условиях безграничной памяти и времени все вычисления равноценны». Проблема заключается в том, что в реальности ни один компьютер не обладает характеристиками бесконечной памяти или времени. Когда вы производите вычисления в реальном мире, компонент времени чрезвычайно важен, вплоть до того, что зачастую речь идет о жизни и смерти.

Да, все типы мышления равны, если исключить временной аспект. Да, можно имитировать процесс присущего человеку мышления в любой матрице, если вы решаете игнорировать время или действующие в реальности ограничения свободного пространства и памяти.

Однако если включить в это уравнение переменную времени, придется существенно изменить формулировку принципа: «Две вычислительных системы, функционирующие на радикально разных платформах, не будут производить равноценные вычисления в режиме реального времени».

Этот принцип можно переформулировать так: «Единственный метод получить равноценные способы мышления - осуществлять их на одной и той же основе. Физический носитель, на котором вы производите ваши вычисления - особенно по мере возрастания степени их сложности - существенно влияет на тип мышления в условиях реального времени».

Продолжая логическую цепочку, предположу, что единственный метод создания максимально близкого к человеческому типа мышления - это производство вычислений при помощи материи, максимально напоминающей наше серое вещество.

Значит, можно также предположить, что объемный, сложный искусственный интеллект, созданный на основе сухого кремния, будет порождать неповоротливые, сложные и не похожие на человеческий типы мышления. Если можно было бы создать искусственный интеллект, работающий на влажном веществе с использованием искусственных нейронов наподобие человеческих, мыслительный процесс такого ИИ был бы намного ближе к нашему.

Преимущества такой «влажной» системы пропорциональны близости используемых физических носителей к человеческим. Создание подобного вещества потребовало бы огромных материальных затрат, чтобы добиться уровня, хотя бы схожего с тем, что присуще нам от природы. А нового человека мы можем создать и так - стоит лишь подождать 9 месяцев.

Кроме того, как упоминалось ранее, мы думаем всем своим существом, а не одним лишь сознанием. Современная наука располагает большим количеством данных относительно того, как наша нервная система влияет на «рациональный» процесс принятия решения, предсказывает и адаптируется. Чем детальнее мы рассматриваем систему человеческого организма, тем тщательнее мы сможем впоследствии воссоздать ее. Искусственный интеллект, оперирующий на радикально отличающемся от нашего веществе (сухой кремний вместо влажного углерода), будет и мыслить по-другому.

Я не думаю, что эта особенность скорее «не баг, а фича». Как я утверждал во втором пункте этой статьи, отличия в мыслительном процессе ИИ выступают его основным преимуществом. Вот еще одна причина, почему было бы ошибочно говорить, что он «умнее, чем человеческий мозг».

В центре концепции сверхчеловеческого разума - и в особенности теории о постоянном самосовершенствовании подобного ИИ - лежит искренняя вера в безграничность интеллекта. Я не обнаружил никаких доказательств этого утверждения.

Опять же, ошибочное восприятие интеллекта как системы, определяемой лишь одним измерением, способствует распространению этого утверждения, но мы должны понимать, что оно остается голословным. Во вселенной нет бесконечных физических измерений - по крайней мере, науке они пока неизвестны.

Температура не бесконечна - есть минимальные и максимальные показатели холода и теплоты. Пространство и время тоже не безграничны, как и скорость. Возможно, бесконечной можно назвать числовую ось, но все другие физические параметры имеют свои лимиты. Разумеется, сам разум тоже конечен.

Возникает вопрос: где лежат пределы интеллекта? Мы привыкли верить, что лимит где-то далеко, настолько же «выше» нас, насколько мы «выше» муравьёв. Если оставить в стороне нерешенную проблему одномерности, как мы можем доказать, что до сих пор не достигли лимита? Почему мы не можем быть венцом творения? А может, мы почти достигли пределов человеческих возможностей? Почему мы верим, что интеллект - это бесконечно развивающееся понятие?

Лучше воспринимать наш интеллект как одну из разновидностей огромного количества типов мышления. Хотя каждое измерение познания и вычисления имеет предел, если есть сотни измерений, то существуют бесчисленные разновидности разума, но ни одна из них не бесконечна в любом измерении.

По мере того, как мы создаем или встречаемся с этими бесчисленными вариациями на тему сознания, мы можем воспринимать их как превосходящие наши способности. В моей последней книге «Неизбежное» я набросал список некоторых из этих разновидностей, которые уступают нам по тем или иным параметрам. Далее я приведу часть этого списка:

Разум, максимально близкий к человеческому, но обладающий более высокой скоростью реакции (самый простой искусственный интеллект);

Очень медлительный разум, основными компонентами которого являются обширное пространство для хранения информации и память;

Универсальный интеллект, состоящий из миллионов действующих в унисон индивидуальных сознаний;

Коллективный разум, состоящий из большого количества чрезвычайно производительных интеллектов, не осознающих, что они являются единым целым;

Борговский суперразум (раса киборгов с коллективным разумом, пытающихся ассимилировать в свой коллектив все живое из сериала Star Trek - прим. Newочём ) - множество высокофункциональных интеллектов, четко осознающих, что они - одно целое;

Рассудок, созданный с целью развивать персональное сознание носителя, но непригодный для кого-либо еще;

Рассудок, способный представлять себе более сложный разум, но не способный создать его;

Рассудок, способный однажды успешно создать более сложный разум;

Рассудок, способный создать более сложный разум, который, в свою очередь, сможет создать еще более сложный разум, и т. д.;

Рассудок, обладающий оперативным доступом к своему исходному коду (может в любое время изменять особенности своего функционирования);

Суперлогичный рассудок, лишенный способности испытывать эмоции;

Стандартный разум, направленный на решение поставленных задач, но неспособный к самоанализу;

Разум, способный к самоанализу, но не умеющий решать поставленные перед ним задачи;

Разум, чье становление занимает длительный период времени, нуждающийся в разуме-защитнике;

Исключительно медленный разум, рассредоточенный по обширному физическому пространству, который кажется «невидимым» для форм сознания, которые реагируют быстрее;

Разум, способный быстро и многократно воспроизводить свои копии;

Разум, способный воспроизводить свои копии и оставаться с ними одним целым;

Разум, способный достичь бессмертия за счет перемещения с носителя на носитель;

Быстрый, динамичный разум, способный изменять процесс и характер мышления;

Нано-разум, самая маленькая самостоятельная единица (по размеру и выделяемой энергии), способная к самоанализу;

Разум, специализирующийся в создании сценариев и прогнозировании;

Разум, который никогда ничего не забывает, включая неверную информацию;

Наполовину машина, наполовину животное;

Наполовину машина, наполовину андрогинный киборг;

Разум, использующий в своей работе непонятный для нас количественный анализ.

Сегодня некоторые называют каждую из перечисленных разновидностей мышления сверхчеловеческим ИИ, однако в будущем разнообразие и чужеродность этих форм разума заставит нас обратиться к новым словарям и детально изучить тему мышления и разумности.

К тому же приверженцы идеи о сверхчеловеческом ИИ предполагают, что уровень его умственных способностей будет расти по экспоненте (хотя у них до сих пор нет системы для оценки этого уровня). Возможно, они верят, что процесс экспоненциального развития происходит уже сейчас.

Так или иначе, сегодня нет никаких свидетельств такого роста, как ни измеряй. Иначе это означало бы, что умственные способности ИИ удваиваются в течение определенного промежутка времени.

Где подтверждение этому? Единственное, что сейчас растет по экспоненте - это вложения в индустрию ИИ. Но отдачу от этих инвестиций не получается описать законом Мура. ИИ не становится в два раза умнее ни за три года, ни даже за десять лет.

Я спрашивал многих экспертов в области ИИ, но все соглашались, что у нас нет критериев разумности. Когда я спросил Рэя Курцвейла, настоящего волшебника экспонент, где найти свидетельства экспоненциального развития ИИ, он написал мне, что развитие ИИ - не взрывной, а постепенный процесс.

«Чтобы добавить новый уровень в иерархию требуется как экспоненциальный рост вычислительной способности, так и увеличение сложности алгоритма... Таким образом, стоит ожидать линейного увеличения количества условных уровней, поскольку для появления каждого из них требуется экспоненциальный рост наших собственных возможностей. Нам осталось не так уж и много уровней сложности для достижения ИИ способностей неокортекса (основная часть коры человеческого мозга, которая отвечает за высшие нервные функции - прим. Newoчём ), поэтому я по-прежнему считаю верными свои предположения насчет 2029-го года».

Кажется, Рэй говорит о том, что не сила искусственного интеллекта растет по экспоненте, а усилия по ее созданию, в то время как их результат каждый раз просто увеличивается на одну ступень. Это почти противоположно гипотезе о взрывном росте интеллекта. В будущем это может измениться, но сегодня ИИ явно не растет экспоненциально.

Поэтому когда мы представляем «бум искусственного интеллекта», мы должны представлять его не как лавину, а скорее как расщепление на множество новых разновидностей. Результатом технологического прогресса, вероятнее всего, станет не суперчеловек, но сверхчеловек. За пределами наших знаний, но не обязательно «выше» них.

Еще один принимаемый на веру, но практически не подкрепленный доказательствами миф о порабощении сверхинтеллектом гласит, что близкий к бесконечному интеллект сможет быстро разрешить все наши проблемы.

Многие сторонники молниеносного развития ИИ ожидают, что тот породит бум прогресса. Я называю веру в это «размышлизмом» (thinkism, термин переведен Вячеславом Головановым - прим. Newочём ). Данный подход основывается на убежденности в том, что прогрессу препятствует лишь недостаточный уровень мышления или интеллекта. (Также отмечу, что вера в ИИ как панацею от всех бед свойственна по большей части людям, которые сами любят размышлять.)

Давайте рассмотрим вопрос победы над раком или продления жизни. Это проблемы, которые нельзя решить одними размышлениями. Никакой объем размышлизма не способен выяснить, как стареют клетки или как укорачиваются теломеры. Никакой интеллект, независимо от своей крутости, не сможет понять, как работает человеческое тело, просто прочитав всю известную научную литературу в мире и проанализировав ее.

Сверх-ИИ не сможет просто поразмышлять обо всех текущих и прошлых экспериментах по расщеплению атомного ядра, а через день придумать готовый рецепт термоядерного синтеза. Чтобы прийти от непонимания к пониманию каких-либо предмета, нужно нечто большее, чем просто размышление.

В реальности существует масса экспериментов, каждый из которых дает целую кучу противоречивых данных и требует дальнейших экспериментов для формирования правильной рабочей гипотезы. Одно лишь обдумывание возможных результатов не даст правильных данных на выходе.

Мышление (интеллект) - это только часть инструмента науки. Скорее всего, лишь небольшая часть. Например, у нас просто недостаточно данных, чтобы приблизиться к решению проблемы смерти. В случае работы с живыми организмами большинство этих экспериментов занимают время. Медленный метаболизм клетки не может ускориться. Нужны годы, месяцы или, по крайней мере, дни, чтобы получить результаты.

Если мы хотим знать, что происходит с субатомными частицами, недостаточно просто думать о них. Мы должны построить очень большие, очень сложные, очень мудреные физические модели, чтобы это выяснить. Даже если самые умные физики станут в тысячу раз умнее, чем сейчас, они не узнают ничего нового без коллайдера.

Нет никаких сомнений в том, что сверх-ИИ может форсировать процесс развития науки. Мы можем создать компьютерные модели атомов или клеток, можем ускорить их во многих аспектах, но есть проблемы, которые препятствуют симуляции в достижении мгновенного прогресса.

Стоит помнить, что симуляции и модели могут исследоваться быстрее, чем их субъекты, лишь потому, что они отбрасывают те или иные переменные. В этом и состоит сама суть моделирования. Также важно отметить, что для проверки, изучения и утверждения таких моделей нужно много времени, чтобы они соответствовали уровню своих субъектов. Проверку опытом нельзя ускорить.

Упрощенные версии в симуляции полезны для поиска самых перспективных путей ускорения прогресса. Но в реальности нет ничего лишнего, всё имеет значение в некоторой степени - это одно большое определение действительности. Поскольку модели и симуляции становятся все более и более подробными, исследователи сталкиваются с тем, что реальность работает быстрее, чем ее стопроцентная симуляция.

Вот еще одно определение реальности: самая быстро функционирующая версия всех возможных деталей и степеней свободы. Если бы вы смогли смоделировать все молекулы в клетке и все клетки в организме человека, эта модель не стала бы работать так же быстро, как и человеческое тело. Независимо от того, как вдумчиво вы разрабатывали такую модель, вам все равно нужно будет потратить время на проведение экспериментов, и не имеет значения, будет это реальная система или симуляция.

Чтобы приносить пользу, искусственный интеллект должен быть внедрен в мир, а в этом мире необходимый темп инноваций меняется довольно быстро. Без первых экспериментов, прототипов, ошибок и вовлечения в реальность интеллект может мыслить, но не даст результатов. Он не совершит никаких сиюминутных открытий ни через секунду, ни через час, ни через год после того, как его назовут «умнее человека».

Появляется ИИ. Конечно, скорость открытий будет ускоряться по мере усложнения этого ИИ, отчасти потому, что инородный искусственный интеллект будет задавать вопросы, которые ни один человек не задаст, но даже очень мощный (по сравнению с нами) интеллект не гарантирует немедленного прогресса. Чтобы решить проблемы, нужно гораздо больше, чем просто интеллект.

Проблемы рака и продолжительности жизни - не единственные из тех, которые интеллект сам по себе не способен решить. Среди сторонников идеи технологической сингулярности распространено заблуждение: если мы создадим ИИ, который будет умнее людей, то он внезапно начнёт развиваться и создаст еще более разумный ИИ.

Новый искусственный интеллект будет думать глубже и изобретет что-то еще более умное, и так до тех пор, пока не будет изобретено нечто богоподобное. Нет ни одного доказательства, что одних размышлений достаточно для создания новых уровней интеллекта. Этот вид размышлизма основан на вере.

Однако есть множество доказательств тому, что для изобретения нового эффективного интеллекта нужны не только мысленные усилия, но и эксперименты, данные, сложные вопросы, пробы и ошибки.

Я понимаю, что могу заблуждаться. Пока мы находимся на раннем этапе. Возможно, мы откроем универсальную шкалу интеллекта или его бесконечность во всех смыслах. Вероятность технологической сингулярности есть, ведь мы очень мало знаем о том, что интеллект и самосознание из себя представляют. По-моему, все указывает на то, что это маловероятно, но шанс все таки есть.

Тем не менее, я поддерживаю более широкие цели OpenAI : мы должны разработать дружественный ИИ и выяснить, как наделить его ценностями, которые воспроизводятся сами по себе и совпадают с нашими.

Есть вероятность, что сверхчеловеческий ИИ в долгосрочной перспективе может быть вреден, но эта мысль основана на неполных доказательствах, и ее не стоит воспринимать всерьез, когда дело касается науки, политики или прогресса.

Падение астероида на Землю может уничтожить нас, вероятность такого исхода существует (это подтверждает Фонд B612), но нам не следует учитывать такой исход в вопросах глобального потепления, космических путешествий или планировки городов.

Имеющиеся доказательства указывают на то, что, скорее всего, ИИ не будет сверхчеловеческим. Он будет обладать новыми разновидностями мышления, недоступными человеку, но без всеобъемлющего применения он не станет богом, который решит наши главные проблемы в один миг.

Вместо этого он станет скоплением интеллектов с ограниченными возможностями, будет лучше нас работать в непривычных нам сферах, вместе с нами сможет найти решение как уже существующих, так и новых проблем.

Я понимаю, насколько привлекательна идея сверхчеловеческого и богоподобного ИИ. Он может стать новым Суперменом. Но, как и Супермен, это вымышленный персонаж. Где-нибудь во Вселенной Супермен, возможно, и существует, но это очень маловероятно. Как бы то ни было, мифы могут быть полезны и, будучи однажды созданы, они не исчезают.

Идея Супермена будет жить вечно. Идея сверхчеловеческого ИИ и сингулярности зарождается сейчас и уже никогда не будет забыта. Нам нужно понять, что это за идея: религиозная или научная. Если мы исследуем вопрос интеллекта, искусственного или естественного, мы должны четко понимать, что наши представления о сверхчеловеческом ИИ - всего-навсего миф.

Племена изолированных островов Микронезии впервые установили контакт с внешним миром во время Второй мировой войны. Боги прилетели с далеких земель, спустились с небес на шумных птицах, принесли дары и улетели навсегда. На островах распространились культы возвращения этих богов и новых даров. Даже сейчас, 50 лет спустя, многие до сих пор ждут их возвращения.

Сверхчеловеческий ИИ может стать для нас новым карго-культом. Возможно, через сотню лет люди будут воспринимать наше время так же: будто мы верили в сверхчеловеческий ИИ и десятилетиями ждали, что с минуты на минуту он появится и принесет нам невообразимые дары.

Впрочем, не-сверхчеловеческий ИИ существует уже сейчас. Мы продолжаем искать ему новое определение, усложнять его. Однако в широком смысле чужой для нас разум - это спектр интеллектуальных возможностей, мышления, механизмов рассуждения, обучения, самосознания. ИИ распространяется и будет распространяться. Он становится глубже, разнообразнее, мощнее.

До ИИ ни одно изобретение не могло полностью изменить мир. К концу 21 века искусственный интеллект будет настолько силен, что изменит все в нашей жизни.

Как бы там ни было, миф о сверхчеловеческом ИИ, который подарит нам сверхбогатство или сверхрабство (или и то, и другое), будет жить. Однако он так и останется мифом, который вряд ли найдет воплощение в реальности.»

Самосовершенствующийся искусственный интеллект (ИИ) в будущем может поработить или убить людей, если он этого захочет. Об этом рассказал ученый Амнон Иден, который полагает, что риски от разработки свободомыслящего и высокоинтеллектуального сознания очень велики, и, «если не озаботиться вопросами контроля ИИ уже на сегодняшнем этапе развития, то завтра может просто не наступить». Как сообщает английское издание Express, человечество, по мнению Амнона Идена, находится сегодня в «точке невозврата» для претворения в жизнь сюжета знаменитой киноэпопеи «Терминатор».

Стоит отметить, что доктор Амнон Иден является руководителем проекта, главная цель которого - это анализ потенциального разрушительного воздействия ИИ. Без правильного понимания последствий создания искусственного интеллекта его разработка может грозить катастрофой, полагает ученый. В настоящее время наше общество плохо информировано о тех спорах, которые ведутся в научных кругах об анализе потенциального воздействия ИИ. «В наступившем, 2016 году анализ возможных рисков должен будет получить существенно большее распространение в мышлении корпораций и правительств, политиков и тех лиц, которые ответственны за принятие решений», - считает Иден.


Ученый уверен, что научная фантастика, которая описывание уничтожение человечества роботами, вскоре может стать нашей общей проблемой, так как процесс создания ИИ вышел из-под контроля. К примеру, Илон Маск при поддержке предпринимателя Сэма Альтмана решил создать новую некоммерческую организацию стоимостью 1 миллиард долларов, которая занимается разработкой ИИ с открытым исходным кодом, который должен превзойти человеческий разум. При этом сам американский миллиардер Илон Маск причисляет искусственный интеллект к числу «самых больших угроз нашему существованию». Стив Возняк, который был соучредителем компании Apple, в марте прошлого года рассказал, что «будущее выглядит пугающим и очень опасным для людей… в конце концов настанет день, когда компьютеры будут думать быстрее, чем мы, и они избавятся от медленных людей для того, чтобы компании могли работать более эффективно».

Стоит отметить, что угрозу со стороны ИИ видят многие ученые. Десятки известных ученых, инвесторов и предпринимателей, деятельность которых, так или иначе, связана с разработкой искусственного интеллекта, подписали открытое письмо с призывом уделять более пристальное внимание вопросу безопасности и общественной полезности работ в области ИИ. Среди подписавших данный документ астрофизик Стивен Хокинг и основатель компании Tesla и SpaceX Илон Маск. Письмо вместе с сопроводительным документом, который был составлен общественной организацией Future of Life Institute (FLI), было написано в обстановке растущей обеспокоенности по поводу влияния искусственного интеллекта на рынок труда и даже на долгосрочную перспективу выживаемости всего человечества в условиях, когда возможности роботов и машин будут расти практически безудержно.

Ученые понимают тот факт, что потенциал ИИ сегодня очень велик, поэтому необходимо всецело исследовать возможности его оптимального для нас использования, чтобы избежать сопутствующих ловушек, отмечается в письме FLI. Необходимо, чтобы созданные человеком системы ИИ делали ровно то, чего мы от них хотим. Стоит отметить, что Future of Life Institute был основан лишь в прошлом году рядом энтузиастов своего дела, среди которых был создатель Skype Яан Таллинн, для того чтобы «минимизировать риски, стоящие перед человечеством» и стимулировать исследования с «оптимистическим видением будущего». Прежде всего, речь здесь идет о рисках, которые вызваны развитием ИИ и робототехники. В консультационный совет FLI входят Маск и Хокинг наряду со знаменитым актером Морганом Фриманом и другими известными людьми. По мнению Илона Маска, неконтролируемое развитие искусственного интеллекта представляет потенциально большую опасность, чем ядерное .

Известный британский астрофизик Стивен Хокинг в конце 2015 года постарался объяснить свое неприятие технологий ИИ. По его мнению, сверхразумные машины со временем будут смотреть на людей как на расходный материал или муравьев, которые просто мешают решению стоящих перед ними задач. Общаясь с пользователями портала Reddit, Стивен Хокинг отметил, что он не считает, что подобные сверхразумные машины будут «злыми существами», желающими уничтожить все человечество из-за своего интеллектуального превосходства. Скорее всего, речь можно будет вести о том, что они просто не будут замечать человечество.

«СМИ в последнее время постоянно искажают мои слова. Главный риск, который заключается в развитии ИИ, это не злоба машин, а их компетенция. Сверхразумный искусственный интеллект будет отлично справляться с задачами, но если его и наши цели не будут совпадать, у человечества появятся очень серьезные проблемы», - поясняет известный ученый. В качестве примера Хокинг привел гипотетическую ситуацию, в которой сверхмощный ИИ отвечает за функционирование или строительство новой плотины ГЭС. Для подобной машины первостепенным будет то, как много энергии вверенная система будет вырабатывать, а судьба людей не будет иметь никакого значения. «Среди нас найдется мало тех, кто топчет муравейники и наступает на муравьев со злости, но давайте представим ситуацию - вы контролируете мощную ГЭС, которая вырабатывает электроэнергию. Если вам необходимо будет поднять уровень воды и в результате ваших действий один муравейник будет затоплен, то проблемы утопающих насекомых вряд ли будут вас беспокоить. Давайте не будем ставить людей на место муравьев», - отметил ученый.

Второй потенциальной проблемой дальнейшего развития искусственного интеллекта, по мнению Хокинга, может стать «тирания хозяев машин» - стремительный рост разрыва в уровне доходов между богатыми людьми, которым удастся монополизировать выпуск разумных машин, и остальным населением планеты. Стивен Хокинг предлагает решать эти возможные проблемы следующим путем - замедлить процесс разработки ИИ и переключиться на разработку не «универсального», а узкоспециализированного искусственного разума, который сможет решать лишь крайне ограниченный круг задач.

Помимо Хокинга и Маска, свои подписи под письмом поставили нобелевский лауреат и профессор физики MIT Фрэнк Вильчек, исполнительный директор Института исследований машинного интеллекта (MIRI) Люк Мюльхаузер, а также многие специалисты из крупных IT-компаний: Google, Microsoft и IBM, а также предприниматели, основавшие компании Vicarious м DeepMind, специализирующиеся на разработке систем ИИ. Составители письма отмечают, что они не ставят своей целью напугать общественность, но планируют подчеркнуть как положительные, так и отрицательные стороны, которые связаны с созданием искусственного интеллекта. «В настоящее время все сходятся во мнении, что исследования в области ИИ уверенно прогрессируют, а влияние ИИ на современное человеческое общество будет только усиливаться, - сообщается в письме - открывающиеся перед человеком возможности огромны, все, что может предложить современная цивилизация, было создано интеллектом человека. Мы не в состоянии предсказать, чего нам удастся достичь, если интеллект человека можно будет помножить на средства ИИ, однако проблема избавления от бедности и болезней уже не представляется бесконечно трудной».

В современный быт уже включены многочисленные разработки в области искусственного интеллекта, включая системы распознавания изображений и речи, беспилотные транспортные средства и многое другое. Согласно оценкам наблюдателей из Кремниевой долины, в данной области сегодня реализуется более 150 стартапов. При этом разработки в этой области привлекают все больше инвестиционных вложении и все больше компаний наподобие Google развивают свои проекты на базе ИИ. Поэтому авторы письма полагают, что настало самое время, для того чтобы уделить повышенное внимание всем возможным последствиям наблюдаемого бума для экономических, социальных и юридических сторон человеческой жизни.

Позицию о том, что искусственный интеллект может представлять опасность для человека, разделяет и Ник Бостром профессор Оксфордского университета, который известен своими работами об антропном принципе. Данный специалист считает, что ИИ подошел к той точке, за которой последует его несовместимость с человеком. Ник Бостром подчеркивает, что в отличие от генной инженерии и изменений климата, для контроля которых правительства выделяют достаточные суммы, «ничего не делается, для того чтобы контролировать эволюцию ИИ». По мнению профессора, в отношении искусственного интеллекта в настоящее время ведется «политика правового вакуума, который нужно заполнить». Даже такие технологии, как беспилотные автомобили, которые представляются безобидными и полезными, вызывают ряд вопросов. К примеру, должен ли подобный автомобиль совершать экстренное торможение, для того чтобы спасти своих пассажиров и кто будет отвечать в случае ДТП, совершенного беспилотным автомобилем?

Рассуждая над потенциальными рисками, Ник Бостром отметил, что «компьютер не в состоянии определить пользу и вред для человека» и «не имеет даже малейшего представления о человеческой морали». Помимо этого, циклы самосовершенствования в компьютерах могут происходить с такой скоростью, за которой человек просто не сможет уследить, и с этим также почти ничего нельзя сделать, говорит ученый. «На том этапе развития, когда компьютеры смогут думать сами за себя, никто не сможет точно предсказать, приведет ли это к хаосу или существенно улучшит наш мир, - заявил Ник Бостром, в качестве примера приведя простое возможное решение компьютера - отключить в странах с холодным климатом отопление для оздоровления людей и повышения их выносливости, которое «может прийти в голову искусственному интеллекту».

Помимо этого, Бостром поднимает и проблему чипирования человеческого мозга с целью повышения нашего биоинтеллекта. «Во многих отношениях такая процедура может быть полезной, если все процессы будут контролируемыми, но что произойдет, если вживленный чип сможет перепрограммировать сам себя? К каким последствиям это может привести - к возникновению сверхчеловека или к появлению компьютера, который будет лишь выглядеть человеком?» - задается вопросами профессор. Способы, при помощи которых компьютеры решают человеческие проблемы, очень сильно отличаются от наших. К примеру, в шахматах человеческий мозг рассматривает лишь узкий набор ходов, выбирая из них самый лучший вариант. В свою очередь компьютер рассматривает все возможные ходы, выбирая лучший из всех. При этом компьютер не рассчитывает огорчить или удивить своего противника по игре. В отличие от человека, играя в шахматы, компьютер может сделать хитрый и тонкий ход лишь случайно. Искусственный интеллект может посчитать наилучшим способом - устранить ошибку из любой системы за счет удаления оттуда «человеческого фактора», но, в отличие от человека, робот не готов совершать подвиги, которые спасли бы людям жизнь.

Помимо всего прочего, рост количества умных машин представляет собой этап новой промышленной революции. В свою очередь, это означает, что уже в ближайшем будущем человечество столкнется с неизбежными социальными изменениями. Работа со временем станет уделом высококвалифицированных специалистов, так как практически все простые задания смогут взять на себя роботы и другие механизмы. Ученые считают, что за искусственным интеллектом «нужен глаз да глаз», чтобы наша планета не превратилась в мультипликационную планету «Железяка», которая была населена роботами.

В плане все большей автоматизации процессов производства будущее уже наступило. Всемирный экономический форум (ВЭФ) представил свой отчет, согласно которому автоматизация приведет к тому, что еще до 2020 года более 5 миллионов человек, трудящихся в самых разных областях, потеряют свое место работы. Таково влияние роботов и роботизированных систем на нашу жизнь. Для составления отчета сотрудники ВЭФ использовали данные о 13,5 млн. работников из различных стран мира. Согласно их данным, к 2020 году суммарно пропадет потребность в более чем 7 миллионах рабочих мест, тогда как ожидаемый рост занятости в других отраслях составит всего чуть более 2 миллионов рабочих мест.

Источники информации:
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html

Технология делает нашу жизнь проще и качественнее, помогая нашему виду эволюционировать и развиваться. За последние сотню лет технологические программы медицины увеличили продолжительность жизни более чем на 40 процентов. Современный смартфон в кармане стал в тысячу раз мощнее и в миллион раз дешевле, чем самый продвинутый компьютер из 70-тых годов.

Стремительное развитие технологий по суждениям исследователей предрекает нам ещё больший рост продолжительности жизни с помощью умных машин, - они будут опекать нашу жизнь и здоровье. Возьмут в «свои руки» тяжелый и опасный труд, а управляя средствами повышенной опасности умные машины с искусственным интеллектом исключат проблему человеческого фактора. А человек в это время, наконец-то займется творчеством и созиданием бытия в тени философских рассуждений.

Но не случиться ли однажды так, что мы дойдем до той точки, качество перерастет в количество - где технологии вместо увеличения продолжительности жизни, развернуться против нас самих, времени, когда машины взбунтуются?

Перспектива поглощения человечества разумными машинами (по сути это вид, наделенный разумом) - одна из тем при разговоре о потенциальном поглощении человечества искусственным интеллектом. Катастрофическим результатом для нашего вида может быть создание суперкомпьютера с искусственным интеллектом вышедшем из под контроля, - рассуждают весьма серьёзные учёные. Это гипотетическое событие часто упоминается в качестве технологической сингулярности, и это беспокоит учёных.

Взять к примеру машину с искусственным интеллектом, которому поставлена задача изготовления скрепок. Такая машина будет делать скрепки реализовывая самый эффективный способ использования ресурсов, в которых нуждаются люди. Просто они запрограммированы так, выполнять свою работу наиболее качественно - но это же еще и умная машина, понимающая свою важность и необходимость.

Но как отреагирует машина, когда её конечная цель - изготовление скрепок - потеряет необходимость? Перестроиться на новые цели? Или обижено воспримет человеческое желание ее выключить как угрозу своему существованию, и устремиться уничтожить угрозу ее выключения (считай убийства) в лице человеческих существ?

Очевидно, это преувеличенный сценарий возможных событий будущего, но это свидетельствует о необходимости значительной проницательности в том, как именно машины с искусственным интеллектом могут мыслить в будущем. Ведь не секрет, что относительно примитивный машинный разум уже сейчас занимает весомую долю в управлении вооружением, и решает значительную часть вопросов нашей жизни. А что может произойти, когда контроль над этим получит развитый интеллект?

Будут ли эти машины уметь разбираться в нюансах человеческих мыслей и желаний? И еще, разумные машины с иным мышлением а то и высшего порядка, могут быть не обременены человеческими эмоциями и прочими когнитивными процессами. Однако, часть того, что делает нас людьми - это наши любопытство и наша неспособность дать ответы на вопросы, которые мы имеем уже сейчас.

Кажется, определенные ограничения могут быть неотъемлемой частью того, что означает быть человеком, и как ученые подозревают, на пути самореализации машинный разум может посчитать себя высшим существом по отношению к человеку.

Искусственный интеллект, потенциальная угроза выживанию человечества. Может ли угрожать суперкалькулятор?

Разумеется, при нынешних технологиях угроза искусственного интеллекта выглядит гипотетической, но уже сейчас отношение учёных к созданию искусственного интеллекта негативное. С недоверием относится к наступлению эры Искусственного Интеллекта и британский физик-теоретик Стивен Хокинг. Ученый полагает, что появление полноценного ИИ в нашем мире может стать для человека разрушительным фактором – обернуться гибелью человеческой расы.

Согласно Хокингу, машинный разум перехватит у человека инициативу развития и будет самосовершенствоваться, и эволюционировать с невероятной скоростью. Тогда как возможности человека к развитию сдерживаются слишком медленной эволюцией. Нам нечего противопоставить машинам на этом пути, мы проиграем эту гонку, - высказывает учёный своё отношение к ИИ.

Учёный беспокоиться, что в будущем технологический прогресс приведет нас к появлению разумных машин, способных превзойти интеллект человека. Но вместе с тем, Стивен Хокинг соглашается, что существующие примитивные формы ИИ доказали свою пользу.

Надо заметить, что большинство учёных, прогрессивно и скорее даже революционно мыслящих в плане получения "дивидендов" от научно-технического развития, очень и очень настороженно относятся к вопросу создания искусственного интеллекта. И вопрос даже не в том, что на каком-то этапе развития машинный интеллект сочтет своего создателя помехой или даже угрозой своего существования. Во что превратиться сам человек? - Вот беспокойство будит какой вопрос. Не разжиреет ли и отупеет человечество под крылом опекунства разумных машин? А ведь это, не что иное, как вырождение вида!

В тоже время, как оппонируют другие учёные, проблема искусственного интеллекта чрезмерно надуманна. В сущности, интеллект на электронной основе не сможет чувствовать и осязать, не сможет фантазировать - это возможности биологического мозга. А без этих компонентов какой бы разумной машина не была, она остаётся машиной - супермощным, продвинутым, но все же калькулятором с прошитыми вариантами развития.

И другие известные исследователи написали открытое письмо, призывая создать стандарты безопасности в области разработок искусственного интеллекта (ИИ). /сайт/

В частности они призвали к исследованиям и разработке системы надёжного управления, которая бы не позволила неисправному искусственному интеллекту нанести вред людям. «Необходимо проделать техническую работу, чтобы обеспечить полноценный контроль со стороны людей», ― говорится в письме.

Несмотря на умеренный тон письма, луддиты, боящиеся новых технологий, впали в панику. В ответ в прессе появилось множество интервью и высказываний учёных, рассеявших эти опасения.

Эндрю Нг, эксперт по ИИ из Baidu, заявил в интервью Fusion: «Я не представляю реалистичного сценария, как программное обеспечение, над которым мы работаем сегодня, может стать разрушительным».

В свою очередь журналист Скотт Александр составил список известных учёных, участвующих в разработках ИИ, которые говорили о потенциальной опасности со стороны ИИ.

Страх и опасения

Стюарт Рассер, профессор информатики из Калифорнийского университета в Беркли, сравнил разработку механизмов контроля над ИИ с принятием мер безопасности атомных реакторов.

«Некоторые считают, что этот вопрос не представляет опасности для человечества в ближайшие несколько сотен лет. Они забывают, что Лео Силард открыл цепную ядерную реакцию через 24 часа после того, как Резерфорд уверенно заявил, что атомная энергия никогда не будет получена», ― написал Рассел.

Рассел не одинок в своём мнении. В ходе опроса, проведённого Винсентом Мюллером и Ником Бостромом в 2014 г. среди 170 ведущих специалистов ИИ, оказалось, что 18% из них считают, что создание машины со сверхинтеллектом, станет «реальной катастрофой» для человечества. 13% заявили, что продвинутый ИИ окажет негативные последствия для людей. Чуть больше половины учёных сказали, что он окажет положительное влияние.

Хотя мнение специалистов о влиянии ИИ неоднозначно, большинство сходятся во мнении, что создание развитого ИИ ― только вопрос времени. По прогнозам, ИИ, равный человеку, будет создан уже в 2050 г. (50% вероятности) или к 2075 г. (90% вероятности). А 30 лет спустя после его создания появится искусственный сверхинтеллект, который превзойдёт человека во всех аспектах.

Сумасшедшие грузовики

Как может выглядеть восстание машин? В фантастических фильмах, вроде «Терминатора», «Робота», «Аниматрица», показана война людей с киборгами.

Судя по фантастическим фильмам, у многих может сложиться мнение, что потенциальной опасности легко избежать, В конце концов, по сути ИИ ― это просто программное обеспечение для компьютера.

Однако искусственному интеллекту необязательно иметь механическое тело, чтобы обрести власть в реальном мире: он просто может начать контролировать все наши повседневные электронные приборы.

Стивен Кинг представил такой сценарий в рассказе «Грузовики». В рассказе, написанном в 70-е годы, грузовики обретают сознание и начинают нападать на людей. Группа людей прячется от взбесившихся грузовиков. Грузовикам для работы по-прежнему требуется топливо, и они при помощи кода Морзе приказывают людям заправить их, иначе бульдозер снесёт их укрытие. Люди подчиняются.

История заканчивается видением рассказчика о том, что грузовики поработили человечество и навязывают везде свои ценности, например, заставляют строить магистрали по всему миру. Из мира фантазий его выводит звук пролетающего в небе самолёта.

Рассказ Стивена Кинга казался футуристическим в эпоху, когда он был написан, но он не так далёк от реальности современного мира. Самоуправляемые грузовики уже существуют, и в будущем компании с целью экономии могут заменить водителей на автономную навигационную систему.

Взлом Sony в прошлом году демонстрирует, что наши информационные системы становятся всё более уязвимыми. Это одно из следствий всё большей компьютеризации инфраструктур.

Однако пока нет причин для беспокойства. Искусственному интеллекту предстоит проделать долгий путь, прежде чем он сможет сравниться с мозгом человека. Пример с самоуправляемыми грузовиками хорошо демонстрирует это. Пока они ещё слишком несовершенны, чтобы самостоятельно ездить по переполненным городским улицам.

Установили бы Вы себе на телефон приложение для чтения статей сайта epochtimes?