Искусственный интеллект: что о нем думают ученые. Копирование работы человеческого мозга

Ученые пытаются создать компьютер, думающий как человек, с самого начала эпохи современной вычислительной техники. Попытки ввести мыслительный процесс и систему принятия решений в механический процесс вылились в том, что сейчас называют искусственным интеллектом (ИИ).

В то время как рынок ИИ стремительно растет, технология имеет свои проблемы и часто неправильно воспринимается.
Вот, что нужно знать об искусственном интеллекте.

1. ИИ имеет древние корни

У многих из нас упоминание ИИ вызывает образы робота или антропоморфных машин, которые думают и рассуждают как люди. Идея машины-человека рассматривалась и раньше и уходит корнями в древнюю историю и мифы - взять хотя бы золотых «роботов» Гефеста. Кроме того, средневековые алхимики часто упоминали размещение в человеческом мозгу неодушевленных предметов.

2. Алан Тьюринг значительно повлиял на ИИ

В 1950 году Алан Тьюринг опубликовал свою статью «Вычислительная техника и интеллект», где он пытался выяснить может ли машина выиграть так называемую «игру в имитацию», что и послужило основой для названия нашумевшего фильма о Тюринге. В тесте компьютер пробовал определить гендерную принадлежность двух игроков. В документе также был впервые представлен тест Тьюринга. «Вычислительная техника и интеллект» часто рассматриваются как основополагающая работа в сфере ИИ.

3. Формальные исследования ИИ начались в 1950-х годах

Хотя первые исследования проходили и раньше, они не были официальной академической дисциплиной до Дартмутской Конференции 1956 года. Утверждение термина «искусственный интеллект» было инициировано организатором Джоном Маккарти. Он продолжал участвовать во многих работах, посвященных ИИ, вплоть до своей смерти в 2011 году.

4. Естественная обработка речи является ключом к ИИ

Одной из основных целей исследователей является разработка компьютера, способного понимать и общаться на естественных языках - эта сфера называется обработка естественного языка (NLP).

5. Автономным транспортным средствам нужен ИИ

Одним из крупнейших технологических достижений последних лет в области транспорта стало автомобилей. Новые транспортные средства без водителя и многие автономные дроны были бы немыслимы без текущих технологий искусственного интеллекта.

6. Инвесторы активно финансируют новые компании, сосредоточенные на ИИ

Рынок стартапов, посвященных ИИ, не остывает. По данным CB Insight, количество новых финансируемых проектов неуклонно растет. Некоторые компании, как Sentient Technologies, собрали миллионы долларов инвестиций всего за несколько лет существования.

7. Крупные технологические компании верят в ИИ

За всплеск интереса к ИИ ответственны не только небольшие стартап-компании. Крупные технологические гиганты также вкладывают в эту область и приобретают ИИ-разработки. Суперкомпьютер IBM Watson может делать все - от работы в больнице до приготовления пищи, Google приобрел компанию DeepMind за $400 миллионов, а Facebook недавно купил Wit.ai.

8. Роботы с искусственным интеллектом могут думать вместе

Проект роботов с коллективным сознанием разработал роботов с искусственным интеллектом, которые могут функционировать в унисон, как косяк рыбы. Они могут прочесывать районы, сканировать окружающую среду и делиться информацией между собой.

9. Некоторые роботы могут социализироваться

Робот по имени Kismet и Массачусетского технологического института мог взаимодействовать с людьми, распознавая язык тела, жесты и тон голоса, и отвечать, основываясь на полученных данных. При этом Kismet был разработан еще в 90-х.

10. ИИ это палка о двух концах

Есть мало столь же противоречивых технологий, как искусственный интеллект. С одной стороны крупные компании и университеты вкладывают средства в изучение и разработку ИИ. С другой стороны ученый Стивен Хокинг предупреждает, что искусственный интеллект может означать закат эры человечества. А Илон Маск и Билл Гейтс согласились с ним по этому вопросу, негативно высказавшись об ИИ. Скорее всего, мы еще не скоро придем к единому мнению по этому вопросу.


Пожалуй, одним из самых сложных тестов машинного интеллекта явилась шахматная партия, состоявшаяся почти 20 лет назад между компьютером Deep Blue и чемпионом мира по шахматам Гарри Каспаровым. Машина одержала победу. В настоящий момент завершилась серия игр в логическую игру го, где соревновались ИИ AlphaGo от DeepMind (владелец Google) и легендарный чемпион по игре в го из Китая Ли Си Дол. В четырех из пяти партий победу одержала машина, показав свое превосходство над человеком в этой игре. Невероятно сложная игра между человеком и ИИ показывает, что машинный интеллект за это время развился очень сильно. Кажется, что роковой день, когда машины действительно станут умнее человека, теперь уже как никогда близок. Однако кажется, многие совсем не понимают, а скорее даже заблуждаются в отношении тех последствий, которые нас могут ожидать в будущем.

Мы действительно недооцениваем некоторые очень серьезные и даже опасные последствия развития искусственного интеллекта. В прошлом году соучредитель компании SpaceX Элон Маск выступил с заявлением, в котором выразил опасение на счет возможного порабощения мира искусственным интеллектом, что в свою очередь вызвало огромное количество комментариев как сторонников, так и противников такого мнения.

Для столь фундаментально революционного будущего, которое нас может ожидать, удивление вызывает огромное число сегодняшних разногласий по поводу того, случится ли оно вообще и чем оно в конечном итоге обернется. Особенно странным выглядит отрицание невероятных преимуществ, которые мы сможем получить при создании действительно умного ИИ, конечно же, при учете всех возможных рисков. Все эти вопросы невероятно сложны в получении нужных ответов, так как ИИ, в отличие от любых других изобретений человечества, может действительно «омолодить» это человечество или полностью его уничтожить.

Сейчас сложно понять, во что верить и на что надеяться. Однако благодаря пионерам компьютерных наук, нейробиологам и теоретикам развития ИИ, потихоньку начинает проясняться четкая картинка. Ниже приведен список самых частых заблуждений и мифов в отношении искусственного интеллекта.

Мы никогда не создадим ИИ с человекоподобным интеллектом

Реальность, в свою очередь, говорит о том, что у нас уже есть компьютеры, которые соответствуют и даже превосходят человеческие возможности в некоторых сферах. Взять хотя бы шахматы или ту же игру го, торговлю на биржах или роль виртуального собеседника. Компьютеры и алгоритмы, которые ими управляют, со временем станут только лучше, и это лишь вопрос времени, пока они не сравняются с возможностями человека.

Исследователь из Нью-Йоркского университета Гэри Маркус как-то сказал, что «практически все», кто работает со сферой ИИ, считают, что машины однажды нас превзойдут:

«Единственный спор между сторонниками и скептиками заключается во временных рамках этого события».

Такие футурологи, как Рэй Курцвейл считают, что событие это может произойти уже в ближайшие десятилетия, в то время как другие говорят, что на это потребуется несколько столетий.

Скептики ИИ неубедительны в своих доказательствах того, что создание искусственного интеллекта как нечто уникального и очень похожего на настоящий живой человеческий мозг в технологическом плане находится где-то за гранью реальности. Наш мозг тоже машина. Биологическая машина. Он существует в том же мире и подчиняется тем же законам физики, что и все остальное. И со временем мы полностью разгадаем весь принцип его работы.

ИИ будет обладать сознанием

Существует общее мнение, согласно которому машинный интеллект будет обладать сознанием. То есть ИИ будет думать так же, как это делает человек. Помимо этого, некоторые критики, например, соучредитель компании Microsoft Пол Аллен считают, что из-за неполной теоретической базы, описывающей механизмы и принципы самосознания, мы пока не создали даже общий искусственный интеллект, то есть интеллект, способный выполнять любые интеллектуальные задачи, с которыми может справиться человек. Однако по мнению Мюррея Шанахана, доцента факультета когнитивной робототехники Имперского колледжа Лондона, мы не должны приравнивать два этих понятия.

«Самосознание - это определенно очень интересный и важный объект исследований, однако я не считаю, что самосознание должно являться обязательным атрибутом человекоподобного искусственного интеллекта», - говорит Шанахан.

«По большому счету мы используем термин «самосознание» лишь для индикации нескольких психологических и когнитивных атрибутов, которые, как правило, связаны между собой в человеке».

Вполне реально представить очень умную машину, у которой отсутствует один или несколько таких атрибутов. Когда-нибудь мы сможем построить действительно невероятно умный ИИ, но при этом лишенный способности к самосознанию, а также субъективному и осознанному пониманию окружающего мира. Шанахан отмечает, что объединение интеллекта и самосознания внутри машины все же будет возможно, но мы не должны упускать того факта, что это два совершенно отдельных друг от друга понятия.

И хотя один из вариантов «Теста Тьюринга», в котором машина показала, что она ничем не отличается от человека, был успешно пройден, это совсем не означает, что эта машина обладает сознанием. С нашей (человеческой) точки зрения, продвинутый искусственный интеллект может показаться нам как нечто обладающее самосознанием, однако сама машина будет осознавать себя не больше, чем тот же камень или калькулятор.

Мы не должны бояться ИИ

В январе этого года основатель компании Facebook Марк Цукерберг поделился своими мыслями о том, что нам не следует бояться ИИ, добавив, что эта технология сможет привнести огромную пользу во всем мире. Правда в том, что он прав лишь отчасти. Мы действительно сможем получить удивительные преимущества, имея в своем распоряжении ИИ (начиная от самоуправляемых автомобилей и заканчивая новыми открытиями в медицине), однако никто не может гарантировать, что каждое применение ИИ обязательно принесет пользу.

Высокоинтеллектуальная система, возможно, и будет знать все необходимое для тех или иных задач (например, разрешение сложной мировой финансовой обстановки или взлом компьютерных систем врага), однако за пределами узкоспециализированных задач потенциал ИИ пока совершенно неясен, а потому потенциально опасен. Например, система компании DeepMind специализируется на игре го, однако у нее нет возможностей (и причин) исследовать области за пределами этой сферы.

Компьютерный вирус Flame, задачей которого было слежение за ближневосточными странами

Многие из таких систем могут носить серьезную угрозу безопасности. Хорошим примером является мощный и весьма хитрый вирус Stuxnet, военизированный «червь», созданный американскими и израильскими военными для проникновения и атаки на иранские атомные станции. Только эта вредоносная программа каким-то образом (случайно или преднамеренно) поразила еще в добавок и одну из российских атомных станций.

Другим примером является вирус Flame, разработанный для направленного кибер-шпионажа на Ближнем Востоке. Легко представить, как «будущие версии» вирусов Stuxnet и Flame самостоятельно выйдут за пределы своих поставленных задач и смогут заразить практически всю инфраструктуру той или иной страны. И сделают это очень тихо и незаметно.

Искусственный сверхинтеллект будет слишком умным, чтобы допускать ошибки

Математик, исследователь искусственного интеллекта и основатель робототехнической компании Surfing Samurai Robots Ричард Лузмор считает, что большинство сценариев конца света с участием ИИ выглядят маловероятными, потому что все они в общем и целом основываются на том, что ИИ однажды скажет: «Я понимаю, что уничтожение людей является ошибкой моего программного кода, однако я все равно вынужден следовать поставленной задаче».

Лузмор считает, что если ИИ будет вести себя согласно этому сценарию, он столкнется с логическими противоречиями, которые поставят перед ним под сомнение всю его накопленную базу знаний и приведут в конце концов к его собственному осознанию своей глупости и бесполезности.

Исследователь также считает, что те люди, которые говорят, что «ИИ будет делать только то, что будет заложено в его программе», заблуждаются, так же как и те люди, которые когда-то говорили те же самые слова, но в сторону компьютеров, заявляя о том, что компьютерные системы никогда не будут обладать универсальностью.

Питер Макинтайер и Стюарт Армстронг, оба работающие в Институте будущего человечества при Оксфордском университете, в свою очередь, не согласны с этим мнением, аргументируя это тем, что поведение ИИ будет в обязательной и в значительной степени обосновано именно программным кодом. Ученые не верят в то, что ИИ никогда не совершат ошибок или же, напротив, будут слишком глупы, чтобы понять, чего именно мы от них хотим.

«По своему определению искусственный сверхинтеллект (ИСИ) является агентом, чей интеллект многократно будет превосходить лучшие умы человечества практически во всех областях», - говорит Макинтайер.

«Он точно будет понимать то, чего мы от него будем хотеть».

Макинтайер и Армстронг считают, что ИИ будет выполнять только те задачи, на которые он был запрограммирован, однако если каким-то образом он самостоятельно разовьется, то, вероятнее всего, он попытается выяснить, насколько его действия будут отличаться от человеческих задач и заложенных в него законов.

Макинтайер сравнивает будущее положение людей с тем, с которым приходится сталкиваться мышам. Мыши обладают мощным инстинктом поиска еды и убежища, однако их цели очень часто вступают в противоречие с человеком, который не желает видеть их в своем доме.

«Подобно нашим знаниям о мышах и их желаниях, система сверхинтеллекта тоже может все о нас знать и знать то, чего мы хотим, но при этом будет совершенно безразлична к нашим желаниям».

Простое решение исключит проблему контроля ИИ

Как показано в фильме «Из машины», будет очень трудно контролировать ИИ, который будет гораздо умнее нас

Если предположить, что однажды мы создадим сверхинтеллект, который будет умнее людей, то нам придется столкнуться с серьезной проблемой, проблемой контроля. Футурологи и теоретики искусственного интеллекта пока неспособны объяснить, как мы сможем управлять и сдерживать ИСИ после его создания. Неясным остается и то, как мы сможем убедиться в том, что он будет дружелюбно настроен по отношению к людям. Совсем недавно исследователи из Технологического института Джорджии (США) наивно предположили, что ИИ сможет обучиться и впитать в себе человеческие ценности и знания общественных норм путем простого чтения простых сказок. Да, да, простых детских сказок и историй, которые нам родители читали в детстве. Но в реальности же все окажется гораздо сложнее всего этого.

«Было предложено множество так называемых «решений» вопроса контроля искусственного интеллекта», - говорит Стюарт Армстронг.

Одним из примеров таких решений может являться программирование ИСИ таким образом, чтобы он постоянно пытался понравиться или угодить человеку. Альтернативой может служить интеграция в его исходных код таких концептов, как любовь или уважение. А чтобы избежать такого развития сценария, по которому ИИ сможет упростить все эти понятия и воспринимать этот мир через призму этих сверхупрощенных понятий, разделив его только на черное и белое, его можно запрограммировать на понимание и принятие интеллектуального, культурного и социального разнообразия.

Три закона робототехники, созданных Айзеком Азимовым, отлично вписываются в концепт фантастических произведений, однако в реальности нам нужно кое-что более комплексное для решения вопроса проблемы контроля

К сожалению, эти решения слишком простые и выглядят как попытка уместить всю сложность человеческих симпатий и антипатий в рамках одного общего определения или понятия или же попытка уместить всю сложность человеческих ценностей в одно слово, фразу или идею. Попробуйте для примера вместить в эти рамки последовательное и адекватное определение для такого понятия, как «уважение».

«Конечно, не следует думать, что такие простые варианты совершенно бесполезны. Многие из них предлагают отличный повод задуматься, а возможно, и стимулируют поиск решения конечной проблемы», - говорит Армстронг.

«Но мы не можем полагаться исключительно на них без более комплексной работы, без четких исследований и поиска последствий от использования тех или иных решений».

Мы будем уничтожены искусственным сверхинтеллектом

Никто не может гарантировать, что ИИ однажды нас уничтожит, как и никто не может с уверенностью сказать, что мы не сможем найти способы контролировать и использовать ИИ в своих целях. Как однажды сказал американский специалист по искусственному интеллекту Элиезер Юдковски: «ИИ не может любить или ненавидеть вас, однако вы состоите из атомов, которые он смог бы использовать для чего-то другого».

Оксфордский философ Ник Бостром в своей книге «Сверхинтеллект: пути, опасности и стратегии» пишет о том, что настоящий сверхинтеллект однажды сможет себя осознать, что сделает его опаснее любого из когда-либо созданных человеком изобретений. Такие выдающиеся современные мыслители, как Элон Маск, Бил Гейтс и Стивен Хокинг (многие из которых считают, что «создание ИИ может стать самой страшной ошибкой в истории человечества»), в большей степени соглашаются с этим мнением и уже бьют тревогу.

Питер Макинтайер считает, что для большинства задач, которые сверхителлект сможет перед собой поставить, люди будут выглядеть как лишнее звено.

«ИИ однажды сможет прийти к заключению - и следует отметить, что рассчитает это он весьма правильно, - что люди не хотят за счет него максимизировать доходность какой-нибудь определенной компании любой ценой, невзирая на последствия для потребителей, окружающей среды и живых существ. Поэтому у него появится огромный стимул разработать план и стратегию, благодаря которым человек не сможет помешать решению поставленной задачи, путем ее изменения или даже отключения ИИ».

По мнению Макинтайера, если задачи ИИ будут прямо противоположны нашим собственным, то это даст ему отличные причины для того, чтобы не дать нам его остановить. И если учесть, что уровень его интеллекта будет гораздо выше нашего, остановить его действительно будет очень и очень трудно, если вообще возможно.

Однако с уверенностью сказать что-либо сейчас невозможно, и никто не сможет сказать, с какой именно формой ИИ нам придется иметь дело и каким образом это может угрожать человечеству. Как однажды сказал Элон Маск, ИИ на самом деле можно будет использовать для управления, слежения и контроля других ИИ. А возможно, в него вообще будут внедрены человеческие ценности и изначальная дружелюбность к людям.

Искусственный сверхинтеллект будет дружелюбным

Философ Иммануил Кант считал, что интеллект прочно взаимосвязан с принципами морали. В своей работе «Сингулярность: философский анализ» нейробиолог Дэвид Чалмерс взял за основу знаменитую идею Канта и постарался ее применить для анализа становления искусственного сверхинтеллекта.

«Если описанные в этой работе принципы верны, то наряду с резким развитием ИИ стоит ожидать и резкое развитие моральных принципов. Дальнейшее же развитие приведет к появлению систем ИСИ, которые будут обладать сверхморалью и сверхинтеллектом. Поэтому нам следует ожидать только доброжелательных качеств с их стороны».

Правда в том, что идея продвинутого ИИ, обладающего принципами морали и исключительной добродетели не выдерживает критики. Как указывает Армстронг, в мире полно умных военных преступников. Интеллект и мораль в человеке, например, никак не связаны, поэтому ученый ставит под сомнение, что такая взаимосвязь будет существовать у других форм интеллекта.

«Умные люди, ведущие себя аморально, как правило, создают гораздо больше проблем и боли, нежели их менее интеллектуальные собратья. Интеллект дает им возможность быть более изощренными в их плохих, нежели хороших поступках», - говорит Армстронг.

Макинтайер поясняет, что возможность агента достигать поставленной задачи никак не соотносится с тем, какой именно это задача является.

«Нам очень повезет, если наши ИИ станут более нравственными, а не только умными. Полагаться на удачу - это, конечно, последнее дело в таком вопросе, но, возможно, именно удача определит наше положение в будущем», - говорит исследователь.

Риски, связанные с ИИ и робототехникой, носят одинаковых характер

Это особенно распространенное заблуждение, что используется в СМИ, а также в голливудских блокбастерах вроде «Терминатора».

Если искусственный сверхнителлект, такой как Skynet, например, действительно захочет уничтожить все человечество, то вряд ли он будет использовать военизированных андроидов с пулеметами в каждой руке. Его хитрость и эффективность мышления позволят ему понять, что гораздо удобнее будет использовать, скажем, новый вид биологической чумы или, например, какую-нибудь нанотехнологическую катастрофу. А может, он просто возьмет и уничтожит атмосферу нашей планеты. ИИ потенциально опасен не просто потому, что его разработка тесно связана с развитием робототехники. Причина его потенциальной опасности заключается в тех методах и средствах, благодаря которым он сможет заявить миру о своем присутствии.

ИИ, показанные в научной фантастике, являются отражением нашего будущего

Без сомнения, многие годы писатели и фантасты используют среду научной фантастики в качестве плацдарма для предположений нашего реального будущего, однако фактическое создание ИСИ и реальные последствия этого пока находятся за горизонтом наших реальных знаний. Более того, столь искусственная и явно нечеловеческая природа ИИ не позволяют даже с какой-либо точностью предположить, что этот ИИ будет из себя представлять на самом деле.

В большинстве научно-фантастических произведений ИИ максимально похож на человека.

«Перед нами на самом деле целый спектр самых разнообразных возможных видов разума. Даже если взять только человеческий вид. Например, ваш разум далеко не идентичен разуму вашего соседа. А ведь это сравнение - лишь капля в море всего возможного многообразия разумов, которые могли бы существовать», - говорит Макинтайер.

Большинство научно-фантастических произведений созданы, конечно же, в первую очередь для того, чтобы рассказать историю, а не быть максимально убедительными с научной точки зрения. Если бы было все наоборот (наука важнее сюжета), то следить за такими произведениями было бы неинтересно.

«Только представьте, какими бы скучными были все эти истории, где ИИ, без самосознания, возможности радоваться, любить или ненавидеть, уничтожает всех людей практически без какого-либо сопротивления для достижения своей цели, которая, к слову, тоже может быть не очень интересной для читателя или зрителя», - комментирует Армстронг.

ИИ отнимет наши рабочие места

Возможность ИИ автоматизировать те процессы, которыми мы занимаемся вручную, и его потенциальная возможность уничтожить все человечество - это совсем не одно и то же. Однако, согласно Мартину Форду, автору книги «Рассвет роботов: технологии и угрозы безработного будущего» («Rise of the Robots: Technology and the Threat of a Jobless Future»), эти понятия очень часто пытаются сравнивать и объединять в единое целое. Конечно, это замечательно, что мы стараемся предвидеть последствия создания ИИ так далеко, но только в том случае, если эти старания не будут отвлекать нас от проблем, с которыми мы можем встретиться уже через пару десятилетий, если ничего не предпримем. И одной из основных таких проблем является массовая автоматизация.

Мало кто будет спорить, что одной из задач искусственного интеллекта будет поиск пути автоматизации многих рабочих позиций, начиная от заводских рабочих мест и заканчивая некоторыми должностями «белых воротничков». Некоторые эксперты предсказывают, что половина всех рабочих мест, по крайней мере в США, могут попасть под автоматизацию уже в ближайшем будущем.

Оригинал взят у 5cek

В этой статье исследуется текущее состояние разработки искусственного интеллекта, рассматриваются вызовы и угрозы, а также особенности работы наиболее признанных учёных, и описываются основные прогнозы, в каком виде может предстать перед нами ИИ. В целом это переработанная и сокращённая версия эссе, написанного Тимом Урбаном для “Wait But Why”.



Введение

Если предположить, что научная деятельность человечества будет продолжаться без заметных перерывов, то появление ИИ может стать наиболее позитивным изменением в нашей истории. Или, как этого многие боятся, самым опасным изобретением. Сегодня разработки в сфере ИИ уверенно следуют по пути создания компьютера, когнитивные функции которого не будут уступать человеческому мозгу. И вероятнее всего, мы сможем создать его в течение 30 лет. Согласно прогнозам большинства учёных, работающих над проблемой ИИ, это изобретение может стать причиной прорывов в области создания Искусственного Суперинтеллекта (ИСИ) - сущности, чей разум превзойдёт совокупную мощь интеллекта всех людей. Речь не идёт о неком туманном будущем. Первая стадия создания ИИ постепенно проявляется в технологиях, которые мы уже используем в повседневной жизни. С каждым годом критическая масса достижений будет накапливаться и ускорять процесс разработки, способствуя усложнению технологий, их распространению и доступности. Всё больше интеллектуальной работы мы будем поручать компьютерам, внедряя их в каждый аспект нашей реальности, включая организацию своей работы, формирование сообществ и общение с миром.

Экспоненциальный рост

Руководящий принцип технического прогресса

Чтобы лучше понять руководящие принципы ИИ-революции, давайте пока отвлечёмся от научных исследований. Представьте, что вы получили машину времени и должны доставить кого-то из прошлого в настоящее, чтобы этот человек потерял дар речи от наших технологических и культурных достижений.

Допустим, вы решили вернуться на 200 лет назад. Метнулись в начало 1800-х годов, схватили какого-то мужика и доставили в 2016. Вы водите его и наблюдаете за его реакциями на всё окружающее. Мы не можем представить, как он воспринимает эти сияющие капсулы, проносящиеся по дорогам; разговоры с людьми, находящимися за океаном; просмотр спортивных игр, проходящих за 1000 км от него; прослушивание концерта, который случился 50 лет назад; возню с магическим прямоугольником, способным сохранять изображения и движущиеся картинки, а также показывающим маленькую точку, обозначающую местоположение на карте; разговор лицом к лицу с человеком, находящимся на другом конце страны и многое другое. Нам не понадобится много времени. Через пару минут гость из прошлого окончательно офигел.

Теперь вы оба хотите узнать, как отреагирует на достижения 1800-х годов человек из 1600-х. Вы перемещаетесь во времени, хватаете первого попавшегося и переносите его на 200 лет вперёд, в 19 век. Ему очень интересно смотреть на окружающий мир, но вы понимаете, что он не потрясён увиденным. То есть чтобы потрясти кого-то 19-м веком, нужно вернуться в прошлое гораздо дальше, чем на 200 лет. Чего там мелочиться, махнём на 15 000 лет назад. Во времена до Первой Сельскохозяйственной Революции, благодаря которой появились первые города и возникла концепция цивилизаций. Находите какого-нибудь охотника-собирателя и показываете ему обширные империи 1750-х годов, с их башнями церквей, кораблями, способными пересекать океаны, с понятием «находиться внутри» и огромными накоплениями знаний и открытий в виде книг. Нам не понадобится много времени. Через пару минут гость из прошлого окончательно офигел.

Теперь вы втроём решили провернуть подобный трюк снова. Вы понимаете, что не имеет смысла возвращаться на 15 000, 30 000 или 45 000 лет. Вам придётся прыгнуть во времени гораздо дальше. Вы находите мужика лет 100 000 назад и проводите ему экскурсию по племенам со сложной социальной иерархией. Он видит разнообразное охотничье оружие, хитрые инструменты, огонь и впервые слышит язык в виде знаков и звуков. Ну, вы поняли, всё это взрывает ему мозг. Через пару минут он окончательно офигевает.

Что произошло? Почему нам с каждым разом приходилось возвращаться намного дальше в прошлое? 100 000 → 15 000 → 200 лет назад?

Так происходит потому, что более развитые общества прогрессируют быстрее менее развитых. В 1800-х человечество знало гораздо больше, поэтому неудивительно, что оно развивалось гораздо быстрее, чем человечество 15 000 лет назад. И нам сегодняшним, чтобы офигеть в будущем, достаточно будет переместиться вперёд меньше, чем на 200 лет.

Рей Курцвейл, учёный и специалист в сфере ИИ, говорит, что «в период с 2000 по 2014 годы мы наблюдали такой же объём прогресса, как за весь 20-й век. И ещё столько же будет достигнуто к 2021 году, всего за семь лет. Ещё лет через 20 мы в течение года достигнем прогресса, в несколько раз превышающего прогресс за весь 20 век, а затем этот период уменьшится до полугода». Курцвейл верит, что к концу 21 века мы в 1000 раз превзойдём прогресс века 20-го.

Логика подсказывает, что если наиболее развитые виды на планете движутся вперёд всё возрастающими темпами, то в конце концов прогресс полностью меняет их представление о жизни, их представление о том, что такое быть человеком. Как если бы развитие интеллекта в процессе эволюции настолько изменило человеческое бытие, что это изменило бы существование всех живых существ на Земле. И если вы потратите некоторое время на изучение текущей ситуации в науке и технологиях, то заметите немало признаков того, что жизнь, какой мы её знаем, уже не сможет устоять перед нашим следующим прорывом.

Путь к общему искусственному интеллекту

Создание компьютеров, не уступающих людям по интеллекту

ИИ - это общий термин для описания технологий компьютерного интеллекта. Несмотря на разнообразие мнений по этому вопросу, большинство экспертов считают, что существует три категории ИИ.

Ограниченный искусственный интеллект (ANI, Artificial Narrow Intelligence)
ИИ первой категории. Специализируется в какой-то конкретной области. Например, есть ИИ, способный победить чемпионов мира по шахматам, но это единственное, что он может делать.

Общий искусственный интеллект (AGI, Artificial General Intelligence)
ИИ второй категории. По уровню интеллекта он достигает и превосходит человека, то есть способен «делать выводы, планировать, решать проблемы, мыслить абстрактно, понимать сложные идеи, быстро обучаться, в том числе на основании собственного опыта».

Искусственный суперинтеллект (ASI, Artificial Super Intelligence)
ИИ третьей категории. Он умнее всего человечества вместе взятого, начиная от «немного умнее» до «умнее в триллион раз».

Текущая ситуация

На текущий момент человечество создало ИИ первой категории, и они используются повсеместно:

- Автомобили полны ANI-систем, от компьютеров, вычисляющих время срабатывания ABS, до компьютеров, настраивающих параметры впрыска топлива.
- Поисковик Google - это один большой ANI с невероятно сложными алгоритмами ранжирования страниц и вычисления отображения контента. То же самое можно сказать и про новостную ленту Facebook.
- Спам-фильтры почтовых сервисов используют ANI для выявления спама. Этот ИИ является самообучаемым и подстраивается под ваши предпочтения и особенности.
- Пассажирские авиалайнеры практически целиком управляются ANI без помощи людей.
- Беспилотный автомобиль Google, проходящий тестирование, использует мощные ANI-системы, позволяющие ему распознавать и реагировать на окружающую среду.
- Ваш смартфон - маленькая ANI-фабрика. Вы используете картографические приложения, получаете рекомендации на основании ваших предпочтений, проверяете погоду на завтра, общаетесь с Siri.
- Лучшие игроки в шашки, шахматы, Scrabble, Backgammon и Othello - это исключительно ANI-системы.
- Сложные ANI-системы широко используются на производствах, в военной сфере, в финансах (сегодня свыше половины акций на американских рынках торгуются ИИ-программами).

Современные ANI-системы не особо внушают опасения. В худшем случае глючный или запрограммированный со злым умыслом ANI может привести к изолированной катастрофе вроде падения самолёта, выходу из строя АЭС или падению рынков (наподобие 2010 Flash Crash, когда ANI-программа неправильно среагировала на неожиданную ситуацию, что привело к резкому падению рынка акций на один триллион долларов. Лишь часть потерь была компенсирована после исправления ошибки). Пока ANI не имеют возможности создать угрозу нашему существованию, но нельзя закрывать глаза на то, что всё более разрастающаяся и усложняющаяся экосистема относительно безопасных ANI является предвестником глобальных перемен. Каждая инновация в сфере ANI тихо вносит небольшой вклад в общую копилку, становится ещё одним камнем в дороге по направлению к AGI и ASI.


Так видит мир беспилотный автомобиль Google. На основе видео Embedded Linux Conference 2013 - KEYNOTE Google’s Self Driving Cars

Ничто не заставит вас больше ценить человеческий интеллект, как осознание невероятной трудности создания компьютеров, не уступающих нам по уму. Чрезвычайно легко построить компьютер, способный умножать десятиразрядные числа в долю секунды. А построить такой, который сможет посмотреть на собаку и ответить, собака это или кошка, - исключительно трудно. Создать ИИ, способный победить любого человека в шахматах? Сделано. Разработать ИИ, способный прочитать параграф из книги для шестилетних детей и понять их значение? Сегодня на эту задачу Google тратит миллиарды долларов.

Почему трудные для нас вещи - вроде вычислений, стратегий на финансовых рынках и перевода с языков - даются компьютерам умопомрачительно легко, в то время как простые для нас вещи - вроде зрения, движения, перемещения и восприятия - даются им безумно трудно?

То, что кажется нам простым, на самом деле невероятно сложные процессы. Просто они были оптимизированы под нас (и большинство животных) эволюцией сотни миллионов лет назад. Когда вы протягиваете руку к какому-то предмету, то ваши мышцы, сухожилия и кости плеча, локтя и запястья моментально выполняют длинную последовательность физических операций под контролем глаз, чтобы ваша рука смогла двигаться как нужно в трёх измерениях. С другой стороны, умножение длинных чисел или игра в шахматы - это новые занятия для биологических существ, у нас просто не было возможности адаптироваться под них, поэтому компьютеру не нужно особо напрягаться, чтобы нас победить.

Вот забавный пример:

Глядя на картинку A, и вы, и компьютер определят, что на ней изображён прямоугольник из чередующихся фрагментов двух цветов.

Картинка B. Вы без проблем дадите описание непрозрачных и полупрозрачных фигур, а вот компьютер с треском провалится. Он опишет то, что видит - совокупность двумерных фигур нескольких оттенков. И будет совершенно прав. Просто наш мозг выполняет огромную работу по интерпретированию предполагаемой глубины сцены, смешанных теней и наложенного освещения.

Глядя на картинку C, компьютер видит двумерный коллаж из белых, чёрных и серых пятен, в то время как вы легко распознаете то, что изображено на самом деле - фотографию девушки и собаки на скалистом берегу.

И всё вышеописанное относится только к визуальной информации и её обработке. А чтобы не уступать по интеллекту человеку, компьютер должен ещё, например, распознавать разные выражения лица или понимать смысл понятий «получать удовольствие», «испытывать облегчение» и «ощущать различие». Как компьютеры смогут достичь ещё более высоких способностей, вроде сложных рассуждений, интерпретирования информации и установления взаимосвязей между разными областями знаний? Гораздо проще было построить небоскрёбы, отправить человека в космос и выяснить подробности Большого Взрыва, чем понять работу собственного мозга и придумать, как сделать что-то, работающее не хуже его. На сегодняшний день человеческий мозг считается самым сложно устроенным объектом в известной Вселенной.

Разработка оборудования

Если ИИ должен быть не глупее человеческого мозга, то критически важно обеспечить его аналогичными вычислительными ресурсами. Их можно выразить в количестве вычислений, которые мозг может выполнить в секунду - CPS, calculations per second.

Главный вызов заключается в том, что нам пока удалось точно измерить работу лишь некоторых разделов мозга. Однако Рей Курцвейл разработал метод определения общего количества CPS. Он взял CPS одного из разделов и умножил пропорционально весу всего мозга. Он делал это неоднократно на основании различных профессиональных оценок тех или иных разделов, и в результате всегда приходил к одному и тому же значению - 1016 CPS, или 10 квадрильонов CPS.

Один из самых быстрых современных суперкомпьютеров, китайский Tianhe-2, уже превысил эту производительность и показал около 34 квадрильонов CPS. Но этот монстр занимает 720 квадратных метров пространства и потребляет 24 мегаватт-час энергии (а человеческий мозг - примерно 20 Ватт), а его постройка обошлась в $390 миллионов. Так что он не особо подходит для широкого использования и даже для решения большинства коммерческих и промышленных задач.

Курцвейл предлагает подходить к оценке компьютеров с точки зрения количества CPS на $1000. Когда за эти деньги мы сможем получить производительность на уровне 10 квадрильонов, то это будет означать, что AGI стал настоящей частью нашей жизни. Сегодня за $1000 можно получить около 1010 CPS - 10 триллионов. Проверенный временем закон Мура гласит, что максимальная вычислительная мощность удваивается примерно каждые два года, а значит развитие оборудования, как развитие человечества, растёт по экспоненте (согласно самым свежим данным, через пять лет закон Мура уже перестанет работать в связи с достижением фундаментальных физических барьеров). В соответствии с этим прогнозируемым графиком:


Эта визуализация основана на графике Курвейла и анализе из его книги The Singularity is Near.

Подобная динамика подсказывает, что компьютеры с производительностью, аналогичной человеческому мозгу, появятся в районе 2025 года. Но одна лишь вычислительная мощность не придаст компьютеру интеллектуальности. Так что следующий вопрос звучит так: «Как нам придать разума всем этим гигагерцам?».

Создание ПО

Одна из труднейших задач при создании AGI - как написать необходимое ПО. Дело в том, что никто не знает, как сделать компьютер умным. Мы всё ещё спорим о том, как придать компьютеру человеческий интеллект, чтобы он знал, что такое «собака», умел распознать криво написанную букву В и мог оценить фильм как посредственный. Тем не менее, есть несколько основных подходов к этой задаче.

1. Копирование работы человеческого мозга.

Решение задачи «в лоб»: скопировать архитектуру мозга и построить компьютер в близком соответствии с ней. Пример: искусственная нейронная сеть. Изначально это сеть из транзисторных «нейронов», соединённых друг с другом посредством входов/выходов. Такая сеть ничего не знает, совсем как мозг младенца. Её «обучение» связано с попыткой выполнить какие-то задачи, допустим, распознавание рукописного текста. Сначала взаимодействия нейронов и попытки оцифровывания каждой буквы будут происходить совершенно хаотично. Но когда такая нейронная сеть будет достигать какого-то положительного результата, приведшие к нему взаимосвязи будут усиливаться. А взаимосвязи, приведшие к отрицательным результатам, будут ослабляться. После ряда проб и ошибок сеть сформирует определённые последовательности взаимодействия и оптимизируется для конкретной задачи.

Есть и более радикальный подход - полное эмулирование мозга. Учёные берут настоящий мозг, разрезают его на большое количество кусочков, выявляют нейронные связи и копируют их посредством ПО. Если этот подход окажется успешным, то мы получим компьютер, способный выполнять те же задачи, что и человеческий мозг. Достаточно дать ему возможность обучаться и собирать информацию… Далеки ли мы от полноценной эмуляции мозга? Достаточно далеки, ведь мы только что смогли эмулировать мозг 1-миллиметрового плоского червя, состоящий всего из 302 нейронов. Для сравнения: человеческий мозг состоит примерно из 86 миллиардов нейронов, соединённых друг с другом посредством триллионов синапсов.

2. Эволюция компьютеров.

Даже если мы сможем эмулировать мозг, что сравнимо с постройкой самолёта посредством копирования движения крыльев птицы, машины всё же лучше всего подходят для использования новых, ориентированных на технику подходов, а не для копирования биологии. Если мозг слишком сложен для цифрового воспроизведения, то мы можем эмулировать процесс эволюции. Для этого используются так называемые «генетические алгоритмы». Допустим, группа компьютеров пытается выполнить какую-то задачу, и самые успешные из них скрещиваются с другими, передавая по половине программного кода для создания нового компьютера. Наиболее успешные исключаются из процесса. Скорость и ориентированность на достижение цели - это преимущества искусственной эволюции перед эволюцией биологической. После множества итераций естественный отбор позволит создавать всё более совершенные компьютеры. Вызов заключается в автоматизации процесса, чтобы искусственная эволюция развивалась без вмешательства человека.

3. Пусть все проблемы решает компьютер, а не мы.

Последний подход самый простой и самый пугающий. Нам нужно построить компьютер, двумя основными задачами которого будут исследование ИИ и внесение изменений в собственный код, чтобы не только учиться улучшать свою архитектуру, но и претворять на практике. То есть речь о том, чтобы сделать компьютер специалистом по информатике, чтобы он мог самостоятельно вести собственную разработку. Это самый предпочтительный способ для получения AGI.

Возможно, все эти улучшения ПО покажутся вам слишком медленными или неосязаемыми, но, согласно научным представлениям, одна небольшая инновация может моментально ускорить процесс разработки. Это как последствия революции Коперника - его открытие моментально облегчило математические вычисления траекторий планет, и в свою очередь это привело к новым открытиям. Так что не нужно недооценивать экспоненциальный рост: то, что может выглядеть ползаньем улитки, может быстро превратиться в безудержную гонку.


Визуализация сделана на основании графика из “Welcome, Robot Overlords. Please Don’t Fire Us?”

Путь к искусственному суперинтеллекту

Сущность, которая умнее всего человечества вместе взятого

Вполне вероятно, что в какой-то момент мы сможем создать AGI: программное обеспечение, которое по интеллекту многократно превзойдёт человека. Означает ли это, что компьютеры станут равны нам? Вовсе нет - компьютеры будут гораздо эффективнее. Благодаря своей электронной природе они будут иметь ряд преимуществ:

- Скорость. Нейроны мозга работают с частотой около 200 Гц, а современные процессоры имеют частоту в среднем 2 ГГц, то есть в 10 млн раз быстрее.
- Память. В искусственном мире куда труднее забывать или путать факты. Компьютеры могут в секунду запоминать куда больше, чем человек за десять лет. Кроме того, память компьютера гораздо точнее и объёмнее.
- Производительность. Транзисторы гораздо точнее нейронов и реже выходят из строя (и могут быть восстановлены или заменены). Человеческий мозг быстро утомляется, а компьютеры могут без остановки работать с максимальной производительностью.
- Коллективные способности. Из-за особенностей межличностного взаимодействия и сложности социальной иерархии, работа в группе людей может быть до нелепости сложной. И чем больше группа, тем медленнее становится отдача от каждого члена. ИИ не имеет этих биологических ограничений, он не испытывает проблем, характерных для коллективов людей, и может синхронизировать и обновлять собственную ОС.

Текущая страница: 7 (всего у книги 39 страниц) [доступный отрывок для чтения: 10 страниц]

Ни одна машина не думает над вечными вопросами

Лео Чалупа

Нейробиолог; вице-президент по исследовательской деятельности Университета Джорджа Вашингтона

Недавно продемонстрированные примеры выдающихся возможностей высокопроизводительных компьютеров замечательны, но неудивительны. При надлежащем программировании машины значительно превосходят людей в плане хранения и оценки больших объемов данных и принятия практически мгновенных решений. Это – мыслящие машины, потому что происходящие в них процессы аналогичны многим аспектам мышления человека.

Но в более широком понимании термин «мыслящая машина» употребляется неправильно. Ни одна машина не задается вечными вопросами: «Откуда я взялась? Зачем я здесь? Куда я иду?» Машины не думают о своем будущем, о своем неизбежном конце или о своем наследии. Чтобы размышлять над такими вопросами, требуется сознание и самосознание. У мыслящих машин их нет, и, учитывая наш нынешний уровень знаний, они вряд ли это получат в обозримом будущем.

Единственный реалистичный подход к созданию машины, сходной с человеческим мозгом, должен основываться на копировании нейронных цепей, лежащих в основе мышления. Более того, исследовательские программы, которые проводятся сейчас в Калифорнийском университете в Беркли, Массачусетском технологическом институте и еще в нескольких университетах, сосредоточены на достижении этой цели – построить компьютеры, работающие подобно коре головного мозга. Последние достижения в области исследования микроструктуры коры головного мозга стали серьезным стимулом, и вполне вероятно, что BRAIN27
BRAIN, The Brain Research Through Advancing Innovative Neurotechnologies – исследование мозга средствами передовых инновационных нейротехнологий (англ.). – Прим. пер.

– новый проект Белого Дома – даст массу ценной информации. В ближайшие десятилетия мы узнаем о том, как взаимосвязаны миллиарды нейронов в каждом из шести слоев коры головного мозга, а также о типах функциональных цепей, формируемых такими связями.

Это необходимый первый шаг в разработке машин, способных к мышлению в том виде, который характерен для человеческого мозга. Но понимания микроструктуры коры недостаточно, чтобы построить умную машину. Что необходимо, так это понимание деятельности нейронов, лежащей в основе мыслительного процесса. Визуализирующие исследования обнаружили много новой информации об отделах головного мозга, вовлеченных в такие функции, как зрение, слух, осязание, страх, удовольствие и т. д.

Но у нас еще нет даже примерного понимания того, что происходит, когда мы размышляем. Причин тому множество, и среди них не последнюю роль играет наша неспособность изолировать мыслительный процесс от других физических состояний. Кроме того, различные мозговые цепи вполне могут быть связаны с различными модусами мышления. Когда мы думаем о предстоящей лекции, наш мозг задействуется не так, как когда мы вспоминаем о неоплаченных счетах.

В ближайшее время можно ожидать, что компьютеры будут превосходить людей во все большем количестве занятий. Но нам нужно намного лучше понимать работу человеческого мозга, чтобы создать по-человечески думающую машину. На данный момент нам не надо беспокоиться по поводу гражданских или любых других прав роботов, как не надо бояться, что они захватят власть. Если машина вдруг выйдет из под контроля, достаточно будет вытащить вилку из розетки.

Сингулярность – городская легенда?

Дэниел Деннет

Философ; профессор философии и содиректор Центра когнитивных исследований, Университет Тафтса; автор книги «Насос интуиции и другие инструменты мышления» (Intuition Pumps and Other Tools for Thinking)

Сингулярность – тот роковой момент, когда искусственный интеллект превзойдет своих создателей в разумности и захватит мир, – это мем, заслуживающий того, чтобы над ним поразмыслить. У него есть характерные признаки городской легенды: некоторое научное правдоподобие («Ну, в принципе, я полагаю, такое возможно!») и замечательная, вызывающая дрожь кульминационная фраза («Нами будут править роботы!»). «А ты знаешь, что если ты одновременно чихнешь, рыгнешь и пукнешь, то умрешь?» – «Да ладно, правда?» После десятилетий шумихи по поводу искусственного интеллекта можно было бы думать, что люди станут считать сингулярность шуткой, но, как оказалось, обеспокоенность общества этой идеей только растет. Добавьте несколько известных новообращенных – Илона Маска, Стивена Хокинга и Дэвида Чалмерса – к ряду других громких имен, и вы уже не можете не принимать ее всерьез. Когда случится это выдающееся событие – через десять, сто или тысячу лет? Может, благоразумнее будет уже сейчас начинать планировать, строить баррикады и повышать бдительность, высматривая предвестников катастрофы?

Я, напротив, думаю, что эти тревожные сигналы отвлекают нас от более насущной проблемы – от нависшего над нами бедствия, которое гораздо ближе и которому не нужна никакая помощь со стороны закона Мура или грядущих прорывов в теоретической науке. Мы в течение нескольких веков с огромным трудом постигали природу, сегодня накопленные знания позволяют нам впервые в истории контролировать многие аспекты наших судеб – и вот мы готовы отречься от этого контроля в пользу бездумных искусственных агентов и преждевременно поставить цивилизацию на автопилот. Соблазн поступить так коварен, потому что каждый следующий шаг сам по себе – предложение, от которого невозможно отказаться. Вы бы выглядели сегодня полным дураком, если б делали сложные арифметические вычисления с помощью карандаша и бумаги, тогда как карманный калькулятор намного быстрее и почти стопроцентно надежен (не забываем об ошибке округления). Зачем запоминать расписание поездов, когда его в любой момент можно посмотреть на смартфоне? Оставьте чтение карты вашему GPS-навигатору; да, он вовсе не умный, но он куда лучше вас справляется с задачей – не дает вам сбиться с маршрута.

Поднимемся выше по технологической лестнице: врачи все больше зависят от диагностических систем, которые объективно надежнее, чем любой специалист-человек. Вы бы хотели, чтобы ваш доктор отверг подготовленное машиной заключение, когда речь идет о выборе лечения для спасения вашей жизни? Это может оказаться лучшим – объективно наиболее успешным, непосредственно полезным – применением технологии, используемой в IBM Watson28
Суперкомпьютер, способный понимать вопросы на естественном английском языке и искать ответы в базе данных. – Прим. ред.

И вопрос о том, можно ли считать этот компьютер разумным (или сознательным), к делу не относится. Если окажется, что Watson лучше, чем эксперты-люди, справляется с постановкой диагнозов на основе доступных данных, то нашей нравственной обязанностью будет пользоваться результатами его работы. Врач, который решает пренебречь рекомендациями такой машины, сам напрашивается на судебный иск о злоупотреблении служебным положением. По-моему, ни одна область человеческой деятельности не застрахована от использования таких протезов-оптимизаторов, и везде, где бы они ни появились, мы вынуждены делать выбор в пользу надежных результатов, а не человеческих отношений, как это было прежде. Рукотворные законы и даже рукотворная наука могут занять место рядом с кустарной керамикой и свитерами ручной вязки.

В самые первые дни существования искусственного интеллекта была предпринята попытка провести четкое различие между ИИ и когнитивным моделированием. Предполагалось, что первый станет отраслью инженерного дела и будет работать как угодно, не пытаясь подражать человеческим мыслительным процессам, кроме тех случаев, когда это окажется эффективным. Когнитивное моделирование, напротив, представляло собой дополнение к психологии и нейробиологии. Модель когнитивного моделирования, которая убедительно продемонстрировала бы характерные человеческие ошибки или затруднения, стала бы триумфом, а не провалом. Такое различие в стремлениях продолжает существовать, но почти стерлось из общественного сознания. Для дилетантов искусственный интеллект – это штука, способная пройти тест Тьюринга. Недавние достижения в области ИИ стали в основном результатом того, что мы отказались от моделирования человеческих мыслительных процессов (которые, как мы думали, мы понимаем) и перешли к использованию удивительных возможностей суперкомпьютеров для майнинга данных, чтобы извлечь оттуда важные связи и паттерны. При этом мы уже не пытаемся сделать так, чтобы компьютеры понимали, что делают. По иронии судьбы, такие впечатляющие результаты побуждают многих когнитивистов пересмотреть свою позицию; оказывается, что надо еще многое узнать о том, как мозг осуществляет свою блестящую работу по «продуцированию будущего», и в этом нам помогут методы машинного обучения и майнинга данных.

Но общественность будет упорно предполагать, что любой черный ящик, который способен проделывать такие штуки (безотносительно последних успехов в области разработки искусственного интеллекта), – это разумный агент, во многом похожий на человека, тогда как на самом деле то, что находится в ящике, – это причудливо нарезанная двумерная ткань, сила которой как раз в том и заключается, что у нее нет надстройки в виде человеческого разума со всеми его особенностями: склонностью отвлекаться, волноваться, испытывать эмоции, переживать воспоминания и строить личные привязанности. Это вообще не гуманоидный робот, а бездумный раб, последняя модель автопилота.

В чем проблема с тем, чтобы передать нудную мыслительную работу таким высокотехнологичным штуковинам? Да ни в чем, при условии, что (1) мы не будем сами себя вводить в заблуждение, и (2) нам как-то удастся не допустить атрофии собственных познавательных навыков.

1. Очень-очень трудно принять свойственные нашим помощникам ограничения и не забывать о них, равно как и не забывать о склонности человека всегда приписывать компьютерам разумность, как мы знаем еще со времен печально известной программы «Элиза», написанной Йозефом Вайценбаумом в 1960-х годах. Это очень опасно, ведь мы всегда будем испытывать желание требовать от них большего, чем то, для чего мы их создали, а также доверять полученным ими результатам, когда этого лучше не делать.

2. Используй или потеряешь. Поскольку мы все сильнее зависим от когнитивных протезов, то рискуем стать беспомощными, если они когда-нибудь перестанут работать. интернет – не разумный агент (ну, в каком-то смысле, может, и разумный), но мы тем не менее стали настолько от него зависеть, что, если бы он вдруг сломался, началась бы такая паника, что общество оказалось бы уничтожено за несколько дней. Кстати, к предупреждению этого события нам надо сейчас приложить все усилия, потому что оно может произойти в любой момент.


Реальная опасность – это не те машины, которые станут умнее нас и узурпируют роль хозяев наших судеб. Реальная опасность – это машины, по сути безмозглые, но наделенные нами полномочиями, значительно превосходящими уровень их компетентности.

Наноинтенциональность

Уильям Текумсе Фитч

Преподаватель когнитивной биологии в Венском университете; автор книги «Эволюция языка» (The Evolution of Language)29
Фитч У. Т. Эволюция языка. – М.: Издательский дом «ЯСК», 2013.

Несмотря на огромный прирост вычислительной мощности, нынешние компьютеры думают не так, как это делаем мы (или шимпанзе, или собаки). У основанных на кремнии компьютеров отсутствует важнейшая способность органического разума – способность изменять свою материальную форму и, следовательно, свои будущие вычисления в ответ на события, происходящие в мире. Без этой способности (которую в других работах я назвал наноинтенциональностью), с одной только обработкой данных, нельзя получить мысль, потому что у вычисляемых символов и значений отсутствует какая-либо внутренняя причинно-следственная связь с реальным миром. Любая информация, полученная в результате работы кремниевого процессора, нуждается в интерпретации людьми, чтобы обрести значение, и так все останется и в обозримом будущем. У нас мало причин для того, чтобы бояться разумных машин, куда больше их для того, чтобы бояться все более неразумных людей, которые их используют.

В чем именно выражается особенность биологического, а не кремниевого компьютера? Не бойтесь, я не имею в виду какой-то мистический élan vital30
Жизненный порыв (фр.) – термин, введенный философом Анри Бергсоном для объяснения движущей силы эволюции. – Прим. ред.

Это наблюдаемая, механистическая особенность живых клеток – особенность, которая развилась посредством обычных эволюционных процессов. В моих построениях нет никакой мистики или «незримого духа». По сути, наноинтенциональность – это способность клеток отвечать на изменения в окружающей среде, перестраивая свои молекулы и, таким образом, изменяя форму. Это свойство есть у амебы, хватающей бактерию, у мышечной клетки, повышающей уровень миозина в ответ на пробежку, или (что наиболее актуально) у нейрона, вытягивающего свои дендриты в качестве реакции на локальную нейровычислительную среду. Наноинтенциональность – основная, непреодолимая, бесспорная особенность жизни на Земле, которой нет у печатных кремниевых микросхем, формирующих «сердце» современного компьютера. Поскольку такое физическое различие между мозгом и компьютером – простой и грубый факт, то остается открытым вопрос: насколько большое значение он имеет для более абстрактных философских проблем, касающихся понятий мысли и значения. И тут ситуация становится сложнее.

Философские обсуждения начинаются с утверждения Канта о том, что наш разум неизменно отделен от типичных объектов наших размышлений – физических сущностей в реальном мире. Мы получаем сведения о них (через фотоны, воздушные колебания или испускаемые молекулы), но наш разум/мозг никогда не вступает с ними в прямой контакт. Таким образом, вопрос о том, как можно утверждать, что сущности нашего разума (мысли, убеждения, желания) якобы направлены на вещи в реальном мире, оказывается неожиданно сложен. Действительно, направленность – это центральная проблема в философии сознания, основа многолетней полемики между такими философами, как Деннет, Фодор и Сёрл. Философы несильно помогли внести ясность, назвав эту мнимую умственную направленность интенциональностью (не путать с обычным значением слова в английском языке: «делать что-то нарочно, умышленно»). Вопросы интенциональности тесно связаны с глубинными проблемами феноменологии сознания, часто выражаемыми терминами «квалиа» и «трудная проблема сознания»31
Термин введен философом Дэвидом Чалмерсом; подразумевается проблема объяснения того, как происходящие в мозге процессы порождают субъективные переживания. – Прим. ред.

Но они обращены к более простому и фундаментальному вопросу: как может ментальная сущность (мысль – паттерн нервного возбуждения) быть в любом смысле этого слова связана со своим объектом (вещью, которую вы видите, или человеком, о котором вы думаете)?

Вот ответ скептика, солипсиста: такой связи нет, интенциональность – иллюзия. Это заключение ложно по крайней мере в одной важнейшей области (замечание сделано Шопенгауэром 200 лет назад): единственным местом, где ментальные явления (желания и намерения, что инстанцируется в нервном импульсе) вступают в контакт с реальным миром, являются наши собственные тела (например, нейромышечное соединение). Пластичность живой материи в целом и нейронов в частности означает, что петля обратной связи непосредственно соединяет наши мысли с нашими действиям, просачиваясь обратно через восприятие, где влияет на структуру самих нейронов. Петля каждый день замыкается в нашей голове (в самом деле, если вы завтра вспомните хоть что-нибудь об этом эссе, то лишь потому, что некоторые нейроны в вашем мозгу изменили свою форму, ослабив или усилив синапсы, расширив или сократив число связей). Такой контур обратной связи в принципе не может замкнуться в жестком кремниевом чипе. Это биологическое качество обеспечивает умственную деятельность у человека (а также у шимпанзе и собаки) с присущей ей внутренней интенциональностью, которой нет у современных кремниевых вычислительных систем.

Если утверждение верно (а мои логика и интуиция его поддерживают), машины «думают», «знают» или «понимают» что-либо только в той мере, в какой это делают их создатели и программисты, когда значение добавляется интенциональным, истолковывающим агентом, обладающим мозгом. Любой «интеллект» у компьютера – это исключительно интеллект работающих с ним людей.

Поэтому я не боюсь, что роботы восстанут или начнут бороться за свои права (если только их защитой не решат заняться заблуждающиеся люди). Означает ли это, что можно не беспокоиться до тех пор, пока кто-то не изобретет компьютер с наноинтенциональностью? К сожалению, нет: существует другая опасность, которая исходит от нашей чрезмерной склонности ошибочно приписывать намерение и понимание неодушевленным предметам («Моей машине не нравится низкооктановое топливо»). Думая так о вычислительных артефактах – компьютерах, смартфонах, системах управления, – мы постепенно передаем им (и тем, кто их контролирует) свою обязанность – информированное, компетентное понимание. Ситуация становится опасной, когда мы охотно и с ленцой уступаем ее бесчисленным кремниевым системам (автомобильным навигаторам, смартфонам, системам электронного голосования), которые не только не задумываются о том, что именно они вычисляют, но даже и не знают об этом. Глобальный финансовый кризис дал нам почувствовать, что может произойти в мире, связанном компьютерами, когда реальная ответственность и реальные компетенции окажутся неблагоразумно свалены на машины.

Я боюсь не успешного восстания искусственных интеллектов, а скорее катастрофического сбоя, вызванного множеством мелких ошибок в кремниевой системе, которую наделили слишком большими полномочиями. Нам все еще далеко до сингулярности, когда компьютеры станут умнее нас, но это не значит, что нам не следует беспокоиться о глобальном сетевом коллапсе. Чтобы сделать первый шаг к предотвращению таких катастроф, нужно перестать перекладывать на компьютеры собственную ответственность и понять и принять простую истину: машины не думают. А то, что мы принимаем за их мышление, становится с каждым днем все опаснее.

Игры (и пророчества) разума

Ирэн Пепперберг

Научный сотрудник и преподаватель, кафедра психологии, Гарвардский университет; автор книги «Алекс и я» (Alex & Me)

Машины великолепно справляются с вычислениями, но при этом не очень хорошо – с мышлением как таковым. У машин бесконечный запас упорства и настойчивости, и, как кое-кто говорит, они могут легко разгрызть сложную математическую проблему или помочь вам проехать через пробки в незнакомом городе, но все это – благодаря алгоритмам и программам, созданным людьми. Чего же машинам не хватает?

Машинам не хватает ви́дения (по крайней мере пока, и я не думаю, что наступление сингулярности это изменит). Я имею в виду отнюдь не зрение. Компьютеры не сами придумывают новое приложение, которому суждено стать популярным. Компьютеры не принимают решение исследовать далекие галактики – они прекрасно справятся с задачей, когда мы их туда отправим, но это уже другая история. Компьютеры, конечно, лучше среднестатистического человека работают в области высшей математики и квантовой механики, но у них нет видения, чтобы в принципе обнаружить необходимость в таких действиях. Машины могут выигрывать у людей в шахматы, но они еще не изобрели интеллектуальную игру, что займет человечество на столетия. Машины видят статистические закономерности, которые пропустит мой слабый мозг, но они не в состоянии выдвинуть новую идею, что соединит разрозненные наборы данных и создаст новую область науки.

Я не так уж сильно беспокоюсь по поводу машин, способных вычислять. Я как-нибудь переживу постоянные вылеты браузера, но пусть у меня будет умный холодильник, способный отслеживать RFID-коды лежащих в нем и вынимаемых из него продуктов и посылать мне СМС с напоминанием купить сливки по пути домой (пользуясь случаем, обращаюсь к тем, кто работает над такой системой: поторопитесь!). Мне нравится, когда компьютер подчеркивает незнакомые ему слова, и пусть среди них иногда оказывается какая-нибудь «филогенетика», я могу находить опечатки в общеупотребительных словах (и прямо сейчас он тоже не позволяет мне писать с ошибками). Но эти примеры показывают: само по себе то, что машина демонстрирует нечто похожее на мышление, еще не означает, что она на самом деле мыслит – или, по крайней мере, что она мыслит подобно человеку.

Мне вспоминается одно из самых первых исследований в области обучения обезьян использованию языка – где они должны были манипулировать пластиковыми фишками, чтобы отвечать на разные вопросы. Впоследствии эксперимент повторили со студентами, которые – что неудивительно – исключительно преуспели в освоении системы, но когда их спросили, чем они занимались, те сказали, что решали какие-то интересные головоломки и понятия не имели, что их обучали языку. Последовало широкое обсуждение, и мы многое открыли и многому научились в ходе новых исследований. Несколько особей, не являющихся людьми, смогли понять референтное значение различных символов, пользоваться которыми их учили, и мы многое узнали об интеллекте обезьяны в рамках оригинальной методологии. Смысл этой истории таков: то, что первоначально казалось сложной лингвистической системой, потребовало намного большей подготовки, чем предполагалось изначально, чтобы стать чем-то большим, нежели серия относительно простых парных ассоциаций.

Так что меня беспокоят не мыслящие машины, а самодовольное общество, готовое отказаться от своих мечтателей в обмен на возможность не делать трудную работу. Люди должны воспользоваться собственными познавательными мощностями, которые освободились, когда машины взяли на себя грязную работу, быть благодарными за такую свободу и использовать ее, направляя свои способности на решение сложных насущных проблем, для которых требуется проницательность и пророческое видение.

  • Программирование ,
  • Разработка для интернета вещей ,
  • Разработка под e-commerce ,
  • Разработка робототехники
  • Сегодня об искусственном интеллекте не пишет только ленивый. Например, в Autodesk считают, что искусственный интеллект может учитывать гораздо больше факторов, чем человек, и, таким образом, давать более точные, логичные и даже более креативные решения сложных проблем. В Оксфордском университете вообще высказывают предположения о том, что искусственный интеллект в недалеком будущем может заменить штатных журналистов и писать за них обзоры и статьи (и того и гляди выиграет Пулитцеровскую премию).

    Общее увлечение темой искусственного интеллекта давно вышло за рамки научных конференций и будоражит умы писателей, кинематографистов и широкой общественности. Кажется, что от будущего, в котором роботы (или Скайнет) правят миром или, как минимум, решают большую часть повседневных задач, рукой подать. Но что по этому поводу думают сами ученые?

    Для начала стоит разобраться с термином «искусственный интеллект»: слишком много существует на эту тему домыслов и художественных преувеличений. В этом вопросе лучше всего обратиться к автору этого термина (и по совместительству создателю языка Лисп и лауреату множества премий) – Джону Маккарти. В статье с одноименным названием («Что такое искусственный интеллект?») Маккарти приводил следующее определение:

    Это наука и технология создания интеллектуальных машин, в особенности – интеллектуальных компьютерных программ. Искусственный интеллект связан с задачей использования компьютеров для понимания работы человеческого интеллекта, но не ограничивается использованием методов, наблюдаемых в биологии.

    Получается, что искусственный интеллект и интеллект «человеческий» тесно связаны? Не совсем так – сам Маккарти подчеркивал: если интеллект «вообще» – это «вычислительная» составляющая того, что помогает субъекту достигать заданных целей, тогда интеллект человека, животных и машин будет работать по-разному.

    Выходит, что искусственный интеллект – это не подобие человеческого, хотя многим футуристам, писателям и даже ученым хочется верить в то, что это не так. Об этом часто повторяет Майкл Джордан , почетный профессор Калифорнийского Университета в Беркли. Он считает, что недостаточное понимание того, что же представляет из себя искусственный интеллект, приводит не просто к созданию «красивых образов», не связанных с реальной наукой, а к самой настоящей дезинформации и разного рода мифам, процветающим в этой области.

    Миф первый: для создания или усовершенствования искусственного интеллекта надо разобраться с тем, как работает человеческий мозг

    Джордан утверждает , что это вовсе не так. Работа искусственного интеллекта, как правило, не имеет ничего общего с тем, как устроен интеллект человека. Этот «миф» глубоко укоренился из-за пристрастия общественности к «красивым идеям»: авторам научно-популярных статей об искусственном интеллекте пришлись очень по душе метафоры, взятые из нейробиологии.

    На самом деле нейробиология имеет очень опосредованное отношение (или вообще не имеет никакого отношения) к работе искусственного интеллекта. Для Майкла Джордана идея о том, что «для глубинного обучения нужно понимание того, как обрабатывает информацию и учится человеческий мозг», звучит как откровенная ложь.

    «Нейроны», задействованные в глубинном обучении – это метафора (или, выражаясь языком Джордана, вообще «карикатура» на работу мозга), которая применяется только для краткости и удобства. В действительности же работа механизмов того же глубинного обучения гораздо ближе к процедуре построения статистической модели логистической регрессии, чем к работе настоящих нейронов. При этом, никому не приходит в голову для «краткости и удобства» использовать метафору «нейрона» в статистике и эконометрике.

    Миф второй: искусственный интеллект и глубинное обучение – последние достижения современной науки

    Мнение о том, что «думающие как человек» компьютеры будут сопровождать нас в недалеком будущем, напрямую связано с идеей, согласно которой искусственный интеллект, нейронные сети, глубинное обучение являются достоянием исключительно современной науки. Ведь если допустить мысль о том, что все это было придумано десятилетия назад (а роботы к сегодняшнему дню так и не захватили мир), «порог ожиданий» от научных достижений вообще и скорости их развития в частности придется серьезно снизить.

    К сожалению, СМИ стараются сделать все возможное, чтобы подогреть интерес к своим материалам, и очень избирательно относятся к выбору тематик, которые, по мнению редакторов, вызовут интерес у читателей. В итоге описываемые ими достижения и их перспективы оказываются гораздо более внушительными, чем реальные открытия, а часть информации просто «аккуратно опускается», чтобы не снижать накала страстей.

    Многое из того, что сейчас преподносят «под соусом» искусственного интеллекта, является просто переработанной информацией о нейронных сетях, которые известны человечеству с 80-х годов.

    А в восьмидесятые все повторяли то, что было известно в 1960е годы. Такое чувство, что каждые 20 лет проходит волна интереса к одним и тем же темам. В нынешней волне главной идеей является сверточная нейронная сеть, о которой уже говорили лет двадцать назад
    – Майкл Джордан

    Миф третий: искусственная нейронная сеть состоит из тех же элементов, что и «реальная»

    На самом деле специалисты, занятые вопросами разработки вычислительных систем, оперируют нейробиологическими терминами и формулировками гораздо смелее, чем многие нейробиологи. Интерес к работе мозга и устройству интеллекта человека стал питательной средой для развития такой теории как «невральный реализм».

    В системах искусственного интеллекта нет ни спайков, ни дендритов, более того, принципы их работы далеки не только от работы головного мозга, но и от пресловутого «неврального реализма». Фактически, в нейронных сетях ничего «нейронного» нет.

    Более того, идея «неврального реализма», основанная на уподоблении работы систем искусственного интеллекта работе мозга, по мнению Джордана, не выдерживает критики. По его словам, к прогрессу в сфере искусственного интеллекта привел не «невральный реализм», а использование принципов, совершенно не согласующихся с тем, как работает мозг человека.

    В качестве примера Джордан приводит популярный алгоритм глубинного обучения, основанный на «обратной передаче ошибки обучения». Его принцип работы (а именно передача сигнала в обратном направлении) явно противоречит тому, как работает человеческий мозг.

    Миф четвертый: ученые хорошо понимают, как работает «человеческий» интеллект

    И это снова далеко от истины. Как утверждает все тот же Майкл Джордан, глубинные принципы работы мозга не просто остаются нерешенной проблемой нейробиологии – в этой области ученых отделяют от решения вопроса десятки лет. А попытки создать работающую имитацию мозга так же не приближают исследователей к пониманию того, как устроен человеческий интеллект.

    Это просто архитектура, созданная в надежде, что когда-нибудь люди создадут подходящие для нее алгоритмы. Но нет ничего, что подкрепляло бы эту надежду. Думаю, что надежда основана на вере в то, что если вы построите что-то вроде мозга, то сразу станет понятно, что он может делать
    – Майкл Джордан

    Джон Маккарти, в свою очередь, подчеркивал: проблема не только в том, чтобы создать систему по образу и подобию человеческого интеллекта, а в том, что сами ученые не придерживаются единого мнения по поводу того, что он (интеллект) из себя представляет и за какие конкретно процессы отвечает.

    На этот вопрос ученые пытаются ответить по-разному. В своей книге «Нейронные сети и глубинное обучение» Майкл Нилсен приводит несколько точек зрения. Например, с позиции коннектомики наш интеллект и его работа объясняются тем, сколько нейронов и глиальных клеток содержит наш мозг, и сколько соединений наблюдается между ними.

    Учитывая, что в нашем мозге насчитывается порядка 100 млрд нейронов, 100 млрд глиальных клеток и 100 трлн соединений между нейронами, говорить о том, что мы можем «в точности воссоздать» эту архитектуру и заставить ее работать, в ближайшем будущем крайне маловероятно.

    А вот молекулярные биологи, изучающие геном человека и его отличия от близких родственников людей по эволюционной цепочке, дают более обнадеживающие прогнозы: оказывается, геном человека отличается от генома шимпанзе на 125 миллионов пар оснований. Цифра большая, но не бесконечно огромная, что дает Нилсену повод надеяться, что на основании этих данных группа ученых сможет составить если не «работающий прототип», то как минимум сколь бы то ни было адекватное «генетическое описание» человеческого мозга или скорее базовые принципы, лежащие в основе его работы.

    Стоит сказать, что Нилсен придерживается «общепринятого человеческого шовинизма» и полагает, что значимые принципы, определяющие работу человеческого интеллекта, лежат в тех самых 125 миллионах пар оснований, а не в остальных 96% генома, которые у человека и шимпанзе совпадают.

    Так сможем ли мы создать искусственный интеллект, равный по возможностям человеческому? Получится ли у нас в обозримом будущем понять, как именно работает наш собственный мозг? Майкл Нилсен, считает, что это вполне возможно – если вооружиться верой в светлое будущее и в то, что многие вещи в природе работают по более простым законам, чем это кажется на первый взгляд.

    А вот Майкл Джордан дает более близкий к практической работе исследователей совет: не поддаваться на провокации журналистов и не искать «революционные» решения. По его мнению, привязываясь к человеческому интеллекту как отправной точке и конечной цели своих исследований, ученые, работающие над проблемой искусственного интеллекта, излишне ограничивают себя: интересные решения в этой области могут лежать в направлениях, никак не связанных с тем, как устроен наш мозг (и как нам представляется его устройство).