Миф о целевых машинах

A human-like robot/Shutterstock
Источник: человекоподобный робот / Shutterstock

Некоторые из современных техников и ученых очень публично выражают свою озабоченность по поводу апокалиптических сценариев, которые могут возникнуть в результате машин с мотивами. Среди страшных – интеллектуальные тяжеловесы, такие как Стивен Хокинг, Элон Муск и Билл Гейтс, которые все считают, что успехи в области машинного обучения скоро приведут к самопознающим ИИ, которые стремятся уничтожить нас или, может быть, просто апатично избавиться от нас, как отбросы, стираемые стеклоочистителем. Фактически, доктор Хокинг сказал BBC: «Развитие полного искусственного интеллекта может означать конец человеческой расы».

Действительно, нет никаких сомнений в том, что будущий ИИ сможет нанести значительный ущерб. Например, можно предположить, что роботы могут быть запрограммированы на функционирование как чрезвычайно опасное автономное оружие, в отличие от любых ранее известных. Кроме того, легко представить себе неограниченное программное приложение, которое распространяется по всему Интернету, сильно разрушая нашу самую эффективную и полагающуюся на среду для глобального обмена.

Но эти сценарии категорически отличаются от тех, в которых машины решают включить нас, победить нас, сделать нас своими рабами или уничтожить нас. В связи с этим, мы, безусловно, безопасны. К сожалению, мы так же вряд ли когда-нибудь будем иметь роботов, которые решают подружиться с нами или показать нам любовь, не будучи специально вызванными инструкциями для этого.

Это связано с тем, что такое преднамеренное поведение от ИИ несомненно потребует ума, поскольку интенциональность может возникнуть только тогда, когда что-то обладает своими собственными убеждениями, желаниями и мотивами. Тип ИИ, который включает эти функции, известен среди научного сообщества как «Сильный искусственный интеллект». Сильный ИИ по определению должен обладать полным спектром когнитивных способностей человека. Это включает в себя самосознание, чувство здравого смысла и сознания, поскольку все это признаки человеческого познания.

С другой стороны, «Слабый искусственный интеллект» относится к неосознанному искусственному интеллекту. The Weak AI Hypothesis заявляет, что наши роботы, которые работают на цифровых компьютерных программах, не могут иметь никаких сознательных состояний, без разума, без субъективной осведомленности и никакого агентства. Такой ИИ не может качественно испытать мир, и хотя они могут проявлять по-видимому интеллектуальное поведение, он навсегда ограничен отсутствием ума.

Неспособность признать важность этого сильного / слабого различия может способствовать экзистенциальным опасениям Хокинга и Муска, оба из которых считают, что мы уже хорошо продвигаемся по пути развития Сильного ИИ (он же Искусственный Общий Разум). Для них это не вопрос «если», а «когда».

Но дело в том, что весь текущий ИИ является фундаментально слабым AI, и это отражается на полном отсутствии сегодняшних компьютеров какого-либо преднамеренного поведения. Хотя есть некоторые очень сложные и относительно убедительные роботы, которые кажутся живыми, при ближайшем рассмотрении они все проявляют себя как мотивированные, как обычный карманный калькулятор.

Это потому, что мозги и компьютеры работают по-разному. Оба вычисляют, но только один понимает – и есть некоторые очень веские причины полагать, что это не изменится. Похоже, что существует более техническое препятствие, которое мешает Сильному AI когда-либо стать реальностью.

Тьюринговые машины не думают о машинах

Все цифровые компьютеры – это двоичные системы. Это означает, что они хранят и обрабатывают информацию исключительно в терминах двух состояний, которые представлены разными символами – в этом случае 1s и 0s. Интересным фактом природы является то, что двоичные цифры могут использоваться для представления большинства вещей; как цифры, буквы, цвета, фигуры, изображения и даже звук с почти полной точностью.

Эта двухсимвольная система является основополагающим принципом, на котором основаны все цифровые вычисления. Все, что делает компьютер, связано с каким-то образом манипулированием двумя символами. Таким образом, их можно рассматривать как практический тип машины Тьюринга – абстрактную, гипотетическую машину, которая вычисляет, манипулируя символами.

Операции машины Тьюринга называются «синтаксическими», что означает, что они только распознают символы, а не смысл этих символов, т. Е. Их семантику. Даже слово «признавать» вводит в заблуждение, поскольку оно подразумевает субъективный опыт, поэтому, возможно, лучше просто сказать, что компьютеры чувствительны к символам, тогда как мозг способен к смысловому пониманию.

Неважно, насколько быстро компьютер, сколько памяти он имеет, или как сложный и высокоуровневый язык программирования. Игра Jeopardy и Chess Watson и Deep Blue в основном работают так же, как и ваша микроволновая печь. Проще говоря, строгая машина обработки символов никогда не может быть машиной понимания символов. Влиятельный философ Джон Сирл умело изобразил этот факт по аналогии в своем знаменитом и весьма противоречивом «аргументе китайской комнаты», который убедительно убедил, что «синтаксис недостаточно для семантики», поскольку он был опубликован в 1980 году. И хотя некоторые эзотерические опровержения (наиболее распространенным из которых является «Системный ответ»), ни один из них не удалось преодолеть разрыв между синтаксисом и семантикой. Но даже если кто-то не полностью убежден в том, что он основан только на китайском аргументе в Комнате, это не меняет того факта, что машины Тьюринга – машины, управляющие символами, а не машины мышления, позиция, занятая великим физиком Ричардом Фейнманом более десятилетия назад.

Фейнман описал компьютер как «прославленную, высокопрофессиональную, очень быструю, но тупую систему подачи», которой управляет бесконечно глупый файловый клерк (центральный процессор), слепо следуя инструкциям (программная программа). Здесь у клерка нет понятия ни о чем, даже о одиночных буквах или цифрах. В знаменитой лекции по компьютерной эвристике Фейнман выразил серьезные сомнения относительно возможности по-настоящему интеллектуальных машин, заявив, что «никто не знает, что мы делаем, и как определить серию шагов, которые соответствуют чему-то абстрактному, как мышление».

Эти моменты дают очень веские основания полагать, что мы никогда не сможем достичь Сильного ИИ, т. Е. Действительно интеллектуальных искусственных агентов. Возможно, даже самые точные моделирование мозга не уступит умы, и программные программы не создадут сознание. Это может быть не в карточках для строгих двоичных процессоров. Нет ничего о обработке символов или вычислений, которые генерируют субъективный опыт или психологические явления, такие как качественные ощущения.

Услышав это, можно было бы спросить: «Если компьютер не может быть сознательным, тогда как мозг может быть»? В конце концов, это чисто физический объект, который работает в соответствии с физическим законом. Он даже использует электрическую активность для обработки информации, как компьютер. Однако каким-то образом мы воспринимаем мир субъективно – с точки зрения первого человека, где происходят внутренние, качественные и невыразимые ощущения, которые доступны только для нас. Возьмите, к примеру, то, как оно себя чувствует, когда вы видите симпатичную девушку, пьете пиво, ступаете на гвоздь или слушаете капризный оркестр.

По правде говоря, ученые все еще пытаются понять все это. Как физические явления, такие как биохимические и электрические процессы, создают ощущение, а единый опыт известен как «Жестокая проблема сознания» и широко признан нейробиологами и философами. Даже невролог и популярный автор Сэм Харрис, который разделяет озабоченность роботов-бунтов Муска, признает серьезную проблему, заявив, что вопрос о том, может ли машина быть сознательным, является «открытым вопросом». К сожалению, он, похоже, не полностью осознает, что для того, чтобы машины создавали экзистенциальную угрозу, возникающую из собственных интересов, требуется сознание.

Хотя проблема сознания, по общему признанию, сложна, нет оснований полагать, что она не разрешима наукой. Итак, какой прогресс мы достигли до сих пор?

Сознание – это биологическое явление

Подобно компьютеру, нейроны общаются друг с другом посредством обмена электрическими сигналами двоично. Либо работает нейрон, либо нет, и именно так выполняются нейронные вычисления. Но в отличие от цифровых компьютеров, мозг содержит множество аналоговых клеточных и молекулярных процессов, биохимические реакции, электростатические силы, глобальную синхронизацию нейронов на определенных частотах и ​​уникальные структурные и функциональные связи с бесчисленными петлями обратной связи.

Даже если компьютер мог бы точно создать цифровое представление всех этих функций, что само по себе связано с множеством серьезных препятствий, симуляция мозга по-прежнему не является физическим мозгом. Существует принципиальное различие между симуляцией физического процесса и самим физическим процессом. Это может показаться спорным моментом для многих исследователей в области машинного обучения, но при длительном рассмотрении оно кажется чем-то вроде тривиального.

Моделирование не равномерное дублирование

Слабая гипотеза AI говорит, что компьютеры могут только моделировать мозг, и, по мнению некоторых, таких как Джон Сирл, которые придумали термины Сильный и слабый АИ – симуляция сознательной системы сильно отличается от реальной. Другими словами, аппаратное обеспечение «машины» имеет значение, а простые цифровые представления о биологических механизмах не имеют силы, чтобы что-то происходило в реальном мире.

Давайте рассмотрим другое биологическое явление, такое как фотосинтез. Фотосинтез относится к процессу, посредством которого растения преобразуют свет в энергию. Этот процесс требует, чтобы конкретные биохимические реакции были жизнеспособными только с учетом материала, обладающего определенными молекулярными и атомными свойствами. Идеальное компьютерное моделирование – эмуляция фотосинтеза никогда не сможет преобразовывать свет в энергию независимо от того, насколько точна, и независимо от того, какой тип оборудования вы предоставляете компьютеру. Однако на самом деле существуют искусственные машины для фотосинтеза. Эти машины не просто имитируют физические механизмы, лежащие в основе фотосинтеза растений, а вместо этого дублируют биохимические и электрохимические силы с использованием фотоэлектрохимических ячеек, которые выполняют фотокаталитическое разделение воды.

Аналогичным образом, моделирование воды не будет обладать качеством «влажности», которое является продуктом очень специфического молекулярного образования атомов водорода и кислорода, удерживаемых вместе электрохимическими связями. Ликвидность возникает как физическое состояние, качественно отличное от того, которое выражается только одной молекулой.

Даже горячая новая теория сознания из неврологии, Интегрированная Теория Информации, совершенно ясно показывает, что совершенно точное компьютерное моделирование мозга не будет иметь сознания, как настоящий мозг, так же, как симуляция черной дыры не вызовет ваш компьютер и комнату взорвать. Нейробиологи Джулио Тонони и Кристоф Кох, которые основали теорию, не написали слов по этому вопросу:

«ИИТ подразумевает, что цифровые компьютеры, даже если их поведение должно было бы быть функционально эквивалентным нашему, и даже если бы они выполняли верные симуляции человеческого мозга, почти ничего не испытали».

Имея это в виду, мы все еще можем размышлять о том, существуют ли небиологические машины, поддерживающие сознание, но мы должны понимать, что этим машинам может потребоваться дублирование основных электрохимических процессов (независимо от того, что может быть), которые происходят в мозге во время сознательного состояния. Если это окажется возможным без органических материалов, обладающих уникальными молекулярными и атомными свойствами, то, по-видимому, потребуется больше, чем машины Тьюринга, которые являются чисто синтаксическими процессорами (манипуляторы символов) и цифровыми симуляторами, которые могут не иметь необходимых физических механизмов.

Лучший подход к достижению Сильного ИИ требует выяснить, как мозг, что он делает в первую очередь, и самая большая ошибка исследователей, занимающихся машиной, состоит в том, чтобы подумать, что они могут воспользоваться ярлыком вокруг него. Как ученые и люди, мы должны быть оптимистами в отношении того, что мы можем достичь. В то же время мы не должны быть чрезмерно уверенными в том, что направляет нас в неправильном направлении и следит за тем, чтобы мы не достигли реального прогресса.

Миф о сильном ИИ

Начиная с 1960-х годов, исследователи ИИ утверждают, что Сильный ИИ находится за углом. Но, несмотря на монументальные увеличения компьютерной памяти, скорости и вычислительной мощности, мы не ближе, чем раньше. Так что пока, как и мозговые научно-фантастические фильмы прошлого, изображающие апокалиптические сценарии ИИ, действительно интеллектуальные роботы с внутренним сознательным опытом остаются причудливой фантазией.