Что мы не должны учиться у фильма HER

Если вы видели фильм HER , читайте дальше. Если нет, оповещение о спойлере.

Люди влюбляются. Это один из центров жизни. Это фильм. Это этот фильм с твист. Он (Теодор) и Ее (Саманта) влюбляются. Теодор – это человек. Саманта – это операционная система. У нее потрясающий голос: теплый, привлекательный, продуманный и соблазнительный.

Возможно ли сейчас – или в ближайшем будущем – иметь любящие отношения с цифровыми вычислительными системами?

Часть ответа зависит от того, что эти системы на самом деле. Может ли компьютерные вычислительные системы AI (искусственный интеллект) знать другого человека? Знают ли они что-нибудь? Конечно, в каком-то смысле эти системы «знают» уже много. Они знают, что мы покупаем, кто мы написали, что мы написали, что мы ищем в Интернете, где и когда мы водим, кого мы называем, нашу историю занятости, наши медицинские записи … список можно продолжать и продолжать. Но могут ли они узнать нас в более глубоком смысле? И я имею в виду, могут ли они знать как сознательное существо?

По этому вопросу я в основном следую за положением Джона Сирла. А именно, в принципе, нет оснований полагать, что сознание не может возникнуть в других средах, кроме биологического мозга, нет никаких доказательств или оснований полагать, что сознание может или когда-либо появится в цифровых вычислениях. Чтобы аргументировать эту позицию, Сирл (1990) устанавливает то, что он называет мысленным экспериментом китайской комнаты:

«Рассмотрите язык, который вы не понимаете. В моем случае я не понимаю китайцев. Для меня китайское письмо выглядит так много бессмысленных криков. Теперь предположим, что я помещен в комнату, содержащую корзины с китайскими символами. Предположим также, что мне дана книга правил на английском языке для сопоставления китайских символов с другими китайскими символами. Правила определяют символы полностью по их формам и не требуют, чтобы я понял их. Представьте себе, что люди за пределами комнаты, которые понимают китайскую руку в маленьких пучках символов, и что в ответ я манипулирую символами в соответствии с книжкой правил и передаю более маленькие пучки символов. Теперь книга правил – это «компьютерная программа». Люди, которые его написали, это «программисты», и я «компьютер». Корзины, заполненные символами, являются «базой данных» …. Теперь предположим, что книга правил написана таким образом, что мои «ответы» на «вопросы неотличимы от тех, что относятся к родному китайскому спикеру …». То же самое, я я совершенно не знаю китайцев. И я никак не мог понять китайцев в системе, как описано, так как я не могу понять значения любого из символов. Как компьютер, я манипулирую символами, но я не придаю значения символам »(стр. 26)

Другими словами, поскольку в вычислительных системах, таких как Саманта, есть синтаксис, но не семантика (значение), они никогда не могут «знать» что-либо. Поведение есть, но не знание. Итак, с этой позиции Саманта подделана.

Но тогда возникает вопрос, можем ли мы получить похожие психологические эффекты от взаимодействия с системами поддельных людей. Я думаю, что ответ заключается в том, что мы можем получить некоторые из психологических эффектов (и преимуществ). Это часть моего более масштабного исследования по технологической природе. Но мы не можем получить все психологические эффекты. И мы не можем получить действительно глубокие – самые красивые. Конечно, это эмпирический вопрос. Я могу быть не прав. Поэтому часть того, что я пытаюсь выдвинуть в некоторых своих научных работах и ​​исследованиях, заключается в том, что мы поддерживаем технолога и общество в целом – то, что я называю правильными психологическими «критериями». Тесты, скажем, взаимности , аутентичность или сказать об отношениях Бубера I / Thou. Знать и быть известным. Как это прекрасно! Это основа любви. Это одна из самых глубоких частей человеческой жизни. Если у Саманты действительно нет сознания, она не может знать Теодора. Я думаю, что HER иллюстрирует на глубоком уровне, что даже когда Теодор демонстрирует так много поведения, которое, казалось бы, указывает на глубокую истинную взаимную любовь, на самом деле у него его нет.

Что мы не должны учиться в фильме? Это взаимодействие с поддельными вычислительными людьми будет глубоко удовлетворять и питаться.

Если я прав, что многие из нас считают, что отношения между Теодором и Самантой кажутся пустыми и немного жуткими, тогда я не уверен, что мы узнаем, как много нашего мира движется таким образом. Twitter Facebook Nation. Gamer Nation. Мы создаем мир, где люди становятся все более социально аутичными, если я могу использовать эту фразу. И мы едва ли знаем, что мы это делаем.

В последней главе моей книги « Технологическая природа: адаптация и будущее человеческой жизни» в 2011 году я смотрю, как мы эволюционировали за последние 50 000 лет, а затем я размышляю о том, что возможно с точки зрения адаптации к все более технологичным и вычислительным Мир. Мы воплощены в биологических существах, и, хотя мы можем адаптироваться к все более технологическому миру, не все наши адаптации хороши для нас. Слоны приспосабливаются к условиям в зоопарке. Но они не процветают как слоны. Они целыми часами цепляются за ноги в невротическом поведении. И затем они притупляют себя и становятся в основном пустыми раковинами своих бывших «я». Я думаю, нам нужно обратить пристальное внимание на то, что нам нужно, чтобы люди процветали как вид.

Нам нужны реальные, аутентичные, взаимные взаимодействия с другими людьми. Фильм HER заканчивается вкусом этого на крыше. Какое облегчение! Там мы становимся свидетелями бесплодной близости биологического человека и биологической женщины, дышащей в течение минуты, соединяющейся по-настоящему. Знать и быть известным. Серьезно. Как бы там ни было, мы это знаем.

Рекомендации:

Kahn, PH, Jr. (2011). Технологический характер: адаптация и будущее человеческой жизни. Кембридж, Массачусетс: Пресса MIT.

Kahn, PH, Jr., Ishiguro, H., Friedman, B., Kanda, T., Freier, NG, Severson, RL, & Miller, J. (2007). Что такое человек? – К психологическим ориентирам в области взаимодействия человека и робота. Исследования взаимодействия: социальное поведение и коммуникация в биологических и искусственных системах, 8, 363-390.

Searle, JR (1990). Является ли мозг ум компьютерной программой? Scientific American, 262 (1), 26-31.