Что «минимальный тест Тьюринга» говорит о людях

Какое слово вы бы сказали, чтобы убедить кого-то, что вы не робот?

В 1950 году ученый-компьютерщик Алан Тьюринг спросил «Могут ли машины думать?» И предложил тест: может ли компьютер убедительно имитировать человека в письменном разговоре? Теперь два когнитивных ученых предложили упрощенную версию теста, не для того, чтобы бросить вызов искусственному интеллекту, но чтобы исследовать то, что, как мы думаем, люди делают нас особенными.

В своем «Тесте минимальной тьюринга» люди и машины получают только одно слово, чтобы убедить человека судить, что они живы. Что бы вы сказали? Они провели онлайн-опрос, описанный в ноябрьском номере журнала «Экспериментальная социальная психология» , который я также освещал в « Науке» . Около тысячи участников предложили четыреста разных слов, наиболее распространенными из которых являются любовь (14%), сострадание (3,5%), человек (3,2%) и пожалуйста (2,7%). Другие попали в категории аффекта (например, счастья ), веры и прощения ( Иисус ), еды ( банан ), роботов и животных ( собака ), жизни и смерти ( семья ) и телесных функций и ненормативной лексики ( пенис ).

Ниже приведен список слов, используемых более одного раза, с размером круга, указывающим на популярность. Цвет указывает на категорию. Позиция указывает на «вложение» слова, алгоритмическую меру его значения, так что похожие слова находятся рядом друг с другом.

Journal of Experimental Social Psychology

Источник: Журнал Экспериментальной Социальной Психологии

Сорок семь процентов людей предложили слово, связанное с умом. Из них 15% назвали один, связанный с мышлением и делом (например, суждение), и 85% назвали один, связанный с ощущением и чувством (например, горе ). Люди, кажется, считают, что компьютеры умны, но мало что могут использовать для слов, описывающих субъективный опыт. (Предыдущее исследование «сверхъестественной долины ума» показывает, что когда компьютеры говорят об ощущениях и чувствах, они кажутся жуткими.)

Насколько эффективны эти варианты? Исследователи взяли главное слово в каждой категории: любовь, пожалуйста, милосердие, сострадание, сочувствие, банан, живой, человек, робот и какашки. Две тысячи участников онлайн увидели случайное соединение и догадались, что было предоставлено человеком (хотя оба были). Не говоря о любви , не было никакой корреляции между популярностью слова в первом задании и его убедительностью во втором, что указывало на то, что авторы не могли предсказать, как будут получены слова. Самым выигрышным словом была какашка . На рисунке ниже проценты показывают, как часто слово строки бьет слово столбца.

Journal of Experimental Social Psychology

Источник: Журнал Экспериментальной Социальной Психологии

Исследователи – Джон Маккой, в настоящее время из Университета Пенсильвании, и Томер Уллман, из Массачусетского технологического института – пишут, что если бы они включили больше слов во второе задание, которое вызывает эмоции, а не просто описывает их, например ненормативную лексику, эти слова был судим человеком тоже. Будет ли кремний подозревать, что некоторые люди чувствуют отвращение к висцеральному слову «влажный»? (Это будет после прочтения этой статьи.)

Несколько забавных слов, предложенных одинокими участниками первого задания: smurf, smegma, ginormous, yolo, noob, упс, lol, omg, frienemie, сосуществовать, Гитлер, капча, терминатор, да? И f * ck off . Некоторые действительно поймали момент. Когда его спросили, действительно ли это последнее слово, Маккой сказал: «Как мета-судьи всего этого процесса, мы решили позволить это, так как это казалось адекватной реакцией».

Исследователи полагают, что их тест подчеркивает интуицию людей о том, что отделяет людей от машин, и что его можно использовать для проверки других стереотипов. Какое слово, по мнению людей, скажет женщина или старик? Но интерпретация осложняется тем, что респонденты должны думать о том, как другие люди будут думать, что они думают.

Я сказал исследователям, что их тест кажется шумным способом узнать, какие качества якобы отделяют людей от машин, учитывая, что ответы фильтруются через рекурсивное ментальное моделирование и другие процессы. Разве они не могут просто попросить людей назвать уникальный человеческий атрибут или проблему? Маккрой сказал, что «на самом деле не так уж и очевидно», как лучше получить такие суждения. Они подозревают, что «конкурентное давление, возникающее из-за того, что мы задаем вопрос таким же образом, заставит некоторых людей передавать более глубокие, неочевидные атрибуты, которые разделяют людей и машины» – подобно bootylicious, – «поскольку очевидные атрибуты могут привести к поражению от умного робота».

Действительно, некоторые чувствовали конкурентное давление. Во втором задании Улман сказал мне, один из участников прокомментировал: «Чувак, это было действительно сложно. Я чувствовал, что был в какой-то короткой истории об Азимове! »Исследователи посмотрели на пару слов, которое видел этот человек: робот и человек .

Рекомендации

McCoy, JP, & Ullman, TD (2018). Минимальный тест Тьюринга. Журнал экспериментальной социальной психологии, 79, 1-8.