Реальный тест Тьюринга: исцеление компьютерной аутизма

Christopher Badclock
Источник: Кристофер Бадлок

Тест новой парадигмы часто является тем, насколько он может решить старые проблемы, которые другие перспективы не смогли решить. В тех случаях, когда речь идет о диаметральной модели ума, я уже предположил, насколько это верно в отношении IQ, и в особенности парадоксы, связанные с эффектом Флинна и этническими различиями в интеллекте, не говоря уже о том, где все началось с симптомов аутизма и психоз. Но то, что относится к аутизму, психозу и IQ, также относится к ИИ (искусственный интеллект) в целом, и в частности о том, могут ли машины мыслить. Это воплощено в тесте Тьюринга (названном в честь Алана Тьюринга (1912-54), изображенного в сланце в Парке Блетчли выше).

Согласно диаметрической модели разума, если задача могла быть запрограммирована таким образом, чтобы компьютер мог надежно и точно выполнять ее, она механистична . Но если задача требует навыков, знаний или способностей, связанных с людьми и их умами, которые трудно имитировать в машине, мы имеем дело с ментализмом .

Как и люди с диагнозом расстройства аутистического спектра (ASD), современные компьютерные системы имеют симптоматический дефицит в ментализме: они сильно ограничены в своей способности понимать и адекватно реагировать на письменный и разговорный язык, а также испытывают недостаток в социальных и межличностных навыках – или что я бы назвал менталистическим интеллектом . Как и многие аутисты, они узко сосредоточены на одиночных задачах (даже если они выполняют их со скоростью и надежностью, намного превышающей скорость обычных людей), и, как и многие люди с ASD, они жестко и целеустремленно подчиняются правилам и не могут переносить изменения или даже незначительные отклонения от их программирования. Конечно, если речь идет об умственных, социальных и межличностных навыках, вы можете забыть об этом: ваш компьютер не сможет вести интеллектуальный разговор с вами по какой-то теме, представляющей взаимный интерес. Действительно, как я уже отмечал в предыдущем посте, это является основной темой проблемы в тесте Тьюринга: речь идет о умственных способностях машины, а не ее механистической способности вычислять как таковую.

Но, рассматривая проблему с точки зрения ИИ, есть еще один фактор, который нужно учитывать: это менталитет, являющийся интерфейсом – в человеческом случае между мозгами людей, но в случае компьютера между пользователем и машиной. Ранние компьютеры использовали так называемый интерфейс командной строки, в котором пользователь вводил строки символов, которые затем интерпретировались операционной системой компьютера. Но такие командные строки были проще для компьютера, чем для пользователя. В фразе, основанной на индустрии персональных компьютеров, интерфейс командной строки не был очень «удобным».

Следующий важный шаг произошел с появлением графического интерфейса пользователя или GUI для краткости. Сегодня это универсально и обнаруживается не просто в компьютерах, а на смартфонах, планшетах и ​​всяких подобных устройствах. Однако графические интерфейсы не являются конечными в пользовательских интерфейсах. Очевидно, что конечным интерфейсом будет компьютерная система с умственной экспертизой, которая будет действовать как человеческий агент, выполняя любые задачи в пределах своих возможностей точно так же, как и человек. Таким образом, он может стать известен как психический , психологический или персональный пользовательский интерфейс – или, может быть, просто как интеллектуальный . Большинство людей, вероятно, находят такое развитие чрезвычайно привлекательным просто потому, что оно полагалось на способности, которые они уже приобрели при взаимодействии с другими людьми, и не требовали от них овладения навыками, свойственными компьютеру. Система, которая удовлетворила их в этом отношении, неизбежно казалась бы более разумной, чем та, которая этого не сделала.

Кроме того, система, вероятно, потребовала бы, чтобы пользователь дал ей имя, чтобы он знал, когда он был адресован, и использование повседневных имен, также даваемых людям, было бы почти неизбежным. В самом деле, было бы легче говорить с машиной, которая была предназначена для имитации многих человеческих умственных функций, как если бы это был фактически человек, и использовать весь спектр менталистических выражений, которые могут быть уместными. Такая терминология, несомненно, будет включать персонификацию, и было бы трудно избежать ссылок на когнитивное состояние системы, как если бы у нее был ум, со знанием, намерениями, воспоминаниями и т. Д. Очевидно, что такие обычаи придавали бы термин «персональный компьютер» совершенно новое измерение смысла и, вероятно, были бы чрезвычайно привлекательны для многих потенциальных пользователей. HAL, суперкомпьютер в 2001 году: космическая одиссея , является вымышленным примером.

Разумеется, любой хорошо продуманный ментальный интерфейс должен был бы ценить как знание, так и незнание его пользователя, и в идеале система могла бы интерпретировать это для себя, например, предлагая помощь только тогда, когда пользователь этого требовал, или только запрашивая информацию, которую пользователь действительно обладал. Это, безусловно, потребует от системы отслеживания состояния пользователя в отношении конкретных тем и в идеале, чтобы предсказать ее дальнейшую эволюцию.

Например, предположим, что компьютер был запрограммирован, чтобы напомнить своему пользователю о некоторых датах и ​​соответствующих действиях, которые надлежит им предпринять, например, о встречах или юбилеях. Постоянные напоминания будут раздражать, и поэтому система может быть спроектирована таким образом, чтобы контролировать пользователя, чтобы увидеть, действительно ли они будут помнить о событии, и только вмешиваться, когда стало ясно, что они его забыли. Таким образом, система может не упоминать предстоящий день рождения или годовщину свадьбы, если она увидит, что пользователь заказывает цветы или заказывает ресторан в подходящую дату, но наверняка сделает это заблаговременно, если этого не произойдет.

Опять же, чтобы избежать навязчивости, система, возможно, не захочет проверять знания пользователя каждый раз, когда они докажут что-то правильное. Но система должна была бы иметь возможность обнаруживать и интерпретировать ложную веру своего пользователя и быть в состоянии предпринять соответствующие действия для ее исправления, по крайней мере, в тех случаях, когда речь идет о собственных операциях. Чтобы это сделать, интеллектуальный пользовательский интерфейс, безусловно, должен был бы пройти надлежащим образом сформулированный тест ложной веры, подобный тем, которые используются для диагностики аутизма. Действительно, в моем предыдущем посте на Тьюринговом тесте я привел практический пример.

Это означает, что вся дискуссия об компьютерной разведке была неверно воспринята, потому что ошибочно предполагалось, что интеллект является унитарным и неделимым. Фактически, он дуалистичен и основан в мозге на «антикоррелированных» нейронных цепях. Но как только вы поймете, что реальной проблемой для компьютеров является их менталистический, а не механистический интеллект, вы можете увидеть решение. Кроме того, вы также видите, что проблема заключается не в вычислении как таковой, а в менталитете как пользовательском интерфейсе.

Другими словами, если бы вы могли спроектировать интеллектуальный пользовательский интерфейс, который мог бы относиться к его пользователю так же, как к другому человеку, весь вопрос о том, может ли машина думать, перестанет быть философским и станет точкой продажи программного обеспечения с огромным призывом потенциальных пользователей. Вопрос будет не так. Может ли компьютер подумать? как мой компьютер может понять меня достаточно хорошо, чтобы делать то, что я хочу? Если достаточное количество пользователей ответили Да! тест Тьюринга был бы пройден, пожалуй, в самой сложной и простой форме: продукт на рынке. И это обязательно произойдет раньше. Действительно, это уже началось …

(Извлечен и сжат из моей будущей книги «Диаметрический разум»: «Взгляд на ИИ, IQ, общество и сознание: продолжение« Отпечатанного мозга » ).