Является ли искусственный интеллект антихрупким?

Ятрогенный потенциал вмешательства человека в искусственный интеллект

istockphoto

Источник: istockphoto

Мы находимся в разгар революции в области искусственного интеллекта (AIR), следующей крупной эпохи в истории технологических инноваций. Искусственный интеллект (ИИ) набирает обороты во всем мире не только в научных исследованиях, но и в бизнесе, финансах, потребителях, искусстве, здравоохранении, киберспорте, поп-культуре и геополитике. По мере того как ИИ становится все более распространенным, на макроуровне важно выяснить, выигрывает ли ИИ от беспорядков. Antifragile – это термин и концепция, выдвинутые Нассимом Николасом Талебом, бывшим количественным трейдером и самопровозглашенным «flâneur», ставшим автором бестселлера New York Times «Черный лебедь: влияние крайне невероятного». Талеб описывает антихрупкость как «Полная противоположность хрупкому», что «за пределами устойчивости или стойкости» в «Antifragile: вещи, получаемые от беспорядка». По словам Талеба, антихрупкие вещи не только «выигрывают от хаоса», но и «нуждаются в нем для того, чтобы выжить и процветать» . ”Является ли ИИ антихрупким? Ответ может быть не таким интуитивным, как кажется.

Последние достижения в области искусственного интеллекта во многом связаны с улучшением способностей распознавания образов посредством глубокого обучения, подмножества машинного обучения, которое является методом искусственного интеллекта, который не требует явного программирования. Обучение достигается путем подачи наборов данных через два или более уровней нелинейной обработки. Чем больше объем и быстрее обрабатывается информация, тем быстрее компьютер учится.

Более быстрая обработка достигается в основном за счет возможностей параллельной обработки графического процессора (графических процессоров) по сравнению с последовательной обработкой процессоров (центрального процессора). Интересно, что компьютерные игры помогли ускорить продвижение в глубоком обучении и, следовательно, также сыграли свою роль в нынешнем буме ИИ. Графические процессоры, которые в основном использовались для визуализации графики в компьютерных играх, теперь являются неотъемлемой частью архитектуры глубокого обучения. Чтобы проиллюстрировать это, представьте, что на каждом из них выстроились три тележки с мороженым и только один скутер. При серийной обработке скупер стремится завершить обслуживание всех тележек одновременно и делает это, подпрыгивая между тележками, выкапывая несколько конусов за раз перед обслуживанием следующей. При параллельной обработке вместо одного используется несколько лопаток. Опытный клиент будет одновременно распределять заказ между тележками для достижения более быстрых результатов.

Глубокое обучение выигрывает от большого объема и широкого ассортимента данных. Доступ к большим и разнообразным наборам данных в сочетании с выбросами крайне важен для минимизации предвзятого или некачественного вывода. Питье из общеизвестного источника данных не является стрессом для глубокого обучения, а скорее желаемым сценарием. Машинное обучение процветает на больших данных и приносит порядок из хаоса информации. ИИ глубокое обучение выигрывает от разнообразия данных.

Предостережение к хрупкости, присущей глубокому обучению, – это потенциальный риск случайных неблагоприятных результатов, возникающих в результате ятрогенных последствий неправильного управления человеком. В «Antifragile» Талеб использует термин «ятрогенный» вместо фразы «вредные непреднамеренные побочные эффекты», возникающие в результате «наивного интервенционизма». Хотя ИИ – это система, основанная на машинах, она в конечном итоге создается и управляется людьми. Есть много потенциальных непреднамеренных последствий, которые могут возникнуть в результате вмешательства человека в набор данных и алгоритмы глубокого обучения ИИ. Поместите заплесневелый хлеб в тостер с лучшими показателями в мире, но результат будет неоптимальным.

Cami Rosso

Источник: Ками Россо

Классическая компьютерная поговорка «Garbage In, Garbage Out» (GIGO) перекликается с глубоким изучением. Операторы-люди в значительной степени определяют размер набора данных, источник (и), выбор, синхронизацию, частоту, тегирование и ручные переопределения в системе AI. Программисты-люди, которые создают алгоритмы ИИ, определяют критерии и метрики, используемые для ранжирования, определения приоритетов, ассоциации, классификации и фильтрации системы. Когда есть заметная точка данных, которая отсутствует, программисты могут вмешаться, создавая синтетические точки данных. Программисты-люди принимают решения по настройке алгоритмов. Потенциальный ятрогенный эффект вмешательства человека может включать в себя предвзятые результаты, плохое распознавание образов, искаженные результаты, ошибочные алгоритмы, несоответствующие веса, неточные атрибуты и ложные положительные или отрицательные значения. Поместите свежий хлеб в тостер, но отрегулируйте слишком высокий или низкий уровень нагрева во время процесса, который может привести к непредвиденным результатам, таким как поджаренный или недоваренный тост. Таким образом, хотя глубокое обучение ИИ является хрупким, человеческий фактор имеет тенденцию быть хрупким.

Это поднимает вопрос о том, может ли искусственный интеллект использоваться для замены точек вмешательства человека – саморегулирующейся системы ИИ. Теоретически это возможно. AI может быть создан для создания и управления другими программами AI. Например, отдельные специализированные программы ИИ могут быть созданы для того, чтобы сосредоточиться на таких задачах, как выбор данных для обучающих наборов, маркировка выбросов данных, прогнозирование ложных положительных или отрицательных результатов, предложение точек синтетических данных для алгоритмов и многие другие функции. Представьте себе основную систему ИИ, которая управляет сетью специализированных программ ИИ. Во время обработки всеобъемлющий ИИ активирует ИИ-специалиста для выполнения задачи, которая когда-то требовала вмешательства человека.

Это большая, сложная система, и есть много предостережений в этом подходе саморегулируемого глубокого обучения ИИ. Одним из наиболее тревожных атрибутов саморегулирующейся системы глубокого обучения ИИ является повышенная вероятность «эффекта бабочки» – концепция, согласно которой небольшие различия в динамической системе могут вызывать огромные, широко распространенные последствия. Эдвард Лоренц, профессор метеорологии в Массачусетском технологическом институте, отец теории хаоса и эффекта бабочки. Термин «эффект бабочки» был предложен Лоренцем в его работе «Предсказуемость: взмах крыльев бабочки в Бразилии вызывает торнадо в Техасе?» [1]. В этом случае небольшое вмешательство человека в создание саморегулирующейся системы ИИ в любой из ее модульных программных компонентов ИИ может привести к огромным различиям в общем выходе системы ИИ.

Итак, теперь мы установили, что, хотя сама технология глубокого обучения ИИ кажется изначально хрупкой, ее ахиллесова пята, потенциальное ятрогенное воздействие человеческого вмешательства, является источником системных уязвимостей и уязвимости. Создание саморегулирующейся системы ИИ еще более хрупко, учитывая ее восприимчивость к эффекту бабочки Лоренца – любые человеческие ошибки в начальной настройке системы в любом из ее начальных компонентов, будь то данные или алгоритмический, могут вызвать массовые ошибки вывода. Лучшие алгоритмы искусственного интеллекта с лучшими наборами данных по-прежнему подвержены уязвимости человека. ИИ будет по своей природе хрупким. То, как люди будут управлять системой ИИ, будет определять ее общую надежность и отказоустойчивость. Будущий успех ИИ будет зависеть от способности человека и машины «выучить» лучшие практики с течением времени вместе – развиваясь в симбиозе.

Copyright © 2018 Cami Rosso. Все права защищены.

Рекомендации

1. Дизике, Питер. «Когда эффект бабочки взлетел». Обзор технологий MIT . 22 февраля 2011 г.