Что вызвало возрождение ИИ

Много шума из глубокого обучения обратному распространению

pixabay

Источник: pixabay

Искусственный интеллект (ИИ) не является новой концепцией, его истоки восходят к 1950-м годам. И все же ИИ только недавно вышел на передний план инвестиционного интереса со стороны промышленности, правительства и венчурного капитала после десятилетий относительного покоя. Что способствовало таянию зимнего и нынешнего бума ИИ?

ИИ процветает в значительной степени из-за улучшений в способах распознавания образов, полученных в результате глубокого обучения – подмножества машинного обучения, где искусственная нейронная сеть состоит из двух уровней обработки. Машинное обучение – это подмножество искусственного интеллекта, которое включает в себя алгоритмы, которые могут учиться на основе данных, в отличие от программиста, которому приходится явно кодировать инструкции. Это обучение может быть выполнено с обучением данных под наблюдением или без него. В контролируемом обучении данные, используемые для обучения, помечены, тогда как в обучении без учителя метки данных отсутствуют.

Нейронные сети машинного обучения искусственного интеллекта были, по большей части, остановлены в 1970-х и 1980-х годах, после публикации исследования MIT Марвина Минского и Сеймура Пейперта под названием « Перцептроны: введение в вычислительную геометрию» в 1969 году. Из «суровых ограничений» персептронов, нейронных сетей, разработанных в 1950-х годах американским психологом Фрэнком Розенблаттом для целей распознавания образов ИИ.

Минский и Паперт подвергли сомнению способность перцептронов обучаться или обучаться в нейронных сетях, которые имели более двух слоев нейронов – слой ввода и вывода. Они пришли к своим выводам на основе математических доказательств. Ученые написали, что, возможно, «будет обнаружена какая-то мощная теорема о сходимости или найдется какая-то глубокая причина для неспособности создать интересную« теорему обучения »для многослойной машины».

Год спустя, в 1970 году, финский математик Сеппо Линнайнмаа написал в своей магистерской диссертации оценку ошибок округления и обратного режима автоматического дифференцирования (AD). Без его ведома, эта идея, о которой он думал, находясь в парке в Копенгагене солнечным днем, позже дала бы семя для глубокого обучения, чтобы прорасти годы спустя, чтобы расцвести в эпоху возрождения ИИ спустя десятилетия. Linnainmaa получила первую докторскую степень в области компьютерных наук в Университете Хельсинки в 1974 году.

В том же 1974 году ученый Пол Дж. Вербос опубликовал докторскую диссертацию Гарвардского университета. диссертация по обучению искусственных нейронных сетей путем обратного распространения ошибок. Werbos задумал новые интеллектуальные конструкции управления, которые имели параллели с человеческим мозгом. Вербос был удостоен пионерской премии Совета по нейронным сетям IEEE 1995 года за открытие обратного распространения и других вкладов в нейронные сети искусственного интеллекта.

В 1986 году Джеффри Хинтон, Дэвид Э. Румелхарт и Рональд Дж. Уильямс популяризировали концепцию использования обратного распространения через сети нейроноподобных элементов, опубликовав статью « Природа» , «Изучение представлений путем обратного распространения ошибок». Процедура включает в себя настройку веса соединений в сети (узлы или нейроны), чтобы минимизировать меру разницы между фактическим выходным вектором сети и желаемым выходным вектором. В результате регулировки веса возникают внутренние скрытые единицы, которые не являются частью ввода или вывода. По сути, Хинтон и его команда продемонстрировали, что глубокие нейронные сети, состоящие из более чем двух слоев, можно обучать с помощью обратного распространения. Это была мощная методика обучения для более чем двух нейронных слоев, которую Мински и Паперт предположили в качестве возможности в 1969 году. Однако одного этого было недостаточно, чтобы воскресить ИИ.

Еще одним важным фактором, способствующим буму искусственного интеллекта, является рост видеоигр. В 1970-х годах в аркадных видеоиграх использовались специализированные графические чипы из-за стоимости. В течение 1980-х – начала 2000-х графические процессоры (GPU) в конечном итоге эволюционировали от использования в основном в играх к общим вычислительным целям. Графические процессоры могут обрабатывать большие объемы данных параллельно, что является явным преимуществом по сравнению со стандартным процессором (центральным процессором). Параллельная вычислительная мощность GPU для общих вычислений хорошо подходит для обработки больших объемов больших данных в целях машинного обучения.

В 2012 году Джеффри Хинтон, Алекс Крижевский и Илья Суцкевер объявили об успехе в обучении глубоко сверточной нейронной сети с 60 миллионами параметров, 650 000 нейронов и пятью сверточными слоями для классификации 1,2 миллиона изображений с высоким разрешением на 1000 различных классов. Команда использовала реализацию GPU для ускорения общего времени обучения. Хинтон и его команда вошли в историю, продемонстрировав, что большая, глубокая сверточная нейронная сеть может достичь «рекордных результатов в очень сложном наборе данных, использующем чисто контролируемое обучение» с обратным распространением.

Искусственный интеллект был восстановлен из состояния покоя благодаря глубокому обучению обратному распространению информации и технологии графических процессоров. Глубокое обучение находится на ранних этапах прикладной коммерциализации. В предстоящее десятилетие ИИ продолжит быстро набирать обороты по мере приближения к преодолению технологической пропасти в направлении массового глобального распространения. Искусственный интеллект (ИИ) имеет тенденцию в области здравоохранения, транспорта, поиска лекарств, биотехнологий, геномики, бытовой электроники, корпоративных приложений, точной медицины, киберспорта, автономных транспортных средств, приложений для социальных сетей, производства, научных исследований, развлечений, геополитики и многих других. больше областей. В недалеком будущем искусственный интеллект станет таким же повсеместным, как Интернет.

Copyright © 2019 Cami Rosso. Все права защищены.

Рекомендации

Griewank, Андреас. «Кто изобрел обратный способ дифференциации?» Documenta Mathematica . Дополнительный том ISMP 389-400. 2012.

IEEE. «Награды Совета Нейронных Сетей Гостей». Транзакции IEEE по Нейронным Сетям. Том 7, № 1. Январь 1996.

Румелхарт, Дэвид Э., Хинтон, Джеффри Э., Уильямс, Рональд Дж. «Изучение представлений с помощью обратного распространения ошибок». Природа . Том 323. 9 октября 1986 г.

Крижевский Алекс, Суцкевер, Илья, Хинтон, Джеффри Э. «Классификация ImageNet с глубоко сверточными нейронными сетями». Достижения в системах обработки нейронной информации 25 . 2012