Ключевые термины в области искусственного интеллекта

Наиболее важные математические понятия для ИИ и науки о данных, объяснил.

istockphoto

Источник: istockphoto

Двоичное дерево – древовидная структура данных, в которой каждый узел имеет максимум два узла (левый и правый узлы) и элемент данных. Самым верхним узлом дерева является корневой узел.

Распределение Коши, названное в честь французского математика Августина Коши, является непрерывным распределением вероятностей.

Комбинаторика – область математики, состоящая из задач выбора, размещения и работы в рамках конечной или дискретной системы

Условные распределения – распределение вероятностей для популяции

Дифференциальное исчисление – изучение скорости изменения функций по отношению к их переменным через понятия производных и дифференциалов

Динамическое программирование – раздел математики, изучающий теорию и методы решения многошаговых задач оптимального управления

Теорема Байеса, названная в честь британского математика 18-го века Томаса Байеса, является формулой для определения условной вероятности

Производная – предел отношения изменения функции к соответствующему изменению ее независимой переменной, когда последнее изменение приближается к нулю

Собственное значение – любое число, такое, что данная матрица минус это число, умноженное на единичную матрицу, имеет нулевой определитель.

Собственный вектор – вектор, который при работе с данным оператором дает скалярное кратное его самого.

Преобразование Фурье, названное в честь французского математика Жозефа Фурье, представляет собой метод преобразования временной функции в функцию, выраженную через частоту

Функция – отношение или выражение, включающее одну или несколько переменных

Градиентный спуск – работает для корректировки входных весов нейронов в искусственных нейронных сетях и поиска локальных минимумов или глобальных минимумов для оптимизации проблемы.

Ортонормализация по Граму-Шмидту, также называемая процессом Грама-Шмидта, представляет собой процедуру, которая принимает неортогональный набор линейно независимых функций и строит ортогональный базис на произвольном интервале относительно произвольной весовой функции.

Хеширование – генерирование значения или значений из строки текста с использованием математической функции

Куча – древовидная структура данных, в которой каждому элементу присваивается ключевое значение (вес)

Гессиан – назван в честь немецкого математика 19-го века Людвига Отто Гессе, инструмент, используемый в дифференциальной геометрии, который описывает локальную кривизну функции

Теория информации – математическое выражение состояния и параметров, влияющих на передачу и обработку информации

Интегральное исчисление – раздел математики, связанный с теорией и применением интегралов и интеграций, он имеет дело с общим размером или значением, таким как длины, площади и объемы

Совместные распределения – распределение нескольких случайных величин в одном и том же вероятностном пространстве

Лапласово распределение (двойное экспоненциальное распределение) – распределение разностей между двумя независимыми переменными с одинаковыми экспоненциальными распределениями

Лагранжиан – функция, которая описывает состояние динамической системы в терминах координат положения и их производных по времени и равна разнице между потенциальной энергией и кинетической энергией.

Линейная алгебра – отрасль математики, которая занимается математическими структурами, замкнутыми под операциями сложения и скалярного умножения, включает в себя теорию систем линейных уравнений, матриц, определителей, векторных пространств и линейных преобразований.

Максимальная апостериорная оценка (MAP) – распространенный метод точечной оценки в байесовской статистике

Оценка максимального правдоподобия (MLE) – метод нахождения значения одного или нескольких параметров для данной статистики, который делает известное распределение правдоподобия максимальным

Многомерное исчисление – интегральное, дифференциальное и векторное исчисление по отношению к функциям нескольких переменных

Ортогональные – две линии или кривые являются ортогональными, если они перпендикулярны в своей точке пересечения

Ортогонализация – процесс нахождения ортогональных векторов, которые охватывают определенное подпространство

Частичные производные – производные функции нескольких переменных, где все, кроме интересующей переменной, остаются фиксированными во время дифференцирования

Анализ основных компонентов (PCA) – метод, используемый для идентификации меньшего числа некоррелированных переменных, известных как основные компоненты из большого набора данных

Вероятность – тип рациона, который сравнивает, сколько раз результат может быть достигнут по сравнению со всеми возможными результатами

QR-разложение – учитывая матрицу A, QR-разложение – это матричное разложение в форме A = QR, где R – верхняя треугольная матрица, а Q – ортогональная матрица.

Случайная переменная – переменная, возможные значения которой являются результатом случайного явления

Разложение по сингулярным числам (SVD) – факторизация вещественной или сложной матрицы

Однозначные функции – функция, которая для каждой точки домена имеет уникальное значение в диапазоне

Стек – последовательность объектов или элементов в формате линейной структуры данных

Стандартное отклонение – дисперсия набора данных относительно его среднего значения, рассчитывается как квадратный корень из дисперсии

Вектор – величина с величиной и направлением, но не с положением

Copyright © 2019 Cami Rosso. Все права защищены.

Рекомендации

Оксфордский университет математический институт. URL: https://www.maths.ox.ac.uk/

Энциклопедия математики. URL: http://www.encyclopediaofmath.org/

Британская энциклопедия а. URL: https://www.britannica.com

Merriam-Webster. https://www.merriam-webster.com/

Инвестопедия . https://www.investopedia.com/

Технопедия . https://www.techopedia.com

Wolfram MathWorld. http://mathworld.wolfram.com/

Словарь Коллинза. https://www.collinsdictionary.com