Дискриминантный анализ ядра Фишера - Kernel Fisher discriminant analysis
В статистика, ядро дискриминантный анализ Фишера (KFD),[1] также известен как обобщенный дискриминантный анализ[2] и ядерный дискриминантный анализ,[3] это версия ядра линейный дискриминантный анализ (LDA). Он назван в честь Рональд Фишер. С использованием трюк с ядром, LDA неявно выполняется в новом пространстве функций, что позволяет изучать нелинейные сопоставления.
Интуитивно идея LDA состоит в том, чтобы найти проекцию, в которой разделение классов максимально. Учитывая два набора помеченных данных, и , определите класс средства и в качестве
куда количество примеров класса . Цель линейного дискриминантного анализа состоит в том, чтобы дать большое разделение средних классов, при этом сохраняя при этом небольшую внутриклассовую дисперсию.[4] Это сформулировано как максимизация по отношению к , следующее соотношение:
куда ковариационная матрица между классами и - это общая ковариационная матрица внутри класса:
Максимум указанного отношения достигается при
как может быть показано Множитель Лагранжа способ (эскиз доказательства):
Максимизация эквивалентно максимизации
при условии
Это, в свою очередь, эквивалентно максимизации , куда - множитель Лагранжа.
Максимально производные от относительно и должно быть равно нулю. Принимая дает
которому тривиально удовлетворяет и
Уловка ядра с LDA
Чтобы расширить LDA на нелинейные отображения, данные, заданные как точки можно сопоставить с новым пространством функций, через какую-то функцию В этом новом пространстве функций необходимо максимизировать функцию[1]
куда
и
Далее отметим, что . Явное вычисление отображений а затем выполнение LDA может быть дорогостоящим с вычислительной точки зрения и во многих случаях трудноразрешимым. Например, может быть бесконечно размерным. Таким образом, вместо того, чтобы явно отображать данные в , данные могут быть неявно встроены, переписав алгоритм в терминах точечные продукты и используя трюк с ядром в котором скалярное произведение в новом пространстве функций заменяется функцией ядра,.
LDA можно переформулировать с точки зрения скалярных произведений, сначала отметив, что будет иметь расширение формы[5]
Тогда обратите внимание, что
куда
В числителе тогда можно записать как:
Аналогично знаменатель можно записать как
с компонент определяется как - единичная матрица, а матрица со всеми элементами, равными . Это тождество можно получить, начав с выражения для и используя расширение и определения и
Используя эти уравнения для числителя и знаменателя , уравнение для можно переписать как
Тогда дифференцирование и установка равным нулю дает
Поскольку только направление , а значит, и направление вопросы, вышеуказанное можно решить для в качестве
Обратите внимание, что на практике обычно единственное число, поэтому к нему добавляется кратное число [1]
Учитывая решение для , проекция новой точки данных дается выражением[1]
Мультиклассовый КФД
Распространение на случаи, когда существует более двух классов, относительно просто.[2][6][7] Позволять быть количеством классов. Затем мультиклассовый KFD включает в себя проецирование данных в -мерное пространство с использованием дискриминантные функции
Это можно записать в матричных обозначениях
где столбцы .[6] Кроме того, ковариационная матрица между классами теперь
куда - это среднее значение всех данных в новом пространстве функций. Ковариационная матрица внутри класса:
Решение теперь получается максимизацией
Снова можно использовать трюк с ядром, и цель мультиклассового KFD становится[7]
куда и
В определены как в предыдущем разделе и определяется как
затем можно вычислить, найдя ведущие собственные векторы .[7] Кроме того, проекция нового входа, , дан кем-то[7]
где компонент дан кем-то .
Классификация с использованием KFD
Как в двухклассовом, так и в многоклассовом KFD метка класса нового входа может быть назначена как[7]
куда прогнозируемое среднее значение для класса и - функция расстояния.
Приложения
Дискриминантный анализ ядра используется во множестве приложений. К ним относятся:
^ абLi, Y .; Gong, S .; Лидделл, Х. (2003). «Распознавание траекторий лиц с использованием дискриминантного анализа ядра». Вычисления изображений и зрения. 21 (13–14): 1077–1086. CiteSeerX10.1.1.2.6315. Дои:10.1016 / j.imavis.2003.08.010.
^Епископ, CM (2006). Распознавание образов и машинное обучение. Нью-Йорк, штат Нью-Йорк: Спрингер.
^ абДуда, Р .; Hart, P .; Аист, Д. (2001). Классификация паттернов. Нью-Йорк, штат Нью-Йорк: Wiley.
^ абcdеZhang, J .; Ма, К. (2004). «Дискриминант Фишера ядра для классификации текстур». Цитировать журнал требует | журнал = (помощь)
^Liu, Q .; Lu, H .; Ма, С. (2004). «Улучшение ядра дискриминантного анализа Фишера для распознавания лиц». IEEE Transactions по схемам и системам для видеотехнологий. 14 (1): 42–49. Дои:10.1109 / tcsvt.2003.818352.
^Liu, Q .; Huang, R .; Lu, H .; Ма, С. (2002). «Распознавание лиц с использованием дискриминантного анализа Фишера на основе ядра». Международная конференция IEEE по автоматическому распознаванию лиц и жестов.
^Feng, Y .; Ши, П. (2004). «Обнаружение лиц на основе дискриминантного анализа ядра Фишера». Международная конференция IEEE по автоматическому распознаванию лиц и жестов.
^Yang, J .; Frangi, AF; Ян, JY; Занг, Д., Джин, З. (2005). «KPCA plus LDA: полная дискриминантная структура ядра Fisher для извлечения и распознавания признаков». IEEE Transactions по анализу шаблонов и машинному анализу. 27 (2): 230–244. CiteSeerX10.1.1.330.1179. Дои:10.1109 / тпами.2005.33. PMID15688560.CS1 maint: несколько имен: список авторов (связь)
^Wang, Y .; Руан, К. (2006). «Дискриминантный анализ ядра Фишера для распознавания отпечатков пальцев». Международная конференция по распознаванию образов.
^Wei, L .; Ян, Й .; Nishikawa, R.M .; Цзян, Ю. (2005). «Исследование нескольких методов машинного обучения для классификации злокачественных и доброкачественных кластерных микрокальцификаций». IEEE Transactions по медицинской визуализации. 24 (3): 371–380. Дои:10.1109 / tmi.2004.842457.
^Мальмгрен, Т. (1997). «Программа итеративного нелинейного дискриминантного анализа: IDA 1.0». Компьютерная физика Коммуникации. 106 (3): 230–236. Дои:10.1016 / S0010-4655 (97) 00100-8.