Контекстная классификация изображений - Contextual image classification
Контекстная классификация изображений, тема распознавание образов в компьютерное зрение, это подход классификация на основе контекстной информации в изображениях. «Контекстный» означает, что этот подход сосредотачивается на взаимосвязи соседних пикселей, что также называется соседством. Цель этого подхода - классифицировать изображения с использованием контекстной информации.
Вступление
Подобно как язык обработки, одно слово может иметь несколько значений, если не указан контекст, а шаблоны в предложениях являются единственными информативными сегментами, которые нас интересуют. Для изображений принцип такой же. Найдите закономерности и придайте им правильное значение.
Как показано на изображении ниже, если отображается только небольшая часть изображения, очень трудно сказать, о чем это изображение.
Даже попробуйте другую часть изображения, все равно трудно классифицировать изображение.
Однако, если мы увеличим контекстность изображения, тогда будет больше смысла распознавать.
Как показано на полных изображениях ниже, почти каждый может легко его классифицировать.
Во время процедуры сегментация, методы, которые не используют контекстную информацию, чувствительны к шуму и вариациям, поэтому результат сегментации будет содержать большое количество неправильно классифицированных областей, и часто эти области имеют небольшой размер (например, один пиксель).
По сравнению с другими методами, этот подход устойчив к шуму и существенным вариациям, так как учитывает непрерывность сегментов.
Некоторые методы этого подхода будут описаны ниже.
Приложения
Работа в качестве фильтра пост-обработки для помеченного изображения
Этот подход очень эффективен против небольших участков, вызванных шумом. И эти небольшие области обычно образованы несколькими пикселями или одним пикселем. Этим регионам присваивается наиболее вероятная метка, однако у этого метода есть недостаток. Небольшие области также могут быть сформированы правильными областями, а не шумом, и в этом случае метод фактически ухудшает классификацию. Этот подход широко используется в дистанционное зондирование Приложения.
Улучшение классификации постобработки
Это двухэтапный процесс классификации:
- Для каждого пикселя пометьте пиксель и сформируйте для него новый вектор признаков.
- Используйте новый вектор признаков и объедините контекстную информацию, чтобы назначить окончательную метку для
Объединение пикселей на более ранних этапах
Вместо использования отдельных пикселей соседние пиксели могут быть объединены в однородные области с использованием контекстной информации. И предоставить эти регионы классификатору.
Получение пиксельной функции из района
Исходные спектральные данные могут быть расширены путем добавления контекстной информации, переносимой соседними пикселями, или даже в некоторых случаях заменены. Такие методы предварительной обработки широко используются в текстурированное изображение признание. Типичные подходы включают средние значения, дисперсии, описание текстуры и т. Д.
Объединение спектральной и пространственной информации
Классификатор использует уровень серого и соседство пикселей (контекстную информацию) для присвоения меток пикселям. В таком случае информация представляет собой комбинацию спектральной и пространственной информации.
На основе байесовского классификатора минимальных ошибок
Контекстная классификация данных изображения основана на классификаторе минимальных ошибок Байеса (также известном как наивный байесовский классификатор ).
Представьте пиксель:
- Пиксель обозначается как .
- Окрестности каждого пикселя вектор и обозначается как .
- Значения в векторе окрестности обозначаются как .
- Каждый пиксель представлен вектором
- Метки (классификация) пикселей в окрестности представлены в виде вектора
- здесь обозначает присвоенный класс.
- Вектор представляет метки в окрестности без пикселя
Соседство: Размер квартала. Ограничений по размеру нет, но он считается относительно небольшим для каждого пикселя. .Разумный размер района из 4-возможность подключения или 8-связность ( помечен красным цветом и помещен в центр).
4-связь район,
8-подключение район
Расчет:
Применяйте минимальную классификацию ошибок к пикселю , если вероятность класса представляя пиксель является самым высоким среди всех, тогда назначьте как его класс.
Правило контекстной классификации описано ниже, оно использует вектор признаков скорее, чем .
Используйте формулу Байеса для вычисления апостериорной вероятности
Количество векторов совпадает с количеством пикселей в изображении. Для классификатора используется вектор, соответствующий каждому пикселю , а вектор генерируется из окрестности пикселя.
Основные этапы контекстной классификации изображений:
- Вычислить вектор признаков для каждого пикселя.
- Рассчитать параметры распределения вероятностей и
- Рассчитайте апостериорные вероятности и все ярлыки . Получите результат классификации изображений.
Алгоритмы
Соответствие шаблонов
В сопоставление шаблонов представляет собой реализацию этого подхода методом «грубой силы».[1] Идея состоит в том, чтобы сначала создать набор шаблонов, а затем искать мелкие детали на изображении, совпадающие с шаблоном.
Этот метод требует больших вычислительных ресурсов и неэффективен. Он ведет полный список шаблонов на протяжении всего процесса, а количество комбинаций чрезвычайно велико. Для пиксельное изображение, может быть максимум комбинации, что приводит к большим вычислениям. Этот метод является нисходящим и часто называется просмотр таблицы или же поиск в словаре.
Марковская цепь нижнего порядка
В Цепь Маркова[2] также может применяться в распознавании образов. Пиксели в изображении можно распознать как набор случайных величин, а затем использовать цепь Маркова более низкого порядка, чтобы найти взаимосвязь между пикселями. Изображение рассматривается как виртуальная линия, и в методе используется условная вероятность.
Кривые заполнения гильбертова пространства
В Кривая Гильберта проходит по уникальному шаблону через все изображение, проходит через каждый пиксель, не посещая ни один из них дважды, и сохраняет непрерывную кривую. Это быстро и эффективно.
Марковские сетки
Упомянутые выше цепи Маркова нижнего порядка и кривые заполнения гильбертова пространства трактуют изображение как линейную структуру. Однако сетки Маркова будут учитывать двумерную информацию.
Дерево зависимостей
В дерево зависимостей[3] - это метод, использующий древовидную зависимость для аппроксимации распределений вероятностей.
Рекомендации
- ^ G.T. Туссен "Использование контекста в распознавании образов "Распознавание образов", том 10, 1977, стр. 189–204.
- ^ К. Абенд, Т.Дж. Харли, Л. Канал "Классификация двоичных случайных образов, "IEEE Transactions по теории информации, том 11, № 4, октябрь 1965 г., стр. 538–544.
- ^ C.K. Чоу и К. Лю "Аппроксимация дискретных распределений вероятностей деревьями зависимостей, "IEEE Transactions on Information Theory, том 14, № 3, май 1965 г., стр. 462–467.