ект на фоне всего остального?” От правильного выбора этих признаков напрямую зависит качество распознавания. Вопрос о выборе наилучшего представления и признаков до сих пор остается открытым. Цель работы – провести сравнение двух классификаторов, обученных с помощью Adaboost [1]: в одном для извлечения признаков будет применяться HOG метод [2], в другом - вейвлет разложение [3]. При извлечении признаков HOG изображение делится на одинаковые области, в каждой из которых вычисляется гистограмма ориентированных градиентов (англ. Histograms of Oriented Gradients - HOG). Каждая такая гистограмма – это вектор признаков. При извлечении признаков с использованием дискретного вейвлет разложения к изображению применяется банк одномерных фильтров – верхних и нижних частот. Сначала по строкам, затем по столбцам. Пиксели в полученном после разложения изображении носят название “коэффициентов вейвлет разложения”. Каждый коэффициент – это вектор признаков, эффективно описывающий локальную текстуру окрестности пикселя. Для обучения классификатора используется AdaBoost. Этот метод позволяет построить сильный классификатор как линейную комбинацию слабых с определенными коэффициентами – весами. Набор тренировочных примеров состоит из положительных – тех, на которых есть объект, и отрицательных – тех, на которых его нет. Положительные и отрицательные примеры делятся на обучающую и контрольную выборки. Мы отобрали для обучения примеры из этой коллекции [4]: положительная обучающая – 400 шт., отрицательная обучающая – 800 шт., положительная контрольная – 300 шт., отрицательная контрольная -110 шт. Размер изображений-примеров - 32x60 пикселей. Обучающая выборка используется для обучения классификатора (Рис.1). Контрольная выборка используется для оценки его работы (Рис.2). По ней строится ROC-кривая [5]. Эта кривая показывает зависимость Чувствительности от ошибки II рода. Чувствительность – это количество правильно угаданных положительных примеров по отношению к их общему числу. Ошибка II рода – это величина, характеризующая количество детектирования объекта на отрицательной обучающей выборке. Чем выше кривая классификатора, чем больше площадь под кривой, тем он лучше. 167