1. Обнаружение движущихся транспортных средств с использованием AdaBoost и функции Haar-Like в видео наблюдениях (arXiv)

Автор: Мохаммад Махди Могими, Марьям Найери, Маджид Пурахмади, Мохаммад Казем Могими

Выдержка:обнаружение транспортных средств — это технология, целью которой является обнаружение и отображение размера транспортного средства на цифровых изображениях. В этой технологии транспортные средства обнаруживаются в присутствии других объектов, таких как деревья и здания. Он играет важную роль во многих приложениях компьютерного зрения, таких как отслеживание транспортных средств, анализ дорожного движения и эффективное управление дорожным движением. В этой статье транспортные средства обнаружены на основе метода бустинга Виолы Джонс. Предлагаемая нами система тестируется на некоторых реальных сценах видео наблюдения при различных условиях освещения. Экспериментальные результаты показывают, что точность, полнота и качество предлагаемого метода обнаружения транспортных средств выше, чем у предыдущих методов (около 94%, 92% и 87% соответственно). Таким образом, предлагаемый нами подход является надежным и эффективным для обнаружения транспортных средств в видео наблюдениях и их приложениях.

2.GAdaBoost: ускорение выбора функций Adaboost с помощью генетических алгоритмов (arXiv)

Автор:Май Толба, Мохамед Мустафа

Аннотация. Ускоренный каскад простых функций, разработанный Виолой и Джонсом, является одной из самых известных сред обнаружения объектов. Однако страдает от длительного тренировочного процесса. Это связано с обширным пространством функций и исчерпывающим характером поиска Adaboost. В этой статье мы предлагаем GAdaboost: генетический алгоритм для ускорения процедуры обучения за счет естественного выбора признаков. В частности, мы предлагаем ограничить поиск Adaboost подмножеством огромного пространства функций, развивая это подмножество в соответствии с генетическим алгоритмом. Эксперименты показывают, что предлагаемый нами GAdaboost до 3,7 раз быстрее, чем Adaboost. Мы также демонстрируем, что цена этого ускорения — простое снижение (3%, 4%) точности обнаружения при тестировании на эталонном наборе обнаружения лиц FDDB и Caltech Web Faces соответственно.

3. Проблемы оптимизации SVM с использованием Adaboost в задаче распознавания фонем (arXiv)

Автор: Рима Амами, Дорра Бен Айед, Нуреддин Эллуз

Аннотация:Использование цифровых технологий растет очень быстрыми темпами, что привело к появлению систем, основанных на когнитивных инфокоммуникациях. Расширение этого сектора требует использования комбинированных методов для обеспечения надежности когнитивных систем.

4.Некоторые открытые проблемы в оптимальном AdaBoost и пни принятия решений (arXiv)

Автор:Джошуа Беланич, Луис Э. Ортис

Аннотация: значение изучения теоретических и практических свойств AdaBoost неоспоримо, учитывая его простоту, широкое практическое использование и эффективность на реальных наборах данных. Здесь мы представляем несколько открытых проблем, касающихся поведения «Оптимального AdaBoost» — термина, введенного Рудином, Добеши и Шапиром в 2004 году для обозначения простой версии стандартного алгоритма AdaBoost, в котором слабый ученик, который использует AdaBoost, всегда выдает слабый результат. классификатор с наименьшей взвешенной ошибкой среди соответствующего класса гипотез слабых классификаторов, неявных в слабом ученике. Мы сосредоточимся на стандартной, «ванильной» версии Optimal AdaBoost для бинарной классификации, которая является результатом использования верхней границы экспоненциальной потери для ошибки обучения неправильной классификации. Мы представляем два типа открытых задач. Один имеет дело с общими слабыми гипотезами. Другой касается частного случая пней решений, которые часто и широко используются на практике. Ответы на открытые проблемы могут оказать непосредственное значительное влияние на (1) закрепление ранее установленных результатов по свойствам асимптотической сходимости Optimal AdaBoost для конечных наборов данных, что, в свою очередь, может стать началом любого анализа скорости сходимости; (2) понимание класса слабых гипотез эффективных пней решения, сгенерированных из данных, которые, как мы эмпирически наблюдали, значительно меньше, чем обычно получаемый класс, а также влияние на время работы слабого ученика и ранее установленные улучшенные границы на производительность обобщения классификаторов Optimal AdaBoost; и (3) пролить свет на «самоконтроль», который AdaBoost имеет тенденцию демонстрировать на практике.