RU2676026C1 - Способ анализа видеопотока - Google Patents

Способ анализа видеопотока Download PDF

Info

Publication number
RU2676026C1
RU2676026C1 RU2018110397A RU2018110397A RU2676026C1 RU 2676026 C1 RU2676026 C1 RU 2676026C1 RU 2018110397 A RU2018110397 A RU 2018110397A RU 2018110397 A RU2018110397 A RU 2018110397A RU 2676026 C1 RU2676026 C1 RU 2676026C1
Authority
RU
Russia
Prior art keywords
pixel
frame
shadow
color
parameter
Prior art date
Application number
RU2018110397A
Other languages
English (en)
Inventor
Алексей Юрьевич Кравцов
Original Assignee
Акционерное Общество "Крафтвэй Корпорэйшн Плс"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Акционерное Общество "Крафтвэй Корпорэйшн Плс" filed Critical Акционерное Общество "Крафтвэй Корпорэйшн Плс"
Priority to RU2018110397A priority Critical patent/RU2676026C1/ru
Application granted granted Critical
Publication of RU2676026C1 publication Critical patent/RU2676026C1/ru

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

Изобретение относится к средствам обработки растровых изображений. Технический результат заключается в повышении точности определения подвижных объектов. В способе: получают первый кадр видеопотока, для каждого пикселя которого определяют значение следующих компонент: компоненты Y яркости, компоненты цветоразности U и компоненты цветоразности V; на основе полученных параметров YUV формируют попиксельное предсказание кадра; получают следующий кадр видеопотока и осуществляют цикл анализа, а именно определяют пиксели, относящиеся к объекту, и формируют бинарную маску обнаруженного объекта; для упомянутых пикселей, относящихся к объекту, определяют, по крайней мере, один параметр цветовой схожести и параметр текстурной схожести; осуществляют сравнение упомянутых параметров цветовой схожести и текстурной схожести с их пороговыми значениями и классифицируют каждый пиксель как «тень/не тень», после чего уточняют попиксельное предсказание следующего кадра и повторяют цикл. 2 з.п. ф-лы, 4 ил.

Description

Область техники, к которой относится изобретение
Изобретение относится к средствам обработки цифровых видеопотоков, а именно к способам автоматического анализа видеопотоков растровых кадров и может использоваться в системах IP-видеонаблюдения.
Уровень техники
В качестве наиболее близкого аналога выбран известный способ анализа видеопотока, состоящий в определении тени от движущихся объектов на основе анализа данных о цвете, яркости и других параметрах пикселей (CN 104899881 (A), G06T 7/00, опубликовано 09.09.2015). Данный известный способ использует сложный алгоритм определения градиентов областей кадра и не исключает ошибок при классификации областей кадра.
Сущность изобретения
Задачей, на решение которой направлено настоящее изобретение, является создание способа анализа видеопотока, обеспечивающего качественное обнаружение и сопровождение движущихся объектов.
Настоящее изобретение обеспечивает достижение следующей совокупности технических результатов: повышение точности обнаружения и сопровождения подвижных объектов за счет эффективного идентифицирования теневых зон, схожих по характеристикам с движущимися объектами; уменьшение количества ложных обнаружений (как ложно положительных, так и ложноотрицательных); упрощение способа за счет совместного использования комплекса параметров пикселей.
Указанная совокупность технических результатов достигается тем, что способ анализа видеопотока состоит в том, что
- получают первый кадр видеопотока, для каждого пикселя которого определяют значение следующих компонент: компоненты Y яркости, компоненты цветоразности U и компоненты цветоразности V;
- на основе полученных параметров YUV формируют попиксельное предсказание кадра;
- получают следующий кадр видеопотока и осуществляют цикл анализа, а именно определяют пиксели, относящиеся к объекту, и формируют бинарную маску обнаруженного объекта;
- для упомянутых пикселей, относящихся к объекту, определяют, по крайней мере, один параметр цветовой схожести и параметр текстурной схожести;
- осуществляют сравнение упомянутых параметров цветовой схожести и текстурной схожести с их пороговыми значениями и классифицируют каждый пиксель как «тень/не тень» следующим образом: если значение параметра цветовой схожести не превышает порогового значения, то пиксель относят к классу «тень», если значение параметра цветовой схожести превышает пороговое значение, а значение параметра текстурной схожести не меньше порогового значения, то пиксель относят к классу «тень», в остальных случаях пиксель классифицируют как «не тень»;
- пиксели, классифицированные как «тень», относят к фоновой составляющей кадра, после чего уточняют попиксельное предсказание следующего кадра и повторяют цикл.
Указанная совокупность технических результатов достигается также тем, что упомянутую бинарную маску формируют на основе значений только компоненты Y.
Указанная совокупность технических результатов достигается также тем, что упомянутый параметр цветовой схожести определяют на основе компоненты U и дополнительно к нему определяют второй параметр цветовой схожести на основе компоненты V.
Отличительной особенностью настоящего изобретения является использование комбинации параметров пикселей в рамках цветовой модели YUV каждого кадра для идентифицирования теневых зон и постоянное обновление фоновой составляющей кадров.
Краткое описание фигур чертежей
На Фиг. 1 показана блок-схема реализации способа.
На Фиг. 2-Фиг. 4 показаны, соответственно, исходный кадр, первичная бинарная маска обнаружения объекта и уточненная бинарная маска на этапе вторичного обнаружения подвижного объекта.
Сведения, подтверждающие возможность осуществления изобретения
Современные стационарные системы 1Р-видеонаблюдения обычно оснащаются подсистемами видеоаналитики для автоматического анализа видеопотока с целью обнаружения движущихся объектов. Видеопоток с видеокамеры наблюдения поступает по сетевому интерфейсу на сервер видеоаналитики для автоматического анализа либо анализируется непосредственно на камере, если камера оснащена встроенным сервером. Сервер выполняет анализ видеопотока с помощью программного обеспечения видеоаналитики и формирует описание видеопотока, как набора объектов. Исходный видеопоток и поток метаданных с формальным описанием объектов поступают по сетевому интерфейсу в центр мониторинга.
Существуют проблемы подсистемы видеоанэлитики, связанные: с ошибками первого рода (ложноположительные срабатывания), когда подсистема обнаруживает несуществующие объекты в сложных условиях наблюдения;
- с ошибками второго рода (ложноотрицательные срабатывания), когда подсистема в условиях плохой видимости не обнаруживает существующие объекты, в первую очередь малоконтрастные и замаскированные.
В общем случае качество работы подсистемы видеоаналитики определяется компромиссом между значениями вероятностей ошибок первого и второго рода. Общепринятым считается подход, когда задается допустимый уровень вероятности ложного обнаружения, то есть ошибки первого рода, и качество работы подсистемы видеоаналитики определяется вероятностью пропуска объекта, то есть ошибкой второго рода при заданном значении вероятности ошибки первого рода. При недостаточно строгом ограничении вероятности ошибки первого рода снижается вероятность пропуска объекта, но ложные срабатывания становятся массовыми, и подсистема видеоаналитики теряет работоспособность. При излишне строгом ограничении вероятности ошибки первого рода ложные срабатывания случаются реже, но повышается вероятность пропуска объекта.
Описанная проблема решается настоящим изобретением следующим образом.
Видеопоток формируют в виде последовательности растровых кадров с последующим двухэтапным обнаружением на каждом кадре движущихся объектов. Под объектами подразумеваются связные множества пикселей, имеющие сходные характеристики при переходе от кадра к кадру и перемещающиеся (перемещавшиеся в известной истории наблюдений) в системе координат кадра.
Суть способа состоит в том, что обнаружение подвижного объекта осуществляют в два этапа.
На этапе первичного обнаружения алгоритм настраивается на гарантированное выявление связных множеств пикселей, иначе говоря, потенциальных объектов, на заданной площади кадра. В основе процедуры первичного обнаружения лежит, например, механизм адаптивного порога: пороговое значение градиента яркости пикселя, при превышении которого пиксель предварительно включается в состав объекта, не является фиксированным, а изменяется от кадра к кадру. Используется следующее обобщенное правило. Если общее количество обнаруженных пикселей меньше заданной в настройках площади кадра, обязательной для обнаружения, порог уменьшается, чувствительность алгоритма повышается. Если общее количество обнаруженных пикселей больше обязательной доли площади кадра, порог увеличивается, чувствительность алгоритма уменьшается. Описанный подход гарантирует выявление наиболее заметных аномалий яркости множества пикселей, объемом равным или большим заданной доли площади кадра. Обнаруженные множества пикселей потенциально являются объектами и могут содержать только существующие объекты, или только ложные объекты (случайные флуктуации яркости кадра), или существующие и ложные объекты в неизвестной пропорции.
На этапе вторичного обнаружения производится фильтрация выявленных на первом этапе множеств пикселей с целью выявления заведомо ложных срабатываний за счет идентифицирования теневых зон. На этапе вторичного обнаружения одной из наиболее сложных проблем является выявление ложных срабатываний, обусловленных появлением теней в сцене, так как формально тень имеет все признаки существующего объекта. Происхождение тени с точки зрения подсистемы видеоаналитики не играет существенной роли. При изменении условий освещения тень может появляться и исчезать на близких по времени кадрах, то есть являться подвижной хотя бы одномоментно в смысле градиента яркости с фоном. Тень от неподвижных элементов сцены может перемещаться, менять пропорции и размеры, если перемещаются источники освещения, находящиеся за кадром. Тень может сопровождать подвижные объекты, пересекаясь или не пересекаясь с ними попиксельно.
Технический результат достигается за счет введения в алгоритм вторичного обнаружения дополнительной процедуры классификации «тень/не тень» каждого пикселя в составе потенциального объекта. В ситуации, когда все или значительное количество пикселей в составе объекта классифицированы как тень, обнаружение не производится. В ситуации, когда незначительное количество пикселей в составе объекта классифицированы как тень, производится уточнение границ объекта путем игнорирования классифицированных как тень пикселей, а затем обнаружение объекта с уточненными границами.
В настоящем изобретении используется цветовая модель YUV, в которой цвет представляется как 3 компонента - яркость (Y) и две цветоразностных (U и V). Данная модель широко применяется в телевещании и хранении/обработке видеоданных. Яркостная компонента содержит «черно-белое» (в оттенках серого) изображение, а оставшиеся две компоненты содержат информацию для восстановления требуемого цвета. В цветовом пространстве YUV есть один компонент, который представляет яркость (сигнал яркости), и два других компонента, которые представляют цвет (сигнал цветности). В то время как яркость передается со всеми деталями, некоторые детали в компонентах цветоразностного сигнала, лишенного информации о яркости, могут быть удалены путем понижения разрешения отсчетов (фильтрация или усреднение), что может быть сделано несколькими способами (то есть много форматов для сохранения изображения в цветовом пространстве YUV).
Таким образом, в настоящем изобретении каждый цветной кадр в видеопотоке приводится к цветовому пространству YUV, иначе говоря, раскладывается на три компоненты:
- яркостную компоненту Y - массив одноцветных пикселей, содержащих информацию об усредненной яркости по красной, зеленой и синей составляющим исходного цветного пиксела;
- цветоразностную компоненту U - массив одноцветных пикселей, содержащих информацию о нормированной разности красной и зеленой составляющих исходного цветного пиксела;
- цветоразностную компоненту V - массив одноцветных пикселей, содержащих информацию о нормированной разности синей и зеленой составляющих исходного цветного пиксела.
Исходный кадр видеопотока (Фиг. 2) попиксельно приводится к цветовой модели YUV. Компоненты Y, U, V копируются в отдельные однокомпонентные кадры, которые в дальнейшем обрабатываются независимо.
Для первого в истории наблюдений кадра выполняется попиксельная инициализация фона Y, иначе говоря, статичной составляющей компоненты Y, текущими значениями кадра Y, фона U -текущими значениями кадра U, фона V - текущими значениями кадра V. Для второго и последующих кадров этот шаг не выполняется, обновление фона производится на шаге 5. Таким образом, для каждого пиксела компонент Y, U и V по результатам статистических наблюдений по предыдущим кадрам строится предсказание значения на текущем кадре. Предсказанное значение считается фоновым, то есть в данном случае наиболее вероятным значением пиксела, а массивы предсказанных значений считаются фоновыми кадрами для каждой из компонент Y, U, V.
Далее на текущем кадре любыми известными методами производится первичное обнаружение, иначе говоря, выделяются области кадра, в которых вероятно присутствует движущийся объект. Это осуществляется следующим образом. Формируется грубый бинарный кадр маски обнаружения (Фиг. З) каждый пиксель которого принимает значение «0» (фон), если разница между значением пикселя текущего кадра Y и значением пикселя фонового кадра Y не превышает текущее значение адаптивного порога, и значение «1» (передний план) в другом случае. Кадры U и V на этапе первичного обнаружения игнорируются. Производится подстройка адаптивного порога для кадра Y: если количество пикселей переднего плана выше заданной доли от общего числа пикселей (настраиваемый параметр), порог повышается на единицу; если ниже, порог понижается на единицу; если равен, порог остается без изменений. Также допустимо использование любого другого алгоритма первичного обнаружения для формирования бинарного кадра маски обнаружения.
После этого производится вторичное обнаружение (фильтрация кандидатов в объекты) по пикселям, отнесенным на этапе первичного обнаружения к переднему плану. Пиксели, отнесенные на этапе первичного обнаружения к фону, игнорируются. Затем в выделенных областях, в пространственной окрестности (локальном плавающем окне) каждого пиксела вычисляются следующие параметры:
Определяется комплексный параметр №1, инвариантный к яркости и содержащий информацию о схожести цветовой составляющей U пикселей текущего кадра с цветовой составляющей пикселей U фонового кадра. Вычисляется как разность между отношением усредненного значения компоненты U к усредненному значению компоненты Y на текущем кадре и отношением значения усредненной компоненты U к значению усредненной компоненты Y на фоновом кадре. Под усредненным значением следует понимать среднее арифметическое по пространственной окрестности 3x3 каждого исследуемого пикселя текущего кадра U, текущего кадра Y, фонового кадра U, фонового кадра Y.
Дополнительно к параметру №1 может определяться параметр №2, инвариантный к яркости и содержащий информацию о схожести цветовой составляющей V пикселей текущего кадра с цветовой составляющей V пикселей фонового кадра. Вычисляется как разность между отношением усредненного значения компоненты V к усредненному значению компоненты Y на текущем кадре и отношением усредненного значения компоненты V к усредненному значению компоненты Y на фоновом кадре. Под усредненным значением следует понимать среднее арифметическое по пространственной окрестности 3x3 каждого исследуемого пикселя текущего кадра V, текущего кадра Y, фонового кадра V, фонового кадра Y.
Далее определяется параметр №3, инвариантный к цвету и содержащий информацию о текстурной схожести пикселей текущего кадра с пикселями фонового кадра, а также ковариация компоненты Y текущего кадра и компоненты Y фонового кадра.
Указанные выше параметры могут определяться на основе следующих зависимостей:
Figure 00000001
Figure 00000002
Figure 00000003
Figure 00000004
а также:
Figure 00000005
Figure 00000006
Figure 00000007
где IY, IU, IV - значения компонент Y, U, V пикселя; BY, BU, BV - значения компонент Y, U, V пикселя на фоне;
Figure 00000008
- оператор среднего арифметического по пространственной окрестности; DI - дисперсия компоненты IY в пространственной окрестности; DB - дисперсия BY в пространственной окрестности; δ - порог наличия цвета; (β - порог сходства по цвету; ρY_max _ порог сходства по текстуре.
Далее осуществляется выбор бинарного признака «тень/не тень» для каждого пикселя текущего кадра путем сравнения параметров №1 и №3 (при наличии и параметра №2) с экспериментально установленными пороговыми значениями. Проведенные исследования алгоритма в соответствии с настоящим изобретением на большой выборке эталонных видеозаписей показали, что экспериментально полученные пороговые значения в высокой степени инвариантны к условиям наблюдения, применимы к широкому классу изображений и требуют ручной подстройки только в особых случаях. Если параметры №1 и №2 (схожесть по цвету) не превышают порогового значения, пиксель относится к классу «тень», и параметр №3 не вычисляется и не анализируется. Если параметры №1 и №2 превышают пороговое значение, или цветовая информация отсутствует в связи с условиями наблюдения, пиксель не классифицируется, а вычисляется и анализируется параметр №3. Если параметр №3 (схожесть по текстуре) не меньше порогового значения, пиксель классифицируется как «тень». В любом другом случае пиксель классифицируется как «не тень».
Пиксели, имеющие признак «тень», помечаются в бинарной маске обнаружения, сформированной на этапе первичного обнаружения, значением «0», то есть относятся к фоновой составляющей кадра и не становятся частью объекта (Фиг. 4).
Далее для кадров Y, U, V выполняется обновление фонов Y, U, V путем адаптивного приближения к медианному значению в каждом пикселе за историю наблюдения. Допустимо использование и иных алгоритмов формирования фоновой составляющей кадра.
После проведенного цикла выполняется переход к обработке следующего кадра и цикл повторяется.
Таким образом, последовательность существенных действий в способе, состоящая в том, что
- получают первый кадр видеопотока, для каждого пикселя которого определяют значение следующих компонент: компоненты Y яркости, компоненты цветоразности U и компоненты цветоразности V;
- на основе полученных параметров YUV формируют попиксельное предсказание кадра;
- получают следующий кадр видеопотока и осуществляют цикл анализа, а именно определяют пиксели, относящиеся к объекту, и формируют бинарную маску обнаруженного объекта;
- для упомянутых пикселей, относящихся к объекту, определяют, по крайней мере, один параметр цветовой схожести и параметр текстурной схожести;
- осуществляют сравнение упомянутых параметров цветовой схожести и текстурной схожести с их пороговыми значениями и классифицируют каждый пиксель как «тень/не тень» следующим образом: если значение параметра цветовой схожести не превышает порогового значения, то пиксель относят к классу «тень», если значение параметра цветовой схожести превышает пороговое значение, а значение параметра текстурной схожести не меньше порогового значения, то пиксель относят к классу «тень», в остальных случаях пиксель классифицируют как «не тень»;
- пиксели, классифицированные как «тень», относят к фоновой составляющей кадра, после чего уточняют попиксельное предсказание следующего кадра и повторяют цикл,
обеспечивает применение дополнительной процедуры классификации «тень/не тень» каждого пиксела в составе предположительно движущегося объекта. ситуации, когда незначительное количество пикселей в составе объекта классифицированы как тень, производится уточнение границ объекта путем игнорирования классифицированных как тень пикселей, а затем обнаружение и сопровождение объекта с уточненными границами.
Реализация описанного способа может быть осуществлена программно-аппаратным способом на вычислительном комплексе общего назначения или специального назначения, располагающим аппаратным ускорителем операций цифровой обработки сигналов.

Claims (9)

1. Способ анализа видеопотока, состоящий в том, что
- получают первый кадр видеопотока, для каждого пикселя которого определяют значение следующих компонент: компоненты Y яркости, компоненты цветоразности U и компоненты цветоразности V;
- на основе полученных параметров YUV формируют попиксельное предсказание кадра;
- получают следующий кадр видеопотока и осуществляют цикл анализа, а именно определяют пиксели, относящиеся к объекту, и формируют бинарную маску обнаруженного объекта;
- для упомянутых пикселей, относящихся к объекту, определяют, по крайней мере, один параметр цветовой схожести и параметр текстурной схожести;
- осуществляют сравнение упомянутых параметров цветовой схожести и текстурной схожести с их пороговыми значениями и классифицируют каждый пиксель как «тень/не тень» следующим образом: если значение параметра цветовой схожести не превышает порогового значения, то пиксель относят к классу «тень», если значение параметра цветовой схожести превышает пороговое значение, а значение параметра текстурной схожести не меньше порогового значения, то пиксель относят к классу «тень», в остальных случаях пиксель классифицируют как «не тень»;
- пиксели, классифицированные как «тень», относят к фоновой составляющей кадра, после чего уточняют попиксельное предсказание следующего кадра и повторяют цикл.
2. Способ по п. 1, отличающийся тем, что упомянутую бинарную маску формируют на основе значений только компоненты Y.
3. Способ по п. 1, отличающийся тем, что упомянутый параметр цветовой схожести определяют на основе компоненты U и дополнительно к нему определяют второй параметр цветовой схожести на основе компоненты V.
RU2018110397A 2018-03-23 2018-03-23 Способ анализа видеопотока RU2676026C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2018110397A RU2676026C1 (ru) 2018-03-23 2018-03-23 Способ анализа видеопотока

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2018110397A RU2676026C1 (ru) 2018-03-23 2018-03-23 Способ анализа видеопотока

Publications (1)

Publication Number Publication Date
RU2676026C1 true RU2676026C1 (ru) 2018-12-25

Family

ID=64753769

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2018110397A RU2676026C1 (ru) 2018-03-23 2018-03-23 Способ анализа видеопотока

Country Status (1)

Country Link
RU (1) RU2676026C1 (ru)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015964A1 (en) * 2012-07-13 2014-01-16 Yen Hsiang Chew Techniques for video analytics of captured video content
US20140333777A1 (en) * 2010-05-13 2014-11-13 Honeywell International Inc. Surveillance system with direct database server storage
CN104899881A (zh) * 2015-05-28 2015-09-09 湖南大学 一种视频图像中运动车辆阴影检测方法
RU2632473C1 (ru) * 2016-09-30 2017-10-05 ООО "Ай Ти Ви групп" Способ обмена данными между ip видеокамерой и сервером (варианты)

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140333777A1 (en) * 2010-05-13 2014-11-13 Honeywell International Inc. Surveillance system with direct database server storage
US20140015964A1 (en) * 2012-07-13 2014-01-16 Yen Hsiang Chew Techniques for video analytics of captured video content
CN104899881A (zh) * 2015-05-28 2015-09-09 湖南大学 一种视频图像中运动车辆阴影检测方法
RU2632473C1 (ru) * 2016-09-30 2017-10-05 ООО "Ай Ти Ви групп" Способ обмена данными между ip видеокамерой и сервером (варианты)

Similar Documents

Publication Publication Date Title
JP4746050B2 (ja) ビデオデータを処理するための方法及びシステム
Ganesan et al. Assessment of satellite image segmentation in RGB and HSV color space using image quality measures
US7639878B2 (en) Shadow detection in images
US9202126B2 (en) Object detection apparatus and control method thereof, and storage medium
US8553086B2 (en) Spatio-activity based mode matching
KR20210006276A (ko) 플리커를 약화시키기 위한 이미지 처리 방법
JP2004531823A (ja) カラー分布に基づいたオブジェクトトラッキング
JP5640622B2 (ja) 赤目オブジェクト候補を分類する方法、コンピューター読み取り可能な媒体および画像処理装置
Lou et al. An illumination invariant change detection algorithm
WO2020130799A1 (en) A system and method for licence plate detection
KR100903816B1 (ko) 정지영상에서의 얼굴추출시스템과 그 방법
CN111460964A (zh) 一种广电传输机房低照度条件下运动目标检测方法
CN110599553A (zh) 一种基于YCbCr的肤色提取及检测方法
KR20020031630A (ko) 칼라 왜곡 정보를 이용한 얼굴 영역 추출 방법
KR20080003617A (ko) 에이다부스트와 에스브이엠 학습 분류기를 이용한 눈영역 추출기 및 추출방법
CN113744326A (zh) 一种在ycrcb颜色空间中基于种子区域生长法则的火灾检测方法
RU2676026C1 (ru) Способ анализа видеопотока
Tattersall et al. Adaptive shadow identification through automatic parameter estimation in video sequences
CN114998619A (zh) 目标颜色分类方法、装置及计算机可读存储介质
RU2676028C1 (ru) Способ обнаружения оставленного предмета в видеопотоке
WO2008023886A1 (en) Method for optimizing image for vehicle's identification plate
KR20150055481A (ko) 영상 내 그림자 화소 제거를 위한 배경 기반 방법
CN114170327A (zh) 识别方法和电子设备
Elmezain Invariant color features–based foreground segmentation for human‐computer interaction
CN112749714A (zh) 一种单帧红外图像中多形态暗弱小目标检测方法

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20200324

NF4A Reinstatement of patent

Effective date: 20210208