RU2796096C1 - Способ сопровождения объектов - Google Patents

Способ сопровождения объектов Download PDF

Info

Publication number
RU2796096C1
RU2796096C1 RU2022113035A RU2022113035A RU2796096C1 RU 2796096 C1 RU2796096 C1 RU 2796096C1 RU 2022113035 A RU2022113035 A RU 2022113035A RU 2022113035 A RU2022113035 A RU 2022113035A RU 2796096 C1 RU2796096 C1 RU 2796096C1
Authority
RU
Russia
Prior art keywords
window
image
tracking object
coordinates
points
Prior art date
Application number
RU2022113035A
Other languages
English (en)
Inventor
Алексей Николаевич Ивлюшкин
Олег Анатольевич Боровых
Сергей Викторович Трофимов
Original Assignee
Акционерное общество "Научно-Производственный Комплекс "Альфа-М"
Filing date
Publication date
Application filed by Акционерное общество "Научно-Производственный Комплекс "Альфа-М" filed Critical Акционерное общество "Научно-Производственный Комплекс "Альфа-М"
Application granted granted Critical
Publication of RU2796096C1 publication Critical patent/RU2796096C1/ru

Links

Images

Abstract

Изобретение относится к способам сопровождения наземных объектов по оцифрованному сигналу телевизионного изображения. Технический результат - повышение надежности сопровождения объекта, снижение вероятности его потери. Оператор на экране S телевизионного изображения наводит окно М на объект сопровождения. Задают зону анализа Z телевизионного изображения, размеры которой меньше или равны размерам экрана S, но больше размеров окна М с объектом сопровождения. Принимают координаты центра окна М с объектом сопровождения за координаты центра зоны анализа Z. Выполняют предварительную обработку оцифрованного телевизионного изображения посредством низкочастотной фильтрации. В каждой точке зоны анализа Z вычисляют корреляционную функцию F(α,β) яркостей точек изображения в окне М с объектом сопровождения и яркостей точек анализируемого изображения в окнах N, размеры которых совпадают с размерами окна М. Корреляционную функцию F(α,β) вычисляют либо как разностную корреляционную функцию, либо как классическую корреляционную функцию. Полученную корреляционную функцию F(α,β) обрабатывают дифференциальным оператором, получая градиентное изображение. После этого вычисляют сумму градиентов яркости Gэ точек изображения в окне М с объектом сопровождения. Умножая эту сумму градиентов яркости G на коэффициент к меньший 1, получают значение порога Р. Во всех точках градиентного изображения, находящихся в зоне анализа Z, вычисляют суммы градиентов яркости Gi,j в окнах N анализируемых изображений, размеры которых совпадают с размерами окна М с объектом сопровождения. Запоминают координаты (in, jn) центров окон N, в которых суммы градиентов яркости Gi,j больше порога Р. После этого в окне М с объектом сопровождения и в каждом окне N анализируемого изображения, координаты центра которого совпадают с запомненными координатами (in, jn), вычисляют критерии Аn, Вn, Сn и критерий Кnn ⋅ Вn ⋅ Сn, где Аn - критерий отличия суммы яркостей точек изображения в окне N анализируемого изображения от суммы яркостей точек изображения в окне М с объектом сопровождения; Вn - критерий отличия суммы градиентов яркости Gi,j - точек градиентного изображения в окне N анализируемого изображения от суммы градиентов яркости Gэ точек градиентного изображения в окне М с объектом сопровождения, Сn - критерий удаленности центра окна N анализируемого изображения от центра зоны анализа Z. За координаты центра нового окна с объектом сопровождения принимают координаты центра окна, в котором значение критерия Кn имеет наибольшее значение. Совмещают центр зоны анализа Z с центром нового окна с объектом сопровождения. После этого производят обновление изображения в окне с объектом сопровождения посредством экспоненциальной фильтрации. После чего переходят к обработке следующего кадра телевизионного изображения. 9 з.п. ф-лы, 3 ил.

Description

Изобретение относится к способам сопровождения объектов, преимущественно наземных целей, по оцифрованному сигналу телевизионного изображения.
Известен способ сопровождения объектов по телевизионному сигналу, при котором в качестве эталонного изображения объекта сопровождения выбирают центральный участок первого кадра телевизионного изображения, а на втором и всех последующих кадрах телевизионного изображения в каждой точке изображения вычисляют разностную корреляционную функцию [авторское свидетельство СССР №1562980, МПК H04N 7/18, Устройство определения координат объекта / Алпатов Б.А. и др., заявл. 01.02.1988, опубл. 07.05.1990].
В этом способе за координаты объекта сопровождения на обрабатываемом кадре изображения принимают точку минимума разностной корреляционной функции. После чего производят обновление изображения объекта сопровождения путем его сглаживания посредством межкадровой экспоненциальной фильтрации.
При этом при вычислении разностной корреляционной функции сумму модулей разностей сигналов анализируемого изображения и сигналов изображения объекта сопровождения умножают на весовую функцию, сформированную в процессе обработки предыдущего кадра.
В процессе обработки предыдущего кадра указанную весовую функцию формируют путем выделения на сглаженном изображении объекта сопровождения множества точек, в которых значения сигнала больше заранее заданного порогового значения. В этих точках точкам весовой функции придают значения «1», а в остальных точках - значения «0».
При сопровождении движущегося объекта и при изменении ракурса объекта на текущем кадре в окне с объектом сопровождения появятся точки, принадлежащие объекту сопровождения, которые на предыдущем кадре были фоном. Понятно, что в процессе обработки предыдущего кадра в этих точках значения сигнала были меньше порогового значения и в этих точках весовой функции были приданы нулевые значения. Поскольку при вычислении разностной корреляционной функции сумма модулей разностей сигналов анализируемого изображения и сигналов изображения объекта сопровождения умножается на весовую функцию, то при обработке текущего кадра в этих точках разностная корреляционная функция будет также иметь нулевые значения.
Таким образом, с помощью этого способа невозможно сопровождать движущиеся объекты и объекты с быстрым межкадровым изменением ракурса, поскольку на каждом новом кадре все точки объекта сопровождения, которые на предыдущем кадре были фоном, будут обнуляться.
Известен способ сопровождения объектов по телевизионному сигналу, при котором выполняют предварительную обработку оцифрованного видеосигнала телевизионного изображения, вычисляют разностную корреляционную функцию и находят минимум разностной корреляционной функции [патент РФ №2153235, МПК H04N 7/18, Способ слежения за объектом и устройство для его осуществления / Шахрай В.И. и др., заявл. 25.01.1991, опубл. 20.07.2000].
Недостатком известного способа является то, что предварительную обработку оцифрованного видеосигнала телевизионного изображения объекта выполняют дифференциальным оператором, получая градиентное изображение. Как известно, обработка цифрового сигнала дифференциальным оператором подчеркивает все высокочастотные составляющие изображения. Поэтому после обработки дифференциальным оператором изображения, зашумленного помехами, на изображении будет большое количество ложных целей или точек фона, которые могут быть ошибочно приняты за объект. При этом количество ложных целей может оказаться настолько большим, что это существенно затормозит или даже сделает невозможной обработку телевизионного изображения в режиме реального времени.
Кроме того, в известном способе вычисление разностной корреляционной функции производят путем сравнения градиентов яркости эталонного и текущего изображений в точках изображения, определяемых эталонной маской. А эталонную маску формируют из адресов локальных экстремумов, в которых градиент яркости превышает заданный порог. Вследствие этого эталонная маска имеет форму, повторяющую контур объекта сопровождения. Это может привести к потере объекта сопровождения, поскольку при его перемещении по фону с неоднородной яркостью контур градиентного изображения объекта может сильно изменяться.
В известном способе в качестве новых координат объекта сопровождения принимают координаты точки минимума разностной корреляционной функции. При этом при выборе этой точки минимума не учитывается удаленность этой точки от центра эталона. Это также увеличивает вероятность «перескока» на ложную цель., если сумма градиентов яркости этой ложной цели будет близка к сумме градиентов яркости эталонной маски.
Вследствие всех вышеперечисленных недостатков известный способ сопровождения объектов будет хорошо работать только по высококонтрастному изображению, на котором отсутствуют помехи, и при отношении сигнал/шум (ОСШ) более 6 дБ. В реальных условиях наблюдения такой способ сопровождения будет неработоспособным.
Известен способ сопровождения объектов по оцифрованному сигналу телевизионного изображения, при котором оператор на экране телевизионного изображения наводит окно на объект сопровождения, и вычисляют корреляционную функцию F(α,β) яркостей h(i, j) точек изображения в окне с объектом сопровождения и яркостей
Figure 00000001
точек анализируемого изображения в окнах, размеры которых совпадают с размерами окна с объектом сопровождения, где i и j - координаты точек телевизионного изображения, находящихся внутри окна с объектом сопровождения, а α и β - величины смещения координат центра окна анализируемого изображения относительно координат центра окна с объектом сопровождения по осям, соответственно, i и j [Телевизионные методы сопровождения объектов в сложных условиях наблюдения. В.И. Можейко и др. / Изв. ВУЗов. Приборостроение. 2009. Т. 52, №8, с. 20-29.] - прототип.
В этом способе сопровождения объектов перед вычислением корреляционной функции F(α, β) яркостное изображение, полученное в окне, наведенном оператором на объект сопровождения, обрабатывают дифференциальным оператором, формируя контур объекта сопровождения, сравнивают полученное градиентное изображение с пороговым значением, создавая бинарное изображение, заполняют контур объекта посредством дилатации и запоминают координаты точек полученного бинарного изображения в качестве эталонной маски.
Недостатком этого способа сопровождения является то, что корреляционную функцию F(α,β) вычисляют в окнах, размеры и форма которых совпадает с размерами и формой эталонной маски. При значительных размерах объекта сопровождения дилатация не позволит заполнить точки изображения внутри контура объекта сопровождения. В результате корреляционную функцию F(α,β) будут вычислять по точкам изображения, координаты которых в окне анализируемого изображения совпадают с координатами точек контура объекта сопровождения. Это может привести к потере объекта сопровождения, поскольку при перемещении объекта сопровождения по фону с неоднородной яркостью контур градиентного изображения объекта может сильно изменяться.
Кроме того, в этом случае будет сложно выделить контур объекта сопровождения на телевизионных изображениях, зашумленных помехами, в условиях плохой видимости, например во время дождя или снегопада, а также при работе по низкоконтрастному изображению с отношением сигнал/шум (ОСШ) менее 3 дБ. Известный способ позволит устойчиво выделять контур объекта только на высококонтрастных изображениях при отношении сигнал/шум более 6 дБ. Это делает известный способ сопровождения неработоспособным в реальных условиях наблюдения.
Кроме того, в известном способе не учитывается удаленность ложной цели от центра изображения, что также может привести к потере объекта сопровождения, если в кадре окажется другой объект, сумма градиентов яркости которого будет близка к сумме градиентов яркости эталонной маски.
Задача, на решение которой направлено предлагаемое изобретение, - обеспечение возможности сопровождения объектов на низкоконтрастных телевизионных изображениях с отношением сигнал/шум (ОСШ) менее 3 дБ, сопровождения объектов, перемещающихся по фону с неоднородной яркостью, а также сопровождения объектов на телевизионных изображениях, зашумленных помехами и в условиях плохой видимости.
Для решения этой задачи в способе сопровождения объектов по оцифрованному сигналу телевизионного изображения, при котором оператор на экране телевизионного изображения наводит окно на объект сопровождения, и вычисляют корреляционную функцию F(a,P) яркостей h(i, у) точек изображения в окне с объектом сопровождения и яркостей
Figure 00000002
точек анализируемого изображения в окнах, размеры которых совпадают с размерами окна с объектом сопровождения, где i и j - координаты точек телевизионного изображения, находящихся внутри окна с объектом сопровождения, а α и β - величины смещения координат центра окна анализируемого изображения относительно координат центра окна с объектом сопровождения по осям, соответственно, i и j, согласно изобретения, после наведения оператором окна на объект сопровождения задают зону анализа телевизионного изображения в виде прямоугольной рамки, размеры которой меньше или равны размерам экрана телевизионного изображения, но больше размеров окна с объектом сопровождения, при этом окно с объектом сопровождения расположено в зоне анализа, за координаты центра зоны анализа при обработке первого кадра телевизионного изображения принимают координаты центра окна с объектом сопровождения, а корреляционную функцию F(α,β) при обработке как первого, так и всех последующих кадров вычисляют в каждой точке зоны анализа. После чего обрабатывают корреляционную функцию F(α, β) дифференциальным оператором, получая градиентное изображение, вычисляют сумму градиентов яркости Gэ точек градиентного изображения, находящихся в окне с объектом сопровождения. Умножая эту сумму градиентов яркости Gэ на коэффициент к, меньший 1, получают значение порога Р. После чего во всех точках градиентного изображения, находящихся в зоне анализа, вычисляют суммы градиентов яркости Gi,j в окнах, размеры которых совпадают с размерами окна с объектом сопровождения, сравнивают суммы градиентов яркости Gi,j с порогом Р, и запоминают координаты (in, jn) центров окон, в которых суммы градиентов яркости Сi,j больше порога Р. После чего в окне с объектом сопровождения и в каждом окне, координаты центра которого совпадают с запомненными координатами (in, jn), вычисляют критерии Аn, Вn, Сn и критерий Кnn ⋅ Вn ⋅ Сn, где Аn - критерий отличия суммы яркостей
Figure 00000003
точек изображения в окне анализируемого изображения от суммы яркостей h(i, у) точек изображения в окне с объектом сопровождения, Вn - критерий отличия суммы градиентов яркости Gi,j точек градиентного изображения в окне анализируемого изображения от суммы градиентов яркости Gэ точек градиентного изображения в окне с объектом сопровождения, Сn - критерий удаленности центра окна анализируемого изображения от центра зоны анализа. Принимают за координаты центра нового окна с объектом сопровождения координаты центра окна, в котором значение критерия Кn имеет наибольшее значение, совмещают центр зоны анализа с центром нового окна с объектом сопровождения, после чего переходят к обработке следующего кадра телевизионного изображения, начиная с операции вычисления корреляционной функции F(α,β).
В качестве одного из возможных вариантов за координаты нулевых отсчетов по осям i и j зоны анализа принимают координаты одного из углов зоны анализа, а оси i и j совмещают с граничными линиями зоны анализа. В этом случае критерий Вn вычисляют по формуле:
Figure 00000004
где IM, JM - размеры окна с объектом сопровождения по осям i и j; IZ, JZ - размеры зоны анализа по осям i и j.
Критерий Сn можно вычислять по разным формулам. Например, критерий Сn можно вычислять по формуле:
Figure 00000005
Корреляционную функцию F(α, β) можно вычислять как разностную корреляционную функцию по следующей формуле:
Figure 00000006
В этом случае критерий Аn вычисляют по формуле:
Figure 00000007
где Fn - значение функции F(α,β) в точке с координатами (in, jn); Fmax и Fmin - соответственно, максимальное и минимальное значения функции F(α,β) в зоне анализа.
Корреляционную функцию F(α,β) можно также вычислять как классическую корреляционную функцию по следующей формуле:
Figure 00000008
В этом случае критерий Аn вычисляют по формуле:
Figure 00000009
При обработке телевизионного изображения, зашумленного большим количеством помех, перед операцией вычисления корреляционной функции F(α,β) выполняют предварительную обработку каждого кадра оцифрованного телевизионного изображения посредством низкочастотной фильтрации.
После операции совмещения центра зоны анализа с центром нового окна с объектом сопровождения производят обновление изображения в окне с объектом сопровождения посредством экспоненциальной фильтрации.
Технический результат, обеспечиваемый предлагаемым изобретением, - повышение надежности сопровождения объекта, снижение вероятности его потери.
Изобретение поясняется чертежами. На фиг. 1 изображен один из кадров телевизионного изображения; на фиг. 2 - контур сечения поверхности разностной корреляционной функции F(α, β) плоскостью, перпендикулярной оси i; на фиг. 3 - контур сечения поверхности классической корреляционной функции F(α,β) плоскостью, перпендикулярной оси i.
Сопровождение объектов по оцифрованному сигналу телевизионного изображения предлагаемым способом осуществляют следующим образом.
Оператор на экране S телевизионного изображения наводит окно М на объект сопровождения. Задают зону анализа Z телевизионного изображения в виде прямоугольной рамки, размеры которой меньше или равны размерам экрана S, но больше размеров окна М с объектом сопровождения. При этом окно М с объектом сопровождения расположено в зоне анализа Z. Оси i и j совпадают с граничными линиями зоны анализа, а за координаты нулевых отсчетов по осям i и j принимают координаты одного из углов зоны анализа Z. Удобнее всего за координаты нулевых отсчетов по осям i и j принять координаты левого верхнего угла зоны анализа Z.
При необходимости, а именно при обработке телевизионного изображения, зашумленного большим количеством помех, выполняют предварительную обработку оцифрованного телевизионного изображения в зоне анализа посредством низкочастотной фильтрации. Низкочастотная фильтрация позволяет сгладить на изображении точечные помехи небольшого размера. Низкочастотную фильтрацию выполняют, например, посредством масок
Figure 00000010
или других подобных масок.
При обработке первого кадра телевизионного изображения за координаты центра зоны анализа Z принимают координаты центра окна М с объектом сопровождения. После этого при обработке как первого, так и всех последующих кадров в каждой точке зоны анализа Z вычисляют корреляционную функцию F(α,β) яркостей h(i, j) точек изображения в окне М с объектом сопровождения и яркостей
Figure 00000011
точек анализируемого изображения в окнах N, размеры которых совпадают с размерами окна М с объектом сопровождения, где i и j - координаты точек телевизионного изображения, находящихся внутри окна М с объектом сопровождения, а α и β - величины смещения координат центра окна N анализируемого изображения относительно координат центра окна М с объектом сопровождения по осям, соответственно, i и j.
Корреляционную функцию F(α,β) можно вычислять разными способами. Например, корреляционную функцию F(α,β) можно вычислять как разностную корреляционную функцию по следующей формуле:
Figure 00000012
где IМ, IM - размеры окна М с объектом сопровождения по осям i и j; IZ, JZ - размеры зоны анализа Z по осям i и j.
А можно корреляционную функцию F(α,β) вычислять как классическую корреляционную функцию по следующей формуле:
Figure 00000013
После этого полученную корреляционную функцию F(α, β) обрабатывают дифференциальным оператором, получая градиентное изображение. В качестве дифференциального оператора можно применять, например, операторы Превитта, Собела и другие подобные операторы.
После этого вычисляют сумму градиентов яркости Gэ точек градиентного изображения, находящихся в окне М с объектом сопровождения. Умножая эту сумму градиентов яркости Gэ на коэффициент к, меньший 1, получают значение порога Р. Как правило к=0,5…0,9.
Во всех точках градиентного изображения, находящихся в зоне анализа Z, вычисляют суммы градиентов яркости Gi,j в окнах N анализируемых изображений, размеры которых совпадают с размерами окна М с объектом сопровождения. Сравнивают суммы градиентов яркости Gi,j с порогом Р. Запоминают координаты (in, jn) центров окон N, в которых суммы градиентов яркости Gi,j больше порога Р.
После этого в окне М с объектом сопровождения и в каждом окне N анализируемого изображения, координаты центра которого совпадают с запомненными координатами (in, jn), вычисляют критерии Аn, Вn, Сn и критерий Кnn⋅Вn⋅Сn, где Аn - критерий отличия суммы яркостей
Figure 00000014
точек изображения в окне N анализируемого изображения от суммы яркостей h(i, j) точек изображения в окне М с объектом сопровождения; Вn - критерий отличия суммы градиентов яркости Gi,j точек градиентного изображения в окне N анализируемого изображения от суммы градиентов яркостей G3 точек градиентного изображения в окне М с объектом сопровождения, Сn - критерий удаленности центра окна N анализируемого изображения от центра зоны анализа Z.
В том случае, когда корреляционную функцию F(α,β) вычисляют как разностную корреляционную функцию, критерий Аn вычисляют по формуле:
Figure 00000015
где Fn - значение функции F(α,β) в точке с координатами (in, jn); Fmax и Fmin - максимальное и минимальное значения функции F(α,β) в зоне анализа Z телевизионного изображения (см. фиг. 2). В этом случае, чем меньше значение Fn будет отличаться от значения Fmin, тем значение критерия Аn будет больше.
А в том случае, когда корреляционную функцию F(α,β) вычисляют как классическую корреляционную функцию, критерий Аn вычисляют по формуле:
Figure 00000016
В этом случае, чем меньше значение Fn будет отличаться от значения Fmax, тем значение критерия Аn будет больше (см. фиг. 3).
Критерий Вn вычисляют по формуле:
Figure 00000017
где IM, IM - размеры окна с объектом сопровождения по осям i и j; IZ, JZ - размеры зоны анализа по осям i и j. Чем больше будет значение суммы градиентов яркости Gi,j точек градиентного изображения в окне анализируемого изображения, тем значение критерия Вn будет больше.
Критерий Сn можно вычислять по разным формулам. Один из возможных вариантов - вычисление критерия Сn по следующей формуле:
Figure 00000018
Чем меньше будет расстояние от центра окна анализируемого изображения до центра зоны анализа, тем значение критерия Сn будет больше.
За координаты центра нового окна с объектом сопровождения принимают координаты центра окна, в котором значение критерия Кn, равного произведению Аn ⋅ Вn ⋅ Сn, имеет наибольшее значение. После этого совмещают центр зоны анализа Z с центром нового окна с объектом сопровождения.
После этого производят обновление изображения в окне с объектом сопровождения посредством экспоненциальной фильтрации. Экспоненциальную фильтрацию осуществляют, например, по следующей формуле:
Figure 00000019
где hn(i,j) - яркости точек отфильтрованного изображения в новом окне с объектом сопровождения; hn-1(i,j) - яркости точек отфильтрованного изображения в окне с объектом сопровождения на предыдущем кадре;
Figure 00000020
- яркости точек неотфильтрованного изображения в новом окне с объектом сопровождения; kh - эмпирически подбираемый коэффициент (0<kh<1).
После этого переходят к обработке следующего кадра оцифрованного телевизионного изображения, начиная либо с вычисления корреляционной функции F(α,β), либо - при обработке телевизионного изображения, зашумленного большим количеством помех, - с низкочастотной фильтрации следующего кадра.

Claims (22)

1. Способ сопровождения объектов по оцифрованному сигналу телевизионного изображения, при котором оператор на экране телевизионного изображения наводит окно на объект сопровождения, и вычисляют корреляционную функцию F(α,β) яркостей h(i, j) точек изображения в окне с объектом сопровождения и яркостей
Figure 00000021
точек анализируемого изображения в окнах, размеры которых совпадают с размерами окна с объектом сопровождения, где i и j - координаты точек телевизионного изображения, находящихся внутри окна с объектом сопровождения, а α и β - величины смещения координат центра окна анализируемого изображения относительно координат центра окна с объектом сопровождения по осям, соответственно, i и j, отличающийся тем, что после наведения оператором окна на объект сопровождения задают зону анализа телевизионного изображения в виде прямоугольной рамки, размеры которой меньше или равны размерам экрана телевизионного изображения, но больше размеров окна с объектом сопровождения, при этом окно с объектом сопровождения расположено в зоне анализа, за координаты центра зоны анализа при обработке первого кадра телевизионного изображения принимают координаты центра окна с объектом сопровождения, а корреляционную функцию F(α,β) при обработке как первого, так и всех последующих кадров вычисляют в каждой точке зоны анализа, после чего обрабатывают корреляционную функцию F(α,β) дифференциальным оператором, получая градиентное изображение, вычисляют сумму градиентов яркости Gэ точек градиентного изображения, находящихся в окне с объектом сопровождения, умножая эту сумму градиентов яркости G на коэффициент к меньший 1, получают значение порога Р, после чего во всех точках градиентного изображения, находящихся в зоне анализа, вычисляют суммы градиентов яркости Gi,j в окнах, размеры которых совпадают с размерами окна с объектом сопровождения, сравнивают суммы градиентов яркости Gi,j с порогом Р и запоминают координаты (in, jn) центров окон, в которых суммы градиентов яркости Gi,j больше порога Р, после чего в окне с объектом сопровождения и в каждом окне, координаты центра которого совпадают с запомненными координатами (in, jn), вычисляют критерии An, Вn, Сn и критерий Кnn ⋅ Вn ⋅ Сn, где Аn - критерий отличия суммы яркостей
Figure 00000022
точек изображения в окне анализируемого изображения от суммы яркостей h(i, j) точек изображения в окне с объектом сопровождения, Вn - критерий отличия суммы градиентов яркости Gi,j точек градиентного изображения в окне анализируемого изображения от суммы градиентов яркости Gэ точек градиентного изображения в окне с объектом сопровождения, Сn - критерий удаленности центра окна анализируемого изображения от центра зоны анализа, принимают за координаты центра нового окна с объектом сопровождения координаты центра окна, в котором значение критерия Кn имеет наибольшее значение, совмещают центр зоны анализа с центром нового окна с объектом сопровождения, после чего переходят к обработке следующего кадра телевизионного изображения, начиная с операции вычисления корреляционной функции F(α,β).
2. Способ по п. 1, отличающийся тем, что за координаты нулевых отсчетов по осям i и j принимают координаты одного из углов зоны анализа, а оси i и j совмещают с граничными линиями зоны анализа.
3. Способ по п. 2, отличающийся тем, что критерий Вn вычисляют по формуле
Figure 00000023
где IM, JM - размеры окна с объектом сопровождения по осям i и j; IZ,JZ - размеры зоны анализа по осям i и j.
4. Способ по п. 2, отличающийся тем, что критерий Сn вычисляют по формуле
Figure 00000024
где IZ, JZ - размеры зоны анализа по осям i и j.
5. Способ по п. 2, отличающийся тем, что корреляционную функцию F(α,β) вычисляют как разностную корреляционную функцию по следующей формуле:
Figure 00000025
где IM, JM - размеры окна с объектом сопровождения по осям i и j; IZ, JZ - размеры зоны анализа по осям i и j.
6. Способ по п. 5, отличающийся тем, что критерий Аn вычисляют по формуле
Figure 00000026
где Fn - значение функции F(α,β) в точке с координатами (in, jn); Fmax и Fmin - максимальное и минимальное значения функции F(α,β) в зоне анализа.
7. Способ по п. 2, отличающийся тем, что корреляционную функцию F(α,β) вычисляют как классическую корреляционную функцию по следующей формуле:
Figure 00000027
где IМ, JМ - размеры окна с объектом сопровождения по осям i и j; IZ, JZ - размеры зоны анализа по осям i и j.
8. Способ по п. 7, отличающийся тем, что критерий Аn вычисляют по формуле
Figure 00000028
где Fn - значение функции F(α,β) в точке с координатами (in, jn); Fmax и Fmin - максимальное и минимальное значения функции F(α,β) в зоне анализа.
9. Способ по п. 1, отличающийся тем, что перед операцией вычисления корреляционной функции F(α,β) выполняют предварительную обработку оцифрованного телевизионного изображения посредством низкочастотной фильтрации.
10. Способ по п. 1, отличающийся тем, что после операции совмещения центра зоны анализа с центром нового окна с объектом сопровождения производят обновление изображения в окне с объектом сопровождения посредством экспоненциальной фильтрации.
RU2022113035A 2022-05-13 Способ сопровождения объектов RU2796096C1 (ru)

Publications (1)

Publication Number Publication Date
RU2796096C1 true RU2796096C1 (ru) 2023-05-17

Family

ID=

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2153235C2 (ru) * 1991-01-25 2000-07-20 Московский научно-исследовательский телевизионный институт Способ слежения за объектом и устройство для его осуществления
RU2173881C2 (ru) * 1999-06-25 2001-09-20 Центральный научно-исследовательский институт точного машиностроения Способ селекции наземных и воздушных объектов (его варианты) и устройство для его осуществления (его варианты)
CN103577833A (zh) * 2012-08-01 2014-02-12 复旦大学 基于运动模板的异常闯入检测方法
RU2589301C1 (ru) * 2015-07-21 2016-07-10 Максим Александрович Пантюхин Способ помехоустойчивого градиентного выделения контуров объектов на цифровых изображениях
WO2017170876A1 (ja) * 2016-03-30 2017-10-05 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム
CN104036250B (zh) * 2014-06-16 2017-11-10 上海大学 视频行人检测与跟踪方法
RU2716005C2 (ru) * 2018-06-29 2020-03-05 Закрытое акционерное общество "МНИТИ" (ЗАО "МНИТИ") Способ видеосопровождения с улучшенными динамическими характеристиками и устройство для его осуществления
RU2748763C1 (ru) * 2020-08-31 2021-05-31 Владимир Юрьевич Лупанчук Способ обнаружения и автосопровождения объектов целеуказания оптико-электронной системой беспилотного летательного аппарата

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2153235C2 (ru) * 1991-01-25 2000-07-20 Московский научно-исследовательский телевизионный институт Способ слежения за объектом и устройство для его осуществления
RU2173881C2 (ru) * 1999-06-25 2001-09-20 Центральный научно-исследовательский институт точного машиностроения Способ селекции наземных и воздушных объектов (его варианты) и устройство для его осуществления (его варианты)
CN103577833A (zh) * 2012-08-01 2014-02-12 复旦大学 基于运动模板的异常闯入检测方法
CN104036250B (zh) * 2014-06-16 2017-11-10 上海大学 视频行人检测与跟踪方法
RU2589301C1 (ru) * 2015-07-21 2016-07-10 Максим Александрович Пантюхин Способ помехоустойчивого градиентного выделения контуров объектов на цифровых изображениях
WO2017170876A1 (ja) * 2016-03-30 2017-10-05 株式会社エクォス・リサーチ 画像認識装置、移動体装置、及び画像認識プログラム
RU2716005C2 (ru) * 2018-06-29 2020-03-05 Закрытое акционерное общество "МНИТИ" (ЗАО "МНИТИ") Способ видеосопровождения с улучшенными динамическими характеристиками и устройство для его осуществления
RU2748763C1 (ru) * 2020-08-31 2021-05-31 Владимир Юрьевич Лупанчук Способ обнаружения и автосопровождения объектов целеуказания оптико-электронной системой беспилотного летательного аппарата

Similar Documents

Publication Publication Date Title
CN109410230B (zh) 一种可抗噪声的改进Canny图像边缘检测方法
CN110349207B (zh) 一种复杂环境下的视觉定位方法
CN108416789A (zh) 图像边缘检测方法及系统
CN106204570B (zh) 一种基于非因果分数阶梯度算子的角点检测方法
CN106599783B (zh) 一种视频遮挡检测方法及装置
CN108550145B (zh) 一种sar图像质量评估方法和装置
CN111462027B (zh) 基于多尺度梯度和抠图的多聚焦图像融合方法
KR101586452B1 (ko) 거리 적응적 탐지 문턱값 적용에 의한 적외선 해상 표적 탐지장치 구현 방법
CN109598736B (zh) 深度图像与彩色图像的配准方法及装置
CN110490904A (zh) 一种弱小目标检测与跟踪方法
CN108647693B (zh) 一种基于二元显著性特征的海面红外目标检测方法
JP2022551366A (ja) カメラストリームのためのマスクを生成する方法、コンピュータープログラム製品およびコンピューター可読媒体
CN108510510A (zh) 基于梯度方向的图像边缘检测方法
CN111161308A (zh) 一种基于关键点匹配的双波段融合目标提取方法
Saxena et al. Comparative analysis between different edge detection techniques on mammogram images using PSNR and MSE
RU2796096C1 (ru) Способ сопровождения объектов
CN117372827A (zh) 一种基于边界约束的声呐图像统计增强算法
Chang et al. Small retinal vessel extraction using modified Canny edge detection
Rana et al. Review on traditional methods of edge detection to morphological based techniques
CN110349110B (zh) 一种基于累帧过融合的模糊图像增强方法及应用
CN114004862A (zh) 一种长波红外弱小目标检测识别方法
CN110782405B (zh) 一种基于梯度辨识的点目标和暗斑图像背景均衡方法
CN114331923B (zh) 一种基于改进Canny算法的冰结构中气泡轮廓提取方法
CN115294478B (zh) 一种应用于现代光电平台的空中无人机目标检测方法
Nema et al. Edge detection operators on digital image