RU2081436C1 - Способ селекции объекта - Google Patents

Способ селекции объекта Download PDF

Info

Publication number
RU2081436C1
RU2081436C1 SU3102155A RU2081436C1 RU 2081436 C1 RU2081436 C1 RU 2081436C1 SU 3102155 A SU3102155 A SU 3102155A RU 2081436 C1 RU2081436 C1 RU 2081436C1
Authority
RU
Russia
Prior art keywords
image
images
background
selector
selection
Prior art date
Application number
Other languages
English (en)
Inventor
А.А. Ипатьев
В.А. Кочкин
Б.А. Курицын
Ю.Ф. Кутаев
Б.В. Полетаев
Г.Н. Ставраков
Original Assignee
Товарищество с ограниченной ответственностью "Астрам"
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Товарищество с ограниченной ответственностью "Астрам" filed Critical Товарищество с ограниченной ответственностью "Астрам"
Priority to SU3102155 priority Critical patent/RU2081436C1/ru
Application granted granted Critical
Publication of RU2081436C1 publication Critical patent/RU2081436C1/ru

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

Изобретение относится к локации, в частности, к пассивным способам селекции космических объектов на сложном неоднородном фоне. Целью изобретения является повышение точности селекции. Поставленная цель достигается тем, что в способе селекции объекта, заключающемся в примере излучения от объекта и фона в моменты времени τ1 и τ2, вычитании формированных изображений, селекции объекта по результирующему изображению, дополнительно регистрируют изображение объекта и фона в момент времени τ3,, причем τ3> τ1, τ2, формируют второе разностное изображение путем вычитания второго и дополнительно зарегистрированного в момент времени τ3 изображений, преобразуют первое и второе разностные изображения в двуградационные, совмещают первое и второе преобразованные разностные изображения и выделяют первое селекторное поле, как область первого разностного изображения, не совпадающую со вторым разностным изображением, выделяют второе селекторное поле, как общую область первого и второго разностного изображения, выделяют третье селекторное поле, как область второго разностного изображения, не совпадающую со вторым селекторным полем, выделяют из первого и из дополнительно зарегистрированного в момент времени τ3 изображений фрагменты, соответствующие первому, второму и третьему селекторным полям, суммируют их и выделяют изображение объекта, 3 ил.

Description

Изобретение относится к локации, в частности к пассивным способам селекции космических объектов на сложном неоднородном фоне.
Известен способ обнаружения движущейся цели, заключающийся в приеме отраженных сигналов с помощью двух антенн, разнесенных на заданное число длин волн, и обработке этих сигналов при помощи решетки ячеек дальности и допплеровских ячеек, с целью компенсации отраженных от фона сигналов.
К недостаткам этого способа следует отнести практическую нереализуемость его при функционировании в оптическом диапазоне, связанную с малой величиной длины волн и трудностью выдерживания расстояния между антеннами с заданной точностью, а так же сложность функционирования и невозможность работы в пассивном режиме.
Известен способ селекции объекта, заключающийся в приеме излучения от объекта и фона, регистрации первого и второго изображений объекта и фона в моменты времени τ1 и τ2, вычитание сформированных изображений и селекции объекта по результирующему изображению.
Недостатком этого способа является низкая точность селекции объекта.
Целью изобретения является повышение точности селекции объекта.
Поставленная цель достигается тем, что в способе селекции объекта, заключающемся в приеме излучения от объекта и фона, регистрации первого и второго изображений объекта и фона в моменты времени τ1 и τ2, вычитании сформированных изображений и селекции объекта по результирующему изображению, дополнительно регистрируют изображение объекта в момент времени τ3, причем τ3> τ1, τ2 формируют второе разностное изображение путем вычитания второго и дополнительно зарегистрированного в момент времени τ3 изображений, преобразуют первое и второе разностные изображения в двуградационные, совмещают первое и второе преобразованные разностные изображения и выделяют первое селекторное поле, как область первого разностного изображения, не совпадающую со вторым разностным изображением, выделяют второе селекторное поле, как общую область первого и второго разностного изображения, выделяют третье селекторное поле, как область второго разностного изображения, не совпадающую со вторым селекторным полем, выделяют из первого и из дополнительно зарегистрированного в момент времени τ3 изображений фрагменты, соответствующие первому, второму и третьему селекторным полям, суммируют их и выделяют изображение объекта.
На фиг. 1 изображена функциональная схема устройства, реализующего способ селекции объема; на фиг. 2 рисунки, графически показывающие вид зарегистрированных изображений и ход обработки этих изображений /для упрощения на фиг. 2 представлено двуградационное изображение объекта и фона/; на фиг. 3 функциональная схема блока выделения изображения объекта и первое, второе зарегистрированные изображения и дополнительное селекторное поле.
Устройство селекции объекта содержит блок 1 приема изображения, блок 2 регистрации изображений, блоки 3 вычитания изображений, блоки 4 преобразования разностных изображений, блок 5 выделения селекторных полей, блоки 6 выделения фрагментов, блок 7 выделения изображения объекта и блок 8 синхронизации.
Излучение от объекта и фона принимают блоком 1 приема излучения, реализованным, например, на основе телескопа, с задней фокальной плоскостью которого совмещена чувствительная площадка блока 2 регистрации изображений 2. Блок 1 приема излучения обеспечивает получение суммарного изображения объекта и фона на чувствительной площадке блока 2 регистрации изображений, реализованного, например, на базе пространственно-временных модуляторов света. В блоке 2 регистрации изображений осуществляют регистрацию изображений объекта и фона Ф1, Ф2 и Ф3 в моменты времени τ1, τ2 и τ3 соответственно по сигналам блока 8 синхронизации, получая соответственно первое /Ф1/, второе /Ф2/ и дополнительное /Ф3/ зарегистрированные изображения объекта и фона /см. соответственно фиг. 2, а, б, в/.
При этом:
Fi изображение объекта,
Figure 00000002
изображение объекта на i-ом зарегистрированном изображении, несовпадающее по яркости с яркостью фона,
Figure 00000003
изображение объекта на i-ом зарегистрированном изображении, совпадающее по яркости с яркостью фона,
i номер зарегистрированного изображения, где i 3 соответствует дополнительному зарегистрированному изображению,
Ni изображение фона на i-ом зарегистрированном изображении, совпадающее с изображением объекта Ф,
Figure 00000004
изображение фона на i-ом зарегистрированном изображении, не совпадающее по яркости с яркостью изображения объекта,
Figure 00000005
изображение фона на i-ом зарегистрированном изображении, совпадающее по яркости с яркостью изображения объекта;
N изображение фона, не совпадающее с изображением объекта на всех зарегистрированных изображениях.
В принятых обозначениях можно описать зарегистрированные изображения следующим образом:
Figure 00000006

где
Figure 00000007
.
Зарегистрированные изображения поступают на блоки 3 вычитания изображений, в которых формируют первое ΔΦ12 и второе ΔΦ23 разностные изображения:
Figure 00000008

Аналогично
Figure 00000009

Полученные разностные изображения /ΔΦ12 и ΔΦ23/, показанные на фиг. 2 г, д соответственно, преобразуют в блоках 4 преобразования разностных изображений в двуградационные изображения ΔΦ ° 12 и ΔΦ ° 23 , причем для i-ой точки которых выполняется условие:
Figure 00000010
,
где
Φпор пороговое значение яркости изображений.
Полученные двуградационные разностные изображения поступают на блок 5 выделения селекторных полей. В блоке 5 выделения селекторных полей выделяют каждую j-ую точку первого S1, второго S2 и третьего S3 селекторных полей по следующим законам:
Figure 00000011

где
знак логического умножения,
знак логического отрицания.
Вид селекторных полей показан на фиг. 2, е. Сигналы, соответствующие селекторным полям S1, S2, и S3 поступают на блоки 6 выделения фрагмента, реализованные, например, на базе электрически управляющих оптических диафрагм, область прозрачности которых соответствует соответствующим селекторным полям. В блоках 6 выделения фрагментов при подаче соответствующих зарегистрированных изображений выделяют фрагменты изображения объекта
Figure 00000012
соответственно, выделенные фрагменты изображений
Figure 00000013
поступают на блок 7 выделения изображения объекта, где происходит суммирование фрагментов изображений объекта и получение изображения селектируемого объекта F как
Figure 00000014
.
Блок выделения изображения объекта 7 представляет собой, например, когерентный оптический коррелятор с одновременным преобразованием /см. фиг. 3а/, на первый вход /1/ которого поступает одно из зарегистрированных изображений /например, первое/, а на второй /II/ фрагменты изображений, соответствующее первому, второму и третьему селекторным полям.
Пусть центр фрагмента, соответствующего i-ому селекторному полю Si/i= 1,2,3/ имеет координаты Xi, vi, зарегистрированное изображение и выделенные фрагменты разнесены по оси /см. фиг. 3б/ на расстояние Х. Для упрощения фон на фиг. 3,б не показан/.
Координаты точек на первом зарегистрированном изображении, соответствующие центрам фрагментов обозначим Xi, Yi, а обозначения выделенных фрагментов заменим следующим образом.
Figure 00000015

На выходе коррелятора имеет распределение поля
Figure 00000016

Выделяя лишь смещенные автокорреляционные функции в /1/. имеем:
Figure 00000017
,
где
⊗ знак операции корреляции.
Figure 00000018
знак операции свертки.
Величина Xi + Xi соответствует /см. фиг. 3б/ разности положений i-го фрагмента на первом i-ом зарегистрированном изображении.
Таким образом, полученные значения координат корреляционных пиков /2х, 0/, /2Х+X2+X2,y2-Y2), (2X+X3+X3,y3-Y3) позволяет получить требуемую величину смещения селекторных полей.
Далее формируют дополнительное селекторное поле S путем объединения смещенных селекторных полей, т. е. S= S1∪S c 2 ∪S c 3 , где S c 2 и S c 3 смещенные селекторные поля.
Очевидно, что конфигурация и расположение дополнительного селекторного поля /фиг.3в/ однозначно соответствует положению изображения объекта на первом зарегистрированном изображении /см. фиг. 2а/.
Таким образом, выделяя из первого зарегистрированного изображения область, соответствующую дополнительному селекторному полю, можно получить, неискаженное изображение селектируемого объекта.

Claims (1)

  1. Способ селекции объекта, заключающийся в приеме излучения от объекта и фона, регистрации первого и второго изображений объекта и фона в моменты времени τ1 и τ2, вычитании сформированных изображений, селекции объекта по результирующему изображению, отличающийся тем, что, с целью повышения точности селекции, дополнительно регистрируют изображение объекта и фона в момент времени τ3, причем τ3> τ1, τ2, формируют второе разностное изображение путем вычитания второго и дополнительно зарегистрированного в момент времени τ3 изображений, преобразуют первое и второе разностные изображения в двухградационные, совмещают первое и второе преобразованные разностные изображения и выделяют первое селекторное поле, как область первого разностного изображения, не совпадающую со вторым разностным изображением, выделяют второе селекторное поле, как общую область первого и второго разностного изображения, выделяют третье селекторное поле, как область второго разностного изображения, не совпадающую со вторым селекторным полем, выделяют из первого и из дополнительно зарегистрированного в момент времени τ3 изображений фрагменты, соответствующие первому, второму и третьему селекторным полям, суммируют их и выделяют изображение объекта.
SU3102155 1984-11-19 1984-11-19 Способ селекции объекта RU2081436C1 (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
SU3102155 RU2081436C1 (ru) 1984-11-19 1984-11-19 Способ селекции объекта

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
SU3102155 RU2081436C1 (ru) 1984-11-19 1984-11-19 Способ селекции объекта

Publications (1)

Publication Number Publication Date
RU2081436C1 true RU2081436C1 (ru) 1997-06-10

Family

ID=20928487

Family Applications (1)

Application Number Title Priority Date Filing Date
SU3102155 RU2081436C1 (ru) 1984-11-19 1984-11-19 Способ селекции объекта

Country Status (1)

Country Link
RU (1) RU2081436C1 (ru)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2498346C1 (ru) * 2012-04-17 2013-11-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Московский авиационный институт (национальный исследовательский университет") (МАИ) Способ обнаружения подвижного объекта
RU2734655C1 (ru) * 2020-03-17 2020-10-21 федеральное государственное бюджетное образовательное учреждение высшего образования "Новгородский государственный университет имени Ярослава Мудрого" Способ селекции изображения объекта на неоднородном фоне

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Молебный В.В. Оптико-локационные системы.- М.: Машиностроение, 1981. Достижения в технике передачи и воспроизведения изображений. /Под ред. Б.Кейзана. - М.: Мир, т.1, 1980, с. 292, 294, рис. 22, 23. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2498346C1 (ru) * 2012-04-17 2013-11-10 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Московский авиационный институт (национальный исследовательский университет") (МАИ) Способ обнаружения подвижного объекта
RU2734655C1 (ru) * 2020-03-17 2020-10-21 федеральное государственное бюджетное образовательное учреждение высшего образования "Новгородский государственный университет имени Ярослава Мудрого" Способ селекции изображения объекта на неоднородном фоне

Similar Documents

Publication Publication Date Title
EP2594959B1 (en) System and method for multi TOF camera operation using phase hopping
US4277167A (en) Depth mapping system
US4994809A (en) Polystatic correlating radar
US8605147B2 (en) Device for recording images of an object scene
US20090091738A1 (en) Surface profile measurement
US3746454A (en) Infrared receiver for optical radar
US4226529A (en) Viewing systems
HU227654B1 (en) Method and device for determining the phase- and/or amplitude data of an electromagnetic wave
WO1997018487A1 (en) Imaging lidar system with strip-shaped photocathode and confocal-reflection
CN106646510B (zh) 一种基于光子标记的首光子激光成像系统
EP0830013A2 (en) Focal plane array calibration method
US4339176A (en) Holographic space-variant system for evaluating the ambiguity integral
RU2081436C1 (ru) Способ селекции объекта
US4727259A (en) Monolithic area array with shutter operable to only transmit light between the minimum and maximum ranges for laser rangefinding
US5096293A (en) Differential fluorescence lidar and associated detection method
US4925274A (en) Correlation techniques
CN103913234A (zh) 基于多级微反射镜的傅里叶变换红外成像光谱仪
CA2237894C (en) Confocal-reflection streak lidar apparatus with strip-shaped photocathode, for application at a wide range of scales
US20210055419A1 (en) Depth sensor with interlaced sampling structure
RU2349929C2 (ru) Устройство для обнаружения оптических и оптоэлектронных приборов
US11921217B2 (en) Method and device for the dynamic extension of a time-of-flight camera system
RU2183841C1 (ru) Способ лазерной локации и лазерное локационное устройство для его осуществления
US4223270A (en) Multiplexed CCD pulse width discriminator
US5898791A (en) Spinning focal plane array camera particularly suited for real time pattern recognition
US20200067603A1 (en) Heterodyne starring array active imager