RU2081436C1 - Способ селекции объекта - Google Patents
Способ селекции объекта Download PDFInfo
- Publication number
- RU2081436C1 RU2081436C1 SU3102155A RU2081436C1 RU 2081436 C1 RU2081436 C1 RU 2081436C1 SU 3102155 A SU3102155 A SU 3102155A RU 2081436 C1 RU2081436 C1 RU 2081436C1
- Authority
- RU
- Russia
- Prior art keywords
- image
- images
- background
- selector
- selection
- Prior art date
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
Изобретение относится к локации, в частности, к пассивным способам селекции космических объектов на сложном неоднородном фоне. Целью изобретения является повышение точности селекции. Поставленная цель достигается тем, что в способе селекции объекта, заключающемся в примере излучения от объекта и фона в моменты времени τ1 и τ2, вычитании формированных изображений, селекции объекта по результирующему изображению, дополнительно регистрируют изображение объекта и фона в момент времени τ3,, причем τ3> τ1, τ2, формируют второе разностное изображение путем вычитания второго и дополнительно зарегистрированного в момент времени τ3 изображений, преобразуют первое и второе разностные изображения в двуградационные, совмещают первое и второе преобразованные разностные изображения и выделяют первое селекторное поле, как область первого разностного изображения, не совпадающую со вторым разностным изображением, выделяют второе селекторное поле, как общую область первого и второго разностного изображения, выделяют третье селекторное поле, как область второго разностного изображения, не совпадающую со вторым селекторным полем, выделяют из первого и из дополнительно зарегистрированного в момент времени τ3 изображений фрагменты, соответствующие первому, второму и третьему селекторным полям, суммируют их и выделяют изображение объекта, 3 ил.
Description
Изобретение относится к локации, в частности к пассивным способам селекции космических объектов на сложном неоднородном фоне.
Известен способ обнаружения движущейся цели, заключающийся в приеме отраженных сигналов с помощью двух антенн, разнесенных на заданное число длин волн, и обработке этих сигналов при помощи решетки ячеек дальности и допплеровских ячеек, с целью компенсации отраженных от фона сигналов.
К недостаткам этого способа следует отнести практическую нереализуемость его при функционировании в оптическом диапазоне, связанную с малой величиной длины волн и трудностью выдерживания расстояния между антеннами с заданной точностью, а так же сложность функционирования и невозможность работы в пассивном режиме.
Известен способ селекции объекта, заключающийся в приеме излучения от объекта и фона, регистрации первого и второго изображений объекта и фона в моменты времени τ1 и τ2, вычитание сформированных изображений и селекции объекта по результирующему изображению.
Недостатком этого способа является низкая точность селекции объекта.
Целью изобретения является повышение точности селекции объекта.
Поставленная цель достигается тем, что в способе селекции объекта, заключающемся в приеме излучения от объекта и фона, регистрации первого и второго изображений объекта и фона в моменты времени τ1 и τ2, вычитании сформированных изображений и селекции объекта по результирующему изображению, дополнительно регистрируют изображение объекта в момент времени τ3, причем τ3> τ1, τ2 формируют второе разностное изображение путем вычитания второго и дополнительно зарегистрированного в момент времени τ3 изображений, преобразуют первое и второе разностные изображения в двуградационные, совмещают первое и второе преобразованные разностные изображения и выделяют первое селекторное поле, как область первого разностного изображения, не совпадающую со вторым разностным изображением, выделяют второе селекторное поле, как общую область первого и второго разностного изображения, выделяют третье селекторное поле, как область второго разностного изображения, не совпадающую со вторым селекторным полем, выделяют из первого и из дополнительно зарегистрированного в момент времени τ3 изображений фрагменты, соответствующие первому, второму и третьему селекторным полям, суммируют их и выделяют изображение объекта.
На фиг. 1 изображена функциональная схема устройства, реализующего способ селекции объема; на фиг. 2 рисунки, графически показывающие вид зарегистрированных изображений и ход обработки этих изображений /для упрощения на фиг. 2 представлено двуградационное изображение объекта и фона/; на фиг. 3 функциональная схема блока выделения изображения объекта и первое, второе зарегистрированные изображения и дополнительное селекторное поле.
Устройство селекции объекта содержит блок 1 приема изображения, блок 2 регистрации изображений, блоки 3 вычитания изображений, блоки 4 преобразования разностных изображений, блок 5 выделения селекторных полей, блоки 6 выделения фрагментов, блок 7 выделения изображения объекта и блок 8 синхронизации.
Излучение от объекта и фона принимают блоком 1 приема излучения, реализованным, например, на основе телескопа, с задней фокальной плоскостью которого совмещена чувствительная площадка блока 2 регистрации изображений 2. Блок 1 приема излучения обеспечивает получение суммарного изображения объекта и фона на чувствительной площадке блока 2 регистрации изображений, реализованного, например, на базе пространственно-временных модуляторов света. В блоке 2 регистрации изображений осуществляют регистрацию изображений объекта и фона Ф1, Ф2 и Ф3 в моменты времени τ1, τ2 и τ3 соответственно по сигналам блока 8 синхронизации, получая соответственно первое /Ф1/, второе /Ф2/ и дополнительное /Ф3/ зарегистрированные изображения объекта и фона /см. соответственно фиг. 2, а, б, в/.
При этом:
Fi изображение объекта,
изображение объекта на i-ом зарегистрированном изображении, несовпадающее по яркости с яркостью фона,
изображение объекта на i-ом зарегистрированном изображении, совпадающее по яркости с яркостью фона,
i номер зарегистрированного изображения, где i 3 соответствует дополнительному зарегистрированному изображению,
Ni изображение фона на i-ом зарегистрированном изображении, совпадающее с изображением объекта Ф,
изображение фона на i-ом зарегистрированном изображении, не совпадающее по яркости с яркостью изображения объекта,
изображение фона на i-ом зарегистрированном изображении, совпадающее по яркости с яркостью изображения объекта;
N изображение фона, не совпадающее с изображением объекта на всех зарегистрированных изображениях.
Fi изображение объекта,
изображение объекта на i-ом зарегистрированном изображении, несовпадающее по яркости с яркостью фона,
изображение объекта на i-ом зарегистрированном изображении, совпадающее по яркости с яркостью фона,
i номер зарегистрированного изображения, где i 3 соответствует дополнительному зарегистрированному изображению,
Ni изображение фона на i-ом зарегистрированном изображении, совпадающее с изображением объекта Ф,
изображение фона на i-ом зарегистрированном изображении, не совпадающее по яркости с яркостью изображения объекта,
изображение фона на i-ом зарегистрированном изображении, совпадающее по яркости с яркостью изображения объекта;
N изображение фона, не совпадающее с изображением объекта на всех зарегистрированных изображениях.
Зарегистрированные изображения поступают на блоки 3 вычитания изображений, в которых формируют первое ΔΦ12 и второе ΔΦ23 разностные изображения:
Аналогично
Полученные разностные изображения /ΔΦ12 и ΔΦ23/, показанные на фиг. 2 г, д соответственно, преобразуют в блоках 4 преобразования разностных изображений в двуградационные изображения ΔΦ и ΔΦ , причем для i-ой точки которых выполняется условие:
,
где
Φпор пороговое значение яркости изображений.
Аналогично
Полученные разностные изображения /ΔΦ12 и ΔΦ23/, показанные на фиг. 2 г, д соответственно, преобразуют в блоках 4 преобразования разностных изображений в двуградационные изображения ΔΦ
,
где
Φпор пороговое значение яркости изображений.
Полученные двуградационные разностные изображения поступают на блок 5 выделения селекторных полей. В блоке 5 выделения селекторных полей выделяют каждую j-ую точку первого S1, второго S2 и третьего S3 селекторных полей по следующим законам:
где
знак логического умножения,
знак логического отрицания.
где
знак логического умножения,
знак логического отрицания.
Вид селекторных полей показан на фиг. 2, е. Сигналы, соответствующие селекторным полям S1, S2, и S3 поступают на блоки 6 выделения фрагмента, реализованные, например, на базе электрически управляющих оптических диафрагм, область прозрачности которых соответствует соответствующим селекторным полям. В блоках 6 выделения фрагментов при подаче соответствующих зарегистрированных изображений выделяют фрагменты изображения объекта соответственно, выделенные фрагменты изображений поступают на блок 7 выделения изображения объекта, где происходит суммирование фрагментов изображений объекта и получение изображения селектируемого объекта F как .
Блок выделения изображения объекта 7 представляет собой, например, когерентный оптический коррелятор с одновременным преобразованием /см. фиг. 3а/, на первый вход /1/ которого поступает одно из зарегистрированных изображений /например, первое/, а на второй /II/ фрагменты изображений, соответствующее первому, второму и третьему селекторным полям.
Пусть центр фрагмента, соответствующего i-ому селекторному полю Si/i= 1,2,3/ имеет координаты Xi, vi, зарегистрированное изображение и выделенные фрагменты разнесены по оси /см. фиг. 3б/ на расстояние Х. Для упрощения фон на фиг. 3,б не показан/.
Координаты точек на первом зарегистрированном изображении, соответствующие центрам фрагментов обозначим Xi, Yi, а обозначения выделенных фрагментов заменим следующим образом.
На выходе коррелятора имеет распределение поля
Выделяя лишь смещенные автокорреляционные функции в /1/. имеем:
,
где
⊗ знак операции корреляции.
Величина Xi + Xi соответствует /см. фиг. 3б/ разности положений i-го фрагмента на первом i-ом зарегистрированном изображении.
Таким образом, полученные значения координат корреляционных пиков /2х, 0/, /2Х+X2+X2,y2-Y2), (2X+X3+X3,y3-Y3) позволяет получить требуемую величину смещения селекторных полей.
Далее формируют дополнительное селекторное поле S путем объединения смещенных селекторных полей, т. е. S= S1∪S ∪S , где S и S смещенные селекторные поля.
Очевидно, что конфигурация и расположение дополнительного селекторного поля /фиг.3в/ однозначно соответствует положению изображения объекта на первом зарегистрированном изображении /см. фиг. 2а/.
Таким образом, выделяя из первого зарегистрированного изображения область, соответствующую дополнительному селекторному полю, можно получить, неискаженное изображение селектируемого объекта.
Claims (1)
- Способ селекции объекта, заключающийся в приеме излучения от объекта и фона, регистрации первого и второго изображений объекта и фона в моменты времени τ1 и τ2, вычитании сформированных изображений, селекции объекта по результирующему изображению, отличающийся тем, что, с целью повышения точности селекции, дополнительно регистрируют изображение объекта и фона в момент времени τ3, причем τ3> τ1, τ2, формируют второе разностное изображение путем вычитания второго и дополнительно зарегистрированного в момент времени τ3 изображений, преобразуют первое и второе разностные изображения в двухградационные, совмещают первое и второе преобразованные разностные изображения и выделяют первое селекторное поле, как область первого разностного изображения, не совпадающую со вторым разностным изображением, выделяют второе селекторное поле, как общую область первого и второго разностного изображения, выделяют третье селекторное поле, как область второго разностного изображения, не совпадающую со вторым селекторным полем, выделяют из первого и из дополнительно зарегистрированного в момент времени τ3 изображений фрагменты, соответствующие первому, второму и третьему селекторным полям, суммируют их и выделяют изображение объекта.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SU3102155 RU2081436C1 (ru) | 1984-11-19 | 1984-11-19 | Способ селекции объекта |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
SU3102155 RU2081436C1 (ru) | 1984-11-19 | 1984-11-19 | Способ селекции объекта |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2081436C1 true RU2081436C1 (ru) | 1997-06-10 |
Family
ID=20928487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SU3102155 RU2081436C1 (ru) | 1984-11-19 | 1984-11-19 | Способ селекции объекта |
Country Status (1)
Country | Link |
---|---|
RU (1) | RU2081436C1 (ru) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2498346C1 (ru) * | 2012-04-17 | 2013-11-10 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Московский авиационный институт (национальный исследовательский университет") (МАИ) | Способ обнаружения подвижного объекта |
RU2734655C1 (ru) * | 2020-03-17 | 2020-10-21 | федеральное государственное бюджетное образовательное учреждение высшего образования "Новгородский государственный университет имени Ярослава Мудрого" | Способ селекции изображения объекта на неоднородном фоне |
-
1984
- 1984-11-19 RU SU3102155 patent/RU2081436C1/ru active
Non-Patent Citations (1)
Title |
---|
Молебный В.В. Оптико-локационные системы.- М.: Машиностроение, 1981. Достижения в технике передачи и воспроизведения изображений. /Под ред. Б.Кейзана. - М.: Мир, т.1, 1980, с. 292, 294, рис. 22, 23. * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2498346C1 (ru) * | 2012-04-17 | 2013-11-10 | Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Московский авиационный институт (национальный исследовательский университет") (МАИ) | Способ обнаружения подвижного объекта |
RU2734655C1 (ru) * | 2020-03-17 | 2020-10-21 | федеральное государственное бюджетное образовательное учреждение высшего образования "Новгородский государственный университет имени Ярослава Мудрого" | Способ селекции изображения объекта на неоднородном фоне |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2594959B1 (en) | System and method for multi TOF camera operation using phase hopping | |
US4277167A (en) | Depth mapping system | |
US4994809A (en) | Polystatic correlating radar | |
US8605147B2 (en) | Device for recording images of an object scene | |
US20090091738A1 (en) | Surface profile measurement | |
US3746454A (en) | Infrared receiver for optical radar | |
US4226529A (en) | Viewing systems | |
HU227654B1 (en) | Method and device for determining the phase- and/or amplitude data of an electromagnetic wave | |
WO1997018487A1 (en) | Imaging lidar system with strip-shaped photocathode and confocal-reflection | |
CN106646510B (zh) | 一种基于光子标记的首光子激光成像系统 | |
EP0830013A2 (en) | Focal plane array calibration method | |
US4339176A (en) | Holographic space-variant system for evaluating the ambiguity integral | |
RU2081436C1 (ru) | Способ селекции объекта | |
US4727259A (en) | Monolithic area array with shutter operable to only transmit light between the minimum and maximum ranges for laser rangefinding | |
US5096293A (en) | Differential fluorescence lidar and associated detection method | |
US4925274A (en) | Correlation techniques | |
CN103913234A (zh) | 基于多级微反射镜的傅里叶变换红外成像光谱仪 | |
CA2237894C (en) | Confocal-reflection streak lidar apparatus with strip-shaped photocathode, for application at a wide range of scales | |
US20210055419A1 (en) | Depth sensor with interlaced sampling structure | |
RU2349929C2 (ru) | Устройство для обнаружения оптических и оптоэлектронных приборов | |
US11921217B2 (en) | Method and device for the dynamic extension of a time-of-flight camera system | |
RU2183841C1 (ru) | Способ лазерной локации и лазерное локационное устройство для его осуществления | |
US4223270A (en) | Multiplexed CCD pulse width discriminator | |
US5898791A (en) | Spinning focal plane array camera particularly suited for real time pattern recognition | |
US20200067603A1 (en) | Heterodyne starring array active imager |