RU2552123C2 - Method of selecting objects on remote background - Google Patents

Method of selecting objects on remote background Download PDF

Info

Publication number
RU2552123C2
RU2552123C2 RU2013147224/28A RU2013147224A RU2552123C2 RU 2552123 C2 RU2552123 C2 RU 2552123C2 RU 2013147224/28 A RU2013147224/28 A RU 2013147224/28A RU 2013147224 A RU2013147224 A RU 2013147224A RU 2552123 C2 RU2552123 C2 RU 2552123C2
Authority
RU
Russia
Prior art keywords
images
objects
image
compared
distance
Prior art date
Application number
RU2013147224/28A
Other languages
Russian (ru)
Other versions
RU2013147224A (en
Inventor
Владимир Аминович Подгорнов
Семён Владимирович Подгорнов
Original Assignee
Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр-Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина")
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр-Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина") filed Critical Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр-Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ им. академ. Е.И. Забабахина")
Priority to RU2013147224/28A priority Critical patent/RU2552123C2/en
Publication of RU2013147224A publication Critical patent/RU2013147224A/en
Application granted granted Critical
Publication of RU2552123C2 publication Critical patent/RU2552123C2/en

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

FIELD: physics, optics.
SUBSTANCE: method relates to optical stereoscopic methods of locating an object in surrounding space. The method includes receiving and recording reference and compared images with two identical optical systems; generating differential images by subtracting the compared image from the reference image and the reference image from the compared image; nulling negative values in the differential images; and determining the distance to the object based on the shift between non-zero fragments of the differential images; wherein the distance between the recording points of each pair of the reference and compared images is successively reduced when objects approach the optical system.
EFFECT: matching the base distance of recording stereo pair frames while optical systems move in space.
4 cl, 8 dwg

Description

Область техникиTechnical field

Изобретение относится к методам фото- и видеосъемки. Более конкретно, к оптическим стереоскопическим способам определения местонахождения объекта в окружающем пространстве, включающим определение расстояний до интересующих объектов, а также их угловых координат. Изобретение применимо, например, в автоматических системах определения местонахождения объектов в пространстве, в частности на транспорте, в качестве средства предупреждения столкновения.The invention relates to methods for photographing and filming. More specifically, to optical stereoscopic methods for determining the location of an object in the surrounding space, including determining the distances to objects of interest, as well as their angular coordinates. The invention is applicable, for example, in automatic systems for determining the location of objects in space, in particular in transport, as a means of preventing collisions.

Предшествующий уровень техникиState of the art

Известен стереоскопический способ измерения расстояний и судовой дальномер-пеленгатор, описанные в патенте РФ №2468336, опубл. 27.11.2012, G01C 3/02, G01S 17/06, автор Гузевич С.Н. В способе наводят оси наблюдений на объект, получают отображения объекта на плоскостях измерений, ортогональных оптическим осям, из центров двух идентичных оптических устройств, разнесенных на известной базе. Проводят на плоскостях измерений через точки проекций оптических осей измерительных осей координат, параллельных базе. Измеряют положения граничных точек отображений объекта от центров проекций оптических осей и вычисляют расстояния до объекта, используя размер базы как составную часть опорного параметра. Управляют размером базы и расстоянием от центров оптических устройств до плоскостей измерений, а вычисления выполняют, используя как опорный параметр произведение длины базы на расстояние от центров оптических устройств до измерительных плоскостей.Known stereoscopic method for measuring distances and ship range finder-direction finder described in the patent of the Russian Federation No. 2468336, publ. 11/27/2012, G01C 3/02, G01S 17/06, author Guzevich S.N. In the method, the observation axes are pointed at the object, the object displays on the measurement planes orthogonal to the optical axes from the centers of two identical optical devices spaced on a known base. Conducted on the measurement planes through the projection points of the optical axes of the measuring coordinate axes parallel to the base. The positions of the boundary points of the object mappings from the centers of the projections of the optical axes are measured and the distances to the object are calculated using the size of the base as an integral part of the reference parameter. The size of the base and the distance from the centers of the optical devices to the measurement planes are controlled, and the calculations are performed using the product of the base length and the distance from the centers of the optical devices to the measurement planes as a reference parameter.

Недостатком данного способа является то, что расстояние между камерами (базис) ограничено размерами основания, например корабля, на которое устанавливаются камеры. Если основание больших размеров, то регулировка базиса возможна. Если же основание мало, то необходимый базис реализовать механическим устройством подвижки камер невозможно. Кроме того, способ сложный в осуществлении. Требуется дополнительно механическая система изменения расстояния между камерами. Способ и устройство имеют недостаточное быстродействие в случае детектирования (селекции) быстроперемещающихся объектов, а также в случае использования на быстроперемещающихся объектах (кораблях).The disadvantage of this method is that the distance between the cameras (basis) is limited by the dimensions of the base, for example, the ship on which the cameras are installed. If the base is large, then adjustment of the basis is possible. If the base is small, then it is impossible to implement the necessary basis with a mechanical device for moving the cameras. In addition, the method is difficult to implement. An additional mechanical system for changing the distance between the cameras is required. The method and device have insufficient performance in the case of detection (selection) of rapidly moving objects, as well as in the case of use on fast moving objects (ships).

В качестве прототипа выбран способ селекции объектов на удаленном фоне в патенте РФ №2363018, кл. G01S 17/06, опубл. 27.07.2009, авторы Подгорнов В.А., Подгорнов С.В., Щербина А.Н. Способ заключается в приеме и формировании опорного и сравниваемого изображений двумя идентичными оптическими системами, установленными на небольшом расстоянии между собой относительно удаленного фона. У объективов параллельные главные оптические оси. Одновременно регистрируют оба изображения. Ищут фрагменты образов объектов на изображениях и ставят им в соответствие величины параллактического сдвига. Вычисляют расстояния до выявленных объектов в пространстве по формуле R=L·A/Δi, где L - расстояние между центрами объективов оптических систем, A - расстояние от фотоматрицы до главной оптической оси объектива оптической системы, Δi - величина параллактического сдвига i-го образа объекта. Данный способ позволяет с высокой точностью обнаруживать (селектировать) одиночные и множественные объекты с заранее неизвестной яркостью в условиях высококонтрастных фонов.As a prototype, a method for selecting objects on a remote background was selected in RF patent No. 2363018, class. G01S 17/06, publ. 07.27.2009, authors Podgornov V.A., Podgornov S.V., Scherbina A.N. The method consists in receiving and forming the reference and compared images by two identical optical systems installed at a small distance between themselves relative to the distant background. Lenses have parallel main optical axes. Both images are recorded simultaneously. They search for fragments of the images of objects in the images and put them in correspondence with the magnitude of the parallactic shift. The distances to the detected objects in space are calculated by the formula R = L · A / Δ i , where L is the distance between the centers of the lenses of the optical systems, A is the distance from the photomatrix to the main optical axis of the lens of the optical system, Δ i is the value of the parallactic shift of the ith image of the object. This method allows with high accuracy to detect (select) single and multiple objects with a predetermined brightness in conditions of high contrast backgrounds.

Недостатком способа является ограниченная дальность селекции объектов по дальности, так как невозможно увеличить базисное расстояние между оптическими системами в процессе их работы. Для этого требуется введение в конструкцию дополнительного механизма подвижки оптических систем. Кроме того, недостаточно точно определяются координаты сильно удаленных объектов наблюдения.The disadvantage of this method is the limited range of selection of objects in range, since it is impossible to increase the base distance between optical systems in the process of their operation. This requires the introduction of an additional mechanism for moving optical systems. In addition, the coordinates of highly distant objects of observation are not sufficiently determined.

Задача изобретения заключается в увеличении дальности селекции в окружающем пространстве объектов в процессе их наблюдения с перемещающегося основания (транспортного средства), без использования специальных дополнительных механизмов подвижки оптических систем, при одновременном сохранении точности селекции движущихся объектов.The objective of the invention is to increase the selection range in the surrounding space of objects during their observation from a moving base (vehicle), without using special additional mechanisms for moving optical systems, while maintaining the accuracy of selection of moving objects.

Технический результат заключается в увеличении базисного расстояния за счет рассинхронизации момента регистрации кадров стереопары в процессе перемещения оптических систем в пространстве. При этом в случае наблюдения перемещающихся объектов, приближающихся к оптическим системам, время рассинхронизации постепенно уменьшается.The technical result consists in increasing the base distance due to the desynchronization of the moment of registration of the frames of the stereo pair in the process of moving optical systems in space. Moreover, in the case of observing moving objects approaching optical systems, the desynchronization time gradually decreases.

Раскрытие изобретенияDisclosure of invention

Для достижения технического результата предлагается способ селекции объектов на удаленном фоне. Способ заключается в приеме и формировании опорного и сравниваемого изображений двумя идентичными оптическими системами на основе многоэлементных фотоприемников, с параллельными главными оптическими осями их объективов. Регистрируют оба изображения, формируют два разностных изображения. Первое - вычитанием сравниваемого изображения из опорного, второе - вычитанием опорного из сравниваемого. Обнуляют отрицательные значения в разностных изображениях. Ищут в направлении параллактического смещения фона величину сдвига между ненулевыми фрагментами первого разностного изображения и соответствующими им ненулевыми фрагментами второго разностного изображения до максимального их совпадения. Аналогично находят величины сдвига между ненулевыми фрагментами второго разностного изображения и соответствующими им фрагментами первого разностного изображения. Вычисляют расстояния до выявленных объектов по формуле R=a×f/Δi, где a - расстояние между главными оптическими осями объективов, f - фокусное расстояние объектива оптической системы, Δi - величина сдвига между соответствующими ненулевыми фрагментами i-го объекта. Принимают и формируют изображения в процессе поступательного движения оптических систем. Вектор движения образует угол с направлением главных оптических осей объективов, при этом каждую пару опорного и сравниваемого изображений последовательно регистрируют в двух разнесенных точках пространства, расстояние между которыми выбирают из условия обеспечения сдвига между соответствующими ненулевыми фрагментами разностных изображений на величину не меньше, чем размер светочувствительного элемента фотоприемника, при этом расстояние между точками регистрации каждой пары опорного и сравниваемого изображений последовательно уменьшают при приближении объектов к оптическим системам.To achieve a technical result, a method for selecting objects on a remote background is proposed. The method consists in receiving and forming the reference and compared images with two identical optical systems based on multi-element photodetectors, with parallel main optical axes of their lenses. Both images are recorded, two differential images are formed. The first is by subtracting the compared image from the reference, the second by subtracting the reference from the compared. Zero negative values in difference images. The magnitude of the shift between nonzero fragments of the first difference image and the corresponding nonzero fragments of the second difference image to their maximum coincidence is searched in the direction of the background parallax shift. Similarly, the shift values between non-zero fragments of the second differential image and the corresponding fragments of the first differential image are found. The distances to the detected objects are calculated by the formula R = a × f / Δ i , where a is the distance between the main optical axes of the lenses, f is the focal length of the lens of the optical system, Δ i is the shift between the corresponding nonzero fragments of the ith object. Receive and form images in the process of translational movement of optical systems. The motion vector forms an angle with the direction of the main optical axes of the lenses, and each pair of reference and compared images is sequentially recorded at two spaced points of space, the distance between which is selected from the condition for providing a shift between the corresponding nonzero fragments of the difference images by no less than the size of the photosensitive element photodetector, while the distance between the registration points of each pair of reference and compared images in series menshayut when approaching objects to the optical system.

Совокупность перечисленных существенных признаков позволяет увеличить базисное расстояние за счет рассинхронизации регистрации кадров стереопары в процессе перемещения оптических систем. Это позволяет увеличить дальность селекции объектов в окружающем пространстве. При этом в случае наблюдения движущихся объектов, приближающихся к оптическим системам, время рассинхронизации постепенно уменьшается по мере их приближения. Это позволяет минимизировать негативное влияние подвижки наблюдаемых объектов в интервале времени между моментами регистрации кадров стереопары, что увеличивает точность определения расстояния до объектов (увеличивает точность селекции).The combination of these essential features allows you to increase the base distance due to the desynchronization of the registration of stereo frames in the process of moving optical systems. This allows you to increase the range of selection of objects in the surrounding space. Moreover, in the case of observation of moving objects approaching optical systems, the desynchronization time gradually decreases as they approach. This allows you to minimize the negative impact of the movement of the observed objects in the time interval between the moments of registration of the frames of the stereo pair, which increases the accuracy of determining the distance to objects (increases the accuracy of selection).

Перед получением разностных изображений сравниваемое изображение параллактически смещают относительно опорного изображения до максимального совпадения удаленного фона. Данные действия выполняются с целью устранения погрешности при настройке параллельности главных оптических осей идентичных оптических систем.Before receiving the differential images, the compared image is parallactically shifted relative to the reference image to the maximum coincidence of the remote background. These actions are performed in order to eliminate the error when setting the parallelism of the main optical axes of identical optical systems.

Опорное и сравниваемое изображение выравнивают по яркости до формирования разностных изображений. Данные действия выполняются с целью устранения инструментальной погрешности светочувствительности фотоприемных устройств оптических систем.The reference and reference image are aligned in brightness until differential images are formed. These actions are performed in order to eliminate the instrumental error of the photosensitivity of photodetectors of optical systems.

В разностных изображениях значения обнуляют с определенного уровня, соответствующего разбросу чувствительности фотоприемников оптических систем. Данные действия выполняются с целью устранения шума, обусловленного, например, оптической аберрацией объективов оптических систем.In difference images, the values are reset to a certain level corresponding to the sensitivity spread of the photodetectors of optical systems. These actions are performed in order to eliminate noise caused, for example, by optical aberration of the lenses of optical systems.

В располагаемых нами источниках информации не обнаружено технических решений, содержащих в совокупности признаки, сходные с отличительными признаками заявляемого способа. Следовательно, изобретение соответствует критерию изобретательский уровень.In our available sources of information, no technical solutions have been found that together contain features similar to the distinguishing features of the proposed method. Therefore, the invention meets the criterion of inventive step.

Наличие новых существенных признаков совместно с известными и общими с прототипом позволило создать новое техническое решение - способ селекции объекта на удаленном фоне. Способ решает комплексно задачу увеличения дальности определения местоположения объектов в окружающем пространстве, в том числе движущихся объектов в процессе их наблюдения с перемещающегося основания.The presence of new significant features together with the well-known and common with the prototype allowed us to create a new technical solution - a method of selecting an object on a remote background. The method solves the complex task of increasing the range of determining the location of objects in the surrounding space, including moving objects in the process of observing them from a moving base.

Краткое описание фигур и чертежейBrief description of figures and drawings

Предлагаемый способ определения местонахождения объекта в окружающем пространстве иллюстрируется чертежами:The proposed method for determining the location of an object in the surrounding space is illustrated by the drawings:

фиг.1 - оптическая схема регистрации изображений заявляемым способом;figure 1 is an optical scheme for registering images of the claimed method;

фиг.2 - принципиальная схема устройства оптических систем.figure 2 - schematic diagram of the device of optical systems.

фиг.3(а, б) - схематическое представление зарегистрированного опорного А1 и сравниваемого А2 изображения;figure 3 (a, b) is a schematic representation of a registered reference A1 and the compared A2 image;

фиг.4(а, б) - схема смещения (обрезки) матриц изображений А1 и А2 друг относительно друга, при наличии отклонения от параллельности главных оптических осей объективов;figure 4 (a, b) is a diagram of the displacement (cropping) of the image matrices A1 and A2 relative to each other, in the presence of a deviation from parallelism of the main optical axes of the lenses;

фиг.5(а, б) - первое и второе разностные изображения Raznost1 и Raznost2, соответственно;Fig. 5 (a, b) is the first and second difference images of Raznost1 and Raznost2, respectively;

фиг.6(а, б) - схема определения параллактического смещения объектов;6 (a, b) is a diagram for determining the parallactic displacement of objects;

фиг.7(а, б) - результат определения параллактического смещения объектов, (а - светлее окружающего фона, б - темнее фона), где изображения объектов показаны каждый в своем цвете, соответствующем смещению (цветовая расшифровка соответствия приведена в середине);Fig. 7 (a, b) is the result of determining the parallactic displacement of objects, (a is lighter than the surrounding background, b is darker than the background), where the images of the objects are shown each in its own color corresponding to the displacement (color decoding of the correspondence is shown in the middle);

фиг.8 - вариант представления результата селекции объектов на удаленном фоне, образы объектов выделены цветом, причем цвет соответствует расстоянию до объекта (справа приведена цветовая расшифровка).Fig. 8 is a variant of presenting the result of selecting objects against a remote background, the images of objects are highlighted in color, the color corresponding to the distance to the object (color decoding is shown on the right).

Варианты осуществления изобретенияEmbodiments of the invention

Способ реализуется следующим образом.The method is implemented as follows.

Рассмотрим схему проведения фотосъемки. Для регистрации оптических изображений используют две идентичные оптические системы 1 и 2 (фиг.1), установленные на подвижном основании 3 (самолете). Как показано на фиг.2, каждая оптическая система 1 и 2 состоит из многоэлементного фотоприемника 4 и сопряженного с ним объектива 5. Оптические системы 1 и 2 ориентируют друг относительно друга таким образом, чтобы главные оптические оси (штрихпунктирные линии) их объективов 5 были параллельны друг другу, (фиг.1, 2). Оптические системы 1 и 2 электрически сопрягают с блоком управления 6, обеспечивающим электропитание и управление всем устройством в целом.Consider the scheme of photographing. To register optical images, two identical optical systems 1 and 2 (Fig. 1) are used, mounted on a movable base 3 (airplane). As shown in FIG. 2, each optical system 1 and 2 consists of a multi-element photodetector 4 and an associated lens 5. The optical systems 1 and 2 are oriented relative to each other so that the main optical axes (dash-dot lines) of their lenses 5 are parallel to each other, (figure 1, 2). Optical systems 1 and 2 are electrically interfaced with a control unit 6, which provides power and control of the entire device as a whole.

В состав блока управления 6 входят источники питания, а также электрическая схема управления работой устройства, например, программируемая логическая интегральная схема (ПЛИС).The control unit 6 includes power sources, as well as an electrical circuit for controlling the operation of the device, for example, a programmable logic integrated circuit (FPGA).

В качестве многоэлементных фотоприемников 4 используют, например, комплементарные металооксидные полупроводниковые (КМОП) матрицы. Количество светочувствительных элементов в КМОП матрице может быть различно. В рассматриваемом варианте реализации способа используют квадратную матрицу формата n на n пикселей с длиной стороны L (фиг.2).As multi-element photodetectors 4, for example, complementary metal oxide semiconductor (CMOS) arrays are used. The number of photosensitive elements in the CMOS matrix can be different. In this embodiment of the method, a square matrix of format n by n pixels with side length L is used (FIG. 2).

В качестве объектива 5 может быть использован практически любой тип оптического объектива, обеспечивающий обзор окружающего пространства в заданном телесном угле ϑ, определяемом исходя из условия проведения съемки, и удовлетворяющий требованиям получения изображения с достаточной разрешающей способностью (фиг.1, 2). В рассматриваемом варианте реализации способа используют однолинзовый объектив с фокусным расстоянием f (фиг.2).As lens 5, almost any type of optical lens can be used, providing an overview of the surrounding space at a given solid angle ϑ, determined based on the shooting conditions, and satisfying the requirements for obtaining images with sufficient resolution (Figs. 1, 2). In this embodiment of the method, a single-lens lens with a focal length f is used (FIG. 2).

Разрешающую способность оптических систем 1 и 2 считают достаточной, если образы наблюдаемых объектов 7 и 8 на регистрируемых изображениях образованы не менее 1-2 пикселями. Экспозицию при регистрации кадров оптическими системами считают оптимальной, если образы наблюдаемых объектов 7 и 8 фиксируются на изображениях без значительного смазывания.The resolution of optical systems 1 and 2 is considered sufficient if the images of the observed objects 7 and 8 in the recorded images are formed by at least 1-2 pixels. Exposure during the registration of frames by optical systems is considered optimal if the images of the observed objects 7 and 8 are captured on images without significant blurring.

Основание 3, на котором установлены оптические системы 1 и 2, в рассматриваемом случае движется поступательно с постоянной скоростью Vc (фиг.1). Угол между вектором Vc и главными оптическими осями объективов 5 равен 90 градусов. Наблюдаемые объекты 7 и 8 перемещаются прямолинейно с постоянными скоростями Vоб1, Vоб2, соответственно (фиг.1).The base 3, on which the optical systems 1 and 2 are installed, in the case under consideration moves progressively with a constant speed V c (Fig. 1). The angle between the vector Vc and the main optical axes of the lenses 5 is 90 degrees. The observed objects 7 and 8 move rectilinearly with constant speeds V rev1 , V rev2 , respectively (Fig. 1).

В момент времени t1 оптическая система 1 принимает при помощи собственного объектива 5 оптическое изображение окружающего пространства и формирует его в плоскости многоэлементного фотоприемника 4, который производит его регистрацию. Зарегистрированное изображение принимается в качестве опорного А1 (фиг.3а).At time t 1, the optical system 1 receives, using its own lens 5, an optical image of the surrounding space and forms it in the plane of the multi-element photodetector 4, which performs its registration. The registered image is taken as reference A1 (figa).

Через заданный интервал времени Δt, в момент времени t2, оптическая система 2 принимает при помощи собственного объектива 5 оптическое изображение окружающего пространства и формирует его в плоскости многоэлементного фотоприемника 4, который производит его регистрацию. Зарегистрированное изображение принимается в качестве сравниваемого А2 (фиг.3б).After a predetermined time interval Δt, at time t 2 , the optical system 2 receives, using its own lens 5, an optical image of the surrounding space and forms it in the plane of the multi-element photodetector 4, which performs its registration. The registered image is taken as the compared A2 (figb).

Интервал времени Δt между моментом t1 регистрации опорного изображения А1 и моментом t2 регистрации сравниваемого изображения А2 выбирают из следующего условия:The time interval Δt between the time t 1 of the registration of the reference image A1 and the time t 2 of the registration of the compared image A2 is selected from the following conditions:

Figure 00000001
Figure 00000001

где Rmax - расстояние до удаленного фона (выбирается исходя из параметров наблюдаемой сцены), фиг.1; L - сторона квадрата светочувствительной площадки КМОП матрицы фотоприемника 4; f - фокусное расстояние объективов 5; Vc - скорость перемещения основания 3 (скорость самолета в полете); n - количество пикселей, расположенных вдоль стороны квадрата светочувствительной площадки КМОП матрицы фотоприемника 4.where R max is the distance to the distant background (selected based on the parameters of the observed scene), figure 1; L is the side of the square of the photosensitive area of the CMOS sensor array 4; f is the focal length of the lens 5; V c - the speed of movement of the base 3 (the speed of the aircraft in flight); n is the number of pixels located along the side of the square of the photosensitive area of the CMOS photodetector array 4.

Вышеописанная схема проведения фотосъемки позволяет последовательно регистрировать опорное и сравниваемое изображения в двух разнесенных точках пространства (O1 и O2), (на фиг.1). Расстояние O1O2 является фактически стереоскопическим базисом a. Базис a выбран из условия обеспечения параллактического сдвига на регистрируемой стереопаре образов объектов 7 и 8, находящихся ближе чем удаленный фон, на величину не меньше, чем размер светочувствительного элемента (пикселя) фотоприемника 4. Данная схема проведения фотосъемки позволяет организовать практически любой необходимый стереоскопический базис a, исходя из заданного значения Rmax, необходимый для увеличения дальности селекции объектов 7 и 8 в окружающем пространстве. В этом заключается технический результат изобретения. Стереоскопический базис a=Δt×Vc.The above-described scheme of photographing allows you to sequentially register the reference and compared images at two spaced points of space (O 1 and O 2 ), (in FIG. 1). The distance O 1 O 2 is actually a stereoscopic basis of a . The basis a is selected from the condition for providing a parallactic shift on the recorded stereo pair of images of objects 7 and 8, which are closer than the remote background, by no less than the size of the photosensitive element (pixel) of the photodetector 4. This photographing scheme allows you to organize almost any necessary stereoscopic basis a based on a given value of R max necessary to increase the selection range of objects 7 and 8 in the surrounding space. This is the technical result of the invention. Stereoscopic basis a = Δt × V c .

На опорном изображении (фиг.3а) присутствуют образы 9 и 10, соответствующие объектам 7 и 8 (на фиг.1), наблюдаемые на удаленном фоне 11, (на фиг.3а). На сравниваемом изображении (фиг.3б) присутствуют образы 12 и 13, соответствующие объектам 7 и 8, переместившимся в течение интервала времени Δt в положение 14 и 15 (на фиг.1), наблюдаемые на удаленном фоне 11 (фиг.3б).On the reference image (Fig.3A) there are images 9 and 10 corresponding to objects 7 and 8 (Fig.1), observed against a remote background 11, (Fig.3a). On the compared image (fig.3b) there are images 12 and 13, corresponding to objects 7 and 8, which moved during the time interval Δt to position 14 and 15 (Fig.1), observed against a remote background 11 (Fig.3b).

Удаленный фон 11 на опорном (фиг.3а) и сравниваемом (фиг.3б) изображениях, находящийся на расстоянии, превышающем значение Rmax, смещен на величину менее одного пикселя. Сдвиг удаленного фона 11 на зарегистрированных изображениях неразличимо мал. Вследствие этого величиной параллактического сдвига фона 11 можно пренебречь и считать фон 11 неподвижным.Remote background 11 in the reference (figa) and compared (fig.3b) images located at a distance greater than the value of R max shifted by less than one pixel. The shift of the distant background 11 in the recorded images is indistinguishably small. As a result of this, the magnitude of the parallactic shift of the background 11 can be neglected and the background 11 can be considered immobile.

Образы 12 и 13 на сравниваемом изображении (фиг.3б) смещены вправо (направление параллактического сдвига) относительно образов 9 и 10 на опорном изображении (фиг.3а). Значения величин сдвигов Δ1, Δ2 в направлении параллактического смещения фона 11 зависят от степени удаленности объектов 7 и 8 от оптических систем 1 и 2, а именно от расстояний Rоб1_t1, Rоб1_t2, и Rоб2_t1, Rоб2_t2 (фиг.1). Чем больше величины сдвигов Δ1, Δ2, тем ближе находятся объекты 7 и 8 к оптическим системам 1 и 2, и наоборот.The images 12 and 13 in the compared image (Fig.3b) are shifted to the right (the direction of the parallactic shift) relative to the images 9 and 10 in the reference image (Fig.3a). The values of the values of the shifts Δ 1 , Δ 2 in the direction of the parallactic displacement of the background 11 depend on the degree of remoteness of objects 7 and 8 from the optical systems 1 and 2, namely, on the distances R ob1_t1 , R ob1_t2 , and R ob2_t1 , R ob2_t2 (Fig. 1) . The larger the shifts Δ 1 , Δ 2 , the closer the objects 7 and 8 are to the optical systems 1 and 2, and vice versa.

Расстояния Rоб1_t1, и Rоб2_t1 до объектов 7 и 8 определяют по взаимному расположению их образов 9 и 12 на опорном А1, и 10 и 13 на сравниваемом А2 изображениях, исходя из значений сдвигов Δ1, Δ2, соответственно. При этом, чем меньше смещение объектов 7 и 8 за интервал времени Δt, тем точнее определяют расстояния Rоб1_t1, и Rоб2_t1. Для минимизации погрешности измерения расстояний до приближающихся к оптическим системам 1 и 2 движущихся объектов 7 и 8 требуется уменьшить расстояния между точками регистрации O1 и O2 каждой последующей пары опорного А1 и сравниваемого А2 изображений (т.е. уменьшение стереоскопического базиса a). С этой целью возможно сокращение интервала времени Δt до минимально необходимого, например, посредством использования в расчетах расстояния Rmax, определяемого как расстояние до наиболее удаленного объекта 7, наблюдаемого в предыдущей сцене (на предыдущей паре опорного А1 и сравниваемого А2 изображений). Это подтверждает достижение технического результата.The distances R ob1_t1 , and R ob2_t1 to objects 7 and 8 are determined by the relative positions of their images 9 and 12 on the reference A1, and 10 and 13 on the compared A2 images, based on the values of the shifts Δ 1 , Δ 2 , respectively. Moreover, the smaller the displacement of objects 7 and 8 over the time interval Δt, the more accurately determine the distance R ob1_t1 , and R ob2_t1 . To minimize the error in measuring the distances to moving objects 7 and 8 approaching the optical systems 1 and 2, it is required to reduce the distances between the recording points O1 and O2 of each subsequent pair of reference A1 and the compared A2 images (i.e., reducing the stereoscopic basis a ). To this end, it is possible to shorten the time interval Δt to the minimum necessary, for example, by using the distance R max defined in the calculations, which is defined as the distance to the farthest object 7 observed in the previous scene (on the previous pair of reference A1 and compared A2 images). This confirms the achievement of the technical result.

Процесс выявления образов 9, 10 и 12, 13 объектов 7 и 8 на зарегистрированных изображениях для определения параллактических сдвигов Δ1, Δ2 заключается в следующем.The process of identifying images 9, 10 and 12, 13 of objects 7 and 8 on registered images to determine the parallactic shifts Δ 1 , Δ 2 is as follows.

Опорное и сравниваемое изображения представляют в виде матриц А1 и А2 с размером I×J, соответственно (фиг.4). На зарегистрированных изображениях (фиг.3а, б) на удаленном высококонтрастном фоне присутствуют образы объектов 9 и 12 более светлые, чем окружающий их фон, и образы объектов 10 и 13 темнее фона.The reference and compared images are represented in the form of matrices A1 and A2 with a size of I × J, respectively (Fig. 4). On the registered images (figa, b) on a remote high-contrast background there are images of objects 9 and 12 lighter than the background surrounding them, and images of objects 10 and 13 are darker than the background.

Если главные оптические оси регистрирующих систем 1 и 2 имеют незначительное отклонение параллельности между собой, то матрицы «обрезают» в направлении, противоположном параллактическому смещению фона 11. На фиг.4 показана схема смещения (обрезки) матриц изображений А1 и А2 друг относительно друга при наличии отклонения от параллельности главных оптических осей регистрирующих систем 1 и 2, где dx и dy - горизонтальная и вертикальная проекции параллактического смещения удаленного фона 11. Величина параллактического смещения удаленного фона 11 принимается постоянной для оптических систем и вычисляется по формуле

Figure 00000002
. Размер получившихся матриц принимают равным I×J и сохраняют их обозначения (A1 и A2).If the main optical axes of the recording systems 1 and 2 have a slight deviation of parallelism between them, the matrices are “cut off” in the direction opposite to the parallactic displacement of the background 11. Fig. 4 shows a diagram of the displacement (cropping) of the image matrices A1 and A2 relative to each other in the presence of deviations from parallelism of the main optical axes of the recording systems 1 and 2, where dx and dy are the horizontal and vertical projections of the parallactic displacement of the distant background 11. The magnitude of the parallactic displacement of the distant background is 11 p is assumed constant for optical systems and is calculated by the formula
Figure 00000002
. The size of the resulting matrices is taken equal to I × J and their designations are retained (A1 and A2).

В случае отклонения яркости на регистрируемых изображениях А1 и А2, обусловленного, например, погрешностями в производстве фотоприемников 4, опорное А1 и сравниваемое А2 изображения выравнивают по яркости до их максимального совпадения.In the case of a brightness deviation in the recorded images A1 and A2, caused, for example, by errors in the production of photodetectors 4, the reference A1 and the compared A2 images are aligned in brightness to their maximum coincidence.

Следующей последовательностью действий, проводимой в блоке управления 6, подавляют удаленный, высококонтрастный фон и одновременно на нем выделяют объекты с заранее неизвестной яркостью (светлые объекты на темном фоне или темные объекты на светлом фоне):The following sequence of actions carried out in the control unit 6 suppresses a remote, high-contrast background and at the same time, objects with previously unknown brightness are highlighted on it (light objects against a dark background or dark objects against a light background):

1. Формируют два разностных изображения.1. Form two differential images.

Первому разностному изображению соответствует матрица, равная: Raznoct1=A1-A2 (фиг.5а). Второму разностному изображению соответствует матрица равная: Raznoct2=A2-A1 (фиг.5б).The first difference image corresponds to a matrix equal to: Raznoct1 = A1-A2 (figa). The second difference image corresponds to an equal matrix: Raznoct2 = A2-A1 (Fig.5b).

2. В полученных разностных изображениях обнуляют отрицательные значения. Если на разностных изображениях присутствует шум, обусловленный, например, оптическими аберрациями объективов 5, то обнуление значений в разностных матрицах проводят, начиная с некоторой положительной величины, т.е.:2. In the resulting difference images, zero values are zeroed. If noise is present on the difference images due, for example, to the optical aberrations of the lenses 5, then the zeroing of the values in the difference matrices is carried out starting from a certain positive value, i.e.:

Raznoct1(i, j)=0, если Raznoct1(i, j)<bRaznoct1 (i, j) = 0 if Raznoct1 (i, j) <b

Raznoct2(i, j)=0, если Raznoct2(i, j)<bRaznoct2 (i, j) = 0 if Raznoct2 (i, j) <b

Величина (b) постоянна и определяется заранее, исходя из разности удаленного фона на опорном и сравниваемом изображении.The value (b) is constant and is determined in advance based on the difference of the distant background in the reference and compared image.

На фиг.5а и 5б представлены первое и второе разностные изображения. На полученном первом разностном изображении (фиг.5а) выделены (не обнулены) фрагмент 16, соответствующий более светлому объекту на опорном изображении А1, а также фрагмент 17, соответствующий более темному объекту на сравниваемом изображении А2, а все остальные значения обнулены. На полученном втором разностном изображении (фиг.5б) выделены (не обнулены) фрагмент 18, соответствующий более темному объекту на опорном изображении А1, а также фрагмент 19, соответствующий более светлому объекту на сравниваемом изображении А2, а все остальные значения обнулены.On figa and 5b presents the first and second difference images. On the obtained first difference image (Fig. 5a), fragment 16 corresponding to the brighter object in the reference image A1, as well as fragment 17 corresponding to the darker object in the compared image A2 are highlighted (not zeroed), and all other values are reset. In the obtained second difference image (Fig. 5b), fragment 18 corresponding to the darker object in the reference image A1, as well as fragment 19 corresponding to the brighter object in the compared image A2 are highlighted (not zeroed), and all other values are reset.

Для вычисления расстояний Rоб1_t1, Rоб2_t1 до выявленных объектов 7 и 8 в блоке управления 6 определяют параллактические смещения Δ1, Δ2 фрагментов, соответствующих объектам 7 и 8 на разностных изображениях Raznoct1 и Raznoct2. Определение величин смещения разделяют на два этапа:To calculate the distances R ob1_t1 , R ob2_t1 to the detected objects 7 and 8, the parallactic displacements Δ 1 , Δ 2 of fragments corresponding to objects 7 and 8 in the difference images Raznoct1 and Raznoct2 are determined. The determination of bias values is divided into two stages:

1. Первый этап (определение смещения объекта светлее фона) заключается в определении соответствующего параллактического смещения Δi (i=1, 2, для рассматриваемого случая), как аргумента функции F1i), при котором она минимальна. Функция F1i) есть модуль среднеарифметического значения разности ненулевого фрагмента первого разностного изображения и соответствующего участка второго разностного изображения. При этом фрагмент первого разностного изображения наложен на второе разностное изображение со смещением координаты (от 0 до dX), в направлении параллактического смещения фона, ненулевого фрагмента первого разностного изображения и соответствующего участка второго разностного изображения:1. The first step (determining the displacement of the object lighter than the background) is to determine the corresponding parallactic displacement Δ i (i = 1, 2, for the case under consideration), as an argument of the function F 1i ), at which it is minimal. The function F 1i ) is the module of the arithmetic mean value of the difference of the nonzero fragment of the first difference image and the corresponding section of the second difference image. In this case, a fragment of the first difference image is superimposed on the second difference image with a coordinate offset (from 0 to dX), in the direction of the background parallax, a nonzero fragment of the first difference image and the corresponding section of the second difference image:

Figure 00000003
Figure 00000003

где Raznoct1(X, Y) - ненулевой фрагмент первого разностного изображения, соответствующий объекту; Raznoct1(X+Δi, Y) - участок второго разностного изображения по размеру и геометрии соответствующий Raznoct1(X, Y), и сдвинутый на величину Δi в направлении параллактического смещения фона; N - размер фрагмента в пикселях; dX - максимальное параллактическое смещение, определяемое дальностью обнаружения объектов и их размерами.where Raznoct1 (X, Y) is a nonzero fragment of the first difference image corresponding to the object; Raznoct1 (X + Δ i , Y) is the portion of the second difference image in size and geometry corresponding to Raznoct1 (X, Y), and shifted by Δ i in the direction of the background parallax; N is the fragment size in pixels; dX is the maximum parallactic displacement determined by the detection range of objects and their sizes.

При этом, значения функции F1i) для фрагментов, соответствующих более темным объектам, постоянны, вследствие отсутствия на втором разностном изображении соответствующих им фрагментов, смещенных в направлении параллактического сдвига (фиг.6а). Вследствие этого Δi принимается равной нулю, т.е. фрагмент приравнивается к участку удаленного фона (фиг.7а).Moreover, the values of the function F 1i ) for the fragments corresponding to darker objects are constant, due to the absence on the second difference image of the corresponding fragments shifted in the direction of the parallactic shift (Fig. 6a). As a result, Δ i is taken equal to zero, i.e. the fragment is equated to the area of the removed background (figa).

2. Второй этап (определение смещения объекта темнее фона) заключается в определении Δi (i=1, 2 для рассматриваемого случая), как аргумента функции F2i), при котором она минимальна. Функция F2i) есть модуль среднеарифметического значения разности ненулевого фрагмента второго разностного изображения и соответствующего участка первого разностного изображения. При этом фрагмент второго разностного изображения наложен на первое разностное изображение со смещением координаты (от 0 до dX), в направлении параллактического смещения фона, ненулевого фрагмента второго разностного изображения и соответствующего участка первого разностного изображения:2. The second stage (determining the displacement of the object darker than the background) is to determine Δ i (i = 1, 2 for the case under consideration) as an argument to the function F 2i ) at which it is minimal. The function F 2i ) is the module of the arithmetic mean value of the difference of the nonzero fragment of the second difference image and the corresponding section of the first difference image. In this case, a fragment of the second difference image is superimposed on the first difference image with a coordinate offset (from 0 to dX), in the direction of the background parallax, a nonzero fragment of the second difference image and the corresponding section of the first difference image:

Figure 00000004
Figure 00000004

где Raznoct2(X, Y) - ненулевой фрагмент второго разностного изображения, соответствующий объекту; Raznoct1(X+Δi, Y) - участок первого разностного изображения по размеру и геометрии соответствующий Raznoct1(X, Y) и сдвинутый на величину Δi в направлении параллактического смещения фона.where Raznoct2 (X, Y) is a nonzero fragment of the second difference image corresponding to the object; Raznoct1 (X + Δ i , Y) is the portion of the first difference image in size and geometry corresponding to Raznoct1 (X, Y) and shifted by Δ i in the direction of background parallactic displacement.

При этом значения функции F2i) для фрагментов, соответствующих более светлым объектам, постоянны, вследствие отсутствия на первом разностном изображении соответствующих им фрагментов, смещенных в направлении параллактического сдвига (фиг.6б). Вследствие этого Δi принимается равной нулю, т.е. фрагмент приравнивается к участку удаленного фона (фиг.7б).Moreover, the values of the function F 2i ) for fragments corresponding to lighter objects are constant, due to the absence on the first difference image of the corresponding fragments shifted in the direction of the parallactic shift (Fig.6b). As a result, Δ i is taken equal to zero, i.e. the fragment is equated to the remote background area (Fig.7b).

Расстояние до выявленных объектов 7 и 8 вычисляют по формуле Rоб.i_t1=f/Δi, где a - расстояние между главными оптическими осями объективов 5, f - фокусное расстояние объектива 5, Δi - величина сдвига между соответствующими ненулевыми фрагментами i-го объекта (величина параллактического сдвига i-го объекта).The distance to the detected objects 7 and 8 is calculated by the formula R vol.i_t1 = a · f / Δ i , where a is the distance between the main optical axes of the lenses 5, f is the focal length of the lens 5, Δ i is the amount of shift between the corresponding nonzero fragments i -th object (the magnitude of the parallactic shift of the i-th object).

В итоге на сигнальном выходе блока управления 6 получают информацию о выявленных объектах 7 и 8, находящихся на разных расстояниях от оптических систем 1 и 2 в виде координат объектов на опорном изображении, и поставленным им в соответствие расстояниям до объектов (фиг.8).As a result, at the signal output of the control unit 6, information is obtained about the detected objects 7 and 8 located at different distances from the optical systems 1 and 2 in the form of the coordinates of the objects in the reference image and the distances to the objects set by them (Fig. 8).

При этом оператору степень удаленности объектов 7 и 8 от видеосистем 1 и 2 показывается в виде цветовой гаммы (или оттенков серого), которой в соответствие поставлен диапазон расстояний (фиг.8).At the same time, the degree of remoteness of objects 7 and 8 from video systems 1 and 2 is shown to the operator in the form of a color gamut (or shades of gray), which corresponds to a range of distances (Fig. 8).

Пространственные угловые координаты объектов 7 и 8 определяют согласно координатам образов объектов 16 и 17 на опорном изображении А1.The spatial angular coordinates of objects 7 and 8 are determined according to the coordinates of the images of objects 16 and 17 in the reference image A1.

Промышленная применимостьIndustrial applicability

Заявленный способ селекции объектов на удаленном фоне может быть использован в автоматических системах определения местонахождения объектов в пространстве. В частности, на авиатранспорте для предупреждения столкновения летательных аппаратов в воздухе. Например, в гражданской авиации на винтомоторных самолетах, вертолетах.The claimed method of selecting objects on a remote background can be used in automatic systems for determining the location of objects in space. In particular, in air transport to prevent collisions of aircraft in the air. For example, in civil aviation on airliners, helicopters.

Техническая реализация способа селекции объектов на удаленном фоне в конкретном устройстве вполне осуществима. При создании оптических систем и блока управления могут быть использованы освоенные промышленностью оптико-электронные устройства, конструкционных узлы и элементы. Алгоритм работы указанного устройства также технически реализуем. В устройстве, реализующем способ селекции объектов на удаленном фоне, в качестве оптических систем могут быть использованы коммерчески доступные видеокамеры, снимающие изображения окружающего пространства с частотой 30 кадров в секунду. Две идентичные видеокамеры параллельно подключены к блоку управления, например, ПЛИС. Время рассинхронизации между моментами регистрации кадров видеокамерами задается ПЛИС, который в свою очередь принимает зарегистрированные изображения и проводит их конвейерную обработку с выдачей результатов вычислений в виде изображений (фиг.8) на монитор оператора (пилота).The technical implementation of the method of selecting objects on a remote background in a particular device is quite feasible. When creating optical systems and a control unit, optical-electronic devices mastered by the industry, structural units, and elements can be used. The algorithm of the specified device is also technically feasible. In a device that implements a method of selecting objects on a remote background, commercially available video cameras can be used as optical systems, which capture images of the surrounding space at a frequency of 30 frames per second. Two identical video cameras are connected in parallel to the control unit, for example, FPGA. The time of desynchronization between the moments of registration of frames by video cameras is set by FPGA, which in turn receives registered images and carries out their pipelining with the output of the calculation results in the form of images (Fig. 8) to the operator (pilot) monitor.

При использовании видеокамер с разрешением 1920×1080 пикселей (n=1920) и размером светочувствительной площадки фотоприемников 14.2×8 мм (L=14.2), оснащенных объективами с фокусным расстоянием (f), равным 4 мм (угол обзора ϑ равен 122×90 градусов), обеспечивается максимальная дальность (Rmax) селекции объектов 1500 м, при рассинхронизации работы видеокамер в один кадр (Δt=1/30 с) и скорости (Vc) перемещения основания (скорости полета самолета) 300 км/ч.When using video cameras with a resolution of 1920 × 1080 pixels (n = 1920) and a photosensitive area of photodetectors 14.2 × 8 mm (L = 14.2) equipped with lenses with a focal length (f) of 4 mm (viewing angle ϑ is 122 × 90 degrees ), the maximum range (R max ) of object selection is 1,500 m, when the cameras are out of sync in one frame (Δt = 1/30 s) and the speed (V c ) of the base movement (aircraft flight speed) is 300 km / h.

Claims (4)

1. Способ селекции объектов на удаленном фоне, заключающийся в приеме и формировании опорного и сравниваемого изображений двумя идентичными оптическими системами на основе многоэлементных фотоприемников, с параллельными главными оптическими осями их объективов, регистрации обоих изображений, формировании двух разностных изображений, первое - вычитанием сравниваемого изображения из опорного, второе - вычитанием опорного из сравниваемого, обнулении отрицательных значений в разностных изображениях, поиске в направлении параллактического смещения фона величины сдвига между ненулевыми фрагментами первого разностного изображения и соответствующими им ненулевыми фрагментами второго разностного изображения до максимального их совпадения, аналогичном поиске величины сдвига между ненулевыми фрагментами второго разностного изображения и соответствующими им фрагментами первого разностного изображения, вычислении расстояния до выявленных объектов по формуле R=a·f/Δi, где a - расстояние между главными оптическими осями объективов, f - фокусное расстояние объектива оптической системы, Δi - величина сдвига между соответствующими ненулевыми фрагментами i-го объекта, отличающийся тем, что принимают и формируют изображения в процессе поступательного движения оптических систем, вектор движения образует угол с направлением главных оптических осей объективов оптических систем, при этом каждую пару опорного и сравниваемого изображений последовательно регистрируют в двух разнесенных точках пространства, расстояние между которыми выбирают из условия обеспечения сдвига между соответствующими ненулевыми фрагментами разностных изображений на величину не меньше, чем размер светочувствительного элемента фотоприемника, при этом расстояние между точками регистрации каждой пары опорного и сравниваемого изображений последовательно уменьшают при приближении объектов к оптическим системам.1. A method of selecting objects on a remote background, which consists in receiving and forming the reference and compared images with two identical optical systems based on multi-element photodetectors, with parallel main optical axes of their lenses, recording both images, forming two difference images, the first by subtracting the compared image from reference, the second - by subtracting the reference from the comparison, zeroing the negative values in the difference images, searching in the direction of parallactic the background shift of the magnitude of the shift between non-zero fragments of the first differential image and their corresponding non-zero fragments of the second differential image to their maximum match, similar to finding the magnitude of the shift between non-zero fragments of the second differential image and the corresponding fragments of the first differential image, calculating the distance to the detected objects using the formula R = a · f / Δ i , where a is the distance between the main optical axes of the lenses, f is the focal length of the optical lens system, Δ i is the shift between the corresponding non-zero fragments of the i-th object, characterized in that they receive and form images in the process of translational movement of the optical systems, the motion vector forms an angle with the direction of the main optical axes of the lenses of the optical systems, with each pair of reference and the compared image is sequentially recorded at two spaced points of space, the distance between which is selected from the condition for ensuring a shift between the corresponding nonzero fragments of difference images by an amount no less than the size of the photosensitive element of the photodetector, while the distance between the registration points of each pair of reference and compared images is successively reduced as objects approach optical systems. 2. Способ селекции объектов на удаленном фоне по п.1, отличающийся тем, что перед получением разностных изображений сравниваемое изображение параллактически смещают относительно опорного изображения до максимального совпадения удаленного фона.2. The method of selecting objects on a remote background according to claim 1, characterized in that before receiving the difference images, the compared image is parallactically shifted relative to the reference image to the maximum coincidence of the remote background. 3. Способ селекции объектов на удаленном фоне по п.1, отличающийся тем, что опорное и сравниваемое изображение до формирования разностных изображений выравнивают по яркости.3. The method of selecting objects on a remote background according to claim 1, characterized in that the reference and compared image prior to the formation of difference images are aligned in brightness. 4. Способ селекции объектов на удаленном фоне по п.1, отличающийся тем, что в разностных изображениях значения обнуляют с определенного уровня, соответствующего разбросу чувствительности фотоприемников оптических систем. 4. The method of selecting objects on a remote background according to claim 1, characterized in that in the difference images, the values are zeroed from a certain level corresponding to the sensitivity spread of the photodetectors of optical systems.
RU2013147224/28A 2013-10-22 2013-10-22 Method of selecting objects on remote background RU2552123C2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
RU2013147224/28A RU2552123C2 (en) 2013-10-22 2013-10-22 Method of selecting objects on remote background

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
RU2013147224/28A RU2552123C2 (en) 2013-10-22 2013-10-22 Method of selecting objects on remote background

Publications (2)

Publication Number Publication Date
RU2013147224A RU2013147224A (en) 2015-04-27
RU2552123C2 true RU2552123C2 (en) 2015-06-10

Family

ID=53283085

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2013147224/28A RU2552123C2 (en) 2013-10-22 2013-10-22 Method of selecting objects on remote background

Country Status (1)

Country Link
RU (1) RU2552123C2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2703611C1 (en) * 2019-01-28 2019-10-21 Акционерное общество "Стелла-К" Method of producing stereoscopic images with a synthesized stereo base value
RU2714701C1 (en) * 2019-06-17 2020-02-19 Федеральное государственное унитарное предприятие "Российский федеральный ядерный центр - Всероссийский научно-исследовательский институт технической физики имени академика Е.И. Забабахина" Method of selecting an object on a distant background with optical systems from an air carrier

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06201379A (en) * 1992-12-28 1994-07-19 Mitsubishi Electric Corp Range finder
JPH11174316A (en) * 1997-12-16 1999-07-02 Canon Inc Range finder and focus detector
RU2363018C1 (en) * 2007-11-06 2009-07-27 Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр - Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ имени академика Е.И. Забабахина") Method of selecting objects on remote background
RU2383902C2 (en) * 2008-04-14 2010-03-10 Федеральное государственное унитарное предприятие "РОССИЙСКИЙ ФЕДЕРАЛЬНЫЙ ЯДЕРНЫЙ ЦЕНТР-ВСЕРОССИЙСКИЙ НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЙ ИНСТИТУТ ТЕХНИЧЕСКОЙ ФИЗИКИ ИМЕНИ АКАДЕМИКА Е.И. ЗАБАБАХИНА" (ФГУП "РФЯЦ-ВНИИТФ имени академика Е.И. Забабахина") Method of selecting moving object
JP2011185664A (en) * 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd Object detector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06201379A (en) * 1992-12-28 1994-07-19 Mitsubishi Electric Corp Range finder
JPH11174316A (en) * 1997-12-16 1999-07-02 Canon Inc Range finder and focus detector
RU2363018C1 (en) * 2007-11-06 2009-07-27 Федеральное государственное унитарное предприятие "Российский Федеральный Ядерный Центр - Всероссийский Научно-Исследовательский Институт Технической Физики имени академика Е.И. Забабахина" (ФГУП "РФЯЦ-ВНИИТФ имени академика Е.И. Забабахина") Method of selecting objects on remote background
RU2383902C2 (en) * 2008-04-14 2010-03-10 Федеральное государственное унитарное предприятие "РОССИЙСКИЙ ФЕДЕРАЛЬНЫЙ ЯДЕРНЫЙ ЦЕНТР-ВСЕРОССИЙСКИЙ НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЙ ИНСТИТУТ ТЕХНИЧЕСКОЙ ФИЗИКИ ИМЕНИ АКАДЕМИКА Е.И. ЗАБАБАХИНА" (ФГУП "РФЯЦ-ВНИИТФ имени академика Е.И. Забабахина") Method of selecting moving object
JP2011185664A (en) * 2010-03-05 2011-09-22 Panasonic Electric Works Co Ltd Object detector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2703611C1 (en) * 2019-01-28 2019-10-21 Акционерное общество "Стелла-К" Method of producing stereoscopic images with a synthesized stereo base value
RU2714701C1 (en) * 2019-06-17 2020-02-19 Федеральное государственное унитарное предприятие "Российский федеральный ядерный центр - Всероссийский научно-исследовательский институт технической физики имени академика Е.И. Забабахина" Method of selecting an object on a distant background with optical systems from an air carrier

Also Published As

Publication number Publication date
RU2013147224A (en) 2015-04-27

Similar Documents

Publication Publication Date Title
US8718326B2 (en) System and method for extracting three-dimensional coordinates
CN102494609B (en) Three-dimensional photographing process based on laser probe array and device utilizing same
CN105790836A (en) Estimating surface properties using a plenoptic camera
US20160379066A1 (en) Method and Camera System for Distance Determination of Objects from a Vehicle
CN105115445A (en) Three-dimensional imaging system and imaging method based on combination of depth camera and binocular vision
CN105043350A (en) Binocular vision measuring method
CN108805910A (en) More mesh Train-borne recorders, object detection method, intelligent driving system and automobile
JP5293131B2 (en) Compound eye distance measuring device for vehicle and compound eye distance measuring method
CN109883391B (en) Monocular distance measurement method based on digital imaging of microlens array
CN108195305B (en) Binocular detection system and depth detection method thereof
EP2866090A2 (en) Method for producing an image of the surface of the earth from a moving carrier and a device for implementing same
CN107122770A (en) Many mesh camera systems, intelligent driving system, automobile, method and storage medium
CN102081296A (en) Device and method for quickly positioning compound-eye vision imitated moving target and synchronously acquiring panoramagram
IL264714A (en) Video geolocation
CN103234475A (en) Sub-pixel surface morphology detecting method based on laser triangular measuring method
US9851549B2 (en) Rapid autofocus method for stereo microscope
EP3782363B1 (en) Method for dynamic stereoscopic calibration
RU2363018C1 (en) Method of selecting objects on remote background
RU2552123C2 (en) Method of selecting objects on remote background
KR100957590B1 (en) Aparratus for display omni-directional image with object image
CN103630118B (en) A kind of three-dimensional Hyperspectral imaging devices
CN112556657B (en) Multi-view vision measurement system for flight motion parameters of separating body in vacuum environment
JPH0252204A (en) Measuring instrument for three-dimensional coordinate
JPH11223516A (en) Three dimensional image pickup device
US9560260B2 (en) System for determining a lens position