KR102302907B1 - Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus - Google Patents

Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus Download PDF

Info

Publication number
KR102302907B1
KR102302907B1 KR1020200148311A KR20200148311A KR102302907B1 KR 102302907 B1 KR102302907 B1 KR 102302907B1 KR 1020200148311 A KR1020200148311 A KR 1020200148311A KR 20200148311 A KR20200148311 A KR 20200148311A KR 102302907 B1 KR102302907 B1 KR 102302907B1
Authority
KR
South Korea
Prior art keywords
stereo
camera module
camera modules
image data
camera
Prior art date
Application number
KR1020200148311A
Other languages
Korean (ko)
Inventor
박장한
김재관
김준원
곽재섭
Original Assignee
한화시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템 주식회사 filed Critical 한화시스템 주식회사
Priority to KR1020200148311A priority Critical patent/KR102302907B1/en
Application granted granted Critical
Publication of KR102302907B1 publication Critical patent/KR102302907B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

According to one embodiment of the present invention, provided are a stereo context recognition device and a method for generating disparity map data in the stereo context recognition device. A front part of a combat vehicle includes the stereo context recognition device. The stereo context recognition device includes a plurality of first camera modules respectively disposed at the lower left and lower right sides of the stereo context recognition device; a plurality of second camera modules disposed on the top of the first camera modules; and a third camera module disposed in an upper center between the second camera modules. The combat vehicle is one of a tank, an armored vehicle, a self-propelled gun, and a small tactical vehicle.

Description

스테레오 상황 인식 장치 및 스테레오 상황 인식 장치에서 시차 맵을 생성하는 방법{Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus}Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus

본 발명은 스테레오 상황 인식 장치에 관한 것으로, 특히, 스테레오 상황 인식 장치의 구조와 스테레오 상황 인식 장치에서 시차 맵을 생성하는 방법에 관한 것이다. The present invention relates to a stereo context recognition apparatus, and more particularly, to a structure of the stereo context recognition apparatus and a method of generating a disparity map in the stereo context recognition apparatus.

현대 육상전에서 전차, 장갑차, 자주포 등과 같은 전투 차량이 전투 지역의 주변 상황을 인식하는 것은 전투의 승패를 좌우할 만큼 중요하다. 이러한 주변 상황은 스테레오 상황 인식 장치를 통해 인식된다. In modern land warfare, it is important that combat vehicles such as tanks, armored vehicles, and self-propelled artillery are aware of the surrounding conditions in the battle area to determine whether the battle is won or lost. Such a surrounding situation is recognized through a stereo situation recognition device.

이러한 스테레오 상황 인식 장치는 단일 가시광 센서 기반의 카메라 두 대를 포함하는 스테레오 카메라를 포함하는데, 스테레오 카메라를 이용하여 시차(disparity) 맵을 생성하고, 시차 맵을 기반으로 주변 물체에 대한 거리 정보를 추출한다. Such a stereo situational recognition device includes a stereo camera including two cameras based on a single visible light sensor. Using the stereo camera, a disparity map is generated, and distance information about surrounding objects is extracted based on the disparity map. do.

그러나 이러한 스테레오 상황 인식 장치는 주간에는 제한적으로 운용이 가능하지만, 안개(haze or foe), 연기, 모래먼지, 미세먼지 및 야간 등에는 활용할 수 없는 문제점이 있다. 즉, 스테레오 상황 인식 장치는 원격 유무인 복합 운용하는 경우에 환경적인 제한이 있다. 그리고 스테레오 상황 인식 장치의 단일 적외선 센서 기반의 카메라 두 대를 포함한 스테레오 카메라는 적외선 센서의 출력 영상이 선명하지 못하기 때문에, 시차 맵을 생성한 경우에 많은 오류가 발생하여 정상적인 시차 맵을 생성하기 어려운 문제점이 있었다. However, although such a stereo situational awareness device can be operated limitedly during the day, there is a problem that it cannot be used in haze or foe, smoke, sand dust, fine dust, and at night. That is, the stereo context recognition apparatus has environmental limitations in the case of complex operation with or without remote presence. In addition, stereo cameras including two cameras based on a single infrared sensor of a stereo situational awareness device do not have a clear output image from the infrared sensor. There was a problem.

따라서, 이러한 문제점을 해결하기 위한 방안의 필요성이 대두하였다.Therefore, the need for a method for solving these problems has emerged.

본 발명의 일 실시 예는 환경적인 제한을 받지 않는 스테레오 상황 인식 장치를 제안한다. An embodiment of the present invention proposes a stereo context recognition apparatus that is not subject to environmental restrictions.

그리고 본 발명의 일 실시 예에는 시차 맵 생성 시에 오류가 발생하지 않는 스테레오 상황 인식 장치를 제안한다.In addition, an embodiment of the present invention proposes a stereo situation recognition apparatus in which an error does not occur when generating a disparity map.

본 발명의 일 실시 예에 따른, 스테레오 상황 인식 장치는, 전투 차량의 전면부는 스테레오 상황 인식 장치를 구비하며, 상기 스테레오 상황 인식 장치는, 상기 스테레오 상황 인식 장치의 좌측 하단과 우측 하단에 각각 배치되는 복수의 제1카메라 모듈들; 상기 제1카메라 모듈들의 상단에 배치되는 복수의 제2카메라 모듈들; 및 상기 제2카메라 모듈들 사이의 중앙 상단에 배치되는 제3카메라 모듈을 포함하며, 상기 전투 차량은, 전차, 장갑차, 자주포 및 소형 전술차 중 하나인 것을 특징으로 한다.According to an embodiment of the present invention, in a stereo situation recognition device, a front part of a combat vehicle includes a stereo situation recognition device, wherein the stereo situation recognition device is disposed at the lower left and lower right sides of the stereo situation recognition device, respectively a plurality of first camera modules; a plurality of second camera modules disposed on top of the first camera modules; and a third camera module disposed at an upper center between the second camera modules, wherein the combat vehicle is one of a tank, an armored vehicle, a self-propelled artillery, and a small tactical vehicle.

본 발명의 일 실시 예에 따른, 스테레오 상황 인식 장치에서 시차 맵 데이터를 생성하는 방법은, 스테레오 상황 인식 장치의 신호 처리부가, 제1카메라 모듈의 제1영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출하는 과정; 상기 신호 처리부가, 복수의 제2카메라 모듈들의 제2영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출하는 과정; 및 상기 신호 처리부가, 상기 제1카메라 모듈의 복수의 특징점들과 상기 제2카메라 모듈들의 복수의 특징점들을 비교하여 가장 유사한 특징점을 결정하고, 상기 가장 유사한 특징점을 매칭하여 시차 맵 데이터를 생성하는 과정을 포함하며, 상기 스테레오 상황 인식 장치는 전투 차량에 구비되며, 상기 스테레오 상황 인식 장치의 좌측 하단과 우측 하단에 각각 배치되는 복수의 제3카메라 모듈들, 상기 제1카메라 모듈들의 상단에 배치되는 상기 제2카메라 모듈들, 및 상기 제2카메라 모듈들 사이의 중앙 상단에 배치되는 상기 제1카메라 모듈을 포함하며, 상기 전투 차량은, 전차, 장갑차, 자주포 및 소형 전술차 중 하나인 것을 특징으로 한다. According to an embodiment of the present invention, in a method for generating disparity map data in a stereo context recognition apparatus, a signal processing unit of the stereo context recognition apparatus applies a corner point or a contour filter to first image data of a first camera module to extracting a plurality of feature points; extracting, by the signal processing unit, a plurality of feature points by applying a corner point or a contour filter to second image data of a plurality of second camera modules; and comparing, by the signal processing unit, a plurality of feature points of the first camera module with a plurality of feature points of the second camera modules to determine the most similar feature point, and generating parallax map data by matching the most similar feature point including, wherein the stereo situation recognition device is provided in a combat vehicle, and a plurality of third camera modules respectively disposed on the lower left and right bottom sides of the stereo situation recognition device, and the first camera modules disposed on top of the a second camera module, and the first camera module disposed at the upper center between the second camera modules, wherein the combat vehicle is one of a tank, an armored vehicle, a self-propelled artillery, and a small tactical vehicle .

본 발명의 일 실시 예는 환경적인 제한을 받지 않는 스테레오 상황 인식 장치를 제공할 수 있다.An embodiment of the present invention may provide a stereo context recognition apparatus that is not subject to environmental restrictions.

그리고 본 발명의 일 실시 예에는 시차 맵 생성 시에 오류가 발생하지 않는 스테레오 상황 인식 장치를 제공할 수 있다.In addition, an embodiment of the present invention may provide a stereo context recognition apparatus in which an error does not occur when generating a disparity map.

도 1은 본 발명의 일 실시 예에 따른 전투 차량의 구성도이다.
도 2는 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치의 외부 구성도이다.
도 3은 본 발명의 제1실시 예에 따른 스테레오 상황 인식 장치의 내부 구성도이다.
도 4는 본 발명의 제2실시 예에 따른 스테레오 상황 인식 장치의 내부 구성도이다.
도 5는 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치의 수평각도를 나타내는 도면이다.
도 6은 본 발명의 일 실시 예에 따른 스테페오 상황 인식 장치의 블록 구성도이다.
도 7은 본 발명의 제1실시 예에 따른 스테레오 상황 인식 장치에서 시차 맵을 생성하는 절차를 나타내는 도면이다.
도 8은 본 발명의 제2실시 예에 따른 스테레오 상황 인식 장치에서 시차 맵을 생성하는 절차를 나타내는 도면이다.
도 9는 본 발명의 제3실시 예에 따른 스테레오 상황 인식 장치에서 시차 맵을 생성하는 절차를 나타내는 도면이다.
도 10은 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치에서 특징점을 비교하는 절차를 나타내는 도면이다.
도 11은 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치에서 시차 맵을 생성하는 흐름도이다.
1 is a block diagram of a combat vehicle according to an embodiment of the present invention.
2 is an external configuration diagram of an apparatus for recognizing a stereo situation according to an embodiment of the present invention.
3 is an internal configuration diagram of an apparatus for recognizing a stereo situation according to a first embodiment of the present invention.
4 is an internal configuration diagram of an apparatus for recognizing a stereo situation according to a second embodiment of the present invention.
5 is a diagram illustrating a horizontal angle of a stereo situation recognition apparatus according to an embodiment of the present invention.
6 is a block diagram of a stepeo situation recognition apparatus according to an embodiment of the present invention.
7 is a diagram illustrating a procedure for generating a disparity map in the apparatus for recognizing a stereo situation according to the first embodiment of the present invention.
8 is a diagram illustrating a procedure for generating a disparity map in a stereo situation recognition apparatus according to a second embodiment of the present invention.
9 is a diagram illustrating a procedure for generating a disparity map in a stereo situation recognition apparatus according to a third embodiment of the present invention.
10 is a diagram illustrating a procedure for comparing feature points in a stereo context recognition apparatus according to an embodiment of the present invention.
11 is a flowchart of generating a disparity map in the stereo context recognition apparatus according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명의 실시 예에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당하는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in the embodiments of the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. . In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

본 발명의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 발명된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Embodiments of the present invention can apply various transformations and can have various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the scope of the specific embodiments, and it should be understood to include all transformations, equivalents and substitutes included in the spirit and scope of the invention. In describing the embodiments, if it is determined that a detailed description of a related known technology may obscure the subject matter, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시 예에서 '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 혹은 복수 의'부'는 특정한 하드웨어로 구현될 필요가 있는 '모듈' 혹은 '부'를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In an embodiment of the present invention, a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of 'modules' or a plurality of 'units' are integrated into at least one module except for 'modules' or 'units' that need to be implemented with specific hardware and are implemented with at least one processor (not shown). can be

본 발명의 실시 예에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In an embodiment of the present invention, when a part is "connected" with another part, it is not only "directly connected" but also "electrically connected" with another element interposed therebetween. also includes In addition, when a part "includes" a certain component, this means that other components may be further included, rather than excluding other components, unless otherwise stated.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in various different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

원격 유무인 전투 차량이 임무를 수행하는 경우, 운용자는 사전에 주행 경로를 원격 유무인 전투 차량의 자율주행처리부에 입력한다. 그리고 원격 유무인 전투 차량은 자율주행으로 일정 경로를 이동하거나 운용자의 원격조종에 의해 주행한다. 예를 들면, 전투 차량은 전차, 장갑차, 자주포, 소형 전술차 등을 포함할 수 있다.When the remote unmanned combat vehicle performs a mission, the operator inputs a driving route to the autonomous driving processing unit of the remote unmanned combat vehicle in advance. In addition, the remote or unmanned combat vehicle moves on a certain route by autonomous driving or is driven by the operator's remote control. For example, combat vehicles may include tanks, armored vehicles, self-propelled artillery, small tactical vehicles, and the like.

원격 유무인 전투 차량이 주행을 시작하면, 원격 유무인 전투 차량의 스테레오 상황 인식 장치는 통신부를 통해 스테레오 영상을 통제 장치로 송신한다. 통제 장치는 현재 주행하고 있는 작전 지역 내에서 이동 장애물의 자동 탐지/추적, 인식 등 지능형 상황 감시에 따라 원격 유무인 전투 차량의 표적을 결정하고, 결정된 표적을 신호 및 제어 처리부로 송신한다. 그리고 신호 및 제어 처리부는 스테레오 상황 인식 장치를 제어한다. 예를 들면, 통제 장치는 유무인 전투 차량의 원격 조종을 위한 조종부, 영상 전시를 위한 영상 전시부, 제어처리부 및 통신부를 포함할 수 있다.When the remote unmanned combat vehicle starts driving, the stereo situation recognition device of the remote unattended or unattended combat vehicle transmits a stereo image to the control device through the communication unit. The control unit determines the target of the remote unmanned combat vehicle according to intelligent situation monitoring such as automatic detection/tracking and recognition of moving obstacles within the operating area in which it is currently traveling, and transmits the determined target to the signal and control processing unit. And the signal and control processing unit controls the stereo context recognition device. For example, the control device may include a control unit for remote control of an unmanned combat vehicle, an image display unit for displaying images, a control processing unit, and a communication unit.

본 발명에 따른 전투 차량은 스테레오 상황 인식 장치를 탑재한다. 예를 들면, 전차(101)는 도 1에 도시된 바와 같이, 스테레오 상황 인식 장치(103)를 전차(101)의 전단부에 탑재할 수 있다. The combat vehicle according to the present invention is equipped with a stereo situational recognition device. For example, the vehicle 101 may mount the stereo situation recognition device 103 on the front end of the vehicle 101 as shown in FIG. 1 .

도 2는 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치(103)의 외부 구성도이다. 2 is an external configuration diagram of the stereo context recognition apparatus 103 according to an embodiment of the present invention.

도 2를 참조하면, 스테레오 상황 인식 장치(201)는 다수의 카메라 모듈들을 포함한다. 예를 들면, 스테레오 상황 인식 장치(201)는, 도 3에 도시된 바와 같이, 근적외선(SWIR) 카메라 모듈과 IR 카메라 모듈 두 대와 TV 카메라 모듈 두 대를 포함할 수 있다. 예를 들면, 스테레오 상황 인식 장치(201)는 좌측에 제1TV 카메라 모듈(305)과 제1IR 카메라 모듈(303)을 배치하며, 우측에 제2TV 카메라 모듈(309)과 제2IR 카메라 모듈(307)을 배치하고, 제1 및 제2IR 카메라 모듈들(303, 307) 최상단에 근적외선 카메라 모듈(301)을 배치할 수 있다. 예를 들면, 제1IR 카메라 모듈(303)은 제1IR 카메라 모듈(305)의 상단에 배치되며, 제2IR 카메라 모듈(307)은 제2IR 카메라 모듈(309)의 상단에 배치될 수 있다.Referring to FIG. 2 , the stereo context recognition apparatus 201 includes a plurality of camera modules. For example, as shown in FIG. 3 , the stereo context recognition apparatus 201 may include a near-infrared (SWIR) camera module, two IR camera modules, and two TV camera modules. For example, the stereo context recognition device 201 arranges a first TV camera module 305 and a first IR camera module 303 on the left side, and a second TV camera module 309 and a second IR camera module 307 on the right side. , and the near-infrared camera module 301 may be disposed on top of the first and second IR camera modules 303 and 307 . For example, the first IR camera module 303 may be disposed on the top of the first IR camera module 305 , and the second IR camera module 307 may be disposed on the top of the second IR camera module 309 .

다른 예로, 스테레오 상황 인식 장치(201)는, 도 4에 도시된 바와 같이, IR 카메라 모듈 두 대와 IR-LED 및 보드 세 대를 포함할 수 있다. 예를 들면, 스테레오 상황 인식 장치(201)는 좌측에 제1IR-LED 및 보드(405)와 제1IR 카메라 모듈(403)을 배치하며, 우측에 제2IR-LED 및 보드(409)와 제1IR 카메라 모듈(407)을 배치하고, 제1 및 제2IR-LED 및 보드들(403, 407)의 최상단에 제3IR-LED 및 보드(401)를 배치할 수 있다. 예를 들면, 제1IR-LED 및 보드(403)는 제1IR 카메라 모듈(405)의 상단에 배치되며, 제2IR-LED 및 보드(407)는 제2IR 카메라 모듈(409)의 상단에 배치될 수 있다.As another example, the stereo context recognition device 201 may include two IR camera modules, an IR-LED, and three boards, as shown in FIG. 4 . For example, the stereo context recognition device 201 arranges the first IR-LED and the board 405 and the first IR camera module 403 on the left side, and the second IR-LED and the board 409 and the first IR camera on the right side. The module 407 may be disposed, and the third IR-LED and the board 401 may be disposed on top of the first and second IR-LEDs and the boards 403 and 407 . For example, the first IR-LED and the board 403 may be disposed on the top of the first IR camera module 405 , and the second IR-LED and the board 407 may be disposed on the top of the second IR camera module 409 . have.

도 5는 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치(103)의 수평각도를 나타내는 도면이다.5 is a view showing a horizontal angle of the stereo context recognition apparatus 103 according to an embodiment of the present invention.

도 5를 참조하면, 스테레오 상황 인식 장치(501)는 IR 카메라 두 대와 TV 카메라 모듈 두 대와 근적외선 카메라 모듈 한 대를 포함할 수 있다. 시야각 60도의 IR 카메라 모듈 두 대는 120도 수평각(503)을 인식하며, 시야각 60도의 TV 카메라 모듈 두 대는 120도 수평각(503)을 인식하고, 시야각 60도인 근적외선 카메라 모듈은 60도 수평각을 인식한다.Referring to FIG. 5 , the stereo context recognition device 501 may include two IR cameras, two TV camera modules, and one near-infrared camera module. Two IR camera modules with a viewing angle of 60 degrees recognize a 120-degree horizontal angle 503, two TV camera modules with a viewing angle of 60 degrees recognize a 120-degree horizontal angle 503, and a near-infrared camera module with a 60-degree viewing angle recognizes a 60-degree horizontal angle.

근적외선 카메라 모듈은 중앙을 기준으로 시야각이 60도이므로, 120도 수평각(503)을 통해 촬영된 IR 카메라 모듈 두 대의 합성 영상에서 중앙을 기준으로 근적외선 카메라 모듈의 수평각(501)과 동일한 영역을 캡쳐해야 한다. 그리고 근적외선 카메라 모듈은 120도 수평각(503)을 통해 촬영된 TV 카메라 모듈 두 대의 합성 영상에서 중앙을 기준으로 근적외선 카메라 모듈의 수평각(501)과 동일한 영역을 캡쳐해야 한다. Since the near-infrared camera module has a viewing angle of 60 degrees with respect to the center, it is necessary to capture the same area as the horizontal angle 501 of the near-infrared camera module based on the center in the composite image of two IR camera modules taken through a 120-degree horizontal angle 503. do. In addition, the near-infrared camera module needs to capture the same area as the horizontal angle 501 of the near-infrared camera module based on the center in the composite image of two TV camera modules photographed through a 120-degree horizontal angle 503 .

도 6은 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치(103)의 블록 구성도이다.6 is a block diagram of a stereo context recognition apparatus 103 according to an embodiment of the present invention.

도 6을 참조하면, 스테레오 상황 인식 장치(103)는 신호 처리부(601)와 메모리(603)와 통신부(605)와 다수의 카메라 모듈들(607)을 포함한다.Referring to FIG. 6 , the stereo context recognition apparatus 103 includes a signal processing unit 601 , a memory 603 , a communication unit 605 , and a plurality of camera modules 607 .

각 구성요소를 살펴보면, 메모리(603)는 스테레오 상황 인식 장치(103)의 동작에 필요한 각종 프로그램 및 데이터를 저장한다. 예를 들면, 메모리부(603)는 비휘발성 메모리, 휘발성 메모리, 플래시 메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 예를 들면, 메모리(603)는 다수의 카메라 모듈들(607)로부터 수신한 다수의 영상 데이터들을 저장하거나 시차 맵 데이터를 저장할 수 있다.Looking at each component, the memory 603 stores various programs and data necessary for the operation of the stereo context recognition device 103 . For example, the memory unit 603 may be implemented as a non-volatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), or a solid state drive (SSD). For example, the memory 603 may store a plurality of image data received from the plurality of camera modules 607 or store parallax map data.

통신부(605)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 기기와 통신을 수행한다. 예를 들면, 통신부(605)는 시차 맵 데이터를 통제 장치로 전송할 수 있다. The communication unit 605 performs communication with various types of external devices according to various types of communication methods. For example, the communication unit 605 may transmit the disparity map data to the control device.

다수의 카메라 모듈들(607) 각각은 전투 차량(101)의 주변 상황을 촬영하여 영상 데이터를 생성하고, 생성된 영상 데이터를 신호 처리부(601)로 출력한다. 예를 들면, 다수의 카메라 모듈들(607)은 두 대의 IR 카메라, 두 대의 TV 카메라와 한 대의 근적외선 카메라로 구성될 수 있다. 다른 예로, 다수의 카메라 모듈들(607)은 세 대의 IR- LED 및 보드와 두 대의 TV 카메라로 구성될 수 있다.Each of the plurality of camera modules 607 generates image data by photographing the surrounding situation of the combat vehicle 101 , and outputs the generated image data to the signal processing unit 601 . For example, the plurality of camera modules 607 may include two IR cameras, two TV cameras, and one near-infrared camera. As another example, the plurality of camera modules 607 may be configured with three IR-LEDs and a board and two TV cameras.

신호 처리부(601)는 메모리(603)에 저장된 각종 프로그램을 이용하여 스테레오 상황 인식 장치(103)의 전반적인 동작을 제어한다. 예를 들면, 신호 처리부(601)는 IR 또는 TV 카메라 제어 보드일 수 있다. The signal processing unit 601 controls the overall operation of the stereo context recognition apparatus 103 using various programs stored in the memory 603 . For example, the signal processing unit 601 may be an IR or TV camera control board.

예를 들면, 신호 처리부(601)는 다수의 카메라 모듈들(607)로부터 입력된 다수의 영상 데이터들을 이용하여 시차 맵 데이터를 생성할 수 있다. 예를 들면, 시차 맵은 스테레오 정합을 위한 두 이미지(예를 들면, 위쪽 이미지와 아래쪽 아미지)에서의 객체의 위치 상의 다른 차이를 나타낼 수 있다.For example, the signal processing unit 601 may generate disparity map data using a plurality of image data input from the plurality of camera modules 607 . For example, the disparity map may represent different differences in the position of an object in two images (eg, an upper image and a lower image) for stereo registration.

좀 더 자세히 설명하면, 신호 처리부(601)는, 도 7에 도시된 시차 맵 생성 절차(701)에 따라, TV 카메라 모듈을 기반으로 근적외선 카메라 모듈의 시차 맵 데이터를 생성하기 위해, TV 카메라 모듈로부터 입력된 영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출할 수 있다. 그리고 신호 처리부(601)는 근적외선 카메라 모듈로부터 입력된 영상 데이터에서 코너점 도는 윤곽선 필터를 적용하여 복수의 특징점들을 추출할 수 있다. In more detail, the signal processing unit 601 is configured to generate disparity map data of the near-infrared camera module based on the TV camera module according to the disparity map generation procedure 701 shown in FIG. 7 , from the TV camera module. A plurality of feature points may be extracted by applying a corner point or a contour filter to the input image data. In addition, the signal processing unit 601 may extract a plurality of feature points by applying a corner point or a contour filter to the image data input from the near-infrared camera module.

그리고 신호 처리부(601)는 TV 카메라 모듈의 복수의 특징점들과 근적외선 카메라 모듈의 복수의 특징점들을 이용하여 시차 맵 데이터를 생성할 수 있다. In addition, the signal processing unit 601 may generate parallax map data using a plurality of feature points of the TV camera module and a plurality of feature points of the near-infrared camera module.

예를 들면, 신호 처리부(601)는 TV 카메라 모듈의 영상 데이터의 왼쪽 하단에서 오른쪽 상단까지 TV 카메라 모듈의 복수의 특징점들과 근적외선 카메라 모듈의 복수의 특징점들을 비교하여 가장 유사한 특징점을 결정할 수 있다. 왜냐하면, TV 카메라 모듈과 근적외선 카메라 모듈이 좌우로 배치되어 있지 않고 상하로 배치되어 있기 때문이다. 그리고 신호 처리부(601)는 가장 유사한 특징점을 매칭하여 시차 맵 데이터를 생성할 수 있다. For example, the signal processing unit 601 may determine the most similar feature point by comparing a plurality of feature points of the TV camera module and a plurality of feature points of the near-infrared camera module from the lower left to the upper right of the image data of the TV camera module. This is because the TV camera module and the near-infrared camera module are not arranged horizontally, but vertically. In addition, the signal processing unit 601 may generate disparity map data by matching the most similar feature points.

이때, 신호 처리부(601)는 여러가지 방법을 이용하여 가장 유사한 특징점을 찾아 매칭한다. 예를 들면, 여러가지 방법은 합계 절대 차이 값(Sum of Absolute Difference, 이하 'SAD'라 한다), 평균 절대 차이 값(Mean Absolute Difference, 이하 'MAD'라 한다), 정규화된 상관관계 값(Normalized Correlation, 이하 'NC'라 한다), 정규화된 교차 상관관계 값(Normalized Cross Correlation, 이하 'NCC'라 한다) 등을 포함할 수 있다. In this case, the signal processing unit 601 finds and matches the most similar feature points using various methods. For example, various methods include a sum absolute difference value (Sum of Absolute Difference, hereinafter referred to as 'SAD'), a mean absolute difference value (hereinafter referred to as 'MAD'), and a normalized correlation value (Normalized Correlation). , hereinafter referred to as 'NC'), a normalized cross correlation value (hereinafter referred to as 'NCC'), and the like.

예를 들면, 신호 처리부(601)는 다음과 같은 수학식 1을 이용하여 MAD 방법으로 TV 카메라 모듈의 복수의 특징점들과 근적외선 카메라 모듈의 복수의 특징점들을 비교할 수 있다. For example, the signal processing unit 601 may compare the plurality of feature points of the TV camera module with the plurality of feature points of the near-infrared camera module by the MAD method using Equation 1 as follows.

Figure 112020119242645-pat00001
Figure 112020119242645-pat00001

여기서, MAD(ATV, BSWIR)은 MAD 방식을 이용하여 TV 카메라 모듈(ATV)의 영상 데이터와 근적외선 카메라 모듈(BSWIR)의 영상 데이터 간에 추출된 값을 나타낸다. 그리고 i와 j는 영상 데이터의 화소 인덱스 값을 나타낸다.Here, MAD(A TV , B SWIR ) represents a value extracted between the image data of the TV camera module A TV and the image data of the near-infrared camera module B SWIR using the MAD method. And i and j represent pixel index values of image data.

이때, 신호 처리부(601)는, 도 10에 도시된 TV 카메라 모듈의 영상 데이터(1001)의 3x3 블록(a1)과 근적외선 카메라 모듈의 영상 데이터(1003)의 3x3 블록 (b1)간에 MAD 방법인 수학식 1을 적용하여 두 영상 데이터들(1001, 1003) 간의 값을 추출한다. 그 다음으로, 신호 처리부(601)는 영상 데이터들(1001, 1003))의 한 픽셀 위로 이동하여 TV 카메라 모듈의 영상 데이터의 3x3 블록(a2)과 근적외선 카메라 모듈의 영상 데이터의 3x3 블록 (b2)간에 MAD 방법을 이용하여 두 영상 간의 값을 추출한다. 그 다음으로, 신호 처리부(601)는 영상 데이터들(1001, 1003)의 상단 블록까지 이러한 동작을 반복하여 값을 추출한다. 이후에, 신호 처리부(601)는 영상 데이터들(1001, 1003)의 한 화소 오른쪽으로 이동하여 이전 과정을 반복 수행한다. 신호 처리부(601)는 TV 카메라 모듈의 영상 데이터(1001)의 3x3 블록(an)과 근적외선 카메라 모듈의 영상 데이터(1003)의 3x3 블록(bn) 간의 값을 추출할 때까지 이러한 과정을 반복 수행한다. At this time, the signal processor 601, MAD way between 10 the 3x3 block of image data 1001 of the TV camera module shown in (a 1) and the 3x3 block (b 1) of the image data 1003 of the near-infrared camera module Equation 1 is applied to extract a value between the two image data 1001 and 1003 . Next, the signal processing unit 601 moves over one pixel of the image data 1001 and 1003) to a 3x3 block (a 2 ) of the image data of the TV camera module and a 3x3 block (b) of the image data of the near-infrared camera module 2 ) The value between the two images is extracted using the MAD method. Next, the signal processing unit 601 extracts values by repeating these operations up to the upper block of the image data 1001 and 1003 . Thereafter, the signal processing unit 601 moves to the right of one pixel of the image data 1001 and 1003 and repeats the previous process. The signal processing unit 601 repeats this process until a value between the 3x3 block (a n ) of the image data 1001 of the TV camera module and the 3x3 block (b n ) of the image data 1003 of the near-infrared camera module is extracted. carry out

그리고 신호 처리부(601)는 추출된 값들 중에서 가장 작은 값(가장 유사한 값)을 선택하고, 선택된 가장 작은 값에 대응하는 TV 카메라 모듈의 영상 데이터(1001)의 픽셀과 근적외선 카메라 모듈의 영상 데이터(1003)의 픽셀을 매칭하여 시차 맵을 생성한다. And the signal processing unit 601 selects the smallest value (the most similar value) among the extracted values, and the pixel of the image data 1001 of the TV camera module corresponding to the selected smallest value and the image data 1003 of the near-infrared camera module ) to create a disparity map.

그리고 신호 처리부(601)는 두 영상 데이터들의 특징점들을 기반으로 매칭이 잘 이루어졌는지를 확인한다. 이때, 신호 처리부(601)는 매칭이 잘 이루어졌는지 확인하기 위한 척도(cost function)로, 정규화된 상호 정보(normalized mutual information)를 이용한다. 예를 들면, 신호 처리부(601)는 수학식 2를 이용하여 정합하고자하는 TV 카메라 모듈(ATV)의 영상 데이터와 근적외선 카메라 모듈(BSWIR)의 영상 데이터에 대해 정규화된 상호 정보를 측정할 수 있다.In addition, the signal processing unit 601 checks whether matching is well performed based on the feature points of the two image data. In this case, the signal processing unit 601 uses normalized mutual information as a cost function for checking whether matching is well performed. For example, the signal processing unit 601 can measure mutual information normalized for the image data of the TV camera module (A TV ) and the image data of the near-infrared camera module (B SWIR) to be matched using Equation 2 have.

Figure 112020119242645-pat00002
Figure 112020119242645-pat00002

여기에서, IN은 정규화된 상호 정보를 기반으로 출력된 값을 나타내며, N은 프레임 수를 나타낸다. ATV는 TV 카메라 모듈의 영상 데이터를 나타내며, BSWIR은 근적외선 카메라 모듈의 영상 데이터를 나타낸다. H(ATV)는 수학식 3을 이용하여 결정되며, H(BSWIR)는 수학식 4를 이용하여 결정되고, H(ATV, BSWIR)는 수학식 5를 이용하여 결정된다. Here, I N represents a value output based on normalized mutual information, and N represents the number of frames. A TV indicates image data of the TV camera module, and B SWIR indicates image data of the near-infrared camera module. H(A TV ) is determined using Equation 3, H(B SWIR ) is determined using Equation 4, and H(A TV , B SWIR ) is determined using Equation 5.

Figure 112020119242645-pat00003
Figure 112020119242645-pat00003

여기서, P는 영상 데이터의 화소 밝기 값의 확률분포를 나타낸다.Here, P denotes a probability distribution of pixel brightness values of image data.

Figure 112020119242645-pat00004
Figure 112020119242645-pat00004

Figure 112020119242645-pat00005
Figure 112020119242645-pat00005

한편, 신호 처리부(601)는, 도 8에 도시된 시차 맵 생성 절차(801)에 따라, TV 카메라 모듈을 기반으로 IR 카메라 모듈의 시차 맵 데이터를 생성하기 위해, TV 카메라 모듈로부터 입력된 영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출할 수 있다. 그리고 신호 처리부(601)는 IR 카메라 모듈로부터 입력된 영상 데이터에서 코너점 도는 윤곽선 필터를 적용하여 복수의 특징점들을 추출할 수 있다. On the other hand, the signal processing unit 601, according to the disparity map generation procedure 801 shown in FIG. 8, to generate disparity map data of the IR camera module based on the TV camera module, image data input from the TV camera module A plurality of feature points may be extracted by applying a corner point or a contour filter to . In addition, the signal processing unit 601 may extract a plurality of feature points by applying a corner point or a contour filter to the image data input from the IR camera module.

그리고 신호 처리부(601)는 TV 카메라 모듈의 복수의 특징점들과 IR 카메라 모듈의 복수의 특징점들을 이용하여 시차 맵 데이터를 생성할 수 있다. In addition, the signal processing unit 601 may generate disparity map data using a plurality of feature points of the TV camera module and a plurality of feature points of the IR camera module.

예를 들면, 신호 처리부(601)는 TV 카메라 모듈의 영상 데이터의 왼쪽 하단에서 오른쪽 상단까지 TV 카메라 모듈의 복수의 특징점들과 IR 카메라 모듈의 복수의 특징점들을 비교하여 가장 유사한 특징점을 결정할 수 있다. 왜냐하면, TV 카메라 모듈과 IR 카메라 모듈이 좌우로 배치되어 있지 않고 상하로 배치되어 있기 때문이다. 그리고 신호 처리부(601)는 가장 유사한 특징점을 매칭하여 시차 맵 데이터를 생성할 수 있다. For example, the signal processing unit 601 may determine the most similar feature point by comparing a plurality of feature points of the TV camera module and a plurality of feature points of the IR camera module from the lower left to the upper right of the image data of the TV camera module. This is because the TV camera module and the IR camera module are not arranged horizontally, but vertically. In addition, the signal processing unit 601 may generate disparity map data by matching the most similar feature points.

또한, 신호 처리부(601)는, 도 9에 도시된 시차 맵 생성 절차(901)에 따라, 근적외선 카메라 모듈을 기반으로 IR 카메라 모듈의 시차 맵 데이터를 생성하기 위해, 근적외선 카메라 모듈로부터 입력된 영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출할 수 있다. 그리고 신호 처리부(601)는 IR 카메라 모듈로부터 입력된 영상 데이터에서 코너점 도는 윤곽선 필터를 적용하여 복수의 특징점들을 추출할 수 있다. In addition, the signal processing unit 601, according to the disparity map generation procedure 901 shown in FIG. 9, to generate the disparity map data of the IR camera module based on the near-infrared camera module, the image data input from the near-infrared camera module A plurality of feature points may be extracted by applying a corner point or a contour filter to . In addition, the signal processing unit 601 may extract a plurality of feature points by applying a corner point or a contour filter to the image data input from the IR camera module.

그리고 신호 처리부(601)는 근적외선 카메라 모듈의 복수의 특징점들과 IR 카메라 모듈의 복수의 특징점들을 이용하여 시차 맵 데이터를 생성할 수 있다. In addition, the signal processing unit 601 may generate disparity map data using a plurality of feature points of the near-infrared camera module and a plurality of feature points of the IR camera module.

예를 들면, 신호 처리부(601)는 근적외선 카메라 모듈의 영상 데이터의 왼쪽 하단에서 오른쪽 상단까지 근적외선 카메라 모듈의 복수의 특징점들과 IR 카메라 모듈의 복수의 특징점들을 비교하여 가장 유사한 특징점을 결정할 수 있다. 왜냐하면, 근적외선 카메라 모듈과 IR 카메라 모듈이 좌우로 배치되어 있지 않고 상하로 배치되어 있기 때문이다. 그리고 신호 처리부(601)는 가장 유사한 특징점을 매칭하여 시차 맵 데이터를 생성할 수 있다. For example, the signal processing unit 601 may determine the most similar feature point by comparing a plurality of feature points of the near-infrared camera module and a plurality of feature points of the IR camera module from the lower left to the upper right of the image data of the near-infrared camera module. This is because the near-infrared camera module and the IR camera module are not arranged horizontally, but vertically. In addition, the signal processing unit 601 may generate disparity map data by matching the most similar feature points.

도 11은 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치(103)에서 시차 맵을 생성하는 흐름도이다.11 is a flowchart of generating a disparity map in the stereo context recognition apparatus 103 according to an embodiment of the present invention.

도 11을 참조하면, 스테레오 상황 인식 장치(103)의 신호 처리부(601)는, 1101 단계에서, TV 카메라 모듈의 영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출한다. Referring to FIG. 11 , the signal processing unit 601 of the stereo context recognition apparatus 103 extracts a plurality of feature points by applying a corner point or a contour filter to image data of the TV camera module in step 1101 .

1103 단계에서, 신호 처리부(601)는 근적외선 카메라 모듈로부터 입력된 영상 데이터에서 코너점 도는 윤곽선 필터를 적용하여 복수의 특징점들을 추출한다. In step 1103 , the signal processing unit 601 extracts a plurality of feature points by applying a corner point or a contour filter to the image data input from the near-infrared camera module.

1105 단계에서, 신호 처리부(601)는 TV 카메라 모듈의 복수의 특징점들과 근적외선 카메라 모듈의 복수의 특징점들을 이용하여 시차 맵 데이터를 생성한다. In operation 1105 , the signal processing unit 601 generates parallax map data using a plurality of feature points of the TV camera module and a plurality of feature points of the near-infrared camera module.

예를 들면, 신호 처리부(601)는 TV 카메라 모듈의 영상 데이터의 왼쪽 하단에서 오른쪽 상단까지 TV 카메라 모듈의 복수의 특징점들과 근적외선 카메라 모듈의 복수의 특징점들을 비교하여 가장 유사한 특징점을 결정할 수 있다. 왜냐하면, TV 카메라 모듈과 근적외선 카메라 모듈이 좌우로 배치되어 있지 않고 상하로 배치되어 있기 때문이다. 그리고 신호 처리부(601)는 가장 유사한 특징점을 매칭하여 시차 맵 데이터를 생성할 수 있다. For example, the signal processing unit 601 may determine the most similar feature point by comparing a plurality of feature points of the TV camera module and a plurality of feature points of the near-infrared camera module from the lower left to the upper right of the image data of the TV camera module. This is because the TV camera module and the near-infrared camera module are not arranged horizontally, but vertically. In addition, the signal processing unit 601 may generate disparity map data by matching the most similar feature points.

본 발명의 일 실시 예는 원격 유무선 전투 차량에서 이종의 가시광/적외선 센서 기반 카메라 모듈과 근적외선 카메라 모듈을 포함하는 스테레오 상황 인식 장치를 제안한다. 그리고 본 발명의 일 실시 예는 스테레오 상황 인식 장치를 이용하여 거리 정보를 추출하기 위한 시차 맵을 생성하는 방법을 제안한다. 예를 들면, 스테레오 상황 인식 장치는 가시광 또는 적외선 센서 기반의 다수의 카메라 모듈들을 블록식으로 쌓아 체결하는 구조이다. An embodiment of the present invention proposes a stereo situational recognition device including a camera module based on heterogeneous visible/infrared sensors and a near-infrared camera module in a remote wired/wireless combat vehicle. In addition, an embodiment of the present invention proposes a method of generating a disparity map for extracting distance information using a stereo context recognition apparatus. For example, the stereo context recognition device has a structure in which a plurality of camera modules based on visible light or infrared sensors are stacked and fastened in a block manner.

본 발명의 일 실시 예는 3종의 카메라 모듈들을 포함하는 스테레오 상황 인식 장치를 이용하여 시차 맵을 생성하고, 시차 맵을 기반으로 거리 정보를 추출한다. 그러므로 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치는 주/야간에 상관 없이 운용이 가능하다. 특히, 스테레오 상황 인식 장치는 안개, 연기, 모래먼지, 미세먼지 및 야간 등에서 두 대의 TV 카메라들을 포함하는 스테레오 상황 인식 장치보다 정확한 시차 맵을 생성할 수 있다. 즉, 본 발명의 일 실시 예에 따른 스테레오 상황 인식 장치는 환경적인 영향을 덜 받는다. According to an embodiment of the present invention, a disparity map is generated using a stereo situation recognition device including three types of camera modules, and distance information is extracted based on the disparity map. Therefore, the apparatus for recognizing a stereo situation according to an embodiment of the present invention can be operated regardless of day/night. In particular, the stereo contextual recognition apparatus may generate a more accurate disparity map than the stereo contextual recognition apparatus including two TV cameras in fog, smoke, sand dust, fine dust, and at night. That is, the apparatus for recognizing a stereo situation according to an embodiment of the present invention is less affected by the environment.

또한, 본 발명의 일 실시 예에서는 스테레오 상황 인식 장치가 적외선 센서 기반 카메라 모듈 3대(예를 들면, 근적외선 카메라 모듈 한 대 및 IR 카메라 모듈 두 대)를 포함하므로, 적외선 센서의 출력 영상이 선명하기 때문에 시차 맵을 생성할 때 오류가 발생하지 않는다. In addition, in an embodiment of the present invention, since the stereo context recognition device includes three infrared sensor-based camera modules (for example, one near-infrared camera module and two IR camera modules), the output image of the infrared sensor is clear. Therefore, there is no error when generating the parallax map.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and it is common in the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims. Various modifications may be made by those having the knowledge of, of course, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

예를 들면, 본 발명에서는 근적외선 카메라, IR 카메라 모듈 두 대와 TV 카메라 모듈 두 대를 포함하는 스테레오 상황 인식 장치가 시차 맵 데이터를 생성하는 것으로 설명하였으나, 본 발명은 이에 한정되지 않는다. 예를 들면, 본 발명에서 시차 맵 데이터를 생성하는 방법은 IR 카메라 모듈 두 대와 IR-LED 및 보드 세 대를 포함하는 스테레오 상황 인식 장치에서도 충분히 적용될 수 있다.For example, in the present invention, it has been described that a stereo situation recognition device including a near-infrared camera, two IR camera modules, and two TV camera modules generates parallax map data, but the present invention is not limited thereto. For example, the method of generating disparity map data in the present invention can be sufficiently applied to a stereo situation recognition device including two IR camera modules, an IR-LED, and three boards.

101: 전차 103: 스테레오 상황 인식 장치
201: 스테레오 상황 인식 장치 301: 근적외선 카메라 모듈
303, 307: IR 카메라 모듈 305, 309: TV 카메라 모듈
401, 405, 409: IR-LED 및 보드 403, 407: IR 카메라 모듈
501: 스테레오 상황 인식 장치
503: IR 카메라 모듈 및 TV 카메라 모듈의 수평각
505: 근적외선 카메라 모듈의 수평각
601: 신호 처리부 603: 메모리
605: 통신부 607: 다수의 카메라 모듈들
101: tank 103: stereo situational awareness device
201: stereo situational recognition device 301: near-infrared camera module
303, 307: IR camera module 305, 309: TV camera module
401, 405, 409: IR-LED and board 403, 407: IR camera module
501: stereo situational awareness device
503: Horizontal angle of IR camera module and TV camera module
505: horizontal angle of the near-infrared camera module
601: signal processing unit 603: memory
605: communication unit 607: a plurality of camera modules

Claims (6)

전투 차량의 전면부는 스테레오 상황 인식 장치를 구비하며,
상기 스테레오 상황 인식 장치는,
상기 스테레오 상황 인식 장치의 좌측 하단과 우측 하단에 각각 배치되어 제1영역을 촬영하는 복수의 제1카메라 모듈들;
상기 제1카메라 모듈들의 상단에 배치되어 상기 제1카메라 모듈들과 동일한 상기 제1영역을 촬영하는 복수의 제2카메라 모듈들;
상기 제1카메라 모듈들과 상기 제2카메라 모듈들 사이의 중앙 상단에 배치되어 상기 제1영역 내의 일부 영역인 제2영역을 촬영하는 제3카메라 모듈; 및
상기 제3카메라 모듈의 제1영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출하며,상기 제2카메라 모듈들의 제2영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출하며, 상기 제1영상 데이터와 상기 제2영상 데이터의 좌측 하단부터 우측 상단까지 상기 제3카메라 모듈의 복수의 특징점들과 상기 제2카메라 모듈들의 복수의 특징점들을 순차적으로 비교하여 가장 유사한 특징점을 결정하고, 상기 가장 유사한 특징점을 기준으로 상기 제1영상 데이터와 상기 제2영상 데이터를 매칭하여 시차 맵 데이터를 생성하는 신호 처리부를 포함하며,
상기 전투 차량은, 전차, 장갑차, 자주포 및 소형 전술차 중 하나인 것을 특징으로 하는 스테레오 상황 인식 장치.
The front part of the combat vehicle is equipped with a stereo situational awareness device,
The stereo situation recognition device,
a plurality of first camera modules disposed at the lower left and lower right sides of the stereo context recognition device, respectively, to photograph a first area;
a plurality of second camera modules disposed on top of the first camera modules to photograph the same first area as the first camera modules;
a third camera module disposed at an upper center between the first camera modules and the second camera modules to photograph a second area that is a partial area within the first area; and
A corner point or a contour filter is applied to the first image data of the third camera module to extract a plurality of feature points, and a corner point or a contour filter is applied to the second image data of the second camera modules to extract a plurality of feature points and sequentially comparing a plurality of feature points of the third camera module and a plurality of feature points of the second camera modules from the lower left to the upper right of the first image data and the second image data to determine the most similar feature point and a signal processing unit for generating disparity map data by matching the first image data and the second image data based on the most similar feature points,
The combat vehicle is a stereo situation recognition device, characterized in that one of a tank, an armored vehicle, a self-propelled artillery, and a small tactical vehicle.
제1항에 있어서,
상기 제1카메라 모듈들은 TV 카메라 모듈들이며,
상기 제2카메라 모듈들은 IR 카메라 모듈들이고,
상기 제3카메라 모듈은 근적외선 카메라 모듈인 것을 특징으로 하는 스테레오 상황 인식 장치.
According to claim 1,
The first camera modules are TV camera modules,
The second camera modules are IR camera modules,
The third camera module is a stereo situation recognition device, characterized in that the near-infrared camera module.
제1항에 있어서,
상기 제1카메라 모듈들과 상기 제3카메라 모듈은 IR-LED 및 보드들이며,
상기 제2카메라 모듈들은 IR 카메라 모듈들인 것을 특징으로 하는 스테레오 상황 인식 장치.
According to claim 1,
The first camera modules and the third camera module are IR-LEDs and boards,
The second camera module is a stereo context recognition device, characterized in that the IR camera module.
스테레오 상황 인식 장치의 신호 처리부가, 제1카메라 모듈의 제1영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출하는 과정;
상기 신호 처리부가, 복수의 제2카메라 모듈들의 제2영상 데이터에 코너점 또는 윤곽선 필터를 적용하여 복수의 특징점들을 추출하는 과정;
상기 신호 처리부가, 상기 제1영상 데이터와 상기 제2영상 데이터의 좌측 하단부터 우측 상단까지 상기 제1카메라 모듈의 복수의 특징점들과 상기 제2카메라 모듈들의 복수의 특징점들을 순차적으로 비교하여 가장 유사한 특징점을 결정하는 과정; 및
상기 가장 유사한 특징점을 기준으로 상기 제1영상 데이터와 상기 제2영상 데이터를 매칭하여 시차 맵 데이터를 생성하는 과정을 포함하며,
상기 스테레오 상황 인식 장치는, 전투 차량의 전면부에 구비되며, 상기 스테레오 상황 인식 장치의 좌측 하단과 우측 하단에 각각 배치되어 제1영역을 촬영하는 복수의 제3카메라 모듈들, 상기 제1카메라 모듈들의 상단에 배치되는 상기 제3카메라 모듈들과 동일한 상기 제1영역을 촬영하는 상기 제2카메라 모듈들, 및 상기 제3카메라 모듈들과 상기 제2카메라 모듈들 사이의 중앙 상단에 배치되어 상기 제1영역 내의 일부 영역인 제2영역을 촬영하는 상기 제1카메라 모듈을 포함하며,
상기 전투 차량은, 전차, 장갑차, 자주포 및 소형 전술차 중 하나인 것을 특징으로 하는 스테레오 상황 인식 장치에서 시차 맵 데이터를 생성하는 방법.
A process of extracting, by a signal processing unit of the stereo situation recognition apparatus, a plurality of feature points by applying a corner point or a contour filter to the first image data of the first camera module;
extracting, by the signal processing unit, a plurality of feature points by applying a corner point or a contour filter to second image data of a plurality of second camera modules;
The signal processing unit sequentially compares the plurality of feature points of the first camera module and the plurality of feature points of the second camera modules from the lower left to the upper right of the first image data and the second image data to be the most similar the process of determining the feature point; and
and generating disparity map data by matching the first image data and the second image data based on the most similar feature points,
The stereo situation recognition device is provided on the front part of the combat vehicle, and is disposed at the lower left and lower right sides of the stereo situation recognition device, respectively, a plurality of third camera modules for photographing the first area, the first camera module The second camera modules for photographing the same first area as the third camera modules disposed on the top of the It includes the first camera module for photographing a second area that is a partial area within the first area,
The method for generating parallax map data in a stereo situational recognition device, characterized in that the combat vehicle is one of a tank, an armored vehicle, a self-propelled artillery, and a small tactical vehicle.
제4항에 있어서,
상기 제3카메라 모듈들은 TV 카메라 모듈들이며,
상기 제2카메라 모듈들은 IR 카메라 모듈들이고,
상기 제1카메라 모듈은 근적외선 카메라 모듈인 것을 특징으로 하는 스테레오 상황 인식 장치에서 시차 맵 데이터를 생성하는 방법.
5. The method of claim 4,
The third camera modules are TV camera modules,
The second camera modules are IR camera modules,
The first camera module is a method for generating parallax map data in a stereo situation recognition device, characterized in that the near-infrared camera module.
제5항에 있어서,
상기 제3카메라 모듈들과 상기 제1카메라 모듈은 IR-LED 및 보드들이며,
상기 제2카메라 모듈들은 IR 카메라 모듈들인 것을 특징으로 하는 스테레오 상황 인식 장치에서 시차 맵 데이터를 생성하는 방법.
6. The method of claim 5,
The third camera modules and the first camera module are IR-LEDs and boards,
The method for generating parallax map data in a stereo situation recognition device, characterized in that the second camera modules are IR camera modules.
KR1020200148311A 2020-11-09 2020-11-09 Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus KR102302907B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200148311A KR102302907B1 (en) 2020-11-09 2020-11-09 Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200148311A KR102302907B1 (en) 2020-11-09 2020-11-09 Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus

Publications (1)

Publication Number Publication Date
KR102302907B1 true KR102302907B1 (en) 2021-09-17

Family

ID=77923981

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200148311A KR102302907B1 (en) 2020-11-09 2020-11-09 Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus

Country Status (1)

Country Link
KR (1) KR102302907B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110138410A (en) * 2009-04-14 2011-12-27 배 시스템즈 인포메이션 앤드 일렉트로닉 시스템즈 인티크레이션, 인크. Vehicle-mountable imaging systems and methods
KR20120001732A (en) * 2009-03-13 2012-01-04 배 시스템즈 인포메이션 앤드 일렉트로닉 시스템즈 인티크레이션, 인크. Vehicle-mountable imaging systems and methods
KR20190063671A (en) * 2017-11-30 2019-06-10 (주)코어센스 3d thermal distribution display device using stereo camera and thermal camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120001732A (en) * 2009-03-13 2012-01-04 배 시스템즈 인포메이션 앤드 일렉트로닉 시스템즈 인티크레이션, 인크. Vehicle-mountable imaging systems and methods
KR20110138410A (en) * 2009-04-14 2011-12-27 배 시스템즈 인포메이션 앤드 일렉트로닉 시스템즈 인티크레이션, 인크. Vehicle-mountable imaging systems and methods
KR20190063671A (en) * 2017-11-30 2019-06-10 (주)코어센스 3d thermal distribution display device using stereo camera and thermal camera

Similar Documents

Publication Publication Date Title
Brunner et al. Selective combination of visual and thermal imaging for resilient localization in adverse conditions: Day and night, smoke and fire
US10268904B2 (en) Vehicle vision system with object and lane fusion
KR102051032B1 (en) Object detection apparatus and controlling method thereof
WO2018101247A1 (en) Image recognition imaging apparatus
US10914960B2 (en) Imaging apparatus and automatic control system
EP1797523A2 (en) Method and apparatus for producing a fused image
EP1395059B1 (en) Intruding-object detection apparatus
TWI744245B (en) Generating a disparity map having reduced over-smoothing
CN112036210A (en) Method and device for detecting obstacle, storage medium and mobile robot
JP4042517B2 (en) Moving body and position detection device thereof
KR102136273B1 (en) Object Recognition Apparatus
US11610375B2 (en) Modulated display AR tracking systems and methods
US11740315B2 (en) Mobile body detection device, mobile body detection method, and mobile body detection program
KR102302907B1 (en) Stereo awareness apparatus, and method for generating disparity map in the stereo awareness apparatus
CN107885231A (en) A kind of unmanned plane capturing method and system based on visible images identification
US11418707B2 (en) Electronic device and notification method
KR102135672B1 (en) Autonomous driving devise and method
CN111402610A (en) Method, device, equipment and storage medium for identifying lighting state of traffic light
CN113011212B (en) Image recognition method and device and vehicle
KR102316199B1 (en) Situation recognition and remote control system in remote driving/monitoring mode
US11589028B2 (en) Non-same camera based image processing apparatus
KR102316196B1 (en) 360 degree hybrid situational awareness and remote control system
CN111860050B (en) Loop detection method and device based on image frames and vehicle-mounted terminal
KR101981523B1 (en) User identification system for coordinate recognition of IR type input device
KR20230082387A (en) Apparatus and method for processing image of vehicle

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant