KR101175752B1 - Bayesian rule-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling - Google Patents

Bayesian rule-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling Download PDF

Info

Publication number
KR101175752B1
KR101175752B1 KR1020120003730A KR20120003730A KR101175752B1 KR 101175752 B1 KR101175752 B1 KR 101175752B1 KR 1020120003730 A KR1020120003730 A KR 1020120003730A KR 20120003730 A KR20120003730 A KR 20120003730A KR 101175752 B1 KR101175752 B1 KR 101175752B1
Authority
KR
South Korea
Prior art keywords
target
pixel
value
maximum brightness
moment modeling
Prior art date
Application number
KR1020120003730A
Other languages
Korean (ko)
Inventor
박장한
Original Assignee
삼성탈레스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성탈레스 주식회사 filed Critical 삼성탈레스 주식회사
Priority to KR1020120003730A priority Critical patent/KR101175752B1/en
Application granted granted Critical
Publication of KR101175752B1 publication Critical patent/KR101175752B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/74Systems using reradiation of electromagnetic waves other than radio waves, e.g. IFF, i.e. identification of friend or foe
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Abstract

PURPOSE: A Bayesian rule base target determining system for a strapdown dual mode imaging seeker using location weighted or region expanding 2D moment modeling capable of determining a final target using a Bayesian rule is provided to precisely determine a miniature target and an expanded target by determining the final target using the Bayesian rule. CONSTITUTION: An infrared image sensor(30) and a visible light image sensor(50) respectively obtain an infrared ray image and a visible light image with respect to a specific area. A two dimensional moment modeling module(100) determines a first target candidate from the obtained infrared ray image through two dimensional moment modeling based on location weighting or region growing. An SIFT(Scale Invariant Feature Transform) target characteristic value extraction module(200) extracts a second target candidate by using an SIFT technique. A Bayesian rule application target determining module(300) determines a final target according to the priority of calculated probability by calculating the similarity of determined first and second target candidates using probability.

Description

위치 가중 또는 영역 확장 2차원 모멘트 모델링을 이용한 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 시스템{BAYESIAN RULE-BASED TARGET DECISION SYSTEM FOR STRAPDOWN DUAL MODE IMAGING SEEKER USING LOCATION WEIGHTED OR REGION GROWING MOMENT MODELING}BAYESIAN RULE-BASED TARGET DECISION SYSTEM FOR STRAPDOWN DUAL MODE IMAGING SEEKER USING LOCATION WEIGHTED OR REGION GROWING MOMENT MODELING}

본 발명의 개념에 따른 실시 예는 스트랩다운 탐색기의 표적 결정 기술에 관한 것으로, 더욱 상세하게는 스트랩다운 이중 모드 영상탐색기에서 소형 표적 및 확장되는 표적을 베이시안 규칙을 기반으로 결정하는 시스템에 관한 것이다.An embodiment according to the concept of the present invention relates to a target determination technique of a strapdown searcher, and more particularly, to a system for determining a small target and an extended target based on Bayesian rules in a strapdown dual mode imager. .

표적을 요격하기 위한 장치들 중 하나인 유도탄은 목표에 도달할 때까지 특정 방법에 의해 유도되는 장치를 갖는 무기이다. 이러한 유도탄에는 표적 정보 처리를 위한 영상탐색 장치가 탑재되어 있으며, 상기 영상탐색 장치는 영상 기반으로 표적을 탐지하고 식별하여 포착 및 추적한 결과를 유도 조종 컴퓨터로 전송하는 역할을 수행한다. 최근 들어 상기 표적 탐지 및 식별률 향상을 위해 다중센서, 예컨대 IR 센서나 CCD 센서 등을 이용한 영상융합 신호처리 기법에 관한 연구가 활발히 진행되고 있다. 상기의 영상융합 신호처리 기법은 다수의 단일센서들 각각으로부터 고유한 파장 대역의 영상 정보를 획득하고, 획득된 영상 정보를 융합하여 분석함으로써 단일 센서만으로는 볼 수 없었던 표적 및 배경에 대한 정보를 상호 보완하여 획득할 수 있는 기법이다. 종래의 다중센서의 영상 정보 융합 방법은 다중 센서들 각각이 획득한 영상정보에 대한 공통적인 영역 또는 특징점을 추출하여 표적을 탐지하는 방법으로, 이러한 방법은 등록특허 제10-1051716 등에 상세히 기재되어 있다. 그러나, 종래의 영상융합 신호처리 방법은 융합할 영상정보들의 공통적인 영역 또는 특징점을 개략적으로 추출하여 표적을 탐지할 뿐이므로 환경적인 영향으로 인한 밝기값의 차이나 형상 차이를 반영하지 못하여 실제 표적에 대한 정밀한 탐지가 불가능하며, 또한 다수 표적, 소형 표적에 대한 정밀 탐지 역시 불가능하다는 문제점이 있었다.A missile, one of the devices for intercepting a target, is a weapon with a device guided by a particular method until the target is reached. The missile is equipped with an image search device for processing target information, and the image search device detects, identifies, captures, and tracks a target based on an image, and transmits the result to a guided steering computer. Recently, researches on image fusion signal processing techniques using multiple sensors such as IR sensors and CCD sensors have been actively conducted to improve the target detection and identification rate. The image fusion signal processing technique obtains image information of a unique wavelength band from each of a plurality of single sensors, and fuses and analyzes the acquired image information to complement the target and background information which could not be seen by a single sensor alone. It is a technique that can be obtained by Conventional image information fusion method of a multi-sensor is a method for detecting a target by extracting a common area or feature point for the image information obtained by each of the multiple sensors, these methods are described in detail, such as 10-1051716. . However, the conventional image fusion signal processing method only detects a target by extracting a common region or feature point of image information to be fused, and thus does not reflect a difference or shape difference in brightness values due to environmental influences, and thus does not reflect a target. There was a problem that precise detection is not possible, and precise detection of multiple targets and small targets is also impossible.

본 발명이 이루고자 하는 기술적인 과제는 위치 가중 또는 영역 확장 기반의 2차원 모멘트 모델링을 통해 적외선 영상(Imaging Infrared, IIR)의 특징을 추출하고, 크기 불변 특징 변환(Scale Invariant Feature Transform, SIFT) 기법을 통해 대비되는 가시광 영상(Visible Ray, VIS) 영상의 특징을 추출하며, 상기 추출된 특징들에 베이시안 규칙(Bayesian Rule)을 적용하여 최종 표적을 결정하는 베이시안 규칙 기반 표적결정 시스템을 제공하는 것이다.The technical problem to be achieved by the present invention is to extract the features of the infrared image (Imaging Infrared, IIR) through the two-dimensional moment modeling based on location weighting or region expansion, and the Scale Invariant Feature Transform (SIFT) technique It is to provide a Bayesian rule-based targeting system that extracts features of a visible ray (VIS) image that is contrasted through and determines a final target by applying a Bayesian rule to the extracted features. .

본 발명의 실시 예에 따른 표적 시스템은 특정 지역에 대한 적외선 영상과 가시광 영상을 각각 획득하는 적외선 영상 센서 및 가시광 영상 센서와 상기 획득된 적외선 영상으로부터 위치 가중 또는 영역 확장 기반의 2차원 모멘트 모델링을 통해 제1표적후보를 결정하는 2차원 모멘트 모델링 모듈과 상기 2차원 모멘트 모델링 모듈로부터 결정된 제1표적후보에 대응되는 지점을 대응 N ×N 영역으로 설정하고, 상기 설정한 N ×N 영역에 대하여 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 제2표적후보를 도출하는 SIFT 표적특징값 추출 모듈 및 베이시안 규칙(Bayesian Rule)을 적용하여 상기 결정된 제1표적후보 및 제2표적후보의 유사도를 확률로서 산출하고, 상기 산출된 확률의 우선순위에 따라 최종 표적을 결정하는 베이시안 규칙 적용 표적 결정 모듈을 포함한다.The target system according to an exemplary embodiment of the present invention uses an infrared image sensor and a visible light sensor for acquiring an infrared image and a visible light image for a specific region, and two-dimensional moment modeling based on location weighting or area extension from the acquired infrared image. A point corresponding to the first target candidate determined from the 2D moment modeling module and the 2D moment modeling module for determining the first target candidate is set as a corresponding N × N region, and SIFT ( Applying the SIFT target feature extraction module and the Bayesian rule to derive the second target candidate using the Scale Invariant Feature Transform method, the similarity of the determined first target candidate and the second target candidate is calculated as probability. And a Bayesian rule applied target determination module for determining a final target according to the priority of the calculated probability. The.

실시 예에 따라 상기 N은 15 이상인 실수로 설정할 수 있다. According to an embodiment, N may be set to a real number of 15 or more.

본 발명의 제1실시 예에 따른 위치 가중 2차원 모멘트 모델링 모듈은 상기 획득된 적외선 영상으로부터 최대 밝기값을 갖는 픽셀의 좌표를 획득하는 최대 밝기 위치 획득부와 상기 획득된 픽셀 최대 밝기 위치를 중심으로 동일한 픽셀 단위를 갖는 4개의 서브 영역들로 구성되는 소정 영역을 설정하고, 상기 서브 영역들의 평균 픽셀값을 산출하여 상기 소정 영역의 픽셀 평균의 최대값 좌표를 획득하는 영역 설정부와 상기 획득된 픽셀 평균의 최대값 좌표로부터 최종 픽셀 중심 좌표를 산출하는 중심좌표 산출부 및 상기 산출된 최종 픽셀의 중심 좌표로부터 위치 가중 2차원 모멘트 모델링을 수행하여 상기 1표적후보를 결정하는 2차원 모멘트 모델링부를 포함한다.The position-weighted two-dimensional moment modeling module according to the first embodiment of the present invention is based on a maximum brightness position acquisition unit for acquiring coordinates of a pixel having a maximum brightness value from the acquired infrared image and the obtained pixel maximum brightness position. An area setting unit for setting a predetermined area including four sub-areas having the same pixel unit, calculating an average pixel value of the sub-areas, and obtaining a maximum value coordinate of a pixel average of the predetermined area and the obtained pixel A center coordinate calculator configured to calculate a final pixel center coordinate from a maximum value coordinate of an average, and a two-dimensional moment modeling unit configured to determine the one-target candidate by performing position weighted two-dimensional moment modeling from the calculated center coordinates of the final pixel; .

본 발명의 제2실시 예에 따른 영역 확장 2차원 모멘트 모델링 모듈은 상기 획득된 적외선 영상으로부터 최대 밝기값을 갖는 픽셀의 좌표를 획득하는 최대 밝기 위치 획득부 상기 획득된 최대 밝기값을 갖는 픽셀 좌표로부터 소정의 픽셀 영역을 설정하고, 상기 설정된 픽셀 영역 내의 픽셀들의 밝기값을 상기 획득된 최대 밝기값으로 확장하는 동일값 확장부와 상기 픽셀 영역의 확장된 전체 픽셀 평균을 구하여 임계값을 설정하고, 상기 설정된 임계값과 상기 최대 밝기값 사이의 픽셀 평균 좌표를 산출하며, 상기 확장된 밝기값 좌표와 상기 픽셀 평균 좌표에 따라 최종 픽셀 중심 좌표를 산출하는 중심좌표 산출부 및 상기 산출된 최종 픽셀의 중심 좌표로부터 영역 확장 2차원 모멘트 모델링을 수행하는 2차원 모멘트 모델링부를 포함한다.The area extension two-dimensional moment modeling module according to the second embodiment of the present invention is a maximum brightness position obtaining unit for obtaining the coordinates of the pixel having the maximum brightness value from the acquired infrared image from the pixel coordinates having the obtained maximum brightness value Setting a predetermined pixel area, obtaining an equal value expansion unit that extends the brightness values of the pixels in the set pixel area to the obtained maximum brightness value, and calculating a threshold value by obtaining an average of the extended total pixels of the pixel area; A center coordinate calculation unit calculating a pixel average coordinate between a set threshold value and the maximum brightness value, and calculating a final pixel center coordinate according to the extended brightness value coordinates and the pixel average coordinates; and a center coordinate of the calculated final pixel. And a two-dimensional moment modeling unit for performing region extension two-dimensional moment modeling.

본 발명의 실시 예에 따른 베이시안 규칙 기반 표적 결정 방법은 위치 가중 또는 영역 확장 2차원 모멘트 모델링 및 크기 불변 특징 변환을 통해 적외선 영상 및 가시광 영상의 특징을 추출하고, 상기 추출된 특징들에 베이시안 규칙을 적용하여 표적을 결정함으로써, 소형 표적 및 확장되는 표적을 매우 정밀하게 결정할 수 있는 효과가 있다.A Bayesian rule-based target determination method according to an embodiment of the present invention extracts features of an infrared image and a visible light image through position weighting or region extension 2D moment modeling and size invariant feature transformation, and extracts Bayesian to the extracted features. By applying the rules to determine the target, there is an effect that can determine very precisely the small target and the expanding target.

본 발명의 상세한 설명에서 인용되는 도면을 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 표적에 대한 이해를 돕기 위해 이상적인 적외선 영상을 최대 밝기값 기준으로 2차원 가우시안 모델링(Gaussian Modeling)한 결과를 나타낸다.
도 2는 표적에 대한 이해를 돕기 위해 실제적인 적외선 영상을 최대 밝기값 기준으로 2차원 가우시안 모델링한 결과를 나타낸다.
도 3은 본 발명의 실시 예에 따른 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 시스템의 내부 블럭도이다.
도 4는 본 발명의 실시 예에 따른 위치 가중 2차원 모멘트 모델링 모듈의 내부 블럭도를 나타낸다.
도 5는 도 4에 도시된 영역 설정부가 픽셀 최대 밝기 위치로부터 소정의 영역을 설정하는 방법을 설명하기 위한 도를 나타낸다.
도 6은 본 발명의 다른 실시 예에 따른 영역 확장 2차원 모멘트 모델링 모듈의 내부 블럭도를 나타낸다.
도 7은 도 6에 도시된 동일값 확장부가 3 × 3 영역에서 영역 확장하는 방법의 일례를 나타낸다.
도 8은 도 1에 도시된 2차원 모멘트 모델링 모듈이 적외선 영상을 2차원 모멘트 모델링한 결과를 나타내는 도이다.
도 9는 가시광 영상에 SIFT 기법을 적용하여 특징점을 추출하고 추출된 특징점에 대한 디스크립터를 생성한 결과를 나타낸다.
도 10은 본 발명의 실시 예에 따라 표적이 최종 선정된 결과의 예를 나타낸다.
도 11은 본 발명의 제1실시 예에 따른 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 방법을 구체적으로 설명하기 위한 순서도이다.
도 12는 본 발명의 제2실시 예에 따른 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 방법을 구체적으로 설명하기 위한 순서도이다.
The detailed description of each drawing is provided in order to provide a thorough understanding of the drawings referred to in the detailed description of the invention.
FIG. 1 illustrates the results of two-dimensional Gaussian modeling of an ideal infrared image based on a maximum brightness value to help understand the target.
Figure 2 shows the result of the two-dimensional Gaussian modeling on the basis of the maximum brightness value of the actual infrared image to help the understanding of the target.
3 is an internal block diagram of a Bayesian rule-based target determination system of a strapdown dual mode image detector according to an embodiment of the present invention.
4 is an internal block diagram of a position weighted 2D moment modeling module according to an exemplary embodiment of the present invention.
FIG. 5 illustrates a diagram for describing a method in which the area setting unit illustrated in FIG. 4 sets a predetermined area from a pixel maximum brightness position.
6 is an internal block diagram of a region extension 2D moment modeling module according to another embodiment of the present invention.
FIG. 7 illustrates an example of a method of expanding a region in a 3 × 3 region by the same value expansion unit illustrated in FIG. 6.
FIG. 8 is a diagram illustrating a result of two-dimensional moment modeling of an infrared image by the two-dimensional moment modeling module illustrated in FIG. 1.
9 illustrates a result of extracting feature points and generating descriptors for the extracted feature points by applying a SIFT technique to a visible light image.
10 shows an example of the result of the target is finally selected according to the embodiment of the present invention.
11 is a flowchart illustrating a Bayesian rule-based target determination method of the strapdown dual mode image detector according to the first embodiment of the present invention in detail.
12 is a flowchart illustrating a Bayesian rule-based target determination method of the strapdown dual mode image detector according to the second embodiment of the present invention in detail.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.It is to be understood that the specific structural or functional descriptions of embodiments of the present invention disclosed herein are only for the purpose of illustrating embodiments of the inventive concept, But may be embodied in many different forms and is not limited to the embodiments set forth herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments in accordance with the concepts of the present invention are capable of various modifications and may take various forms, so that the embodiments are illustrated in the drawings and described in detail herein. It should be understood, however, that it is not intended to limit the embodiments according to the concepts of the present invention to the particular forms disclosed, but includes all modifications, equivalents, or alternatives falling within the spirit and scope of the invention.

제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.The terms first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are intended to distinguish one element from another, for example, without departing from the scope of the invention in accordance with the concepts of the present invention, the first element may be termed the second element, The second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that the described feature, number, step, operation, component, part, or combination thereof exists, and one or more other features or numbers are present. It should be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings.

도 1은 표적에 대한 이해를 돕기 위해 이상적인 적외선 영상을 최대 밝기값 기준으로 2차원 가우시안 모델링(Gaussian Modeling)한 결과를 나타낸다.FIG. 1 illustrates the results of two-dimensional Gaussian modeling of an ideal infrared image based on a maximum brightness value to help understand the target.

도 1을 참조하면, (a)는 표적에 대한 이상적인 적외선 영상을 나타내고, (b)는 상기 (a)에 도시된 밝기값 분포에 따라 최대 밝기값을 기준으로 표적에 대한 이해를 돕기 위해 2차원 가우시안 모델링한 결과를 나타낸다.Referring to FIG. 1, (a) shows an ideal infrared image of a target, and (b) shows a two-dimensional image to help understand the target based on the maximum brightness value according to the brightness value distribution shown in (a). The results are Gaussian modeled.

즉, 도 1은 표적 최대 밝기값이 중앙부근에 존재할 때, 즉, 이상적인 표적 영상에 대한 2차원 가우시안 모델링 결과를 나타낸 것이다.That is, FIG. 1 illustrates the two-dimensional Gaussian modeling result for the ideal target image when the target maximum brightness value is near the center.

상기 적외선 영상에서 표적 M × N의 2차원 영상패턴 f(x,y)의 모멘트 m은 하기 수학식 1과 같이 구할 수 있다.The moment m of the two-dimensional image pattern f (x, y) of the target M × N in the infrared image may be obtained as in Equation 1 below.

Figure 112012003034973-pat00001
Figure 112012003034973-pat00001

상기 p는 가로축의 속성값이고 상기 q는 세로축의 속성값이다.P is an attribute value on the horizontal axis and q is an attribute value on the vertical axis.

이때, 상기 p=0, q=0이라면, 모멘트

Figure 112012003034973-pat00002
는 영상패턴 f를 구성하는 전체픽셀에 해당되고, 모멘트
Figure 112012003034973-pat00003
,
Figure 112012003034973-pat00004
는 영상패턴의 중심(centroid)인
Figure 112012003034973-pat00005
에 해당한다.At this time, if the p = 0, q = 0, the moment
Figure 112012003034973-pat00002
Corresponds to all pixels constituting the image pattern f, and the moment
Figure 112012003034973-pat00003
,
Figure 112012003034973-pat00004
Is the centroid of the image pattern
Figure 112012003034973-pat00005
.

상기 중심

Figure 112012003034973-pat00006
에에 대한 모멘트
Figure 112012003034973-pat00007
는 하기 수학식 2와 같이 구할 수 있다.The center
Figure 112012003034973-pat00006
Moment to
Figure 112012003034973-pat00007
Can be obtained as in Equation 2 below.

Figure 112012003034973-pat00008
Figure 112012003034973-pat00008

이때, 정규화 중심 모멘트

Figure 112012003034973-pat00009
는 하기 수학식 3과 같이 구할 수 있다.Where normalized center moment
Figure 112012003034973-pat00009
Can be obtained as in Equation 3 below.

Figure 112012003034973-pat00010
Figure 112012003034973-pat00010

한편, 후술할 도 8에 적용되는 일반적인 2차 가우시안 모델링의 결과는 표적에 대한 이해를 돕기 위해 표현된 것으로, 하기 수학식 4에 근거하여 이루어진다.On the other hand, the result of the general second Gaussian modeling applied to Figure 8 to be described later is expressed to help the understanding of the target, it is made based on the following equation (4).

Figure 112012003034973-pat00011
Figure 112012003034973-pat00011

이때,

Figure 112012003034973-pat00012
는 표적의 최대 밝기값을 나타내고, 상기 e는 지수함수이며, 상기 σ는 가우시안 분포의 폭을 나타내고, r는 가로축의 크기, c는 세로축의 크기를 나타낸다.At this time,
Figure 112012003034973-pat00012
Denotes the maximum brightness value of the target, e denotes an exponential function, σ denotes the width of the Gaussian distribution, r denotes the size of the horizontal axis, and c denotes the size of the vertical axis.

앞서 설명하였듯이, 도 1의 (b)는 표적 최대 밝기값이 중앙부근에 존재할 때에 대한 모델링 결과로서 표적에 대한 이상적인 적외선 영상의 모델링 결과를 나타낸다.As described above, FIG. 1B illustrates a modeling result of an ideal infrared image of a target as a modeling result when the target maximum brightness value exists near the center.

그러나 실제로 표적에 대한 적외선 영상은 상기 이상적인 적외선 영상과는 달리 환경 영향에 의해 밝기값이나 형상이 다른 적외선 영상이 획득된다. In reality, however, the infrared image of the target is different from the ideal infrared image, and an infrared image having a different brightness or shape is obtained due to environmental influences.

도 2는 표적에 대한 이해를 돕기 위해 실제적인 적외선 영상을 최대 밝기값 기준으로 2차원 가우시안 모델링한 결과를 나타낸다.Figure 2 shows the result of the two-dimensional Gaussian modeling on the basis of the maximum brightness value of the actual infrared image to help the understanding of the target.

즉, 도 2는 표적에 대한 적외선 영상 획득시 실제 환경의 영향을 받아 다르게 획득되는 영상 및 획득된 영상에 대한 2차원 가우시안 모델링을 수행한 결과를 나타내는 도이다.That is, FIG. 2 is a diagram illustrating a result of performing two-dimensional Gaussian modeling on an image obtained differently and an acquired image under the influence of the real environment when acquiring an infrared image of a target.

도 2를 참조하면, (a)는 표적에 대한 실제적인 적외선 영상을 나타내고, (b)는 상기 (a)에 도시된 밝기값 분포에 따라 최대 밝기값을 기준으로 표적에 대한 이해를 돕기 위해 2차원 가우시안 모델링을 수행한 결과를 나타낸다Referring to FIG. 2, (a) shows an actual infrared image of the target, and (b) shows 2 to help understand the target based on the maximum brightness value according to the brightness value distribution shown in (a). Shows the result of performing the dimensional Gaussian modeling

상기 설명한 수학식 1 내지 수학식 4에 따라 2차 가우시안 모델링을 수행하면, 도 2의 (b)와 같이 표적에 대해 정확한 중심을 설정할 수 없는 결과가 도출된다.When the second Gaussian modeling is performed according to the above-described Equations 1 to 4, as shown in (b) of FIG. 2, an accurate center cannot be set for the target.

따라서, 표적에 대한 정확한 중심을 설정할 수 있는 방안이 필요하다.Therefore, there is a need for a method capable of setting an accurate center of the target.

도 3은 본 발명의 실시 예에 따른 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 시스템의 내부 블럭도이다.3 is an internal block diagram of a Bayesian rule-based target determination system of a strapdown dual mode image detector according to an embodiment of the present invention.

도 3을 참조하면, 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 시스템(이하, '표적 결정 시스템'이라 한다, 10)은 적외선 영상 센서(IIR, 30), 가시광 영상 센서(CCD, 50), 2차원 모멘트 모델링 모듈(100), SIFT 표적특징값 추출 모듈(200), 베이시안 규칙 적용 표적 결정 모듈(300)을 포함한다.Referring to FIG. 3, the Bayesian rule-based target determination system (hereinafter, referred to as a 'target determination system') of the strapdown dual mode imager is an infrared image sensor (IIR) 30 and a visible light image sensor (CCD) 50. ), A 2D moment modeling module 100, a SIFT target feature value extraction module 200, and a Bayesian rule application target determination module 300.

본 명세서에서의 모듈(module)이라 함은 본 명세서에서 설명되는 각각의 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 또한 특정한 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또한 특정한 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예컨대 프로세서를 의미할 수 있다.A module in the present specification may mean hardware capable of performing functions and operations according to each name described in the present specification, and also refers to computer program code capable of performing specific functions and operations. It may also mean an electronic recording medium, such as a processor, on which computer program code is capable of performing specific functions and operations.

다시 말해 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. In other words, a module may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware.

적외선 영상 센서(30)와 가시광 영상 센서(50)는 특정 동일 지역을 피사체로 하는 적외선 영상과 가시광선 영상을 각각 센싱한다.The infrared image sensor 30 and the visible light image sensor 50 sense an infrared image and a visible light image, respectively, for which the subject is the same region.

즉, 상기 특정 동일 지역에 대한 영상을 획득하기 위해 적외선 센서(30)와 가시광 센서(50)는 평행 동일선상에서 하나의 특정 지점(x,y)을 촬영한 적외선 영상 및 가시광 영상을 각각 획득한다.That is, in order to acquire an image of the specific same region, the infrared sensor 30 and the visible light sensor 50 obtain an infrared image and a visible light image photographing one specific point (x, y) on a parallel collinear line, respectively.

일반적으로 적외선 영상의 소형 열 표적은 주변 배경보다 밝고, 동일한 최대 밝기(Intensity) 값이 여러 곳에 존재하며, 형상이 뚜렷하지 않은 특징이 있다.In general, a small thermal target of an infrared image is brighter than a surrounding background, has the same maximum intensity value in several places, and has a shape that is not clear.

상기 적외선 센서(30)는 센싱한 적외선 영상을 2차원 모멘트 모델링 모듈(100)로 전송하고, 상기 가시광 센서(50)는 센싱한 가시광 영상을 SIFT 표적 특징값 추출 모듈(200)로 전송한다.The infrared sensor 30 transmits the sensed infrared image to the 2D moment modeling module 100, and the visible light sensor 50 transmits the sensed visible light image to the SIFT target feature value extraction module 200.

2차원 모멘트 모델링 모듈(100)은 상기 전송된 적외선 영상을 기초로 실제 표적과 가장 유사한 제1표적후보를 검출하는 역할을 수행하며, 하기의 제1실시 예에 따라 위치 가중 기법을 사용한 위치 가중 2차원 모멘트 모델링 모듈로서 구현될 수 있고, 하기의 제2실시 예에 따라 영역 확장 기법을 사용한 영역확장 2차원 모멘트 모델링 모듈로서 구현될 수 있다.The two-dimensional moment modeling module 100 detects a first target candidate most similar to an actual target based on the transmitted infrared image, and according to the first embodiment, position weighting 2 using a position weighting technique. It may be implemented as a dimensional moment modeling module, and may be implemented as an area extension two-dimensional moment modeling module using an area extension technique according to the second embodiment.

제1실시 예에 따라 2차원 모멘트 모델링 모듈(100)은 위치 가중 기법을 이용하여 2차원 모멘트 모델링을 수행하는 위치 가중 2차원 모멘트 모델링 모듈(100-1)로서 구현된다.According to the first embodiment, the 2D moment modeling module 100 is implemented as a position weighted 2D moment modeling module 100-1 that performs 2D moment modeling using a position weighting technique.

도 4는 본 발명의 실시 예에 따른 위치 가중 2차원 모멘트 모델링 모듈의 내부 블럭도를 나타낸다.4 is an internal block diagram of a position weighted 2D moment modeling module according to an exemplary embodiment of the present invention.

도 4를 참조하면, 위치 가중 2차원 모멘트 모델링 모듈(100-1)은 최대 밝기 위치 획득부(110-1), 영역 설정부(130-1), 중심좌표 산출부(150-1) 및 2차원 모멘트 모델링부(170-1)를 포함한다.Referring to FIG. 4, the position weighted two-dimensional moment modeling module 100-1 includes a maximum brightness position obtaining unit 110-1, an area setting unit 130-1, a center coordinate calculating unit 150-1, and 2. The dimensional moment modeling unit 170-1 is included.

위치 가중 2차원 모멘트 모델링 모듈(100-1)은 소형표적에서 하나의 픽셀 위치로부터 표적 모멘트 모델링하는 것이 아니라 최대 밝기값의 위치 및 주변 픽셀의 밝기값 평균의 위치로 변환시키는 방법을 사용한다.The position weighted two-dimensional moment modeling module 100-1 uses a method of converting the position of the maximum brightness value and the position of the average brightness value of the surrounding pixels instead of modeling the target moment from one pixel position in the small target.

즉, 상기의 방법은 표적의 관심 영역뿐만 아니라 주변영역을 포함하여 모델링하기 때문에 소형 표적이 확장될 때 크기 및 밝기 변화에 둔감하게 표적을 검출할 수 있는 효과가 있다.That is, since the method is modeled to include not only the region of interest but also the surrounding region of the target, the target can be detected insensitive to the change in size and brightness when the small target is expanded.

위치 가중 2차원 모멘트 모델링 모듈(100-1) 내의 최대 밝기 위치 획득부(110-1)는 적외선 영상으로부터 픽셀 최대 밝기 위치를 획득한다.The maximum brightness position acquirer 110-1 in the position weighted 2D moment modeling module 100-1 obtains the pixel maximum brightness position from the infrared image.

영역 설정부(130-1)는 최대 밝기 위치 획득부(110-1)로부터 획득된 픽셀 최대 밝기 위치로부터 인접하는 픽셀의 평균 밝기값을 구하기 위한 소정 영역을 설정한다.The area setting unit 130-1 sets a predetermined area for obtaining an average brightness value of adjacent pixels from the pixel maximum brightness position acquired from the maximum brightness position obtaining unit 110-1.

도 5는 도 4에 도시된 영역 설정부가 픽셀 최대 밝기 위치로부터 소정의 영역을 설정하는 방법을 설명하기 위한 도를 나타낸다.FIG. 5 illustrates a diagram for describing a method in which the area setting unit illustrated in FIG. 4 sets a predetermined area from a pixel maximum brightness position.

도 5의 (a)에 도시된 바와 같이, 영역 설정부(130)는 상기 최대 밝기 위치 획득부(110)로부터 획득된 위치로부터 3×3 영역을 설정하여 4개의 영역(A1, A2, A3, A4)으로 분할한다.As shown in FIG. 5A, the area setting unit 130 is 3 × 3 from the position obtained from the maximum brightness position obtaining unit 110. The area is set and divided into four areas A 1 , A 2 , A 3 , and A 4 .

이때, 영역 설정부(130)는 상기 각각의 영역(A1, A2, A3, A4)에 대한 픽셀 평균을 계산하고, 상기 각각의 영역(A1, A2, A3, A4)에 대해 계산된 픽셀 평균이 가장 큰 값을 보상된 좌표값으로 획득한다.In this case, the area setting unit 130 are the respective areas (A 1, A 2, A 3, A 4) pixels calculate the average, the respective areas (A 1, A 2, and A to 3, A 4 The value of the largest pixel mean calculated for N) is obtained as the compensated coordinate value.

상기 각각의 픽셀 평균 계산식은 하기 수학식 5와 같다.Each pixel average equation is represented by Equation 5 below.

Figure 112012003034973-pat00013
Figure 112012003034973-pat00013

또한 도 5의 (b)에 도시된 바와 같이, 영역 설정부(130-1)는 상기 최대 밝기 위치 획득부(110-1)로부터 획득된 위치로부터 5×5 영역을 설정하여 4개의 영역(B1, B2, B3, B4)으로 분할한다.In addition, as shown in (b) of FIG. 5, the area setting unit 130-1 sets four areas B1 by setting a 5 × 5 area from a position obtained from the maximum brightness position obtaining unit 110-1. , B2, B3, B4).

마찬가지로 영역 설정부(130-1)는 상기 각각의 영역(B1, B2, B3, B4)에 대한 픽셀 평균을 계산하고, 상기 각각의 영역(B1, B2, B3, B4)에 대해 계산된 픽셀 평균이 가장 큰 값으로 보상된 좌표값을 획득한다.Similarly, the area setting unit 130-1 calculates a pixel average for each of the areas B 1 , B 2 , B 3 , and B 4 , and calculates the pixel averages of the areas B 1 , B 2 , B 3 , and B 4 . 4 ) obtain a coordinate value whose pixel mean calculated for 4 ) is compensated with the largest value.

상기 각각의 픽셀 평균 계산식은 상기 수학식 5와 같은 방법을 사용한다.Each pixel average calculation method uses the same method as in Equation 5 above.

도 5의 (c)에 도시된 바와 같이, 영역 설정부(130-1)는 상기 최대 밝기 위치 획득부(110-1)로부터 획득된 위치로부터 7×7 영역을 설정하여 4개의 영역으로 분할(C1, C2, C3, C4)하여 각각의 픽셀 평균을 계산하고, 픽셀 평균이 가장 큰 값으로 보상된 좌표값을 획득한다.As shown in FIG. 5C, the area setting unit 130-1 divides the area into four areas by setting a 7 × 7 area from the position acquired from the maximum brightness position obtaining unit 110-1. C 1 , C 2 , C 3 , C 4 ) to calculate each pixel average, and obtain a coordinate value whose pixel average is compensated for the largest value.

이때에도 상기 수학식 5와 같은 방법을 사용하여 상기 보상된 좌표값을 획득할 수 있다. In this case, the compensated coordinate value may be obtained using a method as in Equation 5.

한편, 위치 가중 2차원 모멘트 모델링 모듈(100-1) 내의 중심 좌표 산출부(150-1)는 영역 설정부(130-1)로부터 소정 영역들(3×3, 5×5, 7×7)로부터 각각 획득된 픽셀 평균의 최대값 좌표로부터 하기 수학식 6과 같이 최종 중심 좌표값(Cmax(x,y)에서의 x, y)을 산출한다. Meanwhile, the center coordinate calculator 150-1 in the position weighted two-dimensional moment modeling module 100-1 may determine predetermined areas 3 × 3, 5 × 5, and 7 × 7 from the area setting unit 130-1. From the maximum coordinates of the pixel average obtained from each of the following to calculate the final center coordinate value (x, y in C max (x, y)) as shown in Equation 6.

Figure 112012003034973-pat00014
Figure 112012003034973-pat00014

이때,

Figure 112012003034973-pat00015
는 최대 밝기값,
Figure 112012003034973-pat00016
는 3×3의 4개 분할 영역들(A1, A2, A3, A4)의 픽셀 평균값들 중 최대 밝기값,
Figure 112012003034973-pat00017
는 5×5의 4개 분할 영역들(B1, B2, B3, B4)의 픽셀 평균값들 중 최대 밝기값,
Figure 112012003034973-pat00018
는 7×7의 4개분할 영역들(C1, C2, C3, C4)의 픽셀 평균값들 중 최대 밝기값을 나타낸다.At this time,
Figure 112012003034973-pat00015
Is the maximum brightness value,
Figure 112012003034973-pat00016
Is the maximum brightness value among the pixel average values of the 4 divided regions A 1 , A 2 , A 3 , and A 4 ,
Figure 112012003034973-pat00017
Is the maximum brightness value among the pixel average values of four divisions B 1 , B 2 , B 3 , and B 4 of 5 × 5,
Figure 112012003034973-pat00018
Denotes a maximum brightness value among pixel average values of four division areas C 1 , C 2 , C 3 , and C 4 of 7 × 7.

상기 중심 좌표 산출부(150-1)로부터 산출된 최종 픽셀의 중심 좌표값은 주변영역 밝기값이 포함된 위치 가중 2차원 모멘트 모델링의 파라미터로 이후 사용된다.The center coordinate value of the final pixel calculated from the center coordinate calculation unit 150-1 is used as a parameter of position weighted 2D moment modeling including a peripheral area brightness value.

2차원 모멘트 모델링부(170-1)는 상기 중심 좌표 산출부(150-1)로부터 산출된 최종 픽셀의 중심 좌표로부터 2차원 모멘트 모델링한 결과를 생성한다.The 2D moment modeling unit 170-1 generates a result of 2D moment modeling from the center coordinates of the final pixel calculated from the center coordinate calculation unit 150-1.

즉, 2차원 모멘트 모델링부(170-1)는 중심좌표 산출부(150-1)로부터 산출된 최종 픽셀의 중심좌표를 상기 수학식 2에 대입함으로써 위치 가중된 2차원 모멘트 모델링 결과를 생성할 수 있다.That is, the 2D moment modeling unit 170-1 may generate a position weighted 2D moment modeling result by substituting the center coordinates of the final pixel calculated from the center coordinate calculating unit 150-1 into Equation 2 above. have.

따라서 위치가중 2차원 모멘트 모델링 모듈(100-1)은 상기와 같은 방법을 통하여 상기 소형 열 표적과 가장 유사한 제1표적후보를 생성할 수 있다.Accordingly, the position weighted 2D moment modeling module 100-1 may generate the first target candidate most similar to the small thermal target through the above method.

제2실시 예에 따라 2차원 모멘트 모델링 모듈(100)은 영역 확장 기법을 이용하여 2차원 모멘트 모델링을 수행하는 영역 확장 2차원 모멘트 모델링 모듈(100-2)로서 구현될 수 있다.According to the second embodiment, the 2D moment modeling module 100 may be implemented as an area extension 2D moment modeling module 100-2 that performs 2D moment modeling using a region extension technique.

도 6은 본 발명의 다른 실시 예에 따른 영역 확장 2차원 모멘트 모델링 모듈의 내부 블럭도를 나타낸다.6 is an internal block diagram of a region extension 2D moment modeling module according to another embodiment of the present invention.

도 6을 참조하면, 영역 확장 2차원 모멘트 모델링 모듈(100-2)은 상기 전송된 적외선 영상을 기초로 실제 표적과 가장 유사한 제1표적후보를 검출하는 역할을 수행하며, 최대 밝기 위치 획득부(110-2), 동일값 확장부(130-2), 중심좌표 산출부(150-2) 및 2차원 모멘트 모델링부(170-2)를 포함한다.Referring to FIG. 6, the area extension 2D moment modeling module 100-2 detects a first target candidate most similar to an actual target based on the transmitted infrared image, and obtains a maximum brightness position obtaining unit ( 110-2), the same value expansion unit 130-2, a central coordinate calculation unit 150-2, and a two-dimensional moment modeling unit 170-2.

영역 확장 2차원 모멘트 모델링 모듈(100-2)은 동일한 최대 밝기값이 2개 이상 이웃하고 있을 때, 모멘트의 초기 중심위치를 적절하게 결정할 수 있도록 영역을 확장시키는 방법을 이용함으로써 상기 소형 열 표적과 가장 유사한 표적후보를 검출할 수 있다.The area extension two-dimensional moment modeling module 100-2 uses the method of expanding the area to appropriately determine the initial center position of the moment when two or more same maximum brightness values are adjacent to each other. The most similar target candidates can be detected.

영역 확장 2차원 모멘트 모델링 모듈(100-2) 내의 최대 밝기 위치 획득부(110-2)는 상기 획득된 적외선 영상으로부터 픽셀 최대 밝기 위치를 획득한다.The maximum brightness position acquisition unit 110-2 in the area extension 2D moment modeling module 100-2 obtains the pixel maximum brightness position from the obtained infrared image.

동일값 확장부(130-2)는 상기 최대 밝기 위치 획득부(110-2)로부터 획득된 위치로부터 소정의 영역, 예컨대 3 × 3 영역을 설정하여 상기 최대 밝기값과 동일한 값으로 확장한다.The same value expansion unit 130-2 is a predetermined area, for example, 3 × 3, from a position obtained from the maximum brightness position obtaining unit 110-2. The area is set to extend to the same value as the maximum brightness value.

도 7은 도 6에 도시된 동일값 확장부가 3 × 3 영역에서 영역 확장하는 방법의 일례를 나타낸다.FIG. 7 shows that the same value expansion unit shown in FIG. 6 is 3 × 3. An example of a method of expanding a region in the region is shown.

도 7을 참조하면, 픽셀의 중심이 A1 픽셀인 경우, 동일값 확장부(130-2)는 상기 A1 픽셀을 중심으로 같은 밝기값을 포함하고 있는 A2 픽셀 좌표로 확장한다.Referring to FIG. 7, when the center of a pixel is A 1 pixel, the same value expansion unit 130-2 expands to the A 2 pixel coordinate including the same brightness value around the A 1 pixel.

중심좌표 산출부(150-2)는 상기 확장된 3 × 3 영역의 전체 픽셀 평균을 구하여 임계값을 설정하고, 상기 설정된 임계값에서 최대 밝기값 사이의 픽셀 평균 좌표를 구한다.The central coordinate calculator 150-2 sets a threshold value by obtaining the total pixel average of the extended 3 × 3 region, and obtains a pixel average coordinate between the maximum brightness values from the set threshold value.

또한 중심좌표 산출부(150-2)는 상기 최대 밝기값과 동일한 값으로 확장된 밝기값 좌표와 상기 픽셀 평균 좌표에 따라 최종 픽셀의 중심 좌표를 산출한다.In addition, the center coordinate calculator 150-2 calculates the center coordinates of the final pixel according to the brightness value coordinates extended to the same value as the maximum brightness value and the pixel average coordinates.

상기 확장된 3 × 3 영역에서 픽셀좌표의 중심을 구하는 방법은 하기 수학식 7과 같다.A method of obtaining the center of the pixel coordinates in the extended 3x3 region is shown in Equation 7 below.

Figure 112012003034973-pat00019
Figure 112012003034973-pat00019

이때, Ai는 픽셀의 최대 밝기값을 포함한 좌표이며, n은 확장된 픽셀의 개수이다. At this time, A i is a coordinate including the maximum brightness value of the pixel, n is the number of expanded pixels.

이때, 상기 3 × 3 영역의 픽셀 밝기값의 평균

Figure 112012003034973-pat00020
은 하기 수학식 8과 같이 나타낼 수 있다.At this time, the 3 × 3 Average of pixel brightness values in a region
Figure 112012003034973-pat00020
Can be expressed as Equation 8 below.

Figure 112012003034973-pat00021
Figure 112012003034973-pat00021

또한, 중심좌표 산출부(150-2)가 상기 최대 밝기값 좌표와 상기 픽셀평균 좌표의 평균좌표를 계산하여 최종 픽셀의 중심좌표를 구하는 방법은 하기 수학식 9와 같다.In addition, a method of calculating the center coordinates of the final pixel by calculating the average coordinates of the maximum brightness value coordinates and the pixel average coordinates by the center coordinate calculation unit 150-2 is shown in Equation 9 below.

Figure 112012003034973-pat00022
Figure 112012003034973-pat00022

상기 중심 좌표 산출부(150-2)로부터 산출된 최종 픽셀의 중심 좌표값은 주변영역 밝기값이 포함된 영역확장 2차원 모멘트 모델링의 파라미터로 이후 사용된다.The center coordinate value of the final pixel calculated from the center coordinate calculation unit 150-2 is used as a parameter of area extension two-dimensional moment modeling including a peripheral area brightness value.

2차원 모멘트 모델링부(170-2)는 상기 중심 좌표 산출부(150-2)로부터 산출된 최종 픽셀의 중심 좌표로부터 영역확장 2차원 모멘트 모델링 결과를 생성한다.The 2D moment modeling unit 170-2 generates an area extension 2D moment modeling result from the center coordinates of the final pixel calculated by the center coordinate calculating unit 150-2.

이는 곧 상기 수학식 9에 따른 결과를 상기 수학식 2에 대입함으로써 상기 영역확장 된 2차원 모멘트 모델링 결과를 생성할 수 있는 것이다.That is, by substituting the result of Equation 9 into Equation 2, the area-expanded two-dimensional moment modeling result can be generated.

도 8은 도 1에 도시된 2차원 모멘트 모델링 모듈이 적외선 영상을 2차원 모멘트 모델링한 결과를 나타내는 도이다.FIG. 8 is a diagram illustrating a result of two-dimensional moment modeling of an infrared image by the two-dimensional moment modeling module illustrated in FIG. 1.

즉, 도 8의 (a)는 적외선 영상에 대한 밝기값을 도시한 것이며, (b)는 제1실시 예에 따른 위치 가중 2차원 모멘트 모델링 모듈(100-1)이 위치 가중 기반으로 2차원 모멘트 모델링한 결과를 나타낸 것이며, (c)는 제2실시 예에 따른 영역 확장 2차원 모멘트 모델링 모듈(100-2)이 영역 확장 기반으로 2차원 모멘트 모델링 한 결과를 나타낸다.That is, FIG. 8A illustrates brightness values of the infrared image, and FIG. 8B illustrates a position weighted two-dimensional moment modeling module 100-1 according to the first embodiment. (C) shows the result of the two-dimensional moment modeling based on the region extension by the region extension two-dimensional moment modeling module 100-2 according to the second embodiment.

다시 도 1을 참조하면, 표적 결정 시스템(10)의 SIFT 표적특징값 추출 모듈(200)은 대응 영역 설정부(230) 및 SIFT 수행부(250)를 포함하며, 가시광 영상 센서(50)로부터 센싱된 가시광 영상을 수신하여 SIFT 기반 표적특징 값을 추출한다.Referring back to FIG. 1, the SIFT target feature value extraction module 200 of the target determination system 10 includes a corresponding area setting unit 230 and an SIFT execution unit 250, and senses the visible light image sensor 50. The received visible light image to extract the SIFT-based target feature value.

대응 영역 설정부(230)는 상기 가시광 영상에서 2차원 모멘트 모델링 모듈(100)로부터, 예컨대 제1실시예에 따른 위치가중 2차원 모멘트 모델링 모듈(100-1) 또는 제2실시예에 따른 영역확장 2차원 모멘트 모델링 모듈(100-2)로부터 도출된 제1표적후보에 대응되는 지점을 N ×N 영역으로 설정한다.The corresponding region setting unit 230 may be a position weighted 2D moment modeling module 100-1 according to the first embodiment or an area according to the second embodiment, for example, from the 2D moment modeling module 100 in the visible light image. A point corresponding to the first target candidate derived from the extended two-dimensional moment modeling module 100-2 is set as an N × N region.

SIFT 수행부(250)는 상기 대응 영역 설정부(230)가 설정한 N ×N 영역에 대하여 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 표적의 후보지점인 제2표적후보를 도출한다.The SIFT execution unit 250 derives a second target candidate which is a candidate point of a target by using a scale invariant feature transform (SIFT) technique for the N × N region set by the corresponding region setting unit 230.

이때, SIFT 수행부(250)는 크기가 서로 다른 가우시안 필터를 단계적으로 적용하여 블러링된 영상을 획득하고, 크기 불변 공간에서 가우시안 차분(Difference of Gaussian, DoG)을 적용하여 계산한 후에 이웃한 8개의 픽셀들 및 이웃한 두 공간에서 극대값과 극소값이 되는 픽셀이 크기 불변 특징점(D(x,y,σ))을 상기 제2 표적후보로 산출한다.At this time, the SIFT performer 250 acquires the blurred image by applying Gaussian filters having different sizes in steps, calculates by applying a Gaussian difference in the size invariant space, and then calculates the neighboring 8 Pixels and pixels that become the local maximum and local minimum in two adjacent spaces calculate the size-invariant feature point D (x, y, σ) as the second target candidate.

이때, 상기 가우시안 차분은 하기의 수학식 10과 같이 수행된다.In this case, the Gaussian difference is performed as in Equation 10 below.

Figure 112012003034973-pat00023
Figure 112012003034973-pat00023

상기

Figure 112012003034973-pat00024
은 가우시안 함수이고, σ는 표준편차이며, k는 복수의 공간에 블러링을 적용하기 위한 상수 값이며, I(x,y)는 상기 가시광 영상 센서(50)부터 수신한 가시광 영상이다.remind
Figure 112012003034973-pat00024
Is a Gaussian function, σ is a standard deviation, k is a constant value for applying blurring to a plurality of spaces, and I (x, y) is a visible light image received from the visible light image sensor 50.

도 9는 가시광 영상에 SIFT 기법을 적용하여 특징점을 추출하고 추출된 특징점에 대한 디스크립터를 생성한 결과를 나타낸다.9 illustrates a result of extracting feature points and generating descriptors for the extracted feature points by applying a SIFT technique to a visible light image.

도 9를 참조하면, (a)는 가시광 영상에 SIFT 기법을 적용하여 관심 영역 내 크기 불변 특징점을 추출한 결과이며, (b)는 (a)에 도시된 관심 영역 내 크기 불변 특징점을 추출한 결과에 대한 디스크립터를 생성한 결과이다.Referring to FIG. 9, (a) is a result of extracting the size invariant feature points in the ROI by applying a SIFT technique to the visible light image, and (b) is a result of extracting the size invariant feature points in the ROI shown in (a). This is the result of generating the descriptor.

다시 도 1을 참조하면, 표적 결정 시스템(10) 내의 베이시안 규칙 적용 표적 결정 모듈(300)은 상기 적외선 영상과 가시광 영상에서 추출된 각각의 후보지점, 예컨대 제1표적후보와 제2표적후보의 특징값의 유사도를 베이시안 규칙(Bayesian Rule) 기반의 확률로 결정한다.Referring back to FIG. 1, the Bayesian rule-applied target determination module 300 in the target determination system 10 may determine each candidate point extracted from the infrared image and the visible light image, for example, the first target candidate and the second target candidate. The similarity of feature values is determined based on a Bayesian Rule based probability.

상기 베이시안 규칙은 확률에 기초를 둔 추론 방법으로 사전 정보 및 새로운 정보로부터 사후 정보를 얻는 방법은 하기 수학식 11과 같다.The Bayesian rule is a probability-based reasoning method, and a method of obtaining post-information from prior information and new information is shown in Equation 11 below.

Figure 112012003034973-pat00025
Figure 112012003034973-pat00025

여기에서,

Figure 112012003034973-pat00026
는 z사건이 현재 발생했을 때, x사건이 현재 일어날 확률이며, xi는 사건이 이전에 발생한 확률이다.From here,
Figure 112012003034973-pat00026
Is the probability that x event will occur when z event occurs now, and xi is the probability that event occurred before.

즉, 베이시안 규칙 적용 표적 결정 모듈(300)은 적외선 영상에서 추출된 특징값(Z1)과 가시광 영상에서 추출된 특징값(Z2)의 유사도를 판단할 때, 상기 베이시안 규칙을 기반으로 하여 최종 표적의 확률을 계산하고, 계산된 확률의 우선순위로서 최종 표적을 결정한다.That is, the Bayesian rule application target determination module 300 determines the similarity between the feature value Z1 extracted from the infrared image and the feature value Z2 extracted from the visible light image, based on the Bayesian rule. The probability of the target is calculated and the final target is determined as the priority of the calculated probability.

베이시안 규칙 적용 표적 결정 모듈(300)이 상기 베이시안 규칙을 기반으로 하여 최종 표적을 결정하기 위해 수학식 12를 이용한다.The Bayesian rule application target determination module 300 uses Equation 12 to determine the final target based on the Bayesian rule.

Figure 112012003034973-pat00027
Figure 112012003034973-pat00027

이때, 대문자인

Figure 112012003034973-pat00028
Figure 112012003034973-pat00029
는 새롭게 추출된 집합이고
Figure 112012003034973-pat00030
Figure 112012003034973-pat00031
는 이전에 추출된 집합이며, 소문자인
Figure 112012003034973-pat00032
Figure 112012003034973-pat00033
는 현재의 측정값이다.Where capital letters
Figure 112012003034973-pat00028
and
Figure 112012003034973-pat00029
Is the newly extracted set
Figure 112012003034973-pat00030
Wow
Figure 112012003034973-pat00031
Is a previously extracted set,
Figure 112012003034973-pat00032
and
Figure 112012003034973-pat00033
Is the current measurement.

실시 예에 따라 가중치 적용 표적 결정 모듈(300)은 상기 수학식 12에 따라 산출된 확률이 최대일 때 최종 표적으로 선정할 수 있다.According to an embodiment, the weighted target determination module 300 may select the final target when the probability calculated according to Equation 12 is the maximum.

도 10은 본 발명의 실시 예에 따라 표적이 최종 선정된 결과의 예를 나타낸다.10 shows an example of the result of the target is finally selected according to the embodiment of the present invention.

도 10의 (a)는 적외선 영상에서 제1표적후보(I1, I2, I3, I4, I5)를 도시하고 있으며, (b)는 가시광 영상에서 상기 제1표적후보(I1, I2, I3, I4, I5)에 대응되는 SIFT 디스크립터를 추출하여 제2표적후보(V1, V2, V3, V4, V5)로 결정되었음을 도시하고 있다.(A) of FIG. 10 illustrates first target candidates I 1 , I 2 , I 3 , I 4 , and I 5 in an infrared image, and (b) illustrates first target candidates I 1 in a visible light image. , I 2 , I 3 , I 4 , I 5 ) to extract the SIFT descriptor corresponding to the second target candidates (V 1 , V 2 , V 3 , V 4 , V 5 ) is determined to be determined.

특히 (a)에서는 상기 베이시안 기반 확률의 우선순위에 따라 제1표적후보(I1, I2, I3, I4, I5) 중에서 I3가 최종 표적으로 선정되었음을 알 수 있다.In particular (a) it can be seen that I 3 is selected as the final target among the first target candidates (I 1 , I 2 , I 3 , I 4 , I 5 ) according to the priority of the basis-based probability.

결국 본 발명은 스트랩다운 이중모드 영상탐색기(10)에서 베이시안 규칙 기반 표적결정 방법을 이용하여 소형 열표적 및 확장되는 표적을 매우 정밀하게 결정할 수 있다.As a result, the present invention can use the Bayesian rule-based targeting method in the strap-down dual mode imager 10 to accurately determine the small heat target and the extended target.

도 11은 본 발명의 제1실시 예에 따른 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 방법을 구체적으로 설명하기 위한 순서도이다.11 is a flowchart illustrating a Bayesian rule-based target determination method of the strapdown dual mode image detector according to the first embodiment of the present invention in detail.

도 1 내지 도 5 및 도 8 내지 도 11을 참조하면, 특정 동일 지역에 대한 영상을 획득하기 위해 적외선 센서(30)와 가시광 센서(50)는 평행 동일선상에서 하나의 특정 지점(x,y)에 대한 적외선 영상 및 가시광 영상을 각각 획득한다(S10).1 to 5 and 8 to 11, the infrared sensor 30 and the visible light sensor 50 are positioned at one specific point (x, y) on parallel collinear lines in order to acquire an image of a specific same area. Infrared image and visible light image for each is obtained (S10).

적외선 센서(30)는 센싱한 적외선 영상을 위치 가중 2차원 모멘트 모델링 모듈(100-1)로 전송하고(S30), 상기 가시광 센서(50)는 센싱한 가시광 영상을 SIFT 표적 특징값 추출 모듈(200)로 전송한다(S50).The infrared sensor 30 transmits the sensed infrared image to the position weighted 2D moment modeling module 100-1 (S30), and the visible light sensor 50 transmits the sensed visible image to the SIFT target feature value extraction module 200. (S50).

위치 가중 2차원 모멘트 모델링 모듈(100-1) 내의 최대 밝기 위치 획득부(110-1)는 상기 획득된 적외선 영상으로부터 픽셀 최대 밝기 위치를 획득하고 획득한 결과를 영역 설정부(130-1)로 전송한다(S100).The maximum brightness position acquisition unit 110-1 in the position weighted 2D moment modeling module 100-1 obtains the pixel maximum brightness position from the obtained infrared image and sends the obtained result to the area setting unit 130-1. Transmit (S100).

영역 설정부(130-1)는 최대 밝기 위치 획득부(110-1)로부터 획득된 픽셀 최대 밝기 위치로부터 인접하는 픽셀의 평균 밝기값을 구하기 위한 소정 영역을 설정하고, 상기 설정된 소정 영역을 4개의 영역으로 분할하여 그에 대한 픽셀 평균을 계산함으로써 보상된 좌표값을 획득한다(S130).The area setting unit 130-1 sets a predetermined area for obtaining an average brightness value of adjacent pixels from the pixel maximum brightness location acquired from the maximum brightness location obtaining unit 110-1, and sets the predetermined area to four areas. Compensated coordinate values are obtained by dividing into regions and calculating pixel averages thereof (S130).

예컨대, 도 5의 (a)에 도시된 바와 같이, 영역 설정부(130-1)는 상기 최대 밝기 위치 획득부(110-1)로부터 획득된 위치로부터 3×3 영역을 설정하여 4개의 영역(A1, A2, A3, A4)으로 분할하여 각각의 픽셀 평균을 계산하고, 픽셀 평균이 가장 큰 값으로 보상된 좌표값을 획득한다(S130).For example, as shown in FIG. 5A, the area setting unit 130-1 is 3 × 3 from a position obtained from the maximum brightness position obtaining unit 110-1. The region is set and divided into four regions A 1 , A 2 , A 3 , and A 4 to calculate respective pixel averages, and a coordinate value compensated with the largest pixel average is obtained (S130).

순차적으로, 도 5의 (b)에 도시된 바와 같이, 영역 설정부(130-1)는 상기 최대 밝기 위치 획득부(110-1)로부터 획득된 위치로부터 5×5 영역을 설정하여 4개의 영역(B1, B2, B3, B4)으로 분할하여 그에 대한 픽셀 평균을 계산함으로써 보상된 좌표값을 획득한다(S140).Subsequently, as shown in (b) of FIG. 5, the area setting unit 130-1 sets four areas by setting a 5 × 5 area from the position acquired from the maximum brightness position obtaining unit 110-1. Compensated coordinate values are obtained by dividing by (B1, B2, B3, B4) and calculating a pixel average thereof (S140).

순차적으로, 도 5의 (c)에 도시된 바와 같이, 영역 설정부(130-1)는 상기 최대 밝기 위치 획득부(110-1)로부터 획득된 위치로부터 7×7 영역을 설정하여 4개의 영역으로 분할(C1, C2, C3, C4)하여 각각의 픽셀 평균을 계산하고, 픽셀 평균이 가장 큰 값으로 보상된 좌표값을 획득한다(S150).Subsequently, as shown in FIG. 5C, the area setting unit 130-1 sets four areas by setting a 7 × 7 area from the position acquired from the maximum brightness position obtaining unit 110-1. By dividing (C 1 , C 2 , C 3 , C 4 ), each pixel average is calculated, and a coordinate value compensated with the largest pixel average is obtained (S150).

중심좌표 산출부(150-1)는 영역 설정부(130-1)에 의해 소정 영역들(3×3, 5×5, 7×7)로부터 각각 획득된 픽셀 평균의 최대값 좌표값을 이용하여, 상기 수학식 9에 따라 최종 중심 좌표값을 산출한다(S170). The center coordinate calculator 150-1 uses the maximum coordinate values of the pixel averages obtained from the predetermined areas 3 × 3, 5 × 5, and 7 × 7 by the area setting unit 130-1. In operation S170, the final center coordinate value is calculated according to Equation 9.

2차원 모멘트 모델링부(170-1)는 상기 중심 좌표 산출부(150-1)로부터 산출된 최종 픽셀의 중심 좌표로부터 위치가중 2차원 모멘트 모델링하여 제1표적후보를 결정한다(S190).The 2D moment modeling unit 170-1 determines the first target candidate by modeling the position weighted 2D moment from the center coordinates of the final pixel calculated by the center coordinate calculating unit 150-1 (S190).

또한 2차원 모멘트 모델링부(170-1)는 상기 결정된 제1표적후보를 SIFT 표적특징값 추출 모듈(200) 및 베이시안 규칙 적용 표적 결정 모듈(300)로 전송한다(S190).In addition, the 2D moment modeling unit 170-1 transmits the determined first target candidate to the SIFT target feature value extraction module 200 and the Bayesian rule application target determination module 300 (S190).

한편, SIFT 표적특징값 추출 모듈(200)의 대응 영역 설정부(230)는 위치 가중 2차원 모멘트 모델링 모듈(100-1)로부터 전송된 제1표적후보에 대응되는 지점을 가시광 센서(500)로부터 전송된 가시광 영상에 N ×N 영역으로 설정한다(S330).Meanwhile, the corresponding region setting unit 230 of the SIFT target feature value extraction module 200 may determine a point corresponding to the first target candidate transmitted from the position weighted two-dimensional moment modeling module 100-1 from the visible light sensor 500. The transmission visible light image is set to an N × N region (S330).

SIFT 수행부(250)는 상기 대응 영역 설정부(230)가 설정한 N ×N 영역에 대하여 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 표적의 후보지점인 제2표적후보를 도출하여(S350) 베이시안 규칙 적용 표적 결정 모듈(300)로 전송한다.The SIFT execution unit 250 derives a second target candidate which is a candidate point of a target by using a scale invariant feature transform (SIFT) technique for the N × N region set by the corresponding region setting unit 230 (S350). Send to the Bayesian rule application target determination module 300.

상기 SIFT 기법은 표적 또는 배경의 크기 불변 특징점을 검출하기 위한 기법으로, 크기가 서로 다른 가우시안 필터를 단계적으로 적용하여 블러링된 영상을 획득하고, 크기 불변공간에서 가우시안 차분(Difference of Gaussian, DoG) 적용하여 계산한 후에 이웃한 픽셀 들 및 이웃한 두 공간에서 극대값과 극소값이 되는 픽셀을 크기 불변 특징점으로 산출하는 과정을 수반한다.The SIFT technique is a technique for detecting a size-invariant feature point of a target or a background, and acquires a blurred image by applying Gaussian filters having different sizes in stages, and Gaussian difference in the size-invariant space (Difference of Gaussian, DoG) After application and calculation, the process involves calculating the size-invariant feature points of neighboring pixels and pixels that become the maximum and minimum values in two neighboring spaces.

베이시안 규칙 적용 표적 결정 모듈(300)은 적외선 영상에서 추출된 특징값과 가시광 영상에서 추출된 특징값의 유사도를 베이시안 규칙을 기반으로 한 확률로서 계산하고, 계산된 확률의 우선순위로서 최종 표적을 결정한다(S400).The Bayesian rule application target determination module 300 calculates the similarity between the feature value extracted from the infrared image and the feature value extracted from the visible light image as a probability based on the Bayesian rule, and the final target as the priority of the calculated probability. Determine (S400).

이때, 베이시안 규칙 적용 표적 결정 모듈(300)이 상기 베이시안 규칙을 적용하기 위해 상기 수학식 12를 이용한다.At this time, the Bayesian rule application target determination module 300 uses Equation 12 to apply the Bayesian rule.

도 12는 본 발명의 제2실시 예에 따른 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 방법을 구체적으로 설명하기 위한 순서도이다.12 is a flowchart illustrating a Bayesian rule-based target determination method of the strapdown dual mode image detector according to the second embodiment of the present invention in detail.

도 1 내지 도 3, 도 6 내지 도 10 및 도 12를 참조하면, 특정 동일 지역에 대한 영상을 획득하기 위해 적외선 센서(30)와 가시광 센서(50)는 평행 동일선상에서 하나의 특정 지점(x,y)에 대한 적외선 영상 및 가시광 영상을 각각 획득한다(S10).1 to 3, 6 to 10, and 12, the infrared sensor 30 and the visible light sensor 50 have one specific point (x, An infrared image and a visible light image for y) are respectively obtained (S10).

적외선 센서(30)는 센싱한 적외선 영상을 영역 확장 2차원 모멘트 모델링 모듈(100-2)로 전송하고(S30), 상기 가시광 센서(50)는 센싱한 가시광 영상을 SIFT 표적 특징값 추출 모듈(200)로 전송한다(S50).The infrared sensor 30 transmits the sensed infrared image to the region expansion 2D moment modeling module 100-2 (S30), and the visible light sensor 50 transmits the sensed visible image to the SIFT target feature value extraction module 200. (S50).

영역 확장 2차원 모멘트 모델링 모듈(100-2) 내의 최대 밝기 위치 획득부(110-2)는 상기 획득된 적외선 영상으로부터 픽셀 최대 밝기 위치를 획득하고 획득한 결과를 동일값 확장부(130-2)로 전송한다(S200).The maximum brightness position acquisition unit 110-2 in the area extension 2D moment modeling module 100-2 obtains the pixel maximum brightness position from the acquired infrared image and displays the obtained result as the same value extension 130-2. Transmit to (S200).

동일값 확장부(130-2)는 상기 최대 밝기 위치 획득부(110-2)로부터 전송된 획득 결과로부터 소정의 영역(예를 들어 3 × 3 영역)을 설정하고 상기 최대 밝기값과 동일한 값으로 확장한다(S230).The same value expansion unit 130-2 is a predetermined area (eg, 3 × 3) from the acquisition result transmitted from the maximum brightness position obtaining unit 110-2. Region) and extends to the same value as the maximum brightness value (S230).

예컨대, 도 7을 참조하면, 픽셀의 중심이 A1 픽셀인 경우 A1 픽셀을 중심으로 같은 밝기값을 포함하고 있는 A2로 픽셀 좌표를 확장한다.For example, referring to FIG. 7, when the center of the pixel is A 1 pixel, the pixel coordinates are extended to A 2 including the same brightness value around the A 1 pixel.

중심좌표 산출부(150-2)는 상기 확장된 3 × 3 영역의 전체 픽셀 평균을 구하여 임계값을 설정하고, 상기 설정된 임계값에서 상기 최대 밝기값 사이의 픽셀 평균 좌표를 구한다(S250).The central coordinate calculation unit 150-2 sets a threshold value by obtaining the total pixel average of the extended 3 × 3 region, and obtains a pixel average coordinate between the maximum brightness values at the set threshold value (S250).

순차적으로, 중심좌표 산출부(150-2)는 동일 값 확장부(130-2)로부터 확장된 밝기값 좌표와 상기 픽셀 평균 좌표에 따라 최종 픽셀의 중심 좌표를 산출한다(S270).In operation S270, the central coordinate calculator 150-2 calculates the center coordinates of the final pixel based on the brightness value coordinates extended from the same value extension unit 130-2 and the pixel average coordinates.

2차원 모멘트 모델링부(170-2)는 상기 중심 좌표 산출부(150-2)로부터 산출된 최종 픽셀의 중심 좌표로부터 영역 확장 2차원 모멘트 모델링하여 제1군 표적후보를 결정한다(S290).The 2D moment modeling unit 170-2 determines the first group target candidate by modeling the region extension 2D moment from the center coordinates of the final pixel calculated from the center coordinate calculating unit 150-2 (S290).

또한 2차원 모멘트 모델링부(170-2)는 상기 결정된 제1군 표적후보를 SIFT 표적특징값 추출 모듈(200) 및 베이시안 규칙 적용 표적 결정 모듈(300)로 전송한다(S290).In addition, the 2D moment modeling unit 170-2 transmits the determined first group target candidate to the SIFT target feature value extraction module 200 and the Bayesian rule application target determination module 300 (S290).

이후의 SIFT 표적특징값 추출 과정 및 베이시안 규칙 적용 과정은 도 11에서 설명한 바와 동일하므로 상세한 설명은 생략한다.Since the SIFT target feature value extraction process and the Bayesian rule application process are the same as those described with reference to FIG. 11, a detailed description thereof will be omitted.

결국 본 발명의 실시 예에 따른 베이시안 규칙 기반 표적 결정 방법 및 이를 이용한 표적 결정 시스템은 위치 가중 또는 영역 확장 2차원 모멘트 모델링 및 크기 불변 특징 변환을 통해 적외선 영상 및 가시광 영상의 특징을 추출하고, 상기 추출된 특징의 유사도를 베이시안 규칙에 근거하는 확률로서 계산하여 최종 표적을 결정함으로써, 소형 표적 및 확장되는 표적을 매우 정밀하게 결정할 수 있는 효과가 있다.As a result, a Bayesian rule-based target determination method and a target determination system using the same extract the features of an infrared image and a visible light image through location weighting or region extension two-dimensional moment modeling and size-invariant feature transformation. By determining the final target by calculating the similarity of the extracted features as a probability based on the Bayesian rule, there is an effect that the small target and the extended target can be determined very precisely.

본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to one embodiment shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

10 : 표적 결정 시스템
30 : IIR
50 : CCD
100: 2차원 모멘트 모델링 모듈
100-1 : 위치 가중 2차원 모멘트 모델링 모듈
100-2 : 영역 확장 2차원 모멘트 모델링 모듈
110-1, 110-2: 최대 밝기 위치 획득부
130-1: 영역 설정부
130-2: 동일값 확장부
150-1, 150-2: 중심좌표 산출부
170-1, 170-2: 2차원 모멘트 모델링부
200: SIFT 표적특징값 추출 모듈(200)
300: 베이시안 규칙 적용 표적 결정 모듈
10: target determination system
30: IIR
50: CCD
100: two-dimensional moment modeling module
100-1: Position Weighted 2D Moment Modeling Module
100-2: Region Expansion 2D Moment Modeling Module
110-1, 110-2: maximum brightness position acquisition unit
130-1: area setting unit
130-2: equal value extension
150-1, 150-2: center coordinate calculation unit
170-1, 170-2: two-dimensional moment modeling unit
200: SIFT target feature value extraction module 200
300: Bayesian rule application target determination module

Claims (3)

특정 지역에 대한 적외선 영상과 가시광 영상을 각각 획득하는 적외선 영상 센서 및 가시광 영상 센서;
상기 획득된 적외선 영상으로부터 위치 가중 또는 영역 확장 기반의 2차원 모멘트 모델링을 통해 제1표적후보를 결정하는 2차원 모멘트 모델링 모듈;
상기 2차원 모멘트 모델링 모듈로부터 결정된 제1표적후보에 대응되는 지점을 대응 N ×N 영역으로 설정하고, 상기 설정한 N ×N 영역에 대하여 SIFT(Scale Invariant Feature Transform) 기법을 이용하여 제2표적후보를 도출하는 SIFT 표적특징값 추출 모듈; 및
베이시안 규칙(Bayesian Rule)을 적용하여 상기 결정된 제1표적후보 및 제2표적후보의 유사도를 확률로서 산출하고, 상기 산출된 확률의 우선순위에 따라 최종 표적을 결정하는 베이시안 규칙 적용 표적 결정 모듈;을 포함하는 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 시스템.
An infrared image sensor and a visible light image sensor for respectively obtaining an infrared image and a visible light image for a specific region;
A 2D moment modeling module for determining a first target candidate through position weighting or area extension based 2D moment modeling from the acquired infrared image;
A point corresponding to the first target candidate determined from the two-dimensional moment modeling module is set as a corresponding N × N region, and a second target candidate using the scale invariant feature transform (SIFT) technique for the set N × N region. SIFT target feature value extraction module for deriving; And
A Bayesian rule applied target determination module for calculating a similarity between the determined first target candidate and the second target candidate as a probability by applying a Bayesian rule, and determining a final target according to the priority of the calculated probability. Bayesian rule-based target determination system of a strap-down dual mode imager including;
제1항에 있어서, 상기 2차원 모멘트 모델링 모듈은,
상기 획득된 적외선 영상으로부터 최대 밝기값을 갖는 픽셀의 좌표를 획득하는 최대 밝기 위치 획득부;
상기 획득된 픽셀 최대 밝기 위치를 중심으로 동일한 픽셀 단위를 갖는 4개의 서브 영역들로 구성되는 소정 영역을 설정하고, 상기 서브 영역들의 평균 픽셀값을 산출하여 상기 소정 영역의 픽셀 평균의 최대값 좌표를 획득하는 영역 설정부;
상기 획득된 픽셀 평균의 최대값 좌표로부터 최종 픽셀 중심 좌표를 산출하는 중심좌표 산출부; 및
상기 산출된 최종 픽셀의 중심 좌표로부터 위치 가중 2차원 모멘트 모델링을 수행하여 상기 1표적후보를 결정하는 2차원 모멘트 모델링부;를 포함하는 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 시스템.
The method of claim 1, wherein the two-dimensional moment modeling module,
A maximum brightness position obtaining unit obtaining coordinates of a pixel having a maximum brightness value from the acquired infrared image;
A predetermined area including four sub areas having the same pixel unit is set around the obtained pixel maximum brightness position, and an average pixel value of the sub areas is calculated to determine a maximum value coordinate of the pixel average of the predetermined area. An area setting unit to obtain;
A center coordinate calculator configured to calculate a final pixel center coordinate from the acquired maximum value coordinate of the pixel average; And
And a two-dimensional moment modeling unit configured to determine the first target candidate by performing position-weighted two-dimensional moment modeling from the calculated center coordinates of the final pixel.
제1항에 있어서, 상기 2차원 모멘트 모델링 모듈은,
상기 획득된 적외선 영상으로부터 최대 밝기값을 갖는 픽셀의 좌표를 획득하는 최대 밝기 위치 획득부;
상기 획득된 최대 밝기값을 갖는 픽셀 좌표로부터 소정의 픽셀 영역을 설정하고, 상기 설정된 픽셀 영역 내의 픽셀들의 밝기값을 상기 획득된 최대 밝기값으로 확장하는 동일값 확장부;
상기 픽셀 영역의 확장된 전체 픽셀 평균을 구하여 임계값을 설정하고, 상기 설정된 임계값과 상기 최대 밝기값 사이의 픽셀 평균 좌표를 산출하며, 상기 확장된 밝기값 좌표와 상기 픽셀 평균 좌표에 따라 최종 픽셀 중심 좌표를 산출하는 중심좌표 산출부; 및
상기 산출된 최종 픽셀의 중심 좌표로부터 영역 확장 2차원 모멘트 모델링을 수행하는 2차원 모멘트 모델링부;를 포함하는 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 시스템.
The method of claim 1, wherein the two-dimensional moment modeling module,
A maximum brightness position obtaining unit obtaining coordinates of a pixel having a maximum brightness value from the acquired infrared image;
An equal value expansion unit that sets a predetermined pixel area from pixel coordinates having the obtained maximum brightness value, and extends brightness values of pixels in the set pixel area to the obtained maximum brightness value;
A threshold value is obtained by obtaining an extended total pixel average of the pixel area, a pixel average coordinate between the set threshold value and the maximum brightness value is calculated, and a final pixel according to the extended brightness value coordinate and the pixel average coordinate A center coordinate calculation unit calculating a center coordinate; And
A Bayesian rule-based target determination system of a strap-down dual mode image searcher including a;
KR1020120003730A 2012-01-12 2012-01-12 Bayesian rule-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling KR101175752B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120003730A KR101175752B1 (en) 2012-01-12 2012-01-12 Bayesian rule-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120003730A KR101175752B1 (en) 2012-01-12 2012-01-12 Bayesian rule-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling

Publications (1)

Publication Number Publication Date
KR101175752B1 true KR101175752B1 (en) 2012-09-07

Family

ID=47073591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120003730A KR101175752B1 (en) 2012-01-12 2012-01-12 Bayesian rule-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling

Country Status (1)

Country Link
KR (1) KR101175752B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101444656B1 (en) 2013-02-20 2014-09-24 국방과학연구소 Method for calculating feasible search area for seeker to improve lock-on-target performance
CN106845490A (en) * 2016-12-30 2017-06-13 国网河南省电力公司检修公司 Based on the super-pressure converting equipment infrared image localization method that GPU accelerates

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101444656B1 (en) 2013-02-20 2014-09-24 국방과학연구소 Method for calculating feasible search area for seeker to improve lock-on-target performance
CN106845490A (en) * 2016-12-30 2017-06-13 国网河南省电力公司检修公司 Based on the super-pressure converting equipment infrared image localization method that GPU accelerates

Similar Documents

Publication Publication Date Title
US20200159256A1 (en) Method for detecting target object, detection apparatus and robot
WO2021000664A1 (en) Method, system, and device for automatic calibration of differences in cross-modal target detection
JP6806459B2 (en) Methods and devices for tracking objects
CN111488775B (en) Device and method for judging degree of visibility
CN111382613A (en) Image processing method, apparatus, device and medium
US11087159B2 (en) Object detection device, object detection method and non-transitory computer readable medium
JP2010157093A (en) Motion estimation device and program
KR101188296B1 (en) Weighted-based target decision method for strapdown dual mode imaging seeker and system thereof
CN111199198B (en) Image target positioning method, image target positioning device and mobile robot
CN116664620A (en) Picture dynamic capturing method and related device based on tracking system
JP5367244B2 (en) Target detection apparatus and target detection method
KR101202215B1 (en) Weighted-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling
JP6042146B2 (en) Object detection apparatus and object detection method
KR101175752B1 (en) Bayesian rule-based target decision system for strapdown dual mode imaging seeker using location weighted or region growing moment modeling
KR101175751B1 (en) Bayesian rule-based target decision method of strapdown dual mode imaging seeker
JP6452361B2 (en) Information processing apparatus, information processing method, and program
KR101217231B1 (en) Method and system of object recognition
JP5365408B2 (en) Mobile object recognition apparatus, mobile object recognition method, and program
JP5217917B2 (en) Object detection and tracking device, object detection and tracking method, and object detection and tracking program
JP6311461B2 (en) Gaze analysis system and gaze analysis apparatus
CN115862124A (en) Sight estimation method and device, readable storage medium and electronic equipment
JP2023008030A (en) Image processing system, image processing method, and image processing program
JP2013114381A (en) Object identification device and object identification method
KR101918887B1 (en) Distance measuring device using mono infrared camera and method thereof
JP5325822B2 (en) Object identification device

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150729

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160729

Year of fee payment: 5