KR102235127B1 - Adaptive fusion method of multimodal images and apparatus - Google Patents

Adaptive fusion method of multimodal images and apparatus Download PDF

Info

Publication number
KR102235127B1
KR102235127B1 KR1020190169363A KR20190169363A KR102235127B1 KR 102235127 B1 KR102235127 B1 KR 102235127B1 KR 1020190169363 A KR1020190169363 A KR 1020190169363A KR 20190169363 A KR20190169363 A KR 20190169363A KR 102235127 B1 KR102235127 B1 KR 102235127B1
Authority
KR
South Korea
Prior art keywords
image
fusion
different
recognized
generating
Prior art date
Application number
KR1020190169363A
Other languages
Korean (ko)
Inventor
공성곤
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020190169363A priority Critical patent/KR102235127B1/en
Application granted granted Critical
Publication of KR102235127B1 publication Critical patent/KR102235127B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/006Geometric correction
    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

Disclosed are a method for adaptively fusing multi-modal images and a device therefor. The method for adaptively fusing multi-modal images comprises the steps of: acquiring a first image and a second image by individually photographing a target through a plurality of cameras; recognizing an object with respect to the first image and the second image; and generating a fused image by fusing the first image and the second image, by applying different image fusion rules according to the type of the recognized object. In the present invention, multi-modal images can be adaptively fused by applying different fusion rules depending on the type of the object of interest in the image.

Description

멀티모달 영상의 적응적 융합 방법 및 그 장치{Adaptive fusion method of multimodal images and apparatus}An adaptive fusion method of multimodal images and apparatus thereof TECHNICAL FIELD

본 발명은 멀티모달 영상의 적응적 융합 방법 및 그 장치에 관한 것이다. The present invention relates to a method and apparatus for adaptive fusion of multimodal images.

영상 융합은 서로 다른 종류의 영상 센서의 장점을 결합하여 상호 보완적인 영상 정보를 포함하는 하나의 영상을 만들어 내는 과정이다. Image fusion is a process of creating a single image including complementary image information by combining the advantages of different types of image sensors.

종래의 영상 융합 기술은 영상 내에 존재하는 여러 개의 관심 물체의 종류의 밝기 분포 정보를 사용하지 않으며, 화소의 밝기값에 의존하여 영상을 융합하였다. 이로 인해, 종래의 영상 융합 기술은 컴퓨터 비전에서 물체 인식에 활용할 때 충분한 시각 정보를 제공하는데 한계가 있었다. The conventional image fusion technology does not use information on the brightness distribution of the types of objects of interest existing in the image, but fused the image depending on the brightness value of the pixel. For this reason, the conventional image fusion technology has a limitation in providing sufficient visual information when used for object recognition in computer vision.

(01) 대한민국공개특허공보 제10-2009-0103128호(2009.10.01)(01) Korean Patent Application Publication No. 10-2009-0103128 (2009.10.01)

본 발명은 멀티모달 영상의 적응적 융합 방법 및 그 장치를 제공하기 위한 것이다. The present invention is to provide a method and apparatus for adaptive fusion of multimodal images.

또한, 본 발명은 영상내의 관심 객체의 유형에 따라 서로 상이한 융합 규칙을 적용하여 멀티 모달 영상을 적응적으로 융합할 수 있는 멀티모달 영상의 적응적 융합 방법 및 그 장치를 제공하기 위한 것이다. In addition, the present invention is to provide a method and apparatus for adaptive fusion of multi-modal images capable of adaptively fusion of multi-modal images by applying different fusion rules according to the type of an object of interest in an image.

이를 통해, 본 발명은 융합된 영상을 이용하여 컴퓨터 비전 문제를 해결하고자 하는 경우, 영상 처리 및 분석에 필요한 충분한 시각 정보를 제공할 수 있는 멀티모달 영상의 적응적 융합 방법 및 그 장치를 제공하기 위한 것이다. Through this, the present invention is to provide a method and apparatus for adaptive fusion of multimodal images capable of providing sufficient visual information necessary for image processing and analysis when trying to solve a computer vision problem using a fused image. will be.

본 발명의 일 측면에 따르면, 멀티모달 영상의 적응적 융합 방법이 제공된다. According to an aspect of the present invention, a method for adaptive fusion of multimodal images is provided.

본 발명의 일 실시예에 따르면, 복수의 카메라를 통해 각각 대상을 촬영하여 제1 영상 및 제2 영상을 획득하는 단계; 상기 제1 영상 및 제2 영상에 대해 객체를 인식하는 단계; 및 상기 인식된 객체 유형에 따라 서로 다른 영상 융합 규칙을 적용하여 상기 제1 영상과 제2 영상을 융합하여 융합 영상을 생성하는 단계를 포함하는 영상 융합 방법이 제공될 수 있다. According to an embodiment of the present invention, the method includes: obtaining a first image and a second image by photographing a target through a plurality of cameras; Recognizing an object for the first image and the second image; And generating a fusion image by fusing the first image and the second image by applying different image fusion rules according to the recognized object type.

상기 제1 영상은 칼라 영상이고, 상기 제2 영상은 열화상 영상이다. The first image is a color image, and the second image is a thermal image.

상기 융합 영상을 생성하는 단계 이전에, 상기 제1 영상과 상기 제2 영상을 정합하되, 상기 제1 영상 및 상기 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 상기 제1 영상 및 상기 제2 영상 중 다른 하나를 상기 기준 영상에 일치되도록 기하 변환하여 정합시킬 수 있다. Before the step of generating the fusion image, the first image and the second image are matched, but after setting any one of the first image and the second image as a reference image, the first image and the second image Another one of the images may be geometrically transformed and matched to match the reference image.

상기 융합 영상을 생성하는 단계는, 서로 다른 유형의 복수의 객체가 포함된 경우, 객체 유형에 따라 각각의 객체에 서로 다른 영상 융합 규칙을 적용하고, 배경은 상기 인식된 객체와는 상이한 영상 융합 규칙을 적용하여 융합 영상을 생성할 수 있다. In the step of generating the fusion image, when a plurality of objects of different types are included, a different image fusion rule is applied to each object according to the object type, and the background is an image fusion rule different from the recognized object. The fusion image can be created by applying.

상기 융합 영상을 생성하는 단계는, 상기 인식된 객체의 열 특성에 따라 서로 다른 영상 융합 규칙을 적용할 수 있다. In the generating of the fusion image, different image fusion rules may be applied according to thermal characteristics of the recognized object.

본 발명의 다른 측면에 따르면, 멀티모달 영상의 적응적 융합 장치가 제공된다. According to another aspect of the present invention, an apparatus for adaptive fusion of multimodal images is provided.

본 발명의 일 실시예에 따르면, 복수의 카메라를 통해 각각 대상을 촬영하여 제1 영상 및 제2 영상을 획득하는 영상 획득부; 상기 제1 영상 및 제2 영상에 대해 객체를 인식하는 객체 인식부; 및 상기 인식된 객체 유형에 따라 서로 다른 영상 융합 규칙을 적용하여 상기 제1 영상과 제2 영상을 융합하여 융합 영상을 생성하는 영상 융합부를 포함하는 영상 융합 장치가 제공될 수 있다. According to an embodiment of the present invention, there is provided an image acquisition unit for obtaining a first image and a second image by photographing a target through a plurality of cameras; An object recognition unit for recognizing an object with respect to the first image and the second image; And an image fusion unit configured to generate a fusion image by fusing the first image and the second image by applying different image fusion rules according to the recognized object type.

상기 제1 영상과 상기 제2 영상을 정합하되, 상기 제1 영상 및 상기 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 상기 제1 영상 및 상기 제2 영상 중 다른 하나를 상기 기준 영상에 일치되도록 기하 변환하여 정합시키는 영상 정합부를 더 포함할 수 있다. The first image and the second image are matched, but after setting any one of the first image and the second image as a reference image, the other one of the first image and the second image is matched with the reference image It may further include an image matching unit for matching by geometric transformation as possible.

상기 영상 융합부는, 서로 다른 유형의 복수의 객체가 포함된 경우, 객체 유형에 따라 각각의 객체에 서로 다른 영상 융합 규칙을 적용하고, 배경은 상기 인식된 객체와는 상이한 영상 융합 규칙을 적용하여 융합 영상을 생성할 수 있다. When a plurality of objects of different types are included, the image fusion unit applies different image fusion rules to each object according to the object type, and the background is fused by applying an image fusion rule different from the recognized object. You can create an image.

상기 영상 융합부는, 상기 인식된 객체의 열 특성에 따라 서로 다른 영상 융합 규칙을 적용할 수 있다.The image fusion unit may apply different image fusion rules according to thermal characteristics of the recognized object.

복수의 카메라는 동일한 화각을 가지는 렌즈가 장착되되, 상기 대상 촬영시 커버하는 화면이 중첩되도록 설치될 수 있다. A plurality of cameras may be equipped with lenses having the same angle of view, and may be installed so that the screens covered when the target is photographed overlap.

본 발명의 일 실시예에 따른 멀티모달 영상의 적응적 융합 방법 및 그 장치를 제공함으로써, 영상내의 관심 객체의 유형에 따라 서로 상이한 융합 규칙을 적용하여 멀티 모달 영상을 적응적으로 융합할 수 있다. By providing a method and apparatus for adaptive fusion of multimodal images according to an embodiment of the present invention, different fusion rules may be applied according to the type of an object of interest in the image to adaptively fusion of multi-modal images.

이를 통해, 본 발명은 융합된 영상을 이용하여 컴퓨터 비전 문제를 해결하고자 하는 경우, 영상 처리 및 분석에 필요한 충분한 시각 정보를 제공할 수 있는 이점이 있다. Through this, the present invention has the advantage of providing sufficient visual information necessary for image processing and analysis when trying to solve a computer vision problem using a fused image.

도 1은 본 발명의 일 실시예에 따른 멀티모달 영상 융합 방법을 나타낸 순서도.
도 2 및 도 3은 본 발명의 일 실시예에 따른 서로 다른 카메라에 의해 촬영된 영상을 예시한 도면.
도 4 및 도 5는 복수의 영상에 대해 동일한 영상 융합 규칙을 적용한 결과를 도시한 도면.
도 6 및 도 7은 본 발명의 일 실시예에 따른 서로 다른 2가지 융합 규칙을 적용한 결과를 도시한 도면.
도 8은 본 발명의 일 실시예에 따른 영상 융합 장치의 구성을 도시한 블록도.
1 is a flow chart showing a multimodal image fusion method according to an embodiment of the present invention.
2 and 3 are diagrams illustrating images captured by different cameras according to an embodiment of the present invention.
4 and 5 are diagrams showing results of applying the same image fusion rule to a plurality of images.
6 and 7 are diagrams showing results of applying two different fusion rules according to an embodiment of the present invention.
8 is a block diagram showing the configuration of an image fusion device according to an embodiment of the present invention.

본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Singular expressions used in the present specification include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional components or steps. In addition, terms such as "... unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .

이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 멀티모달 영상 융합 방법을 나타낸 순서도이고, 도 2 및 도 3은 본 발명의 일 실시예에 따른 서로 다른 카메라에 의해 촬영된 영상을 예시한 도면이고, 도 4 및 도 5는 복수의 영상에 대해 동일한 영상 융합 규칙을 적용한 결과를 도시한 도면이고, 도 6 및 도 7은 본 발명의 일 실시예에 따른 서로 다른 2가지 융합 규칙을 적용한 결과를 도시한 도면이다. 1 is a flow chart showing a method for fusion of a multimodal image according to an embodiment of the present invention, and FIGS. 2 and 3 are diagrams illustrating images captured by different cameras according to an embodiment of the present invention, and FIG. 4 and 5 are diagrams showing results of applying the same image fusion rule to a plurality of images, and FIGS. 6 and 7 are views showing results of applying two different fusion rules according to an embodiment of the present invention to be.

단계 110에서 영상 융합 장치(100)는 복수의 카메라를 통해 제1 영상과 제2 영상을 촬영한다. 이때, 카메라는 동일한 대상을 촬영하는 것을 가정하기로 한다. In step 110, the image fusion device 100 captures a first image and a second image through a plurality of cameras. In this case, it is assumed that the camera photographs the same object.

편의상 본 발명의 일 실시예에서는 일반적인 카메라를 통해 제1 영상을 촬영하고, 열화상 카메라를 통해 제2 영상을 촬영하는 것을 가정하기로 한다. For convenience, in an embodiment of the present invention, it is assumed that a first image is captured through a general camera and a second image is captured through a thermal imaging camera.

일반 카메라에 의해 촬영된 영상은 도 2에 도시된 바와 같으며, 열화상 카메라에 의해 촬영된 영상은 도 3에 도시된 바와 같다.An image captured by a general camera is as illustrated in FIG. 2, and an image captured by a thermal imaging camera is as illustrated in FIG. 3.

도 2 및 도 3에서 보여지는 바와 같이, 일반 RGB 카메라 및 열화상 카메라는 동일한 대상(피사체)를 각각 촬영하여 제1 영상과 제2 영상을 생성할 수 있다. As shown in FIGS. 2 and 3, a general RGB camera and a thermal imaging camera may generate a first image and a second image by photographing the same object (subject), respectively.

본 발명의 일 실시예에서는 RGB 카메라와 열화상 카메라가 비슷한 화각을 가지는 렌즈를 장착하여 동일한 대상(피사체)를 각각 촬영하는 것을 가정하기로 한다. In an embodiment of the present invention, it is assumed that the RGB camera and the thermal imaging camera are respectively photographing the same object (subject) by mounting a lens having a similar angle of view.

두 카메라 사이의 거리는 매우 작은 것을 가정하기로 하며, 두 카메라가 커버하는 화면이 거의 중첩(겹쳐지도록) 두 카메라의 위치가 설정되는 것을 가정하기로 한다. It is assumed that the distance between the two cameras is very small, and the positions of the two cameras are set so that the screens covered by the two cameras almost overlap (overlap).

단계 115에서 영상 융합 장치(100)는 제1 영상을 분석하여 제1 영상에서 관심 있는 객체를 인식한다. 즉, 영상 융합 장치(100)는 RGB 카메라에 의해 촬영된 칼라 영상(제1 영상)에 대해 객체 인식 알고리즘을 적용하여 칼라 영상 내 관심 있는 객체를 각각 인식할 수 있다. 예를 들어, 객체 인식 알고리즘은 SURF, SIFT 등과 같이 공지된 객체 인식 알고리즘인 경우 모두 적용될 수 있다. In operation 115, the image fusion device 100 analyzes the first image and recognizes an object of interest in the first image. That is, the image fusion device 100 may recognize objects of interest in the color image by applying an object recognition algorithm to the color image (first image) captured by the RGB camera. For example, the object recognition algorithm can be applied to all known object recognition algorithms such as SURF and SIFT.

단계 120에서 영상 융합 장치(100)는 제1 영상에서 인식된 객체에 해당하는 객체를 제2 영상에 일치시킨다. In step 120, the image fusion device 100 matches the object corresponding to the object recognized in the first image with the second image.

예를 들어, 도 2에서 자동차가 객체로서 인식된 경우, 영상 융합 장치(100)는 인식된 자동차에 대해 제2 영상에 대해서도 일치시킨다. For example, when a vehicle is recognized as an object in FIG. 2, the image fusion device 100 matches the recognized vehicle with a second image as well.

단계 120에서 영상 융합 장치(100)는 제1 영상과 제2 영상을 정합한다. In step 120, the image fusion device 100 matches the first image and the second image.

예를 들어, 영상 융합 장치(100)는 제1 영상과 제2 영상을 각각 기하 변환을 수행한 후 두 영상(제1 영상과 제2 영상)을 정합할 수 있다. 이때, 영상 융합 장치(100)는 제1 영상 및 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 나머지 다른 하나의 영상을 기하 변환하여 기준 영상에 일치되도록 화소들을 일치시키는 영상 정합을 수행할 수 있다. For example, the image fusion device 100 may perform geometric transformation on each of the first image and the second image, and then match the two images (a first image and a second image). At this time, the image fusion device 100 may perform image matching by setting one of the first image and the second image as a reference image and then geometrically converting the other image to match the pixels so as to match the reference image. have.

예를 들어, 제1 영상이 기준 영상으로 설정되는 경우, 제2 영상을 기하 변환하여 제1 영상에 일치되도록 화소들을 일치시킬 수 있다. 서로 다른 카메라에 의해 촬영된 제1 영상과 제2 영상은 화각등을 최대한 일치시켰을지라도 기하학적으로 완전히 일치되지는 않는다. 따라서, 본 발명의 일 실시예에서는 기준 영상을 기준으로 나머지 하나의 영상을 단순 기하 변환하여 화소들을 일치시키는 정합 과정을 필수적으로 수행할 수 있다. For example, when the first image is set as the reference image, pixels may be matched to match the first image by geometrically transforming the second image. The first image and the second image captured by different cameras are not completely geometrically matched even though the angles of view are matched as much as possible. Accordingly, in an embodiment of the present invention, a matching process of matching pixels by simple geometric transformation of the other image based on the reference image may be essentially performed.

단계 125에서 영상 융합 장치(100)는 상이한 객체 유형에 따라 인식된 객체에 대해 서로 다른 융합 규칙을 적용하여 제1 영상과 제2 영상을 융합한다. In step 125, the image fusion device 100 fuses the first image and the second image by applying different fusion rules to objects recognized according to different object types.

예를 들어, 도 2 및 도 3과 같이, 제1 영상과 제2 영상에서 인식된 객체가 각각 사람과 자동차라고 가정하기로 한다. 이때, 영상 융합 장치(100)는 사람 객체에 대해서는 제1 영상 융합 규칙을 적용하며, 자동차 객체에 대해서는 제2 영상 융합 규칙을 적용할 수 있다. 또한, 영상 융합 장치(100)는 배경에 대해서는 제3 영상 융합 규칙을 적용할 수 있다.For example, as shown in FIGS. 2 and 3, it is assumed that objects recognized in the first image and the second image are a person and a vehicle, respectively. In this case, the image fusion device 100 may apply a first image fusion rule to a human object and a second image fusion rule to a vehicle object. Also, the image fusion device 100 may apply a third image fusion rule to the background.

이때, 영상 융합 장치(100)는 인식된 객체의 열 특성을 고려하여 서로 다른 융합 규칙을 적용할 수도 있다. In this case, the image fusion device 100 may apply different fusion rules in consideration of the thermal characteristics of the recognized object.

예를 들어, 도 4는 제1 영상과 제2 영상에 대해 공간 영역에서 가중 평균에 의한 영상 융합 규칙을 적용한 결과를 도시한 도면이다. 도 4는 제1 영상은 가중치를 0.7로 설정하고, 제2 영상에 대해 가중치를 0.3을 적용하여 공간 영역에서 가중 평균에 따른 영상 융합 규칙을 적용한 결과이다. For example, FIG. 4 is a diagram showing a result of applying an image fusion rule based on a weighted average in a spatial domain to a first image and a second image. 4 is a result of applying an image fusion rule according to a weighted average in a spatial domain by setting the weight of the first image to 0.7 and applying the weight of 0.3 to the second image.

도 5는 도 4와는 가중치를 다르게 적용하여 공간 영역에서 가중 평균에 따른 영상 융합 규칙을 적용한 결과이다. 예를 들어, 도 5는 제1 영상에 대해 가중치를 0.3를 적용하고, 제2 영상에 대해 가중치를 0.7을 적용하여 공간 영역에서 가중 평균에 따른 영상 융합 규칙을 적용한 결과이다. 5 is a result of applying an image fusion rule according to a weighted average in a spatial domain by applying a weight differently from that of FIG. 4. For example, FIG. 5 is a result of applying an image fusion rule according to a weighted average in a spatial domain by applying a weight of 0.3 to a first image and a weight of 0.7 to a second image.

도 4 및 도 5를 참조하면, 도 4는 자동차의 세부 시각적 특징이 잘 표현되어 있으나, 사람(행인)에 대한 시각 정보가 잘 표현되지 않은 것을 알 수 있다. 반면, 도 5는 행인에 대한 시각 정보는 비교적 잘 표현되어 있으나, 자동차의 열 특성을 너무 많이 포함하여 시각 정보를 잃어버린 것을 알 수 있다. Referring to FIGS. 4 and 5, it can be seen that although detailed visual characteristics of a vehicle are well expressed in FIG. 4, visual information on a person (passenger) is not well expressed. On the other hand, in FIG. 5, the visual information on the pedestrian is relatively well expressed, but it can be seen that the visual information is lost due to too much thermal characteristics of the vehicle.

따라서, 본 발명의 일 실시예에서는 제2 영상을 참조하여 인식된 객체의 열 특성이 상대적으로 높은 경우(예를 들어, 자동차), 자동차에 대해 제1 영상의 가중치를 높게 설정하고 제2 영상에 대한 가중치를 낮게 적용하여 자동차에 대한 시각 정보가 잘 표현되도록 할 수 있다. 또한, 행인(사람)의 경우, 자동차에 비해 열 특성이 상대적으로 낮으므로, 사람의 경우 제1 영상의 가중치는 낮게 설정하고, 제2 영상의 가중치를 높게 설정하여 행인의 시각 정보가 잘 표현되도록 할 수 있다. Therefore, in an embodiment of the present invention, when the thermal characteristic of an object recognized with reference to the second image is relatively high (for example, a car), the weight of the first image is set higher for the vehicle, and the second image is By applying a low weight for the vehicle, visual information about the vehicle can be well expressed. In addition, in the case of passersby (people), since the column characteristics are relatively low compared to cars, in the case of people, the weight of the first image is set low and the weight of the second image is set high so that the visual information of passersby is well expressed can do.

이와 같이, 본 발명의 일 실시예에 따른 영상 융합 장치(100)는 객체의 열 특성을 고려하여 인식된 객체에 대해 제1 영상과 제2 영상의 융합시 융합 규칙을 서로 상이하게 적용하여 융합 영상을 생성할 수 있다. As described above, the image fusion device 100 according to an embodiment of the present invention applies a fusion rule differently from each other when fusion of the first image and the second image to an object recognized in consideration of the thermal characteristics of the object. Can be created.

도 6 및 도 7은 동일한 가중치를 적용하며 공간 영역 및 DWT 변환 영역의 서로 다른 2가지의 융합 규칙을 사용한 결과이다. 도 6은 자동차에 대한 시각정보가 잘 표현되어 있으며, 도 7에는 행인 및 배경에 대한 시각적 정보가 더 충실하게 표현되는 것을 알 수 있다. 6 and 7 are results of using two different fusion rules of a spatial domain and a DWT transform domain while applying the same weight. It can be seen that visual information on a vehicle is well expressed in FIG. 6, and visual information on a pedestrian and a background is more faithfully expressed in FIG. 7.

따라서, 본 발명의 일 실시예에서는 인식된 객체 유형에 따라 서로 다른 융합 규칙을 적용하여 영상을 융합함으로써, 객체 특성에 맞는 시각적 특성을 잘 보존하여 영상을 융합할 수 있는 이점이 있다. Accordingly, in an embodiment of the present invention, by fusing images by applying different fusion rules according to the recognized object type, there is an advantage in that the images can be fused by preserving visual characteristics suitable for object characteristics.

도 8은 본 발명의 일 실시예에 따른 영상 융합 장치의 구성을 도시한 블록도이다. 8 is a block diagram showing the configuration of an image fusion device according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 영상 융합 장치(100)는 영상 획득부(810), 객체 인식부(815), 영상 정합부(820), 영상 융합부(825), 메모리(830) 및 프로세서(835)를 포함하여 구성된다. Referring to FIG. 8, an image fusion device 100 according to an embodiment of the present invention includes an image acquisition unit 810, an object recognition unit 815, an image matching unit 820, an image fusion unit 825, and a memory. 830 and a processor 835.

영상 획득부(810)는 서로 다른 종류의 카메라를 통해 대상을 촬영한 영상을 각각 획득한다. The image acquisition unit 810 acquires images photographed by different types of cameras, respectively.

객체 인식부(815)는 획득된 영상을 분석하여 객체를 인식한다. 이미 전술한 바와 같이, 복수의 영상 중 어느 하나의 영상에서 객체를 인식한 후 다른 영상에도 동일하게 적용하여 인식시킬 수 있다. The object recognition unit 815 recognizes an object by analyzing the acquired image. As already described above, after recognizing an object in any one of a plurality of images, it can be recognized by applying the same to other images.

영상 정합부(820)는 복수의 영상을 정합하기 위한 수단이다. 영상 정합부(820)는 복수의 영상 중 어느 하나를 기준 영상으로 설정하고, 나머지 영상을 기준 영상에 일치되도록 영상 정합할 수 있다. 즉, 영상 정합부(820)는 기준 영상을 기준으로 나머지 영상에 대해 단순 기하 변환을 수행하여 나머지 영상을 기준 영상에 일치되도록 정합시킬 수 있다. The image matching unit 820 is a means for matching a plurality of images. The image matching unit 820 may set any one of the plurality of images as a reference image and match the remaining images to match the reference image. That is, the image matching unit 820 may perform simple geometric transformation on the remaining images based on the reference image and may match the remaining images to match the reference image.

영상 융합부(825)는 인식된 객체 유형에 따라 서로 다른 융합 규칙을 적용하여 복수의 영상을 융합한다. The image fusion unit 825 fuses a plurality of images by applying different fusion rules according to the recognized object type.

이는 이미 전술한 바와 같으므로 중복되는 설명은 생략하기로 한다. Since this has already been described above, a redundant description will be omitted.

메모리(830)는 본 발명의 일 실시예에 따른 영상 융합 방법을 수행하기 위해 필요한 명령어(또는 프로그램 코드)를 저장하기 위한 수단이다. The memory 830 is a means for storing a command (or program code) necessary to perform the image fusion method according to an embodiment of the present invention.

프로세서(835)는 본 발명의 일 실시예에 따른 영상 융합 장치(100)의 내부 구성 요소들(예를 들어, 영상 획득부(810), 객체 인식부(815), 영상 정합부(820), 영상 융합부(825), 메모리(830) 등)을 제어하기 위한 수단이다. The processor 835 includes internal components of the image fusion device 100 according to an embodiment of the present invention (for example, an image acquisition unit 810, an object recognition unit 815, an image matching unit 820), It is a means for controlling the image fusion unit 825, the memory 830, and the like.

본 발명의 실시 예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The apparatus and method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes a hardware device specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at around the embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from a descriptive point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

100: 영상 융합 장치
810: 영상 획득부
815: 객체 인식부
820: 영상 정합부
825: 영상 융합부
830: 메모리
835: 프로세서
100: video fusion device
810: image acquisition unit
815: object recognition unit
820: image matching unit
825: image fusion unit
830: memory
835: processor

Claims (12)

복수의 카메라를 통해 각각 대상을 촬영하여 제1 영상 및 제2 영상을 획득하는 단계-상기 제1 영상은 칼라 영상이고, 상기 제2 영상은 열화상 영상임;
상기 제1 영상 및 제2 영상에 대해 객체를 인식하는 단계; 및
상기 인식된 객체 유형에 따라 서로 다른 영상 융합 규칙을 적용하여 상기 제1 영상과 제2 영상을 융합함으로써 상기 객체 유형에 맞는 시각적 특성을 보존하도록 융합 영상을 생성하는 단계를 포함하되,
상기 융합 영상을 생성하는 단계 이전에,
상기 제1 영상과 상기 제2 영상을 정합하되, 상기 제1 영상 및 상기 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 상기 제1 영상 및 상기 제2 영상 중 다른 하나를 상기 기준 영상에 일치되도록 기하 변환하여 정합 시키며,
상기 융합 영상을 생성하는 단계는,
서로 다른 유형의 복수의 객체가 포함된 경우, 객체 유형에 따라 각각의 객체에 서로 다른 영상 융합 규칙을 적용하고, 배경은 상기 인식된 복수의 객체와 상이한 다른 영상 융합 규칙을 적용하여 융합 영상을 생성하는 것을 특징으로 하는 영상 융합 방법.
Obtaining a first image and a second image by photographing an object through a plurality of cameras, respectively-the first image is a color image, and the second image is a thermal image;
Recognizing an object for the first image and the second image; And
Generating a fusion image to preserve visual characteristics suitable for the object type by fusing the first image and the second image by applying different image fusion rules according to the recognized object type,
Before the step of generating the fusion image,
The first image and the second image are matched, but after setting any one of the first image and the second image as a reference image, the other one of the first image and the second image is matched with the reference image Matching by geometric transformation as much as possible,
The step of generating the fusion image,
When a plurality of objects of different types are included, a different image fusion rule is applied to each object according to the object type, and a different image fusion rule different from the recognized plurality of objects is applied as the background to generate a fusion image. Image fusion method, characterized in that to.
삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 융합 영상을 생성하는 단계는,
상기 인식된 객체의 열 특성에 따라 서로 다른 영상 융합 규칙을 적용하여 융합 영상을 생성하는 것을 특징으로 하는 영상 융합 방법.
The method of claim 1,
The step of generating the fusion image,
An image fusion method comprising generating a fused image by applying different image fusion rules according to the thermal characteristics of the recognized object.
제1 항 또는 제5 항에 따른 방법을 수행하기 위한 프로그램 코드를 기록한 컴퓨터로 판독 가능한 기록매체.
A computer-readable recording medium on which a program code for performing the method according to claim 1 or 5 is recorded.
복수의 카메라를 통해 각각 대상을 촬영하여 제1 영상 및 제2 영상을 획득하는 영상 획득부-상기 제1 영상은 칼라 영상이고, 상기 제2 영상은 열화상 영상임;
상기 제1 영상 및 제2 영상에 대해 객체를 인식하는 객체 인식부; 및
상기 인식된 객체 유형에 따라 서로 다른 영상 융합 규칙을 적용하여 상기 제1 영상과 제2 영상을 융합하여 융합 영상을 생성하는 영상 융합부를 포함하되,
상기 영상 정합부는,
상기 제1 영상과 상기 제2 영상을 정합하되, 상기 제1 영상 및 상기 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 상기 제1 영상 및 상기 제2 영상 중 다른 하나를 상기 기준 영상에 일치되도록 기하 변환하여 정합시키고,
서로 다른 유형의 복수의 객체가 포함된 경우, 객체 유형에 따라 각각의 객체에 서로 다른 영상 융합 규칙을 적용하고, 배경은 상기 인식된 복수의 객체와 상이한 다른 영상 융합 규칙을 적용하여 융합 영상을 생성하는 것을 특징으로 하는 영상 융합 장치.
An image acquisition unit for capturing a target through a plurality of cameras, respectively, to obtain a first image and a second image-the first image is a color image, and the second image is a thermal image;
An object recognition unit for recognizing an object with respect to the first image and the second image; And
An image fusion unit for generating a fusion image by fusing the first image and the second image by applying different image fusion rules according to the recognized object type,
The image matching unit,
The first image and the second image are matched, but after setting any one of the first image and the second image as a reference image, the other one of the first image and the second image is matched with the reference image Matching by geometric transformation as much as possible,
When a plurality of objects of different types are included, a different image fusion rule is applied to each object according to the object type, and a different image fusion rule different from the recognized plurality of objects is applied as the background to generate a fusion image. An image fusion device, characterized in that.
삭제delete 삭제delete 삭제delete 제7 항에 있어서,
상기 영상 융합부는,
상기 인식된 객체의 열 특성에 따라 서로 다른 영상 융합 규칙을 적용하는 것을 특징으로 하는 영상 융합 장치.
The method of claim 7,
The image fusion unit,
An image fusion device, characterized in that different image fusion rules are applied according to the thermal characteristics of the recognized object.
제7 항에 있어서,
복수의 카메라는 동일한 화각을 가지는 렌즈가 장착되되, 상기 대상 촬영시 커버하는 화면이 중첩되도록 설치되는 것을 특징으로 하는 영상 융합 장치.

The method of claim 7,
The plurality of cameras are equipped with lenses having the same angle of view, and are installed so that the screens covered when the target is photographed overlap.

KR1020190169363A 2019-12-18 2019-12-18 Adaptive fusion method of multimodal images and apparatus KR102235127B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190169363A KR102235127B1 (en) 2019-12-18 2019-12-18 Adaptive fusion method of multimodal images and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190169363A KR102235127B1 (en) 2019-12-18 2019-12-18 Adaptive fusion method of multimodal images and apparatus

Publications (1)

Publication Number Publication Date
KR102235127B1 true KR102235127B1 (en) 2021-04-01

Family

ID=75441212

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190169363A KR102235127B1 (en) 2019-12-18 2019-12-18 Adaptive fusion method of multimodal images and apparatus

Country Status (1)

Country Link
KR (1) KR102235127B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114418920A (en) * 2022-03-30 2022-04-29 青岛大学附属医院 Endoscope multi-focus image fusion method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103128A (en) 2008-03-27 2009-10-01 주식회사 제스틴 System and method for providing synthetic images
KR20150021353A (en) * 2013-08-20 2015-03-02 삼성테크윈 주식회사 Image systhesis system and image synthesis method
KR20180090661A (en) * 2017-02-03 2018-08-13 엘아이지넥스원 주식회사 Method for data fusion of infrared
KR20190047040A (en) * 2016-09-19 2019-05-07 항조우 힉비젼 디지털 테크놀로지 컴퍼니 리미티드 Spectroscopic-fusion image acquisition devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103128A (en) 2008-03-27 2009-10-01 주식회사 제스틴 System and method for providing synthetic images
KR20150021353A (en) * 2013-08-20 2015-03-02 삼성테크윈 주식회사 Image systhesis system and image synthesis method
KR20190047040A (en) * 2016-09-19 2019-05-07 항조우 힉비젼 디지털 테크놀로지 컴퍼니 리미티드 Spectroscopic-fusion image acquisition devices
KR20180090661A (en) * 2017-02-03 2018-08-13 엘아이지넥스원 주식회사 Method for data fusion of infrared

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114418920A (en) * 2022-03-30 2022-04-29 青岛大学附属医院 Endoscope multi-focus image fusion method
CN114418920B (en) * 2022-03-30 2022-06-28 青岛大学附属医院 Endoscope multi-focus image fusion method

Similar Documents

Publication Publication Date Title
US11132771B2 (en) Bright spot removal using a neural network
US8982180B2 (en) Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
EP3236391B1 (en) Object detection and recognition under out of focus conditions
US20190213434A1 (en) Image capture device with contemporaneous image correction mechanism
US8723959B2 (en) Face and other object tracking in off-center peripheral regions for nonlinear lens geometries
JP4692371B2 (en) Image processing apparatus, image processing method, image processing program, recording medium recording image processing program, and moving object detection system
KR20190001066A (en) Face verifying method and apparatus
WO2021073140A1 (en) Monocular camera, and image processing system and image processing method
JP2016533566A (en) Iris imaging device and method for configuring an iris imaging device
KR102048411B1 (en) Wearable device and image processing method thereof
TWI394085B (en) Method of identifying the dimension of a shot subject
JP2017208616A (en) Image processing apparatus, image processing method, and program
KR102235127B1 (en) Adaptive fusion method of multimodal images and apparatus
KR20200102961A (en) Method and system for diagnosing lesion using deep learning
KR20210036609A (en) Apparatus and method for processing image
KR101726692B1 (en) Apparatus and method for extracting object
KR102029335B1 (en) Apparatus and method for correcting distored image
JP4807170B2 (en) Pattern detection method, pattern detection program, pattern detection apparatus, and imaging apparatus
Bonetto et al. Image processing issues in a social assistive system for the blind
US20210337098A1 (en) Neural Network Supported Camera Image Or Video Processing Pipelines
US9761275B2 (en) System and method for spatiotemporal image fusion and integration
KR102371588B1 (en) System and method for recognizing obstacle based on image
KR102112784B1 (en) Apparatus and method for correcting distored image
KR102515011B1 (en) Method and system for improving performance of de-identification of personal information in video

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant