KR102235127B1 - Adaptive fusion method of multimodal images and apparatus - Google Patents
Adaptive fusion method of multimodal images and apparatus Download PDFInfo
- Publication number
- KR102235127B1 KR102235127B1 KR1020190169363A KR20190169363A KR102235127B1 KR 102235127 B1 KR102235127 B1 KR 102235127B1 KR 1020190169363 A KR1020190169363 A KR 1020190169363A KR 20190169363 A KR20190169363 A KR 20190169363A KR 102235127 B1 KR102235127 B1 KR 102235127B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- fusion
- different
- recognized
- generating
- Prior art date
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims description 5
- 230000003044 adaptive effect Effects 0.000 title description 8
- 230000004927 fusion Effects 0.000 claims abstract description 93
- 238000000034 method Methods 0.000 claims abstract description 18
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 8
- 238000001931 thermography Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/006—Geometric correction
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
Description
본 발명은 멀티모달 영상의 적응적 융합 방법 및 그 장치에 관한 것이다. The present invention relates to a method and apparatus for adaptive fusion of multimodal images.
영상 융합은 서로 다른 종류의 영상 센서의 장점을 결합하여 상호 보완적인 영상 정보를 포함하는 하나의 영상을 만들어 내는 과정이다. Image fusion is a process of creating a single image including complementary image information by combining the advantages of different types of image sensors.
종래의 영상 융합 기술은 영상 내에 존재하는 여러 개의 관심 물체의 종류의 밝기 분포 정보를 사용하지 않으며, 화소의 밝기값에 의존하여 영상을 융합하였다. 이로 인해, 종래의 영상 융합 기술은 컴퓨터 비전에서 물체 인식에 활용할 때 충분한 시각 정보를 제공하는데 한계가 있었다. The conventional image fusion technology does not use information on the brightness distribution of the types of objects of interest existing in the image, but fused the image depending on the brightness value of the pixel. For this reason, the conventional image fusion technology has a limitation in providing sufficient visual information when used for object recognition in computer vision.
본 발명은 멀티모달 영상의 적응적 융합 방법 및 그 장치를 제공하기 위한 것이다. The present invention is to provide a method and apparatus for adaptive fusion of multimodal images.
또한, 본 발명은 영상내의 관심 객체의 유형에 따라 서로 상이한 융합 규칙을 적용하여 멀티 모달 영상을 적응적으로 융합할 수 있는 멀티모달 영상의 적응적 융합 방법 및 그 장치를 제공하기 위한 것이다. In addition, the present invention is to provide a method and apparatus for adaptive fusion of multi-modal images capable of adaptively fusion of multi-modal images by applying different fusion rules according to the type of an object of interest in an image.
이를 통해, 본 발명은 융합된 영상을 이용하여 컴퓨터 비전 문제를 해결하고자 하는 경우, 영상 처리 및 분석에 필요한 충분한 시각 정보를 제공할 수 있는 멀티모달 영상의 적응적 융합 방법 및 그 장치를 제공하기 위한 것이다. Through this, the present invention is to provide a method and apparatus for adaptive fusion of multimodal images capable of providing sufficient visual information necessary for image processing and analysis when trying to solve a computer vision problem using a fused image. will be.
본 발명의 일 측면에 따르면, 멀티모달 영상의 적응적 융합 방법이 제공된다. According to an aspect of the present invention, a method for adaptive fusion of multimodal images is provided.
본 발명의 일 실시예에 따르면, 복수의 카메라를 통해 각각 대상을 촬영하여 제1 영상 및 제2 영상을 획득하는 단계; 상기 제1 영상 및 제2 영상에 대해 객체를 인식하는 단계; 및 상기 인식된 객체 유형에 따라 서로 다른 영상 융합 규칙을 적용하여 상기 제1 영상과 제2 영상을 융합하여 융합 영상을 생성하는 단계를 포함하는 영상 융합 방법이 제공될 수 있다. According to an embodiment of the present invention, the method includes: obtaining a first image and a second image by photographing a target through a plurality of cameras; Recognizing an object for the first image and the second image; And generating a fusion image by fusing the first image and the second image by applying different image fusion rules according to the recognized object type.
상기 제1 영상은 칼라 영상이고, 상기 제2 영상은 열화상 영상이다. The first image is a color image, and the second image is a thermal image.
상기 융합 영상을 생성하는 단계 이전에, 상기 제1 영상과 상기 제2 영상을 정합하되, 상기 제1 영상 및 상기 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 상기 제1 영상 및 상기 제2 영상 중 다른 하나를 상기 기준 영상에 일치되도록 기하 변환하여 정합시킬 수 있다. Before the step of generating the fusion image, the first image and the second image are matched, but after setting any one of the first image and the second image as a reference image, the first image and the second image Another one of the images may be geometrically transformed and matched to match the reference image.
상기 융합 영상을 생성하는 단계는, 서로 다른 유형의 복수의 객체가 포함된 경우, 객체 유형에 따라 각각의 객체에 서로 다른 영상 융합 규칙을 적용하고, 배경은 상기 인식된 객체와는 상이한 영상 융합 규칙을 적용하여 융합 영상을 생성할 수 있다. In the step of generating the fusion image, when a plurality of objects of different types are included, a different image fusion rule is applied to each object according to the object type, and the background is an image fusion rule different from the recognized object. The fusion image can be created by applying.
상기 융합 영상을 생성하는 단계는, 상기 인식된 객체의 열 특성에 따라 서로 다른 영상 융합 규칙을 적용할 수 있다. In the generating of the fusion image, different image fusion rules may be applied according to thermal characteristics of the recognized object.
본 발명의 다른 측면에 따르면, 멀티모달 영상의 적응적 융합 장치가 제공된다. According to another aspect of the present invention, an apparatus for adaptive fusion of multimodal images is provided.
본 발명의 일 실시예에 따르면, 복수의 카메라를 통해 각각 대상을 촬영하여 제1 영상 및 제2 영상을 획득하는 영상 획득부; 상기 제1 영상 및 제2 영상에 대해 객체를 인식하는 객체 인식부; 및 상기 인식된 객체 유형에 따라 서로 다른 영상 융합 규칙을 적용하여 상기 제1 영상과 제2 영상을 융합하여 융합 영상을 생성하는 영상 융합부를 포함하는 영상 융합 장치가 제공될 수 있다. According to an embodiment of the present invention, there is provided an image acquisition unit for obtaining a first image and a second image by photographing a target through a plurality of cameras; An object recognition unit for recognizing an object with respect to the first image and the second image; And an image fusion unit configured to generate a fusion image by fusing the first image and the second image by applying different image fusion rules according to the recognized object type.
상기 제1 영상과 상기 제2 영상을 정합하되, 상기 제1 영상 및 상기 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 상기 제1 영상 및 상기 제2 영상 중 다른 하나를 상기 기준 영상에 일치되도록 기하 변환하여 정합시키는 영상 정합부를 더 포함할 수 있다. The first image and the second image are matched, but after setting any one of the first image and the second image as a reference image, the other one of the first image and the second image is matched with the reference image It may further include an image matching unit for matching by geometric transformation as possible.
상기 영상 융합부는, 서로 다른 유형의 복수의 객체가 포함된 경우, 객체 유형에 따라 각각의 객체에 서로 다른 영상 융합 규칙을 적용하고, 배경은 상기 인식된 객체와는 상이한 영상 융합 규칙을 적용하여 융합 영상을 생성할 수 있다. When a plurality of objects of different types are included, the image fusion unit applies different image fusion rules to each object according to the object type, and the background is fused by applying an image fusion rule different from the recognized object. You can create an image.
상기 영상 융합부는, 상기 인식된 객체의 열 특성에 따라 서로 다른 영상 융합 규칙을 적용할 수 있다.The image fusion unit may apply different image fusion rules according to thermal characteristics of the recognized object.
복수의 카메라는 동일한 화각을 가지는 렌즈가 장착되되, 상기 대상 촬영시 커버하는 화면이 중첩되도록 설치될 수 있다. A plurality of cameras may be equipped with lenses having the same angle of view, and may be installed so that the screens covered when the target is photographed overlap.
본 발명의 일 실시예에 따른 멀티모달 영상의 적응적 융합 방법 및 그 장치를 제공함으로써, 영상내의 관심 객체의 유형에 따라 서로 상이한 융합 규칙을 적용하여 멀티 모달 영상을 적응적으로 융합할 수 있다. By providing a method and apparatus for adaptive fusion of multimodal images according to an embodiment of the present invention, different fusion rules may be applied according to the type of an object of interest in the image to adaptively fusion of multi-modal images.
이를 통해, 본 발명은 융합된 영상을 이용하여 컴퓨터 비전 문제를 해결하고자 하는 경우, 영상 처리 및 분석에 필요한 충분한 시각 정보를 제공할 수 있는 이점이 있다. Through this, the present invention has the advantage of providing sufficient visual information necessary for image processing and analysis when trying to solve a computer vision problem using a fused image.
도 1은 본 발명의 일 실시예에 따른 멀티모달 영상 융합 방법을 나타낸 순서도.
도 2 및 도 3은 본 발명의 일 실시예에 따른 서로 다른 카메라에 의해 촬영된 영상을 예시한 도면.
도 4 및 도 5는 복수의 영상에 대해 동일한 영상 융합 규칙을 적용한 결과를 도시한 도면.
도 6 및 도 7은 본 발명의 일 실시예에 따른 서로 다른 2가지 융합 규칙을 적용한 결과를 도시한 도면.
도 8은 본 발명의 일 실시예에 따른 영상 융합 장치의 구성을 도시한 블록도.1 is a flow chart showing a multimodal image fusion method according to an embodiment of the present invention.
2 and 3 are diagrams illustrating images captured by different cameras according to an embodiment of the present invention.
4 and 5 are diagrams showing results of applying the same image fusion rule to a plurality of images.
6 and 7 are diagrams showing results of applying two different fusion rules according to an embodiment of the present invention.
8 is a block diagram showing the configuration of an image fusion device according to an embodiment of the present invention.
본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Singular expressions used in the present specification include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various elements or various steps described in the specification, and some of the elements or some steps It may not be included, or it should be interpreted that it may further include additional components or steps. In addition, terms such as "... unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .
이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 멀티모달 영상 융합 방법을 나타낸 순서도이고, 도 2 및 도 3은 본 발명의 일 실시예에 따른 서로 다른 카메라에 의해 촬영된 영상을 예시한 도면이고, 도 4 및 도 5는 복수의 영상에 대해 동일한 영상 융합 규칙을 적용한 결과를 도시한 도면이고, 도 6 및 도 7은 본 발명의 일 실시예에 따른 서로 다른 2가지 융합 규칙을 적용한 결과를 도시한 도면이다. 1 is a flow chart showing a method for fusion of a multimodal image according to an embodiment of the present invention, and FIGS. 2 and 3 are diagrams illustrating images captured by different cameras according to an embodiment of the present invention, and FIG. 4 and 5 are diagrams showing results of applying the same image fusion rule to a plurality of images, and FIGS. 6 and 7 are views showing results of applying two different fusion rules according to an embodiment of the present invention to be.
단계 110에서 영상 융합 장치(100)는 복수의 카메라를 통해 제1 영상과 제2 영상을 촬영한다. 이때, 카메라는 동일한 대상을 촬영하는 것을 가정하기로 한다. In
편의상 본 발명의 일 실시예에서는 일반적인 카메라를 통해 제1 영상을 촬영하고, 열화상 카메라를 통해 제2 영상을 촬영하는 것을 가정하기로 한다. For convenience, in an embodiment of the present invention, it is assumed that a first image is captured through a general camera and a second image is captured through a thermal imaging camera.
일반 카메라에 의해 촬영된 영상은 도 2에 도시된 바와 같으며, 열화상 카메라에 의해 촬영된 영상은 도 3에 도시된 바와 같다.An image captured by a general camera is as illustrated in FIG. 2, and an image captured by a thermal imaging camera is as illustrated in FIG. 3.
도 2 및 도 3에서 보여지는 바와 같이, 일반 RGB 카메라 및 열화상 카메라는 동일한 대상(피사체)를 각각 촬영하여 제1 영상과 제2 영상을 생성할 수 있다. As shown in FIGS. 2 and 3, a general RGB camera and a thermal imaging camera may generate a first image and a second image by photographing the same object (subject), respectively.
본 발명의 일 실시예에서는 RGB 카메라와 열화상 카메라가 비슷한 화각을 가지는 렌즈를 장착하여 동일한 대상(피사체)를 각각 촬영하는 것을 가정하기로 한다. In an embodiment of the present invention, it is assumed that the RGB camera and the thermal imaging camera are respectively photographing the same object (subject) by mounting a lens having a similar angle of view.
두 카메라 사이의 거리는 매우 작은 것을 가정하기로 하며, 두 카메라가 커버하는 화면이 거의 중첩(겹쳐지도록) 두 카메라의 위치가 설정되는 것을 가정하기로 한다. It is assumed that the distance between the two cameras is very small, and the positions of the two cameras are set so that the screens covered by the two cameras almost overlap (overlap).
단계 115에서 영상 융합 장치(100)는 제1 영상을 분석하여 제1 영상에서 관심 있는 객체를 인식한다. 즉, 영상 융합 장치(100)는 RGB 카메라에 의해 촬영된 칼라 영상(제1 영상)에 대해 객체 인식 알고리즘을 적용하여 칼라 영상 내 관심 있는 객체를 각각 인식할 수 있다. 예를 들어, 객체 인식 알고리즘은 SURF, SIFT 등과 같이 공지된 객체 인식 알고리즘인 경우 모두 적용될 수 있다. In
단계 120에서 영상 융합 장치(100)는 제1 영상에서 인식된 객체에 해당하는 객체를 제2 영상에 일치시킨다. In
예를 들어, 도 2에서 자동차가 객체로서 인식된 경우, 영상 융합 장치(100)는 인식된 자동차에 대해 제2 영상에 대해서도 일치시킨다. For example, when a vehicle is recognized as an object in FIG. 2, the
단계 120에서 영상 융합 장치(100)는 제1 영상과 제2 영상을 정합한다. In
예를 들어, 영상 융합 장치(100)는 제1 영상과 제2 영상을 각각 기하 변환을 수행한 후 두 영상(제1 영상과 제2 영상)을 정합할 수 있다. 이때, 영상 융합 장치(100)는 제1 영상 및 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 나머지 다른 하나의 영상을 기하 변환하여 기준 영상에 일치되도록 화소들을 일치시키는 영상 정합을 수행할 수 있다. For example, the
예를 들어, 제1 영상이 기준 영상으로 설정되는 경우, 제2 영상을 기하 변환하여 제1 영상에 일치되도록 화소들을 일치시킬 수 있다. 서로 다른 카메라에 의해 촬영된 제1 영상과 제2 영상은 화각등을 최대한 일치시켰을지라도 기하학적으로 완전히 일치되지는 않는다. 따라서, 본 발명의 일 실시예에서는 기준 영상을 기준으로 나머지 하나의 영상을 단순 기하 변환하여 화소들을 일치시키는 정합 과정을 필수적으로 수행할 수 있다. For example, when the first image is set as the reference image, pixels may be matched to match the first image by geometrically transforming the second image. The first image and the second image captured by different cameras are not completely geometrically matched even though the angles of view are matched as much as possible. Accordingly, in an embodiment of the present invention, a matching process of matching pixels by simple geometric transformation of the other image based on the reference image may be essentially performed.
단계 125에서 영상 융합 장치(100)는 상이한 객체 유형에 따라 인식된 객체에 대해 서로 다른 융합 규칙을 적용하여 제1 영상과 제2 영상을 융합한다. In
예를 들어, 도 2 및 도 3과 같이, 제1 영상과 제2 영상에서 인식된 객체가 각각 사람과 자동차라고 가정하기로 한다. 이때, 영상 융합 장치(100)는 사람 객체에 대해서는 제1 영상 융합 규칙을 적용하며, 자동차 객체에 대해서는 제2 영상 융합 규칙을 적용할 수 있다. 또한, 영상 융합 장치(100)는 배경에 대해서는 제3 영상 융합 규칙을 적용할 수 있다.For example, as shown in FIGS. 2 and 3, it is assumed that objects recognized in the first image and the second image are a person and a vehicle, respectively. In this case, the
이때, 영상 융합 장치(100)는 인식된 객체의 열 특성을 고려하여 서로 다른 융합 규칙을 적용할 수도 있다. In this case, the
예를 들어, 도 4는 제1 영상과 제2 영상에 대해 공간 영역에서 가중 평균에 의한 영상 융합 규칙을 적용한 결과를 도시한 도면이다. 도 4는 제1 영상은 가중치를 0.7로 설정하고, 제2 영상에 대해 가중치를 0.3을 적용하여 공간 영역에서 가중 평균에 따른 영상 융합 규칙을 적용한 결과이다. For example, FIG. 4 is a diagram showing a result of applying an image fusion rule based on a weighted average in a spatial domain to a first image and a second image. 4 is a result of applying an image fusion rule according to a weighted average in a spatial domain by setting the weight of the first image to 0.7 and applying the weight of 0.3 to the second image.
도 5는 도 4와는 가중치를 다르게 적용하여 공간 영역에서 가중 평균에 따른 영상 융합 규칙을 적용한 결과이다. 예를 들어, 도 5는 제1 영상에 대해 가중치를 0.3를 적용하고, 제2 영상에 대해 가중치를 0.7을 적용하여 공간 영역에서 가중 평균에 따른 영상 융합 규칙을 적용한 결과이다. 5 is a result of applying an image fusion rule according to a weighted average in a spatial domain by applying a weight differently from that of FIG. 4. For example, FIG. 5 is a result of applying an image fusion rule according to a weighted average in a spatial domain by applying a weight of 0.3 to a first image and a weight of 0.7 to a second image.
도 4 및 도 5를 참조하면, 도 4는 자동차의 세부 시각적 특징이 잘 표현되어 있으나, 사람(행인)에 대한 시각 정보가 잘 표현되지 않은 것을 알 수 있다. 반면, 도 5는 행인에 대한 시각 정보는 비교적 잘 표현되어 있으나, 자동차의 열 특성을 너무 많이 포함하여 시각 정보를 잃어버린 것을 알 수 있다. Referring to FIGS. 4 and 5, it can be seen that although detailed visual characteristics of a vehicle are well expressed in FIG. 4, visual information on a person (passenger) is not well expressed. On the other hand, in FIG. 5, the visual information on the pedestrian is relatively well expressed, but it can be seen that the visual information is lost due to too much thermal characteristics of the vehicle.
따라서, 본 발명의 일 실시예에서는 제2 영상을 참조하여 인식된 객체의 열 특성이 상대적으로 높은 경우(예를 들어, 자동차), 자동차에 대해 제1 영상의 가중치를 높게 설정하고 제2 영상에 대한 가중치를 낮게 적용하여 자동차에 대한 시각 정보가 잘 표현되도록 할 수 있다. 또한, 행인(사람)의 경우, 자동차에 비해 열 특성이 상대적으로 낮으므로, 사람의 경우 제1 영상의 가중치는 낮게 설정하고, 제2 영상의 가중치를 높게 설정하여 행인의 시각 정보가 잘 표현되도록 할 수 있다. Therefore, in an embodiment of the present invention, when the thermal characteristic of an object recognized with reference to the second image is relatively high (for example, a car), the weight of the first image is set higher for the vehicle, and the second image is By applying a low weight for the vehicle, visual information about the vehicle can be well expressed. In addition, in the case of passersby (people), since the column characteristics are relatively low compared to cars, in the case of people, the weight of the first image is set low and the weight of the second image is set high so that the visual information of passersby is well expressed can do.
이와 같이, 본 발명의 일 실시예에 따른 영상 융합 장치(100)는 객체의 열 특성을 고려하여 인식된 객체에 대해 제1 영상과 제2 영상의 융합시 융합 규칙을 서로 상이하게 적용하여 융합 영상을 생성할 수 있다. As described above, the
도 6 및 도 7은 동일한 가중치를 적용하며 공간 영역 및 DWT 변환 영역의 서로 다른 2가지의 융합 규칙을 사용한 결과이다. 도 6은 자동차에 대한 시각정보가 잘 표현되어 있으며, 도 7에는 행인 및 배경에 대한 시각적 정보가 더 충실하게 표현되는 것을 알 수 있다. 6 and 7 are results of using two different fusion rules of a spatial domain and a DWT transform domain while applying the same weight. It can be seen that visual information on a vehicle is well expressed in FIG. 6, and visual information on a pedestrian and a background is more faithfully expressed in FIG. 7.
따라서, 본 발명의 일 실시예에서는 인식된 객체 유형에 따라 서로 다른 융합 규칙을 적용하여 영상을 융합함으로써, 객체 특성에 맞는 시각적 특성을 잘 보존하여 영상을 융합할 수 있는 이점이 있다. Accordingly, in an embodiment of the present invention, by fusing images by applying different fusion rules according to the recognized object type, there is an advantage in that the images can be fused by preserving visual characteristics suitable for object characteristics.
도 8은 본 발명의 일 실시예에 따른 영상 융합 장치의 구성을 도시한 블록도이다. 8 is a block diagram showing the configuration of an image fusion device according to an embodiment of the present invention.
도 8을 참조하면, 본 발명의 일 실시예에 따른 영상 융합 장치(100)는 영상 획득부(810), 객체 인식부(815), 영상 정합부(820), 영상 융합부(825), 메모리(830) 및 프로세서(835)를 포함하여 구성된다. Referring to FIG. 8, an
영상 획득부(810)는 서로 다른 종류의 카메라를 통해 대상을 촬영한 영상을 각각 획득한다. The
객체 인식부(815)는 획득된 영상을 분석하여 객체를 인식한다. 이미 전술한 바와 같이, 복수의 영상 중 어느 하나의 영상에서 객체를 인식한 후 다른 영상에도 동일하게 적용하여 인식시킬 수 있다. The
영상 정합부(820)는 복수의 영상을 정합하기 위한 수단이다. 영상 정합부(820)는 복수의 영상 중 어느 하나를 기준 영상으로 설정하고, 나머지 영상을 기준 영상에 일치되도록 영상 정합할 수 있다. 즉, 영상 정합부(820)는 기준 영상을 기준으로 나머지 영상에 대해 단순 기하 변환을 수행하여 나머지 영상을 기준 영상에 일치되도록 정합시킬 수 있다. The
영상 융합부(825)는 인식된 객체 유형에 따라 서로 다른 융합 규칙을 적용하여 복수의 영상을 융합한다. The
이는 이미 전술한 바와 같으므로 중복되는 설명은 생략하기로 한다. Since this has already been described above, a redundant description will be omitted.
메모리(830)는 본 발명의 일 실시예에 따른 영상 융합 방법을 수행하기 위해 필요한 명령어(또는 프로그램 코드)를 저장하기 위한 수단이다. The
프로세서(835)는 본 발명의 일 실시예에 따른 영상 융합 장치(100)의 내부 구성 요소들(예를 들어, 영상 획득부(810), 객체 인식부(815), 영상 정합부(820), 영상 융합부(825), 메모리(830) 등)을 제어하기 위한 수단이다. The
본 발명의 실시 예에 따른 장치 및 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The apparatus and method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the computer-readable medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes a hardware device specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at around the embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from a descriptive point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.
100: 영상 융합 장치
810: 영상 획득부
815: 객체 인식부
820: 영상 정합부
825: 영상 융합부
830: 메모리
835: 프로세서100: video fusion device
810: image acquisition unit
815: object recognition unit
820: image matching unit
825: image fusion unit
830: memory
835: processor
Claims (12)
상기 제1 영상 및 제2 영상에 대해 객체를 인식하는 단계; 및
상기 인식된 객체 유형에 따라 서로 다른 영상 융합 규칙을 적용하여 상기 제1 영상과 제2 영상을 융합함으로써 상기 객체 유형에 맞는 시각적 특성을 보존하도록 융합 영상을 생성하는 단계를 포함하되,
상기 융합 영상을 생성하는 단계 이전에,
상기 제1 영상과 상기 제2 영상을 정합하되, 상기 제1 영상 및 상기 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 상기 제1 영상 및 상기 제2 영상 중 다른 하나를 상기 기준 영상에 일치되도록 기하 변환하여 정합 시키며,
상기 융합 영상을 생성하는 단계는,
서로 다른 유형의 복수의 객체가 포함된 경우, 객체 유형에 따라 각각의 객체에 서로 다른 영상 융합 규칙을 적용하고, 배경은 상기 인식된 복수의 객체와 상이한 다른 영상 융합 규칙을 적용하여 융합 영상을 생성하는 것을 특징으로 하는 영상 융합 방법.
Obtaining a first image and a second image by photographing an object through a plurality of cameras, respectively-the first image is a color image, and the second image is a thermal image;
Recognizing an object for the first image and the second image; And
Generating a fusion image to preserve visual characteristics suitable for the object type by fusing the first image and the second image by applying different image fusion rules according to the recognized object type,
Before the step of generating the fusion image,
The first image and the second image are matched, but after setting any one of the first image and the second image as a reference image, the other one of the first image and the second image is matched with the reference image Matching by geometric transformation as much as possible,
The step of generating the fusion image,
When a plurality of objects of different types are included, a different image fusion rule is applied to each object according to the object type, and a different image fusion rule different from the recognized plurality of objects is applied as the background to generate a fusion image. Image fusion method, characterized in that to.
상기 융합 영상을 생성하는 단계는,
상기 인식된 객체의 열 특성에 따라 서로 다른 영상 융합 규칙을 적용하여 융합 영상을 생성하는 것을 특징으로 하는 영상 융합 방법.
The method of claim 1,
The step of generating the fusion image,
An image fusion method comprising generating a fused image by applying different image fusion rules according to the thermal characteristics of the recognized object.
A computer-readable recording medium on which a program code for performing the method according to claim 1 or 5 is recorded.
상기 제1 영상 및 제2 영상에 대해 객체를 인식하는 객체 인식부; 및
상기 인식된 객체 유형에 따라 서로 다른 영상 융합 규칙을 적용하여 상기 제1 영상과 제2 영상을 융합하여 융합 영상을 생성하는 영상 융합부를 포함하되,
상기 영상 정합부는,
상기 제1 영상과 상기 제2 영상을 정합하되, 상기 제1 영상 및 상기 제2 영상 중 어느 하나를 기준 영상으로 설정한 후 상기 제1 영상 및 상기 제2 영상 중 다른 하나를 상기 기준 영상에 일치되도록 기하 변환하여 정합시키고,
서로 다른 유형의 복수의 객체가 포함된 경우, 객체 유형에 따라 각각의 객체에 서로 다른 영상 융합 규칙을 적용하고, 배경은 상기 인식된 복수의 객체와 상이한 다른 영상 융합 규칙을 적용하여 융합 영상을 생성하는 것을 특징으로 하는 영상 융합 장치.
An image acquisition unit for capturing a target through a plurality of cameras, respectively, to obtain a first image and a second image-the first image is a color image, and the second image is a thermal image;
An object recognition unit for recognizing an object with respect to the first image and the second image; And
An image fusion unit for generating a fusion image by fusing the first image and the second image by applying different image fusion rules according to the recognized object type,
The image matching unit,
The first image and the second image are matched, but after setting any one of the first image and the second image as a reference image, the other one of the first image and the second image is matched with the reference image Matching by geometric transformation as much as possible,
When a plurality of objects of different types are included, a different image fusion rule is applied to each object according to the object type, and a different image fusion rule different from the recognized plurality of objects is applied as the background to generate a fusion image. An image fusion device, characterized in that.
상기 영상 융합부는,
상기 인식된 객체의 열 특성에 따라 서로 다른 영상 융합 규칙을 적용하는 것을 특징으로 하는 영상 융합 장치.
The method of claim 7,
The image fusion unit,
An image fusion device, characterized in that different image fusion rules are applied according to the thermal characteristics of the recognized object.
복수의 카메라는 동일한 화각을 가지는 렌즈가 장착되되, 상기 대상 촬영시 커버하는 화면이 중첩되도록 설치되는 것을 특징으로 하는 영상 융합 장치.
The method of claim 7,
The plurality of cameras are equipped with lenses having the same angle of view, and are installed so that the screens covered when the target is photographed overlap.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190169363A KR102235127B1 (en) | 2019-12-18 | 2019-12-18 | Adaptive fusion method of multimodal images and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190169363A KR102235127B1 (en) | 2019-12-18 | 2019-12-18 | Adaptive fusion method of multimodal images and apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102235127B1 true KR102235127B1 (en) | 2021-04-01 |
Family
ID=75441212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190169363A KR102235127B1 (en) | 2019-12-18 | 2019-12-18 | Adaptive fusion method of multimodal images and apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102235127B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114418920A (en) * | 2022-03-30 | 2022-04-29 | 青岛大学附属医院 | Endoscope multi-focus image fusion method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090103128A (en) | 2008-03-27 | 2009-10-01 | 주식회사 제스틴 | System and method for providing synthetic images |
KR20150021353A (en) * | 2013-08-20 | 2015-03-02 | 삼성테크윈 주식회사 | Image systhesis system and image synthesis method |
KR20180090661A (en) * | 2017-02-03 | 2018-08-13 | 엘아이지넥스원 주식회사 | Method for data fusion of infrared |
KR20190047040A (en) * | 2016-09-19 | 2019-05-07 | 항조우 힉비젼 디지털 테크놀로지 컴퍼니 리미티드 | Spectroscopic-fusion image acquisition devices |
-
2019
- 2019-12-18 KR KR1020190169363A patent/KR102235127B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090103128A (en) | 2008-03-27 | 2009-10-01 | 주식회사 제스틴 | System and method for providing synthetic images |
KR20150021353A (en) * | 2013-08-20 | 2015-03-02 | 삼성테크윈 주식회사 | Image systhesis system and image synthesis method |
KR20190047040A (en) * | 2016-09-19 | 2019-05-07 | 항조우 힉비젼 디지털 테크놀로지 컴퍼니 리미티드 | Spectroscopic-fusion image acquisition devices |
KR20180090661A (en) * | 2017-02-03 | 2018-08-13 | 엘아이지넥스원 주식회사 | Method for data fusion of infrared |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114418920A (en) * | 2022-03-30 | 2022-04-29 | 青岛大学附属医院 | Endoscope multi-focus image fusion method |
CN114418920B (en) * | 2022-03-30 | 2022-06-28 | 青岛大学附属医院 | Endoscope multi-focus image fusion method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11132771B2 (en) | Bright spot removal using a neural network | |
US8982180B2 (en) | Face and other object detection and tracking in off-center peripheral regions for nonlinear lens geometries | |
US10339386B2 (en) | Unusual event detection in wide-angle video (based on moving object trajectories) | |
EP3236391B1 (en) | Object detection and recognition under out of focus conditions | |
US20190213434A1 (en) | Image capture device with contemporaneous image correction mechanism | |
US8723959B2 (en) | Face and other object tracking in off-center peripheral regions for nonlinear lens geometries | |
JP4692371B2 (en) | Image processing apparatus, image processing method, image processing program, recording medium recording image processing program, and moving object detection system | |
KR20190001066A (en) | Face verifying method and apparatus | |
WO2021073140A1 (en) | Monocular camera, and image processing system and image processing method | |
JP2016533566A (en) | Iris imaging device and method for configuring an iris imaging device | |
KR102048411B1 (en) | Wearable device and image processing method thereof | |
TWI394085B (en) | Method of identifying the dimension of a shot subject | |
JP2017208616A (en) | Image processing apparatus, image processing method, and program | |
KR102235127B1 (en) | Adaptive fusion method of multimodal images and apparatus | |
KR20200102961A (en) | Method and system for diagnosing lesion using deep learning | |
KR20210036609A (en) | Apparatus and method for processing image | |
KR101726692B1 (en) | Apparatus and method for extracting object | |
KR102029335B1 (en) | Apparatus and method for correcting distored image | |
JP4807170B2 (en) | Pattern detection method, pattern detection program, pattern detection apparatus, and imaging apparatus | |
Bonetto et al. | Image processing issues in a social assistive system for the blind | |
US20210337098A1 (en) | Neural Network Supported Camera Image Or Video Processing Pipelines | |
US9761275B2 (en) | System and method for spatiotemporal image fusion and integration | |
KR102371588B1 (en) | System and method for recognizing obstacle based on image | |
KR102112784B1 (en) | Apparatus and method for correcting distored image | |
KR102515011B1 (en) | Method and system for improving performance of de-identification of personal information in video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |