KR102142934B1 - Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation - Google Patents

Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation Download PDF

Info

Publication number
KR102142934B1
KR102142934B1 KR1020180103208A KR20180103208A KR102142934B1 KR 102142934 B1 KR102142934 B1 KR 102142934B1 KR 1020180103208 A KR1020180103208 A KR 1020180103208A KR 20180103208 A KR20180103208 A KR 20180103208A KR 102142934 B1 KR102142934 B1 KR 102142934B1
Authority
KR
South Korea
Prior art keywords
layer
image
equation
unit
final
Prior art date
Application number
KR1020180103208A
Other languages
Korean (ko)
Other versions
KR20200025598A (en
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020180103208A priority Critical patent/KR102142934B1/en
Publication of KR20200025598A publication Critical patent/KR20200025598A/en
Application granted granted Critical
Publication of KR102142934B1 publication Critical patent/KR102142934B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Abstract

가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치 및 방법은 의상 분해 및 희소 표현을 기반으로 한 의료 영상을 융합하는 방법으로서, 라플라시안 피라미드와 희소 표현의 융합 규칙을 결합하여 저주파수 층을 처리함으로써 복원된 의료 영상의 영상 품질을 개선하는 효과가 있다.The image fusion device and method using a weighted least squares filter and sparse representation is a method of fusing medical images based on clothing decomposition and sparse representation, and is reconstructed by processing a low-frequency layer by combining the fusion rule of the Laplacian pyramid and sparse representation. There is an effect of improving the image quality of medical images.

Figure R1020180103208
Figure R1020180103208

Description

가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치 및 방법{Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation}Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation}

본 발명은 의료 영상을 융합하는 방법에 관한 것으로서, 특히 영상 분해 및 희소 표현을 기반으로 한 의료 영상을 융합하는 방법으로 라플라시안 피라미드와 희소 표현의 융합 규칙을 결합하여 저주파수 층을 처리함으로써 복원된 의료 영상의 영상 품질을 개선하는 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치 및 방법에 관한 것이다.The present invention relates to a method of fusing medical images, and in particular, as a method of fusing medical images based on image decomposition and sparse expression, a medical image reconstructed by processing a low frequency layer by combining a fusion rule of a Laplacian pyramid and a sparse expression. The present invention relates to an image fusion apparatus and method using a weighted least squares filter and sparse expression to improve the image quality of.

의료 영상 융합은 임상 진단 및 치료를 위하여 의료 영상의 보완적인 정보를 통합하여 고품질의 영상을 얻을 수 있다.Medical image fusion can obtain high-quality images by integrating complementary information of medical images for clinical diagnosis and treatment.

의료 영상은 의료 진단 기술의 발달과 함께 임상 진단에서 점점 더 중요해지고 있다.Medical imaging is becoming increasingly important in clinical diagnosis with the development of medical diagnostic technology.

의료 영상은 초음파, X 선, 단일 광자 방출 컴퓨터 단층 촬영(SPECT), 컴퓨터 단층 촬영(CT), 자기 공명 영상(MRI) 등과 같은 다양한 의료 장비에서 진단용으로 얻을 수 있다.Medical images can be obtained for diagnosis in a variety of medical equipment such as ultrasound, X-ray, single photon emission computed tomography (SPECT), computed tomography (CT), magnetic resonance imaging (MRI), and the like.

최근의 질병은 하나의 종류의 의료 영상만으로 의사가 진단 할 수있는 충분한 정보를 제공 할 수 없으며, 여러 종류의 의료 영상을 결합해야 한다. 의료 영상 융합은 여러 종류의 의료 영상 정보를 결합하여 의사가 정확한 진단을 내릴 수있게 도와준다.Recent diseases cannot provide sufficient information for a doctor to diagnose with only one type of medical image, and several types of medical images must be combined. Medical image fusion helps doctors make an accurate diagnosis by combining different types of medical image information.

현재의 의료 영상 융합 방법은 공간 도메인에서 영상의 픽셀 포인트를 직접 조작하여 계산이 빠른 장점이 있으나 영상 융합 결과에 항상 공간 왜곡을 가져오며 많은 스펙트럼 정보를 제공할 수 없어서 융합된 영상 품질이 떨어지는 문제점이 있다.The current medical image fusion method has the advantage of fast calculation by directly manipulating the pixel points of the image in the spatial domain, but it always brings spatial distortion to the image fusion result and cannot provide a lot of spectral information, so the quality of the fused image is poor. have.

한국 등록특허번호 제10-1883806호Korean Patent Registration No. 10-1883806

이와 같은 문제점을 해결하기 위하여, 본 발명은 영상 분해 및 희소 표현을 기반으로 한 의료 영상을 융합하는 방법으로 라플라시안 피라미드와 희소 표현의 융합 규칙을 결합하여 저주파수 층을 처리함으로써 복원된 의료 영상의 영상 품질을 개선하는 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치 및 방법을 제공하는데 그 목적이 있다.In order to solve such a problem, the present invention is a method of fusing medical images based on image decomposition and sparse expression, and the image quality of the reconstructed medical image by processing the low frequency layer by combining the fusion rule of the Laplacian pyramid and the sparse expression. An object of the present invention is to provide an image fusion apparatus and method using a weighted least squares filter and a sparse expression that improves.

상기 목적을 달성하기 위한 본 발명의 특징에 따른 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 방법은,An image fusion method using a weighted least squares filter and a sparse expression according to a feature of the present invention for achieving the above object,

하나 이상의 입력된 영상을 가중 최소 자승(Weighted Least Squares, WLS) 필터를 이용하여 상기 각각의 입력된 영상을 LF(Low Frequency) 레이어와 HF(High Frequency) 레이어로 각각 분해하는 단계;Decomposing each of the input images into a low frequency (LF) layer and a high frequency (HF) layer using a weighted least squares (WLS) filter on one or more input images;

상기 각각의 LF 레이어를 희소 표현법(Sparse Representation)을 이용하여 희소 계수 벡터로 각각 구성하고, 이를 융합하여 융합된 최종 LF 레이어를 재구성하는 단계;Configuring each of the LF layers as sparse coefficient vectors using sparse representation, and fusing them to reconstruct a final LF layer fused;

상기 각각의 HF 레이어를 최대 절대 융합 규칙(Max Absolute Fusion Rule)을 이용하여 융합시켜 최종 HF 레이어를 재구성하는 단계; 및Fusing each of the HF layers using a maximum absolute fusion rule to reconstruct a final HF layer; And

상기 최종 LF 레이어와 상기 최종 HF 레이어를 더하여 최종 영상을 복원하는 단계를 포함하는 것을 특징으로 한다.And reconstructing a final image by adding the final LF layer and the final HF layer.

본 발명의 특징에 따른 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치는,An image fusion device using a weighted least squares filter and a sparse expression according to a feature of the present invention,

하나 이상의 입력된 영상을 가중 최소 자승(Weighted Least Squares, WLS) 필터를 이용하여 상기 각각의 입력된 영상을 LF(Low Frequency) 레이어와 HF(High Frequency) 레이어로 각각 분해하는 영상 분해부;An image decomposition unit for decomposing each of the input images into a low frequency (LF) layer and a high frequency (HF) layer by using a weighted least squares (WLS) filter on one or more input images;

상기 각각의 LF 레이어를 희소 표현법(Sparse Representation)을 이용하여 희소 계수 벡터로 각각 구성하고, 이를 융합하여 융합된 최종 LF 레이어를 재구성하는 저주파수 레이어 융합부;A low-frequency layer fusion unit configured to each of the LF layers as sparse coefficient vectors using a sparse representation, and fusing them to reconstruct a final LF layer fused;

상기 각각의 HF 레이어를 최대 절대 융합 규칙(Max Absolute Fusion Rule)을 이용하여 융합시켜 최종 HF 레이어를 재구성하는 고주파수 레이어 융합부; 및A high-frequency layer fusion unit configured to reconstruct a final HF layer by fusing each of the HF layers using a maximum absolute fusion rule; And

상기 최종 LF 레이어와 상기 최종 HF 레이어를 더하여 최종 영상을 복원하는 최종 영상 융합부를 포함하는 것을 특징으로 한다.And a final image fusion unit reconstructing a final image by adding the final LF layer and the final HF layer.

전술한 구성에 의하여, 본 발명은 라플라시안 피라미드와 희소 표현의 융합 규칙의 결합으로 저주파수 층을 처리하여 융합된 영상의 가장자리 근처의 영상 품질을 개선함으로써 복원된 의료 영상 전체의 영상 품질을 개선할 수 있는 효과가 있다.According to the above-described configuration, the present invention can improve the image quality of the entire reconstructed medical image by processing the low-frequency layer by combining the fusion rule of the Laplacian pyramid and the sparse expression to improve the image quality near the edge of the fused image. It works.

도 1은 본 발명의 실시예에 따른 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치의 구성을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 영상 융합 장치의 구성을 개념적으로 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 WLS 필터의 멀티 스케일 분해의 일례를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 WLS 필터의 분해 구조를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 저주파수 레이어 융합부의 내부 구성을 간략하게 나타낸 블록도이다.
도 6은 본 발명의 실시예에 따른 저주파수 레이어 융합부의 구성을 개념적으로 나타낸 도면이다.
1 is a diagram showing the configuration of an image fusion apparatus using a weighted least squares filter and a sparse expression according to an embodiment of the present invention.
2 is a diagram conceptually showing the configuration of an image fusion device according to an embodiment of the present invention.
3 is a diagram showing an example of multi-scale decomposition of a WLS filter according to an embodiment of the present invention.
4 is a diagram showing an exploded structure of a WLS filter according to an embodiment of the present invention.
5 is a block diagram schematically showing an internal configuration of a low-frequency layer fusion unit according to an embodiment of the present invention.
6 is a diagram conceptually showing the configuration of a low-frequency layer fusion unit according to an embodiment of the present invention.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise stated.

도 1은 본 발명의 실시예에 따른 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치의 구성을 나타낸 도면이고, 도 2는 본 발명의 실시예에 따른 영상 융합 장치의 구성을 개념적으로 나타낸 도면이고, 도 3은 본 발명의 실시예에 따른 WLS 필터의 멀티 스케일 분해의 일례를 나타낸 도면이다.1 is a diagram showing a configuration of an image fusion device using a weighted least squares filter and a sparse expression according to an embodiment of the present invention, and FIG. 2 is a diagram conceptually showing the configuration of an image fusion device according to an embodiment of the present invention. , FIG. 3 is a diagram showing an example of multi-scale decomposition of a WLS filter according to an embodiment of the present invention.

본 발명의 실시예에 따른 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치(100)는 영상 분해부(110), 영상 레이어 저장부(120), 저주파수 레이어 융합부(130), 고주파수 레이어 융합부(140) 및 최종 영상 융합부(150)를 포함한다.The image fusion device 100 using a weighted least squares filter and sparse expression according to an embodiment of the present invention includes an image decomposition unit 110, an image layer storage unit 120, a low-frequency layer fusion unit 130, and a high-frequency layer fusion unit. (140) and a final image fusion unit 150.

영상 분해부(110)는 입력된 영상을 분해하여 서로 다른 스케일로 복수의 특징을 가진 영상을 얻을 수 있다.The image decomposition unit 110 may decompose the input image to obtain images having a plurality of features at different scales.

영상 분해부(110)는 왜곡 및 후광을 줄이기 위해서 입력 영상 I를 가중 최소 자승(Weighted Least Squares, WLS) 필터를 이용하여 LF(Low Frequency) 레이어와 HF(High Frequency) 레이어로 분해한다.The image decomposition unit 110 decomposes the input image I into a low frequency (LF) layer and a high frequency (HF) layer using a weighted least squares (WLS) filter to reduce distortion and halos.

영상 분해부(110)는 각각의 입력 영상마다 WLS 필터를 이용하여 LF 레이어와 HF 레이어를 각각 분해하여 영상 레이어 저장부(120)에 저장한다.The image decomposition unit 110 decomposes the LF layer and the HF layer for each input image using a WLS filter and stores them in the image layer storage unit 120.

도 1에 도시된 바와 같이, 영상 분해부(110)는 하나 이상의 입력된 영상을 가중 최소 자승(Weighted Least Squares, WLS) 필터를 이용하여 상기 각각의 입력된 영상을 LF(Low Frequency) 레이어와 HF(High Frequency) 레이어로 각각 분해한다.As shown in FIG. 1, the image decomposition unit 110 uses a weighted least squares (WLS) filter to convert one or more input images into a low frequency (LF) layer and an HF. Decompose each into (High Frequency) layers.

좀 더 구체적으로 설명하면, 영상 분해부(110)는 하기의 [수학식 1]과 같이, WLS 필터를 적용하여 k=1부터 K번째까지 부드러운 영상(Smooth Image) Ik을 각각 생성한다.More specifically, the image decomposition unit 110 generates smooth images I k from k=1 to Kth by applying a WLS filter as shown in [Equation 1] below.

Figure 112018086541030-pat00001
Figure 112018086541030-pat00001

여기서, 부드러운 영상(Smooth Image) Ik은 LF(Low Frequency) 레이어를 나타낸다.Here, a smooth image I k represents a low frequency (LF) layer.

여기서, 차분 영상은 HF(High Frequency) 레이어를 나타낸다.Here, the difference image represents a high frequency (HF) layer.

도 2에 도시된 바와 같이, 영상 분해부(110)는 인접한 두 개의 부드러운 영상을 하기의 [수학식 2]와 같이, k=1부터 K번째까지 차분 영상을 생성한다.As shown in FIG. 2, the image decomposition unit 110 generates a difference image from k=1 to the K-th from two adjacent smooth images as shown in Equation 2 below.

Figure 112018086541030-pat00002
Figure 112018086541030-pat00002

가중 최소 자승(WLS) 필터는 비선형, 에지 보존, 평활화 필터로서 다중 스케일의 에지를 보존과 분해를 통해 여러 스케일에서 세부 사항을 효과적으로 캡처할 수 있다.The Weighted Least Squares (WLS) filter is a nonlinear, edge-preserving, smoothing filter that can effectively capture details across multiple scales by preserving and decomposing the edges of multiple scales.

WLS 필터는 하기의 [수학식 3]를 이용하여 S를 최소로 만드는 필터링된 영상 S를 얻을 수 있으며, 입력 영상 I에 최대한 가까운 부드러운 영상 S를 얻는다.The WLS filter can obtain a filtered image S that minimizes S using the following [Equation 3], and obtains a smooth image S as close as possible to the input image I.

Figure 112018086541030-pat00003
Figure 112018086541030-pat00003

여기서,

Figure 112018086541030-pat00004
은 데이터 항(Data Term),
Figure 112018086541030-pat00005
은 정규화 항(Regularization Term), WX 및 WY는 수평 및 수직의 평활도 가중치, λ는 두 항 사이의 균형을 맞추는 정규화 매개 변수로 기설정되어 있다.here,
Figure 112018086541030-pat00004
Is the Data Term,
Figure 112018086541030-pat00005
Is a regularization term, W X and W Y are the horizontal and vertical smoothness weights, and λ is a normalization parameter that balances the two terms.

데이터 항은 필터링된 영상이 입력 영상에 더 가깝게 할 수 있고, 정규화 항 은 입력 영상의 편미분을 최소화하여 평활도를 달성할 수 있다.The data term can make the filtered image closer to the input image, and the normalization term minimizes the partial derivative of the input image to achieve smoothness.

[수학식 3]은

Figure 112018086541030-pat00006
이 최소로 되는 S 값을 구하는 식이다.[Equation 3] is
Figure 112018086541030-pat00006
This is an equation to find the minimum S value.

도 3은 λ가 15로 설정된 WLS 필터의 멀티 스케일 분해의 일례를 나타낸 것이다. 도 3의 (a)는 원본 영상이고, 도 3의 (b)는 도 3의 (a)의 부드러운 영상이고, 도 3의 (c)는 도 3의 (b)의 부드러운 영상이고, 도 3의 (d)는 도 3의 (a)와 도 3의 (b)의 차분 영상이고, 도 3의 (e)는 도 3의 (b)와 도 3의 (c)의 차분 영상이다.3 shows an example of multi-scale decomposition of a WLS filter in which λ is set to 15. Figure 3 (a) is the original image, Figure 3 (b) is the smooth image of Figure 3 (a), Figure 3 (c) is the smooth image of Figure 3 (b), Figure 3 (d) is a difference image of FIGS. 3A and 3B, and FIG. 3E is a difference image of FIGS. 3B and 3C.

도 4는 본 발명의 실시예에 따른 WLS 필터의 분해 구조를 나타낸 도면이고, 도 5는 본 발명의 실시예에 따른 저주파수 레이어 융합부의 내부 구성을 간략하게 나타낸 블록도이고, 도 6은 본 발명의 실시예에 따른 저주파수 레이어 융합부의 구성을 개념적으로 나타낸 도면이다.4 is a diagram showing a decomposed structure of a WLS filter according to an embodiment of the present invention, FIG. 5 is a block diagram schematically showing an internal configuration of a low frequency layer fusion unit according to an embodiment of the present invention, and FIG. A diagram conceptually showing a configuration of a low frequency layer fusion unit according to an embodiment.

본 발명의 실시예에 따른 저주파수 레이어 융합부(130)는 라플라시안 피라미드 분해부(131), SLF 레이어 저장부(132), SHF 레이어 저장부(133), 희소 표현부(134), SLF 레이어 구성부(135), SHF 레이어 구성부(136) 및 LF 재구성부(137)를 포함한다.The low frequency layer fusion unit 130 according to an embodiment of the present invention includes a Laplacian pyramid decomposition unit 131, an SLF layer storage unit 132, an SHF layer storage unit 133, a sparse expression unit 134, and an SLF layer configuration unit. (135), an SHF layer configuration unit 136 and an LF reconstruction unit 137.

라플라시안 피라미드 분해부(131)는 라플라시안 피라미드를 이용하여 LF 레이어를 서브 저주파수 레이어(Sub Low Frequency Layer, SLF 레이어)와 서브 고주파수 레이어(Sub High Frequency Layer, SHF 레이어)의 세트로 분해하여 SLF 레이어 저장부(132)와 SHF 레이어 저장부(133)에 각각 저장된다.The Laplacian pyramid decomposition unit 131 decomposes the LF layer into a set of a sub low frequency layer (SLF layer) and a sub high frequency layer (SHF layer) using the Laplacian pyramid, and stores the SLF layer. 132 and SHF layer storage unit 133, respectively.

도 4에 도시된 바와 같이, 라플라시안 피라미드 분해부(131)는 영상 레이어 저장부(120)로부터 하나 이상의 LF 레이어를 수신하고, 수신한 복수의 LF 레이어를 라플라시안 피라미드를 적용하여 2개의 SLF 레이어(sublowA, sublowB)와, 복수의 SHF 레이어의 세트(

Figure 112018086541030-pat00007
)로 분해한다. 여기서, N은 라플라시안 피라미드 분해의 레벨이다.As shown in FIG. 4, the Laplacian pyramid decomposition unit 131 receives one or more LF layers from the image layer storage unit 120, and applies the Laplacian pyramid to two SLF layers (sublow). A , sublow B ) and a set of multiple SHF layers (
Figure 112018086541030-pat00007
). Where N is the level of Laplacian pyramid decomposition.

희소 표현부(134)는 슬라이딩 원도우 기술을 이용하여 2개의 SLF 레이어(sublowA, sublowB)를 왼쪽 위부터 오른쪽 아래까지 S 픽셀의 스텝 길이를 가진

Figure 112018086541030-pat00008
크기의 패치로 분해한다. 여기서, 패치는 영상 처리를 위한 최소 단위를 나타낸다.The sparse representation unit 134 uses a sliding window technology to create two SLF layers (sublow A and sublow B ) having a step length of S pixels from upper left to lower right.
Figure 112018086541030-pat00008
Disassemble into sized patches. Here, the patch represents the minimum unit for image processing.

분해된 패치를 나타내는

Figure 112018086541030-pat00009
는 동일한 위치 i를 가진 각각의 sublowA와 sublowB로부터 얻은 패치이다. 여기서, M은 패치들의 총 개수이다.Representing an exploded patch
Figure 112018086541030-pat00009
Is the patch from sublow A and sublow B respectively with the same position i. Here, M is the total number of patches.

희소 표현부(134)는 동일한 위치 i에서 분해된 패치(

Figure 112018086541030-pat00010
)를 열 벡터(
Figure 112018086541030-pat00011
)로 각각 재배열한 후, 하기의 [수학식 4]와 [수학식 5]에 의해 최종 열 벡터(
Figure 112018086541030-pat00012
)를 생성한다.The sparse representation unit 134 is a patch decomposed at the same position i (
Figure 112018086541030-pat00010
) To column vector (
Figure 112018086541030-pat00011
) After rearrangement, respectively, by the following [Equation 4] and [Equation 5], the final column vector (
Figure 112018086541030-pat00012
).

Figure 112018086541030-pat00013
Figure 112018086541030-pat00013

Figure 112018086541030-pat00014
Figure 112018086541030-pat00014

여기서,

Figure 112018086541030-pat00015
는 n×1 열 벡터(column vector)이고, 패치(
Figure 112018086541030-pat00016
)의 평균값을 나타낸다.here,
Figure 112018086541030-pat00015
Is an n×1 column vector, and the patch (
Figure 112018086541030-pat00016
) Represents the average value.

Figure 112018086541030-pat00017
는 고화질 영상 집합의 임의의 샘플에서 고정된 크기의 원도우
Figure 112018086541030-pat00018
를 사용하여 샘플링된 패치이다. 여기서, N은 샘플링된 패치의 총 수를 나타낸다.
Figure 112018086541030-pat00017
Is a fixed-size window from any sample of a set of high-definition images.
Figure 112018086541030-pat00018
Is a sampled patch using. Here, N represents the total number of sampled patches.

이어서, 각 패치는 열 벡터로 재배열하고, 각 패치의 강도가 0이 되도록 고유한 평균값을 뺀다. 패치들은 부드러운 패치를 제거하고 에지 정보를 가지기 위해서 강도 분산의 임계값을 설정한다.Then, each patch is rearranged into a column vector, and the unique average value is subtracted so that the intensity of each patch is zero. Patches set a threshold of intensity variance to remove soft patches and have edge information.

희소 표현부(134)는 딕셔너리 훈련부(138)에 연동되어 딕셔너리를 제공받는다.The sparse expression unit 134 is interlocked with the dictionary training unit 138 to receive a dictionary.

딕셔너리(Dictionary)는 희소 표현(Sparse Representation)에서 결정적인 역할을 한다.Dictionary plays a crucial role in sparse representation.

딕셔너리 훈련부(138)는 다음의 [수학식 6]과 같이 공식화할 수 있다.The dictionary training unit 138 can be formulated as shown in [Equation 6] below.

Figure 112018086541030-pat00019
Figure 112018086541030-pat00019

여기서,

Figure 112018086541030-pat00020
는 훈련 패치(Training Patches),
Figure 112018086541030-pat00021
는 에러 계수(Tolerance Factor),
Figure 112018086541030-pat00022
는 희소 계수(Sparse Cofficients)를 나타낸다.here,
Figure 112018086541030-pat00020
Is the Training Patches,
Figure 112018086541030-pat00021
Is the Tolerance Factor,
Figure 112018086541030-pat00022
Denotes Sparse Cofficients.

딕셔너리 훈련부(138)는 최소 자승법을 이용하여

Figure 112018086541030-pat00023
를 최소로 하는 D를 계산한다.The dictionary training unit 138 uses the least squares method
Figure 112018086541030-pat00023
Calculate D to minimize

희소 표현부(134)는 직교 매칭 추적(Orthogonal Matching Pursuit, OMP) 알고리즘으로 하기의 [수학식 7]과 [수학식 8]을 사용하여 희소 계수 벡터(

Figure 112018086541030-pat00024
)를 각각 계산한다.The sparse expression unit 134 uses the following [Equation 7] and [Equation 8] as an Orthogonal Matching Pursuit (OMP) algorithm.
Figure 112018086541030-pat00024
) Respectively.

희소 표현부(134)는 최소 자승법을 이용하여

Figure 112018086541030-pat00025
를 최소로 하는
Figure 112018086541030-pat00026
를 계산한다. 하기의 [수학식 7]과 [수학식 8]은 딕셔너리(D)를 전술한 [수학식 6]을 이용하여 이미 훈련된 딕셔너리 훈련부(138)를 통해 제공받고, 최종 열 벡터는 전술한 [수학식 4], [수학식 5]를 이용하여 계산된다.The sparse expression unit 134 uses the least squares method
Figure 112018086541030-pat00025
To minimize
Figure 112018086541030-pat00026
To calculate. The following [Equation 7] and [Equation 8] are provided through the dictionary training unit 138 already trained using the [Equation 6] described above for the dictionary (D), and the final column vector is the aforementioned [Math It is calculated using Equation 4] and [Equation 5].

Figure 112018086541030-pat00027
Figure 112018086541030-pat00027

Figure 112018086541030-pat00028
Figure 112018086541030-pat00028

SLF 레이어 구성부(135)는 희소 표현부(134)에서 계산된 제1 희소 계수 벡터(

Figure 112018086541030-pat00029
)와 제2 희소 계수 벡터(
Figure 112018086541030-pat00030
)를 희소 계수 벡터의 융합을 위해 max L1 규칙(수학식 9)을 이용하여 최종 희소 계수 벡터를 구한다. 즉, 최종 희소 계수 벡터는 제1 희소 계수 벡터와 제2 희소 계수 벡터의 대소 여부를 비교하여 파라미터가 더 큰 값을 가진 벡터를 선택한다.The SLF layer construction unit 135 includes a first sparse coefficient vector calculated by the sparse expression unit 134 (
Figure 112018086541030-pat00029
) And the second sparse coefficient vector (
Figure 112018086541030-pat00030
) For the fusion of the sparse coefficient vector, a final sparse coefficient vector is obtained using the max L1 rule (Equation 9). That is, as the final sparse coefficient vector, a vector having a larger parameter is selected by comparing whether the first sparse coefficient vector and the second sparse coefficient vector are large or small.

Figure 112018086541030-pat00031
Figure 112018086541030-pat00031

이어서, SLF 레이어 구성부(135)는 파라미터가 더 큰 값을 가진 최종 희소 계수 벡터를 하기의 [수학식 10]에 대입하여 최종 융합 결과 정보를 계산한다.Subsequently, the SLF layer construction unit 135 calculates the final fusion result information by substituting the final sparse coefficient vector having a larger parameter value into [Equation 10] below.

Figure 112018086541030-pat00032
Figure 112018086541030-pat00032

여기서, D는 딕셔너리(Dictionary)이고, m은 패치의 평균값을 나타내는 벡터이다.Here, D is a dictionary, and m is a vector representing the average value of the patch.

SLF 레이어 구성부(135)는 융합된 LF 레이어 패치(

Figure 112018086541030-pat00033
)를 얻기 위해서 모든 패치에 대하여 [수학식 3] 내지 [수학식 10]의 과정을 반복한다.The SLF layer configuration unit 135 is a fused LF layer patch (
Figure 112018086541030-pat00033
), the process of [Equation 3] to [Equation 10] is repeated for all patches.

SLF 레이어 구성부(135)는 각각의 융합된 LF 레이어 패치를

Figure 112018086541030-pat00034
사이즈의 패치(
Figure 112018086541030-pat00035
)로 재구성한다. 여기서,
Figure 112018086541030-pat00036
는 LF 레이어가 융합된 결과를 나타내고, 모든 패치를 원본 패치의 원래 위치에 배치한다. The SLF layer configuration unit 135 creates each fused LF layer patch.
Figure 112018086541030-pat00034
The size of the patch (
Figure 112018086541030-pat00035
). here,
Figure 112018086541030-pat00036
Denotes the result of fusion of the LF layer, and all patches are placed at the original position of the original patch.

SHF 레이어 구성부(136)는 SHF 레이어 저장부(133)로부터 복수의 SHF 레이어의 세트(

Figure 112018086541030-pat00037
)를 수신하고, 수신한 복수의 SHF 레이어에서 3×3 원도우 크기를 가진 최대 절대 규칙(Max Absolute Rule)을 이용하여 픽셀 간 더 큰 값을 가진 벡터를 선택하여 SHF 레이어를 재구성한다.The SHF layer configuration unit 136 is a set of a plurality of SHF layers from the SHF layer storage unit 133 (
Figure 112018086541030-pat00037
) Is received, and the SHF layer is reconstructed by selecting a vector having a larger value between pixels using a Max Absolute Rule with a 3×3 window size from the received SHF layers.

LF 재구성부(137)는 SHF 레이어 구성부(136)로부터 수신한 SHF 레이어와 SLF 레이어 구성부(135)로부터 수신한 LF 레이어가 융합된 패치를 역 라플라시안 피라미드를 수행하여 융합된 LF 레이어(LF)로 재구성된다.The LF reconfiguration unit 137 performs an inverse Laplacian pyramid on the patch in which the SHF layer received from the SHF layer construction unit 136 and the LF layer received from the SLF layer construction unit 135 are fused, and performs the fused LF layer (L F ).

고주파수 레이어 융합부(140)는 영상 레이어 저장부(120)로부터 수신한 복수의 HF 레이어를 최대 절대 융합 규칙(Max Absolute Fusion Rule)을 이용하여 융합된 HF 레이어로 재구성한다. 여기서, 최대 절대 융합 규칙은 픽셀 대 픽셀 간의 최대값을 가진 픽셀을 선택하는 규칙이 아니라 3×3 원도우 크기의 면적 기반으로 HF 레이어가 융합된 결과(

Figure 112018086541030-pat00038
)가 된다.The high frequency layer fusion unit 140 reconstructs a plurality of HF layers received from the image layer storage unit 120 into a fused HF layer using a maximum absolute fusion rule. Here, the maximum absolute fusion rule is not a rule that selects a pixel with a maximum value between pixel-to-pixel, but the result of fusion of the HF layer based on the area of the 3×3 window size (
Figure 112018086541030-pat00038
).

최종 영상 융합부(150)는 저주파수 레이어 융합부(130)로부터 융합된 LF 레이어(LF)를 수신하고, 고주파수 레이어 융합부(140)로부터 융합된 HF 레이어를 수신하며, 상기 융합된 LF 레이어(LF)와 상기 융합된 HF 레이어를 더하여 융합된 최종 영상(F)이 복원된다(수학식 11).The final image fusion unit 150 receives the fused LF layer (L F ) from the low frequency layer fusion unit 130, receives the fused HF layer from the high frequency layer fusion unit 140, and receives the fused LF layer ( L F ) and the fused HF layer are added to restore the fused final image (F) (Equation 11).

Figure 112018086541030-pat00039
Figure 112018086541030-pat00039

이상에서 본 발명의 실시예는 장치 및/또는 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하기 위한 프로그램, 그 프로그램이 기록된 기록 매체 등을 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다.In the above, the embodiment of the present invention is not implemented only through an apparatus and/or method, and may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention, a recording medium in which the program is recorded, and the like. There is, such an implementation can be easily implemented by those skilled in the art to which the present invention belongs from the description of the above-described embodiment.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

100: 영상 융합 장치 110: 영상 분해부
120: 영상 레이어 저장부 130: 저주파수 레이어 융합부
131: 라플라시안 피라미드 분해부 132: SLF 레이어 저장부
133: SHF 레이어 저장부 134: 희소 표현부
135: SLF 레이어 구성부 136: SHF 레이어 구성부
137: LF 재구성부 138: 딕셔너리 훈련부
140: 고주파수 레이어 융합부 150: 최종 영상 융합부
100: image fusion device 110: image decomposition unit
120: image layer storage unit 130: low frequency layer fusion unit
131: Laplacian pyramid decomposition unit 132: SLF layer storage unit
133: SHF layer storage unit 134: sparse expression unit
135: SLF layer configuration unit 136: SHF layer configuration unit
137: LF reconstruction unit 138: dictionary training unit
140: high frequency layer fusion unit 150: final image fusion unit

Claims (12)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 하나 이상의 입력된 영상을 가중 최소 자승(Weighted Least Squares, WLS) 필터를 이용하여 상기 각각의 입력된 영상을 LF(Low Frequency) 레이어와 HF(High Frequency) 레이어로 각각 분해하는 영상 분해부;
상기 각각의 LF 레이어를 희소 표현법(Sparse Representation)을 이용하여 희소 계수 벡터로 각각 구성하고, 이를 융합하여 융합된 최종 LF 레이어를 재구성하는 저주파수 레이어 융합부;
상기 각각의 HF 레이어를 최대 절대 융합 규칙(Max Absolute Fusion Rule)을 이용하여 융합시켜 최종 HF 레이어를 재구성하는 고주파수 레이어 융합부; 및
상기 최종 LF 레이어와 상기 최종 HF 레이어를 더하여 최종 영상을 복원하는 최종 영상 융합부를 포함하고,
상기 영상 분해부는 하기의 수학식 1에 의해 상기 WLS 필터를 적용하여 k=1부터 K번째까지 부드러운 영상(Smooth Image) Ik을 각각 생성하고, 인접한 두 개의 부드러운 영상을 하기의 수학식 2에 의해 k=1부터 K번째까지 차분 영상을 생성하고, 상기 WLS 필터는 하기의 수학식 3을 이용하여
Figure 112020074191941-pat00088
이 최소로 되는 S 값을 만드는 필터링된 영상 S를 얻으며, 입력 영상 I에 최대한 가까운 부드러운 영상 S를 얻으며,
상기 저주파수 레이어 융합부는,
상기 각각의 LF 레이어를 라플라시안 피라미드를 적용하여 2개의 SLF(Sub Low Frequency) 레이어(sublowA, sublowB)와, 복수의 SHF 레이어의 세트(
Figure 112020074191941-pat00055
)로 분해하여 SLF 레이어 저장부와 SHF 레이어 저장부에 각각 저장하는 라플라시안 피라미드 분해부; 및
슬라이딩 원도우 기술을 이용하여 2개의 SLF 레이어(sublowA, sublowB)를 왼쪽 위부터 오른쪽 아래까지 S 픽셀의 스텝 길이를 가진 최소단위인
Figure 112020074191941-pat00089
크기의 패치로 분해하고, 동일한 위치 i에서 분해된 패치(
Figure 112020074191941-pat00090
)를 열 벡터(
Figure 112020074191941-pat00091
)로 각각 재배열한 후, 하기의 수학식 4와 수학식 5에 의해 최종 열 벡터(
Figure 112020074191941-pat00092
)를 생성하는 희소 표현부를 더 포함하고,
하기의 수학식 8에서 최소 자승법을 이용하여
Figure 112020074191941-pat00082
를 최소로 하는 딕셔너리(D)를 계산하는 딕셔너리 훈련부를 더 포함하며,
상기 희소 표현부는 직교 매칭 추적(Orthogonal Matching Pursuit, OMP) 알고리즘을 이용하고, 상기 계산한 딕셔너리를 하기의 수학식 6과 수학식 7에 대입하여 희소 계수 벡터(
Figure 112020074191941-pat00083
)를 각각 계산하는 것을 특징으로 하는 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치.
Figure 112020074191941-pat00093
는 고화질 영상 집합의 임의의 샘플에서 고정된 크기의 원도우
Figure 112020074191941-pat00094
를 사용하여 샘플링된 패치이고, N은 샘플링된 패치의 총 수를 나타내고,
[수학식 1]
Figure 112020074191941-pat00095

여기서, 부드러운 영상(Smooth Image) Ik은 LF(Low Frequency) 레이어를 나타낸다.
여기서, 차분 영상은 HF(High Frequency) 레이어를 나타낸다.
[수학식 2]
Figure 112020074191941-pat00096

[수학식 3]
Figure 112020074191941-pat00097

여기서,
Figure 112020074191941-pat00098
은 데이터 항(Data Term),
Figure 112020074191941-pat00099
은 정규화 항(Regularization Term), WX 및 WY는 수평 및 수직의 평활도 가중치, λ는 두 항 사이의 균형을 맞추는 정규화 매개 변수로 기설정되어 있으며, 데이터 항은 필터링된 영상이 입력 영상에 더 가깝게 할 수 있고, 정규화 항은 입력 영상의 편미분을 최소화하여 평활도를 달성함.
[수학식 4]
Figure 112020074191941-pat00057

[수학식 5]
Figure 112020074191941-pat00058

여기서,
Figure 112020074191941-pat00059
는 n×1 열 벡터(column vector)이고, 패치(
Figure 112020074191941-pat00060
)의 평균값을 나타냄.
[수학식 6]
Figure 112020074191941-pat00062

[수학식 7]
Figure 112020074191941-pat00063

여기서, D는 딕셔너리(Dictionary),
Figure 112020074191941-pat00064
는 에러 계수(Tolerance Factor),
Figure 112020074191941-pat00065
는 희소 계수(Sparse Cofficients)를 나타냄.
[수학식 8]
Figure 112020074191941-pat00084

여기서,
Figure 112020074191941-pat00085
는 훈련 패치(Training Patches),
Figure 112020074191941-pat00086
는 에러 계수(Tolerance Factor),
Figure 112020074191941-pat00087
는 희소 계수(Sparse Cofficients)를 나타냄.
An image decomposition unit for decomposing each of the input images into a low frequency (LF) layer and a high frequency (HF) layer by using a weighted least squares (WLS) filter on one or more input images;
A low-frequency layer fusion unit configured to each of the LF layers as sparse coefficient vectors using a sparse representation, and fusing them to reconstruct a final LF layer fused;
A high-frequency layer fusion unit configured to reconstruct a final HF layer by fusing each of the HF layers using a maximum absolute fusion rule; And
A final image fusion unit for reconstructing a final image by adding the final LF layer and the final HF layer,
The image decomposition unit generates smooth images I k from k=1 to Kth by applying the WLS filter according to Equation 1 below, and generates two adjacent smooth images by Equation 2 below. A difference image is generated from k=1 to the K-th, and the WLS filter uses Equation 3 below.
Figure 112020074191941-pat00088
We get a filtered image S that makes this minimum S value, a smooth image S that is as close as possible to the input image I,
The low frequency layer fusion unit,
A set of two SLF (Sub Low Frequency) layers (sublow A , sublow B ) and a plurality of SHF layers by applying a Laplacian pyramid to each of the LF layers (
Figure 112020074191941-pat00055
) And storing the SLF layer storage unit and the SHF layer storage unit respectively; And
Using sliding window technology, two SLF layers (sublow A and sublow B ) are divided into the smallest unit with a step length of S pixels from top left to bottom right
Figure 112020074191941-pat00089
Decomposed into patches of size, and the decomposed patch at the same position i (
Figure 112020074191941-pat00090
) To column vector (
Figure 112020074191941-pat00091
) After rearrangement, respectively, by the following equations 4 and 5, the final column vector (
Figure 112020074191941-pat00092
) Further comprising a sparse expression unit that generates,
Using the least squares method in Equation 8 below
Figure 112020074191941-pat00082
Further comprising a dictionary training unit for calculating the dictionary (D) to minimize the,
The sparse expression unit uses an Orthogonal Matching Pursuit (OMP) algorithm, and substitutes the calculated dictionary into Equations 6 and 7 below to obtain a sparse coefficient vector (
Figure 112020074191941-pat00083
An image fusion device using a weighted least squares filter and sparse expression, characterized in that each computes ).
Figure 112020074191941-pat00093
Is a fixed-size window from any sample of a set of high-definition images.
Figure 112020074191941-pat00094
Is the sampled patch using, N represents the total number of sampled patches,
[Equation 1]
Figure 112020074191941-pat00095

Here, a smooth image I k represents a low frequency (LF) layer.
Here, the difference image represents a high frequency (HF) layer.
[Equation 2]
Figure 112020074191941-pat00096

[Equation 3]
Figure 112020074191941-pat00097

here,
Figure 112020074191941-pat00098
Is the Data Term,
Figure 112020074191941-pat00099
Is a regularization term, W X and W Y are horizontal and vertical smoothness weights, λ is a normalization parameter that balances the two terms, and the data term is the filtered image added to the input image. It can be made close, and the normalization term minimizes the partial derivative of the input image to achieve smoothness.
[Equation 4]
Figure 112020074191941-pat00057

[Equation 5]
Figure 112020074191941-pat00058

here,
Figure 112020074191941-pat00059
Is an n×1 column vector, and the patch (
Figure 112020074191941-pat00060
) Represents the average value.
[Equation 6]
Figure 112020074191941-pat00062

[Equation 7]
Figure 112020074191941-pat00063

Where D is a dictionary,
Figure 112020074191941-pat00064
Is the Tolerance Factor,
Figure 112020074191941-pat00065
Denotes Sparse Cofficients.
[Equation 8]
Figure 112020074191941-pat00084

here,
Figure 112020074191941-pat00085
Is the Training Patches,
Figure 112020074191941-pat00086
Is the Tolerance Factor,
Figure 112020074191941-pat00087
Denotes Sparse Cofficients.
삭제delete 삭제delete 제7항에 있어서,
상기 제1 희소 계수 벡터(
Figure 112020074191941-pat00066
)와 상기 제2 희소 계수 벡터(
Figure 112020074191941-pat00067
)를 희소 계수 벡터의 융합을 위해 상기 제1 희소 계수 벡터와 상기 제2 희소 계수 벡터의 대소 여부를 비교하는 하기의 수학식 9를 이용하여 파라미터가 더 큰 값을 가진 벡터인 최종 희소 계수 벡터를 구하고, 상기 최종 희소 계수 벡터를 상기 하기의 수학식 10에 대입하여 최종 융합 결과 정보를 계산하는 SLF 레이어 구성부;
상기 복수의 SHF 레이어의 세트에서 3×3 원도우 크기를 가진 최대 절대 규칙(Max Absolute Rule)을 이용하여 픽셀 간 더 큰 값을 가진 벡터를 선택하여 SHF 레이어를 재구성하는 SHF 레이어 구성부; 및
상기 최종 융합 결과 정보와 상기 재구성된 SHF 레이어를 역 라플라시안 피라미드를 수행하여 융합된 LF 레이어(LF)로 재구성하는 LF 재구성부를 포함하는 것을 특징으로 하는 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치.
[수학식 9]
Figure 112020074191941-pat00068

[수학식 10]
Figure 112020074191941-pat00069
The method of claim 7,
The first sparse coefficient vector (
Figure 112020074191941-pat00066
) And the second sparse coefficient vector (
Figure 112020074191941-pat00067
) For the fusion of the sparse coefficient vectors, a final sparse coefficient vector, which is a vector having a larger parameter, is obtained by using Equation 9 below for comparing the magnitude of the first sparse coefficient vector and the second sparse coefficient vector. An SLF layer construction unit that calculates final fusion result information by obtaining and substituting the final sparse coefficient vector into Equation 10 below;
An SHF layer constructing unit configured to reconstruct an SHF layer by selecting a vector having a larger value between pixels using a maximum absolute rule having a 3×3 window size from the set of the plurality of SHF layers; And
An image fusion device using a weighted least squares filter and sparse expression, comprising: an LF reconstruction unit configured to reconstruct the final fusion result information and the reconstructed SHF layer into a fused LF layer (L F ) by performing an inverse Laplacian pyramid. .
[Equation 9]
Figure 112020074191941-pat00068

[Equation 10]
Figure 112020074191941-pat00069
제10항에 있어서,
상기 최종 영상 융합부는 상기 융합된 LF 레이어(LF)와 상기 최종 HF 레이어를 더하여 최종 영상을 복원하는 것을 특징으로 하는 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치.
The method of claim 10,
And the final image fusion unit reconstructs a final image by adding the fused LF layer (L F ) and the final HF layer.
제10항에 있어서,
상기 SLF 레이어 구성부는 융합된 LF 레이어 패치(
Figure 112020074191941-pat00100
)를 얻기 위해서 모든 패치에 대하여 상기 수학식 3 내지 상기 수학식 10의 과정을 반복하고, 각각의 융합된 LF 레이어 패치를
Figure 112020074191941-pat00101
사이즈의 패치(
Figure 112020074191941-pat00102
)로 재구성하고, 상기
Figure 112020074191941-pat00103
는 LF 레이어가 융합된 결과를 나타내고, 모든 패치를 원본 패치의 원래 위치에 배치하는 것을 특징으로 하는 가중 최소 자승 필터와 희소 표현을 이용한 영상 융합 장치.
The method of claim 10,
The SLF layer configuration unit is a fused LF layer patch (
Figure 112020074191941-pat00100
), repeat the process of Equation 3 to Equation 10 for all patches, and each fused LF layer patch
Figure 112020074191941-pat00101
The size of the patch (
Figure 112020074191941-pat00102
), and the
Figure 112020074191941-pat00103
Denotes a result of fusion of the LF layers, and an image fusion device using a weighted least squares filter and sparse expression, characterized in that all patches are placed at the original positions of the original patch.
KR1020180103208A 2018-08-31 2018-08-31 Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation KR102142934B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180103208A KR102142934B1 (en) 2018-08-31 2018-08-31 Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180103208A KR102142934B1 (en) 2018-08-31 2018-08-31 Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation

Publications (2)

Publication Number Publication Date
KR20200025598A KR20200025598A (en) 2020-03-10
KR102142934B1 true KR102142934B1 (en) 2020-08-11

Family

ID=69801164

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180103208A KR102142934B1 (en) 2018-08-31 2018-08-31 Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation

Country Status (1)

Country Link
KR (1) KR102142934B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102401585B1 (en) * 2021-01-14 2022-05-24 인천대학교 산학협력단 Apparatus and Method for Fusing Multi Image

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113129244B (en) * 2021-04-16 2022-10-18 重庆邮电大学 Multi-scale medical image fusion method based on local Laplace decomposition
CN113487526B (en) * 2021-06-04 2023-08-25 湖北工业大学 Multi-focus image fusion method for improving focus definition measurement by combining high-low frequency coefficients
CN113487529B (en) * 2021-07-12 2022-07-26 吉林大学 Cloud map target detection method for meteorological satellite based on yolk

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018070100A1 (en) 2016-10-14 2018-04-19 三菱電機株式会社 Image processing device, image processing method, and photographing apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130008304A (en) * 2011-07-12 2013-01-22 삼성전자주식회사 Method of color distortion correction and apparatus using the same
KR101883806B1 (en) 2017-04-07 2018-07-31 울산과학기술원 Apparatus and method for reconstructing image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018070100A1 (en) 2016-10-14 2018-04-19 三菱電機株式会社 Image processing device, image processing method, and photographing apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Yu Liu ET AL:"A general framework for image fusion based on multi-scale transform and sparse representation", Information Fusion, Volume 24, July 2015, Pages 147-164(2015.7.24.) 1부.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102401585B1 (en) * 2021-01-14 2022-05-24 인천대학교 산학협력단 Apparatus and Method for Fusing Multi Image

Also Published As

Publication number Publication date
KR20200025598A (en) 2020-03-10

Similar Documents

Publication Publication Date Title
Armanious et al. Unsupervised medical image translation using cycle-MedGAN
KR102142934B1 (en) Apparatus and Method for Fusing Using Weighted Least Squares Filter and Sparse Respresentation
Bahrami et al. Reconstruction of 7T-like images from 3T MRI
CN108717717B (en) Sparse MRI reconstruction method based on combination of convolutional neural network and iteration method
CN107004257B (en) Simulating dose increase by multi-scale noise reduction based on noise model
Roy et al. MR contrast synthesis for lesion segmentation
CN111340903B (en) Method and system for generating synthetic PET-CT image based on non-attenuation correction PET image
Xue et al. LCPR-Net: low-count PET image reconstruction using the domain transform and cycle-consistent generative adversarial networks
Arif et al. Maximizing information of multimodality brain image fusion using curvelet transform with genetic algorithm
Zhang et al. Limited angle CT reconstruction by simultaneous spatial and Radon domain regularization based on TV and data-driven tight frame
Aishwarya et al. A novel multimodal medical image fusion using sparse representation and modified spatial frequency
Feng et al. Rethinking PET image reconstruction: ultra-low-dose, sinogram and deep learning
Fu et al. Learning domain transfer for unsupervised magnetic resonance imaging restoration and edge enhancement
Mangalagiri et al. Toward generating synthetic CT volumes using a 3D-conditional generative adversarial network
Hariharan et al. A photon recycling approach to the denoising of ultra-low dose X-ray sequences
CN116342444A (en) Dual-channel multi-mode image fusion method and fusion imaging terminal
Khodajou-Chokami et al. PARS-NET: a novel deep learning framework using parallel residual conventional neural networks for sparse-view CT reconstruction
CN113592745B (en) Unsupervised MRI image restoration method based on antagonism domain self-adaption
US11508048B2 (en) Method and system for generating composite PET-CT image based on non-attenuation-corrected PET image
Ganasala et al. Functional and anatomical image fusion based on texture energy measures in NSST domain
Kaur et al. Multimodal Medical Image Fusion based on Gray Wolf Optimization and Hilbert Transform
JP7312820B2 (en) Active image reconstruction using anatomical data
Liévin et al. Entropic estimation of noise for medical volume restoration
Kumar et al. Edge preservation based CT image denoising using wavelet and curvelet transforms
CN107025634B (en) Negative dictionary learning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant