KR20220071554A - Medical Image Fusion System - Google Patents

Medical Image Fusion System Download PDF

Info

Publication number
KR20220071554A
KR20220071554A KR1020200158831A KR20200158831A KR20220071554A KR 20220071554 A KR20220071554 A KR 20220071554A KR 1020200158831 A KR1020200158831 A KR 1020200158831A KR 20200158831 A KR20200158831 A KR 20200158831A KR 20220071554 A KR20220071554 A KR 20220071554A
Authority
KR
South Korea
Prior art keywords
image
fusion
images
base layer
final
Prior art date
Application number
KR1020200158831A
Other languages
Korean (ko)
Other versions
KR102505908B1 (en
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020200158831A priority Critical patent/KR102505908B1/en
Publication of KR20220071554A publication Critical patent/KR20220071554A/en
Application granted granted Critical
Publication of KR102505908B1 publication Critical patent/KR102505908B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/4808Multimodal MR, e.g. MR combined with positron emission tomography [PET], MR combined with ultrasound or MR combined with computed tomography [CT]
    • G01R33/4812MR combined with X-ray or computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Pulmonology (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a medical image fusion system using a Laplacian pyramid (LP) and convolutional representation to reduce calculation burden of convolutional sparse representation (CSR). According to the present invention, an image fusion method in an image fusion system comprises the following steps of: calculating an image pyramid including multi-scale level images through image decomposition of each image with respect to two images; fusing base layers having the smallest scale among the multi-scale level images of each image to generate a final fusion base layer (F_B); fusing one or more detail layers of the multi-scale level images of each image to generate a final fused detail layer (F_D); and reconstructing images with respect to the final fusion base layer (F_B) and the final fusion detail layer (F_D) through a reverse process of LP transformation to output a final fusion image.

Description

의료 영상 융합 시스템{Medical Image Fusion System}Medical Image Fusion System

본 발명은 영상 융합 시스템에 관한 것으로서, 특히, 라플라시안 피라미드 (LP, Laplacian Pyramid)와 컨벌루션 희소 표현(CSR, Convolutional Sparse Representation)을 결합하여 의료 영상 등을 융합하는 영상 융합 시스템에 관한 것이다. The present invention relates to an image fusion system, and more particularly, to an image fusion system that combines a Laplacian Pyramid (LP) and a Convolutional Sparse Representation (CSR) to fuse medical images and the like.

초음파, 컴퓨터 단층 촬영 (CT), X-선, 및 자기 공명 영상 (MRI)과 같은 최근의 영상 기술이 발전함에 따라 다양한 영상이 다양한 의료 실무에 널리 적용되고 있다. 이미징 메커니즘의 다양성으로 인해 이러한 다양한 영상 양식은 서로 다른 유형의 정보를 캡처할 수 있도록 한다. 예를 들어, CT 영상은 뼈 및 임플란트와 같은 조밀한 기관 및 조직에 초점을 맞추는 반면, MRI 영상은 고해상도 연조직 상세 정보를 제공할 수 있다. CT 및 MRI 영상들의 상호 보완 정보는 고해상도로 구조적 정보를 제공할 수 있다. 따라서 CT 및 MRI 영상은 일반적으로 조기 두부와 경부의 암 환자의 종양 진단에 적용된다. 그러나 정확한 진단을 위해 의사는 여러 가지 형태의 영상을 개별적으로 순차 분석해야 하므로 많은 경우 불편을 초래할 수 있다. 의료 영상 융합은 이 문제를 효과적으로 해결하여 융합된 영상을 생성하여 여러 의료 영상에 포함된 상호 보완 정보를 다른 양식으로 통합한다. 의료 영상 융합은 비용이 저렴할뿐만 아니라 의사의 임상 요구에 따라 모든 형태의 영상을 융합할 수 있기 때문에 유연하다. 따라서 의료 영상 분야에서 널리 연구되었고, 최근까지, 다양한 영상 형성 방법이 제안되었다.BACKGROUND With the recent development of imaging technologies such as ultrasound, computed tomography (CT), X-ray, and magnetic resonance imaging (MRI), various imaging techniques have been widely applied to various medical practices. Due to the diversity of imaging mechanisms, these different imaging modalities allow different types of information to be captured. For example, CT images can focus on dense organs and tissues such as bones and implants, whereas MRI images can provide high-resolution soft tissue details. Complementary information of CT and MRI images may provide structural information with high resolution. Therefore, CT and MRI images are generally applied for tumor diagnosis in patients with early head and neck cancer. However, for an accurate diagnosis, a doctor must individually and sequentially analyze various types of images, which can cause inconvenience in many cases. Medical image fusion effectively solves this problem, creating a fused image to integrate complementary information contained in multiple medical images into different formats. Medical image fusion is not only low cost, but also flexible because it can fuse all types of images according to the clinical needs of doctors. Therefore, it has been widely studied in the field of medical imaging, and until recently, various image forming methods have been proposed.

일반적인 두 가지 주요 방법은, 공간 도메인 방법과 변환 도메인 방법이다. 공간 도메인 방법은 가중 평균(WA), 강도-채도-포화 (IHS) 및 주요 성분 분석 (PCA)과 같은 공간 도메인에서 픽셀 단위로 소스 영상을 직접 다룬다. 이러한 방법은 간단하고 시간 효율적이지만 다중 모드 의료 영상의 중요한 차이점에 대해서는 많이 고려하지 않아 일부 정보가 손실된다. 변환 도메인 방법은 변환 도메인의 특정 융합 규칙에 의해 얻어진 융합 계수에 대해 대응하는 역변환을 수행하여 최종 융합 영상을 재구성한다. 이미징 메커니즘의 다중 모드 의료 영상의 차이로 인해 대부분의 변환 도메인 방법은 인지하기 좋은 결과를 얻도록 다중 스케일 변환(MST)을 적용한다. The two main general methods are the spatial domain method and the transform domain method. Spatial domain methods deal directly with the source image on a pixel-by-pixel basis in the spatial domain, such as weighted average (WA), intensity-saturation-saturation (IHS) and principal component analysis (PCA). Although these methods are simple and time-efficient, they do not take much into account the important differences of multimodal medical imaging, and some information is lost. The transform domain method reconstructs a final fusion image by performing a corresponding inverse transform on a fusion coefficient obtained by a specific fusion rule of the transform domain. Due to the differences in multimodal medical imaging of imaging mechanisms, most transform domain methods apply multi-scale transform (MST) to obtain perceptually good results.

일반적으로, MST 융합 방법은 영상 멀티 스케일 분해, 영상 융합 및 영상 재구성의 3 단계를 포함한다. MST 방법은 Laplacian pyramid(LP), Low-Pass pyramid (RP)의 비율, Wavelet transform (WT), Dual-tree complex wavelet transform (DTCWT), Curvelet transform (CVT), nonsubsampled contourlet transform (NSCT)와 함께 그동안 널리 사용되었다. 그러나 이러한 MST 방법은, 일반적으로 '분산 규칙(variance rule)' 또는 '평균 규칙(averaging rule)'을 적용하여 기본 레이어로 통합하며, 이는 소스 영상에 포함된 정보를 최종 융합 영상으로 완전히 전환할 수 없다. 또한, 이러한 기본 레이어 융합 규칙은 기본 레이어에 포함된 많은 에너지가 손실되기 때문에 융합된 영상의 전체적인 대조비(contrast)를 감소시키는 문제가 있다.In general, the MST fusion method includes three steps: image multi-scale decomposition, image fusion, and image reconstruction. The MST method has been along with the ratio of Laplacian pyramid (LP), Low-Pass pyramid (RP), Wavelet transform (WT), Dual-tree complex wavelet transform (DTCWT), Curvelet transform (CVT), and nonsubsampled contourlet transform (NSCT). It was widely used. However, these MST methods are generally integrated into the base layer by applying a 'variance rule' or an 'averaging rule', which can completely convert the information contained in the source image into the final fusion image. none. In addition, such a base layer fusion rule has a problem of reducing the overall contrast of the fused image because a lot of energy included in the base layer is lost.

따라서, 본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 의사의 질병 진단 및 치료 능력을 향상시킬 수 있도록 의료 영상을 융합하되, LP(Laplacian Pyramid)와 CSR(Convolutional Sparse Representation)을 결합하여 의료 영상 등을 융합함으로써, 소스 영상에 포함된 텍스처(질감) 디테일 정보를 완전히 추출 할 수 있고 최종 융합 영상의 전체 대조비를 유지시킬 수 있는, 영상 융합 시스템을 제공하는 데 있다.Accordingly, the present invention has been devised to solve the above problems, and an object of the present invention is to fuse medical images to improve a doctor's ability to diagnose and treat a disease, but LP (Laplacian Pyramid) and CSR (Convolutional Sparse) Representation) and fusion of medical images, etc., to provide an image fusion system that can completely extract texture (texture) detail information included in the source image and maintain the overall contrast of the final fusion image.

본 발명의 영상 융합 시스템에 따르면, 컴퓨터 단층 촬영 영상 및 자기 공명 영상에 대해 LP 변환이 수행되어 베이스 레이어 및 디테일 레이어를 획득하고, 디테일 레이어는 '최대 절대(max-absolute)' 규칙을 사용하여 융합하며, 베이스 레이어는 소스 영상에 포함된 텍스처(질감)를 유지하도록 CSR 기반 접근 방식으로 융합함으로써, 융합된 베이스 레이어 및 디테일 레이어에 대해 역 LP 변환을 수행함으로써 융합된 영상을 재구성한다.According to the image fusion system of the present invention, LP transformation is performed on a computed tomography image and a magnetic resonance image to obtain a base layer and a detail layer, and the detail layer is fused using a 'max-absolute' rule The base layer reconstructs the fused image by performing inverse LP transformation on the fused base layer and detail layer by fusion in a CSR-based approach to maintain the texture (texture) included in the source image.

먼저, 본 발명의 특징을 요약하면, 상기의 목적을 달성하기 위한 본 발명의 일면에 따른 영상 융합 시스템에서의 영상 융합 방법은, 두개의 영상에 대해 각 영상의 영상 분해를 통해 다중 스케일 레벨의 영상들을 포함하는 영상 피라미드를 산출하는 영상 변환을 수행하는 단계; 각 영상의 상기 다중 스케일 레벨의 영상들 중 가장 작은 스케일을 갖는 베이스 레이어를 서로 융합하여 최종 융합 베이스 레이어(FB)를 생성하는 단계; 각 영상의 상기 다중 스케일 레벨의 영상들 중 하나 이상의 디테일 레이어를 융합하여 최종 융합 디테일 레이어(FD)를 생성하는 단계; 및 상기 최종 융합 베이스 레이어(FB)와 상기 최종 융합 디테일 레이어(FD)에 대하여, 상기 영상 변환의 역과정을 통해, 영상을 재구성함으로써, 최종 융합 영상을 출력하는 단계를 포함한다.First, to summarize the features of the present invention, the image fusion method in the image fusion system according to an aspect of the present invention for achieving the above object is a multi-scale level image through image decomposition of each image for two images. performing image transformation to calculate an image pyramid including generating a final fusion base layer (F B ) by fusing a base layer having the smallest scale among the images of the multi-scale level of each image; generating a final fusion detail layer (F D ) by fusing one or more detail layers among the images of the multi-scale level of each image; and outputting a final fusion image by reconstructing an image through an inverse process of image transformation with respect to the final fusion base layer (F B ) and the final fusion detail layer (F D ).

상기 두개의 영상은 CT 영상과 MRI 영상을 포함한다.The two images include a CT image and an MRI image.

상기 영상 피라미드의 산출에서, 각 영상에 대해 가우샨 커널에 의한 컨볼루션과 다운 샘플링을 이용하여 스케일 레벨별 영상 피라미드를 생성하는 가우샨 피라미드 변환, 및 상기 가우샨 피라미드 변환 결과에 대해 가우샨 커널에 의한 컨볼루션과 업-샘플링을 이용하여 스케일 레벨별 영상 피라미드를 생성하는 LP 변환을 수행한다.In the calculation of the image pyramid, a Gaussian pyramid transformation that generates an image pyramid for each scale level by using convolution and downsampling by the Gaussian kernel for each image, and the Gaussian pyramid transformation result in the Gaussian kernel LP transformation to generate an image pyramid for each scale level is performed using convolution and up-sampling by

상기 최종 융합 베이스 레이어(FB)를 생성하는 단계는, 각 영상의 서로 대응되는 베이스 레이어에 대해, CSR 코딩 코딩을 통해 제1 영상의 희소 계수 벡터(CC,m)와 제2 영상의 희소 계수 벡터(CM,m)을 산출하는 단계; 각각의 희소 계수 벡터에 대하여 L1 정규화를 통해 각각의 액티비티를 산출하되, 소정의 픽셀 윈도우에서의 제1 액티비티 평균값 및 제2 액티비티 평균값을 각각 산출해, 각각의 픽셀 위치에서 상기 제1 액티비티 평균값과 상기 제2 액티비티 평균값 중 큰쪽에 해당하는 영상 쪽의 희소 계수 벡터를 선택해 융합 희소 표현(CF,M)을 결정하는 단계; 및 상기 융합 희소 표현(CF,M)과, 미리 학습으로 훈련된 사전 필터들의 세트(dm)에 대한, 콘볼루션 동작을 통해, 상기 최종 융합 베이스 레이어(FB)를 생성하는 단계를 포함한다.The generating of the final fusion base layer (F B ) includes the sparse coefficient vector (C C,m ) of the first image and the sparseness of the second image through CSR coding coding for the base layers corresponding to each other of each image. calculating a coefficient vector (C M,m ); For each sparse coefficient vector, each activity is calculated through L1 normalization, and the first activity average value and the second activity average value in a predetermined pixel window are respectively calculated, and the first activity average value and the first activity average value are calculated at each pixel position. determining a fusion sparse expression (C F,M ) by selecting a sparse coefficient vector on the image side corresponding to the larger of the second activity average values; and generating the final fusion base layer (F B ) through a convolution operation on the fusion sparse representation (C F,M ) and a set of pre-trained pre-filters (d m ). do.

상기 CSR 코딩 코딩은, 각각의 희소 계수 벡터가 수학식

Figure pat00001
을 만족하도록 수행되고, Cm은 CC,m 또는 CM,m이고, dm은 미리 학습으로 훈련된 사전 필터, IB 는 각 베이스 레이어, λ는 정규화 파라미터이다.In the CSR coding coding, each sparse coefficient vector is
Figure pat00001
is performed to satisfy , C m is C C,m or C M,m , d m is a pre-trained pre-filter, I B is each base layer, and λ is a regularization parameter.

상기 최종 융합 디테일 레이어(FD)를 생성하는 단계에서, 각 영상에서 서로 대응되는 디테일 레이어에 대해, 각 픽셀 위치의 양측 계조값의 절대값 중 큰 값을 선택해 각 픽셀 위치의 계조값으로 결정함으로써, 상기 최종 융합 디테일 레이어(FD)를 생성할 수 있다.In the step of generating the final fusion detail layer (F D ), for the detail layers corresponding to each other in each image, a larger value among the absolute values of both grayscale values of each pixel position is selected and determined as the grayscale value of each pixel position. , the final fusion detail layer F D may be generated.

상기 결정된 각 픽셀 위치의 계조값이 인접한 하나 이상의 픽셀의 계조값과 소정의 범위 내의 차이가 되도록 적합성 여부를 검증하여 상기 최종 융합 디테일 레이어(FD)를 출력할 수 있다.The final fusion detail layer F D may be output by verifying whether the determined gradation value of each pixel position has a difference within a predetermined range from the gradation value of one or more adjacent pixels.

그리고, 본 발명의 다른 일면에 따른 영상 융합 시스템에서의 영상 융합 처리 기능을 수행하기 위한, 컴퓨터가 판독 가능한 코드를 기록한 기록 매체는, 두개의 영상에 대해 각 영상의 영상 분해를 통해 다중 스케일 레벨의 영상들을 포함하는 영상 피라미드를 산출하는 영상 변환을 수행하는 기능; 각 영상의 상기 다중 스케일 레벨의 영상들 중 가장 작은 스케일을 갖는 베이스 레이어를 서로 융합하여 최종 융합 베이스 레이어(FB)를 생성하는 기능; 각 영상의 상기 다중 스케일 레벨의 영상들 중 하나 이상의 디테일 레이어를 융합하여 최종 융합 디테일 레이어(FD)를 생성하는 기능; 및 상기 최종 융합 베이스 레이어(FB)와 상기 최종 융합 디테일 레이어(FD)에 대하여, 상기 영상 변환의 역과정을 통해, 영상을 재구성함으로써, 최종 융합 영상을 출력하는 기능을 구현한다.In addition, the recording medium on which the computer-readable code for performing the image fusion processing function in the image fusion system according to another aspect of the present invention is recorded is a multi-scale level of two images through image decomposition of each image. a function of performing image transformation to calculate an image pyramid including images; a function of generating a final fusion base layer (F B ) by fusing a base layer having the smallest scale among the images of the multi-scale level of each image; a function of fusing one or more detail layers among the images of the multi-scale level of each image to generate a final fusion detail layer (F D ); And with respect to the final fusion base layer (F B ) and the final fusion detail layer (F D ), a function of outputting a final fusion image is implemented by reconstructing an image through an inverse process of the image transformation.

본 발명에 따른 영상 융합 시스템에 따르면, LP-CSR이라는 LP와 CSR을 결합한 새로운 의료용 영상 융합 방법을 통해, 우수한 융합 성능을 얻을 수 있다. LP 변환은 CT 및 MRI 소스 영상을 멀티 스케일 표현, 즉, 디테일 레이어 및 베이스 레이어로 분해하여 영상의 특징을 추출하고, 베이스 레이어에 포함된 텍스처 디테일 정보를 완전히 보존하기 위해 CSR 기반 접근법으로 베이스 레이어를 융합한다. 디테일 레이어는 널리 사용되는'max-absolute' 규칙에 의해 융합되며, 주변 픽셀의 계조값과 비교로 적합성 여부가 검증될 수 있다. 베이스 레이어는 LP의 최소 스케일 영상이므로 CSR의 계산 부담을 완화할 수 있다. According to the image fusion system according to the present invention, excellent fusion performance can be obtained through a new medical image fusion method combining LP and CSR called LP-CSR. LP transformation decomposes the CT and MRI source images into multi-scale representations, i.e., detail layers and base layers to extract features of the images, and converts the base layer into a CSR-based approach to fully preserve the texture detail information contained in the base layer. fuse The detail layer is fused according to the widely used 'max-absolute' rule, and suitability can be verified by comparing it with the grayscale values of neighboring pixels. Since the base layer is the minimum scale image of the LP, the computational burden of the CSR can be alleviated.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는 첨부도면은, 본 발명에 대한 실시예를 제공하고 상세한 설명과 함께 본 발명의 기술적 사상을 설명한다.
도 1은 본 발명의 영상 융합 시스템에서의 영상 융합 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 영상 융합 시스템에서의 영상 분해에 의한 영상 피라미드 생성 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 영상 융합 시스템에서의 LP 변환에 의한 영상의 분해 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 영상 융합 시스템에서의 베이스 레이어와 디테일 레이어의 영상 융합과 재구성 방법을 설명하기 위한 도면이다.
도 5는 입력 CT 영상(A)과 MRI(B) 영상에 대하여, 본 발명의 영상 융합 방법의 결과(J)와 다른 종래의 영상 융합 방법의 결과들(C~I)에 대한 예시를 나타낸다.
도 6은 본 발명의 일 실시예에 따른 영상 융합 시스템의 구현 방법의 일례를 설명하기 위한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to help the understanding of the present invention, provide an embodiment of the present invention and together with the detailed description, explain the technical spirit of the present invention.
1 is a view for explaining an image fusion method in the image fusion system of the present invention.
2 is a view for explaining a method of generating an image pyramid by image decomposition in the image fusion system of the present invention.
3 is a view for explaining a method of decomposing an image by LP transformation in the image fusion system of the present invention.
4 is a view for explaining an image fusion and reconstruction method of a base layer and a detail layer in the image fusion system of the present invention.
5 shows examples of the results (J) of the image fusion method of the present invention and the results (C ~ I) of the other conventional image fusion methods with respect to the input CT image (A) and the MRI (B) image.
6 is a diagram for explaining an example of a method for implementing an image fusion system according to an embodiment of the present invention.

이하에서는 첨부된 도면들을 참조하여 본 발명에 대해서 자세히 설명한다. 이때, 각각의 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타낸다. 또한, 이미 공지된 기능 및/또는 구성에 대한 상세한 설명은 생략한다. 이하에 개시된 내용은, 다양한 실시 예에 따른 동작을 이해하는데 필요한 부분을 중점적으로 설명하며, 그 설명의 요지를 흐릴 수 있는 요소들에 대한 설명은 생략한다. 또한 도면의 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시될 수 있다. 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니며, 따라서 각각의 도면에 그려진 구성요소들의 상대적인 크기나 간격에 의해 여기에 기재되는 내용들이 제한되는 것은 아니다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In this case, the same components in each drawing are denoted by the same reference numerals as much as possible. In addition, detailed descriptions of already known functions and/or configurations will be omitted. The content disclosed below will focus on parts necessary to understand operations according to various embodiments, and descriptions of elements that may obscure the gist of the description will be omitted. Also, some components in the drawings may be exaggerated, omitted, or schematically illustrated. The size of each component does not fully reflect the actual size, so the contents described herein are not limited by the relative size or spacing of the components drawn in each drawing.

본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시 예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다. In describing the embodiments of the present invention, if it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. And, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification. The terminology used in the detailed description is for the purpose of describing embodiments of the present invention only, and should not be limiting in any way. Unless explicitly used otherwise, expressions in the singular include the meaning of the plural. In this description, expressions such as “comprising” or “comprising” are intended to indicate certain features, numbers, steps, acts, elements, some or a combination thereof, one or more other than those described. It should not be construed to exclude the presence or possibility of other features, numbers, steps, acts, elements, or any part or combination thereof.

또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되는 것은 아니며, 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In addition, terms such as first, second, etc. may be used to describe various components, but the components are not limited by the terms, and the terms are for the purpose of distinguishing one component from other components. is used only as

최근에, 에지 보존 필터가 영상 융합에 성공적으로 사용되었다. Li 등은 영상을 융합하고 향상된 성능을 달성하기 위해 유도 필터 GF(guided filter)를 사용했다. Zhou 등은 가우시안 필터와 양방향 필터를 결합하여 하이브리드 멀티 스케일 분해 (Hybrid-MSD) 융합 방법을 제안했지만 이 융합 방법은 의료 영상에는 적합하지 않다. Jian 등은 다중 모드 의료 영상을 융합하고 롤링 가이던스 필터 RGF(rolling guidance filter)를 적용하여 객관적인 좋은 성능을 획득했다. 그러나, RGF에 의해 얻어진 융합 영상은 많은 잔상을 유발할 수 있다. 최근에 Ma 등은 영상 전사를 최소화 문제로 공식화한 GTF(radient transfer fusion)라고 하는 새로운 영상 융합 방법을 제시했다. 그러나, GTF 방법은 적외선 및 가시적 영상 융합에만 사용할 수 있으며 다른 장면 영상에서는 강건성이 떨어진다. 최근 몇 년간 SR (Sparse Representation)은 영상 분류 및 영상 인식과 같은 영상 처리 작업에 널리 사용되었다. SR은 Yang과 Li의 영상 융합에 처음 도입되었다. 여기서, 원본 영상은 SR 도메인으로 변환되고 희소 벡터로 표현되고, 최대 L1 표준이 융합 규칙으로 선택되며, 최종 융합 영상은 융합 희소 벡터에 역 희소 변환을 구현함으로써 재구성된다. 상기 SR 기반 융합 방법의 단점을 극복하기 위해 Liu 등은 영상을 융합하는 적응형 희소 표현 (ASR) 모델을 제안했다.Recently, edge-preserving filters have been successfully used for image fusion. Li et al. used a guided filter (GF) to fuse images and achieve improved performance. Zhou et al. proposed a hybrid multi-scale decomposition (Hybrid-MSD) fusion method by combining a Gaussian filter and a bidirectional filter, but this fusion method is not suitable for medical imaging. Jian et al. obtained objective good performance by fusing multimodal medical images and applying a rolling guidance filter (RGF). However, fusion images obtained by RGF can cause many afterimages. Recently, Ma et al. proposed a new image fusion method called radiant transfer fusion (GTF), which formulated image transcription as a minimization problem. However, the GTF method can only be used for fusion of infrared and visible images and is not robust to other scene images. In recent years, sparse representation (SR) has been widely used for image processing tasks such as image classification and image recognition. SR was first introduced in the image fusion of Yang and Li. Here, the original image is transformed into the SR domain and expressed as a sparse vector, the maximum L1 standard is selected as a fusion rule, and the final fusion image is reconstructed by implementing an inverse sparse transform on the fusion sparse vector. To overcome the shortcomings of the SR-based fusion method, Liu et al. proposed an adaptive sparse representation (ASR) model that fuses images.

특히, ASR 융합 방법은 중복성이 높고 완성된 사전(dictionary)을 최종 융합된 영상을 재구성하기 위한 서브 사전 세트로 대체한다. 텍스처 디테일 정보를 잃어버린 SR 및 ASR 융합 방법에서 로컬 패치 방식의 단점을 극복하기 위해 CSR(convolutional sparse representation)이 영상 융합에 적용된다. 그러나 Liu 등의 연구에서 영상 융합 CSR 기반 방법은 만족스러운 융합 성능을 달성하지 못하며 다중 스케일 변환(MST) 구조를 거의 포함하지 않는다. 또한, CSR 기반 방법의 처리 속도는 대규모 영상 공간에서 수행되는 모든 CSR 작업에 대해 만족스럽지 않은 실정이다.In particular, the ASR fusion method has high redundancy and replaces the completed dictionary with a sub-dictionary set for reconstructing the final fused image. Convolutional sparse representation (CSR) is applied to image fusion to overcome the shortcomings of the local patch method in the SR and ASR fusion methods that lose texture detail information. However, the image fusion CSR-based method in the study of Liu et al. does not achieve satisfactory fusion performance and contains few multi-scale transform (MST) structures. In addition, the processing speed of the CSR-based method is not satisfactory for all CSR tasks performed in a large-scale image space.

도 1은 본 발명의 영상 융합 시스템에서의 영상 융합 방법을 설명하기 위한 도면이다. 1 is a view for explaining an image fusion method in the image fusion system of the present invention.

도 1을 참조하면, 본 발명의 영상 융합 시스템은, 서로 다른 두개의 영상(예, CT 영상과 MRI 영상) 각각에 대한 LP 변환을 이용한 영상 분해를 통해 다중 스케일 레벨의 영상들을 포함하는 영상 피라미드를 산출하며(S110), 각 영상의 상기 다중 스케일 레벨의 영상들 중 가장 작은 스케일을 갖는 베이스 레이어(영상)를 서로 융합하여(CSR 코딩을 이용)하여 최종 융합 베이스 레이어 FB를 생성, 및 상기 다중 스케일 레벨의 영상들 중 하나 이상의 디테일 레이어(영상)을 융합(max-absolute 규칙을 이용)하여 최종 융합 디테일 레이어 FD를 생성하고(S120), 최종 융합 베이스 레이어 FB와 최종 융합 디테일 레이어 FD에 대하여, 위의 LP 변환의 역과정을 통해, 영상을 재구성함으로써, 최종 융합 영상(510)을 출력한다(S130).1 , the image fusion system of the present invention generates an image pyramid including images of multiple scale levels through image decomposition using LP transformation for two different images (eg, CT image and MRI image). and (S110), the base layer (image) having the smallest scale among the images of the multi-scale level of each image is fused with each other (using CSR coding) to generate a final fusion base layer F B , and the multiple The final fusion detail layer F D is generated by fusing (using the max-absolute rule) one or more detail layers (images) among the images of the scale level (S120), and the final fusion base layer F B and the final fusion detail layer F D , by reconstructing the image through the reverse process of the above LP transformation, the final fusion image 510 is output (S130).

본 발명은 종래의 방법의 단점을 해결하기 위해 최근 영상 융합 문헌에서 영감을 얻은 바, LP-CSR이라는 LP와 CSR을 결합한 새로운 의료용 영상 융합 방법을 제안하게 되었다. 의료 영상 특징을 추출하기 위해, LP 변환은 CT 및 MRI 소스 영상을 다중 스케일 레벨의 영상들, 즉, 디테일 레이어 및 베이스 레이어로 분해하기 위해 적용된다. 베이스 레이어에 포함된 텍스처 디테일 정보를 완전히 보존하기 위해 CSR 기반 접근법으로 베이스 레이어를 융합한다. 기존 SR에서는 융합된 영상은 픽셀 단위의 '중첩-평균화(overlap-averaging)'전략을 사용하여 재구성된 모든 패치를 전체 영상으로 집계하여 텍스처 디테일 정보를 쉽게 잃어 버린다. CSR은 컨볼루션 형태의 SR로 간주될 수 있으며, 이는 로컬 영상 패치가 아닌 전체 영상의 희소 계수를 얻는다. CSR의 융합 결과는 픽셀 단위의 '중복 평균화' 전략 없이 전체 영상에 대해 최적화되므로 텍스처 디테일 정보를 완벽하게 보존할 수 있다. 따라서 본 발명은 기존 SR 보다 우수한 융합 성능을 얻을 수 있다. 또한, 베이스 레이어는 LP의 최소 스케일(가장작은 가로*세로 픽셀수) 레벨의 영상이므로 CSR의 계산 부담을 완화할 수 있다. 디테일 레이어는 널리 사용되는 'max-absolute' 규칙 주변 픽셀의 계조값과 비교로 적합성 여부가 검증된다. 최종적으로, 융합된 영상은 융합된 디테일 및 베이스 레이어에 대해 역 LP 변환을 수행함으로써 재구성될 수 있다.In order to solve the shortcomings of the conventional method, the present invention was inspired by the recent image fusion literature, and proposed a new medical image fusion method combining LP and CSR called LP-CSR. To extract medical image features, LP transformation is applied to decompose the CT and MRI source images into images of multiple scale levels, ie, a detail layer and a base layer. We fuse the base layer with a CSR-based approach to fully preserve the texture detail information contained in the base layer. In the existing SR, the fused image uses a pixel-by-pixel 'overlap-averaging' strategy to aggregate all reconstructed patches into the entire image, so texture detail information is easily lost. CSR can be considered as a convolutional SR, which obtains sparse coefficients of the entire image rather than a local image patch. The fusion result of CSR is optimized for the entire image without a pixel-by-pixel 'duplicate averaging' strategy, so texture detail information can be perfectly preserved. Therefore, the present invention can obtain better fusion performance than the conventional SR. In addition, since the base layer is an image of the minimum scale (the smallest number of horizontal and vertical pixels) of the LP, it is possible to alleviate the computational burden of the CSR. The suitability of the detail layer is verified by comparing it with the grayscale values of pixels around the widely used 'max-absolute' rule. Finally, the fused image can be reconstructed by performing inverse LP transformation on the fused detail and base layers.

도 2는 본 발명의 영상 융합 시스템에서의 영상 분해에 의한 영상 피라미드 생성 방법을 설명하기 위한 도면이다. 2 is a view for explaining a method of generating an image pyramid by image decomposition in the image fusion system of the present invention.

도 2를 참조하면, 위의 S110 단계에서의 LP 변환을 이용한 영상 분해에 의한 영상 피라미드 생성은, 영상의 고주파 성분을 잃지 않고 유지시키기 위한 과정으로서, 첫번째 단계에서 입력 영상(Iinput)에 대한 가우샨 커널에 의한 컨볼루션(conv)과 다운 샘플링(f)을 이용하여 스케일 레벨별(최하위 1st,..,최상위 Kth) 영상 피라미드를 생성하는 GP(Gaussian pyramid, 가우샨 피라미드) 변환, 및 두번째 단계에서 GP 변환 결과에 대해 가우샨 커널에 의한 컨볼루션(conv)과 업-샘플링(f)을 이용하여 스케일 레벨별(최하위 1st,..,최상위 Kth) 영상 피라미드를 생성하는 LP(Laplacian Pyramid, 라플라시안 피라미드) 변환을 포함한다. Referring to FIG. 2 , the image pyramid generation by image decomposition using the LP transformation in step S110 is a process for maintaining the high frequency component of the image without losing, in the first step, the Gauss for the input image I input . GP (Gaussian pyramid) transformation to generate an image pyramid by scale level (lowest 1 st ,.., highest Kth) using convolution (conv) and downsampling (f ) by Shan kernel, and In the second step, the LP (lowest 1 st ,.., highest Kth) image pyramid is generated by scale level using convolution (conv) and up-sampling (f ) by Gaussian kernel for the GP transformation result. Laplacian Pyramid (Laplacian Pyramid) transformation.

GP 변환은, [수학식1]과 같이 입력 영상(Iinput)을 최하위 1st 레벨의 레이어(영상) G1로 하고, 최상위 Kth 레벨까지 n=2,..,K(K는 2 이상의 자연수)에 대한 각 레벨의 레이어(영상) Gn을 계산한다. Gn의 계산은, [수학식1]과 같이 하위 레벨의 레이어(Gn-1)에 대하여 가우샨 커널에 의한 컨볼루션(conv)을 수행하되 다운 샘플링(f) 처리하여 영상의 스케일(크기)를 1/2로 줄인다(특허출원 KR10-2010-0036388 참조). 예를 들어, 이전 영상 스케일(픽셀 사이즈) m*n은 Gn의 각 레벨에서 0.5m*0.5n으로 축소될 수 있다. In GP transformation, as in [Equation 1], the input image (I input ) is the layer (image) G 1 of the lowest 1st level, and n=2,..,K (K is a natural number greater than or equal to 2) up to the highest Kth level ), calculate the layer (image) G n of each level. Calculation of G n is, as in [Equation 1], convolution (conv) by a Gaussian kernel is performed on a lower-level layer (G n-1 ) as shown in Equation 1, but down-sampling (f ) is performed to scale the image ( size) is reduced by 1/2 (see patent application KR10-2010-0036388). For example, the previous image scale (pixel size) m*n may be reduced to 0.5m*0.5n at each level of G n .

[수학식1][Equation 1]

G1 = Iinput G 1 = I input

Gn = f(conv(Gn-1))G n = f (conv(G n-1 ))

LP 변환은, [수학식2]와 같이, 최상위 Kth 레벨 레이어(영상)부터 최하위 1st 레벨 레이어(영상)까지 n=1,2,..,K(K는 2 이상의 자연수)에 대한 각 레벨의 레이어(영상) LPn을 계산한다. LPn의 계산은, [수학식2]와 같이 상위 레벨의 레이어(Gn+1)에 대하여 가우샨 커널에 의한 컨볼루션(conv)을 수행하되 업-샘플링(f) 처리하여 영상의 스케일(크기)를 2배로 확대(픽셀 사이즈 m*n->2m*2n)시켜 나가는 과정을 포함하여, Gn에서 그 결과의 차이를 차례로 산출한다. LP conversion is, as in [Equation 2], from the highest Kth level layer (image) to the lowest 1st level layer (image) for each level for n = 1,2,..,K (K is a natural number greater than or equal to 2) Calculate the layer (image) LP n of Calculation of LP n is, as in [Equation 2], convolution (conv) by Gaussian kernel is performed on the upper-level layer (G n+1 ), but up-sampling (f ) is processed to scale the image. Including the process of magnifying (size) twice (pixel size m*n->2m*2n), the difference between the results is calculated sequentially in G n .

[수학식2][Equation 2]

LPn = Gn - f conv(Gn+1)LP n = G n - f conv(G n+1 )

도 3은 본 발명의 영상 융합 시스템에서의 LP 변환을 이용한 영상 피라미드의 산출을 설명하기 위한 도면이다. 3 is a diagram for explaining the calculation of an image pyramid using LP transformation in the image fusion system of the present invention.

도 3을 참조하면, 본 발명의 영상 융합 시스템은, 위의 S110 단계에서 LP 변환을 이용한 다중 스케일 레벨의 영상들을 포함하는 영상 피라미드의 산출 수행하되, CT 영상과 MRI 영상에 대하여 각각의 다중 스케일 레벨의 영상들 (IB, ID 1,.., ID i,.., ID K-1) 을 생성한다. 여기서, 최하위 스케일 레벨의 베이스 레이어는 IB, 그외의 다른 스케일 레벨의 디테일 레이어들은 ID i로 표시하였다. Referring to FIG. 3 , the image fusion system of the present invention calculates an image pyramid including images of multiple scale levels using LP transformation in step S110 above, but with respect to a CT image and an MRI image, each of the multiple scale levels Create images (I B , I D 1 ,.., I D i ,.., I D K-1 ) of Here, the base layer of the lowest scale level is denoted by I B , and detail layers of other scale levels are denoted by I D i .

본 발명의 LP 변환을 이용한 영상 분해에 의한 영상 피라미드 생성에 따라, CT 영상에 대한 LP 변환을 이용한 영상 분해에 의한 영상 피라미드 LPC(Iinput, K)는 [수학식3]과 같이 나타낼 수 있고, MRI 영상에 대한 LP 변환을 이용한 영상 분해에 의한 영상 피라미드 LPM(Iinput, K)는 [수학식4]와 같이 나타낼 수 있다. According to the image pyramid creation by image decomposition using LP transformation of the present invention, the image pyramid LP C (I input , K) by image decomposition using LP transformation for CT image can be expressed as [Equation 3], , the image pyramid LP M (I input , K) by image decomposition using LP transformation for the MRI image can be expressed as [Equation 4].

여기서, IB C, IB M은 CT 영상의 베이스 레이어 및 MRI 영상의 베이스 레이어를 각각 나타낸다. 또한, 디테일 레이어들 IDC i, IDM i 는 CT 영상 및 MRI 영상 각각의 디테일 레이어들을 나타낸다. Here, I B C and I B M represent a base layer of a CT image and a base layer of an MRI image, respectively. In addition, the detail layers I DC i and I DM i represent detail layers of the CT image and the MRI image, respectively.

[수학식3][Equation 3]

LPC(Iinput, K) = (IB C, IDC 1,.., IDC i,.., IDC K-1)LP C (I input , K) = (I B C , I DC 1 ,.., I DC i ,.., I DC K-1 )

[수학식4][Equation 4]

LPM(Iinput, K) = (IB M, IDM 1,.., IDM i,.., IDM K-1)LP M (I input , K) = (I B M , I DM 1 ,.., I DM i ,.., I DM K-1 )

도 4는 본 발명의 영상 융합 시스템에서의 베이스 레이어와 디테일 레이어의 영상 융합과 재구성 방법을 설명하기 위한 도면이다. 4 is a view for explaining an image fusion and reconstruction method of a base layer and a detail layer in the image fusion system of the present invention.

도 4를 참조하면, 본 발명의 영상 융합 시스템은 위의 S120 단계에서, 두 영상의 베이스 레이어의 융합과 두 영상의 디테일 레이어의 융합을 수행한다. Referring to FIG. 4 , the image fusion system of the present invention performs fusion of a base layer of two images and fusion of a detail layer of two images in step S120 above.

이를 위하여, 본 발명의 영상 융합 시스템은, 위의 S110 단계에서 수행된 결과에 따라, 베이스 레이어의 융합을 위하여, 먼저, CT 영상에 대해 스케일 레벨별로 분해된 영상 (IB C, IDC 1,.., IDC i,.., IDC K-1) 중 최상위 스케일 레벨의 CT 영상의 베이스 레이어 IB C(421) 및, 이에 대응되는 MRI 영상에 대해 스케일 레벨별로 분해된 영상 (IB M, IDM 1,.., IDM i,.., IDM K-1) 중 최상위 스케일 레벨의 MRI 영상의 베이스 레이어 IB M(422)를 수신한다.To this end, in the image fusion system of the present invention, according to the result performed in step S110 above, for fusion of the base layer, images (I B C , I DC 1 , .., I DC i ,.., I DC K-1 ) of the base layer I B C 421 of the CT image of the highest scale level, and the image (I B M , I DM 1 ,.., I DM i ,.., I DM K-1 ) receive the base layer I B M 422 of the MRI image of the highest scale level.

각 영상에 대해, 다음과 같은 [수학식5]을 만족하도록, 본 발명의 영상 융합 시스템은, CSR 코딩(Wohlberg B, Efficient Algorithms for convolutional sparse representations. IEEE Trans Image Process. 2015;25(1):301-315)을 통해(431, 432), CT 영상과 MRI 영상의 각 픽셀 위치에 대해 CSR 희소 계수 벡터 Cm(CT 영상의 희소 계수 벡터(맵) CC,m, MRI 영상의 희소 계수 벡터(맵) CM,m)를 산출한다(441, 442). 여기서, Cm은 m=1,2,..,M인 해당 차원의 칼럼 벡터이다. For each image, the image fusion system of the present invention is CSR coding (Wohlberg B, Efficient Algorithms for convolutional sparse representations. IEEE Trans Image Process. 2015;25(1)) so that the following [Equation 5] is satisfied: 301-315) through (431, 432), CSR sparse coefficient vector C m (sparse coefficient vector (map) C C,m of CT image, sparse coefficient vector of MRI image) for each pixel position in CT image and MRI image. (map) C M,m ) is calculated (441, 442). Here, C m is a column vector of the corresponding dimension with m=1,2,..,M.

[수학식5][Equation 5]

Figure pat00002
Figure pat00002

각 영상의 베이스 레이어의 각 픽셀 위치(x,y) 마다의 m 차원 칼럼 벡터를 나타내는 희소 계수 Cm(CC,m, CM,m)는, [수학식5]를 만족하도록, 미리 학습으로 훈련된 사전(dictionary) 필터들의 세트 dm과 입력되는 각 베이스 레이어 IB(IB C, IB M)의 희소 계수 Cm(CC,m, CM,m)의 콘볼루션 동작(*)을 통해 얻어진다. 여기서, λ는 정규화 파라미터이다. 베이스 레이어들을 융합하기 위한 CSR 코딩 결과는 베이스 레이어들의 텍스쳐 디테일 정보를 유지시킨다. The sparse coefficient C m (C C,m , C M,m ) representing the m-dimensional column vector for each pixel position (x,y) of the base layer of each image is pre-learned so as to satisfy [Equation 5]. Convolution operation of a set of dictionary filters d m trained with *) is obtained through Here, λ is a normalization parameter. The CSR coding result for fusing the base layers maintains the texture detail information of the base layers.

다음에, 본 발명의 영상 융합 시스템은, 각각의 CSR 희소 계수 벡터 Cm(CC,m, CM,m)에 대하여, L1 정규화(L1 Norm)를 통해 희소 표현 융합 방법에 따른 액티비티(activity)(맵) A(x, y)를

Figure pat00003
와 같이 산출하되(C1:M(x,y)은 Cm(x,y)의 m=1,2,..,M인 해당 차원 칼럼 벡터의 원소값들), [수학식6]과 같이 소정의 픽셀윈도우 r을 적용해 평균값 /A(x,y)(CC,m에 대한 /AC(x,y), CM,m에 대한 /AM(x,y))를 산출함으로써, 서로 다른 영상의 융합에 의한 부적합성을 해소할 수 있도록 한다(450). 윈도우 r이 커지면 영상의 융합에 의한 적합도가 떨어지므로 적절한 값이 선택될 수 있다(예, r=3).Next, the image fusion system of the present invention, for each CSR sparse coefficient vector C m (C C,m , C M,m ), through L1 normalization (L1 Norm), the activity according to the sparse expression fusion method )(map) A(x, y)
Figure pat00003
(C 1:M (x,y) is the element values of the corresponding dimension column vector where m=1,2,..,M of C m (x,y)), [Equation 6] and Similarly, the average value /A(x,y) (/A C (x,y) for C C ,m, /A M (x,y) for C M,m ) is calculated by applying a predetermined pixel window r By doing so, incompatibility due to the fusion of different images can be resolved ( 450 ). As the window r increases, the fit due to image fusion decreases, so an appropriate value may be selected (eg, r=3).

[수학식6][Equation 6]

Figure pat00004
Figure pat00004

다음에 본 발명의 영상 융합 시스템은, CC,m에 대한 /AC(x,y), CM,m에 대한 /AM(x,y)를 이용하여 [수학식7]과 같이 융합 희소 표현 CF:1:M(x,y)을 산출한다(460). 즉, 각각의 픽셀 위치(x,y)에서, CT 영상의 액티비티 /AC(x,y)와 MRI 영상의 액티비티 /AM(x,y) 중 큰쪽의 희소계수를 선택하는 방법으로 융합 희소 표현 CF:1:M(x,y)의 원소값들을 산출한다. CC,1:M(x,y)은 CC,m(x,y)의 m=1부터 M 차원 칼럼 벡터의 원소값들, CM,1:M(x,y)은 CM,m(x,y)의 m=1부터 M 차원 칼럼 벡터의 원소값들이다.Next, the image fusion system of the present invention is fused as in [Equation 7] using /A C (x,y) for C C ,m and /A M (x,y) for C M,m Yields the sparse expression C F:1:M (x,y) (460). In other words, at each pixel position (x,y), the fusion sparseness coefficient is selected by selecting the larger of the CT image activity /A C (x,y) and the MRI image activity /A M (x,y). Returns the element values of the expression C F:1:M (x,y). C C,1:M (x,y) is the element values of the M-dimensional column vector from m=1 of C C,m (x,y), C M,1:M (x,y) is C M, These are the element values of the M-dimensional column vector from m=1 of m (x,y).

[수학식7][Equation 7]

Figure pat00005
Figure pat00005

본 발명의 영상 융합 시스템은, [수학식8]과 같이, 위의 CF:1:M(x,y)의 원소값들로 이루어지는 융합 희소 표현(CF,M)과, 미리 학습으로 훈련된 사전 필터들의 세트 dm(461)에 대한, 콘볼루션 동작(*)을 통해, 최종 융합 베이스 레이어 FB를 획득한다(470).The image fusion system of the present invention is trained by pre-learning and a fusion sparse expression (C F,M ) consisting of element values of C F:1:M (x,y) above, as in [Equation 8]. A final fusion base layer F B is obtained (470) through a convolution operation (*) for the set d m (461) of the pre-filters.

[수학식8][Equation 8]

Figure pat00006
Figure pat00006

또한, 본 발명의 영상 융합 시스템은, 위의 S110 단계에서 수행된 결과에 따라, 디테일 레이어의 융합을 위하여, CT 영상에 대해 스케일 레벨별로 분해된 영상 (IB C, IDC 1,.., IDC i,.., IDC K-1) 중 디테일 레이어들 IDC i(481), 및 이에 대응되는 MRI 영상에 대해 스케일 레벨별로 분해된 영상 (IB M, IDM 1,.., IDM i,.., IDM K-1) 중 디테일 레이어들 IDM i(482)들을 수신한다.In addition, in the image fusion system of the present invention, images (I B C , I DC 1 ,..., I DC i ,.., I DC K-1 ) of the detail layers I DC i (481), and the image (I B M , I DM 1 ,.., I DM i , .., I DM K-1 ) of detail layers I DM i 482 are received.

또한, 본 발명의 영상 융합 시스템은, CT와 MRI 영상 각각의 서로 다른 스케일의 디테일 레이어들 (481, 482) ID i 을 서로 동일한 스케일 레벨을 대응시켜 처리하되, 서로 동일한 스케일 레벨의 디테일 레이어에 대해 'max-absolute' 규칙에 따라, 대응되는 픽셀 위치(x, y)의 양측 계조값의 절대값 중 큰 값을 선택하여(490) 각 픽셀 위치(x, y)의 계조값으로 결정해 최종 융합 디테일 레이어 FD를 출력한다(500). In addition, the image fusion system of the present invention processes the detail layers 481 and 482 I D i of different scales of the CT and MRI images by matching the same scale level with each other, but in the detail layer of the same scale level. According to the 'max-absolute' rule, the largest value among the absolute values of the gray scale values on both sides of the corresponding pixel position (x, y) is selected (490) and determined as the gray scale value of each pixel position (x, y). A fusion detail layer F D is output (500).

이때, 본 발명의 영상 융합 시스템은 각 스케일 레벨에서 서로 다른 영상의 융합에 따른 적합성을 검증하기 위하여, 상기 결정된 각 픽셀의 계조값이 각각 주변 픽셀 위치들의 계조값과 비슷한 값을 갖는 지 여부를 확인할 수 있다. 본 발명의 영상 융합 시스템은 적합성 검증 알고리즘에 따라 상기 결정된 각 픽셀의 계조값이 인접한 하나 이상(상하좌우)의 픽셀의 계조값과 소정의 범위 내의 차이라면 해당 스케일 레벨에서의 최종 융합 디테일 레이어들로서 결정하여 출력할 수 있다. 이때 적합하지 않은 경우 사용자 인터페이스를 통해 오류를 표시하여 상기 소정의 범위를 조정하여 수행되도록 할 수 있다.In this case, the image fusion system of the present invention checks whether the determined grayscale value of each pixel has a similar value to the grayscale values of neighboring pixel positions in order to verify suitability according to the fusion of different images at each scale level. can In the image fusion system of the present invention, if the grayscale value of each pixel determined above is different from the grayscale value of one or more adjacent pixels (top, bottom, left, right) within a predetermined range according to the suitability verification algorithm, it is determined as the final fusion detail layers at the corresponding scale level. can be printed out. In this case, if it is not suitable, an error may be displayed through the user interface, and the predetermined range may be adjusted to be performed.

이와 같은 과정을 거쳐, 위의 S130 단계에서, 본 발명의 영상 융합 시스템은, 상기 최종 융합 베이스 레이어 FB와 최종 융합 디테일 레이어 FD에 대하여, 위의 LP 변환의 역과정을 통해, 영상을 재구성함으로써, 최종 융합 영상(510)을 출력할 수 있다. 예를 들어, 다중 스케일 레벨의 영상들을 포함하는 영상 피라미드를 역 LP 변환을 통해 각 레벨의 특징 정보를 반영한 합성 영상이 되도록 영상을 재구성한, 최종 융합 영상을 최종 융합 영상(510)을 출력할 수 있다. 즉, CT 및 MRI 영상들의 상호 보완 정보가 취해진 고해상도 최종 융합 영상(510)을 제공하여, CT 영상에 의한 뼈 및 임플란트와 같은 조밀한 기관 및 조직에 대한 정보, 및 MRI 영상에 의한 연조직에 대한 정보가, 융합된 고해상도 최종 융합 영상(510)을 제공할 수 있다.Through this process, in step S130 above, the image fusion system of the present invention reconstructs an image through the reverse process of the above LP transformation with respect to the final fusion base layer F B and the final fusion detail layer F D By doing so, the final fusion image 510 may be output. For example, the final fusion image 510 can be output by reconstructing the image so that the image pyramid including images of multiple scale levels becomes a synthesized image reflecting the characteristic information of each level through inverse LP transformation. have. That is, by providing a high-resolution final fusion image 510 from which complementary information of CT and MRI images is taken, information on dense organs and tissues such as bones and implants by CT image, and information on soft tissue by MRI image It is possible to provide a fused, high-resolution final fusion image 510 .

도 5는 입력 CT 영상(A)과 MRI(B) 영상에 대하여, 본 발명의 영상 융합 방법의 결과(J)와 다른 종래의 영상 융합 방법의 결과들(C~I)에 대한 예시를 나타낸다. 5 shows examples of the results (J) of the image fusion method of the present invention and the results (C ~ I) of the other conventional image fusion methods with respect to the input CT image (A) and the MRI (B) image.

도 5를 참조하면, 본 발명의 영상 융합 방법의 결과(J)가, CT 영상(A)과 MRI(B) 영상을 융합하여 조밀한 기관 및 조직에 대한 정보, 및 연조직에 대한 정보가 융합된 고해상도 최종 융합 영상을 제공할 수 있음을 확인하였다. 본 발명의 영상 융합 방법의 결과(J)는, 다른 종래의 영상 융합 방법의 결과들(C~I)과 비교하여, 조밀한 기관 및 조직에 대한 정보 및 연조직에 대한 정보를 융합하여 더욱 선명하게 제공할 수 있음을 알 수 있었다.Referring to FIG. 5 , the result (J) of the image fusion method of the present invention is obtained by fusion of CT image (A) and MRI (B) image to converge information on dense organs and tissues, and information on soft tissue. It was confirmed that high-resolution final fusion images can be provided. The result (J) of the image fusion method of the present invention is more clear by fusion of information on dense organs and tissues and information on soft tissues, compared with results (C ~ I) of other conventional image fusion methods. was found to be able to provide.

도 6은 본 발명의 일 실시예에 따른 영상 융합 시스템의 구현 방법의 일례를 설명하기 위한 도면이다.6 is a diagram for explaining an example of a method for implementing an image fusion system according to an embodiment of the present invention.

위와 같은 본 발명의 일 실시예에 따른 영상 융합 처리를 위한 영상 융합 시스템은, 하드웨어, 소프트웨어, 또는 이들의 결합으로 이루어질 수 있다. 예를 들어, 본 발명의 영상 융합 시스템은 위와 같은 기능/단계/과정들을 수행하기 위한 적어도 하나의 프로세서를 갖는 도 5과 같은 컴퓨팅 시스템(1000) 또는 인터넷 상의 서버 형태로 구현될 수 있다. The image fusion system for image fusion processing according to an embodiment of the present invention as described above may be formed of hardware, software, or a combination thereof. For example, the image fusion system of the present invention may be implemented in the form of a computing system 1000 as shown in FIG. 5 having at least one processor for performing the above functions/steps/processes or a server on the Internet.

컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다. 프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory)(1310) 및 RAM(Random Access Memory)(1320)을 포함할 수 있다. The computing system 1000 includes at least one processor 1100 , a memory 1300 , a user interface input device 1400 , a user interface output device 1500 , a storage 1600 connected through a bus 1200 , and a network An interface 1700 may be included. The processor 1100 may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in the memory 1300 and/or the storage 1600 . The memory 1300 and the storage 1600 may include various types of volatile or nonvolatile storage media. For example, the memory 1300 may include a read only memory (ROM) 1310 and a random access memory (RAM) 1320 .

따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같이 컴퓨터 등 장치로 판독 가능한 저장/기록 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보(코드)를 판독할 수 있고 저장 매체에 정보(코드)를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Accordingly, steps of a method or algorithm described in connection with the embodiments disclosed herein may be directly implemented in hardware, a software module executed by the processor 1100 , or a combination of the two. A software module may be a storage/recording medium (i.e., memory 1300 and/or memory 1300) readable by a device, such as a computer, such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, removable disk, CD-ROM. Alternatively, it may reside in storage 1600 . An exemplary storage medium is coupled to the processor 1100 , the processor 1100 capable of reading information (code) from, and writing information (code) to, the storage medium. Alternatively, the storage medium may be integrated with the processor 1100 . The processor and storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and storage medium may reside as separate components within the user terminal.

상술한 바와 같이, 본 발명에 따른 영상 융합 시스템에 따르면, LP-CSR이라는 LP와 CSR을 결합한 새로운 의료용 영상 융합 방법을 통해, 우수한 융합 성능을 얻을 수 있다. LP 변환은 CT 및 MRI 소스 영상을 멀티 스케일 표현, 즉, 디테일 레이어 및 베이스 레이어로 분해하여 영상의 특징을 추출하고, 베이스 레이어에 포함된 텍스처 디테일 정보를 완전히 보존하기 위해 CSR 기반 접근법으로 베이스 레이어를 융합한다. 디테일 레이어는 널리 사용되는'max-absolute' 규칙에 의해 융합되며, 주변 픽셀의 계조값과 비교로 적합성 여부가 검증될 수 있다. 베이스 레이어는 LP의 최소 스케일 영상이므로 CSR의 계산 부담을 완화할 수 있다. As described above, according to the image fusion system according to the present invention, excellent fusion performance can be obtained through a new medical image fusion method combining LP and CSR called LP-CSR. LP transform decomposes the CT and MRI source images into multi-scale representations, i.e., detail layers and base layers to extract features of the image, and converts the base layer into a CSR-based approach to fully preserve the texture detail information contained in the base layer. fuse The detail layer is fused according to the widely used 'max-absolute' rule, and suitability can be verified by comparing it with the grayscale values of neighboring pixels. Since the base layer is the minimum scale image of the LP, it is possible to alleviate the computational burden of the CSR.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.As described above, in the present invention, specific matters such as specific components, etc., and limited embodiments and drawings have been described, but these are only provided to help a more general understanding of the present invention, and the present invention is not limited to the above embodiments. , various modifications and variations will be possible without departing from the essential characteristics of the present invention by those of ordinary skill in the art to which the present invention pertains. Therefore, the spirit of the present invention should not be limited to the described embodiments, and all technical ideas with equivalent or equivalent modifications to the claims as well as the claims to be described later are included in the scope of the present invention. should be interpreted as

Claims (14)

영상 융합 시스템에서의 영상 융합 방법에 있어서,
두개의 영상에 대해 각 영상의 영상 분해를 통해 다중 스케일 레벨의 영상들을 포함하는 영상 피라미드를 산출하는 영상 변환을 수행하는 단계;
각 영상의 상기 다중 스케일 레벨의 영상들 중 가장 작은 스케일을 갖는 베이스 레이어를 서로 융합하여 최종 융합 베이스 레이어(FB)를 생성하는 단계;
각 영상의 상기 다중 스케일 레벨의 영상들 중 하나 이상의 디테일 레이어를 융합하여 최종 융합 디테일 레이어(FD)를 생성하는 단계; 및
상기 최종 융합 베이스 레이어(FB)와 상기 최종 융합 디테일 레이어(FD)에 대하여, 상기 영상 변환의 역과정을 통해, 영상을 재구성함으로써, 최종 융합 영상을 출력하는 단계
를 포함하는 영상 융합 방법.
An image fusion method in an image fusion system, comprising:
performing image conversion on two images to calculate an image pyramid including images of multiple scale levels through image decomposition of each image;
generating a final fusion base layer (F B ) by fusing a base layer having the smallest scale among the images of the multi-scale level of each image;
generating a final fusion detail layer (F D ) by fusing one or more detail layers among the images of the multi-scale level of each image; and
For the final fusion base layer (F B ) and the final fusion detail layer (F D ), outputting a final fusion image by reconstructing an image through an inverse process of the image transformation
An image fusion method comprising a.
제1항에 있어서,
상기 두개의 영상은 CT 영상과 MRI 영상을 포함하는 영상 융합 방법.
The method of claim 1,
The two images are an image fusion method comprising a CT image and an MRI image.
제1항에 있어서,
상기 영상 피라미드의 산출에서, 각 영상에 대해 가우샨 커널에 의한 컨볼루션과 다운 샘플링을 이용하여 스케일 레벨별 영상 피라미드를 생성하는 가우샨 피라미드 변환, 및 상기 가우샨 피라미드 변환 결과에 대해 가우샨 커널에 의한 컨볼루션과 업-샘플링을 이용하여 스케일 레벨별 영상 피라미드를 생성하는 LP 변환을 수행하는 영상 융합 방법.
The method of claim 1,
In the calculation of the image pyramid, a Gaussian pyramid transformation that generates an image pyramid for each scale level by using convolution and downsampling by the Gaussian kernel for each image, and the Gaussian pyramid transformation result in the Gaussian kernel An image fusion method that performs LP transformation to generate an image pyramid for each scale level using convolution and up-sampling by
제1항에 있어서,
상기 최종 융합 베이스 레이어(FB)를 생성하는 단계는,
각 영상의 서로 대응되는 베이스 레이어에 대해, CSR 코딩 코딩을 통해 제1 영상의 희소 계수 벡터(CC,m)와 제2 영상의 희소 계수 벡터(CM,m)을 산출하는 단계;
각각의 희소 계수 벡터에 대하여 L1 정규화를 통해 각각의 액티비티를 산출하되, 소정의 픽셀 윈도우에서의 제1 액티비티 평균값 및 제2 액티비티 평균값을 각각 산출해, 각각의 픽셀 위치에서 상기 제1 액티비티 평균값과 상기 제2 액티비티 평균값 중 큰쪽에 해당하는 영상 쪽의 희소 계수 벡터를 선택해 융합 희소 표현(CF,M)을 결정하는 단계; 및
상기 융합 희소 표현(CF,M)과, 미리 학습으로 훈련된 사전 필터들의 세트(dm)에 대한, 콘볼루션 동작을 통해, 상기 최종 융합 베이스 레이어(FB)를 생성하는 단계
를 포함하는 영상 융합 방법.
The method of claim 1,
The step of creating the final fusion base layer (F B ),
calculating a sparse coefficient vector (C C,m ) of a first image and a sparse coefficient vector (C M,m ) of a second image through CSR coding coding for the base layers corresponding to each other;
For each sparse coefficient vector, each activity is calculated through L1 normalization, and the first activity average value and the second activity average value in a predetermined pixel window are respectively calculated, and the first activity average value and the first activity average value are calculated at each pixel position. determining a fusion sparse expression (C F,M ) by selecting a sparse coefficient vector on the image side corresponding to the larger of the second activity average values; and
generating the final fusion base layer (F B ) through a convolution operation on the fusion sparse representation (C F,M ) and a set of pre-trained pre-filters (d m )
An image fusion method comprising a.
제4항에 있어서,
상기 CSR 코딩 코딩은, 각각의 희소 계수 벡터가 수학식
Figure pat00007
을 만족하도록 수행되고, Cm은 CC,m 또는 CM,m이고, dm은 미리 학습으로 훈련된 사전 필터, IB 는 각 베이스 레이어, λ는 정규화 파라미터인 영상 융합 방법.
5. The method of claim 4,
In the CSR coding coding, each sparse coefficient vector is
Figure pat00007
An image fusion method performed to satisfy , C m is C C,m or C M,m , d m is a pre-trained pre-filter, I B is each base layer, and λ is a regularization parameter.
제1항에 있어서,
상기 최종 융합 디테일 레이어(FD)를 생성하는 단계에서, 각 영상에서 서로 대응되는 디테일 레이어에 대해, 각 픽셀 위치의 양측 계조값의 절대값 중 큰 값을 선택해 각 픽셀 위치의 계조값으로 결정함으로써, 상기 최종 융합 디테일 레이어(FD)를 생성하는 영상 융합 방법.
The method of claim 1,
In the step of generating the final fusion detail layer (F D ), for the detail layers corresponding to each other in each image, a larger value among the absolute values of both grayscale values of each pixel position is selected and determined as the grayscale value of each pixel position. , an image fusion method for generating the final fusion detail layer (F D ).
제6항에 있어서,
상기 결정된 각 픽셀 위치의 계조값이 인접한 하나 이상의 픽셀의 계조값과 소정의 범위 내의 차이가 되도록 적합성 여부를 검증하여 상기 최종 융합 디테일 레이어(FD)를 출력하는 영상 융합 방법.
7. The method of claim 6,
The image fusion method of outputting the final fusion detail layer (F D ) by verifying whether the determined gradation value of each pixel position has a difference within a predetermined range from the gradation value of one or more adjacent pixels.
영상 융합 시스템에서의 영상 융합 처리 기능을 수행하기 위한, 컴퓨터가 판독 가능한 코드를 기록한 기록 매체에 있어서,
두개의 영상에 대해 각 영상의 영상 분해을 통해 다중 스케일 레벨의 영상들을 포함하는 영상 피라미드를 산출하는 영상 변환을 수행하는 기능;
각 영상의 상기 다중 스케일 레벨의 영상들 중 가장 작은 스케일을 갖는 베이스 레이어를 서로 융합하여 최종 융합 베이스 레이어(FB)를 생성하는 기능;
각 영상의 상기 다중 스케일 레벨의 영상들 중 하나 이상의 디테일 레이어를 융합하여 최종 융합 디테일 레이어(FD)를 생성하는 기능; 및
상기 최종 융합 베이스 레이어(FB)와 상기 최종 융합 디테일 레이어(FD)에 대하여, 상기 영상 변환의 역과정을 통해, 영상을 재구성함으로써, 최종 융합 영상을 출력하는 기능
을 구현하기 위한 기록 매체.
A recording medium recording a computer-readable code for performing an image fusion processing function in an image fusion system, the recording medium comprising:
a function of performing image conversion on two images to calculate an image pyramid including images of multiple scale levels through image decomposition of each image;
a function of generating a final fusion base layer (F B ) by fusing a base layer having the smallest scale among the images of the multi-scale level of each image;
a function of fusing one or more detail layers among the images of the multi-scale level of each image to generate a final fusion detail layer (F D ); and
With respect to the final fusion base layer (F B ) and the final fusion detail layer (F D ), a function of outputting a final fusion image by reconstructing an image through an inverse process of the image transformation
recording medium for implementing the
제8항에 있어서,
상기 두개의 영상은 CT 영상과 MRI 영상을 포함하는 기록 매체.
9. The method of claim 8,
The two images are a recording medium including a CT image and an MRI image.
제8항에 있어서,
상기 영상 피라미드를 산출하는 기능에서, 각 영상에 대해 가우샨 커널에 의한 컨볼루션과 다운 샘플링을 이용하여 스케일 레벨별 영상 피라미드를 생성하는 가우샨 피라미드 변환, 및 상기 가우샨 피라미드 변환 결과에 대해 가우샨 커널에 의한 컨볼루션과 업-샘플링을 이용하여 스케일 레벨별 영상 피라미드를 생성하는 LP 변환을 수행하는 기록 매체.
9. The method of claim 8,
In the function of calculating the image pyramid, a Gaussian pyramid transformation for generating an image pyramid for each scale level by using convolution and downsampling by a Gaussian kernel for each image, and a Gaussian pyramid transformation for the result of the Gaussian pyramid transformation A recording medium that performs LP transformation to generate an image pyramid for each scale level using convolution by a kernel and up-sampling.
제8항에 있어서,
상기 최종 융합 베이스 레이어(FB)를 생성하는 기능은,
각 영상의 서로 대응되는 베이스 레이어에 대해, CSR 코딩 코딩을 통해 제1 영상의 희소 계수 벡터(CC,m)와 제2 영상의 희소 계수 벡터(CM,m)을 산출하는 기능;
각각의 희소 계수 벡터에 대하여 L1 정규화를 통해 각각의 액티비티를 산출하되, 소정의 픽셀 윈도우에서의 제1 액티비티 평균값 및 제2 액티비티 평균값을 각각 산출해, 각각의 픽셀 위치에서 상기 제1 액티비티 평균값과 상기 제2 액티비티 평균값 중 큰쪽에 해당하는 영상 쪽의 희소 계수 벡터를 선택해 융합 희소 표현(CF,M)을 결정하는 기능; 및
상기 융합 희소 표현(CF,M)과, 미리 학습으로 훈련된 사전 필터들의 세트(dm)에 대한, 콘볼루션 동작을 통해, 상기 최종 융합 베이스 레이어(FB)를 생성하는 기능
을 포함하는 기록 매체.
9. The method of claim 8,
The function of creating the final fusion base layer (F B ) is,
a function of calculating a sparse coefficient vector (C C,m ) of a first image and a sparse coefficient vector (C M,m ) of a second image through CSR coding coding for the base layers corresponding to each other;
For each sparse coefficient vector, each activity is calculated through L1 normalization, and the first activity average value and the second activity average value in a predetermined pixel window are respectively calculated, and the first activity average value and the first activity average value are calculated at each pixel position. a function of determining a fusion sparse expression (C F,M ) by selecting a sparse coefficient vector on the image side corresponding to the larger of the second activity average values; and
The function of generating the final fusion base layer (F B ) through a convolution operation on the fusion sparse representation (C F,M ) and a set of pre-trained pre-filters (d m )
A recording medium comprising a.
제11항에 있어서,
상기 CSR 코딩 코딩은, 각각의 희소 계수 벡터가 수학식
Figure pat00008
을 만족하도록 수행되고, Cm은 CC,m 또는 CM,m이고, dm은 미리 학습으로 훈련된 사전 필터, IB 는 각 베이스 레이어,
Figure pat00009
는 정규화 파라미터인 기록 매체.
12. The method of claim 11,
In the CSR coding coding, each sparse coefficient vector is
Figure pat00008
is performed to satisfy , C m is C C,m or C M,m , d m is a pre-filter trained in pre-training, I B is each base layer,
Figure pat00009
is a normalization parameter.
제8항에 있어서,
상기 최종 융합 디테일 레이어(FD)를 생성하는 기능에서, 각 영상에서 서로 대응되는 디테일 레이어에 대해, 각 픽셀 위치의 양측 계조값의 절대값 중 큰 값을 선택해 각 픽셀 위치의 계조값으로 결정함으로써, 상기 최종 융합 디테일 레이어(FD)를 생성하는 기록 매체.
9. The method of claim 8,
In the function of generating the final fusion detail layer (F D ), for the detail layers corresponding to each other in each image, by selecting the larger value among the absolute values of the grayscale values on both sides of each pixel position and determining it as the grayscale value of each pixel position , a recording medium that creates the final fusion detail layer (F D ).
제13항에 있어서,
상기 결정된 각 픽셀 위치의 계조값이 인접한 하나 이상의 픽셀의 계조값과 소정의 범위 내의 차이가 되도록 적합성 여부를 검증하여 상기 최종 융합 디테일 레이어(FD)를 출력하는 기록 매체.

14. The method of claim 13,
and outputting the final fusion detail layer (F D ) by verifying whether the determined gradation value of each pixel position has a difference within a predetermined range from the gradation value of one or more adjacent pixels.

KR1020200158831A 2020-11-24 2020-11-24 Medical Image Fusion System KR102505908B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200158831A KR102505908B1 (en) 2020-11-24 2020-11-24 Medical Image Fusion System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200158831A KR102505908B1 (en) 2020-11-24 2020-11-24 Medical Image Fusion System

Publications (2)

Publication Number Publication Date
KR20220071554A true KR20220071554A (en) 2022-05-31
KR102505908B1 KR102505908B1 (en) 2023-03-06

Family

ID=81786412

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200158831A KR102505908B1 (en) 2020-11-24 2020-11-24 Medical Image Fusion System

Country Status (1)

Country Link
KR (1) KR102505908B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993643A (en) * 2023-09-27 2023-11-03 山东建筑大学 Unmanned aerial vehicle photogrammetry image correction method based on artificial intelligence

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408700A (en) * 2014-11-21 2015-03-11 南京理工大学 Morphology and PCA (principal component analysis) based contourlet fusion method for infrared and visible light images
KR20180017737A (en) * 2016-08-10 2018-02-21 한국과학기술원 Laplacian patch-based image synthesis method and apparatus therefor
KR20200080966A (en) * 2018-12-27 2020-07-07 인천대학교 산학협력단 Multi focused image fusion method
CN111415319A (en) * 2020-03-20 2020-07-14 成科扬 Video image restoration method based on time sequence network prediction and pyramid fusion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104408700A (en) * 2014-11-21 2015-03-11 南京理工大学 Morphology and PCA (principal component analysis) based contourlet fusion method for infrared and visible light images
KR20180017737A (en) * 2016-08-10 2018-02-21 한국과학기술원 Laplacian patch-based image synthesis method and apparatus therefor
KR20200080966A (en) * 2018-12-27 2020-07-07 인천대학교 산학협력단 Multi focused image fusion method
CN111415319A (en) * 2020-03-20 2020-07-14 成科扬 Video image restoration method based on time sequence network prediction and pyramid fusion

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116993643A (en) * 2023-09-27 2023-11-03 山东建筑大学 Unmanned aerial vehicle photogrammetry image correction method based on artificial intelligence
CN116993643B (en) * 2023-09-27 2023-12-12 山东建筑大学 Unmanned aerial vehicle photogrammetry image correction method based on artificial intelligence

Also Published As

Publication number Publication date
KR102505908B1 (en) 2023-03-06

Similar Documents

Publication Publication Date Title
Zhou et al. Handbook of medical image computing and computer assisted intervention
CN110827216B (en) Multi-generator generation countermeasure network learning method for image denoising
US11120582B2 (en) Unified dual-domain network for medical image formation, recovery, and analysis
CN110443867B (en) CT image super-resolution reconstruction method based on generation countermeasure network
CN109523584B (en) Image processing method and device, multi-modality imaging system, storage medium and equipment
Zhao et al. SwinGAN: A dual-domain Swin Transformer-based generative adversarial network for MRI reconstruction
CN115953494B (en) Multi-task high-quality CT image reconstruction method based on low dose and super resolution
CN112435164B (en) Simultaneous super-resolution and denoising method for generating low-dose CT lung image based on multiscale countermeasure network
CN112837244B (en) Low-dose CT image denoising and artifact removing method based on progressive generation confrontation network
Ko et al. Rigid and non-rigid motion artifact reduction in X-ray CT using attention module
US8139891B2 (en) System and method for structure enhancement and noise reduction in medical images
Wolterink et al. Generative adversarial networks and adversarial methods in biomedical image analysis
CN116612174A (en) Three-dimensional reconstruction method and system for soft tissue and computer storage medium
CN108038840B (en) Image processing method and device, image processing equipment and storage medium
CN114863225A (en) Image processing model training method, image processing model generation device, image processing equipment and image processing medium
Manimala et al. Convolutional neural network for sparse reconstruction of MR images interposed with gaussian noise
KR102505908B1 (en) Medical Image Fusion System
CN112991220A (en) Method for correcting image artifacts by convolutional neural network based on multiple constraints
CN112419175A (en) Weight-sharing dual-region generation countermeasure network and image generation method thereof
CN111724452B (en) Low-dose CT image reconstruction method
Bera et al. Axial consistent memory GAN with interslice consistency loss for low dose computed tomography image denoising
Sharif et al. Two-Stage Deep Denoising With Self-guided Noise Attention for Multimodal Medical Images
Zhou et al. GMRE-iUnet: Isomorphic Unet fusion model for PET and CT lung tumor images
Zeyada et al. Resolving Interferometric SAR Speckle Problem Using Adaptive GAN.
You et al. CT Super-resolution GAN Constrained by the Identical, Residual, and Cycle Learning Ensemble

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant