KR102402677B1 - 영상 융합 방법 및 장치 - Google Patents

영상 융합 방법 및 장치 Download PDF

Info

Publication number
KR102402677B1
KR102402677B1 KR1020210077415A KR20210077415A KR102402677B1 KR 102402677 B1 KR102402677 B1 KR 102402677B1 KR 1020210077415 A KR1020210077415 A KR 1020210077415A KR 20210077415 A KR20210077415 A KR 20210077415A KR 102402677 B1 KR102402677 B1 KR 102402677B1
Authority
KR
South Korea
Prior art keywords
image
fusion
original images
frequency
low
Prior art date
Application number
KR1020210077415A
Other languages
English (en)
Inventor
조화걸
Original Assignee
(주)지큐리티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지큐리티 filed Critical (주)지큐리티
Priority to KR1020210077415A priority Critical patent/KR102402677B1/ko
Application granted granted Critical
Publication of KR102402677B1 publication Critical patent/KR102402677B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4084Transform-based scaling, e.g. FFT domain scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Abstract

본 발명은 영상 융합 기술 관한 것으로서, 상세하게는 영상 융합의 효율성을 개선한 다차원 규칙의 다초점 영상 융합 방법 및 장치에 관한 것이다. 본 발명에 따른 영상 융합 방법은 영상 감시 시스템에서 수행되는 영상 융합 방법으로서, 대상이 동일하고 초점이 다른 2개의 원본 영상에 대해 웨이블릿 변환 및 웨이블릿 역변환을 수행하여 상기 2개의 원본 영상에 대해 각각 제1 저주파 영상 및 제1 고주파 영상을 생성하는 원본 영상 변환 단계와, 상기 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하고, 상기 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성하는 영상 융합 단계와, 상기 제2 저주파 영상과 상기 제2 고주파 영상을 합산하여 초기 융합 영상을 생성하는 초기 융합 영상 획득 단계와, 상기 초기 융합 영상과 상기 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출하고, 형태학적 작업을 통해 상기 제1 융합 맵을 최적화하여 제2 융합 맵을 생성하는 영상 최적화 단계와, 상기 제2 융합 맵과 상기 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출하는 영상 재구성 단계를 포함한다.

Description

영상 융합 방법 및 장치{Method and apparatus for image convergence}
본 발명은 영상 융합 기술 관한 것으로서, 상세하게는 영상 융합의 효율성을 증대시킨 다차원 규칙의 다초점 영상 융합 방법 및 장치에 관한 것이다.
가시광선 영상 시스템의 초점 범위는 제한되어 있어서, 동일한 장면에서 모든 대상이 선명하게 표시되기 어렵다. 초점이 잘 잡힌 대상은 비초점 대상보다 더 선명한 디테일을 보여준다.
영상 융합 기술은 영상 처리 및 컴퓨터 기술을 통해 동일한 대상의 영상 데이터를 수집하고 각 채널에서 유리한 데이터를 최대한 추출해 종합하여 고품질의 영상을 제공한다. 즉, 영상 정보의 활용도를 높이고 컴퓨터 해석의 정확도 및 신뢰성을 개선하여 원본 영상의 공간 해상도 및 스펙트럼 해상도를 향상시켜 원본 영상보다 더 풍부한 정보를 가진 고품질의 영상으로 합성시킨다.
종래 다초점 영상 융합 방법은 두 가지 영역으로 분류된다. 첫 번째 방법은 공간 영역에서 원본 영상의 선명한 부분을 융합하는 것이다. 이 방법은 분리 알고리즘을 과도하게 의지하기 때문에 블록 효과가 나타나기 쉽다. 다른 두 번째 방법은 다척도 변환 계수를 이용해 융합하는 것이다. 이 방법은 융합 과정이 길어 처리 시간이 오래 걸릴뿐만 아니라 타깃 대상에 대한 전체적인 표현이 부족하다.
이에 따라 종래 영상 융합 방법은 블록 효과가 발생하고 처리 시간이 오래 걸리기 때문에 영상 융합의 효율성이 낮다는 문제점이 있다.
한국등록특허 제10-0808610호
본 발명의 목적은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 목적은 블록 효과를 방지하여 영상 화질을 높이고 영상 융합 처리 시간을 줄여 영상 융합의 효율성을 증대시키는 것이다.
이를 위해, 본 발명에 따른 영상 융합 방법은 영상 감시 시스템에서 수행되는 영상 융합 방법으로서, 대상이 동일하고 초점이 다른 2개의 원본 영상에 대해 웨이블릿 변환을 수행하여 2개의 원본 영상 각각의 웨이블릿 계수를 산출하는 단계와, 상기 2개의 원본 영상의 웨이블릿 계수에서 저주파 계수 외에 다른 계수를 0으로 설정한 후 웨이블릿 역변환을 수행하여 2개의 원본 영상 각각에 대한 제1 저주파 영상을 생성하는 단계와, 상기 2개의 원본 영상에서 각각 대응하는 제1 저주파 영상을 감산하여 2개의원본 영상 각각에 대한 제1 고주파 영상을 획득하는 단계와, 상기 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하는 단계와, 상기 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성하는 단계와, 상기 제2 저주파 영상과 상기 제2 고주파 영상을 합산하여 초기 융합 영상을 생성하는 단계와, 상기 초기 융합 영상과 상기 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출하는 단계와, 형태학적 작업을 통해 상기 제1 융합 맵을 최적화하여 제2 융합 맵을 생성하는 단계와, 상기 제2 융합 맵과 상기 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출하는 단계를 포함한다.
본 발명에 따른 영상 융합 방법은 영상 감시 시스템에서 수행되는 영상 융합 방법으로서, 대상이 동일하고 초점이 다른 2개의 원본 영상에 대해 웨이블릿 변환 및 웨이블릿 역변환을 수행하여 상기 2개의 원본 영상에 대해 각각 제1 저주파 영상 및 제1 고주파 영상을 생성하는 원본 영상 변환 단계와, 상기 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하고, 상기 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성하는 영상 융합 단계와, 상기 제2 저주파 영상과 상기 제2 고주파 영상을 합산하여 초기 융합 영상을 생성하는 초기 융합 영상 획득 단계와, 상기 초기 융합 영상과 상기 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출하고, 형태학적 작업을 통해 상기 제1 융합 맵을 최적화하여 제2 융합 맵을 생성하는 영상 최적화 단계와, 상기 제2 융합 맵과 상기 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출하는 영상 재구성 단계를 포함한다.
본 발명에 따른 영상 융합 장치는 메모리와, 상기 메모리에 연결되어 상기 메모리에 저장된 컴퓨터 판독 가능한 명령을 실행시키는 프로세서를 포함하여, 상기 프로세서는 대상이 동일하고 초점이 다른 2개의 원본 영상에 대해 웨이블릿 변환을 수행하여 2개의 원본 영상 각각의 웨이블릿 계수를 산출하는 과정과, 상기 2개의 원본 영상의 웨이블릿 계수에서 저주파 계수 외에 다른 계수를 0으로 설정한 후 웨이블릿 역변환을 수행하여 2개의 원본 영상 각각에 대한 제1 저주파 영상을 생성하는 과정과, 상기 2개의 원본 영상에서 각각 대응하는 제1 저주파 영상을 감산하여 2개의원본 영상 각각에 대한 제1 고주파 영상을 획득하는 과정과, 상기 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하는 과정과, 상기 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성하는 과정과, 상기 제2 저주파 영상과 상기 제2 고주파 영상을 합산하여 초기 융합 영상을 생성하는 과정과, 상기 초기 융합 영상과 상기 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출하는 과정과, 형태학적 작업을 통해 상기 제1 융합 맵을 최적화하여 제2 융합 맵을 생성하는 과정과, 상기 제2 융합 맵과 상기 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출하는 과정을 수행하는 것을 특징으로 한다.
상술한 바와 같이, 본 발명에 따른 영상 융합 방법은 블록 효과를 방지할 수 있어서 영상 화질을 향상시킬 수 있고 영상 융합에 걸리는 시간을 줄여 영상 융합의 효율성을 높일 수 있다.
본 발명에 따르면, 제1 융합 맵은 초기 융합 영상과 원본 영상 간의 평균 제곱 오차가 적은 픽셀 즉, 더 선명한 픽셀을 선택하는 과정을 통해 생성되기 때문에 제1 융합 맵을 이용해 재구성한 전초점 영상의 품질이 향상될 수 있다.
또한, 웨이블릿 변환 및 역변환을 이용해 제1 저주파 영상과 제1 고주파 영상을 구하기 때문에 종래 영상 변환의 복잡한 계산 과정을 단순화시킬 수 있어서 영상 융합에 소요되는 시간을 감소시킬 수 있다.
도 1은 본 발명에 따른 영상 융합 방법의 처리 과정을 나타낸 도면.
도 2는 본 발명에 따른 원본 영상 변환 과정을 나타낸 도면.
도 3은 본 발명에 따른 영상 융합 과정을 나타탠 도면.
도 4는 본 발명에 따른 영상 최적화 과정을 나타낸 도면.
도 5는 본 발명에 따른 영상 융합 장치를 나타낸 도면.
도 6은 본 발명에 따른 영상 융합 장치의 내부 구성을 나타낸 도면.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
또한, 명세서에 기재된 "……부", "…… 모듈" 의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
이하, 도면을 참조로 하여 본 발명의 실시예에 따른 영상 융합 방법 및 장치에 대하여 상세히 설명한다.
본 발명에 대한 상세한 설명에 앞서 용어에 대해 설명한다.
라플라스 에너지 합(SML: Sum of Modified Laplacian)은 영상의 가장자리 특성 정보를 반영하고 영상의 초점 특성과 선명도를 적절하게 반영할 수 있다.
평균 제곱 오차(MSE: Means Squared Error)는 추정 값의 오차 정도를 반영하는 수치로서 본 발명에서는 영상에서 선택한 영역의 유사성을 평가하는데 사용될 수 있다.
형태학적 조작((Morphological Image Processing)은 형태에 기반한 영상 처리의 합, 형태학 기초이론에 기반한 형태학 수학으로 Dilate, Erode, Open, Close 등 4가지 조작을 포함한다. 형태학적 영상 처리는 영상에서 원하지 않는 결함을 제거하거나 선명도 향상, 배경 분할, 개체 형태의 정량화 등에 사용된다
웨이블릿 변환(WT: Wavelet Transform)은 단시간 푸리어 변환(STFT: short-time Fourier transform)의 사상을 계승하여 주파수에 따라 창 크기가 변경되지 않는다는 단점을 극복하여 주파수에 따라 변경되는 시간-주파수 창을 제공할 수 있다. 시간(공간) 주파수의 세분화 분석을 통해 신호를 점진적으로 멀티스케일 미세 조정하여 최종적으로 고주파의 시간 세분화, 저주파의 주파수 세분화를 실현하고 시간 주파수 신호 분석의 요구 사항에 자동으로 적응할 수 있기 때문에 신호의 모든 세부 사항에 초점을 맞출 수 있다.
Harr 웨이블릿 변환은 가장 간단한 직교 규격화(orthonormalization) 웨이블릿이며 효율적이며 쉽게 달성할 수 있다. 영상에 대한 웨이블릿 변환을 통해 LL, HL, LH, HH 계수를 얻을 수 있다. N급 웨이블릿 변환 후에 저주파 구성 요소의 크기는 원본 영상 크기의 1/2N이 되어 영상의 저주파 및 고주파 정보를 빠르게 구분할 수 있다. 고주파 정보에는 영상의 대부분의 세부 정보가 포함되어 있다.
공간 영역 융합은 여러 영상의 픽셀 또는 영역의 평균, 분산, 에너지 및 기타 매개변수를 계산하여 설정한 규칙을 사용해 원하는 픽셀을 선택하여 융합하는 것이다. 이 방법의 성능은 선택한 지표 및 규칙에 달려 있다. 영역별 융합은 상대적으로 좋은 효과를 얻을 수 있으나, 영상의 세부 정보 표현은 부족하다. 즉, 블록 효과가 나타나기 쉽고 세부 정보가 차지하는 비율이 적을 경우 무시하기 쉽다.
변환 영역의 융합은 기본적으로 계수 수준의 융합에 속하며 세부 정보에 대한 표현력이 좋지만 시간이 오래 걸리며 큰 프로젝트 응용에는 적합하지 않다. 동시에 영상에서 객체에 대한 전체적인 표현이 부족하고 특히 선명한 부분과 모호한 부분이 겹치는 경우 표현하기 어렵다.
도 1은 본 발명에 따른 영상 융합 방법의 개략적인 처리 과정을 나타낸 것이다. 본 발명에 따른 영상 융합 방법은 영상 감시 시스템을 구성하는 영상 융합 장치에서 수행된다.
도 1을 참조하면, 본 발명에 따른 영상 융합 방법은 원본 영상 변환, 영상 융합, 초기 융합 영상 획득, 영상 최적화, 영상 재구성의 순서대로 수행된다.
원본 영상 변환 단계(S10)
동일한 영상의 객체에 대해 다른 초점을 가진 2개의 원본 영상에 대해 웨이블릿 변환 및 웨이블릿 역변환을 수행하여 2개의 영상 각각에 대해 제1 저주파 영상 및 제1 고주파 영상을 생성한다.
여기서, 대상이 동일하고 초점이 다른 원본 영상은 3개 이상일 수 있으며 그 중에 2개의 원본 영상을 선택하여 원본 영상 변환 단계가 수행된다.
본 발명의 실시예에서는 Haar 웨이블릿 변환을 수행하며, Haar 웨이블릿 변환의 레이어 수는 실제 필요에 따라 설정할 수 있으나, 3층의 Haar 웨이블릿 변환을 수행한다.
영상 융합 단계(S20)
서로 다른 픽셀 융합 규칙을 사용하여, 2개의 원본 영상의 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하고, 2개의 원본 영상의 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성한다.
픽셀 융합 규칙으로 평균치 융합과 라플라스 에너지 합을 사용한다. 평균치 융합 규칙에 따라 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하고, 라플라스 에너지 합 융합 규익에 따라 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성한다.
초기 융합 영상 획득 단계(S30)
영상 융합 단계(S20)에서 생성한 제2 저주파 영상과 제2 고주파 영상을 합산하여 초기 융합 영상을 생성한다.
영상 최적화 단계(S40)
초기 융합 영상과 2개의 원본 영상 간의 평균 제곱 오차를 계산하여 2개의 원본 영상의 평균 제곱 오차를 구한다. 2개의 원본 영상의 평균 제곱 오차에 근거하여 제1 융합 맵을 생성하고, 형태학적 작업을 통해 제1 융합 맵을 최적화하여 제2 융합 맵을 생성한다.
영상 재구성 단계(S50)
2개의 원본 영상과 영상 최적화 단계(S40)에서 생성한 제2 융합 맵을 사용하여 중간 전초점 영상을 생성한다(수학식 9 참조).
판단 단계(S60~S70)
영상 재구성 단계(S50)를 수행한 후에, 융합 처리가 되지 않은 원본 영상이 있는지 여부를 판단한다. 융합 처리가 되지 않은 원본 영상이 있는 경우, 중간 전초점 영상을 새로운 원본 영상으로 지정하고 미처리한 원본 영상 중의 하나를 다른 원본 영상으로 하여 원본 영상 변환 단계(S10)부터 다시 시작한다.
만약 융합 처리가 되지 않은 원본 영상이 없는 경우 중간 전초점 영상은 최종 전초점 영상이 된다.
도 2는 본 발명에 따른 원본 영상 변환 과정을 나타낸 것이다.
도 2를 참조하면, 대상이 동일하고 초점이 다른 2개의 원본 영상에 대해 각각 웨이블릿 변환을 수행하여 2개의 원본 영상 각각에 대한 저주파 계수를 구한다(S101). 본 발명의 실시예에서 Haar 웨이블릿 변환을 사용한다.
2개의 원본 영상이 영상 A와 영상 B인 경우, 웨이블릿 변환을 하게 되면 영상 A의 웨이블릿 계수 LLA, HLA, LHA, HHA가 구해지고, 영상 B의 웨이블릿 계수 LLB, HLB, LHB, HHB가 구해진다. 여기서, 영상 A의 저주파 계수가 LLA이고, 영상 B의 저주파 계수가 LLB이다.
2개의 원본 영상의 저주파 계수 외의 다른 계수를 0으로 설정한 후 웨이블릿 역변환을 수행하여 2개의 원본 영상 각각에 대한 제1 저주파 영상을 생성한다(S102). 영상 A의 제1 저주파 영상은 AL이고, 영상 B의 제1 저주파 영상은 BL이다.
다음, 2개의 원본 영상에서 각각 대응하는 제1 저주파 영상을 감산하여 2개의 원본 영상에 대한 제1 고주파 영상을 획득한다(S103).
수학식 1과 같이, 영상 A에서 영상 A의 제1 저주파 영상을 차감하여 영상 A의 제1 고주파 영상 AH을 구하고, 수학식 2와 같이, 영상 B에서 영상 B의 제1 저주파 영상을 차감하여 영상 B의 제1 고주파 영상 BH을 구한다.
Figure 112021068873267-pat00001
Figure 112021068873267-pat00002
도 3은 본 발명에 따른 영상 융합 과정을 나타낸 것이다.
도 3을 참조하면, 먼저 수학식 3과 같이, 2개의 원본 영상에 대한 제1 저주파 영상을 합산하여 제2 저주파 영상 CL을 생성한다(S201).
Figure 112021068873267-pat00003
다음, 2개의 원본 영상에 대한 제1 고주파 영상의 각 픽셀의 라플라스 에너지 합을 계산한다(S202).
영상 A의 제1 고주파 영상에 대한 라플라스 에너지 합은 수학식 4 및 수학식 5와 같다.
Figure 112021068873267-pat00004
Figure 112021068873267-pat00005
Figure 112021068873267-pat00006
영상 B의 제1 고주파 영상에 대한 라플라스 에너지 합은 수학식 6 및 수학식 7과 같다.
Figure 112021068873267-pat00007
Figure 112021068873267-pat00008
Figure 112021068873267-pat00009
여기서, (i,j)는 영상에서 각 픽셀의 위치이다. N은 영상의 크기로서, 영상의 크기가 N×N인 경우 i, j는 1에서 N까지의 자연수이다. step은 얼마나 많은 픽셀 간격을 두고 계산해야 하는지를 나타낸다.
2개의 원본 영상에 대한 제1 고주파 영상의 각 픽셀의 라플라스 에너지 합이계산되면, 2개의 제1 고주파 영상에서 동일한 위치에 있는 픽셀의 라플라스 에너지 합을 비교하여 더 큰 값을 가진 픽셀을 제2 고주파 영상의 픽셀로 선택한다(S203).
각 픽셀을 비교하여 제2 고주파 영상의 픽셀을 결정하는 과정을 반복하여 제2 고주파 영상을 생성한다(S204). 이처럼 제1 고주파 영상을 융합하여 제2 고주파 영상 CH을 생성한다.
이와 같이 평균치 융합에 기반한 영상 융합 규칙을 사용하여 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하고, 라플라스 에너지 합에 기반한 영상 융합 규칙을 사용하여 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성한다.
도 4는 본 발명에 따른 영상 최적화 과정을 나타낸 것이다.
도 4를 참조하면, 먼저 수학식 8과 같이, 제2 저주파 영상 CL및 제2 고주파 영상 CH을 합산하여 초기 융합 영상 C을 생성한 후, 초기 융합 영상과 2개의 원본 영상 간에 각 픽셀의 평균 제곱 오차를 계산한다(S401).
Figure 112021068873267-pat00010
초기 융합 영상과 2개의 원본 영상 간의 평균 제곱 오차를 계산하여 2개의 원본 영상 각각의 평균 제곱 오차 값을 구한다. 영상 A의 평균제곱오차 값은 MSEA이고, 영상 B의 평균 제곱 오차 값은 MSEB이다.
2개의 원본 영상의 평균 제곱 오차에 근거하여 2개의 원본 영상의 각 픽셀의 평균 제곱 오차를 구한다. 영상 A의 픽셀의 평균 제곱 오차는 MSEA(i,j)이고, 영상 B의 픽셀의 평균 제곱 오차는 MSEB(i,j)이다.
2개의 원본 영상에서 동일한 위치에 있는 각 픽셀의 평균 제곱 오차를 비교하여 더 작은 값을 가진 픽셀을 제1 융합 맵의 픽셀로 선택한다(S402).
MSEA(i,j) ≤ MSEB(i,j)의 경우, 제1 융합 맵 Map(i,j)을 1로 표시하여, 제1 융합 맵 Map(i,j)의 픽셀 값이 영상 A로부터 나온다는 것을 나타낸다.
MSEA(i,j) > MSEB(i,j)의 경우, 제1 융합 맵 Map(i,j)을 0으로 표시하여, 제1 융합 맵 Map(i,j)의 픽셀 값이 영상 B로부터 나온다는 것을 나타낸다.
이와 같이 픽셀 비교 및 선택을 반복하여 픽셀 값이 0 또는 1인 제1 융합 맵을 생성한 후, 평균 제곱 오차가 더 작은 원본 영상의 해당 픽셀 값을 제1 융합 맵의 픽셀 소스로 채택한다(S403). 평균 제곱 오차 값이 작은 픽셀이 더 선명하므로, 제1 융합 맵은 2개의 원본 영상 중에서 더 선명한 픽셀을 취할 수 있다.
이후, 형태학적 작업을 통해 제1 융합 맵 Map을 최적화하여 제2 융합 맵 Map'을 생성한다(S404).
제2 융합 맵이 생성되면, 제2 융합 맵 Map'과 2개의 원본 영상 A, B를 이용해 수학식 9와 같이, 중간 전초점 영상 F'을 생성한다.
Figure 112021068873267-pat00011
본 발명은 웨이블릿 영역에서 저주파 영상 및 고주파 영상을 추출하고, 공간 영역에서 다차원 규칙의 다초점 영상 융합을 진행함으로써, 고품질 영상의 가시화 효과를 향상시킬뿐만 아니라 영상 감시의 성능 개선 및 비용 절감의 효과를 발휘할 수 있다.
도 5는 본 발명에 따른 영상 융합 장치의 개략적인 구성을 나타낸 것이다.
도 5를 참조하면, 영상 융합 장치(100)와 카메라(200)가 영상 감시 시스템을 구성하며, 영상 융합 장치(100)는 카메라(200)로부터 대상이 동일하고 초점이 다른 복수의 원본 영상을 입력받아 영상 융합된 전초점 영상을 출력하게 된다.
메모리(10)에는 영상 융합을 위한 컴퓨터 프로그램이 저장되어 있고, 프로세서(20)는 메모리(10)에 연결되어 컴퓨터 프로그램을 실행함으로써 영상 융합 동작을 수행한다.
구체적으로 프로세서(20)는 카메라(200)에 의해 획득된 대상이 동일하고 초점이 다른 2개의 원본 영상에 대해 웨이블릿 변환을 수행하여 2개의 원본 영상 각각의 웨이블릿 계수를 산출하는 과정과, 상기 2개의 원본 영상의 웨이블릿 계수에서 저주파 계수 외에 다른 계수를 0으로 설정한 후 웨이블릿 역변환을 수행하여 2개의 원본 영상 각각에 대한 제1 저주파 영상을 생성하는 과정과, 상기 2개의 원본 영상에서 각각 대응하는 제1 저주파 영상을 감산하여 2개의원본 영상 각각에 대한 제1 고주파 영상을 획득하는 과정과, 상기 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하는 과정과, 상기 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성하는 과정과, 상기 제2 저주파 영상과 상기 제2 고주파 영상을 합산하여 초기 융합 영상을 생성하는 과정과, 상기 초기 융합 영상과 상기 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출하는 과정과, 형태학적 작업을 통해 상기 제1 융합 맵을 최적화하여 제2 융합 맵을 생성하는 과정과, 상기 제2 융합 맵과 상기 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출하는 과정을 수행한다.
여기서 프로세서(20)는 융합 처리가 안 된 원본 영상이 존재하는 것으로 판단하면 중간 전초점 영상을 새로운 원본 영상으로 지정하여 중간 전초점 영상과 융합 처리가 안 된 원본 영상에 대해 상기 과정들을 반복하여 수행하고, 융합 처리가 안 된 원본 영상이 존재하지 않는 것으로 판단하면 중간 전초점 영상을 최종 전초점 영상으로 지정한다.
프로세서(20)는 제2 고주파 영상을 생성하는 과정을 수행할 때, 2개의 원본 영상 각각에 대한 제1 고주파 영상에 대해 각 픽셀의 라플라스 에너지 합을 계산한 후, 2개의 제1 고주파 영상에서 동일한 위치에 있는 각 픽셀의 라플라스 에너지 합을 비교하여 더 큰 값을 가진 픽셀을 선택하는 작업을 반복 수행하여 제2 고주파 영상을 생성한다.
프로세서(20)는 제1 융합 맵을 산출할 때, 초기 융합 영상과 2개의 원본 영상 간에 각 픽셀의 평균 제곱 오차를 계산한 후, 2개의 원본 영상에서 동일한 위치에 있는 각 픽셀의 평균 제곱 오차를 비교하여 더 작은 값을 가진 픽셀을 선택하는 작업을 반복 수행하여 제1 융합 맵을 생성한다.
도 6은 본 발명에 따른 영상 융합 장치의 내부 구성을 구체적으로 나타낸 것이다. 도 6에 도시된 각 모듈은 소프트웨어(S/W) 또는 하드웨어(H/W)로 구현될 수 있다.
도 6을 참조하면, 먼저 웨이블릿 변환 모듈(101)은 대상이 동일하고 초점이 다른 2개의 원본 영상에 대해 웨이블릿 변환을 수행하여 2개의 원본 영상 각각의 웨이블릿 계수를 산출한다.
제1 저주파 영상 생성 모듈(102)은 2개의 원본 영상의 웨이블릿 계수에서 저주파 계수 외에 다른 계수를 0으로 설정한 후 웨이블릿 역변환을 수행하여 2개의 원본 영상 각각에 대한 제1 저주파 영상을 생성한다.
제2 저주파 영상 획득 모듈(103)은 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성한다. 제2 저주파 영상 획득 모듈(103)은 2개의 원본 영상의 제1 저주파 영상의 평균 값을 구해 제2 저주파 영상을 생성할 수 있다.
제1 고주파 영상 획득 모듈(104)는 2개의 원본 영상에서 각각 대응하는 제1 저주파 영상을 감산하여 2개의 원본 영상 각각에 대한 제1 고주파 영상을 획득한다.
제2 고주파 영상 생성 모듈(105)은 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성한다.
제2 고주파 영상 생성 모듈(105)은 2개의 원본 영상 각각에 대한 제1 고주파 영상에 대해 각 픽셀의 라플라스 에너지 합을 계산한 후, 2개의 제1 고주파 영상에서 동일한 위치에 있는 각 픽셀의 라플라스 에너지 합을 비교하여 더 큰 값을 가진 픽셀을 선택하는 작업을 반복 수행하여 제2 고주파 영상을 생성할 수 있다.
초기 융합 영상 산출 모듈(106)은 제2 저주파 영상과 제2 고주파 영상을 합산하여 초기 융합 영상을 생성한다.
제1 융합 맵 산출 모듈(107)은 초기 융합 영상과 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출한다.
제1 융합 맵 산출 모듈(107)은 초기 융합 영상과 2개의 원본 영상 간에 각 픽셀의 평균 제곱 오차를 계산한 후, 2개의 원본 영상에서 동일한 위치에 있는 각 픽셀의 평균 제곱 오차를 비교하여 더 작은 값을 가진 픽셀을 선택하는 작업을 반복 수행하여 제1 융합 맵을 생성할 수 있다.
제2 융합 맵 생성 모듈(108)은 형태학적 작업을 수행하여 제1 융합 맵을 최적화하여 제2 융합 맵을 생성한다.
영상 재구성 모듈(109)은 제2 융합 맵과 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출한다.
영상 재구성 모듈(109)에서 산출된 중간 전초점 영상은 원본 영상이 모두 융합 처리되었으면 최종 전초점 영상으로 되고, 만약 아직 융합 처리되지 않은 원본 영상이 남아 있으면 새로운 원본 영상으로 지정되어 잔존한 원본 영상과 함께 다시 웨이블릿 변환 모듈(101)로 입력된다.
이상의 설명은 본 발명을 예시적으로 설명한 것에 불과하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술적 사상에서 벗어나지 않는 범위에서 다양한 변형이 가능할 것이다.
따라서 본 발명의 명세서에 개시된 실시예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.
10: 메모리 20: 프로세서
100: 영상 융합 장치 200: 카메라
101: 웨이블릿 변환 모듈 102: 제1 저주파 영상 생성 모듈
103: 제1 저주파 영상 획득 모듈 104: 제1 고주파 영상 획득 모듈
105: 제2 고주파 영상 생성 모듈 106: 초기 융합 영상 산출 모듈
107: 제1 융합 맵 산출 모듈 108: 제2 융합 맵 생성 모듈
109: 영상 재구성 모듈

Claims (10)

  1. 영상 감시 시스템에서 수행되는 영상 융합 방법에 있어서,
    대상이 동일하고 초점이 다른 복수의 원본 영상 중에서 2개의 원본 영상에 대해 웨이블릿 변환을 수행하여 2개의 원본 영상 각각의 웨이블릿 계수를 산출하는 단계와,
    상기 2개의 원본 영상의 웨이블릿 계수에서 저주파 계수 외에 다른 계수를 0으로 설정한 후 웨이블릿 역변환을 수행하여 2개의 원본 영상 각각에 대한 제1 저주파 영상을 생성하는 단계와,
    상기 2개의 원본 영상에서 각각 대응하는 제1 저주파 영상을 감산하여 2개의원본 영상 각각에 대한 제1 고주파 영상을 획득하는 단계와,
    상기 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하는 단계와,
    상기 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성하는 단계와,
    상기 제2 저주파 영상과 상기 제2 고주파 영상을 합산하여 초기 융합 영상을 생성하는 단계와,
    상기 초기 융합 영상과 상기 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출하는 단계와,
    팽창(dilate), 침식(erode), 닫기(close) 및 열기(open)의 4가지 조작을 포함하는 형태학적 작업을 통해 상기 제1 융합 맵을 최적화하여 제2 융합 맵을 생성하는 단계와,
    상기 제2 융합 맵과 상기 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출하는 단계를 포함하는 영상 융합 방법.
  2. 제1항에 있어서,
    융합 처리가 안 된 원본 영상이 존재하는 경우 상기 중간 전초점 영상은 새로운 원본 영상으로 지정되어 상기 중간 전초점 영상과 융합 처리가 안 된 원본 영상에 대해 상기 단계들이 반복되고,
    융합 처리가 안 된 원본 영상이 존재하지 않는 경우 상기 중간 전초점 영상은 최종 전초점 영상으로 지정되는 것을 특징으로 하는 영상 융합 방법.
  3. 제1항에 있어서,
    상기 제2 고주파 영상을 생성하는 단계는 상기 2개의 원본 영상 각각에 대한 제1 고주파 영상에 대해 각 픽셀의 라플라스 에너지 합을 계산하는 과정과,
    상기 2개의 제1 고주파 영상에서 동일한 위치에 있는 각 픽셀의 라플라스 에너지 합을 비교하여 더 큰 값을 가진 픽셀을 선택하는 과정을 반복하여 제2 고주파 영상을 생성하는 과정을 포함하는 것을 특징으로 하는 영상 융합 방법.
  4. 제1항에 있어서,
    상기 제1 융합 맵을 산출하는 단계는 상기 초기 융합 영상과 상기 2개의 원본 영상 간에 각 픽셀의 평균 제곱 오차를 계산하는 과정과,
    상기 2개의 원본 영상에서 동일한 위치에 있는 각 픽셀의 평균 제곱 오차를 비교하여 더 작은 값을 가진 픽셀을 선택하는 과정을 반복하여 제1 융합 맵을 생성하는 과정을 포함하는 것을 특징으로 하는 영상 융합 방법.
  5. 영상 감시 시스템에서 수행되는 영상 융합 방법에 있어서,
    대상이 동일하고 초점이 다른 2개의 원본 영상에 대해 웨이블릿 변환 및 웨이블릿 역변환을 수행하여 상기 2개의 원본 영상에 대해 각각 제1 저주파 영상 및 제1 고주파 영상을 생성하는 원본 영상 변환 단계와,
    상기 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하고, 상기 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성하는 영상 융합 단계와,
    상기 제2 저주파 영상과 상기 제2 고주파 영상을 합산하여 초기 융합 영상을 생성하는 초기 융합 영상 획득 단계와,
    상기 초기 융합 영상과 상기 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출하고, 팽창(dilate), 침식(erode), 닫기(close) 및 열기(open)의 4가지 조작을 포함하는 형태학적 작업을 통해 상기 제1 융합 맵을 최적화하여 제2 융합 맵을 생성하는 영상 최적화 단계와,
    상기 제2 융합 맵과 상기 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출하는 영상 재구성 단계를 포함하는 영상 융합 방법.
  6. 영상 융합 장치에 있어서,
    메모리와,
    상기 메모리에 연결되어 상기 메모리에 저장된 컴퓨터 판독 가능한 명령을 실행시키는 프로세서를 포함하여,
    상기 프로세서는 대상이 동일하고 초점이 다른 복수의 원본 영상에서 2개의 원본 영상에 대해 웨이블릿 변환을 수행하여 2개의 원본 영상 각각의 웨이블릿 계수를 산출하는 과정과,
    상기 2개의 원본 영상의 웨이블릿 계수에서 저주파 계수 외에 다른 계수를 0으로 설정한 후 웨이블릿 역변환을 수행하여 2개의 원본 영상 각각에 대한 제1 저주파 영상을 생성하는 과정과,
    상기 2개의 원본 영상에서 각각 대응하는 제1 저주파 영상을 감산하여 2개의원본 영상 각각에 대한 제1 고주파 영상을 획득하는 과정과,
    상기 2개의 원본 영상 각각에 대한 제1 저주파 영상을 융합하여 제2 저주파 영상을 생성하는 과정과,
    상기 2개의 원본 영상 각각에 대한 제1 고주파 영상을 융합하여 제2 고주파 영상을 생성하는 과정과,
    상기 제2 저주파 영상과 상기 제2 고주파 영상을 합산하여 초기 융합 영상을 생성하는 과정과,
    상기 초기 융합 영상과 상기 2개의 원본 영상 간의 평균 제곱 오차에 근거하여 제1 융합 맵을 산출하는 과정과,
    팽창(dilate), 침식(erode), 닫기(close) 및 열기(open)의 4가지 조작을 포함하는 형태학적 작업을 통해 상기 제1 융합 맵을 최적화하여 제2 융합 맵을 생성하는 과정과,
    상기 제2 융합 맵과 상기 2개의 원본 영상을 이용하여 재구성된 중간 전초점 영상을 산출하는 과정을 수행하는 것을 특징으로 하는 영상 융합 장치.
  7. 제6항에 있어서,
    상기 프로세서는 융합 처리가 안 된 원본 영상이 존재하는 것으로 판단하면 상기 중간 전초점 영상을 새로운 원본 영상으로 지정하여 상기 중간 전초점 영상과 융합 처리가 안 된 원본 영상에 대해 상기 과정들을 반복하여 수행하고, 융합 처리가 안 된 원본 영상이 존재하지 않는 것으로 판단하면 상기 중간 전초점 영상을 최종 전초점 영상으로 지정하는 것을 특징으로 하는 영상 융합 장치.
  8. 제6항에 있어서,
    상기 프로세서는 상기 제2 고주파 영상을 생성하는 과정을 수행할 때, 상기 2개의 원본 영상 각각에 대한 제1 고주파 영상에 대해 각 픽셀의 라플라스 에너지 합을 계산한 후,
    상기 2개의 제1 고주파 영상에서 동일한 위치에 있는 각 픽셀의 라플라스 에너지 합을 비교하여 더 큰 값을 가진 픽셀을 선택하는 작업을 반복 수행하여 제2 고주파 영상을 생성하는 것을 특징으로 하는 영상 융합 장치.
  9. 제6항에 있어서,
    상기 프로세서는 상기 제1 융합 맵을 산출할 때, 상기 초기 융합 영상과 상기 2개의 원본 영상 간에 각 픽셀의 평균 제곱 오차를 계산한 후,
    상기 2개의 원본 영상에서 동일한 위치에 있는 각 픽셀의 평균 제곱 오차를 비교하여 더 작은 값을 가진 픽셀을 선택하는 작업을 반복 수행하여 제1 융합 맵을 생성하는 것을 특징으로 하는 영상 융합 장치.
  10. 제1항 내지 제5항 중의 어느 한 항에 의한 방법을 수행하기 위한 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체.
KR1020210077415A 2021-06-15 2021-06-15 영상 융합 방법 및 장치 KR102402677B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210077415A KR102402677B1 (ko) 2021-06-15 2021-06-15 영상 융합 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210077415A KR102402677B1 (ko) 2021-06-15 2021-06-15 영상 융합 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102402677B1 true KR102402677B1 (ko) 2022-05-26

Family

ID=81809658

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210077415A KR102402677B1 (ko) 2021-06-15 2021-06-15 영상 융합 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102402677B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115393243A (zh) * 2022-10-28 2022-11-25 北京开运联合信息技术集团股份有限公司 多聚焦图像的融合方法、装置和电子设备
KR102511101B1 (ko) * 2022-09-13 2023-03-16 국방과학연구소 웨이블릿 분리 성분의 조합에 의한 3차원 텐서 기반의 레이다의 표적 분류 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
CN116452466A (zh) * 2023-06-14 2023-07-18 荣耀终端有限公司 图像处理方法、装置、设备及计算机可读存储介质
CN117408905A (zh) * 2023-12-08 2024-01-16 四川省肿瘤医院 基于多模态特征提取的医学图像融合方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100808610B1 (ko) 2006-06-13 2008-02-28 중앙대학교 산학협력단 영상융합 기술을 이용한 다중초점 디지털 영상복원 방법 및장치
KR100810137B1 (ko) * 2006-11-01 2008-03-06 엠텍비젼 주식회사 역 이산 웨이블릿 변환을 이용한 이미지 복원 방법 및 장치
KR100812967B1 (ko) * 2006-09-08 2008-03-11 주식회사 대우일렉트로닉스 웨이블릿 변환을 이용한 영상 보간 장치 및 방법
JP2010129077A (ja) * 2008-11-28 2010-06-10 Power Assist Co Ltd ウェーブレット変換を用いた全焦点画像の生成手段
KR20140060592A (ko) * 2011-10-11 2014-05-20 어큐트로직 가부시키가이샤 전체 초점 화상 생성 방법, 그 장치 및 그 프로그램, 및, 피사체 높이 정보 취득 방법, 그 장치 및 그 프로그램
KR20190082261A (ko) * 2017-02-09 2019-07-09 아이아이엑스 인코포레이티드 화상 처리 방법 및 화상 처리 방법을 실행하는 화상 처리 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100808610B1 (ko) 2006-06-13 2008-02-28 중앙대학교 산학협력단 영상융합 기술을 이용한 다중초점 디지털 영상복원 방법 및장치
KR100812967B1 (ko) * 2006-09-08 2008-03-11 주식회사 대우일렉트로닉스 웨이블릿 변환을 이용한 영상 보간 장치 및 방법
KR100810137B1 (ko) * 2006-11-01 2008-03-06 엠텍비젼 주식회사 역 이산 웨이블릿 변환을 이용한 이미지 복원 방법 및 장치
JP2010129077A (ja) * 2008-11-28 2010-06-10 Power Assist Co Ltd ウェーブレット変換を用いた全焦点画像の生成手段
KR20140060592A (ko) * 2011-10-11 2014-05-20 어큐트로직 가부시키가이샤 전체 초점 화상 생성 방법, 그 장치 및 그 프로그램, 및, 피사체 높이 정보 취득 방법, 그 장치 및 그 프로그램
KR20190082261A (ko) * 2017-02-09 2019-07-09 아이아이엑스 인코포레이티드 화상 처리 방법 및 화상 처리 방법을 실행하는 화상 처리 장치

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102511101B1 (ko) * 2022-09-13 2023-03-16 국방과학연구소 웨이블릿 분리 성분의 조합에 의한 3차원 텐서 기반의 레이다의 표적 분류 장치, 방법, 컴퓨터 판독 가능한 기록 매체 및 컴퓨터 프로그램
CN115393243A (zh) * 2022-10-28 2022-11-25 北京开运联合信息技术集团股份有限公司 多聚焦图像的融合方法、装置和电子设备
CN115393243B (zh) * 2022-10-28 2023-02-24 北京开运联合信息技术集团股份有限公司 多聚焦图像的融合方法、装置和电子设备
CN116452466A (zh) * 2023-06-14 2023-07-18 荣耀终端有限公司 图像处理方法、装置、设备及计算机可读存储介质
CN116452466B (zh) * 2023-06-14 2023-10-20 荣耀终端有限公司 图像处理方法、装置、设备及计算机可读存储介质
CN117408905A (zh) * 2023-12-08 2024-01-16 四川省肿瘤医院 基于多模态特征提取的医学图像融合方法
CN117408905B (zh) * 2023-12-08 2024-02-13 四川省肿瘤医院 基于多模态特征提取的医学图像融合方法

Similar Documents

Publication Publication Date Title
KR102402677B1 (ko) 영상 융합 방법 및 장치
Yang et al. Multi-focus image fusion using an effective discrete wavelet transform based algorithm
Liu et al. Multi-focus image fusion based on adaptive dual-channel spiking cortical model in non-subsampled shearlet domain
JP6387646B2 (ja) グレースケール画像の処理方法及び装置
JP6324155B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN106447762B (zh) 基于光场信息的三维重建方法及系统
CN113221925B (zh) 一种基于多尺度图像的目标检测方法及装置
CN110418139B (zh) 一种视频超分辨修复方法、装置、设备及存储介质
CN109447930A (zh) 小波域光场全聚焦图像生成算法
TW202119294A (zh) 處理影像超解析度的裝置及方法
Arulkumar et al. Super resolution and demosaicing based self learning adaptive dictionary image denoising framework
Hasikin et al. Adaptive fuzzy intensity measure enhancement technique for non-uniform illumination and low-contrast images
KR20160038554A (ko) 영상의 영역 별로 선명화하는 고해상도 영상 생성 장치 및 방법
Feng et al. Low-light image enhancement algorithm based on an atmospheric physical model
Panda et al. An improved image interpolation technique using OLA e-spline
Luo et al. Multi-focus image fusion through pixel-wise voting and morphology
CN112508828A (zh) 一种基于稀疏表示和引导滤波的多聚焦图像融合方法
CN112102216B (zh) 自适应权重的全变差图像融合方法
Zhu et al. HDRD-Net: High-resolution detail-recovering image deraining network
Singh et al. A content adaptive method of de-blocking and super-resolution of compressed images
CN113379660B (zh) 一种多维度规则的多焦点图像融合方法及系统
Chilukuri et al. Analysing Of Image Quality Computation Models Through Convolutional Neural Network
Almaghthawi et al. Differential evolution-based approach for tone-mapping of high dynamic range images
Feng et al. Image enhancement under low luminance with strong light weakening
Lin et al. An iterative enhanced super-resolution system with edge-dominated interpolation and adaptive enhancements

Legal Events

Date Code Title Description
GRNT Written decision to grant