KR101743861B1 - 이미지 안정화를 위한 이미지 융합 방법 - Google Patents

이미지 안정화를 위한 이미지 융합 방법 Download PDF

Info

Publication number
KR101743861B1
KR101743861B1 KR1020157034366A KR20157034366A KR101743861B1 KR 101743861 B1 KR101743861 B1 KR 101743861B1 KR 1020157034366 A KR1020157034366 A KR 1020157034366A KR 20157034366 A KR20157034366 A KR 20157034366A KR 101743861 B1 KR101743861 B1 KR 101743861B1
Authority
KR
South Korea
Prior art keywords
pixels
image
scene
layer
group
Prior art date
Application number
KR1020157034366A
Other languages
English (en)
Other versions
KR20160004379A (ko
Inventor
마리우스 티코
지안핑 조우
아니타 나리아니 슐츠
롤프 토프트
폴 후벨
웨이 순
Original Assignee
애플 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 애플 인크. filed Critical 애플 인크.
Publication of KR20160004379A publication Critical patent/KR20160004379A/ko
Application granted granted Critical
Publication of KR101743861B1 publication Critical patent/KR101743861B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/003Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration by non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/46
    • G06K9/6201
    • G06T5/73
    • H04N5/23267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

이미지 안정화 동작을 개선하기 위한 시스템, 방법, 및 컴퓨터 판독 가능 매체를 설명한다. 비-기준 이미지들을 공통적으로 캡쳐된 이미지들의 세트에서 미리 선택된 기준 프레임과 융합하기 위한 새로운 접근법들이 개시된다. 융합 방법은 이웃하고 거의 유사한 픽셀들 간의 급격한 전환을 방지하기 위하여 고스트/비-고스트 픽셀들에 대하여 가중 평균을 사용함으로써 부드러운 전환을 이용할 수 있다. 또한, 고스트/비-고스트 결정은 각각의 픽셀에 대하여 독립적으로 진행되기 보다는 이웃하는 픽셀들의 세트에 기초하여 이루어질 수 있다. 대안적인 접근법은 모든 캡쳐된 이미지들의 다중 해상도 분해를 수행하는 단계, 각각의 계층에서 시간적 융합, 공간-시간적 융합, 또는 이들의 조합을 이용하는 단계, 및 출력 이미지를 생성하기 위하여 상기 상이한 계층들을 조합하는 단계를 포함할 수 있다.

Description

이미지 안정화를 위한 이미지 융합 방법{METHODS OF IMAGE FUSION FOR IMAGE STABILIZATION}
본 개시내용은 일반적으로 디지털 사진 분야에 관한 것이다. 더 구체적으로, 본 개시내용는 스틸 이미지 안정화 기술에 관한 것이지만, 이에 제한되지 않는다. 본 명세서에서 사용된 바와 같이, 이미지 안정화는 이미지 캡쳐 동작 중 모션에 의한 블러링을 감소시키는 기술들의 집합을 지칭한다. 그러한 모션은 카메라, 장면 속 물체, 또는 둘 모두의 움직임으로 인해 발생할 수 있다.
낮은 주변광 조건에서 고화질의 사진을 찍거나, 역동적인 장면(예를 들어, 운동 장면)을 찍는 것은 이미지를 캡쳐하는 동안 카메라 모션 및/또는 장면 속 물체들의 모션으로 인해 쉽지 않다. 이미지의 노이즈를 증폭시키지 않고 모션 블러를 감소시키는 한가지 방법은 장면의 단시간 노출된 이미지들을 여러장 캡쳐하여 융합하는 것이다. 그러한 동작들은 종종 '스틸 이미지 안정화'라고 불린다. 이미지 노출 시간 단축은 모션 블러 결함을 감소시킬 수 있지만, 그것은 이미지가 더 많은 노이즈 및/또는 더 어두워지는 희생을 치르게 된다.
이미지 안정화의 일반적인 해결책은 (1) 다수의 단시간 노출된 이미지의 세트로부터 기준 이미지를 선택하는 단계, (2) 기준 이미지에 대하여 모든 비-기준 이미지들을 전체적으로 등록하는 단계, 및 (3) 모든 캡쳐된 이미지들을 기준 이미지에 융합함으로써 출력 이미지를 합성하는 단계로 구성된다. 기준 이미지가 캡쳐될 때와 같이 출력 이미지가 장면을 나타내는 방식에서는, 비-기준 이미지들을 이용하여 모든 이미지들에 걸쳐 각각의 기준 픽셀에 대한 다수의 관찰 결과들을 평균화/병합함으로써 기준 이미지에서 노이즈를 감소시킨다.
일반적인 해결 방법인, 모든 등록된 비-기준 이미지들을 기준 이미지에 융합하는 출력 이미지 합성은 이미지들을 그대로 평균하는 것이다. 그대로 평균하는 것은 이미지의 정적 영역에 있는 노이즈는 감소시킬 수 있지만, 고스트 결함(ghosting artifact)을 유발할 수도 있다. 고스트 결함은 기준 이미지의 픽셀들 중 일부가 장면 속 움직이는 물체로 인해 비-기준 이미지들의 일부에서 차폐될 때 종종 발생한다. 캡쳐된 이미지들 간에 모션이 있으면, 이미지들을 그대로 평균할 때 심각한 고스트 결함이 최종 출력에 나타날 수 있다. 그러한 고스트 결함 효과의 예가 도 1에 도시된다. 도 1은 전체적으로 등록된 이미지들을 그대로 평균하여 생성된 출력을 도시한다. 도 1에서 볼 수 있듯이, 이미지들을 그대로 평균하면 심각한 고스트 결함이 존재한다.
고스트 결함을 방지하는 한가지 방법은 융합 절차에서 차폐와 노이즈를 구분하고 융합에서 모든 차폐 영역을 배재하는 것이다. 비-기준 픽셀들의 대응하는 기준 픽셀과 비교하여 크게 상이한 값을 갖는 모든 비-기준 픽셀들을 평균에서 배재함으로써 성취될 수 있다. 수용 가능한 차이의 양을 결정하는 한가지 방법은 특정 픽셀의 예상 노이즈에 기초하여 그것을 계산하는 것이다. 수용 임계치가 결정되는 즉시, 비-기준 픽셀들의 대응하는 기준 픽셀들에 비해 이 임계치보다 더 많이 차이나는 비-기준 픽셀들은 평균에서 배재될 수 있다.
그러나, 고스트/비-고스트 픽셀 분류에 대한 세트 임계치는 그 자체로 이미지 결함을 야기할 수 있고, 특히 심각한 노이즈가 있으면, 이것은 이미지 안정화를 위한 전형적인 케이스일 수 있다. 이것은 수용 임계치가 확실한 실패율을 가질 수 있는 통계적 추정치이기 때문이다. 이웃 픽셀들은 쉽게 임계치를 기준으로 어느 한쪽에 해당하므로, 고스트/비-고스트(즉 더 노이즈가 많은/더 깨끗한) 픽셀들 사이에 급격한 전환을 만들 수 있다. 따라서, 현재 사용되는 융합 방법은 개선될 수 있다.
일 실시예에서 캡쳐된 기준 이미지를 캡쳐된 비-기준 이미지와 융합하는 방법이 제공된다. 방법은 처음에 캡쳐된 장면의 제1 이미지를 획득하는 단계 - 이미지는 복수의 픽셀을 가짐 -, 및 2차에 장면의 제2 이미지를 획득하는 단계 - 제1 이미지의 복수의 픽셀은 각각 제2 이미지에서 대응하는 픽셀을 가짐 - 를 포함한다. 이어서 방법은 제1 이미지에서 제1 픽셀을 선택하는 단계 및 제2 이미지에서 제1 픽셀의 대응하는 픽셀에 대한 비이진 가중치 값(non-binary weight value)을 결정하는 단계를 포함할 수 있다. 이어서 제1 픽셀은 제1 융합된 픽셀을 획득하기 위하여 비이진 가중치 값을 이용하여 제2 이미지에서 그것의 대응하는 픽셀과 조합될 수 있다. 프로세스는 융합된 이미지를 획득하기 위하여 제1 이미지의 복수의 다른 픽셀들 각각에 대하여 선택, 결정 및 조합을 반복할 수 있다.
다른 실시예에서, 캡쳐된 기준 이미지를 캡쳐된 비-기준 이미지와 융합하기 위한 대안적인 방법이 제공된다. 이 해결책에 따른 방법은 처음에 캡쳐된 장면의 제1 이미지를 획득하는 단계 - 제1 이미지는 복수의 픽셀을 가짐 -, 및 이어서 2차에 장면의 제2 이미지를 획득하는 단계 - 제1 이미지의 복수의 픽셀은 각각 제2 이미지에서 대응하는 픽셀을 가짐 - 를 포함한다. 이어서 제2 이미지에서 제1 픽셀의 대응하는 픽셀에 대한 비이진 가중치 값이 결정될 수 있다. 이어서 방법은 비이진 가중치 값이 명시된 임계치보다 크면, 제1 픽셀과 그것의 대응하는 제2 이미지의 픽셀을 조합하여 제1 융합된 픽셀을 획득할 수 있다. 비이진 가중치 값이 명시된 임계치보다 작거나 같으면, 제1 픽셀과 그것의 대응하는 제2 이미지의 픽셀은 조합되지 않아도 된다. 이어서 프로세스는 제1 이미지의 복수의 다른 픽셀들 각각에 대하여 반복해서 선택, 결정 및 조합하여 융합된 이미지를 획득할 수 있다.
또 다른 실시예에서, 캡쳐된 기준 이미지는 융합된 이미지를 얻기 위한 대안적인 방법으로 캡쳐된 비-기준 이미지와 융합될 수 있다. 이 해결책은 처음에 캡쳐된 장면의 제1 이미지를 획득하는 단계 - 제1 이미지는 복수의 픽셀을 가짐 -, 및 이어서 2차에 캡쳐된 장면의 제2 이미지를 획득하는 단계 - 제2 이미지는 복수의 픽셀 가지며 제2 이미지의 픽셀은 각각 제1 이미지에서 대응하는 픽셀을 가짐 - 를 포함한다. 이어서 제1 이미지의 다중 계층 피라미드 표현이 생성될 수 있고, 다중 계층 피라미드의 최상위 계층은 제1 이미지의 저해상도 표현을 포함하고 제1 다중 계층 피라미드의 최하위 계층은 제1 이미지의 고해상도 표현을 포함하고, 최상위 계층과 최하위 계층 사이의 계층은 각각 계층의 해상도에 대응하는 제1 이미지의 높은 공간 주파수 표현을 포함한다. 이어서 방법은 제2 이미지의 다중 계층 피라미드 표현을 생성할 수 있고, 제2 다중 계층 피라미드의 최상위 계층은 제2 이미지의 저해상도 표현을 포함하고 제2 다중 계층 피라미드의 최하위 계층은 제2 이미지의 고해상도 표현을 포함하고, 최상위 계층과 최하위 계층 사이의 계층은 각각 제1 이미지의 다중 계층 피라미드 표현의 대응하는 계층을 갖는다. 이어서 방법은 장면의 제1 다중 계층 피라미드 표현의 한 계층에 있는 픽셀들의 그룹마다, 장면의 제2 다중 계층 피라미드 표현의 대응하는 픽셀들의 그룹을 식별하고, 장면의 제1 및 제2 다중 계층 피라미드 표현들의 식별된 픽셀들의 그룹을 융합함으로써, 장면의 제1 및 제2 다중 계층 피라미드 표현의 계층마다 장면의 출력 다중 계층 피라미드 표현의 계층을 생성할 수 있다. 마지막으로, 장면의 출력 다중 계층 피라미드 표현을 조합함으로써, 장면을 나타내는 출력 이미지가 생성되고 메모리에 저장될 수 있다.
또 다른 실시예에서, 캡쳐된 기준 이미지는 융합된 이미지를 얻기 위한 다른 방법으로 캡쳐된 비-기준 이미지와 융합될 수 있다. 이 해결책은 처음에 캡쳐된 장면의 제1 이미지를 획득하는 단계 - 제1 이미지는 복수의 픽셀을 가짐 -, 및 이어서 제1 이미지의 다중 해상도 분해를 수행하여 제1 이미지의 제1 다중 계층 피라미드 표현을 생성하는 단계를 포함한다. 이어서 장면의 제2 이미지가 획득될 수 있고, 제2 이미지는 제1 이미지와 상이한 시간에 캡쳐되고, 제1 이미지의 복수의 픽셀은 각각 제2 이미지에서 대응하는 픽셀을 가진다. 이어서 제2 이미지의 다중 해상도 분해를 수행하여 제2 이미지의 제2 다중 계층 피라미드 표현을 생성할 수 있다. 이어서 방법은 제1 이미지에서 하나 이상의 픽셀을 선택하고, 제1 이미지의 하나 이상의 픽셀에 대응하는 제2 이미지의 하나 이상의 픽셀에 대한 비이진 가중치 값을 결정하고, 비이진 가중치 값이 명시된 임계치보다 크면 제1 이미지의 하나 이상의 픽셀과 그것들의 대응하는 제2 이미지의 하나 이상의 픽셀을 조합하여 제1 융합된 픽셀을 획득하고, 비이진 가중치 값이 명시된 임계치보다 작거나 같으면 제1 이미지의 하나 이상의 픽셀과 그것들의 대응하는 제2 이미지의 하나 이상의 픽셀을 조합하지 않음으로써 장면의 제1 및 제2 다중 계층 피라미드 표현들의 계층마다 장면의 출력 다중 계층 피라미드 표현의 계층을 생성한다. 이어서 프로세스는 반복해서 제1 이미지의 다중 해상도 분해의 계층마다 장면의 출력 다중 계층 피라미드 표현의 계층을 생성할 수 있다. 장면의 출력 다중 계층 피라미드 표현의 상이한 계층들이 조합되어 출력 이미지를 생성할 수 있다.
도 1은 종래 기술에 따른 이미지 융합 동작들의 예를 도시한다.
도 2는 일 실시예에 따른 흐름도 형태의 융합 동작을 도시한다.
도 3은 일 실시예에 따른 전형적인 시간적 융합 동작을 도시한다.
도 4는 일 실시예에 따라 블록 픽셀들을 이용하는 전형적인 시간적 융합 동작을 도시한다.
도 5는 일 실시예에 따른 전형적인 공간-시간적 융합 동작을 도시한다.
도 6은 일 실시예에 따라 흐름도 형태의 다중 해상도 융합 동작을 도시한다.
도 7은 대안적인 실시예에 따른 전형적인 캡쳐된 이미지 시퀀스를 도시한다.
도 8a 및 도 8b는 또 다른 실시예에 따른 도 7의 캡쳐된 이미지 시퀀스를 융합함으로써 생성된 융합된 출력 이미지들을 도시한다.
도 9는 일 실시예에 따른 다중 해상도 분해에 의해 생성되는 전형적인 이미지들을 도시한다.
도 10은 일 실시예에 따라 다중 해상도 융합 동작을 흐름도 형태로 도시한다.
도 11은 일 실시예에 따른 다기능 전자 디바이스를 블록 다이어그램 형태로 도시한다.
본 개시내용은 이미지 안정화 동작을 개선하기 위한 시스템, 방법, 및 컴퓨터 판독 가능 매체에 적용된다. 일 실시예에서, 공통적으로 캡쳐된 이미지들의 셋트에서 등록된 비-기준 이미지들을 기준 이미지와 융합하기 위한 새로운 접근법이 이용될 수 있다. 융합 방법은 이웃하는 거의 유사한 픽셀들 간의 급격한 전환을 방지하기 위하여 고스트/비-고스트 픽셀들에 대하여 가중 평균을 사용함으로써 픽셀들 간의 부드러운 전환을 이용할 수 있다. 대안적인 실시예에서, 고스트/비-고스트 결정은 각각의 픽셀에 대하여 독립적으로 진행되기 보다는 이웃하는 픽셀들의 세트에 기초하여 이루어질 수 있다. 대안적인 해결책은 모든 캡쳐된 이미지들의 다중 해상도 분해를 수행하는 단계, 각 계층에서 가중 평균을 이용 및/또는 이웃하는 픽셀들의 세트를 검사하여 각각의 계층에서 어떤 픽셀들을 융합할지 결정하는 단계, 및 출력 이미지를 생성하기 위하여 상이한 계층들을 조합하는 단계를 포함할 수 있다.
하기의 설명에서, 설명의 목적들을 위해, 다수의 특정 상세 사항들이 본 발명의 개념의 철저한 이해를 제공하기 위해 기재된다. 이러한 설명의 일부로서, 본 개시 내용의 도면들의 일부는 본 발명을 모호하게 하는 것을 피하기 위해 구조들 및 디바이스들을 블록도 형태로 나타낸다. 명료하도록, 실제 구현예의 모든 특징부들이 기술되지 않는다. 게다가, 본 개시 내용에 사용된 표현은 원칙적으로 가독성 및 교육 목적들을 위해 선택되었으며, 본 발명의 요지를 기술하거나 제한하도록 선택되지는 않아서, 그러한 본 발명의 요지를 결정하기 위해 특허청구범위에 대한 의존이 필요할 수 있다. "일 실시예"에 대한 또는 "실시예"에 대한 본 개시 내용에서의 언급은 실시예와 관련되어 설명된 특정한 특징부, 구조, 또는 특성이 본 발명의 적어도 하나의 실시예에 포함된다는 것을 의미하며, "일 실시예" 또는 "실시예"에 대한 다수의 언급들이 반드시 모두 동일한 실시예를 지칭하는 것으로서 이해되어서는 안된다.
(임의의 개발 프로젝트에서처럼) 임의의 실제 구현예의 개발에서, 개발자의 특정 목표들(예컨대, 시스템 관련 및 사업 관련 제약들의 준수)을 달성하기 위해 많은 결정들이 이루어져야 하며, 이들 목적들이 구현예별로 달라질 수 있음이 이해될 것이다. 그러한 개발 노력들은 복잡하고 시간 소모적일 수 있지만, 그럼에도 불구하고 본 발명의 이득을 갖는 이미지 안정화 시스템의 설계 및 구현예에서 당업자를 위해 착수하는 루틴일 것임이 또한 이해될 것이다.
이미지 안정화의 하나의 새로운 접근법은 등록된 비-기준 이미지들과 기준 이미지의 시간적 융합에 의한 출력 이미지를 생성하는 단계를 포함한다. 도 2를 참조하여, 이 접근법에 따른 일 실시예에서, 이미지 시퀀스 R이 수신되면(블록(205)) 이미지 안정화 동작(200)이 시작된다. 통상적인 이미지 안정화 동작의 첫 단계들 중 하나는 기준 이미지로서 시퀀스에서 이미지들 중 하나를 선택하는 것이다(블록(210)). 기준 이미지를 선택하는 것에 대하여 해당 기술분야에서 공지된 다양한 방법들이 많다. 미국 특허 출원 번호 불명의, 본 출원과 동시에 출원되고 발명의 제목이 "Reference Frame Selection for Still Image Stabilization"인 출원이, 본 명세서에 전체적으로 참조로서 포함되고, 그러한 방법을 기술한다. 기준 이미지가 선택된 이후, 시퀀스의 나머지 이미지들은 기준 이미지에 대하여 전체적으로 등록될 수 있다(블록(215)). 기준 이미지에 대한 비-기준 이미지들의 전체 등록의 한 접근법은 발명의 제목이 "Image Registration Methods for Still Image Stabilization"이고, 본 출원과 동시에 출원되고 본 명세서에 전체적으로 참조로서 포함되는 미국 특허 출원에서 논의된다.
비-기준 이미지들이 전체적으로 등록되는 즉시, 이미지 시퀀스에 있는 모든 이미지들의 대응하는 픽셀들은 동일한 공간 좌표(x, y)를 가질 수 있다. 이미지들이 상이한 시간의 순간에 획득되기 때문에, 각각의 픽셀은 시간을 표시하는, 단지 이미지 인덱스(x, y, t)에 대응하는 제3 좌표에 의해 표시될 수 있다. 예를 들어, 픽셀(x, y, 3)은 제3 이미지에서 공간 좌표(x, y)에 위치한 픽셀을 표시할 수 있다.
시간적 융합은 픽셀들의 시간적인 차원을 따라 픽셀들을 융합하는 단계를 포함한다. 이것이 도 3에 도시되고, 라인(305)은 기준 이미지를 표시하고 라인(310, 315, 320)은 각각 이미지 시퀀스에서 하나의 등록된 비-기준 이미지를 표시한다. 단순하게, s로 나타낸, 하나의 공간 좌표만 도시된다. 수평축은 시간 좌표를 나타내고, 그것에 따라 수신된 프레임들이 배치될 수 있다. 픽셀(325)은 비-기준 이미지들의 대응하는 픽셀들과 융합될 필요가 있는 기준 이미지의 픽셀을 나타낸다. 보이는 바와 같이, 시간적 융합에서, 현재 픽셀은 모든 이미지들에서 동일한 공간 좌표를 갖는 픽셀들과 융합될 수 있다. 따라서 도 3에서, 픽셀(325)은 픽셀들(330, 335, 340)과 융합될 수 있다.
기준 이미지 픽셀에 대응하는 비-기준 이미지 픽셀들은 종종 장면에서 움직이는 물체들로 인해 차폐될 수 있다. 위에서 논의한 바와 같이, 그러한 픽셀들을 기준 픽셀과 융합하는 것은 고스트 결함을 야기할 수 있다. 최종 출력 이미지에서 고스트 결함을 방지하기 위하여, 시간적 융합 동작(200)(도 2 다시 참조)은 비-기준 이미지의 픽셀이 고스트인지 아닌지 결정할 수 있다. 두 픽셀 간의 유사성을 결정하기 위하여 비-기준 이미지의 각각의 픽셀을 기준 이미지의 대응하는 픽셀과 비교함으로써(블록(220)) 수행될 수 있다.
그러나, 픽셀 유사성에 기초하여 어렵게 고스트/비-고스트 결정을 내리는 대신에, 동작은 각각의 비-기준 픽셀에 대하여 가중 함수를 계산할 수 있다(블록(225)). 일 실시예에서, 가중 함수는 0과 1 사이의 값을 갖는다. 가중치 1은 비-고스트 픽셀에 해당하고 가중치 0은 고스트 픽셀에 해당할 수 있다.
일 구현예에서, 가중치는 각각의 비-기준 픽셀을 그것에 대응하는 기준 이미지의 픽셀과 비교함으로써 계산될 수 있다. 대안적인 실시예에서, 가중치는 특정 노출 파라미터들에서 픽셀 유사값 및 예상 노이즈 함량에 기초하여 계산될 수 있다. 해당 기술에서 알려진 바와 같이, 많은 카메라들은 특정 노출 파라미터들에서 각각의 픽셀에 대해 알려진 예상 노이즈 함량을 갖는다. 픽셀의 예상 노이즈 함량은 그것의 가중 함수를 계산하는 데 사용될 수 있다. 노이즈 표준편차 S(x, y) 및 픽셀 유사값 D(x, y)에 기초하여 픽셀(x, y)에 대한 가중치 W(x, y)를 계산함으로써 수행될 수 있다. 픽셀 유사값은 픽셀(x, y)과 그것에 대응하는 기준 픽셀 간의 픽셀 차이값일 수 있다. 이미지들이 YUV 색 공간에서 표시되는 것을 가정하면, 모든 픽셀은 3 개의 픽셀 값 차이(Dy, Du, Dv), 및 3 개의 노이즈 표준편차(Sy, Su, Sv)를 가질 수 있다.
사용되는 특정 가중 함수는 달라질 수 있고 이는 설계 선택의 문제이다. 일 실시예에서, 가중 함수는 가우시안 함수일 수 있다. 다른 실시예에서, 가중 함수는 선형적일 수 있다. 식(1)은 예시 가중 함수를 나타낸다.
ωt = ωY * ωU * ωV
(1)
여기서 ωt는 비-기준 픽셀(x, y, t)에 배정된 가중치를 나타내고, ωY는 Y 채널에 대응하는 가중치 성분을 나타내고, ωU는 U 채널에 대한 가중치 성분에 해당하고, ωV는 V 채널에 대한 가중치 성분을 나타낸다. 이 실시예에서, 계산된 가중 함수 ωt는 픽셀(x, y, t)이 비-고스트 픽셀일 확률을 나타낸다. 가중치가 예상 노이즈 함량과 픽셀 값 차이에 기초하여 계산되는 실시예에서, 가중치 파라미터들은 다음 식들에 따라 계산될 수 있다.
Figure 112015117925511-pct00001
(2)
Figure 112015117925511-pct00002
(3)
Figure 112015117925511-pct00003
(4)
여기서(
Figure 112015117925511-pct00004
)는 설계 선호도에 따라 값이 설정될 수 있는 상수들일 수 있다.
픽셀이 고스트인지 여부를 결정하기 위한 대안적인 접근법은 픽셀들의 블록을 서로 비교하는 것이다. 모든 픽셀(x, y)마다, 개별적인 픽셀을 단독으로 분석하는 대신에, (x, y)를 중심으로 하는 픽셀들의 블록을 분석함으로써, 수행될 수 있다. 이미지(400)가 기준 이미지를 나타내고 이미지들(420, 450)이 2 개의 비-기준 이미지를 나타내는 예시가 도 4에 도시된다. 이미지(400)의 픽셀(405)을 대응하는 픽셀들(425, 455)와 융합하기 위하여 가중치가 계산될 필요가 있으면, 픽셀(405)을 중심으로 하는 블록(410)은 블록(430, 460)과 비교될 수 있는데, 각 블록은 각각의 비-기준 이미지에서 대응하는 픽셀을 중심으로 한다. 이어서, 개별적인 픽셀들 간의 차이를 계산하는 대신에, 대응하는 블록들, 예를 들어 블록(410)과 블록(430) 또는 블록(410)과 블록(460) 간의 차이를 계산할 수 있다. 예를 들어, 블록들 간의 MAD(Mean Absolute Difference) 또는 MSD(Mean Square Difference)를 계산함으로써 수행될 수 있다. MAD는 다음 식에 따라 계산될 수 있다.
Figure 112015117925511-pct00005
(5)
여기서
Figure 112015117925511-pct00006
는 고스트/비-고스트로서의 상태가 결정되는, 비-기준 이미지에 위치한 픽셀의 좌표를 나타내고,
Figure 112015117925511-pct00007
는 기준 이미지에 위치한 대응하는 픽셀의 좌표들을 나타낸다. i 및 j는 각각의 픽셀을 둘러싸는 블록에 걸쳐있는 가산 인덱스(summation indice)들이고, '||'는 절대값 연산자를 나타낸다. 픽셀 차이값이 블록에 대하여 식(5)에 따라 계산되면, 계산된 값은 위에서 논의한 바와 같이 가중치 파라미터들(ωY, ωU, ωV)을 계산하는 데 사용된다. 선택되는 블록의 크기는 달라질 수 있고 이는 설계 선택의 문제이다. 일 실시예에서, 블록은 3×3 일 수 있다. 다른 구현예에서, 블록은 5×5 일 수 있다.
도 2를 다시 참조하여, 각각의 비-기준 픽셀에 대하여 가중치가 계산되면, 결과값은 출력 이미지의 대응하는 픽셀에 대한 값을 계산하는 데 사용될 수 있다(블록(230)). 다음 식은 이 계산에 사용될 수 있다.
Figure 112015117925511-pct00008
(6)
여기서
Figure 112015117925511-pct00009
는 최종 출력 픽셀 값을 나타내고,
Figure 112015117925511-pct00010
는 이미지 t의 공간 좌표
Figure 112015117925511-pct00011
에서의 픽셀 값을 나타내고,
Figure 112015117925511-pct00012
는 비-기준 픽셀
Figure 112015117925511-pct00013
에 배정된 가중치이다. 기준 이미지는 t = 0 인 시간 좌표를 갖는 것으로 가정될 수 있다.
세트 임계치 대신에 가중 함수를 사용함으로써, 시간적 융합 동작은 고스트와 비-고스트 픽셀들 사이에 부드러운 전환을 제공하여, 급격한 전환 및 그로 인한 이미지 결함들을 방지할 수 있다. 그러나, 모든 이미지들에서 동일한(x, y) 공간 좌표를 갖는 픽셀들만을 고려하는 것은, 각각의 시퀀스에 대하여 단시간 노출된 이미지들의 수만큼만 양호하게 노이즈 제거를 성취하는 것으로 프로세스를 제한한다. 예를 들어, 4 개의 이미지들만 이미지 시퀀스에서 수신되는 경우, 기준 픽셀은 다른 이미지들에서 최대 3 개의 차폐되지 않은 픽셀들과 평균할 수 있다. 이미지들 중 하나 이상의 픽셀이 고스트인 경우, 융합될 수 있는 픽셀들의 수는 더 줄어든다. 그러한 경우에, 선택할 픽셀들을 더 많이 할수록 최종 출력 이미지의 품질을 현저하게 개선함을 발견하게 되었다. 일 실시예에서, 본 명세서에서 공간-시간적 융합으로 지칭되는 동작을 사용함으로써 수행될 수 있다.
일 실시예에서 공간-시간적 융합은 단지 동일한 공간 좌표를 갖는 픽셀들뿐만 아니라 다른 가능성있는 픽셀들을 융합함으로써 시간적 융합 접근법의 확장을 포함할 수 있다. 따라서, 기준 이미지의 픽셀(x, y)은 비-기준 이미지들에서 상이한 공간 좌표를 갖는 픽셀들과 매칭될 수 있다. 기준 이미지(505)의 픽셀(525)은 비-기준 이미지들(510, 515, 520) 각각의 다중 픽셀들과 융합되는 것이 도 5에 도시된다.
도 6을 참조하면, 본 접근법에 따른 일 실시예에서, 이미지 시퀀스 R이 수신되면(블록(605)), 이미지 안정화 동작(600)이 시작된다. 이어서 기준 이미지가 이미지 시퀀스로부터 선택될 수 있고(블록(610)), 비-기준 이미지들이 선택된 기준 이미지에 대하여 등록될 수 있다(블록(615)). 이어서 비-기준 이미지들의 각각의 픽셀(x, y)은 대응하는 기준 이미지의 픽셀과 비교되어(블록(620)) 각각의 비-기준 픽셀에 대하여 가중 함수를 계산할 수 있다(블록(625)). 가중치가 계산되면, 미리 결정된 임계치와 비교하여 픽셀이 고스트일 가능성을 결정할 수 있다(블록(630)).
미리 결정된 임계치는 가중치에 대하여 임의의 가능한 값들 중에서 선택될 수 있다. 일 실시예에서, 임계치는 가중치의 최대값의 10%일 수 있다. 따라서 가중치 값의 범위가 0과 1 사이이면, 임계치는 0.1 일 수 있다.
일 실시예에서, 픽셀이 고스트를 나타내는지 여부에 대한 결정은 시간적 융합에서와 같은 방식으로, 기준 이미지의 대응하는 픽셀을 중심으로 하는 작은 이미지 블록을, 분석되고 있는 픽셀을 중심으로 하는 유사한 블록과 비교함으로써 이루어질 수 있다.
블록(630)에서 가중치가 임계치보다 큰 것으로 결정되는 경우, 시간적 융합을 사용하여 대응하는 출력 이미지의 픽셀에 대한 값을 계산할 수 있다(블록(635)). 가중치가 임계치보다 작은 경우, 픽셀이 고스트 픽셀일 가능성이 있음을 나타내는데, 그렇다면 동작(600)은 더 나은 융합 후보자를 찾기 위하여 픽셀(x, y)을 포함하는 이미지에서 공간적 탐색을 수행할 수 있다(블록(640)). 일 실시예에서, 공간적 탐색은 픽셀(x, y)에 이웃한 모든 다른 공간적 위치들을 고려함으로써 수행될 수 있다. (x, y) 둘레에 특정하게 이웃하는 공간적인 위치를 갖는 비-기준 이미지들의 모든 픽셀들을 고려함으로써 수행될 수 있다. 대안적인 실시예는 공간 좌표(x, y)에 특정한 이웃에 위치하는 비-기준 픽셀들의 서브셋만을 이용하는 것을 포함한다. 시간적 융합에 대하여 이전에 논의한 바와 같이, 대안적인 접근법은 기준 픽셀을 중심으로 하는 픽셀 블록을 비-기준 이미지들에서 선택한 픽셀 후보군 중 각각을 둘러싸는 대응하는 픽셀 블록과 매칭시키는 것을 포함할 수 있다. 비-기준 픽셀 후보군의 서브셋은 또한 하나의 기준 픽셀에서 다른 기준 픽셀로 변경될 수 있다. 이는 새로운 기준 픽셀을 처리할 때의 비-기준 픽셀 후보군의 패턴이 이전 기준 픽셀을 처리할 때 사용된 패턴과 상이할 수 있다는 것을 의미한다.
탐색에 사용된 접근법에 상관없이, 대응하는 기준 이미지의 픽셀과의 융합을 위한 하나 이상의 픽셀이 각각의 비-기준 이미지에서 발견되면, 선택된 픽셀들의 가중치가 앞에서와 유사한 방법으로 계산될 수 있다(블록(645)). 이어서 계산된 가중치 값을 사용하여 대응하는 출력 이미지의 픽셀에 대한 값을 결정할 수 있다(블록(635)).
이런 방식으로 시간적 융합 및 공간적 융합을 조합하는 것은 효율을 증가시면서, 또한 출력 이미지의 품질을 개선한다는 것을 알게 되었다. 그 이유는 더 나은 픽셀을 탐색하는 것이 오직 픽셀이 고스트일 가능성이 있다고 결정될 때만 수행되기 때문이다. 이는 탐색 동작이 일반적으로 이미지들의 모든 픽셀이 아니라 제한된 갯수의 픽셀들에만 수행되어, 효율성을 현저하게 개선함을 의미한다.
위에서 논의한 시간적인 및 공간-시간적 융합 동작들은 이미지 시퀀스의 모든 이미지들이 상대적으로 선명할 때 잘 작동한다. 그러나, 이미지 시퀀스의 모든 이미지들이 선명할 것이라고 보장할 수는 없다. 기준 이미지가 일반적으로 선명한 이미지인 것이 사실이지만, 비-기준 이미지들 중 일부는 카메라 또는 빠른 물체 모션으로 인해 흐릴 수 있다. 이전 동작에서 설명한 바와 같이 이미지들을 융합함으로써, 임의의 비-기준 이미지에 존재하는 블러가 출력 이미지에서 보이게 될 수 있다. 이것은 도 7 및 도 8에서 예시된다.
도 7은 출력 이미지를 생성하기 위한 본 개시내용에 따라 이미지 안정화 동작에 의해 처리되고 있는 이미지 시퀀스의 4 장의 단시간 노출된 이미지들(705, 710, 715, 720)을 도시한다. 보이는 바와 같이, 이미지 시퀀스의 이미지(705)는 심각한 모션 블러 결함을 보인다. 도 8a는 시간적인 또는 공간-시간적 융합을 이용한 이미지들(705, 710, 715, 720)의 융합의 결과적인 출력 이미지(805)를 도시한다. 보이는 바와 같이, 입력 이미지(705)에 존재하는 블러는 또한 최종 출력 이미지(805)에도 존재한다. 이러한 문제를 막기 위하여, 이미지들을 상이한 주파수 대역에서 상이하게 융합하여 일부 입력 이미지들에 존재하는 블러링 영역들을 효과적으로 제거하는 다중 해상도 융합 전략이 사용될 수 있다.
흐릿한 프레임들로 인해 발생한 열화는 이미지 가장자리 및 높은 주파수 텍스처의 이웃에 주로 나타난다. 반대로, 매끈한 이미지 영역(예를 들어, 낮은 공간 주파수 대역)에서, 흐릿한 프레임들의 분포가 노이즈를 감소시키는 데 유용할 수 있다. 일 실시예에서, 다중 해상도 융합 접근법은, 낮은 공간 주파수 콘텐츠를 융합하는 데에는 흐릿한 프레임들을 사용하고, 이미지 가장자리 또는 높은 주파수 텍스쳐를 융합하는 데에는 그것들을 배제함으로써 이러한 이해를 이용한다.
이러한 접근법을 구현하는 한가지 방법은 입력 이미지 시퀀스의 이미지들을 각각 상이한 공간 주파수 대역으로 분해하고 각각을 그러한 주파수 대역별로 융합할 수 있다. 상이한 주파수 대역의 다중 해상도 이미지 분해는 해당 기술분야에서 공지되어 있고 다양한 방식으로 성취될 수 있다. 하이패스 피라미드 분해 알고리즘(high-pass pyramid decomposition)을 이용하는 하나의 절차가 있을 수 있다. 웨이블렛 분해(wavelet decomposition)를 활용하는 다른 접근법이 있을 수 있다. 다른 대안들 또한 가능하다.
선호하는 실시예에서, 하이패스 분해 알고리즘이 사용될 수 있다. 이 알고리즘은 샘플 밀도(sample density) 및 해상도를 규칙적인 단계로 감소되는 원본 이미지의 사본들의 시퀀스를 생성하여 다수의 중간 계층의 원본 이미지를 생성하는 단계를 포함할 수 있다. 이것을 성취하기 위하여, 이미지는 먼저 로우패스(low-pass) 필터링되고 이어서 미리 결정된 인자에 의해 다운 샘플링되어(down-sampled) 이미지의 다음의 피라미드 계층을 얻을 수 있다. 미리 결정된 인자는 달라질 수 있고 이는 설계 선택의 문제이다. 일 실시예에서, 미리 결정된 인자는 4 개이다. 대안적인 실시예에서, 미리 결정된 인자는 2 개이다. 생성되는 각각의 이미지의 계층의 수 또한 사용되는 디바이스의 요구 및 처리 능력에 따라 달라진다. 일 실시예에서, 계층의 수는 4 개이다. 대안적인 실시예에서, 계층의 수는 3 개이다.
모든 중간 계층들이 이러한 방식으로 생성되면, 각각의 계층은 이전 계층과 동일한 해상도로 업 샘플링 및 로우패스 필터링되고, 이전 계층에서 결과물을 차감하여 각각의 계층에서 해당 해상도에 대응하는 높은 주파수 대역 성분을 얻을 수 있다. 그러나, 최상위 계층의 높은 주파수 대역은 일반적으로 이러한 방식으로 획득될 수 없다는 것을 주의해야 한다. 생성된 피라미드에서, 각각의 계층은 이전 계층보다 작고, 해당 해상도에서 높은 공간 주파수 대역을 포함한다. 피라미드의 최상위 계층은 저해상도 버전의 원본 이미지와 닮았고 낮은 공간 주파수 대역을 포함한다. 3 개의 계층(905, 910, 915)를 포함하는 예시가 도 9에 도시된다. 최상위 계층 이미지(905)는 낮은 주파수 표현의 이미지이다. 계층들은 상위에서 하위로 가면서 점차적으로 해상도/주파수가 더 높아짐을 보인다. 이런 방식으로, 원본 이미지는 상이한 공간 주파수 대역들로 분해될 수 있고, 이러한 대역들은 개별적으로 서로 융합될 수 있다.
다양한 계층이 이미지 시퀀스(기준 이미지 포함)의 이미지 각각에 대하여 생성되면, 도 10에 따라 다중 해상도 융합 동작(1000)이 이미지 시퀀스의 이미지 각각에 대한 모든 계층들을 수신함으로써 시작된다(블록(1005)). 이어서 처리할 최상위 계층 이미지가 선택될 수 있고(블록(1010)) 시간적 융합이 최상위 계층에서 수행될 수 있다. 비-기준 이미지들의 최상위 계층에 있는 각각의 픽셀을 대응하는 기준 이미지의 픽셀들과 비교하고(블록(1015)) 각각의 비-기준 픽셀에 대한 가중 함수를 계산함으로써 수행될 수 있고, 이는 위에서 논의한 바와 같다. 각각의 픽셀에 대하여 가중 함수가 계산된 이후, 픽셀이 고스트인지 결정하기 위하여 가중치가 미리 결정된 임계치와 비교될 수 있다(블록(1025)). 계산된 가중치가 미리 결정된 임계치를 넘는 경우, 비-기준 픽셀은 출력 이미지의 최상위 계층에 있는 대응하는 픽셀에 대한 값을 계산하는 데 사용될 수 있다(블록(1045)).
가중치가 미리 결정된 임계치보다 작은 경우, 동작(1000)은 선택된 픽셀의 이웃에서 공간적 탐색을 수행함으로써 공간-시간적인 기술을 이용하여 더 나은 매칭을 찾을 수 있다(블록(1030)). 이어서 가장 좋은 매칭의 상대적인 위치 또는 좌표는 선택된 픽셀의 해당 필드에 저장될 수 있다(블록(1035)). 해당 필드는 식별된 대응하는 픽셀들의 필드를 지칭한다. 이어서 동작은 최선의 매칭 픽셀에 대한 가중 함수를 계산하고(블록(1040)), 이 값을 이용하여 출력 이미지의 최상위 계층에 있는 대응하는 픽셀에 대한 값을 결정할 수 있다(블록(1045)).
최상위 계층에 있는 모든 픽셀들에 대한 처리가 완료되면, 동작은 블록(1050)으로 이동하여 처리할 다른 계층이 있는지 결정할 수 있다. 모든 계층이 처리된 경우, 값들은 출력 이미지의 모든 계층에 있는 픽셀들에 이용 가능할 수 있다. 이어서 계층들을 합성하거나 조합하여 최종 출력 이미지를 생성할 수 있다(블록(1060)). 최상위 피라미드 계층에서 시작하여 출력 계층을 스케일링 업(즉, 업 샘플링 및 로우패스 필터링)하고 이어서 그것을 그 다음 출력 계층에 추가함으로써 수행될 수 있다. 이 동작은 모든 계층이 조합되고 출력 이미지가 입력 이미지와 동일한 해상도를 가질 때까지 반복될 수 있다. 블록(1050)에서 다른 계층이 남아있음이 결정되는 경우, 현재의 계층의 발견된 최선의 매칭 각각에 대한 해당 필드가 업데이트될 수 있다(블록(1055)). 이는 그에 따라 각각의 계층이 다운 샘플링되는 미리 결정된 인자를 고려하고 다음 계층의 해상도와 매칭하기 위하여 동일한 인자에 의해 해당 필드의 위치 정보를 스케일링 업 함으로써 수행될 수 있다. 이어서 처리할 그 다음 계층이 선택될 수 있고(블록(1065)) 프로세스가 블록(1015)에서 시작하여 반복된다. 그러나, 이 계층에 대하여, 업데이트된 해당 필드는 각각의 기준 픽셀에 대하여 대응하는 픽셀을 발견하기 위하여 어디를 찾아야하는지에 대한 초기 추정치로서 사용될 수 있다. 단계(1005 - 1055)는 모든 계층이 처리될 때까지 반복될 수 있고 최종 출력 이미지가 블록(1060)에 따라 생성된다.
이런 방식으로, 동작(1000)은 모든 피라미드 계층에서 융합을 수행하는데, 최상위 계층(낮은-주파수 대역)에서 시작하고 가장 높은 해상도 계층에서 종료한다. 모든 계층에서, 대응하는 비-기준 픽셀들과 기준 픽셀들 간의 유사성이 고스트 결함을 방지하기 위하여 사용될 수 있다. 피라미드의 최상위 계층에서, 대응하는 픽셀들은 동일한 공간 좌표를 갖는다는 가정이 있을 수 있다. 그러나, 장면에서 움직이는 물체들로 인해, 대응하는 픽셀들이 그 다음 계층에서 동일한 공간 좌표를 갖지 않기 때문에, 모든 비-기준 계층에 대하여 각각의 비-기준 픽셀과 그것의 대응하는 기준 픽셀 사이의 공간적 변위를 저장하는 해당 필드가 결정될 수 있다. 가중치가 특정 임계치보다 낮은 경우 비-기준 픽셀이 고스트일 가능성이 있다고 결정된다. 그러한 경우에, 그것의 공간적인 위치 주위의 국지적인 탐색을 수행하여 기준 픽셀과의 더 나은 매칭을 찾도록 할 수 있다. 이어서 발견된 최선의 매칭은 그것에 연관된 가중치를 이용하여 융합에 사용될 수 있고, 기준 픽셀 좌표에 대한 발견된 최선의 매칭의 공간적 변위는 유지될 수 있다. 통상적으로, 대부분의 장면이 정적이기 때문에 그와 같은 탐색은 작은 비율의 픽셀들에만 필요하다. 프로세스는 필요할 때만 탐색을 수행하기 때문에, 이것은 효율성을 높인다. 탐색은 위에서 논의한 바와 같이 블록 매칭에 의해 수행될 수 있다. 이러한 단계들을 수행함으로써, 접근법(1000)은 논의된 융합 기술 3가지를 모두(시간적인, 공간-시간적인, 그리고 다중 해상도) 활용하여 노이즈 및 블러를 현저하게 감소 또는 제거할 수 있는 효율적 융합 동작을 수행하여 고품질 최종 출력 이미지를 생성한다.
대안적으로, 다중 해상도 융합 접근법은 각각의 계층에서 시간적 융합만을 이용함으로써 수행될 수 있다. 모든 이미지들에서 동일한 공간 좌표를 갖는 이러한 픽셀들만을 이용하여, 각각의 피라미드 계층에서 융합함으로써 수행될 수 있다. 따라서, 각각의 비-기준 계층의 단일 픽셀이 (대응하는 기준 이미지 계층에서) 동일한 공간 좌표를 갖는 대응하는 기준 픽셀과 융합될 수 있다.
대안적인 실시예에서, 공간-시간적 융합의 이점들을 얻기 위하여, 다중 해상도 융합 절차는 각각의 피라미드 계층에서 공간-시간적 융합을 활용할 수 있다. 일 실시예에서, 모든 피라미드 계층마다, 기준 픽셀을 각각의 비-기준 계층의 더 많은 픽셀들과 융합함으로써 수행될 수 있다. 기준 픽셀들과 융합되는 비-기준 픽셀들의 공간 좌표는 기준 픽셀 좌표 둘레의 특정한 이웃에 있을 수 있다.
다른 실시예는 모션 필드를 이용하여 융합을 수행할 수 있다. 피라미드의 최상위 계층에서 시작하여 각각의 비-기준 이미지에 대한 모션 필드를 추정함으로써 성취될 수 있다. 피라미드의 모든 계층에서, 모션 필드는 가장 유사한 기준 픽셀과 비-기준 픽셀을 융합되도록 연관시킬 수 있다. 이어서 모든 기준 픽셀은 모든 비-기준 계층의 단일 픽셀과 융합될 수 있지만, 그것들의 공간 좌표는 계층의 모션 필드에 따라 상이할 수 있다.
기준 픽셀이 임의의 비-기준 계층의 둘 이상의 픽셀과 융합되는 또 다른 실시예가 활용될 수 있다. 비-기준 픽셀들의 공간 좌표는 모션 필드에 의해 제안된 공간 좌표 둘레의 특정한 이웃에 있을 수 있다.
본 명세서에서 사용된 바와 같이, 용어 "카메라"는 디지털 이미지 캡쳐 기능을 포함 또는 내장하는 임의의 전자 디바이스를 지칭한다. 예를 들어, 이것은 단독형 카메라(예를 들어, 디지털 SLR 카메라 및 '포인트 앤드 클릭(point-and-click)' 카메라)뿐만 아니라 카메라 기능이 내장된 다른 전자 디바이스를 포함한다. 후자 유형의 예에는, 이동 전화기, 태블릿 및 노트북 컴퓨터 시스템, 및 디지털 미디어 플레이어 디바이스가 포함되지만, 이로 제한되지 않는다.
도 11을 참조하여, 예시적인 전자 디바이스(1100)의 단순화된 기능 블록 다이어그램이 일 실시예에 따라 도시된다. 전자 디바이스(1100)는 프로세서(1105), 디스플레이(1110), 사용자 인터페이스(1115), 그래픽 하드웨어(1120), 디바이스 센서(1125)(예를 들어, 근접 센서/주변광 센서, 가속도계 및/또는 자이로스코프), 마이크로폰(1130), 오디오 코덱(들)(1135), 스피커(들)(1140), 통신 회로(1145), 디지털 이미지 캡쳐 유닛(1150), 비디오 코덱(들)(1155), 메모리(1160), 저장장치(1165), 및 통신 버스(1170)를 포함할 수 있다. 예를 들어, 전자 디바이스(1100)는 디지털 카메라, 개인용 디지털 어시스턴트(PDA), 개인용 음악 플레이어, 이동 전화기, 서버, 노트북, 랩톱, 데스크톱, 또는 태블릿 컴퓨터일 수 있다. 더 구체적으로, 개시된 기술들은 디바이스(1100)의 일부 또는 모든 컴포넌트들을 포함하는 디바이스 상에서 실행될 수 있다.
프로세서(1105)는 디바이스(1100)에 의해 수행되는 많은 기능들의 동작을 수행 또는 제어하는 데 필요한 명령어들을 실행할 수 있다. 예를 들어, 프로세서(1105)는 디스플레이(1110)를 구동하고 사용자 인터페이스(1115)로부터 사용자 입력을 수신할 수 있다. 사용자 인터페이스(1115)는 다양한 형태, 예컨대 버튼, 키패드, 다이얼, 클릭 휠, 키보드, 디스플레이 스크린, 터치 스크린, 또는 이들의 조합을 가질 수 있다. 프로세서(1105)는 또한, 예를 들어, 모바일 디바이스에 제공되는 것과 같은 시스템-온-칩일 수 있고 전용 그래픽 프로세싱 유닛(GPU)을 포함할 수 있다. 프로세서(1105)는 감소된 명령어-세트 컴퓨터(reduced instruction-set computer, RISC) 또는 복합 명령어-세트-컴퓨터(complex instruction-set computer, CISC) 아키텍처들 또는 임의의 다른 적합한 아키텍처에 기초할 수 있으며, 하나 이상의 프로세싱 코어들을 포함할 수 있다. 그래픽 하드웨어(1120)는 그래픽을 처리하기 위한 특수 목적의 연산 하드웨어일 수 있고/있거나 보조 프로세서(1105)는 그래픽 정보를 프로세싱한다. 일 실시예에서, 그래픽스 하드웨어(1120)는 프로그래밍 가능한 그래픽스 프로세싱 유닛(GPU)을 포함할 수 있다.
센서 및 카메라 회로(1150)는 적어도 부분적으로, 개시된 기술에 따라, 비디오 코덱(들)(1155) 및/또는 프로세서(1105) 및/또는 그래픽스 하드웨어(1120), 및/또는 회로(1150) 내에 포함된 전용 이미지 프로세싱 유닛에 의해 처리될 수 있는 스틸 및 비디오 이미지들을 캡쳐할 수 있다. 그렇게 캡처된 이미지들은 메모리(1160) 및/또는 저장 장치(1165)에 저장될 수 있다. 메모리(1160)는 디바이스 기능들을 수행하기 위해 프로세서(1105) 및 그래픽스 하드웨어(1120)에 의해 사용된 하나 이상의 상이한 유형들의 미디어를 포함할 수 있다. 예를 들어, 메모리(1160)는 메모리 캐시, 판독 전용 메모리(ROM) 및/또는 랜덤 액세스 메모리(RAM)를 포함할 수 있다. 저장 장치(1165)는 미디어(예컨대, 오디오, 이미지 및 비디오 파일들), 컴퓨터 프로그램 명령어들 또는 소프트웨어, 선호도 정보, 디바이스 프로파일 정보, 및 임의의 다른 적합한 데이터를 저장할 수 있다. 저장 장치(1165)는 예를 들어 자기 디스크(고정형, 플로피, 및 이동형) 및 테이프, CD-ROM 및 DVD(digital video disk)와 같은 광학 미디어, 및 EPROM(Electrically Programmable Read-Only Memory) 및 EEPROM(Electrically Erasable Programmable Read-Only Memory)과 같은 반도체 메모리 디바이스들을 포함하는, 하나 이상의 비일시적 저장 매체들을 포함할 수 있다. 메모리(1160) 및 저장 장치(1165)는 하나 이상의 모듈들로 조직화되고 임의의 원하는 컴퓨터 프로그래밍 언어로 기록되는 컴퓨터 프로그램 명령어들 또는 코드를 유형적으로 보유하기 위해 사용될 수 있다. 예를 들어, 프로세서(1105)에 의해 실행될 때, 그러한 컴퓨터 프로그램 코드는 본 명세서에 설명된 동작들 중 하나 이상을 구현할 수 있다.
위의 상세한 설명이 의도적인 예시이며, 제한하려는 것이 아님이 이해될 것이다. 해당 기술분야의 통상의 기술자들이 청구된 발명의 주제를 본 명세서에서 기술한 바와 같이 만들고 사용하도록 할 수 있는 내용들이 소개되었고, 특정 실시예들의 맥락에서 제공되지만, 그것들의 변형이 통상의 기술자들에게 쉽게 이해될 것이다(예를 들어, 개시된 실시예들 중 일부는 서로 조합하여 사용될 수 있다). 예를 들어, 도 1 내지 도 11은 가공되지 않은 또는 처리되지 않은 이미지들을 처리하는 맥락에서 설명되지만, 이는 반드시 필요한 것은 아니다. 본 개시내용에 따른 이미지 안정화 동작이 처리된 버전의 캡쳐된 이미지들(예를 들어 에지 맵(edge-map)들) 또는 하위 샘플링된 버전의 캡쳐된 이미지들에 적용될 수 있다. 또한, 기술된 동작들 중 일부는 본 명세서에 나타난 다른 단계들과 상이한 순서에 따라, 또는 그것들과 함께 수행되는 개별적인 단계들을 가질 수 있다. 더 일반적으로, 하드웨어 지원이 있는 경우, 도 1 내지 도 11과 함께 기술되는 일부 동작들은 병렬로 수행될 수 있다.
많은 다른 실시예들이 상기 설명을 검토할 때 통상의 기술자들에게 명백할 것이다. 그러므로, 본 발명의 범주는 첨부된 특허청구범위를 참조하여, 이러한 청구범위의 권리를 갖는 등가물들의 전체 범주에 따라 결정되어야 한다. 첨부된 청구범위에서, 용어들 "포함하는(including)" 및 "여기서(in which)"는 각자의 용어들 "포함하는(comprising)" 및 "여기서(wherein)"의 평이한 영어 등가물들로서 사용된다.

Claims (20)

  1. 프로그램 가능 제어 디바이스에 의해 판독 가능하고 저장된 명령어들을 포함하는 비-일시적 프로그램 저장 디바이스로서, 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금,
    처음에 캡쳐된 장면의 제1 이미지를 획득하고 - 상기 제1 이미지는 복수의 픽셀을 가짐 - ;
    상기 제1 이미지의 제1 다중 계층 피라미드 표현을 생성하기 위하여 상기 제1 이미지의 다중 해상도 분해를 수행하고;
    상기 장면의 제2 이미지를 획득하고 - 상기 제2 이미지는 상기 제1 이미지와 상이한 시간에 캡쳐되고, 상기 제1 이미지의 상기 복수의 픽셀은 각각 상기 제2 이미지에서 대응하는 픽셀을 가짐 - ;
    상기 제2 이미지의 제2 다중 계층 피라미드 표현을 생성하기 위하여 상기 제2 이미지의 다중 해상도 분해를 수행하고;
    명령어들에 따라 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 각각의 계층에 대하여 상기 장면의 출력 다중 계층 피라미드 표현의 계층을 생성하고 - 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 계층에 있는 픽셀들의 그룹에 대하여, 상기 장면의 상기 제2 다중 계층 피라미드 표현에 있는 대응하는 픽셀들의 그룹을 식별하고,
    상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하도록 함 - ;
    상기 프로그램 가능 제어 디바이스로 하여금 상기 제1 이미지의 상기 다중 해상도 분해의 각각의 계층에 대하여 상기 장면의 상기 출력 다중 계층 피라미드 표현의 계층을 생성하기 위하여 상기 명령어들을 반복하고;
    상기 장면을 나타내는 단일 출력 이미지를 생성하기 위하여 상기 장면의 상기 출력 다중 계층 피라미드 표현들을 조합하고;
    상기 출력 이미지를 메모리에 저장하도록 하고,
    상기 프로그램 가능 제어 디바이스로 하여금 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하도록 하는 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금 상기 제1 다중 계층 피라미드 표현의 하나의 픽셀을 상기 제2 다중 계층 피라미드 표현의 둘 이상의 픽셀과 융합하도록 하는 명령어들을 포함하고, 상기 둘 이상의 픽셀의 공간 좌표는 상기 하나의 픽셀에 대하여 대응하여 식별된 상기 제2 다중 계층 피라미드 표현의 픽셀의 미리 결정된 이웃에 있는, 비-일시적 프로그램 저장 디바이스.
  2. 제1항에 있어서, 상기 프로그램 가능 제어 디바이스로 하여금 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하도록 하는 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 픽셀들의 각 그룹과 연관된 가중치 값을 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 계층에 있는 상기 대응하는 픽셀들의 그룹을 이용하여 결정하고;
    상기 결정된 가중치 값이 명시된 임계치보다 크면 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하고, 상기 결정된 가중치 값이 상기 명시된 임계치보다 작거나 같으면 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하지 않도록 하는 명령어들을 포함하는, 비-일시적 프로그램 저장 디바이스.
  3. 제2항에 있어서, 상기 프로그램 가능 제어 디바이스로 하여금 가중치 값을 결정하도록 하는 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 상기 픽셀들의 그룹의 각각의 픽셀과 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 대응하는 픽셀들의 그룹의 대응하는 픽셀 간의 유사성을 비교하고;
    상기 비교에 기초하여 픽셀 유사값을 획득하고;
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 상기 픽셀들의 그룹의 각각의 픽셀에 대한 예상 노이즈 함량을 획득하고;
    상기 픽셀 유사값 및 상기 예상 노이즈 함량에 기초하여 상기 가중치 값을 계산하도록 하는 명령어들을 포함하는, 비-일시적 프로그램 저장 디바이스.
  4. 제2항에 있어서, 상기 프로그램 가능 제어 디바이스로 하여금 가중치 값을 결정하도록 하는 상기 명령어들은 추가로 상기 프로그램 가능 제어 디바이스로 하여금,
    상기 가중치 값이 상기 명시된 임계치보다 작거나 같으면 더 나은 대응하는 픽셀들의 그룹을 찾기 위하여 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 계층의 공간적 탐색을 수행하고;
    상기 더 나은 대응하는 픽셀들의 그룹에 대한 가중치 값을 결정하고;
    상기 제1 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 상기 제2 다중 계층 피라미드 표현의 상기 더 나은 대응하는 픽셀들의 그룹과 융합하도록 하는 명령어들을 포함하는, 비-일시적 프로그램 저장 디바이스.
  5. 제1항에 있어서, 상기 프로그램 가능 제어 디바이스로 하여금 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하도록 하는 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금,
    상기 제2 이미지의 제2 다중 계층 피라미드 표현의 각각에 대한 모션 필드를 추정하고 - 상기 모션 필드는 상기 제1 이미지의 픽셀들을 상기 제2 이미지의 픽셀들과 연관시킴 - ;
    상기 제1 다중 계층 피라미드 표현의 각각의 픽셀과 상기 모션 필드에서 선택된 픽셀을 융합하도록 하는 명령어들을 포함하는, 비-일시적 프로그램 저장 디바이스.
  6. 삭제
  7. 제1항에 있어서, 상기 제1 이미지의 제1 다중 계층 피라미드 표현을 생성하는 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금 상기 제1 이미지의 하이패스 피라미드 분해(high-pass pyramid decomposition)를 생성하도록 하는 명령어들을 포함하는, 비-일시적 프로그램 저장 디바이스.
  8. 제1항에 있어서, 상기 제1 이미지의 제1 다중 계층 피라미드 표현을 생성하는 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금 상기 제1 이미지의 웨이블렛 분해(wavelet decomposition)를 생성하도록 하는 명령어들을 포함하는, 비-일시적 프로그램 저장 디바이스.
  9. 시스템으로서,
    이미지 캡쳐 디바이스;
    메모리; 및
    하나 이상의 프로그램 가능 제어 디바이스
    를 포함하고, 상기 하나 이상의 프로그램 가능 제어 디바이스는 상기 이미지 캡쳐 디바이스 및 상기 메모리와 상호작용하고,
    처음에 캡쳐된 장면의 제1 이미지를 획득하고 - 상기 제1 이미지는 복수의 픽셀을 가짐 - ;
    상기 제1 이미지의 제1 다중 계층 피라미드 표현을 생성하기 위하여 상기 제1 이미지의 다중 해상도 분해를 수행하고;
    상기 장면의 제2 이미지를 획득하고 - 상기 제2 이미지는 상기 제1 이미지와 상이한 시간에 캡쳐되고, 상기 제1 이미지의 상기 복수의 픽셀은 각각 상기 제2 이미지에서 대응하는 픽셀을 가짐 - ;
    상기 제2 이미지의 제2 다중 계층 피라미드 표현을 생성하기 위하여 상기 제2 이미지의 다중 해상도 분해를 수행하고;
    명령어들에 따라 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 각각의 계층에 대하여 상기 장면의 출력 다중 계층 피라미드 표현의 계층을 생성하고 - 상기 명령어들은 상기 프로그램 가능 제어 디바이스로 하여금,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 계층에 있는 픽셀들의 그룹에 대하여, 상기 장면의 상기 제2 다중 계층 피라미드 표현에 있는 대응하는 픽셀들의 그룹을 식별하고,
    상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하는 것을 포함하는 동작들을 수행하도록 함 - ;
    상기 장면을 나타내는 단일 출력 이미지를 생성하기 위하여 상기 장면의 상기 출력 다중 계층 피라미드 표현들을 조합하고;
    상기 출력 이미지를 메모리에 저장하는 것을 포함하는 동작들을 수행하도록 동작 가능하고,
    상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하는 것은 상기 제1 다중 계층 피라미드 표현의 하나의 픽셀을 상기 제2 다중 계층 피라미드 표현의 둘 이상의 픽셀과 융합하는 것을 포함하고, 상기 둘 이상의 픽셀의 공간 좌표는 상기 하나의 픽셀에 대하여 대응하여 식별된 상기 제2 다중 계층 피라미드 표현의 픽셀의 미리 결정된 이웃에 있는, 시스템.
  10. 제9항에 있어서, 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하는 것은,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 픽셀들의 각 그룹과 연관된 가중치 값을 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 계층에 있는 상기 대응하는 픽셀들의 그룹을 이용하여 결정하고;
    상기 결정된 가중치 값이 명시된 임계치보다 크면 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하고, 상기 결정된 가중치 값이 상기 명시된 임계치보다 작거나 같으면 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하지 않도록 하는 것을 포함하는, 시스템.
  11. 제10항에 있어서, 가중치 값을 결정하는 것은,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 상기 픽셀들의 그룹의 각각의 픽셀과 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 대응하는 픽셀들의 그룹의 대응하는 픽셀 간의 유사성을 비교하고;
    상기 비교에 기초하여 픽셀 유사값을 획득하고;
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 상기 픽셀들의 그룹에 대한 예상 노이즈 함량을 획득하고;
    상기 픽셀 유사값 및 상기 예상 노이즈 함량에 기초하여 상기 가중치 값을 계산하는 것을 포함하는, 시스템.
  12. 제10항에 있어서, 가중치 값을 결정하는 것은 추가로,
    상기 가중치 값이 상기 명시된 임계치보다 작거나 같으면 더 나은 대응하는 픽셀들의 그룹을 찾기 위하여 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 계층의 공간적 탐색을 수행하고;
    상기 더 나은 대응하는 픽셀들의 그룹에 대한 가중치 값을 결정하고;
    상기 제1 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 상기 제2 다중 계층 피라미드 표현의 상기 더 나은 대응하는 픽셀들의 그룹과 융합하는 것을 포함하는, 시스템.
  13. 제9항에 있어서, 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하는 것은,
    상기 제2 이미지의 제2 다중 계층 피라미드 표현의 각각에 대한 모션 필드를 추정하고 - 상기 모션 필드는 상기 제1 이미지의 픽셀들을 상기 제2 이미지의 픽셀들과 연관시킴 - ;
    상기 제1 다중 계층 피라미드 표현의 각각의 픽셀을 상기 모션 필드에서 선택된 픽셀과 융합하는 것을 포함하는, 시스템.
  14. 삭제
  15. 방법으로서,
    처음에 캡쳐된 장면의 제1 이미지를 획득하는 단계 - 상기 제1 이미지는 복수의 픽셀을 가짐 - ;
    상기 제1 이미지의 제1 다중 계층 피라미드 표현을 생성하기 위하여 상기 제1 이미지의 다중 해상도 분해를 수행하는 단계;
    상기 장면의 제2 이미지를 획득하는 단계 - 상기 제2 이미지는 상기 제1 이미지와 상이한 시간에 캡쳐되고, 상기 제1 이미지의 상기 복수의 픽셀은 각각 상기 제2 이미지에서 대응하는 픽셀을 가짐 - ;
    상기 제2 이미지의 제2 다중 계층 피라미드 표현을 생성하기 위하여 상기 제2 이미지의 다중 해상도 분해를 수행하는 단계;
    상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 각각의 계층에 대하여 상기 장면의 출력 다중 계층 피라미드 표현의 계층을 생성하는 단계 - 상기 계층을 생성하는 단계는,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 계층에 있는 픽셀들의 그룹에 대하여, 상기 장면의 상기 제2 다중 계층 피라미드 표현에 있는 대응하는 픽셀들의 그룹을 식별하는 단계; 및
    상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하는 단계를 포함함 - ;
    상기 장면을 나타내는 단일 출력 이미지를 생성하기 위하여 상기 장면의 상기 출력 다중 계층 피라미드 표현들을 조합하는 단계; 및
    상기 출력 이미지를 메모리에 저장하는 단계를 포함하고,
    상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하는 단계는 상기 제1 다중 계층 피라미드 표현의 하나의 픽셀을 상기 제2 다중 계층 피라미드 표현의 둘 이상의 픽셀과 융합하는 단계를 포함하고, 상기 둘 이상의 픽셀의 공간 좌표는 상기 하나의 픽셀에 대하여 대응하여 식별된 상기 제2 다중 계층 피라미드 표현의 픽셀의 미리 결정된 이웃에 있는, 방법.
  16. 제15항에 있어서, 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하는 단계는,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 픽셀들의 각 그룹과 연관된 가중치 값을 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 계층에 있는 상기 대응하는 픽셀들의 그룹을 이용하여 결정하는 단계; 및
    상기 결정된 가중치 값이 명시된 임계치보다 크면 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하고, 상기 결정된 가중치 값이 상기 명시된 임계치보다 작거나 같으면 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하지 않도록 하는 단계를 포함하는, 방법.
  17. 제16항에 있어서, 가중치 값을 결정하는 단계는,
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 상기 픽셀들의 그룹의 각각의 픽셀과 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 대응하는 픽셀들의 그룹의 대응하는 픽셀 간의 유사성을 비교하는 단계;
    상기 비교에 기초하여 픽셀 유사값을 획득하는 단계;
    상기 장면의 상기 제1 다중 계층 피라미드 표현의 상기 계층에 있는 상기 픽셀들의 그룹에 대한 예상 노이즈 함량을 획득하는 단계; 및
    상기 픽셀 유사값 및 상기 예상 노이즈 함량에 기초하여 상기 가중치 값을 계산하는 단계를 포함하는, 방법.
  18. 제16항에 있어서, 가중치 값을 결정하는 단계는 추가로,
    상기 가중치 값이 상기 명시된 임계치보다 작거나 같으면 더 나은 대응하는 픽셀들의 그룹을 찾기 위하여 상기 장면의 상기 제2 다중 계층 피라미드 표현의 상기 계층의 공간적 탐색을 수행하는 단계;
    상기 더 나은 대응하는 픽셀들의 그룹에 대한 가중치 값을 결정하는 단계; 및
    상기 제1 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 상기 제2 다중 계층 피라미드 표현의 상기 더 나은 대응하는 픽셀들의 그룹과 융합하는 단계를 포함하는, 방법.
  19. 제15항에 있어서, 상기 장면의 상기 제1 및 제2 다중 계층 피라미드 표현의 상기 식별된 픽셀들의 그룹을 융합하는 단계는,
    상기 제2 이미지의 제2 다중 계층 피라미드 표현의 각각에 대한 모션 필드를 추정하는 단계 - 상기 모션 필드는 상기 제1 이미지의 픽셀들을 상기 제2 이미지의 픽셀들과 연관시킴 - ; 및
    상기 제1 다중 계층 피라미드 표현의 각각의 픽셀과 상기 모션 필드에서 선택된 픽셀을 융합하는 단계를 포함하는, 방법.
  20. 삭제
KR1020157034366A 2013-06-06 2014-05-06 이미지 안정화를 위한 이미지 융합 방법 KR101743861B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/911,740 2013-06-06
US13/911,740 US9262684B2 (en) 2013-06-06 2013-06-06 Methods of image fusion for image stabilization
PCT/US2014/036879 WO2014197154A1 (en) 2013-06-06 2014-05-06 Methods of image fusion for image stabilizaton

Publications (2)

Publication Number Publication Date
KR20160004379A KR20160004379A (ko) 2016-01-12
KR101743861B1 true KR101743861B1 (ko) 2017-06-05

Family

ID=50933517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157034366A KR101743861B1 (ko) 2013-06-06 2014-05-06 이미지 안정화를 위한 이미지 융합 방법

Country Status (4)

Country Link
US (1) US9262684B2 (ko)
KR (1) KR101743861B1 (ko)
CN (1) CN105264567B (ko)
WO (1) WO2014197154A1 (ko)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9384552B2 (en) * 2013-06-06 2016-07-05 Apple Inc. Image registration methods for still image stabilization
US9491360B2 (en) 2013-06-06 2016-11-08 Apple Inc. Reference frame selection for still image stabilization
US20150071547A1 (en) 2013-09-09 2015-03-12 Apple Inc. Automated Selection Of Keeper Images From A Burst Photo Captured Set
SG11201608233WA (en) * 2014-03-31 2016-10-28 Agency Science Tech & Res Image processing devices and image processing methods
WO2015177845A1 (ja) * 2014-05-19 2015-11-26 株式会社島津製作所 画像処理装置
KR102584187B1 (ko) * 2016-03-30 2023-10-05 삼성전자주식회사 이미지를 처리하기 위한 전자 장치 및 방법
WO2018213149A1 (en) * 2017-05-16 2018-11-22 Apple, Inc. Synthetic long exposure image with optional enhancement using a guide image
CN107346536B (zh) * 2017-07-04 2020-08-11 广东工业大学 一种图像融合的方法与装置
CN107621951B (zh) * 2017-08-29 2020-12-29 口碑(上海)信息技术有限公司 一种视图层级优化的方法及装置
CN109671106B (zh) * 2017-10-13 2023-09-05 华为技术有限公司 一种图像处理方法、装置与设备
WO2019072222A1 (zh) * 2017-10-13 2019-04-18 华为技术有限公司 一种图像处理方法、装置与设备
CN109215003B (zh) * 2018-07-09 2021-09-28 上海海事大学 一种图像融合方法及装置
CN111311498B (zh) * 2018-12-11 2022-07-12 展讯通信(上海)有限公司 图像鬼影剔除方法及装置、存储介质、终端
CN112419161B (zh) * 2019-08-20 2022-07-05 RealMe重庆移动通信有限公司 图像处理方法及装置、存储介质及电子设备
CN111598819B (zh) * 2020-05-14 2021-05-18 易思维(杭州)科技有限公司 自适应图像预处理方法及其应用
CN113160072B (zh) * 2021-03-19 2023-04-07 聚融医疗科技(杭州)有限公司 一种基于图像金字塔的鲁棒自适应帧相关方法及系统
CN113191938B (zh) * 2021-04-29 2022-11-15 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及存储介质
CN113449770B (zh) * 2021-05-18 2024-02-13 科大讯飞股份有限公司 图像检测方法以及电子设备、存储装置
CN113487526B (zh) * 2021-06-04 2023-08-25 湖北工业大学 一种结合高低频系数改进聚焦清晰度度量的多聚焦图像融合方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002524930A (ja) 1998-08-28 2002-08-06 サーノフ コーポレイション 画像を電子的に拡張する方法および装置
JP2010220207A (ja) 2009-02-18 2010-09-30 Olympus Corp 画像処理装置及び画像処理プログラム

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657402A (en) 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US5646521A (en) 1995-08-01 1997-07-08 Schlumberger Technologies, Inc. Analog channel for mixed-signal-VLSI tester
US6552744B2 (en) 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
US6271847B1 (en) * 1998-09-25 2001-08-07 Microsoft Corporation Inverse texture mapping using weighted pyramid blending and view-dependent weight maps
US6301440B1 (en) 2000-04-13 2001-10-09 International Business Machines Corp. System and method for automatically setting image acquisition controls
US7130864B2 (en) 2001-10-31 2006-10-31 Hewlett-Packard Development Company, L.P. Method and system for accessing a collection of images in a database
CN1251145C (zh) * 2003-11-27 2006-04-12 上海交通大学 综合边缘和纹理信息的金字塔图像融合方法
EP1704710A4 (en) 2003-12-24 2007-09-19 Walker Digital Llc METHOD AND DEVICE FOR AUTOMATIC COLLECTION AND MANAGEMENT OF IMAGES
US20050228849A1 (en) 2004-03-24 2005-10-13 Tong Zhang Intelligent key-frame extraction from a video
JP4504322B2 (ja) 2005-03-03 2010-07-14 富士フイルム株式会社 画像抽出装置、画像抽出方法、及び画像抽出プログラム
AU2006244201B2 (en) 2005-05-09 2012-09-06 Lockheed Martin Corporation Continuous extended range image processing
US7839429B2 (en) 2005-05-26 2010-11-23 Hewlett-Packard Development Company, L.P. In-camera panorama stitching method and apparatus
US7424218B2 (en) 2005-07-28 2008-09-09 Microsoft Corporation Real-time preview for panoramic images
US8018999B2 (en) 2005-12-05 2011-09-13 Arcsoft, Inc. Algorithm description on non-motion blur image generation project
US7688379B2 (en) 2005-12-09 2010-03-30 Hewlett-Packard Development Company, L.P. Selecting quality images from multiple captured images
US8842730B2 (en) 2006-01-27 2014-09-23 Imax Corporation Methods and systems for digitally re-mastering of 2D and 3D motion pictures for exhibition with enhanced visual quality
US8031775B2 (en) 2006-02-03 2011-10-04 Eastman Kodak Company Analyzing camera captured video for key frames
JP5084167B2 (ja) 2006-03-31 2012-11-28 キヤノン株式会社 位置姿勢計測方法及び装置
US7742083B2 (en) 2006-04-13 2010-06-22 Eastman Kodak Company In-camera dud image management
US20080170126A1 (en) 2006-05-12 2008-07-17 Nokia Corporation Method and system for image stabilization
US7783118B2 (en) 2006-07-13 2010-08-24 Seiko Epson Corporation Method and apparatus for determining motion in images
US7602418B2 (en) 2006-10-11 2009-10-13 Eastman Kodak Company Digital image with reduced object motion blur
US7796872B2 (en) 2007-01-05 2010-09-14 Invensense, Inc. Method and apparatus for producing a sharp image from a handheld device containing a gyroscope
EP1972893A1 (en) 2007-03-21 2008-09-24 Universiteit Gent System and method for position determination
US7856120B2 (en) 2007-03-30 2010-12-21 Mitsubishi Electric Research Laboratories, Inc. Jointly registering images while tracking moving objects with moving cameras
JP4678603B2 (ja) 2007-04-20 2011-04-27 富士フイルム株式会社 撮像装置及び撮像方法
TWI355615B (en) 2007-05-11 2012-01-01 Ind Tech Res Inst Moving object detection apparatus and method by us
KR101023946B1 (ko) 2007-11-02 2011-03-28 주식회사 코아로직 객체 추적을 이용한 디지털 영상의 손떨림 보정 장치 및방법
US8411938B2 (en) * 2007-11-29 2013-04-02 Sri International Multi-scale multi-camera adaptive fusion with contrast normalization
US20090161982A1 (en) 2007-12-19 2009-06-25 Nokia Corporation Restoring images
WO2009090992A1 (ja) 2008-01-17 2009-07-23 Nikon Corporation 電子カメラ
KR101060488B1 (ko) 2008-04-21 2011-08-30 주식회사 코아로직 최적 영상 선택 방법 및 장치
JP5072757B2 (ja) 2008-07-24 2012-11-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP4661922B2 (ja) 2008-09-03 2011-03-30 ソニー株式会社 画像処理装置、撮像装置、固体撮像素子、画像処理方法およびプログラム
KR101438237B1 (ko) 2008-09-04 2014-09-04 삼성전자주식회사 카메라 모듈을 구비한 이동통신 단말기에서의 촬영방법 및 촬영장치
US8570386B2 (en) 2008-12-31 2013-10-29 Stmicroelectronics S.R.L. Method of merging images and relative method of generating an output image of enhanced quality
US8515171B2 (en) * 2009-01-09 2013-08-20 Rochester Institute Of Technology Methods for adaptive and progressive gradient-based multi-resolution color image segmentation and systems thereof
US8515182B2 (en) 2009-02-11 2013-08-20 Ecole De Technologie Superieure Method and system for determining a quality measure for an image using multi-level decomposition of images
US8422795B2 (en) 2009-02-12 2013-04-16 Dolby Laboratories Licensing Corporation Quality evaluation of sequences of images
US8237813B2 (en) 2009-04-23 2012-08-07 Csr Technology Inc. Multiple exposure high dynamic range image capture
KR101616874B1 (ko) 2009-09-23 2016-05-02 삼성전자주식회사 다중 영상 합성 방법 및 그 장치
WO2011074049A1 (ja) 2009-12-18 2011-06-23 富士通株式会社 画像選別装置及び画像選別方法
JP4998630B2 (ja) 2010-03-30 2012-08-15 株式会社ニコン 画像処理装置、および画像評価プログラム
US8488010B2 (en) 2010-09-21 2013-07-16 Hewlett-Packard Development Company, L.P. Generating a stabilized video sequence based on motion sensor data
US8774528B2 (en) 2010-09-24 2014-07-08 Kodak Alaris Inc. Method of selecting important digital images
US8648959B2 (en) 2010-11-11 2014-02-11 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
US8532421B2 (en) 2010-11-12 2013-09-10 Adobe Systems Incorporated Methods and apparatus for de-blurring images using lucky frames
US8861836B2 (en) 2011-01-14 2014-10-14 Sony Corporation Methods and systems for 2D to 3D conversion from a portrait image
US8379934B2 (en) 2011-02-04 2013-02-19 Eastman Kodak Company Estimating subject motion between image frames
US8384787B2 (en) 2011-02-24 2013-02-26 Eastman Kodak Company Method for providing a stabilized video sequence
US10134440B2 (en) 2011-05-03 2018-11-20 Kodak Alaris Inc. Video summarization using audio and visual cues
US8983206B2 (en) 2011-05-04 2015-03-17 Ecole de Techbologie Superieure Method and system for increasing robustness of visual quality metrics using spatial shifting
US20120293607A1 (en) 2011-05-17 2012-11-22 Apple Inc. Panorama Processing
KR101784176B1 (ko) 2011-05-25 2017-10-12 삼성전자주식회사 영상 촬영 장치 및 그 제어방법
KR101699919B1 (ko) 2011-07-28 2017-01-26 삼성전자주식회사 다중 노출 퓨전 기반에서 고스트 흐림을 제거한 hdr 영상 생성 장치 및 방법
KR101906827B1 (ko) 2012-04-10 2018-12-05 삼성전자주식회사 연속 사진 촬영 장치 및 방법
US8860825B2 (en) 2012-09-12 2014-10-14 Google Inc. Methods and systems for removal of rolling shutter effects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002524930A (ja) 1998-08-28 2002-08-06 サーノフ コーポレイション 画像を電子的に拡張する方法および装置
JP2010220207A (ja) 2009-02-18 2010-09-30 Olympus Corp 画像処理装置及び画像処理プログラム

Also Published As

Publication number Publication date
CN105264567A (zh) 2016-01-20
WO2014197154A1 (en) 2014-12-11
US20140363087A1 (en) 2014-12-11
KR20160004379A (ko) 2016-01-12
US9262684B2 (en) 2016-02-16
CN105264567B (zh) 2018-01-26

Similar Documents

Publication Publication Date Title
KR101743861B1 (ko) 이미지 안정화를 위한 이미지 융합 방법
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
CN105517671B (zh) 一种基于光流法的视频插帧方法及系统
US9202263B2 (en) System and method for spatio video image enhancement
CN102576454B (zh) 利用空间图像先验的图像去模糊法
WO2015184208A1 (en) Constant bracketing for high dynamic range operations (chdr)
EP2164040B1 (en) System and method for high quality image and video upscaling
CN110956219B (zh) 视频数据的处理方法、装置和电子系统
KR20170031033A (ko) 과노출 정정을 위한 방법, 시스템 및 장치
EP2979242A1 (en) Method and apparatus for generating a super-resolved image from a single image
KR102561714B1 (ko) 합성 이미지에서 이미지 데이터 프로세싱
JP2017537403A (ja) 超解像画像を生成するための方法、装置およびコンピュータ・プログラム・プロダクト
JP2014521275A (ja) 空間的にスケーリング可能なビデオコーディングのための適応型アップサンプリングの方法、プログラム及びコンピュータシステム
Liu et al. PD-GAN: perceptual-details gan for extremely noisy low light image enhancement
CN113315884A (zh) 一种实时视频降噪方法、装置、终端及存储介质
JP4617883B2 (ja) 画像処理装置および方法、プログラム並びに記録媒体
WO2011074121A1 (ja) 動きベクトル検出装置及び方法
JP7265316B2 (ja) 画像処理装置及び画像処理方法
CN111311498B (zh) 图像鬼影剔除方法及装置、存储介质、终端
JP2010193154A (ja) 画像処理装置および画像処理方法
EP3352133A1 (en) An efficient patch-based method for video denoising
US9508020B2 (en) Image processing system with artifact suppression mechanism and method of operation thereof
WO2022262599A1 (zh) 图像处理方法、装置、计算机设备和存储介质
JP2017021467A (ja) 画像処理装置、その制御方法、および制御プログラム
Hu Content-Adaptive Non-Stationary Projector Resolution Enhancement

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right