KR101291869B1 - 공간 및 시간 처리를 이용하는 비디오 시퀀스에서의 노이즈 및/또는 플리커 감소 - Google Patents

공간 및 시간 처리를 이용하는 비디오 시퀀스에서의 노이즈 및/또는 플리커 감소 Download PDF

Info

Publication number
KR101291869B1
KR101291869B1 KR1020107017838A KR20107017838A KR101291869B1 KR 101291869 B1 KR101291869 B1 KR 101291869B1 KR 1020107017838 A KR1020107017838 A KR 1020107017838A KR 20107017838 A KR20107017838 A KR 20107017838A KR 101291869 B1 KR101291869 B1 KR 101291869B1
Authority
KR
South Korea
Prior art keywords
transform
subframe
thresholding
frame
coefficients
Prior art date
Application number
KR1020107017838A
Other languages
English (en)
Other versions
KR20100114068A (ko
Inventor
샌딥 가누무리
오너 지 굴러유즈
엠 레하 키반라
아키라 후지바야시
창 에스 분
Original Assignee
가부시키가이샤 엔티티 도코모
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 엔티티 도코모 filed Critical 가부시키가이샤 엔티티 도코모
Publication of KR20100114068A publication Critical patent/KR20100114068A/ko
Application granted granted Critical
Publication of KR101291869B1 publication Critical patent/KR101291869B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/147Discrete orthonormal transforms, e.g. discrete cosine transform, discrete sine transform, and variations therefrom, e.g. modified discrete cosine transform, integer transforms approximating the discrete cosine transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/145Square transforms, e.g. Hadamard, Walsh, Haar, Hough, Slant transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/649Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding the transform being applied to non rectangular image segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20052Discrete cosine transform [DCT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Algebra (AREA)
  • Discrete Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Complex Calculations (AREA)
  • Picture Signal Circuits (AREA)

Abstract

비디오 시퀀스에서 플리커 및 노이즈 중 적어도 하나를 감소시키는 방법 및 장치가 본 명세서에 개시되어 있다. 하나의 실시형태에 있어서, 이 방법은, 입력 비디오를 수신하는 단계; 및 공간 및 시간 처리를 이용하여 입력 비디오에서 노이즈와 플리커 모두 또는 노이즈 및 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계를 포함한다.

Description

공간 및 시간 처리를 이용하는 비디오 시퀀스에서의 노이즈 및/또는 플리커 감소{NOISE AND/OR FLICKER REDUCTION IN VIDEO SEQUENCES USING SPATIAL AND TEMPORAL PROCESSING}
우선권
본 특허 출원은, 2008 년 2 월 5 일자로 출원되었으며 발명의 명칭이 "Flicker Reduction in Video Sequences Using Temporal Processing" 인 대응하는 미국 가특허 출원 제 61/026,453 호에 대해 우선권을 주장하며, 이 대응하는 미국 가특허 출원을 참조로서 포함하고 있다.
관련 출원
본 출원은, 2008 년 6 월 17 일자로 출원되었고 발명의 명칭이 "Image/Video Quality Enhancement and Super-Resolution Using Sparse Transformations" 이며 본 발명의 법인 양수인에게 양도된 함께 계류중인 출원인 미국 특허 출원 제 12/140,829 호에 관한 것이다.
발명의 기술분야
본 발명은 일반적으로 비디오 시퀀스의 처리에 관한 것이고; 보다 상세하게는, 본 발명은 비디오 시퀀스에서 노이즈 및/또는 플리커를 감소시키는 것에 관한 것이다.
카메라 제한으로 인해 포착 중에 모스키토 노이즈 (mosquito noise) 및 시간적 플리커 (temporal flicker) 가 야기된다. 압축, 다운샘플링 및 업샘플링과 같은 비디오 처리 파이프라인에서의 모듈은 블로킹 아티팩트 (blocking artifact), 에일리어싱 (aliasing), 물결현상 (ringing) 및 시간적 플리커를 초래한다. 이미지 및 비디오 신호 처리는 오늘날 다수의 애플리케이션에서 광범위하게 이용된다. 이들 기술 중 일부는 노이즈 및 시간적 플리커를 감소시키는데 이용되었다.
비디오 시퀀스에서 플리커 및 노이즈 중 적어도 하나를 감소시키는 방법 및 장치가 본 명세서에 개시되어 있다. 하나의 실시형태에 있어서, 이 방법은, 입력 비디오를 수신하는 단계; 및 공간 및 시간 처리를 이용하여 입력 비디오에서 노이즈와 플리커 모두 또는 노이즈 및 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계를 포함한다.
본 발명은, 본 발명의 각종 실시형태의 첨부 도면으로부터 그리고 이하에 주어지는 상세한 설명으로부터 보다 완전히 이해될 것이지만, 이는 본 발명을 특정 실시형태로 제한하도록 취해져서는 안 되며, 단지 설명 및 이해를 위한 것이다.
도 1a 및 도 1b 는 입력 비디오에서 노이즈 및/또는 플리커를 감소시키기 위한 노이즈 및 플리커 감소 모듈의 하나의 실시형태를 도시한 도면이다.
도 2 는 비디오 시퀀스에 대해 이미지 처리를 수행하기 위한 프로세스의 하나의 실시형태의 흐름도이다.
도 3(A) 내지 도 3(M) 은 서브프레임 타입의 라이브러리에 대응하는 마스크의 실시예를 도시한 도면이다.
도 4 는 픽셀이 래스터-스캔 순서로 넘버링되는 경우에 픽셀 i 에서의 예시적인 서브프레임을 도시한 도면이다.
도 5 는 서브프레임 타입 선택 프로세스의 하나의 실시형태의 흐름도이다.
도 6 은 과거의 출력 프레임으로부터의 서브프레임 형성 프로세스의 하나의 실시형태의 흐름도이다.
도 7 은 공간 변환 선택 프로세스의 하나의 실시형태의 흐름도이다.
도 8 은 시간 변환 선택 프로세스의 하나의 실시형태의 흐름도이다.
도 9 는 변환 계수를 임계화 (thresholding) 하기 위한 임계화 프로세스의 하나의 실시형태의 흐름도이다.
도 10 은 서브프레임을 결합하여 프레임을 생성하기 위한 프로세스의 하나의 실시형태의 흐름도이다.
도 11 은 단조 감소하는 계단 함수를 도시한 도면이다.
도 12 는 비디오 시퀀스에 대해 이미지 처리를 수행하기 위한 프로세스의 다른 실시형태의 흐름도이다.
도 13(A) 내지 도 13(E) 는 선택된 픽셀의 예시적인 서브세트를 도시한 도면이다.
도 14 는 컴퓨터 시스템의 하나의 실시형태의 블록도이다.
압축/비압축 비디오 시퀀스에서의 노이즈 및/또는 플리커 감소 방법 및 장치가 기재되어 있다. 본 명세서에서의 목적을 위해, 비디오 시퀀스는 본 명세서에서 순차 배치된 프레임으로 언급되는 다수의 이미지로 구성된다.
하나의 실시형태에 있어서, 본 명세서에 개시된 기술은, 입력 비디오의 현재의 프레임으로부터 특정 픽셀에서의 서브프레임을 선택하며, 기준을 만족시키는 출력 비디오의 과거의 프레임으로부터 다른 서브프레임을 발견하는 것; 픽셀-적응 왜곡 (warped) 공간 변환을 선택하며, 서브프레임을 공간 변환 도메인으로 변환하는 것; 디테일-보존 적응 임계치를 도출하며, 하드 임계화 (변환 계수의 크기가 임계치보다 작은 경우에 0 으로 설정) 또는 소프트 임계화와 같은 다른 임계화 기술을 이용하여 현재의 프레임 및 과거의 프레임으로부터의 서브프레임의 변환 계수를 임계화하는 것; 시간 변환을 이용하여 공간-변환 계수를 추가 변환하며, 시간-변환 계수의 선택된 서브세트를 임계화하는 것; 먼저 시간적으로 그 다음에 공간적으로 시간-변환 계수를 역방향 변환하여, 현재의 프레임 및 과거의 프레임 모두에 속하는 처리된 서브프레임을 획득하는 것; 및 입력 비디오로부터의 현재의 프레임에 속하는 처리된 서브프레임을 결합하여, 출력 비디오에 대한 현재의 프레임을 획득하는 것을 포함하지만, 이에 제한되지는 않는다. 이들 동작은 입력 비디오의 프레임 모두에 대해 반복될 수 있다.
다음의 설명에 있어서, 본 발명의 보다 완전한 설명을 제공하도록 다수의 상세가 기재된다. 그러나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게, 본 발명이 이들 특정 상세 없이 실시될 수도 있다는 것은 명백할 것이다. 다른 경우에, 본 발명의 모호함을 회피하기 위해서, 잘 알려진 구조 및 디바이스는 상세하게 보다는 블록도 형태로 도시된다.
다음의 상세한 설명의 일부는, 컴퓨터 메모리 내의 데이터 비트에 대한 연산의 심볼 표현 및 알고리즘에 관하여 제공된다. 이들 알고리즘 설명 및 표현은, 데이터 처리 기술분야에서 통상의 지식을 가진 자가 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 그 작업의 실체를 가장 효과적으로 전달하는데 이용하는 수단이다. 알고리즘은 본 명세서에서 그리고 일반적으로 원하는 결과를 야기시키는 자기 모순 없는 단계의 시퀀스로 고려된다. 이들 단계는 물리적 양의 물리적 조작을 요구하는 단계이다. 일반적으로, 반드시 그렇지는 않지만, 이들 양은, 저장, 전달, 결합, 비교, 및 그렇지 않으면 조작될 수 있는 전기적 또는 자기적 신호의 형태를 취한다. 이들 신호를 비트, 값, 요소, 심볼, 문자, 용어, 숫자 등으로 언급하는 것이, 때때로, 주로 보통 용법 (common usage) 을 이유로 편리하다고 입증되었다.
그러나, 이들 용어 및 유사한 용어 모두가 적절한 물리적 양과 연관되며, 단지 이들 양에 적용되는 편리한 라벨이라는 것을 명심해야 한다. 다음의 설명으로부터 명백한 바와 같이 특별히 다른 방식으로 기재되지 않는 한, 이 설명 전체에 걸쳐, "처리" 또는 "컴퓨팅" 또는 "계산" 또는 "결정" 또는 "디스플레이" 등과 같은 용어를 이용하는 설명은, 컴퓨터 시스템의 레지스터 및 메모리 내의 물리적 (전자적) 양으로서 표현된 데이터를 컴퓨터 시스템 메모리나 레지스터 또는 다른 이러한 정보 저장, 송신 또는 디스플레이 디바이스 내의 물리적 양으로서 유사하게 표현된 다른 데이터로 조작 및 변환하는 컴퓨터 시스템 또는 유사한 전자 컴퓨팅 디바이스의 동작 및 프로세스를 언급한다.
또한, 본 발명은 본 명세서에서의 동작을 수행하는 장치에 관한 것이다. 이 장치는 필요한 목적을 위해 특별하게 구성될 수도 있고, 또는 이 장치는 컴퓨터에 저장된 컴퓨터 프로그램에 의해 선택적으로 기동되거나 재구성되는 범용 컴퓨터를 포함할 수도 있다. 이러한 컴퓨터 프로그램은, 플로피 디스크, 광학 디스크, CD-ROM, 및 자기-광학 디스크를 포함한 임의의 타입의 디스크, ROM (Read Only Memory), RAM (Random Access Memory), EPROM, EEPROM, 자기 또는 광학 카드, 또는 전자적 명령들을 저장하기에 적합한 임의의 타입의 매체와 같지만 이에 제한되지는 않는 컴퓨터 판독가능 저장 매체에 저장될 수도 있고, 그 각각은 컴퓨터 시스템 버스에 커플링되어 있다.
본 명세서에서 제공된 알고리즘 및 디스플레이는 본래 임의의 특정 컴퓨터 또는 다른 장치에 관련되지는 않는다. 각종 범용 시스템은 본 명세서에서의 교시에 따른 프로그램과 함께 사용될 수도 있고, 또는 필요한 방법 단계를 수행하도록 보다 전문화된 장치를 구성하는 것이 편리하다고 입증될 수도 있다. 각종 이들 시스템에 필요한 구조는 이하의 설명으로부터 나타날 것이다. 또한, 본 발명은 임의의 특정 프로그래밍 언어를 참조하여 설명되지는 않는다. 본 명세서에 기재된 바와 같은 본 발명의 교시를 구현하는데 각종 프로그래밍 언어가 이용될 수도 있다는 것이 인식될 것이다.
머신 판독가능 매체는, 머신 (예를 들어, 컴퓨터) 에 의해 판독가능한 형태로 정보를 저장하거나 송신하는 임의의 메커니즘을 포함한다. 예를 들어, 머신 판독가능 매체는, ROM (Read Only Memory); RAM (Random Access Memory); 자기 디스크 저장 매체; 광학 저장 매체; 플래시 메모리 디바이스; 전기, 광학, 음향 또는 다른 형태의 전파 신호 (예를 들어, 반송파, 적외선 신호, 디지털 신호 등) 등을 포함한다.
개략
도 1a 는 입력 비디오에서 노이즈 및/또는 플리커를 감소시키기 위한 노이즈 및 플리커 감소 모듈의 하나의 실시형태를 도시한 도면이다. 도 1a 를 참조하면, 노이즈 및 플리커 감소 블록 (101) 은 입력 비디오 (100) 를 수신한다. 입력 비디오 (100) 는 노이즈 및/또는 플리커를 포함한다. 또한, 노이즈 및 플리커 감소 블록 (101) 은 임계치 파라미터
Figure 112010051641620-pct00001
및 본 명세서에서 OP 로 언급되는 선택적 파라미터의 벡터를 수신한다. 이들 입력에 응답하여, 노이즈 및 플리커 감소 블록 (101) 은 노이즈 및 플리커가 감소된 출력 비디오 (102) 를 발생시킨다.
도 1b 는 비디오 시퀀스에 대해 이미지 처리를 수행하기 위한 프로세스의 하나의 실시형태의 흐름도이다. 이 프로세스는, 하드웨어 (회로, 전용 로직 등), (범용 컴퓨터 시스템이나 전용 머신 상에서 실행되는 것과 같은) 소프트웨어, 또는 이들의 조합을 포함할 수도 있는 처리 로직에 의해 수행된다.
도 1b 를 참조하면, 이 프로세스는, 처리 로직이 입력 비디오를 수신하는 것으로 시작된다 (처리 블록 111).
입력 비디오를 수신하는 것에 응답하여, 처리 로직은 공간 및 시간 처리를 이용하여 입력 비디오에서 노이즈와 플리커 모두 또는 이들 중 하나를 감소시키기 위한 동작을 수행한다 (처리 블록 112). 하나의 실시형태에 있어서, 이들 동작은 계수의 적응 임계화와 함께 공간 변환 및 시간 변환을 적용하는 것을 포함한다. 하나의 실시형태에 있어서, 공간 변환 및 시간 변환을 적용하는 것은, 서브프레임에 대해 적어도 하나의 왜곡 변환을 적용하여 변환 계수를 생성하는 것을 포함한다.
도 2 은 비디오 시퀀스에 대해 이미지 처리를 수행하기 위한 프로세스의 하나의 실시형태의 보다 상세한 흐름도이다. 이 프로세스는, 하드웨어 (회로, 전용 로직 등), (범용 컴퓨터 시스템이나 전용 머신 상에서 실행되는 것과 같은) 소프트웨어, 또는 이들의 조합을 포함할 수도 있는 처리 로직에 의해 수행된다.
후술하는 프로세스에 있어서, x 는 본 명세서에 기재된 기술에 의해 처리되는 입력 비디오로부터의 현재의 프레임을 나타내고,
Figure 112010051641620-pct00002
는 본 명세서에 기재된 기술을 이용한 이후에 출력된 과거의 프레임을 나타내며,
Figure 112010051641620-pct00003
는 이미지 처리 프로세스에 의해 이용되는 임계치 파라미터를 나타낸다. 또한, OP 로 표시되며 다른 선택적 파라미터를 포함하는 벡터가 공급될 수 있다. 사용자 또는 알고리즘은 주관적/객관적 품질의 최적화를 이용하여, 모델 기반 기술을 이용하여 또는 다른 방법을 이용하여 가장 많이 원하는 파라미터를 결정할 수 있다. 또한, 교정 알고리즘이 이용될 수 있다. 또한, 이러한 알고리즘은 비디오 처리 파이프라인이나 입력 비디오 중 어느 하나 또는 이들 모두의 부분/완전 정보를 이용할 수 있다. 하나의 실시형태에 있어서, 모든 비디오 프레임은 래스터-스캔 순서로 픽셀을 배열함으로써 벡터로서 표현되며, N 은 각 비디오 프레임에서의 픽셀의 개수를 나타낸다.
프레임 x 가 획득된 이후에, 도 2 의 처리 블록 202 의 서브프레임 선택 프로세스가 시작된다. 서브프레임 타입 S 는 M2×1 정수값 벡터로서 정의된다. 본 명세서에서의 목적을 위해, M 은 0 보다 큰 임의의 정수일 수 있다. {S1, S2, S3, …} 은 서브프레임 타입의 라이브러리이다. 픽셀이 래스터-스캔 순서로 넘버링되는 프레임 x 로부터 선택된 픽셀 세트에서의 각 픽셀 i 에 대하여, 서브프레임 타입 si 가 이 라이브러리로부터 선택되며, 벡터 pi
Figure 112010051641620-pct00004
로서 형성되는데, 여기서
Figure 112010051641620-pct00005
은 모든 요소가 1 과 동등한 M2×1 벡터이다. 하나의 실시형태에 있어서, 선택되지 않은 픽셀에 대하여, pi 는 0 의 벡터이다. 선택된 픽셀 세트는 벡터 OP 내에서 시그널링되거나 사전결정될 수 있다. 이 실시형태에 있어서, 이미지에서의 각 픽셀에 대하여 서브프레임이 형성 및 처리된다. 즉, 선택된 픽셀 세트는 프레임에서의 전체 픽셀 세트이다. 그러나, 다른 실시형태에 있어서, 처리는 이미지에서의 픽셀 모두에 대해서가 아니라 픽셀의 선택된 서브세트에 대해서만 수행될 수도 있다. 서브세트는 사이드 정보의 부분으로서 시그널링되거나 사전결정될 수도 있다. 도 13(A) 내지 도 13(E) 는 이러한 서브세트의 실시예를 나타내며; 본 명세서에 기재된 교시에 대해 다른 서브세트가 이용될 수도 있다. 서브프레임으로 지칭되는 M2×1 벡터 zi 는 pi 의 요소에 대응하는 위치에서 프레임 x 의 픽셀값으로 형성된다. 픽셀 i 는 서브프레임 zi 에 대한 피벗으로 지칭된다. 도 4 는 픽셀이 래스터-스캔 순서로 넘버링되는 경우에 픽셀 i 에서의 예시적인 서브프레임 zi 를 도시한 도면이다. 도 4 를 참조하면, 픽셀의 래스터-스캔 순서화는 그 순서로 "1" 부터 시작하여 픽셀을 넘버링함으로써 발생한다. 서브프레임은 픽셀 i 를 피벗으로 하는 것으로 도시되어 있다. 서브프레임은 왜곡 로우로 지칭되는 M 개의 벡터로 구성된다. 제 1 왜곡 로우는 서브프레임 요소 1 내지 M 을 그 순서로 갖고; 제 2 왜곡 로우는 서브프레임 요소 M+1 내지 2M 을 갖는 등이다.
하나의 실시형태에 있어서, M 은 4 와 동등하며, 서브프레임 타입의 라이브러리는 도 3(A) 내지 도 3(M) 에 도시된 마스크 세트에 대응한다. 도 3(A) 내지 도 3(M) 을 참조하면, 이러한 서브프레임의 라이브러리에 있어서, 마스크는 화살표로 도시된 바와 같이 상이한 방향에 대응한다. 도 3(A) 에서의 마스크는 본 명세서에서 정규 마스크 (regular mask) 로 언급되는데, 그 이유는 이 마스크가 정규 수평 또는 수평 방향에 대응하기 때문이다. 다른 마스크는 방향성 마스크로 지칭되는데, 그 이유는 이들 마스크가 명백하지 않은 방향에 대응하기 때문이다. 마스크에서의 픽셀 ('a' 내지 'p') 의 차분-위치 (Ω) 는 Ω=CC+W×CR 로서 정의되는데, 여기서 W 는 프레임 y 의 폭이다. CC 는, 관심 대상인 현재의 픽셀의 칼럼에 도착하기 위해서 픽셀 'a' 의 칼럼으로부터 시작하여 우측으로 수평 이동시킬 필요가 있는 칼럼의 개수이다. CR 은, 관심 대상인 현재의 픽셀의 로우에 도착하기 위해서 픽셀 'a' 의 로우로부터 시작하여 아래로 수직 이동시킬 필요가 있는 로우의 개수이다. 예를 들어, 도 3(H) 에서의 마스크의 경우에, 픽셀 'c' 는 CC=-1 및 CR=2 를 갖는다. 마스크에 대응하는 서브프레임 타입은 'a' 부터 'p' 로 순서화된 그 마스크에서의 픽셀의 차분-위치를 포함하는 벡터이다.
하나의 실시형태에 있어서, 픽셀에 대한 서브프레임 타입의 선택은, 항상 정규 마스크에 대응하는 서브프레임 타입을 선택함으로써 이루어진다. 다른 실시형태에 있어서, 픽셀에 대한 서브프레임 타입의 선택은, 각 선택된 픽셀에 대하여, (1) 형성된 서브프레임에 대한 2-D DCT 를 각 서브프레임 타입에 대해 평가함으로써, 그리고 (2) 주어진 임계치 T 보다 큰 크기를 갖는 넌제로 변환 계수의 개수를 최소화하는 서브프레임 타입을 주어진 임계치 T 에 대해 선택함으로써 이루어진다. 또다른 실시형태에 있어서, 픽셀에 대한 서브프레임 타입의 선택은, 각 선택된 픽셀에 대하여, 모든 왜곡 로우에 대해 평균화된 픽셀값의 왜곡 로우 편차를 최소화하는 서브프레임 타입을 선택함으로써 이루어진다. 또다른 실시형태에 있어서, 픽셀에 대한 서브프레임 타입의 선택은, (모든 왜곡 로우에 대해 평균화된 픽셀값의 왜곡 로우 편차를 최소화하는 서브프레임 타입에 기초하여) 서브프레임 타입에 대한 각 픽셀 보트 (vote) 를 K×L 픽셀의 블록에 대해 가지며 K×L 블록에서의 픽셀 모두에 대해 최대 보트를 갖는 서브프레임 타입을 선택함으로써 이루어지는데, 여기서 K 및 L 은 0 보다 큰 임의의 정수일 수 있다. 하나의 실시형태에 있어서, K 및 L 은 모두 4 로 설정된다. 다른 실시형태에 있어서, 픽셀에 대한 서브프레임 타입의 선택은, 각 픽셀에 대해 K×L 픽셀의 블록을 형성하며 이 블록에 대해 선행하는 보팅 방식을 이용하여 서브프레임 타입을 선택함으로써 이루어진다. 각 경우에, 선택된 서브프레임 타입은 현재의 픽셀에 이용된다. 따라서, 각 마스크에 대해 이들 측정된 통계치 중 하나를 이용함으로써, 서브프레임의 선택이 수행된다.
도 3(A) 내지 도 3(M) 에서의 마스크 이외의 마스크가 사용될 수도 있다는 것에 주목하라.
도 5 는 서브프레임 선택 프로세스의 하나의 실시형태의 흐름도이다. 이 프로세스는, 하드웨어 (회로, 전용 로직 등), (범용 컴퓨터 시스템이나 전용 머신 상에서 실행되는 것과 같은) 소프트웨어, 또는 이들의 조합을 포함할 수도 있는 처리 로직에 의해 수행된다.
도 5 를 참조하면, 이 프로세스는, 처리 로직이 프레임 x 를 수신하여, 그 서브프레임이 픽셀-적응인지 여부를 판정함으로써 시작된다 (처리 블록 501). 서브프레임이 픽셀-적응이 아닌 경우에는, 처리 로직은 모든 픽셀에 대해 정규 서브프레임 타입을 선택한다 (처리 블록 502). 프레임 x 의 서브프레임이 픽셀-적응인 경우에는, 처리 로직은, 각 픽셀에 대하여, 왜곡 로우 편차를 최소화하는 서브프레임 타입을 마킹한다 (처리 블록 503). 이는 전술한 바와 같이 서브프레임 타입의 라이브러리 (510) 를 이용하여 수행된다. 따라서, 각 픽셀에 대하여, 서브프레임 타입의 라이브러리 중에서 왜곡 로우 편차를 최소화하는 서브프레임 타입이 마킹된다.
다음에, 처리 로직은 선택이 블록-기반인지 여부를 판정한다 (처리 블록 504). 선택이 블록-기반이라고 처리 로직이 판정하는 경우에는, 처리 로직은, 각 블록에서, 각 서브프레임 타입을 마킹한 픽셀의 개수를 카운트하고 (처리 블록 506), 블록에서의 모든 픽셀에 대하여, 처리 로직은 그 블록에서의 대부분의 픽셀에 의해 마킹된 서브프레임 타입을 선택한다 (처리 블록 507). 다시 말하면, 선택이 블록-기반인 경우에는, 블록에서의 대부분의 픽셀에 의해 마킹된 서브프레임 타입이 그 블록에서의 모든 픽셀에 대해 선택된다. 선택이 블록-기반이 아니라고 처리 로직이 판정하는 경우에는, 처리 로직은, 각 픽셀에 대하여, 그 픽셀에 의해 마킹된 서브프레임 타입을 선택한다 (처리 블록 505). 다시 말하면, 각 픽셀은 스스로 마킹한 서브프레임 타입을 선택한다.
각 픽셀에 대한 서브프레임 타입의 선택은 벡터 OP 내에서 시그널링될 수 있다.
서브프레임 타입 si 는 벡터
Figure 112010051641620-pct00006
을 형성하는데 이용되며, 여기서 mi 는 정수이고,
Figure 112010051641620-pct00007
는 모든 요소가 1 과 동등한 M2×1 벡터이다. 또한, 처리 로직은
Figure 112010051641620-pct00008
의 요소에 대응하는 위치에서 과거의 출력 프레임
Figure 112010051641620-pct00009
의 픽셀값으로
Figure 112010051641620-pct00010
(또한 서브프레임) 로 표시된 M2×1 벡터를 형성한다 (처리 블록 203).
mi 의 선택은 다수의 상이한 방식으로 이루어질 수 있다. 대안적인 실시형태에 있어서, mi 의 선택은 다음의 방식 중 하나의 방식으로 수행된다:
ⅰ. mi = i
ⅱ. zi
Figure 112010051641620-pct00011
사이의 p-놈 (norm) (p≥0)
Figure 112010051641620-pct00012
이 최소화되도록 모든 가능한 값으로부터 mi 선택.
ⅲ. 상기 'ⅱ' 에 기초하여 mi 를 선택하지만, {j:j=i+jh+W×jv} 로 탐색 세트 제한 (여기서, W 는 프레임 의 폭이며, jh, jv ∈ {-J, -(J-1), …, -1, 0, 1, …, J-1, J} 임). J 는 0 이상의 임의의 정수이다. 하나의 실시형태에 있어서, 옵션 'ⅲ' 이 이용되는 경우, J 의 값은 2 로 설정되며, 2-놈이 이용된다.
ⅳ. 상기 'ⅲ' 에 기초하여 mi 선택 및 mi 에 값 k=kh+W×kv 가산 (여기서, W 는 프레임
Figure 112010051641620-pct00014
의 폭이며, kh, kv 는 세트 {-K, -(K-1), …, -1, 0, 1, …, K-1, K} 로부터 랜덤하게 발생된 값임). K 는 0 이상의 임의의 정수이다.
mi 의 선택은 벡터 OP 내에서 시그널링될 수 있다.
다른 실시형태에 있어서, 과거의 출력 프레임
Figure 112010051641620-pct00015
가 예를 들어 휘도 변화 및 장면 페이드와 같은 이슈를 보상하기 위해서 세기 보상 및 비선형 예측 필터와 같지만 이에 제한되지는 않는 기술을 이용하여 처리된 이후에, 서브프레임
Figure 112010051641620-pct00016
가 형성된다.
도 6 은 과거의 출력 프레임으로부터의 서브프레임 형성 프로세스의 하나의 실시형태의 흐름도이다. 이 프로세스는, 하드웨어 (회로, 전용 로직 등), (범용 컴퓨터 시스템이나 전용 머신 상에서 실행되는 것과 같은) 소프트웨어, 또는 이들의 조합을 포함할 수도 있는 처리 로직에 의해 수행된다.
도 6 을 참조하면, 이 프로세스는, 처리 로직이 탐색 세트 {m1, m2, …} 를 이용함으로써 시작되며, 각 값 mj 에 대하여, 다음의 수학식:
Figure 112010051641620-pct00017
에 따라
Figure 112010051641620-pct00018
를 컴퓨팅한다 (처리 블록 601).
다음에, 처리 로직은
Figure 112010051641620-pct00019
를 이용하여 프레임
Figure 112010051641620-pct00020
로부터 서브프레임
Figure 112010051641620-pct00021
를 형성한다 (처리 블록 602). 그런 다음, 각 j 에 대하여, 처리 로직은 p-놈:
Figure 112010051641620-pct00022
를 컴퓨팅한다 (처리 블록 603).
p-놈을 컴퓨팅한 이후에, 처리 로직은 최소 p-놈을 제공하도록 mk 를 선택하고; mi 를 mk 와 동등하게 설정하고, 다음의 수학식:
Figure 112010051641620-pct00023
에 따라
Figure 112010051641620-pct00024
를 설정하며,
Figure 112010051641620-pct00025
를 이용하여 서브프레임
Figure 112010051641620-pct00026
를 형성한다 (처리 블록 604).
공간 변환 선택 및 적용
도 2 의 처리 블록 204 의 부분으로서, 처리 로직은 또한 공간 변환 선택 및 적용을 수행한다. 보다 상세하게는, 처리 로직은 픽셀-적응 왜곡 공간 변환 Hi 를 이용하여 각각 서브 프레임 zi
Figure 112010051641620-pct00027
를 ei
Figure 112010051641620-pct00028
로 변환한다. 이 변환은 '왜곡' 으로 지칭되는데, 그 이유는 변환 근거의 지원이 서브프레임 형상에 매칭되도록 변형되었기 때문이다. 변환은 픽셀-적응으로 지칭되는데, 그 이유는 서브프레임 타입의 선택이 픽셀마다 변할 수 있다는 사실에 부가하여 상이한 픽셀을 피벗으로 한 서브프레임이 상이한 변환을 이용할 수 있기 때문이다. 변환 Hi 는 분리가능 DCT, 비-분리가능 DCT, 2-D 가버 웨이브릿, 조종가능 피라미드, 2-D 방향성 웨이브릿, 커브릿 (curvelet) 및 컨투어릿 (contourlet) 과 같은 변환의 라이브러리로부터 선택될 수 있다. 하나의 실시형태에 있어서, 이용되는 공간 변환은 비적응 방식의 직교 분리가능 2D-DCT 이다. 다른 실시형태에 있어서, 이용되는 공간 변환은 비적응 방식의 직교 분리가능 2D-아다마르 변환이다.
분리가능 변환은 왜곡 이후에 비-분리가능으로 되는 것이 주목되어야 한다. 변환의 선택은 선험적으로 고정될 수 있고, 또는 상이한 픽셀을 피벗으로 한 상이한 서브프레임에 대해 적응적일 수 있다. 적응적인 경우에, 선택된 변환은 마스터 임계치
Figure 112010051641620-pct00029
보다 큰 절대값을 갖는 ei 에서의 계수의 최소 개수를 갖는 변환이다.
서브프레임에 대한 공간 변환 선택 프로세스의 하나의 실시형태의 흐름도가 도 7 에 도시되어 있다. 이 프로세스는, 하드웨어 (회로, 전용 로직 등), (범용 컴퓨터 시스템이나 전용 머신 상에서 실행되는 것과 같은) 소프트웨어, 또는 이들의 조합을 포함할 수도 있는 처리 로직에 의해 수행된다.
도 7 을 참조하면, 이 프로세스는, 변환이 픽셀-적응인지 여부를 처리 로직이 테스트함으로써 시작된다 (처리 블록 701). 이 테스트는 리스트를 참조함으로써 수행될 수도 있다. 하나의 실시형태에 있어서, 이 리스트는 변환이 비적응적이도록 이루어질 수 있다. 다른 실시형태에 있어서, 이 리스트는 벡터 OP 내에서 시그널링될 수 있다. 변환이 픽셀-적응이 아니라고 처리 로직이 판정하는 경우에는, 처리 로직은 사용을 위한 2-D 직교 분리가능 DCT 를 변환 Hi 로서 선택하고, 서브프레임 zi 에 대해 이 변환을 적용함으로써 변환 계수 ei 를 발생시키며, 서브프레임
Figure 112010051641620-pct00030
에 대해 이 변환을 적용함으로써 변환 계수
Figure 112010051641620-pct00031
를 발생시킨다 (처리 블록 702).
변환이 픽셀-적응이라고 처리 로직이 판정하는 경우에는, 변환의 라이브러리 {H1, H2, …} (처리 블록 704) 에서의 각 변환 Hj 에 대하여, 처리 로직은 다음의 수학식:
Figure 112010051641620-pct00032
를 이용하여 변환 계수 ej 를 컴퓨팅한다 (처리 블록 703). 변환 계수 ej 는 변환 Hj 에 대응한다.
다음에, 각 j 에 대하여, 처리 로직은 임계치
Figure 112010051641620-pct00033
보다 큰 절대값을 갖는 ej 에서의 계수의 개수를 카운트하고 (처리 블록 705), 변환의 라이브러리로부터 최소 카운트를 갖는 변환 Hk 를 선택하고, 최소 카운트에 대응하는 변환 Hk 와 동등하게 변환 Hi 를 설정한 다음, 변환 계수 ek 와 동등하게 계수 ei 를 설정하고, 서브프레임
Figure 112010051641620-pct00034
에 대해 이 변환 Hi 를 적용함으로써 변환 계수
Figure 112010051641620-pct00035
를 발생시킨다 (처리 블록 706).
공간 변환의 선택은 벡터 OP 내에서 시그널링될 수 있다.
임계화
도 2 의 처리 블록 204 의 부분으로서, 처리 로직은 또한 임계화를 수행한다. 보다 상세하게는, 처리 로직은 ei 의 선택된 요소에 대해 적응 임계치
Figure 112010051641620-pct00036
을 적용하여, ai 를 획득한다. 하나의 실시형태에 있어서, ei 의 요소 모두가 선택된다. 다른 실시형태에 있어서, 제 1 요소 (일반적으로, DC 요소) 를 제외한 모든 요소가 선택된다. 또다른 실시형태에 있어서, 어떠한 요소도 선택되지 않는다. 또한, 변환 계수 ei 는 마스터 임계치
Figure 112010051641620-pct00037
을 이용하여 임계화되어,
Figure 112010051641620-pct00038
를 획득한다. 임계화 동작은 예를 들어 하드 임계화 및 소프트 임계화와 같이 각종 방식으로 수행될 수 있다. 하드 임계화 동작은
Figure 112010051641620-pct00039
로서 정의되는데, 여기서 T 는 이용되는 임계치이다. 유사하게, 임계치로서 T 를 이용하는 소프트 임계화 동작은,
Figure 112010051641620-pct00040
로서 정의된다. 대안적인 실시형태에 있어서, 임계치
Figure 112010051641620-pct00041
은 다음의 방식 중 하나의 방식으로 컴퓨팅된다:
Figure 112010051641620-pct00042
Figure 112010051641620-pct00043
Figure 112010051641620-pct00044
이며, 여기서
Figure 112010051641620-pct00045
는 함수를 나타낸다.
Figure 112010051641620-pct00046
이며, 여기서
Figure 112010051641620-pct00047
는 함수를 나타낸다.
Figure 112010051641620-pct00048
. 함수
Figure 112010051641620-pct00049
는 도 11 에 도시된 바와 같은 단조 감소하는 계단 함수이다. 하나의 실시형태에 있어서, 함수의 스텝 위치 (f1, f2, …, fn 및 E1, E2, …, En) 는 복원된 이미지/비디오 품질에서의 로컬 최적을 달성하기 위해서 트레이닝 세트에 대해 튜닝된다. 하나의 실시형태에 있어서, 이 임계치 계산은 하드 임계화와 함께 이용된다.
Figure 112010051641620-pct00050
이도록 ai 에서의 넌제로 요소의 개수를 최소화하기 위해서,
Figure 112010051641620-pct00051
에 대한 가능한 값에 대해 탐색 수행. Elocal 은 사이드 정보의 부분일 수 있고, 또는 디폴트 값이 이용될 수도 있다. 이는 알고리즘에 대한 설정으로서 간주될 수 있다. 하나의 실시형태에 있어서, 디폴트 값은, 트레이닝 세트에 대해 튜닝하며 복원된 이미지/비디오 품질에서의 로컬 최적을 달성하는 값을 선택함으로써 획득될 수 있다.
Figure 112010051641620-pct00052
이도록 모든 k ∈ {1, 2, …, N} 에 대해 합산된 ak 에서의 넌제로 요소의 총수를 최소화하기 위해서,
Figure 112010051641620-pct00053
에 대한 가능한 값에 대해 공동 탐색 수행. Eglobal 은 사이드 정보의 부분일 수 있고, 또는 디폴트 값이 이용될 수도 있다. 이는 알고리즘에 대한 설정으로서 간주될 수 있다. 하나의 실시형태에 있어서, 디폴트 값은, 트레이닝 세트에 대해 튜닝하며 복원된 이미지/비디오 품질에서의 로컬 최적을 달성하는 값을 선택함으로써 획득될 수 있다.
Figure 112010051641620-pct00054
의 값은 벡터 OP 내에서 시그널링될 수 있다. 다른 실시형태에 있어서,
Figure 112010051641620-pct00055
을 계산하는데 이용되는 옵션의 선택은 벡터 OP 내에서 시그널링될 수 있다.
적응 임계치
Figure 112010051641620-pct00056
Figure 112010051641620-pct00057
의 선택된 요소에 대해 적용되어,
Figure 112010051641620-pct00058
를 획득한다. 하나의 실시형태에 있어서,
Figure 112010051641620-pct00059
의 요소 모두가 선택된다. 다른 실시형태에 있어서, 제 1 요소 (일반적으로, DC 요소) 를 제외한 모든 요소가 선택된다. 또다른 실시형태에 있어서, 어떠한 요소도 선택되지 않는다. 또한, 변환 계수
Figure 112010051641620-pct00060
는 마스터 임계치
Figure 112010051641620-pct00061
를 이용하여 임계화되어,
Figure 112010051641620-pct00062
를 획득한다. 임계화 동작은 전술한 하드 임계화 및 소프트 임계화와 같이 각종 방식으로 수행될 수 있다.
대안적인 실시형태에 있어서, 임계치
Figure 112010051641620-pct00063
가 다음의 방식 중 하나의 방식으로 컴퓨팅된다:
Figure 112010051641620-pct00064
Figure 112010051641620-pct00065
Figure 112010051641620-pct00066
이며, 여기서
Figure 112010051641620-pct00067
는 함수를 나타낸다.
Figure 112010051641620-pct00068
이며, 여기서
Figure 112010051641620-pct00069
는 함수를 나타낸다.
Figure 112010051641620-pct00070
. 함수
Figure 112010051641620-pct00071
는 도 11 에 도시된 바와 같은 단조 감소하는 계단 함수이다. 함수의 스텝 위치 (f1, f2, …, fn 및 E1, E2, …, En) 는 로컬 최적을 달성하기 위해서 트레이닝 세트에 대해 튜닝된다. 하나의 실시형태에 있어서, 이 임계치 계산이 이용되며, 임계화 동작에 하드 임계화가 이용된다.
Figure 112010051641620-pct00072
이도록
Figure 112010051641620-pct00073
에서의 넌제로 요소의 개수를 최소화하기 위해서,
Figure 112010051641620-pct00074
에 대한 가능한 값에 대해 탐색 수행. Elocal 은 사이드 정보의 부분일 수 있고, 또는 디폴트 값이 이용될 수도 있다. 이는 알고리즘에 대한 설정으로서 간주될 수 있다. 하나의 실시형태에 있어서, 디폴트 값은, 트레이닝 세트에 대해 튜닝하며 복원된 이미지/비디오 품질에서의 로컬 최적을 달성하는 값을 선택함으로써 획득될 수 있다.
Figure 112010051641620-pct00075
이도록 모든 k ∈ {1, 2, …, N} 에 대해 합산된
Figure 112010051641620-pct00076
에서의 넌제로 요소의 총수를 최소화하기 위해서,
Figure 112010051641620-pct00077
에 대한 가능한 값에 대해 공동 탐색 수행. Eglobal 은 사이드 정보의 부분일 수 있고, 또는 디폴트 값이 이용될 수도 있다. 이는 알고리즘에 대한 설정으로서 간주될 수 있다. 하나의 실시형태에 있어서, 디폴트 값은, 트레이닝 세트에 대해 튜닝하며 복원된 이미지/비디오 품질에서의 로컬 최적을 달성하는 값을 선택함으로써 획득될 수 있다.
하나의 실시형태에 있어서,
Figure 112010051641620-pct00078
의 값은 벡터 OP 내에서 시그널링된다. 다른 실시형태에 있어서,
Figure 112010051641620-pct00079
를 계산하는데 이용되는 옵션의 선택은 벡터 OP 내에서 시그널링된다.
시간 변환 선택 및 적용
처리 블록 205 에서, 처리 로직은 임계화의 결과, 즉 벡터 ai
Figure 112010051641620-pct00080
를 이용하여, M2×2 매트릭스
Figure 112010051641620-pct00081
를 형성한다;
Figure 112010051641620-pct00082
. 본 명세서에서의 목적을 위해, 함수
Figure 112010051641620-pct00083
는, 페이드와 같은 보다 복잡한 장면 특성을 캡처하기 위한 보다 일반적인 함수 또는 휘도 변화에 매칭하기 위한
Figure 112010051641620-pct00084
의 요소 모두의 단순한 선형 스케일링 또는 단위 함수일 수도 있다. 처리 로직은 픽셀-적응 시간 변환 Gi 를 이용하여
Figure 112010051641620-pct00085
를 bi 로 변환한다;
Figure 112010051641620-pct00086
. 변환 Gi 는 변환의 라이브러리로부터 선택될 수 있다. 변환은 픽셀-적응으로 지칭되는데, 그 이유는 상이한 픽셀을 피벗으로 한 서브프레임이 상이한 변환을 이용할 수 있기 때문이다. 적응적인 경우에, 선택된 변환은, 마스터 임계치
Figure 112010051641620-pct00087
보다 큰 절대값을 갖는 bi 에서의 계수의 최소 개수를 갖는 변환이다.
도 8 은 시간 변환 선택 프로세스의 하나의 실시형태의 흐름도이다. 이 프로세스는, 하드웨어 (회로, 전용 로직 등), (범용 컴퓨터 시스템이나 전용 머신 상에서 실행되는 것과 같은) 소프트웨어, 또는 이들의 조합을 포함할 수도 있는 처리 로직에 의해 수행된다.
도 8 을 참조하면, 이 프로세스는, 변환이 픽셀-적응인지 여부를 처리 로직이 테스트함으로써 시작된다 (처리 블록 801). 이 테스트는 리스트를 참조함으로써 수행될 수도 있다. 하나의 실시형태에 있어서, 이 리스트는 변환이 비적응적이도록 이루어질 수 있다. 다른 실시형태에 있어서, 이 리스트는 벡터 OP 내에서 시그널링될 수 있다. 변환이 픽셀-적응이 아니라고 처리 로직이 판정하는 경우에는, 처리 로직은 디폴트 시간 변환에 기초하여 변환 Gi 를 선택하고, 매트릭스
Figure 112010051641620-pct00088
에 대해 변환 Gi 를 적용함으로써 변환 계수 bi 를 발생시킨다 (처리 블록 802). 하나의 실시형태에 있어서, 이용되는 디폴트 시간 변환은 Haar 변환, 즉
Figure 112010051641620-pct00089
이다. 시간 변환의 선택은 벡터 OP 내에서 시그널링될 수 있다.
변환이 픽셀-적응이라고 처리 로직이 판정하는 경우에는, 변환의 라이브러리 {G1, G2, …} (처리 블록 804) 에서의 각 변환 Gj 에 대하여, 처리 로직은 다음의 수학식:
Figure 112010051641620-pct00090
를 이용하여 변환 계수 bj 를 컴퓨팅한다 (처리 블록 803). 변환 계수 bj 는 변환 Gj 에 대응한다.
다음에, 각 j 에 대하여, 처리 로직은 마스터 임계치
Figure 112010051641620-pct00091
보다 큰 절대값을 갖는 bj 에서의 계수의 개수를 카운트하고 (처리 블록 805), 변환의 라이브러리로부터 최소 카운트를 갖는 변환 Gk 를 선택하고, 최소 카운트에 대응하는 변환 Gk 와 동등하게 변환 Gi 를 설정한 다음, 변환 계수 bk 와 동등하게 계수 bi 를 설정한다 (처리 블록 806).
시간 변환 이후의 임계화
변환 계수 bi 를 발생시킨 이후에,
Figure 112010051641620-pct00092
를 이용하여 변환 계수 bi 가 임계화되어, ci 를 획득한다 (도 2 의 처리 블록 206). 임계화 동작은 전술한 바와 같은 하드 임계화 및 소프트 임계화와 같이 각종 방식으로 수행될 수 있다. 임계화의 선택은 벡터 OP 내에서 시그널링될 수 있다.
하나의 실시형태에 있어서, 도 9 에 도시된 바와 같이 하드 임계화가 이용된다. 도 9 를 참조하면, 하드 임계화는, 하드웨어 (회로, 전용 로직 등), (범용 컴퓨터 시스템이나 전용 머신 상에서 실행되는 것과 같은) 소프트웨어, 또는 이들의 조합을 포함할 수도 있는 처리 로직에 의해 수행된다.
하드 임계화는, 입력으로서 마스터 임계치
Figure 112010051641620-pct00093
및 계수 bi 를 이용하며, 처리 로직이, 각 요소 bij ∈ bi 에 대하여, 다음의 수학식:
Figure 112010051641620-pct00094
에 따라 대응하는 요소 cij ∈ ci 를 컴퓨팅함으로써 시작된다 (처리 블록 901). 이와 같이, 처리 로직은 마스터 임계치
Figure 112010051641620-pct00095
보다 작은 절대값을 갖는 모든 계수를 0 으로 설정하며, 이들 계수는 ci 로서 저장된다.
하나의 실시형태에 있어서, 선험적으로 선택된 bi 의 일부 요소는 임계화되어, ci 에서의 그 각각의 위치로 직접 카피된다. 특정 실시형태에 있어서, bi 의 제 1 칼럼에서의 요소는 임계화되지 않는다. 임계화되지 않는 요소 세트의 선택은 벡터 OP 내에서 시그널링될 수 있다.
하나의 실시형태에 있어서, 요소 cij ∈ ci 는 선택적으로 수학식
Figure 112010051641620-pct00096
을 이용함으로써 증대되는데, 여기서 파라미터
Figure 112010051641620-pct00097
,
Figure 112010051641620-pct00098
은 복원된 이미지/비디오 품질에서의 로컬 최적을 달성하기 위해서 트레이닝 세트에 대해 튜닝된다. 이러한 동작이 도 2 에서의 처리 블록 206 이후에 발생한다는 것에 주목하라. 하나의 실시형태에 있어서, 이들 파라미터는 벡터 OP 내에서 시그널링될 수 있다.
역방향 변환
임계화 이후에, 처리 로직은 Gi -1 을 이용하여 계수를 (시간 변환으로) 역방향 변환하여,
Figure 112010051641620-pct00099
을 획득한다 (처리 블록 207). 또한, 처리 로직은 di 에 대해 역방향 변환 (공간) Hi -1 을 적용하여, 처리된 서브프레임
Figure 112010051641620-pct00100
를 획득한다 (처리 블록 208).
하나의 실시형태에 있어서, 현재의 프레임은 이전의 반복에 의해 출력된 과거의 프레임을 이용하지 않고 처리된다. 이 실시형태에 있어서, 벡터
Figure 112010051641620-pct00101
,
Figure 112010051641620-pct00102
,
Figure 112010051641620-pct00103
및 매트릭스
Figure 112010051641620-pct00104
, bi, ci,
Figure 112010051641620-pct00105
는 컴퓨팅되지 않는다. 벡터 di 는 di=ai 로서 획득되며, 역방향 변환 (공간) Hi -1 이 di 에 대해 적용되어, 처리된 서브프레임
Figure 112010051641620-pct00106
(
Figure 112010051641620-pct00107
) 를 획득한다.
다른 실시형태에 있어서, 이미지 처리의 결과로서 출력된 과거의 프레임 세트 {
Figure 112010051641620-pct00108
,
Figure 112010051641620-pct00109
, …} 가 단지 직전의 과거의 출력 프레임
Figure 112010051641620-pct00110
를 이용하는 대신에 이용될 수 있다. NPF 를 이 세트에서의 과거의 프레임의 개수로 표시한다. 이 경우, 이 세트에서의 과거의 프레임 각각은 전술한 바와 동일한 방식으로
Figure 112010051641620-pct00111
의 하나의 칼럼에 기여한다. 출력 프레임
Figure 112010051641620-pct00112
는 제 2 칼럼에 대해
Figure 112010051641620-pct00113
의 형태로 기여하며, 출력 프레임
Figure 112010051641620-pct00114
는 제 3 칼럼에 대해
Figure 112010051641620-pct00115
의 형태로 기여하는 등이다. 하나의 실시형태에 있어서,
Figure 112010051641620-pct00116
, bi, ci 및 di 는 크기 M2×(NPF+1) 로 이루어지며, Gi 는 크기 (NPF+1)×(NPF+1) 로 이루어진다.
서브프레임의 결합
임계화된 계수에 대해 역방향 변환을 적용한 이후에, 처리된 서브프레임 모두가 가중화된 방식으로 결합되어, 프레임 y 를 형성한다. 하나의 실시형태에 있어서, 가중치 wi 가 각 처리된 서브프레임
Figure 112010051641620-pct00117
에 대해 컴퓨팅된다. 대안적인 실시형태에 있어서, ei 및 ai 에 기초한 가중치가 다음의 방식 중 하나의 방식으로 컴퓨팅된다:
● wi = 1
Figure 112010051641620-pct00118
이며, 여기서
Figure 112010051641620-pct00119
는 함수를 나타낸다.
● MSE 옵션 1:
Figure 112010051641620-pct00120
.
● L-p 놈 (p≥0) 옵션 1:
Figure 112010051641620-pct00121
.
● 튜닝된 가중치 옵션 1:
Figure 112010051641620-pct00122
이며, 여기서
Figure 112010051641620-pct00123
는 세트 {1, 2, …, M2} (
Figure 112010051641620-pct00124
에 대한 가능한 값의 세트) 로부터 [0,1] 로의 매핑을 나타낸다.
Figure 112010051641620-pct00125
는 트레이닝 비디오의 세트에 대해 최상의 성능 (PSNR 과 같은 메트릭을 이용하여 또는 주관적 스코어를 이용하여 측정됨) 을 획득하기 위해서 시뮬레이션된 어닐링과 같은 최적화 알고리즘을 이용하여 튜닝된다.
● 다른 실시형태에 있어서, bi 및 ci 에 기초한 가중화를 위한 가중치는 다음의 방식 중 하나의 방식으로 컴퓨팅될 수 있다:
Figure 112010051641620-pct00126
이며, 여기서
Figure 112010051641620-pct00127
는 함수를 나타낸다.
● MSE 옵션 2:
Figure 112010051641620-pct00128
.
● L-p 놈 (p≥0) 옵션 2:
Figure 112010051641620-pct00129
.
● 튜닝된 가중치 옵션 2:
Figure 112010051641620-pct00130
이며, 여기서
Figure 112010051641620-pct00131
는 세트 {1, 2, …, 2M2} (
Figure 112010051641620-pct00132
에 대한 가능한 값의 세트) 로부터 [0,1] 로의 매핑을 나타낸다.
Figure 112010051641620-pct00133
는 트레이닝 비디오의 세트에 대해 최상의 성능 (PSNR 과 같은 메트릭을 이용하여 또는 주관적 스코어를 이용하여 측정됨) 을 획득하기 위해서 시뮬레이션된 어닐링과 같은 최적화 알고리즘을 이용하여 튜닝된다.
매핑
Figure 112010051641620-pct00134
및/또는 계산된 가중치는 벡터 OP 내에서 시그널링될 수 있다.
(모든 픽셀에 대응하는) 처리된 서브프레임
Figure 112010051641620-pct00135
은 함께 결합되어 가중화된 방식으로 y 를 형성한다. 이 프로세스의 하나의 실시형태는 j 번째 픽셀의 값인 yj 에 대해 설명된다.
1. yj=0 및 nj=0 설정 (여기서, nj 는 j 번째 픽셀에 대한 정규화 계수임).
2. 각 처리된 서브프레임
Figure 112010051641620-pct00136
에 대하여,
a. 픽셀 j 가 pi 의 부분인 경우,
ⅰ. k = pi 에서의 픽셀 j 의 인덱스.
ⅱ.
Figure 112010051641620-pct00137
(여기서,
Figure 112010051641620-pct00138
는 처리된 서브프레임
Figure 112010051641620-pct00139
에서의 픽셀 j 의 값임).
ⅲ.
Figure 112010051641620-pct00140
3.
Figure 112010051641620-pct00141
도 10 은 모든 처리된 서브프레임을 결합하여 프레임 y 를 형성하기 위한 프로세스의 하나의 실시형태의 흐름도이다. 이 프로세스는, 하드웨어 (회로, 전용 로직 등), (범용 컴퓨터 시스템이나 전용 머신 상에서 실행되는 것과 같은) 소프트웨어, 또는 이들의 조합을 포함할 수도 있는 처리 로직에 의해 수행된다.
도 10 을 참조하면, 이 프로세스는 프레임 y 에서의 각 픽셀 m=1:N 에 대하여 그 값 ym 및 그 정규화 인자 nm 을 0 으로 설정함으로써 시작된다 (처리 블록 1001). 다음에, 처리 로직은 픽셀 인덱스 j 및 서브프레임 인덱스 i 를 1 로 초기화한다 (처리 블록 1002).
초기화 이후에, 처리 로직은 픽셀 j∈pi 인지 여부를 판정한다 (처리 블록 1003). j∈pi 인 경우에는, 이 프로세스는 처리 블록 1004 로 천이한다. j∈pi 가 아닌 경우에는, 이 프로세스는 처리 블록 1005 로 천이한다.
처리 블록 1004 에서, 하나의 실시형태에 있어서, 처리 로직은 전술한 바와 같이
Figure 112010051641620-pct00142
,
Figure 112010051641620-pct00143
에서의 픽셀 j 의 값 및 가중치 wi 를 이용하여 yj 및 nj 를 업데이트한다. 하나의 실시형태에 있어서, 가중치는 다음의 수학식:
Figure 112010051641620-pct00144
에 따라 계산된다.
처리 블록 1004 에 있어서, k 는 pi 에서의 픽셀 j 의 인덱스와 동등하다. 하나의 실시형태에 있어서, 처리 로직은 다음의 수학식:
Figure 112010051641620-pct00145
에 기초하여 yj 및 nj 를 업데이트한다. 처리 로직이 yj 및 nj 를 업데이트한 이후에, 이 프로세스는 처리 블록 1005 로 천이한다.
처리 블록 1005 에서, 처리 로직은 인덱스 i=N (프레임에서의 픽셀의 총수) 인지 여부를 체크한다. i=N 인 경우에는, 이 프로세스는 처리 블록 1007 로 천이한다. i=N 이 아닌 경우에는, 이 프로세스는 처리 블록 1006 으로 천이한다. 처리 블록 1006 에서, 인덱스는 1 만큼 증분되며, 이 프로세스는 처리 블록 1003 으로 천이한다.
처리 블록 1007 에서, 처리 로직은 다음의 수학식:
Figure 112010051641620-pct00146
에 따라 yj 를 업데이트한다.
yj 를 업데이트한 이후에, 처리 로직은 인덱스 i 를 1 과 동등하게 설정하고 (처리 블록 1008), 인덱스 j 가 N 과 동등한지 여부를 체크한다 (처리 블록 1009). 인덱스 j 가 N 과 동등한 경우에는, 이 프로세스는 종료된다. 인덱스 j 가 N 과 동등하지 않은 경우에는, 이 프로세스는 처리 블록 1010 으로 천이하는데, 이 처리 블록 1010 에서 인덱스 j 는 1 만큼 증분된다. 인덱스 j 를 1 만큼 증분한 이후에, 이 프로세스는 처리 블록 1003 으로 천이한다.
프레임 y 는 현재의 입력 프레임 x 에 대응하는 출력이다. 처리할 추가 프레임이 존재하는 경우, 처리 로직은 도 2 에 도시된 바와 같이 현재의 입력 프레임 x 를 업데이트하고, y 를
Figure 112010051641620-pct00147
로 카피하며, 이 프로세스를 반복한다 (처리 블록 212).
하나의 실시형태에 있어서, 프레임 y 는 픽셀-도메인 또는 변환-도메인에서 추가 이미지/비디오 처리를 겪는다. 하나의 실시형태에 있어서, 언샤프 마스킹 (unsharp masking) 이 프레임 y 에 대해 수행되어, 고주파수 디테일을 증대시킨다. 다른 실시형태에 있어서, 크기 P×P 픽셀의 다수의 블록이 프레임 y 로부터 형성되고 (여기서, P 는 정수임), 각 P×P 블록 f 는 2-D DCT, 2-D 아다마르 등과 같은 변환을 겪어, 다른 P×P 블록 h 를 생성한다. P×P 블록 h 의 요소 h(i,j) (여기서, 0≤i, j≤P-1) 는 처리되어,
Figure 112010051641620-pct00148
이도록 증대된 P×P 블록
Figure 112010051641620-pct00149
를 형성한다. 대안적인 실시형태에 있어서, 증대 인자
Figure 112010051641620-pct00150
는 다음의 방식 중 하나의 방식으로 컴퓨팅될 수 있는데:
Figure 112010051641620-pct00151
여기서, 파라미터
Figure 112010051641620-pct00152
는 복원된 이미지/비디오 품질에서의 로컬 최적을 달성하기 위해서 트레이닝 세트에 대해 튜닝된다. 하나의 실시형태에 있어서, 이들 파라미터는 벡터 OP 내에서 시그널링될 수 있다. 전술한 동작은 도 2 의 처리 블록 210 이후에 발생한다는 것에 주목하라. 증대된 P×P 블록은 역방향 변환 및 결합되어, 프레임 y 의 증대된 버전을 형성한다.
대안적인 이미지 처리 실시형태
대안적인 실시형태에 있어서, 도 2 에 기재된 프로세스가 변경되어 보다 낮은 복잡도의 알고리즘 (이하, 보다 낮은 복잡도의 기술로 언급됨) 을 획득할 수 있다. 보다 낮은 복잡도의 기술이 도 12 에서의 흐름도로 도시되어 있다. 이 실시형태에 있어서, 프레임 y 는 현재의 입력 프레임 x 에 대응하는 보다 낮은 복잡도의 기술의 출력이며, 처리할 추가 프레임이 존재하는 경우, 도 12 에 도시된 바와 같이 현재의 입력 프레임 x 를 업데이트하고, y 를
Figure 112010051641620-pct00153
로 카피하며, 이 프로세스를 반복한다.
도 12 를 참조하면, 이 프로세스는, 처리 로직이,
Figure 112010051641620-pct00154
이도록 현재의 입력 프레임 x 및 과거의 출력 프레임
Figure 112010051641620-pct00155
를 이용하여 프레임
Figure 112010051641620-pct00156
를 형성함으로써 시작되는데, 여기서 wz, wy 는 실수이며, m 은 정수이다 (처리 블록 1201). 본 명세서에서의 목적을 위해, 표기 (j) 는 관심 대상인 프레임에서의 (래스터 스캔 순서로 넘버링된) 픽셀 j 의 값을 나타낸다. 예를 들어,
Figure 112010051641620-pct00157
는 프레임
Figure 112010051641620-pct00158
의 5 번째 픽셀의 값을 나타낸다. 하나의 실시형태에 있어서, wz=0.5 이며, wy=0.5 이다. 하나의 실시형태에 있어서, 값 wz 및 wy 는 벡터 OP 내에서 시그널링된다.
대안적인 실시형태에 있어서, m 의 선택은 다음의 방식 중 하나의 방식으로 이루어질 수 있다:
ⅰ. m=0
ⅱ.
Figure 112010051641620-pct00159
의 p-놈 (p≥0)
Figure 112010051641620-pct00160
이 최소화되도록 모든 가능한 값으로부터 m 선택.
ⅲ. 상기 'ⅱ' 에 기초하여 m 을 선택하지만, {j:j=jh+W×jv} 로 탐색 세트 제한 (여기서, W 는 프레임 x 의 폭이며, jh, jv ∈ {-J, -(J-1), …, -1, 0, 1, …, J-1, J} 임). J 는 0 이상의 임의의 정수이다.
하나의 실시형태에 있어서, m 의 선택은 벡터 OP 내에서 시그널링될 수 있다.
다른 실시형태에 있어서, 프레임
Figure 112010051641620-pct00161
는 휘도 변화 및 장면 페이드와 같은 이슈를 보상하기 위해서
Figure 112010051641620-pct00162
대신에
Figure 112010051641620-pct00163
의 처리된 버전을 이용하여 형성되는데, 여기서 이 처리는 세기 보상 및 비선형 예측 필터와 같은 기술을 포함하지만, 이에 제한되지는 않는다.
처리 로직은, pi 의 요소에 대응하는 위치에서 프레임 x 의 픽셀값으로 서브프레임으로 지칭되는 M2×1 벡터 zi 를 형성한다. 픽셀 i 는 서브프레임 zi 에 대한 피벗으로 지칭된다 (처리 블록 1202).
Figure 112010051641620-pct00164
(또한 서브프레임) 로 표시된 M2×1 벡터는 pi 의 요소에 대응하는 위치에서 프레임
Figure 112010051641620-pct00165
의 픽셀값으로 형성된다 (처리 블록 1202).
처리 로직은 공간 변환 Hi 를 선택하고, 각각 서브프레임 zi
Figure 112010051641620-pct00166
에 대해 이 공간 변환을 적용하여 벡터 ei
Figure 112010051641620-pct00167
를 획득한다 (처리 블록 1203).
처리 로직은 전술한 바와 동일한 프로세스를 이용하여
Figure 112010051641620-pct00168
로부터 적응 임계치
Figure 112010051641620-pct00169
을 컴퓨팅하고, ei 의 선택된 요소에 대해 적응 임계치
Figure 112010051641620-pct00170
을 적용하여, ai 를 획득한다 (처리 블록 1203). 하나의 실시형태에 있어서, ei 의 요소 모두가 선택된다. 다른 실시형태에 있어서, 제 1 요소 (일반적으로, DC 요소) 를 제외한 모든 요소가 선택된다. 전술한 바와 같이, 임계화 동작은 하드 임계화 및 소프트 임계화와 같이 각종 방식으로 수행될 수 있다.
ei 의 선택된 요소에 대해 적응 임계치
Figure 112010051641620-pct00171
을 적용한 이후에, 처리 로직은 ai, ei,
Figure 112010051641620-pct00172
를 이용하여 그리고
Figure 112010051641620-pct00173
를 이용하여 벡터 di 를 형성한다 (처리 블록 1204). aij, eij,
Figure 112010051641620-pct00174
및 dij 는 각각 벡터 ai, ei,
Figure 112010051641620-pct00175
및 di 에서의 j 번째 요소를 나타낸다 (여기서, j∈{1, 2, …, M2}). 대안적인 실시형태에 있어서, 값 dij 는 다음의 방식 중 하나의 방식으로 컴퓨팅된다.
ⅰ.
Figure 112010051641620-pct00176
ⅱ.
Figure 112010051641620-pct00177
ⅲ.
Figure 112010051641620-pct00178
하나의 실시형태에 있어서, dij 를 계산하는데 이용되는 옵션의 선택은 벡터 OP 내에서 시그널링된다.
그 이후에, 처리 로직은 벡터 di 에 대해 역방향 공간 변환을 적용하여 서브프레임
Figure 112010051641620-pct00179
를 생성하고 (처리 블록 1205), 나머지 처리 블록 1206, 1207, 1208 및 1209 는 도 2 에서의 그 각각의 카운터파트 209, 210, 211 및 212 와 같이 동작하여, 이 프로세스를 완료한다.
전술한 실시형태에 있어서, 선택적인 파라미터 벡터 OP 또는 그 부분은 코덱, 카메라, 수퍼-해상도 프로세서 등을 포함하지만 이에 제한되지는 않는 임의의 모듈에 의해 시그널링될 수 있다. 파라미터 벡터 OP 를 구성하는 하나의 단순한 방식은 다음과 같다: 각 선택은 벡터에서의 2 개의 요소를 이용하여 시그널링된다. n 번째 선택에 있어서,
Figure 112010051641620-pct00180
이며,
Figure 112010051641620-pct00181
=선택을 나타내는 값이다.
Figure 112010051641620-pct00182
은 설정될 필요가 있으며,
Figure 112010051641620-pct00183
인 경우에만 이용된다.
본 명세서에 기재된 기술은 RGB, YUV, YCbCr, YCoCg 및 CMYK 를 포함하지만 이에 제한되지는 않는 임의의 컬러 표현에서 비디오 시퀀스를 처리하는데 이용될 수 있다. 이들 기술은 컬러 표현에서 (빈 세트 또는 모든 채널 세트를 포함하여) 컬러 채널의 임의의 서브세트에 대해 적용될 수 있다. 하나의 실시형태에 있어서, YUV 컬러 표현에서의 'Y' 채널만이 본 명세서에 기재된 기술을 이용하여 처리된다. U 및 V 채널은 2-D 저역 통과 필터 (예를 들어, Le Gall 5/3 웨이브릿의 LL 대역 필터) 를 이용하여 필터링된다.
본 명세서에 기재된 기술은 비디오 시퀀스에서 프레임의 사전선택된 세트만을 처리하는데 이용될 수 있다. 하나의 실시형태에 있어서, 대안적인 프레임이 처리된다. 다른 실시형태에 있어서, 비디오 시퀀스의 하나 이상의 파티션에 속하는 모든 프레임이 처리된다. 처리를 위해 선택된 프레임 세트는 OP 내에서 시그널링될 수 있다.
압축/비압축 비디오 시퀀스에 대한 본 명세서에 기재된 기술의 적용에 부가하여, 이들 기술은 또한 비선형 디노이징 필터와 같은 후처리를 겪은 압축 비디오 시퀀스에 대해 적용될 수 있다. 또한, 이들 기술은, 저해상도 압축/비압축 비디오 시퀀스를 수퍼-해상도화함으로써 획득되는 비디오 시퀀스에 대해 적용될 수 있다. 또한, 이들 기술은, 프레임-레이트 변환 모듈에 의해 처리될 것이거나 또는 이미 처리된 비디오 시퀀스에 대해 적용될 수 있다.
컴퓨터 시스템의 일 실시예
도 14 는 본 명세서에 기재된 동작 중 하나 이상의 동작을 수행할 수도 있는 예시적인 컴퓨터 시스템의 블록도이다. 도 14 를 참조하면, 컴퓨터 시스템 (1400) 은 예시적인 클라이언트 또는 서버 컴퓨터 시스템을 포함할 수도 있다. 컴퓨터 시스템 (1400) 은, 정보를 통신하는 통신 메커니즘이나 버스 (1411), 및 버스 (1411) 에 커플링되어 정보를 처리하는 프로세서 (1412) 를 포함한다. 프로세서 (1412) 는 마이크로프로세서를 포함하지만, 예를 들어 Pentium™, PowerPC™, Alpha™ 등과 같은 마이크로프로세서에 제한되지는 않는다.
컴퓨터 시스템 (1400) 은, 버스 (1411) 에 커플링되어 프로세서 (1412) 에 의해 실행될 명령들 및 정보를 저장하는 RAM (Random Access Memory) 또는 다른 동적 저장 디바이스 (1404) (메인 메모리로 언급됨) 를 더 포함한다. 또한, 메인 메모리 (1404) 는 프로세서 (1412) 에 의한 명령들의 실행 중에 일시 변수 또는 다른 중간 정보를 저장하는데 사용될 수도 있다.
또한, 컴퓨터 시스템 (1400) 은, 버스 (1411) 에 커플링되어 프로세서 (1412) 에 대한 명령들 및 정적 정보를 저장하는 ROM (Read Only Memory) 및/또는 다른 정적 저장 디바이스 (1406), 및 자기 디스크나 광학 디스크 및 그 대응하는 디스크 드라이브와 같은 데이터 저장 디바이스 (1407) 를 포함한다. 데이터 저장 디바이스 (1407) 는 버스 (1411) 에 커플링되어, 정보 및 명령들을 저장한다.
컴퓨터 시스템 (1400) 은, 버스 (1411) 에 커플링되어 컴퓨터 사용자에게 정보를 디스플레이하는 디스플레이 디바이스 (1421) (예를 들어, CRT (Cathode Ray Tube) 또는 LCD (Liquid Crystal Display)) 에 더 커플링될 수도 있다. 또한, 영숫자 키 및 다른 키를 포함하는 영숫자 입력 디바이스 (1422) 는 버스 (1411) 에 커플링되어, 프로세서 (1412) 로 정보 및 커맨드 선택을 통신할 수도 있다. 부가적인 사용자 입력 디바이스는, 버스 (1411) 에 커플링되어, 프로세서 (1412) 로 방향 정보 및 커맨드 선택을 통신하며 디스플레이 (1421) 상의 커서 이동을 제어하는 커서 제어 디바이스 (1423) (예를 들어, 마우스, 트랙볼, 트랙패드, 스타일러스, 또는 커서 방향 키) 이다.
버스 (1411) 에 커플링될 수도 있는 다른 디바이스는 하드 카피 디바이스 (1424) 인데, 이 하드 카피 디바이스 (1424) 는 종이, 필름 또는 유사한 타입의 매체와 같은 매체 상에 정보를 마킹하는데 사용될 수도 있다. 버스 (1411) 에 커플링될 수도 있는 또다른 디바이스는 전화기나 핸드헬드 팜 디바이스와 통신하는 유/무선 통신 능력 (1425) 이다.
컴퓨터 시스템 (1400) 및 연관된 하드웨어의 임의의 컴포넌트 또는 모든 컴포넌트가 본 발명에서 사용될 수도 있다는 것에 주목하라. 그러나, 컴퓨터 시스템의 다른 구성은 디바이스의 일부 또는 전부를 포함할 수도 있다는 것이 인식될 수 있다.
본 발명의 다수의 변경 및 변형은 전술한 설명을 판독한 이후에 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백해진다는 것은 의심할 바 없지만, 예시로서 기재 및 설명된 임의의 특정 실시형태는 결코 제한하는 것으로 고려되도록 의도되어서는 안 된다는 것이 이해되어야 한다. 그러므로, 각종 실시형태의 상세에 대한 참조는, 본 발명에 대해 본질적인 것으로서 간주되는 특징만을 기술하는 특허청구범위의 범위를 제한하도록 의도되지는 않는다.

Claims (39)

  1. 비디오 시퀀스 처리 방법으로서,
    입력 비디오를 수신하는 단계; 및
    변환 계수의 적응 임계화 (adaptive thresholding) 와 함께 공간 변환 및 시간 변환을 적용함으로써 상기 입력 비디오의 공간적 및 시간적 처리를 이용하여 상기 입력 비디오에서 노이즈와 플리커 모두 또는 상기 노이즈 및 상기 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계를 포함하고,
    상기 입력 비디오에서 노이즈와 플리커 모두 또는 상기 노이즈 및 상기 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계는,
    현재의 프레임의 서브프레임 및 과거의 프레임의 서브프레임을, 각 서브프레임에 대해 공간 변환을 이용하여 변환하는 단계,
    각 변환된 서브프레임에 대한 공간-변환 계수를 적응 임계치로 임계화하는 단계,
    시간 변환을 이용하여 상기 임계화된 공간-변환 계수를 변환하는 단계,
    각 변환된 서브프레임에 대한 시간-변환 계수를 임계치로 임계화하여, 임계화된 시간-변환 계수를 생성하는 단계,
    상기 임계화된 시간-변환 계수를 역방향 변환하여, 처리된 서브프레임을 픽셀 도메인에서 형성하는 단계, 및
    상기 처리된 서브프레임을 결합하여, 새로운 프레임을 생성하는 단계를 포함하는, 비디오 시퀀스 처리 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 공간 변환 및 시간 변환을 적용하는 것은, 서브프레임에 대해 적어도 하나의 왜곡 (warped) 변환을 적용하여 변환 계수를 생성하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  4. 제 3 항에 있어서,
    상기 적어도 하나의 왜곡 변환은 2-D 분리가능 DCT 또는 2-D 아다마르 변환을 포함하는, 비디오 시퀀스 처리 방법.
  5. 제 1 항에 있어서,
    상기 적응 임계화는 공간적으로 적응 임계치를 적용하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  6. 제 1 항에 있어서,
    적응 임계치를 컴퓨팅하는 단계를 더 포함하고,
    적응 임계화를 수행하는 것은 상기 적응 임계치로 변환 계수를 임계화하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  7. 삭제
  8. 제 1 항에 있어서,
    상기 공간 변환은 왜곡 변환인, 비디오 시퀀스 처리 방법.
  9. 제 1 항에 있어서,
    상기 각 변환된 서브프레임에 대한 공간-변환 계수를 적응 임계치로 임계화하는 단계는,
    제 1 임계치를 이용하여 상기 현재의 프레임의 서브프레임으로부터 발생된 계수에 대한 임계화를 수행하는 단계, 및
    제 2 임계치를 이용하여 상기 과거의 프레임의 서브프레임으로부터 발생된 계수에 대한 임계화를 수행하는 단계를 포함하고,
    상기 제 2 임계치는 상기 제 1 임계치와 독립적으로 컴퓨팅되는, 비디오 시퀀스 처리 방법.
  10. 제 1 항에 있어서,
    하나 이상의 적응 임계치를 컴퓨팅하는 단계를 더 포함하고,
    각 변환된 서브프레임에 대한 변환 계수를 적응 임계치로 임계화하는 것은, 각 변환된 서브프레임에 대한 변환 계수를 상기 하나 이상의 적응 임계치 중 하나의 적응 임계치로 임계화하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  11. 제 1 항에 있어서,
    상기 새로운 프레임에 대해 적어도 하나의 순방향 변환을 적용하여, 상기 새로운 프레임의 데이터를 변환 도메인에서의 계수로 변환하는 단계;
    상기 계수에 대해 적어도 하나의 데이터 처리 동작을 수행하는 단계; 및
    데이터 처리 이후에 상기 계수에 대해 적어도 하나의 역방향 변환을 적용하는 단계를 더 포함하는, 비디오 시퀀스 처리 방법.
  12. 제 11 항에 있어서,
    상기 적어도 하나의 데이터 처리 동작은, 상기 계수에 대한 증대 인자 (enhancement factor) 의 적용 및 언샤프 마스킹 (unsharp masking) 으로 구성되는 그룹의 하나 이상을 포함하는, 비디오 시퀀스 처리 방법.
  13. 비디오 시퀀스 처리 방법으로서,
    입력 비디오를 수신하는 단계; 및
    변환 계수의 적응 임계화 (adaptive thresholding) 와 함께 공간 변환 및 시간 변환을 적용함으로써 상기 입력 비디오의 공간적 및 시간적 처리를 이용하여 상기 입력 비디오에서 노이즈와 플리커 모두 또는 상기 노이즈 및 상기 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계를 포함하고,
    상기 동작은,
    입력 비디오의 현재의 프레임으로부터 특정 픽셀에서의 서브프레임을 선택하며, 상기 특정 픽셀에 대응하는, 출력 비디오의 과거의 프레임으로부터의 다른 서브프레임을 발견하는 것,
    왜곡 공간 변환을 선택하며, 상기 서브프레임들을 공간 변환 도메인으로 변환하는 것,
    적응 임계치를 도출하며, 상기 현재의 프레임으로부터의 서브프레임 및 상기 과거의 프레임으로부터의 서브프레임의 공간-변환 계수를 임계화하는 것,
    상기 임계화된 공간-변환 계수에 대해 시간 변환을 적용하며, 시간-변환 계수의 선택된 서브세트를 임계화하는 것,
    먼저 시간적으로 그 다음에 공간적으로 상기 시간-변환 계수를 역방향 변환하여, 처리된 서브프레임을 획득하는 것, 및
    현재의 프레임에 속하는 이전에 처리된 서브프레임과 상기 처리된 서브프레임을 결합하여, 출력 비디오의 새로운 프레임을 생성하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  14. 제 13 항에 있어서,
    상기 왜곡 공간 변환은 픽셀-적응적이며, 상기 적응 임계치는 디테일-보존적인, 비디오 시퀀스 처리 방법.
  15. 제 13 항에 있어서,
    상기 과거의 프레임의 서브프레임은 기준을 만족시키는 것에 기초하여 위치되는, 비디오 시퀀스 처리 방법.
  16. 제 15 항에 있어서,
    상기 기준은, 픽셀의 개수; 상기 현재의 프레임의 선택된 서브프레임과 상기 과거의 프레임의 선택된 서브프레임 사이의 p-놈(p-norm)의 모든 값 중에서 최소값; 상기 현재의 프레임의 선택된 서브프레임과 상기 과거의 프레임의 선택된 서브프레임 사이의 p-놈의, 수평 오프셋과 수직 오프셋 및 상기 과거의 프레임의 폭으로 제한되는 범위 내의 값 중에서 최소값; 및 상기 현재의 프레임의 선택된 서브프레임과 상기 과거의 프레임의 선택된 서브프레임 사이의 p-놈의, 랜덤하게 선택된 수평 오프셋과 수직 오프셋 및 상기 과거의 프레임의 폭으로 제한되는 범위 내의 값 중에서 최소값으로 구성되는 그룹의 하나에 기초하는, 비디오 시퀀스 처리 방법.
  17. 제 13 항에 있어서,
    상기 적응 임계치를 도출하며, 상기 현재의 프레임으로부터의 서브프레임 및 상기 과거의 프레임으로부터의 서브프레임의 공간-변환 계수를 임계화하는 것은, 변환 계수의 크기가 임계치보다 작은 경우에 계수가 0 으로 설정되는 하드 임계화를 이용하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  18. 제 13 항에 있어서,
    상기 적응 임계치를 도출하며, 상기 현재의 프레임으로부터의 서브프레임 및 상기 과거의 프레임으로부터의 서브프레임의 공간-변환 계수를 임계화하는 것은, 소프트 임계화를 이용하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  19. 제 13 항에 있어서,
    상기 입력 비디오로부터의 다른 프레임에 매칭되는 상기 출력 비디오의 출력 비디오 프레임을 선택하는 단계; 및
    상기 출력 비디오 프레임을 상기 과거의 프레임으로서 이용하여 상기 동작을 수행하는 단계를 더 포함하는, 비디오 시퀀스 처리 방법.
  20. 제 13 항에 있어서,
    상기 서브프레임들이 모든 픽셀에서 일정하도록 설정하는 단계를 더 포함하는, 비디오 시퀀스 처리 방법.
  21. 제 13 항에 있어서,
    각 서브프레임에 대해 변환을 적응적으로 선택하는 단계를 더 포함하는, 비디오 시퀀스 처리 방법.
  22. 제 13 항에 있어서,
    각 픽셀에서 적응적으로 서브프레임을 선택하는 단계를 더 포함하는, 비디오 시퀀스 처리 방법.
  23. 제 13 항에 있어서,
    하나 이상의 적응 임계치를 컴퓨팅하는 단계를 더 포함하고,
    각 변환된 서브프레임에 대한 변환 계수를 적응 임계치로 임계화하는 것은, 각 변환된 서브프레임에 대한 변환 계수를 상기 하나 이상의 적응 임계치 중 하나의 적응 임계치로 임계화하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  24. 제 23 항에 있어서,
    각 픽셀에서 선택된 서브프레임에 대해 변환을 적응적으로 선택하는 단계를 더 포함하는, 비디오 시퀀스 처리 방법.
  25. 삭제
  26. 제 13 항에 있어서,
    상기 임계화된 공간-변환 계수에 대해 시간 변환을 적용하며, 시간-변환 계수의 선택된 서브세트를 임계화하는 것은,
    상기 현재의 프레임으로부터의 서브프레임 및 상기 과거의 프레임으로부터의 서브프레임의 임계화된 공간-변환 계수로부터 제 1 매트릭스를 형성하는 것, 및
    상기 제 1 매트릭스에서의 계수의 선택된 서브세트에 대해 임계화를 적용하여, 제 2 매트릭스를 생성하는 것을 포함하고, 또한
    상기 먼저 시간적으로 그 다음에 공간적으로 상기 시간-변환 계수를 역방향 변환하여, 처리된 서브프레임을 획득하는 것은,
    상기 제 2 매트릭스에 대해 역방향 시간 변환을 적용하여, 제 3 매트릭스를 발생시키는 것, 및
    상기 제 3 매트릭스에 대해 역방향 공간 변환을 적용하여, 상기 처리된 서브프레임을 생성하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  27. 삭제
  28. 비디오 시퀀스 처리 방법으로서,
    입력 비디오를 수신하는 단계; 및
    변환 계수의 적응 임계화 (adaptive thresholding) 와 함께 공간 변환 및 시간 변환을 적용함으로써 상기 입력 비디오의 공간적 및 시간적 처리를 이용하여 상기 입력 비디오에서 노이즈와 플리커 모두 또는 상기 노이즈 및 상기 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계를 포함하고,
    상기 동작은,
    입력 비디오의 현재의 프레임 및 출력 비디오의 과거의 프레임으로부터 새로운 프레임을 형성하는 것,
    각각 상기 현재의 프레임 및 상기 새로운 프레임으로부터의 픽셀을 이용하여 그리고 각 픽셀에 대한 서브프레임 타입에 기초하여 각각 제 1 서브프레임 및 제 2 서브프레임에서의 각 픽셀로부터 형성된 벡터를 이용하여 상기 제 1 서브프레임 및 상기 제 2 서브프레임을 발생시키고, 왜곡 공간 변환을 선택하며 상기 제 1 서브프레임 및 상기 제 2 서브프레임을 공간 변환 도메인으로 변환하고, 적응 임계치를 도출하며 상기 제 1 서브프레임의 변환 계수를 임계화하고, 상기 임계화된 변환 계수 및 상기 제 2 서브프레임으로부터 발생된 계수를 이용하여 매트릭스를 발생시키며, 상기 매트릭스에서의 계수를 역방향 변환하여 처리된 서브프레임을 생성함으로써, 상기 현재의 프레임의 서브프레임 및 상기 새로운 프레임의 서브프레임을 처리하는 것, 및
    현재의 프레임에 속하는 이전에 처리된 서브프레임과 상기 처리된 서브프레임을 결합하여, 출력 비디오의 새로운 프레임을 생성하는 것을 포함하는, 비디오 시퀀스 처리 방법.
  29. 제 28 항에 있어서,
    현재의 프레임 및 과거의 프레임은 다차원 컬러 표현의 모든 채널의 서브세트에 대해서만 채널 정보를 포함하는, 비디오 시퀀스 처리 방법.
  30. 삭제
  31. 시스템에 의해 실행되는 경우, 상기 시스템으로 하여금,
    입력 비디오를 수신하는 단계; 및
    변환 계수의 적응 임계화 (adaptive thresholding) 와 함께 공간 변환 및 시간 변환을 적용함으로써 상기 입력 비디오의 공간적 및 시간적 처리를 이용하여 상기 입력 비디오에서 노이즈와 플리커 모두 또는 상기 노이즈 및 상기 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계를 포함하는 방법을 수행하도록 하는 명령들을 저장하고,
    상기 입력 비디오에서 노이즈와 플리커 모두 또는 상기 노이즈 및 상기 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계는,
    현재의 프레임의 서브프레임 및 과거의 프레임의 서브프레임을, 각 서브프레임에 대해 공간 변환을 이용하여 변환하는 단계,
    각 변환된 서브프레임에 대한 공간-변환 계수를 적응 임계치로 임계화하는 단계,
    시간 변환을 이용하여 상기 임계화된 공간-변환 계수를 변환하는 단계,
    각 변환된 서브프레임에 대한 시간-변환 계수를 임계치로 임계화하여, 임계화된 시간-변환 계수를 생성하는 단계,
    상기 임계화된 시간-변환 계수를 역방향 변환하여, 픽셀 도메인에서 처리된 서브프레임을 형성하는 단계, 및
    상기 처리된 서브프레임을 결합하여, 새로운 프레임을 생성하는 단계를 포함하는, 하나 이상의 컴퓨터 판독가능 저장 매체를 갖는 제조물.
  32. 삭제
  33. 제 31 항에 있어서,
    상기 공간 변환 및 시간 변환을 적용하는 것은, 서브프레임에 대해 적어도 하나의 왜곡 변환을 적용하여 변환 계수를 생성하는 것을 포함하는, 하나 이상의 컴퓨터 판독가능 저장 매체를 갖는 제조물.
  34. 제 33 항에 있어서,
    상기 적어도 하나의 왜곡 변환은 2-D 분리가능 DCT 또는 2-D 아다마르 변환을 포함하는, 하나 이상의 컴퓨터 판독가능 저장 매체를 갖는 제조물.
  35. 삭제
  36. 제 31 항에 있어서,
    상기 공간 변환은 왜곡 변환인, 하나 이상의 컴퓨터 판독가능 저장 매체를 갖는 제조물.
  37. 제 31 항에 있어서,
    상기 각 변환된 서브프레임에 대한 공간-변환 계수를 적응 임계치로 임계화하는 단계는,
    제 1 임계치를 이용하여 상기 현재의 프레임의 서브프레임으로부터 발생된 계수에 대한 임계화를 수행하는 단계, 및
    제 2 임계치를 이용하여 상기 과거의 프레임의 서브프레임으로부터 발생된 계수에 대한 임계화를 수행하는 단계를 포함하고,
    상기 제 2 임계치는 상기 제 1 임계치와 독립적으로 컴퓨팅되는, 하나 이상의 컴퓨터 판독가능 저장 매체를 갖는 제조물.
  38. 시스템에 의해 실행되는 경우, 상기 시스템으로 하여금,
    입력 비디오를 수신하는 단계; 및
    변환 계수의 적응 임계화 (adaptive thresholding) 와 함께 공간 변환 및 시간 변환을 적용함으로써 상기 입력 비디오의 공간적 및 시간적 처리를 이용하여 상기 입력 비디오에서 노이즈와 플리커 모두 또는 상기 노이즈 및 상기 플리커 중 하나를 감소시키기 위한 동작을 수행하는 단계를 포함하는 방법을 수행하도록 하는 명령들을 저장하고,
    상기 동작은,
    입력 비디오의 현재의 프레임으로부터 특정 픽셀에서의 서브프레임을 선택하며, 출력 비디오의 과거의 프레임으로부터 다른 서브프레임을 발견하는 것,
    왜곡 공간 변환을 선택하며, 상기 서브프레임들을 공간 변환 도메인으로 변환하는 것,
    적응 임계치를 도출하며, 상기 현재의 프레임으로부터의 서브프레임 및 상기 과거의 프레임으로부터의 서브프레임의 공간-변환 계수를 임계화하는 것,
    상기 공간-변환 계수에 대해 시간 변환을 적용하며, 시간-변환 계수의 선택된 서브세트를 임계화하는 것,
    먼저 시간적으로 그 다음에 공간적으로 상기 시간-변환 계수를 역방향 변환하여, 현재의 프레임 및 과거의 프레임 모두에 속하는 처리된 서브프레임을 획득하는 것, 및
    현재의 프레임에 속하는 처리된 서브프레임을 결합하여, 출력 비디오의 새로운 프레임을 생성하는 것을 포함하는, 하나 이상의 컴퓨터 판독가능 저장 매체를 갖는 제조물.
  39. 제 38 항에 있어서,
    상기 왜곡 공간 변환은 픽셀-적응적이며, 상기 적응 임계치는 디테일-보존적인, 하나 이상의 컴퓨터 판독가능 저장 매체를 갖는 제조물.
KR1020107017838A 2008-02-05 2009-02-02 공간 및 시간 처리를 이용하는 비디오 시퀀스에서의 노이즈 및/또는 플리커 감소 KR101291869B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US2645308P 2008-02-05 2008-02-05
US61/026,453 2008-02-05
US12/233,468 2008-09-18
US12/233,468 US8731062B2 (en) 2008-02-05 2008-09-18 Noise and/or flicker reduction in video sequences using spatial and temporal processing
PCT/US2009/032888 WO2009100032A1 (en) 2008-02-05 2009-02-02 Noise and/or flicker reduction in video sequences using spatial and temporal processing

Publications (2)

Publication Number Publication Date
KR20100114068A KR20100114068A (ko) 2010-10-22
KR101291869B1 true KR101291869B1 (ko) 2013-07-31

Family

ID=40931208

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020107017926A KR101137753B1 (ko) 2008-02-05 2009-02-02 고속의 메모리 효율적인 변환 구현 방법
KR1020107017838A KR101291869B1 (ko) 2008-02-05 2009-02-02 공간 및 시간 처리를 이용하는 비디오 시퀀스에서의 노이즈 및/또는 플리커 감소

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020107017926A KR101137753B1 (ko) 2008-02-05 2009-02-02 고속의 메모리 효율적인 변환 구현 방법

Country Status (6)

Country Link
US (2) US8731062B2 (ko)
EP (2) EP2240869B1 (ko)
JP (3) JP5517954B2 (ko)
KR (2) KR101137753B1 (ko)
CN (2) CN101933330B (ko)
WO (2) WO2009100034A2 (ko)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311088B2 (en) * 2005-02-07 2012-11-13 Broadcom Corporation Method and system for image processing in a microprocessor for portable video communication devices
US8305497B2 (en) * 2007-07-27 2012-11-06 Lsi Corporation Joint mosquito and aliasing noise reduction in video signals
US8731062B2 (en) * 2008-02-05 2014-05-20 Ntt Docomo, Inc. Noise and/or flicker reduction in video sequences using spatial and temporal processing
JP4801186B2 (ja) * 2009-04-23 2011-10-26 株式会社エヌ・ティ・ティ・ドコモ 画像処理装置、画像処理方法および画像処理プログラム
KR101682147B1 (ko) 2010-04-05 2016-12-05 삼성전자주식회사 변환 및 역변환에 기초한 보간 방법 및 장치
EP2442567A1 (en) * 2010-10-14 2012-04-18 Morpho Inc. Image Processing Device, Image Processing Method and Image Processing Program
FR2978273B1 (fr) 2011-07-22 2013-08-09 Thales Sa Procede de reduction du bruit dans une sequence d'images fluoroscopiques par filtrage temporel et spatial
EA017302B1 (ru) * 2011-10-07 2012-11-30 Закрытое Акционерное Общество "Импульс" Способ подавления шума серий цифровых рентгенограмм
US9924200B2 (en) 2013-01-24 2018-03-20 Microsoft Technology Licensing, Llc Adaptive noise reduction engine for streaming video
US9357236B2 (en) * 2014-03-13 2016-05-31 Intel Corporation Color compression using a selective color transform
US9939253B2 (en) * 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US10102613B2 (en) * 2014-09-25 2018-10-16 Google Llc Frequency-domain denoising
CN106028014B (zh) * 2016-05-27 2017-12-08 京东方科技集团股份有限公司 一种校正视频闪烁的方法及设备
CN108229654B (zh) * 2016-12-14 2020-08-14 上海寒武纪信息科技有限公司 神经网络卷积运算装置及方法
TWI748035B (zh) * 2017-01-20 2021-12-01 日商半導體能源硏究所股份有限公司 顯示系統及電子裝置
CN106791283B (zh) * 2017-01-25 2019-11-19 京东方科技集团股份有限公司 一种校正视频闪烁的方法、装置及视频设备
US11134272B2 (en) * 2017-06-29 2021-09-28 Qualcomm Incorporated Memory reduction for non-separable transforms
KR102444054B1 (ko) 2017-09-14 2022-09-19 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
EP4274207A4 (en) 2021-04-13 2024-07-10 Samsung Electronics Co Ltd ELECTRONIC DEVICE AND ITS CONTROL METHOD
CN114020211B (zh) * 2021-10-12 2024-03-15 深圳市广和通无线股份有限公司 存储空间管理方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050012806A (ko) * 2002-06-18 2005-02-02 콸콤 인코포레이티드 비디오 인코딩 및 디코딩 기술
KR20070122180A (ko) * 2006-06-23 2007-12-28 브로드콤 코포레이션 서브-프레임 메타데이터를 이용한 적응 비디오 프로세싱

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4447886A (en) 1981-07-31 1984-05-08 Meeker G William Triangle and pyramid signal transforms and apparatus
US4442454A (en) 1982-11-15 1984-04-10 Eastman Kodak Company Image processing method using a block overlap transformation procedure
JP2637978B2 (ja) * 1987-04-16 1997-08-06 日本ビクター株式会社 動き適応形画質改善装置
JPH01201773A (ja) * 1988-02-05 1989-08-14 Matsushita Electric Ind Co Ltd ディジタル信号処理装置
JPH0379182A (ja) 1989-08-23 1991-04-04 Fujitsu Ltd 画像符号化制御方式
JP3302731B2 (ja) 1992-06-02 2002-07-15 大日本印刷株式会社 画像拡大方法
JP3222273B2 (ja) * 1993-07-09 2001-10-22 株式会社日立製作所 核磁気共鳴診断装置における動画像の画質改善方法
JP3392946B2 (ja) 1993-07-15 2003-03-31 ペンタックス株式会社 電子スチルカメラ及び画像再生装置
US5666163A (en) 1994-07-12 1997-09-09 Sony Corporation Electronic image resolution enhancement by frequency-domain extrapolation
JPH08294001A (ja) 1995-04-20 1996-11-05 Seiko Epson Corp 画像処理方法および画像処理装置
JP3378167B2 (ja) 1997-03-21 2003-02-17 シャープ株式会社 画像処理方法
US5859788A (en) 1997-08-15 1999-01-12 The Aerospace Corporation Modulated lapped transform method
US6438275B1 (en) 1999-04-21 2002-08-20 Intel Corporation Method for motion compensated frame rate upsampling based on piecewise affine warping
AUPQ156299A0 (en) * 1999-07-12 1999-08-05 Canon Kabushiki Kaisha Method and apparatus for discrete wavelet transforms and compressed bitstream ordering for block entropy coding of subband image data
KR100327385B1 (en) 2000-07-18 2002-03-13 Lg Electronics Inc Spatio-temporal three-dimensional noise filter
EP1209624A1 (en) * 2000-11-27 2002-05-29 Sony International (Europe) GmbH Method for compressed imaging artefact reduction
US6898323B2 (en) * 2001-02-15 2005-05-24 Ricoh Company, Ltd. Memory usage scheme for performing wavelet processing
JP3887178B2 (ja) * 2001-04-09 2007-02-28 株式会社エヌ・ティ・ティ・ドコモ 信号符号化方法及び装置並びに復号方法及び装置
US7206459B2 (en) 2001-07-31 2007-04-17 Ricoh Co., Ltd. Enhancement of compressed images
JP2003134352A (ja) * 2001-10-26 2003-05-09 Konica Corp 画像処理方法及び装置並びにプログラム
US7120308B2 (en) * 2001-11-26 2006-10-10 Seiko Epson Corporation Iterated de-noising for image recovery
JP2005523615A (ja) * 2002-04-19 2005-08-04 ドロップレット テクノロジー インコーポレイテッド ウェーブレット変換システム、方法、及びコンピュータプログラム製品
JP3902990B2 (ja) 2002-07-02 2007-04-11 キヤノン株式会社 アダマール変換処理方法及びその装置
US20050030393A1 (en) 2003-05-07 2005-02-10 Tull Damon L. Method and device for sensor level image distortion abatement
US7352909B2 (en) * 2003-06-02 2008-04-01 Seiko Epson Corporation Weighted overcomplete de-noising
US20050105817A1 (en) 2003-11-17 2005-05-19 Guleryuz Onur G. Inter and intra band prediction of singularity coefficients using estimates based on nonlinear approximants
KR100564592B1 (ko) 2003-12-11 2006-03-28 삼성전자주식회사 동영상 데이터 잡음제거방법
GB2415876B (en) * 2004-06-30 2007-12-05 Voxar Ltd Imaging volume data
US7860167B2 (en) * 2004-07-30 2010-12-28 Algolith Inc. Apparatus and method for adaptive 3D artifact reducing for encoded image signal
WO2006031214A1 (en) * 2004-09-09 2006-03-23 Silicon Optix Inc. System and method for representing a general two dimensional spatial transformation
US7554611B2 (en) * 2005-04-19 2009-06-30 Samsung Electronics Co., Ltd. Method and apparatus of bidirectional temporal noise reduction
US8050331B2 (en) 2005-05-20 2011-11-01 Ntt Docomo, Inc. Method and apparatus for noise filtering in video coding
US20060288065A1 (en) * 2005-06-17 2006-12-21 Docomo Communications Laboratories Usa, Inc. Method and apparatus for lapped transform coding and decoding
JP4699117B2 (ja) * 2005-07-11 2011-06-08 株式会社エヌ・ティ・ティ・ドコモ 信号符号化装置、信号復号化装置、信号符号化方法、及び信号復号化方法。
JP4743604B2 (ja) * 2005-07-15 2011-08-10 株式会社リコー 画像処理装置、画像処理方法、プログラム及び情報記録媒体
US20070074251A1 (en) * 2005-09-27 2007-03-29 Oguz Seyfullah H Method and apparatus for using random field models to improve picture and video compression and frame rate up conversion
JP5160451B2 (ja) 2006-01-31 2013-03-13 トムソン ライセンシング エッジ・ベースの空間‐時間的フィルタリングの方法および装置
JP4760552B2 (ja) * 2006-06-06 2011-08-31 ソニー株式会社 動きベクトル復号化方法および復号化装置
US8606023B2 (en) 2006-06-26 2013-12-10 Qualcomm Incorporated Reduction of errors during computation of inverse discrete cosine transform
CN100454972C (zh) 2006-12-28 2009-01-21 上海广电(集团)有限公司中央研究院 一种视频图像3d降噪方法
US8743963B2 (en) 2007-08-13 2014-06-03 Ntt Docomo, Inc. Image/video quality enhancement and super-resolution using sparse transformations
US20090060368A1 (en) 2007-08-27 2009-03-05 David Drezner Method and System for an Adaptive HVS Filter
US8731062B2 (en) * 2008-02-05 2014-05-20 Ntt Docomo, Inc. Noise and/or flicker reduction in video sequences using spatial and temporal processing

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050012806A (ko) * 2002-06-18 2005-02-02 콸콤 인코포레이티드 비디오 인코딩 및 디코딩 기술
KR20070122180A (ko) * 2006-06-23 2007-12-28 브로드콤 코포레이션 서브-프레임 메타데이터를 이용한 적응 비디오 프로세싱

Also Published As

Publication number Publication date
JP2011527033A (ja) 2011-10-20
KR101137753B1 (ko) 2012-04-24
EP2240869B1 (en) 2019-08-07
KR20100114068A (ko) 2010-10-22
US20090195697A1 (en) 2009-08-06
JP5419897B2 (ja) 2014-02-19
JP5734475B2 (ja) 2015-06-17
CN101933330A (zh) 2010-12-29
KR20100112162A (ko) 2010-10-18
EP2243298A1 (en) 2010-10-27
US20090195535A1 (en) 2009-08-06
JP2011512086A (ja) 2011-04-14
CN102378978A (zh) 2012-03-14
EP2243298B1 (en) 2021-10-06
JP5517954B2 (ja) 2014-06-11
WO2009100034A3 (en) 2012-11-01
WO2009100032A1 (en) 2009-08-13
WO2009100034A2 (en) 2009-08-13
CN101933330B (zh) 2013-03-13
US8837579B2 (en) 2014-09-16
EP2240869A2 (en) 2010-10-20
CN102378978B (zh) 2015-10-21
JP2014112414A (ja) 2014-06-19
US8731062B2 (en) 2014-05-20

Similar Documents

Publication Publication Date Title
KR101291869B1 (ko) 공간 및 시간 처리를 이용하는 비디오 시퀀스에서의 노이즈 및/또는 플리커 감소
US8743963B2 (en) Image/video quality enhancement and super-resolution using sparse transformations
JP4920599B2 (ja) ハイブリッドビデオ圧縮の量子化雑音除去用の非線形ループ内デノイズフィルタ
US8237868B2 (en) Systems and methods for adaptive spatio-temporal filtering for image and video upscaling, denoising and sharpening
CN101322403B (zh) 用于图像和视频去噪的自回归方法和滤波
CN101841706B (zh) 改善视频质量的方法和装置
US10963995B2 (en) Image processing apparatus and image processing method thereof
US8345158B2 (en) Merging video with time-decimated high-resolution imagery to form high-resolution video frames
CN111866521B (zh) 一种视频图像压缩伪影去除方法
JP5174238B2 (ja) スパース変換を使用する画像/ビデオ品質向上及び超解像
JP5331486B2 (ja) デジタル画像の解像度向上方法及び装置
US20130022288A1 (en) Image processing apparatus and method for reducing edge-induced artefacts
AU2008245952B2 (en) Image compression and decompression using the pixon method
Xiong et al. Sparse spatio-temporal representation with adaptive regularized dictionary learning for low bit-rate video coding
JP2006340345A (ja) ビデオから抽出された画像を強調する方法
Buades et al. CFA video denoising and demosaicking chain via spatio-temporal patch-based filtering
Jimbo et al. Deep learning-based transformation matrix estimation for bidirectional interframe prediction
Zhang et al. Compression noise estimation and reduction via patch clustering
WO1999018735A1 (en) Picture masking and compositing in the frequency domain
Ramsook et al. A differentiable VMAF proxy as a loss function for video noise reduction
Motamednia et al. Quality Assessment of Screen Content Videos
Bhojani et al. Technical Background
Zhang et al. A novel in-loop filtering mechanism of HEVC based on 3D sub-bands and CNN processing
Jagdale et al. Video resolution enhancement and quality assessment strategy
CN117011184A (zh) 基于多尺度注意力特征融合的图像去模糊方法

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
AMND Amendment
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170704

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180628

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190627

Year of fee payment: 7