KR20120118477A - 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치 - Google Patents

샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치 Download PDF

Info

Publication number
KR20120118477A
KR20120118477A KR1020127021782A KR20127021782A KR20120118477A KR 20120118477 A KR20120118477 A KR 20120118477A KR 1020127021782 A KR1020127021782 A KR 1020127021782A KR 20127021782 A KR20127021782 A KR 20127021782A KR 20120118477 A KR20120118477 A KR 20120118477A
Authority
KR
South Korea
Prior art keywords
high resolution
metadata
pixel
low resolution
downsampling
Prior art date
Application number
KR1020127021782A
Other languages
English (en)
Other versions
KR101789845B1 (ko
Inventor
시타람 바가바티
조안 야크
동-칭 장
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20120118477A publication Critical patent/KR20120118477A/ko
Application granted granted Critical
Publication of KR101789845B1 publication Critical patent/KR101789845B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 것이다. 본 인코딩 방법은 고해상도 화상을 수신하고(610); 이로부터 저해상도 화상과 이 저해상도 화상과 메타데이터의 후디코딩 후처리를 가이드하기 위한 메타데이터를 생성하며(625); 이후 적어도 하나의 인코더를 사용하여 저해상도 화상과 메타데이터를 인코딩한다. 대응하는 디코딩 방법은 비트스트림을 수신하고 이로부터 디코더를 사용하여 저해상도 화상과 메타데이터를 디코딩하며; 이후 저해상도 화상과 메타데이터를 사용하여 저해상도 화상에 각각 대응하는 고해상도 화상을 재구성한다.

Description

샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치{METHODS AND APPARATUS FOR SAMPLING-BASED SUPER RESOLUTION VIDEO ENCODING AND DECODING}
본 출원은 그 전체 내용이 본 명세서에 참조 문헌으로 병합된 2010년 1월 22일에 출원된 미국 가출원 일련 번호 61/297,320호의 이익을 청구한다.
본 발명의 원리는 일반적으로 비디오 인코딩 및 디코딩에 관한 것이며, 보다 상세하게는, 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 것이다.
초 해상도(super resolution)를 사용하는 비디오 압축 방안은 제1종래 기술의 방안으로 제안되었다. 제1종래 기술의 방안에서, 입력 비디오의 공간적 사이즈는 인코딩 전에 특정 미리 결정된 저해상도(LR: low resolution) 사이즈로 감소된다. 저해상도 비디오가 디코더 측에 수신된 후에, 저해상도 비디오는 비트스트림으로 전송된 일부 부가 정보(메타데이터)와 함께 초 해상도 방법을 사용하여 원래의 사이즈로 업스케일링된다. 메타데이터는 각 블록을 이동하는 것, 이동하지 않는 플랫한 것 및 이동하지 않는 텍스처진 것으로 표시한 프레임의 블록 기반 분할을 포함한다. 이동하지 않는 플랫한 블록은 공간 보간에 의하여 업스케일링된다. 이동하는 블록에 대해서는 움직임 벡터가 수신기로 송신되며, 여기서 초 해상도 기술이 서브 픽셀 정보를 복구하기 위하여 적용된다. 이동하지 않는 텍스처진 블록에 대해서는 지터 있는(jittered) 다운샘플링 전략이 사용되며 여기서 4개의 상보적인 다운샘플링 그리드가 회전하는 순서로 적용된다.
그러나, 전술된 제1종래 기술의 방안은 불리하게도 이동하는 영역에 대해서는 스마트한 샘플링 전략을 사용하지 않는다. 오히려, 제1종래 기술의 방안은 초 해상도를 얻기 위해 저해상도 프레임들 사이에 서브픽셀 움직임의 존재에 의존한다. 그러나, 서브 픽셀 움직임이 항상 보장되는 것은 아니다.
제2종래 기술의 방안에서, 카메라는 프레임 캡쳐들 사이에 서브 픽셀 시프트로 기계적으로 이동된다. 그 목표는 후속하는 초 해상도에 더 적합한 저 해상도 비디오를 캡쳐하는 것이다. 정적인 백그라운드(static background)에 있어서, 제2종래 기술의 방안의 방법은 전술된 제1종래 기술의 방안에 있는 지터 있는 샘플링 개념과 유사하다. 그러나, 고정된 지터는 타깃 응용에서 있을 수 있는 비정적 백그라운드의 경우에, 즉 후속하는 초 해상도를 위해 고해상도 비디오를 다운샘플링하는 경우에는 효과적인 전략이 아니다.
종래 기술의 이들 및 다른 결점 및 단점은 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 본 발명의 원리에 의해 해결된다.
본 발명의 원리의 일 측면에 따르면, 장치가 제공된다. 본 장치는 고해상도 화상을 수신하고 이로부터 저해상도 화상과 메타데이터를 생성하기 위한 다운샘플러와 메타데이터 생성기를 포함한다. 이 메타데이터는 상기 저해상도 화상과 메타데이터의 후디코딩 후처리를 가이드하기 위한 것이다. 본 장치는 상기 저해상도 화상과 메타데이터를 인코딩하기 위한 적어도 하나의 인코더를 더 포함한다.
본 발명의 원리의 다른 측면에 따르면, 방법이 제공된다. 본 방법은 고해상도 화상을 수신하고 이로부터 저해상도 화상과 메타데이터를 생성하는 단계를 포함한다. 이 메타데이터는 저해상도 화상과 메타데이터의 후디코딩 후처리를 가이드하기 위한 것이다. 본 방법은 적어도 하나의 인코더를 사용하여 저해상도 화상과 메타데이터를 인코딩하는 단계를 더 포함한다.
본 발명의 원리의 또 다른 측면에 따르면, 장치가 제공된다. 본 장치는 비트스트림을 수신하고 이로부터 저해상도 화상과 메타데이터를 디코딩하기 위한 디코더를 포함한다. 본 장치는 상기 저해상도 화상과 메타데이터를 사용하여 저해상도 화상에 각각 대응하는 고해상도 화상을 재구성하기 위한 초해상도 후프로세서를 더 포함한다.
본 발명의 또 다른 측면에 따르면, 방법이 제공된다. 본 방법은 비트스트림을 수신하고 이로부터 디코더를 사용하여 저해상도 화상과 메타데이터를 디코딩하는 단계를 포함한다. 본 방법은 상기 저해상도 화상과 메타데이터를 사용하여 상기 저해상도 화상에 각각 대응하는 고해상도 화상을 재구성하는 단계를 더 포함한다.
본 발명의 이들 및 다른 측면, 특징 및 이점은 첨부 도면과 연계하여 판독되는 예시적인 실시예의 이하 상세한 설명으로부터 보다 명백하게 될 것이다.
본 발명의 원리는 이하 예시적인 도면에 따라 더 잘 이해될 수 있을 것이다.
도 1은 본 발명의 원리의 일 실시예에 따라 샘플링 기반 초 해상도를 위한 예시적인 시스템/방법을 도시한 하이 레벨의 블록도;
도 2는 본 발명의 원리의 일 실시예에 따라 본 발명의 원리가 적용될 수 있는 예시적인 비디오 인코더를 도시한 블록도;
도 3은 본 발명의 원리의 일 실시예에 따라 본 발명의 원리가 적용될 수 있는 예시적인 비디오 디코더를 도시한 블록도;
도 4a 내지 도 4d는 본 발명의 원리의 일 실시예에 따라 샘플링 기반 초 해상도 방법의 전처리 단계에 관한 데이터 및 단계를 도시한 도면;
도 5a 내지 도 5d는 본 발명의 원리에 따라 샘플링 기반 초해상도 방법의 후처리 단계에 관한 데이터 및 단계를 도시한 도면;
도 6은 본 발명의 원리의 일 실시예에 따라 샘플링 기반 초 해상도 방법의 전처리 단계에 관한 예시적인 방법을 도시한 흐름도;
도 7a 내지 도 7f는 본 발명의 원리의 일 실시예에 따라 HR 고해상도(HR) 프레임을 저해상도(LR)로 다운샘플링하는데 사용된 샘플링 그리드의 예를 도시한 도면;
도 8a 내지 도 8d는 본 발명의 원리의 일 실시예에 따라 추가적인 균일한 샘플링 그리드를 도시한 도면;
도 9는 본 발명의 원리의 일 실시예에 따라 샘플링 그리드의 선택과 관련된 단계들을 도시한 도면;
도 10은 본 발명의 원리의 일 실시예에 따라 샘플링 기반 초 해상도 방법의 후 처리 단계와 관련된 예시적인 방법을 도시한 흐름도;
도 11a 내지 도 11b는 본 발명의 원리의 일 실시예에 따라 2개의 프레임들 사이에 포어그라운드 대상(foreground object)의 움직임을 도시한 도면.
본 발명의 원리는 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 것이다.
본 설명은 본 발명의 원리를 예시한다. 따라서, 이 기술 분야에 통상의 지식을 가진 자라면 본 명세서에 명시적으로 기술되거나 도시되지는 않았을지라도 본 발명의 사상과 범위 내에 포함되고 본 발명의 원리를 구현하는 여러 배열을 고안할 수 있을 것이라는 것을 이해할 수 있을 것이다.
본 명세서에 언급된 모든 예시와 조건적 언어들은 이 기술을 개선하려고 발명자(들)가 기여한 본 발명의 원리와 개념을 독자들이 이해하는 것을 돕기 위한 설명을 위한 목적으로 의도된 것이며 그러한 구체적으로 언급된 예시와 조건으로 제한하는 것으로 해석되어서는 아니된다.
나아가, 본 발명의 원리, 측면 및 실시예뿐만 아니라 특정 예시를 언급하는 모든 진술은 구조적 및 기능적으로 균등한 것을 포함하는 것으로 의도된 것이다. 부가적으로, 그러한 균등물은 현재 알려진 균등물뿐만 아니라 미래에 개발될 균등물, 즉 구조에 상관없이 동일한 기능을 수행하는 개발된 임의의 요소를 포함한다는 것으로 의도된다.
따라서, 예를 들어, 이 기술 분야에 통상의 지식을 가진 자라면 본 명세서에 제시된 블록도가 본 발명의 원리를 구현하는 예시적인 회로의 개념적인 도식을 제시하는 것임을 이해할 수 있을 것이다. 이와 유사하게, 임의의 흐름도, 흐름 선도, 상태 전이도, 의사코드 등은 컴퓨터나 프로세서가 명시적으로 도시되지 않았을 지라도 컴퓨터로 판독가능한 매체에 실질적으로 제공되고 컴퓨터나 프로세서에 의해 실행될 수 있는 여러 공정을 나타낸다는 것을 이해할 수 있을 것이다.
도면에 도시된 여러 요소의 기능은 적절한 소프트웨어와 연관된 소프트웨어를 실행할 수 있는 하드웨어뿐만 아니라 전용 하드웨어의 사용을 통해 제공될 수 있다. 프로세서에 의해 제공될 때, 그 기능은 단일 전용 프로세서에 의해, 단일 공유 프로세서에 의해 또는 일부가 공유될 수 있는 복수의 개별 프로세서에 의해 제공될 수 있다. 나아가, "프로세서" 또는 "제어기"라는 용어의 명시적인 사용이 소프트웨어를 실행할 수 있는 하드웨어를 배타적으로 말하는 것으로 해석되어서는 아니되며, 제한없이 디지털 신호 프로세서("DSP") 하드웨어, 소프트웨어를 저장하는 판독 전용 메모리("ROM"), 랜덤 액세스 메모리("RAM") 및 비휘발성 저장장치를 암시적으로 포함할 수 있다.
종래의 것이든 및/또는 주문형이든 상관없이 다른 하드웨어가 또한 포함될 수 있다. 이와 유사하게 이 도면에 도시된 임의의 스위치는 단지 개념적인 것이다. 그 기능은 프로그램 논리의 동작을 통해, 전용 논리를 통해, 프로그램 제어 및 전용 논리의 상호작용을 통해 또는 심지어 수동으로 수행될 수 있으며, 특정 기술은 문맥으로부터 보다 구체적으로 이해되는 바와 같이 구현하는 자에 의해 선택될 수 있다.
특허청구범위에서, 특정 기능을 수행하는 수단으로 표시된 임의의 요소는 예를 들어 a) 그 기능을 수행하는 회로 요소의 조합이나 b) 그 기능을 수행하는 소프트웨어를 실행하는 적절한 회로와 결합된 펌웨어, 마이크로 코드 등을 포함하는 임의의 형태의 소프트웨어를 포함하여 그 기능을 수행하는 임의의 방법을 포함하는 것으로 의도된다. 특허청구범위에 의해 한정된 본 발명의 원리는 여러 언급된 수단으로 제공된 기능이 특허청구범위가 요청하는 방식으로 서로 결합된 것에 존재한다. 따라서, 그 기능을 제공할 수 있는 임의의 수단은 본 명세서에 도시된 것과 균등한 것이라고 간주된다.
명세서에서 본 발명의 원리의 "일 실시예" 또는 "실시예"라는 언급과 그 다른 변형 어구의 언급은 실시예와 연관하여 기술된 특정 특징, 구조, 특성 등이 본 발명의 원리의 적어도 하나의 실시예에 포함된다는 것을 의미한다. 따라서, 명세서 전체에 걸쳐 여러 곳에 나타나는 "일 실시예에서" 또는 "실시예에서"라는 어구의 표현과 그 임의의 다른 변형 어구는 동일한 실시예를 모두 언급하는 것이 아닐 수 있다.
예를 들어 "A/B", "A 및/또는 B" 그리고 "A 및 B 중 적어도 하나"에 있는 "/", " 및/또는" 및 "? 중 적어도 하나" 중 어느 하나의 사용은 예를 들어 처음 나열된 옵션(A)만을 선택하거나 두 번째 나열된 옵션(B)만을 선택하거나 두 개의 옵션(A와 B)을 선택하는 것을 포함하는 것으로 의도된 것이라는 것을 이해하여야 한다. 다른 예로서, "A, B 및/또는 C" 그리고 "A, B 및 C 중 적어도 하나"의 경우에서 이 어구는 처음 나열된 옵션(A)만을 선택하거나, 두 번째 나열된 옵션(B)만을 선택하거나, 세 번째 나열된 옵션(C)만을 선택하거나, 처음 및 두 번째 나열된 옵션(A 와 B)만을 선택하거나, 처음과 세 번째 나열된 옵션(A와 C)만을 선택하거나, 두 번째와 세 번째 나열된 옵션(B와 C)만을 선택하거나, 3개의 옵션(A와 B와 C)을 모두 선택하는 것을 포함하는 것으로 의도된 것이다. 이것은 이 기술 분야 및 관련 기술 분야의 통상의 지식을 가진 자에게는 명백한 바와 같이 많은 항목이 나열된 것으로 확장될 수 있다.
또한, 본 명세서에 사용된 바와 같이, "화상" 및 "이미지"라는 용어는 상호 교환 가능하게 사용되며 비디오 시퀀스로부터 정지 이미지 또는 정지 화상을 말한다. 알려진 바와 같이, 화상은 프레임이나 필드일 수 있다.
추가적으로, 본 명세서에 사용된 바와 같이, 예를 들어 저해상도 화상에서 "주변 공동 위치된 픽셀"(surrounding co-located pixel)의 픽셀 값으로부터 고해상도 모자이크에 있는 픽셀 위치에서의 픽셀 값을 보간하는 것에 의해 본 명세서에 기술된 고해상도 모자이크를 생성하는 것에 대하여 사용될 때"주변 공동 위치된 픽셀"이라는 용어는 고해상도 모자이크에서 현재 보간되고 있는 타깃 픽셀과 공동 위치된(즉, 동일한 위치를 가지는) 특정 픽셀 주변에 있는 저해상도 화상에 있는 픽셀을 말한다.
전술된 바와 같이, 본 발명의 원리는 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 것이다. 본 발명의 원리는 비디오 압축 효율을 유리하게 개선시키는 것이라는 것을 이해할 수 있을 것이다. 구체적으로, 프레임들 사이에 움직임을 처리할 수 있는 스마트한 다운샘플링된 전략이 제안된다. 전처리 단계에서 고해상도(HR) 프레임이 저해상도(LR)로 다운샘플링되고 메타데이터는 후처리를 가이드하기 위해 생성된다. 후처리 단계에서, 디코딩된 저해상도 프레임과 수신된 메타데이터가 새로운 초해상도 프레임워크 내에서 사용되어 고해상도 프레임을 재구성한다. 저해상도 프레임만이 인코딩되고 송신된 메타데이터의 양이 적절히 낮으므로, 이 방안은 증가된 압축비를 제공할 가능성을 가지고 있다.
스마트한 다운샘플링 전략은 프레임들 사이의 움직임을 고려한다. 다운샘플링 전략은 프레임들이 지니는 픽셀 정보를 서로 상보하도록 LR 프레임을 생성하는 것(다시 말해, 프레임들 간 픽셀 리던던시를 감소시키는 것)에 의해 개선된 초 해상도 결과에 기여한다. 일부 의미에서 이 전략은 프레임들 사이에 서브 픽셀의 움직임을 강제하도록 시도한다.
예를 들어, ISO/IEC(International Organization for Standardization/International Electrotechnical Commission) MPEG-4(Moving Picture Experts Group-4) Part 10 AVC (Advanced Video Coding) Standard/ITU-T(International Telecommunication Union, Telecommunication Sector) H.264 Recommendation (이후 "MPEG-4 AVC 표준")과 같은 종래의 비디오 압축 방법(주로 블록 기반 예측 방법)이 압축비의 포화점에 도달하게 시작하였다는 것을 주지해야 한다. 데이터 프루닝(data pruning) 방법은 표준 압축 방법에 의하여 달성된 것을 넘어 압축 효율을 개선시키는 것을 목표로 한다. 이 방법의 주된 원리는 인코딩 전에(또는 동안) 데이터를 제거하고 디코딩 후에(또는 동안) 수신기에서 제거된 데이터를 다시 배치하는 것이다. 데이터 프루닝 방법은 그 목표, 예를 들어, 블록/영역 제거와 인페인팅, 라인 제거와 보간 등을 달성하기 위해 여러 전처리 및 후처리 기술을 이용한다.
본 발명의 원리에 따라, 지능적인 다운샘플링(송신기에서)과 초해상도(수신기에서)는 데이터 프루닝에 이용되는 기술이다. 초 해상도는 여러 저해상도 이미지 또는 프레임에 걸쳐 정보를 시간적으로 통합하는 것에 의해 이미지나 비디오의 해상도를 증가시키는 공정이다. 이 데이터 프루닝 방안의 원리는 도 1에 도시되어 있다. 도 1을 참조하면, 샘플링 기반 초 해상도를 위한 예시적인 시스템/방법이 일반적으로 참조 부호 (100)으로 표시되어 있다. 고해상도(HR) 프레임이 입력되고 저해상도(LR) 프레임과 메타데이터를 얻기 위하여 {다운샘플러와 메타데이터 생성기(151)에 의해} 단계(110)에서 다운샘플링과 메타데이터 생성을 거친다. 저해상도 프레임과 메타데이터는 단계(115)에서 {인코더(152)에 의해} 인코딩된다. 인코딩된 저해상도 프레임과 메타데이터는 단계(120)에서 {디코더(153)에 의해} 디코딩된다. 저해상도 프레임과 메타데이터는 단계(130)에서 고해상도 출력 프레임을 제공하기 위하여 {초해상도 후프로세서(154)에 의해} 초해상도 후처리를 거친다. 따라서, 전처리 단계{단계(110)}에서, 고해상도 프레임은 저해상도로 다운샘플링되고 메타데이터는 후처리를 가이드하기 위해 생성된다. 특히, 프레임들 사이에 움직임을 처리할 수 있는 스마트한 다운샘플링 전략이 제안된다. 후처리 단계{단계(125)}에서, 디코딩된 저해상도 프레임과 수신된 메타데이터는 고해상도 프레임을 재구성하기 위하여 새로운 초해상도 프레임워크 내에서 사용된다. 저해상도 프레임만이 인코딩되고 송신된 메타데이터의 양이 적절히 낮다면, 증가된 압축비는 이 방안을 사용하여 획득될 수 있다. 다운샘플러와 메타데이터 생성기(151)는 또한 본 명세서에서 전 프로세서로 고려되고 언급될 수 있다는 것을 주지해야 한다.
이하 기술된 인코더와 디코더의 특정 구성으로 제한되는 것은 아니지만, 인코더(152)와 디코더(153)는 도 2 및 도 3에 각각 도시된 바와 같이 각각 구현될 수 있다.
도 2를 참조하면, 본 발명의 원리가 적용될 수 있는 예시적인 비디오 인코더가 일반적으로 참조 부호 (200)으로 표시되어 있다. 비디오 인코더(200)는 가산기(285)의 비반전 입력과 신호 통신가능하게 연결된 출력을 가지는 프레임 정렬 버퍼(210)를 포함한다. 가산기(285)의 출력은 변환기 및 양자화기(225)의 제1입력과 신호 통신가능하게 연결된다. 변환기 및 양자화기(225)의 출력은 엔트로피 코더(245)의 제1입력과, 역 변환기 및 역 양자화기(250)의 제1입력과 신호 통신가능하게 연결된다. 엔트로피 코더(245)의 출력은 가산기(290)의 제1비반전 입력과 신호 통신가능하게 연결된다. 가산기(290)의 출력은 출력 버퍼(235)의 제1입력과 신호 통신가능하게 연결된다.
인코더 제어기(205)의 제1출력은 프레임 정렬 버퍼(210)의 제2입력, 역 변환기 및 역 양자화기(250)의 제2입력, 화상 유형 결정 모듈(215)의 입력, 매크로블록 유형(MB 유형) 결정 모듈(220)의 제1입력, 인트라 예측 모듈(260)의 제2입력, 디블록킹 필터(265)의 제2입력, 움직임 보상기(270)의 제1입력, 움직임 추정기(275)의 제1입력, 및 참조 화상 버퍼(280)의 제2입력과 신호 통신가능하게 연결된다.
인코더 제어기(205)의 제2입력은 SEI(Supplemental Enhancement Information) 삽입기(230)의 제1입력, 변환기 및 양자화기(225)의 제2입력, 엔트로피 코더(245)의 제2입력, 출력 버퍼(235)의 제2입력, 및 SPS 및 PPS(Sequence Parameter Set and Picture Parameter Set) 삽입기(240)의 입력과 신호 통신가능하게 연결된다.
SEI 삽입기(230)의 출력은 가산기(290)의 제2비반전 입력과 신호 통신가능하게 연결된다.
화상 유형 결정 모듈(215)의 제1출력은 프레임 정렬 버퍼(210)의 제3입력과 신호 통신가능하게 연결된다. 화상 유형 결정 모듈(215)의 제2출력은 매크로블록 유형 결정 모듈(220)의 제2입력과 신호 통신가능하게 연결된다.
SPS 및 PPS 삽입기(240)의 출력은 가산기(290)의 제3비반전 입력과 신호 통신가능하게 연결된다.
역 양자화기 및 역 변환기(250)의 출력은 가산기(219)의 제1비반전 입력과 신호 통신가능하게 연결된다. 가산기(219)의 출력은 인트라 예측 모듈(260)의 제1입력과 디블록킹 필터(265)의 제1입력과 신호 통신가능하게 연결된다. 디블록킹 필터(265)의 출력은 참조 화상 버퍼(280)의 제1입력과 신호 통신가능하게 연결된다. 참조 화상 버퍼(280)의 출력은 움직임 추정기(275)의 제2입력과 움직임 보상기(270)의 제3입력과 신호 통신가능하게 연결된다. 움직임 추정기(275)의 제1출력은 움직임 보상기(270)의 제2입력과 신호 통신가능하게 연결된다. 움직임 추정기(275)의 제2출력은 엔트로피 코더(245)의 제3입력과 신호 통신가능하게 연결된다.
움직임 보상기(270)의 출력은 스위치(297)의 제1입력과 신호 통신가능하게 연결된다. 인트라 예측 모듈(260)의 출력은 스위치(297)의 제2입력과 신호 통신가능하게 연결된다. 매크로블록 유형 결정 모듈(220)의 출력은 스위치(297)의 제3입력과 신호 통신가능하게 연결된다. 스위치(297)의 제3입력은 스위치의 "데이터" 입력(제어 입력, 즉 제3입력과 비교하여)이 움직임 보상기(270)에 의해 제공될지 또는 인트라 예측 모듈(260)에 의해 제공될지 여부를 결정한다. 스위치(297)의 출력은 가산기(219)의 제2비반전 입력과 가산기(285)의 반전 입력과 신호 통신가능하게 연결된다.
프레임 정렬 버퍼(210)의 제1입력과 인코더 제어기(205)의 입력은 입력 화상을 수신하기 위하여 인코더(200)의 입력으로 이용가능하다. 나아가, SEI 삽입기(230)의 제2입력은 메타데이터를 수신하기 위하여 인코더(200)의 입력으로 이용가능하다. 출력 버퍼(235)의 출력은 비트스트림을 출력하기 위하여 인코더(200)의 출력으로 이용가능하다.
도 3을 참조하면, 본 발명의 원리가 적용될 수 있는 예시적인 비디오 디코더는 일반적으로 참조 부호 (300)으로 표시되어 있다. 비디오 디코더(300)는 엔트로피 디코더(345)의 제1입력과 신호 통신가능하게 연결된 출력을 가지는 입력 버퍼(310)를 포함한다. 엔트로피 디코더(345)의 제1출력은 역 변환기 및 역 양자화기(350)의 제1입력과 신호 통신가능하게 연결된다.
역 변환기 및 역 양자화기(350)의 출력은 가산기(325)의 제2비반전 입력과 신호 통신가능하게 연결된다. 가산기(325)의 출력은 디블록킹 필터(365)의 제2입력과 인트라 예측 모듈(360)의 제1입력과 신호 통신가능하게 연결된다. 디블록킹 필터(365)의 제2출력은 참조 화상 버퍼(380)의 제1입력과 신호 통신가능하게 연결된다. 참조 화상 버퍼(380)의 출력은 움직임 보상기(370)의 제2입력과 신호 통신가능하게 연결된다.
엔트로피 디코더(345)의 제2출력은 움직임 보상기(370)의 제3입력, 디블록킹 필터(365)의 제1입력 및 인트라 추정기(360)의 제3입력과 신호 통신가능하게 연결된다. 엔트로피 디코더(345)의 제3출력은 디코더 제어기(305)의 입력과 신호 통신가능하게 연결된다. 디코더 제어기(305)의 제1출력은 엔트로피 디코더(345)의 제2입력과 신호 통신가능하게 연결된다. 디코더 제어기(305)의 제2출력은 역 변환기 및 역 양자화기(350)의 제2입력과 신호 통신가능하게 연결된다. 디코더 제어기(305)의 제3출력은 디블록킹 필터(365)의 제3입력과 신호 통신가능하게 연결된다. 디코더 제어기(305)의 제4출력은 인트라 예측 모듈(360)의 제2입력, 움직임 보상기(370)의 제1입력, 및 참조 화상 버퍼(380)의 제2입력과 신호 통신가능하게 연결된다.
움직임 보상기(370)의 출력은 스위치(397)의 제1입력과 신호 통신가능하게 연결된다. 인트라 예측 모듈(360)의 출력은 스위치(397)의 제2입력과 신호 통신가능하게 연결된다. 스위치(397)의 출력은 가산기(325)의 제1비반전 입력과 신호 통신가능하게 연결된다.
입력 버퍼(310)의 입력은 입력 비트스트림을 수신하기 위하여 디코더(300)의 입력으로 이용가능하다. 디블록킹 필터(365)의 제1출력은 출력 화상을 출력하기 위하여 디코더(300)의 출력으로 이용가능하다.
샘플링 기반 초 해상도의 원리
샘플링 기반 SR의 중심 개념은 도 4a 내지 도 4d 및 도 5a 내지 도 5d에 도시되어 있다. 도 4a 내지 도 4d를 참조하면, 샘플링 기반 초 해상도 방법의 전처리 단계에 관한 데이터 및 단계들이 일반적으로 참조 부호 (400)으로 표시되어 있다. 구체적으로, 도 4a는 초해상도(HR) 프레임(410)의 입력 세트를 도시한다. 도 4b는 참조 프레임에 대하여 움직임 변환(Θt1)의 추정(420)을 도시한다. 도 4c는 참조 프레임 좌표(I는 항등 변환을 말한다는 것을 주지해야 한다)에서 초 해상도 충진 인수(filling factor)에 기초하여 샘플링 그리드(St)의 추정(430)을 도시한다. 도 4d는 다운샘플링된 저해상도(LR) 프레임과 그 대응하는 메타데이터(440)를 도시한다.
도 5a 내지 도 5d를 참조하면, 샘플링 기반 초 해상도 방법의 후처리 단계와 관련된 데이터 및 단계들이 일반적으로 참조 부호 (500)으로 표시되어 있다. 구체적으로, 도 5a는 저해상도 프레임과 메타데이터의 디코딩된 세트(510)를 도시한다. 도 5b는 참조 프레임 좌표(I는 항등 변환을 말한다는 것을 주지해야 한다)에 있는 저해상도 프레임으로부터 초해상도 모자이크의 생성(520)을 도시한다. 도 5c는 초해상도 모자이크로부터 고해상도 프레임의 재구성(530)을 도시한다. 도 5d는 초 분해 고해상도 프레임(540)을 도시한다.
후처리 단계에 관한 도 5a를 참조하면, 처음에 디코딩된 LR 프레임(
Figure pct00001
-
Figure pct00002
) 세트가 일부 관련 메타데이터와 함께 이용가능하다. 프레임들 중 하나는 참조 프레임(도 5a에서
Figure pct00003
) 으로 알려져 있다. 도 5b에서, 초해상도 모자이크는 저해상도 프레임의 픽셀을 메타데이터 정보를 사용하여 공통 좌표 시스템(참조 프레임의 것과 일치하는)으로 변환한 후에 구성된다. 이후, 도 5c에 대하여, 이 세트에 있는 각 고해상도 프레임은 메타데이터 정보를 사용하여 초 해상도 모자이크(현재 프레임 좌표로 다시 변환된)의 정보와 그 대응하는 저해상도 프레임을 결함하는 것에 의해 재구성된다. 상기 후처리 단계를 수행하기 위하여, 메타데이터는 각 프레임과 참조 프레임 사이에 픽셀의 움직임을 기술하고 대응하는 고해상도 프레임(전처리 단계에서)으로부터 각 저해상도 프레임을 생성하는데 사용되는 다운샘플링 공정을 기술할 필요가 있다. 이 정보는 전처리 단계에서 결정되어 메타데이터로서 송신된다.
도 4a를 참조하면, 입력 고해상도 비디오는 프레임의 세트로 분할되고, 이는 개별적으로 처리된다. H1가 참조 프레임으로 취해진 고해상도 프레임(H1 내지 H4)의 세트를 고려해 보자. 도 4b에서, 각 프레임과 참조 프레임 사이의 움직임이 추정된다. 도 4b에서 Ht로부터 H1으로 움직임 변환은 Θt1로 표시된다. 도 4c에서, (다운)샘플링 그리드(St)는 대응하는 저해상도 프레임(Lt)을 생성하기 위하여 각 프레임(Ht)에 대해 선택된다. 도 4d에서, (다운샘플링된) 저해상도 프레임(Lt)은 인코더를 사용하여 압축되고 대응하는 메타데이터(움직임 및 샘플링 그리드 정보)와 함께 수신기로 송신될 수 있다. 수신기에서 후처리 단계에서, 디코딩된 저해상도 프레임은 메타데이터 정보와 함께 전술된 바와 같이 고해상도 프레임을 재구성하는데 사용된다.
이하에서는 전처리 및 후처리 단계에 수반된 단계들을 더 기술한다.
샘플링 기반 초해상도의 전처리 단계
전처리 단계에서, 입력 고해상도 비디오는 먼저 인접한 프레임의 세트로 분할된다. 각 세트는 개별적으로 처리된다. 일반적으로, 각 세트에서 M2개의 프레임을 선택하며, 여기서 M은 다운샘플링 인수이며, 즉 저해상도 프레임 크기에 대한 고해상도의 비율이다. 여기서 고해상도 프레임은 저해상도 프레임으로서 픽셀의 수에 M2배를 한 것을 포함하는 것이 적절하며, 그리하여 고해상도 프레임과 동일한 사이즈를 가지는 초해상도 모자이크를 구성하기 위해서는 M2개의 LR 프레임을 취해야 한다.
이제 다운샘플링 인수가 2(즉, M = 2)인 경우를 고려하고 4개의 고해상도 프레임의 세트(Ht; t = 1, 2, 3, 4)를 고려해보자.
도 6을 참조하면, 샘플링 기반 초해상도 방법의 전처리 단계에 관한 예시적인 방법은 일반적으로 참조 부호 (600)으로 표시되어 있다. 본 방법(600)은 제어를 기능 블록(610)으로 전달하는 시작 블록(605)을 포함한다. 기능 블록(610)은 고해상도 비디오 프레임(t = 1, ..., N)을 입력하며 제어를 기능 블록(615)으로 전달한다. 기능 블록(615)은 각 프레임과 참조 프레임 사이의 글로벌 움직임 추정을 수행하여 이에 대한 움직임 파라미터를 획득하며 제어를 기능 블록(620)으로 전달한다. 기능 블록(620)은 초해상도 품질에 관련된 기준에 기초하여 각 프레임에 대한 샘플링 그리드 선택을 수행하여 샘플링 그리드 지수(grid index)를 얻고 제어를 기능 블록(625)으로 전달한다. 기능 블록(625)은 저해상도 프레임을 얻기 위해 고해상도 프레임을 다운샘플링하며 제어를 기능 블록(630)으로 전달한다. 기능 블록(630)은 저해상도 프레임(t = 1, ..., N)을 인코더에 출력하고 제어를 종료 블록(699)으로 전달한다.
전처리 단계(예를 들어, 도 4 및 도 6에 대하여 도시된 바와 같이)에 수반된 단계들에 관한 추가 상세는 이하와 같이 제공된다:
1. 움직임 추정: H1은 참조 프레임이라고 하자. 각 프레임(Ht)으로부터 참조 프레임(도 4b)으로의 움직임을 추정한다. Ht로부터 H1으로 움직임 변환은 Θt1로 표시된다.
2. 샘플링 그리드 선택: 각 프레임(Ht)에 대해, 샘플링 그리드(St)는 대응하는 LR 프레임(Lt)을 생성하기 위하여 Ht로부터 취한 픽셀을 나타낸다. 그리드(St)는 각 프레임이 후처리 단계(도 5a 내지 도 5d)에서 초해상도 공정을 위해 상보적인 픽셀 정보를 제공하도록 선택된다. 프레임들 사이의 움직임은 그리드 선택 공정 동안에 고려된다.
3. 다운샘플링: 선택된 그리드(St)를 사용하여 저해상도 프레임(Lt) 각각이 생성된다. 저해상도 프레임은 인코더를 사용하여 압축되고 수신기로 송신된다. 프레임과 사용된 샘플링 그리드 사이에 움직임에 관한 정보는 메타데이터로서 또한 송신된다.
전술된 단계들 각각은 이후 더 상술된다.
움직임 추정
예시를 위하여, 이제 주어진 세트의 참조 프레임(도 4b)에 대해 이 세트에 있는 각 프레임(Ht) 사이에 움직임을 추정하는 하나의 방식을 설명한다. 일반화의 손상이 없이, 참조 프레임은 H1인 것으로 가정된다. 프레임 중에서 글로벌 움직임만 있는 것으로 가정하는 것에 의해 문제를 간단하게 하자. 다시 말해, 임의의 2개의 프레임들 사이에 픽셀의 움직임이 몇몇 파라미터를 통해 글로벌 변환에 의해 기술될 수 있다고 가정한다. 글로벌 변환의 예는 병진이동, 회전, 어파인 워프(affine warp), 투영 변환(projective transformation) 등을 포함한다.
프레임(Hi)으로부터 프레임(Hj)으로 움직임을 추정하기 위하여, 먼저 프레임들 사이에 움직임을 기술하는 파라미터 글로벌 움직임 모델을 선택한다. Hi와 Hj로부터 데이터를 사용하여, 모델의 파라미터(θij)가 결정된다. 이후, Θij에 의해 변환을 나타내고 θij에 의해 그 파라미터를 나타낸다. 변환(Θij)은 Hi에서 Hj로 정렬(또는 워프)하는데(또는 역 모델 Θji = Θij -1을 사용하여 그 반대로) 사용될 수 있다.
글로벌 움직임은 여러 모델과 방법을 사용하여 추정될 수 있다. 하나의 일반적으로 사용되는 모델은 이하와 같이 주어진 투영 변환이다:
Figure pct00004
상기 식은 Hj에 새로운 위치(x', y')를 제공하며 이 새로운 위치로 Hi에서 (x, y)에 있는 픽셀이 이동된다. 따라서, 8개의 모델 파라미터(θij = {a1, a2, a3, b1, b2, b3, c1, c2})는 Hi로부터 Hj로 움직임을 기술한다. 이 파라미터는 통상적으로 2개의 프레임들 사이에 포인트 대응관계의 세트를 먼저 결정한 후에 RANSAC (RANdom SAmple Consensus) 또는 그 변형과 같은 강력한 추정 프레임워크를 사용하여 추정된다. 프레임들 사이에 포인트 대응관계는 다수의 방법, 예를 들어 스케일 불변 특징 변환(SIFT: Scale-invariant Feature Transform) 특징을 추출하고 매칭하거나 광학적 흐름을 사용하여 결정될 수 있다.
샘플링 기반 초 해상도 과정을 위하여, 참조 프레임(H1)에 대한 각 프레임(Ht) 사이의 움직임이 추정되어야 한다. 그리하여, 3개의 파리미터 세트가 추정된다: θ21; θ31 ; 및 θ41 (변환 Θ21, Θ31 및 Θ41 에 각각 대응하는). 이 변환은 가역적이고, 역(inverse) 모델 Θji = Θji -1 은 Hj로부터 Hi로의 움직임을 기술한다.
샘플링 그리드 선택
각 고해상도 프레임(Ht)에 대하여 샘플링 그리드(St)는 프레임을 다운샘플링하고 저해상도 버전(Lt)을 생성하기 위하여 선택되어야 한다. 샘플링 그리드는 대응하는 저해상도 프레임으로 팩킹되고 취해진 고해상도 프레임의 픽셀을 나타낸다. 도 7a 내지 도 7f를 참조하면, HR 고해상도(HR) 프레임을 저해상도(LR)로 다운샘플링하는데 사용된 샘플링 그리드의 예들이 일반적으로 참조 부호 (700)으로 표시되어 있다. 보다 상세하게, 도 7a는 고해상도 프레임의 픽셀(710)을 도시한다. 도 7b는 2의 다운샘플링 인수를 가지는 4개의 균일한 샘플링 그리드(720)를 도시한다. 심볼 "o"은 제1샘플링 그리드(g1)를 나타내며, 심볼 "+"은 제2샘플링 그리드(g2)를 나타내며, 심볼 "x"은 제3샘플링 그리드(g3)을 나타내며, 심볼 "△"은 제4샘플링 그리드(g4)를 나타낸다. 도 7c는 제1샘플링 그리드(g1)로부터 발생하는 저해상도 프레임(730)을 도시한다. 도 7d는 제2그리드(g2)로부터 발생하는 저해상도 프레임(74)을 도시한다. 도 7e는 제3그리드(g3)로부터 발생하는 저해상도 프레임(750)을 도시한다. 도 7f는 제4그리드(g4)로부터 발생하는 저해상도 프레임(460)을 도시한다.
도 8a 내지 도 8d를 참조하면, 추가적인 균일한 샘플링 그리드는 일반적으로 참조 부호 (800)으로 표시되어 있다. 보다 상세하게, 도 8a는 수평으로 지그재그 배열된 그리드(810)를 도시한다. 도 8b는 집합적으로 참조 부호 (820)으로 표시되고 개별적으로 각 심볼, 즉 o; +; x; 및 △로 지시된 샘플링 그리드(g5, g6, g7, 및 g8)를 도시한다. 도 8c는 수직으로 지그재그 배열된 샘플링 그리드(830)를 도시한다. 도 8d는 집합적으로 참조 부호 (840)으로 표시되고 개별적으로 각 심볼, 즉 o; +; x; 및 △로 표시된 샘플링 그리드(g9, g10, g11, 및 g12)를 도시한다.
여기서는 균일한 샘플링 그리드만을 사용하는, 즉 고해상도 프레임의 모든 부분에 걸쳐 균일한 수렴 밀도를 가지는 샘플링 그리드만을 사용하는 것으로 제한하자. 균일한 그리드를 사용하는 분명한 이점이 있다. 첫째, 이 균일한 그리드는 고해상도 프레임의 픽셀 중에 존재하는 공간적 및 시간적 관계를 대략적으로 보존하며 이것은 인코더{예를 들어, 도 1에 있는 인코더(115), 도 2에 있는 인코더(200)}가 효율적인 압축을 위해 비디오에 있는 공간적-시간적 리던던시를 이용하는 것을 도와준다. 둘째, 샘플링 기반 초해상도 시스템이 실패하는 경우, 균일하게 샘플링된 프레임은 고해상도 프레임을 생성하도록 공간적으로 보간될 수 있으며 이에 의해 최소의 경험 품질을 보장할 수 있다. 셋째, 균일한 그리드를 사용하여 샘플링된 픽셀을 저해상도 프레임으로 팩킹하는 것이 더 용이하다.
샘플링 그리드 선택 공정은 각 고해상도 프레임(Ht)에 대해 그리드(G = {gi ; i = 1, ..., NG)의 후보 풀(pool)로부터 적절한 샘플링 그리드(St)를 선택하는 문제로 제기된다. 일 실시예에서, 도 7b, 도 8b 및 도 8d에 도시된 12개의 후보 그리드(g1 - g12)로부터 선택한다. 지그재그 배열된 그리드(g5-g12)는 잠재적으로 직사각형 그리드(g1 - g4)보다 더 우수한 픽셀의 약간 회전되거나 전단된 그리드를 캡쳐할 수 있다는 것을 주지해야 한다.
그리드를 선택할 때 사용해야 하는 기본 기준은 후처리 단계에서 초 해상도 결과(즉, 초해상도 모자이크)의 예상된 품질을 최대화하는 것이다. 실제로, 이것은 각 프레임이 초해상도 공정을 위해 상보적인 픽셀 정보를 제공하도록 그리드(St)를 선택하는 것에 의해 달성된다. 그리드 선택 공정은 초해상도 모자이크 생성 공정의 일부를 복제하는 것에 의해 진행된다. 일 실시예에서, 그리드를 선택하는데 사용되는 기준은 초 해상도 충진 인수이다.
도 9를 참조하면, 샘플링 그리드의 선택에 관한 단계들이 일반적으로 참조 부호 (900)으로 표시되어 있다. 구체적으로, 도 9a는 참조 프레임에 대해 샘플링 그리드를 선택하는 단계(910)를 도시한다. 도 9b는 H1과 동일한 사이즈의 비충진된 초 해상도 프레임(HSR)이 개시되는(여기서 HSR과 H1 사이에는 움직임이 없는 것으로 가정되므로 I는 항등 변환이다) 단계(920)를 도시한다. 도 9c는 각 후보 그리드에 대해 충진 인수를 선택하는 단계(930)를 도시한다. 도 9d는 대응하는 St를 선택하기 위해 각 프레임(Ht)에 대해 이전의 단계들을 반복하는 단계(940)를 도시한다.
샘플링 그리드를 선택하기 위한 이전의 방법(900)은 또한 (4개의 프레임의 세트를 가정하고, H1는 참조 프레임이라고 가정해서) 이하와 같이 더 기술될 수 있다:
1. 참조 프레임(H1)에 대해 각 프레임(Ht) 사이에 움직임 변환(Θt1)을 계산한다.
2. S1 = g1으로 참조 프레임에 대해 샘플링 그리드를 선택한다.
3. (HSR과 H1 사이에 움직임이 없는 것으로 가정해서) 참조 프레임의 좌표에서 "비충진된" 초 해상도 프레임(HSR)을 개시한다. 그리드(S1)에 의해 주어진 픽셀 위치에 대응하는 HSR에 픽셀을 "충진한다".
4. 각 나머지 HR 프레임(Ht)(t≠1)에 대해, G에 있는 각 가능한 후보 그리드의 충진 인수(filling factor)를 계산한다. 후보 그리드(gi)의 충진 인수는 gi가 Ht에 대해 선택될 때 충진되는 HSR에서 이전에 비충진된 픽셀의 수로 정의된다. 최고 높은 충진 인수를 생성하는 그리드(gi*)가 선택되고(즉, St = gi*), Ht에서 대응하는 픽셀이 충진된다(움직임 변환 Θt1을 고려해서).
5. 세트에 있는 모든 프레임(Ht)이 처리된 경우, 종료한다. 그렇지 않으면 단계(4)로 다시 되돌아간다.
단계(4)에서, 후보 그리드(gi)의 충진 인수는 다음과 같이 계산된다. 먼저, Ht에 대해 각 그리드(gi
Figure pct00005
G)를 고려하며, gi에 의해 주어진 픽셀을 (HSR에서 가장 가까운 픽셀 위치로 라운딩하는) Θt1을 사용하여 HSR로 변환(이동)하고, HSR에서 이전에 비충진된 픽셀 위치가 변환된 픽셀에 의해 얼마나 많이 충진되었는지를 레코드하는 것에 의해 충진 인수를 계산한다. 이후, 최고 높은 충진 인수를 생성하는 그리드(gi*)가 선택된다(즉, Si = gi*). 선택된 그리드(St) 및 최종 초해상도 품질이 프레임(Ht)이 처리된 순서에 따라 달라질 수 있는 것을 주지해야 한다. 하나의 정렬 전략은 참조 프레임으로부터 시간적 거리를 증가하는 순서로 프레임을 고려하는 것이다. 예를 들어, H2가 참조 프레임인 경우, 다른 프레임은 이후 순서로 처리된다: H1; H3; 및 H4.
초해상도 품질을 수반하는 충진 인수 척도 또는 완전히 다른 메트릭(metric)의 변화가 그리드 선택을 위한 기준으로 사용될 수 있다. 예를 들어, 충진되거나 충진되지 않은 것으로 HSR에 있는 각 픽셀을 선언하는 대신에, 각 픽셀로 맵핑된 그리드 픽셀의 수를 추적할 수 있다. 이후, 충진 인수는 증분 정보의 척도로서 재정의될 수 있으며 여기서 HSR에 더 큰 증분 기여를 가지는 그리드가 더 높은 스코어를 가진다. 그리드 선택을 위한 다른 기준은 (이전에 선택된 그리드(S1 - St-1) 및 St에 대한 현재 후보 그리드를 사용하여) 초해상도 공정을 완전히 복제하고 예를 들어 참조 프레임에 대하여 PSNR에 기초하여 최고 높은 SR 품질을 생성하는 그리드(St)를 선택하는 것을 수반할 수 있다.
고해상도를 저해상도로 다운샘플링
그리드 선택 공정 후에, 각 고해상도 프레임(Ht)은 대응하는 샘플링 그리드(St)를 가진다. St의 특성에 따라 Ht는 다음과 같이 저해상도 프레임(Lt)으로 다운샘플링된다:
Figure pct00006
St가 직사각형 그리드(도 7b)인 경우, 즉 St = gi(i = 1, 2, 3, 4)인 경우에, Lt는 St로부터 픽셀을 취하고 이를 도 7c 내지 도 7f에 도시된 바와 같이 수평으로 그리고 수직으로 팩킹하는 것에 의해 형성된다.
Figure pct00007
St가 수평으로 지그재그 배열된 그리드(도 8b)인 경우, 즉 St = gi(i = 5, 6, 7, 8)인 경우, 샘플링된 픽셀을 가지는 각 행은 모든 이들 행에 있는 제1샘플링된 픽셀이 수직으로 정렬되도록 좌측으로 시프트된다. 이후, Lt는 전술된 바와 같이 픽셀을 팩킹하는 것에 의해 형성된다.
Figure pct00008
St가 수직으로 지그재그 배열된 그리드(도 8d)인 경우, 즉 St = gi(i = 9, 10, 11, 12)인 경우, 샘플링된 픽셀을 가지는 각 열은 모든 이들 열에 있는 제1샘플링된 픽셀이 수평으로 정렬되도록 위쪽으로 시프트된다. 이후, Lt는 전술된 픽셀을 팩킹하는 것에 의해 형성된다.
여러 다른 구조를 가지는 균일한 샘플링 그리드에 대하여 적절한 패킹 전략이 고해상도 프레임으로부터 샘플링된 픽셀을 사용하여 직사각형 저해상도 프레임을 형성하기 위하여 고안될 수 있다.
이렇게 생성된 저해상도 프레임은 비디오 인코더를 사용하여 압축된다. 추정 움직임 변환 파라미터(θ21, θ31, θ41)와 선택된 샘플링 그리드(S1, S2, S3, S4)를 포함하는 부가 정보가 메타데이터로서 전송된다. 여기서 그리드 그 자체 대신에 샘플링 그리드 지수들을 송신하는(즉, St = gi인 경우 i를 송신하는) 것으로도 충분하다는 것을 주지해야 한다. 이 그리드는 후처리 단계에서 룩업 테이블로 알려져 있다.
샘플링 기반 SR의 후처리 단계
후처리 단계에서, 초해상도(SR)라고 알려진 공정으로 대응하는 고해상도 프레임을 재구성하기 위하여 디코딩된 저해상도 프레임과 메타데이터를 사용한다. 도 10을 참조하면, 샘플링 기반 초해상도 방법의 후처리 단계에 관한 예시적인 방법은 일반적으로 참조 부호 (1000)으로 표시되어 있다. 방법(1000)은 제어를 기능 블록(1010)으로 전달하는 시작 블록(1005)을 포함한다. 기능 블록(1010)은 디코더(t =1, ..., N)로부터 저해상도 비디오 프레임을 입력하고 제어를 기능 블록(1015)으로 전달한다. 기능 블록(1015)은 각 저해상도 프레임으로부터 유효 픽셀을 초해상도 모자이크 좌표로 변환하고 제어를 기능 블록(1020)으로 전달한다. 기능 블록(1020)은 정수 픽셀 위치에 있는 값을 보간하는 것에 의해 초해상도 모자이크를 생성하며 제어를 기능 블록(1025)으로 전달한다. 기능 블록(1025)은 초해상도 모자이크를 고해상도 프레임 좌표로 역 변환하는 것에 의해 각 고해상도 프레임을 재구성하며 제어를 기능 블록(1030)으로 전달한다. 기능 블록(1030)은 고해상도 프레임(t = 1, ..., N)을 재구성하며 제어를 종료 블록(1099)으로 전달한다. 기능 블록(1035)은 샘플링 그리드 지수를 사용을 위해 기능 블록(1015)으로 제공한다. 기능 블록(1040)은 움직임 파라미터(메타데이터)를 사용하기 위해 기능 블록(1015, 1025)으로 제공한다.
전 처리 단계(도 4a 내지 도 4d)에서 고해상도 프레임(Ht)(t = 1, 2, 3, 4)의 세트에 대응하는 디코딩된 LR 프레임(
Figure pct00009
)의 세트를 가지고 있다고 가정해 보자. 메타데이터는 움직임 파라미터와 샘플링 그리드 지수를 포함한다. 이하는 디코딩된 저해상도 프레임과 부가 정보를 사용하여 고해상도 프레임(
Figure pct00010
)을 재구성하는데 수반되는 단계(도 5a 내지 도 5d 참조)이다:
1. 저해상도 프레임으로부터 초해상도 모자이크의 생성: 이 단계에서, 고해상도 "SR" 모자이크 이미지(
Figure pct00011
)가 디코딩된 저해상도 프레임과 부가 정보의 세트로부터 픽셀을 사용하여 생성된다. 이것은 참조 이미지로 역할을 하며, 이로부터 HR 프레임이 재구성될 수 있다. 추가 상세에서, 각 재구성된 HR 프레임의 부분은 SR 모자이크로부터 오며, 나머지 부분은 대응하는 LR 프레임 픽셀로부터 공간적으로 보간될 수 있다.
2. 고해상도 프레임의 재구성: 세트에 있는 각 고해상도 프레임(
Figure pct00012
)은 공정을 가이드하는 부가 정보를 사용하여 초해상도 모자이크 이미지(
Figure pct00013
)와 저해상도 프레임(
Figure pct00014
)을 사용하여 재구성된다.
이들 단계들은 이하에서 더 설명된다.
저해상도 프레임으로부터 초해상도 모자이크의 생성
이 단계에서, 고해상도 초해상도 모자이크 이미지(
Figure pct00015
)가 디코딩된 저해상도 프레임{
Figure pct00016
(t = 1, 2, 3, 4)} 및 이와 연관된 메타데이터의 세트를 사용하여 구성되며, 이 메타데이터는 각 프레임으로부터 세트에 있는 참조 프레임(도 5a에서 t = 1에 있는 프레임)으로 변환(Θt1)과 저해상도 프레임(Lt)을 생성하는데 사용되는 그리드(St)를 포함한다.
Figure pct00017
은 참조 프레임과 동일한 좌표에 있는 것으로 가정되며, 즉
Figure pct00018
Figure pct00019
사이에는 움직임이 없다. 이하는
Figure pct00020
을 구성하는 단계들이다:
1. 당분간,
Figure pct00021
이 비정수 픽셀 위치가 존재할 수 있는, 예를 들어
Figure pct00022
(1.44, 2.35) = 128일 수 있는 연속적인 2D 픽셀 공간이라고 고려하자.
2. 변환된 그리드 위치{Θt1(St)}에 의해 주어진
Figure pct00023
에 있는 픽셀 위치를 디코딩된 저해상도 프레임(
Figure pct00024
)에 있는 대응하는 픽셀 값으로 충진한다. 세트(t = 1, 2, 3, 4)에서 각 디코딩된 저해상도 프레임에 대해 이것을 한다.
Figure pct00025
Figure pct00026
사이에는 움직임이 없으므로 Θt1 = I(항등 변환)이라는 것을 주지해야 한다.
3. 마지막으로, 이미지(
Figure pct00027
)는 이들 위치들 각각에서 주변 픽셀 값으로부터, 충분한(예를 들어, 임계값을 사용하여 결정된) 데이터가 이용가능한 모든 정수 픽셀 위치에 있는 픽셀 값을 보간하는 것에 의해 구성된다. 여러 (비균일한) 공간 보간 방법이 이 동작을 위해 이용가능하다. 이 방법은 픽셀 위치와 이에 대응하는 값의 세트를 취하며 임의의 수의 다른 위치에 보간된 값을 출력한다. MATLAB의 그리드 데이터 기능이 이 보간을 수행하는데 사용될 수 있다.
상기 단계들의 결과는 초해상도 모자이크 이미지(
Figure pct00028
)이다. 나아가, 유효성 맵이
Figure pct00029
의 어느 픽셀이 신뢰할만한 정보를 포함하고 있는지 결정될 수 있으며 이에 따라 이들 픽셀만이 고해상도 프레임의 재구성에 사용될 수 있다. 유효성의 척도는 픽셀 주위 인근에 있는 샘플(예를 들어, 샘플의 수나 밀도)에 기초하여 모자이크 이미지의 각 픽셀에서 계산될 수 있다. 이후, 모자이크에 있는 픽셀은 그 유효성 값이 충분히 높은 경우(예를 들어, 주어진 임계값보다 큰 경우)에만 재구성 공정에 사용된다.
고해상도 프레임의 재구성
이제 각 고해상도 프레임(
Figure pct00030
, t = 1, 2, 3, 4)이 다음과 같이 재구성된다:
1. 당분간,
Figure pct00031
를 비정수 픽셀 위치가 존재할 수 있는 연속적인 2D 픽셀 공간이라고 고려하자. 그리드(St)에 의해 주어지는
Figure pct00032
에 있는 픽셀 위치를
Figure pct00033
에서 대응하는 픽셀 값으로 충진한다.
2. 움직임 변환(Θ1t)을 사용하여
Figure pct00034
에 있는 픽셀 위치를 변환한다. Θ1t은 Θt1의 역 변환이라는 것을 주지해야 한다.
Figure pct00035
에 있는 정수 픽셀 위치(x)가 변환후
Figure pct00036
공간에 있는 위치(y)로 맵핑되는 경우,
Figure pct00037
에 있는 대응하는 값으로 y를 충진한다, 즉
Figure pct00038
(y) =
Figure pct00039
(x).
3. 마지막으로, 고해상도 프레임(
Figure pct00040
)은 이들 위치 각각에 있는 주변 픽셀 값으로부터 프레임에 있는 모든 정수 픽셀 위치에 있는 픽셀 값을 보간하는 것에 의해 재구성된다. 이것은 이전의 단락(단계 3)에서 전술된 공간 보간 방법을 사용하여 처리된다. 프레임 경계 외에 있는 픽셀은 결정되지 않는다.
포어그라운드 대상의 처리
지금까지, 프레임들 간 움직임은 글로벌 움직임 모델에 의해 충분히 기술되는 것으로 가정하였는데, 즉 모든 픽셀은 이 움직임 모델에 부착되는 것으로 가정하였다. 이제, 포어그라운드 대상을 처리하는 전략을 제시한다. 포어그라운드 대상은 프레임들 사이 글로벌 움직임을 따르지 않는 대상(또는 영역)으로 정의된다. 다시 말해, 이들 대상은 프레임들 사이의 글로벌 움직임과는 다른 움직임을 가진다. 도 11a 내지 도 11b를 참조하면, 2개의 프레임(프레임 1 및 프레임 t) 사이 포어그라운드 대상의 움직임은 일반적으로 참조 부호 (1100)으로 표시되어 있다. 샘플링 기반 초해상도 공정에 결함을 회피하기 위하여, 과정에서 특정 단계 동안 이 포어그라운드 대상을 위치시키고 이 지식을 사용하는 것이 중요하다. 포어그라운드는 이진 마스크(Ft)에 의해 표시될 수 있고 여기서 Ft = 1은 포어그라운드 픽셀을 나타내고, Ft = 0은 백그라운드 픽셀을 나타낸다.
포어그라운드 픽셀을 나타내는 각 프레임에 대해 이진 마스크(Ft)(도 11b에 도시된 것)를 얻었다고 가정하자. FGt는 Ft = 1인 모든 픽셀의 세트이고,
Figure pct00041
는 Ft = 0인 모든 픽셀의 세트라고 하자. 그러면 이 정보는 다음과 같이 사용될 수 있다:
Figure pct00042
샘플링 그리드 선택 공정에서, 포어그라운드 영역은 Lt를 생성하기 위해 Ht를 샘플링하기 위한 샘플링 그리드를 결정하는 동안 배제될 수 있다. 단계(3 및 4)에서, FGt에 있는 픽셀을 Ht로부터 HSR로 맵핑하는 것을 회피할 수 있다. 따라서, 충진 인수(또는 다른 척도)가 백그라운드 픽셀에만 기초하여 계산된다. 나아가, 샘플링 그리드 추정 동안, Ht에서 충분히 플랫한 영역이 FGt의 일부인 것으로 고려될 수 있다. 이것은 그리드 선택 공정 동안 상세를 갖는 영역에 더 높은 중요도를 제공하는 것에 의해 초해상도를 개선할 수 있다. 플랫한 영역은 공간적 분산과 같은 척도에 기초하여 결정될 수 있다.
Figure pct00043
고해상도 프레임을 저해상도로 다운샘플링하기 전에, 앤티에일리어싱 필터(anti-aliasing filter)가 프레임에서 포어그라운드 영역에 적용될 수 있다. 포어그라운드 영역이 현재 실시예에서 초 분해(super-resolved)되어 있지 않으므로, 앤티에일리어싱 동작은 후처리 단계에서 이들 영역에 대해 더 나은 공간적 보간 결과를 얻는데 도움이 될 수 있다.
Figure pct00044
초해상도 모자이크 생성 공정을 고려하자. 단계(2)에서,
Figure pct00045
의 포어그라운드 픽셀(FGt)을
Figure pct00046
로 변환하는 것을 회피할 수 있다.
Figure pct00047
고해상도 프레임 재구성 공정의 단계(2)에서, FGt에 의해 한정된 영역 내에 있는
Figure pct00048
로부터
Figure pct00049
로 변환된 픽셀을 버릴 수 있다. 나아가, 단계(1)에서,
Figure pct00050
에 의해 한정된 영역 내로 맵핑된 St로부터의 픽셀을 사용하지 않도록 (선택적으로) 선택할 수 있다.
Figure pct00051
이전의 2개의 변형에서,
Figure pct00052
또는
Figure pct00053
에서 충분히(예를 들어 임계값을 사용하여 결정된) 플랫한 영역은 FGt의 일부인 것으로 고려될 수 있다. 이 경우에, 공간적 보간이 이들 영역을 업샘플링하는데 사용될 수 있다.
Figure pct00054
지금까지, 재구성된 고해상도 프레임(
Figure pct00055
)에 있는 포어그라운드 영역은 대응하여 디코딩된 저해상도 프레임(
Figure pct00056
)에 있는 픽셀로부터 바로 공간적으로 보간된다. 다른 저해상도 프레임으로부터 정보는 이들 영역을 초분해하는데 명시적으로 이용되지 않는다. 그러나, 수신기 측에서 부분적으로 또는 완전히 포어그라운드 영역을 초분해하기 위하여 블록 움직임 벡터(프레임들 사이에 서브 픽셀의 움직임을 이용하기 위해) 또는 고해상도 패치와 같은 일부 추가적인 정보를 메타데이터로서 송신하는 것이 가능할 수 있다.
상기에 더하여, 포어그라운드 정보를 사용하는 다른 기준이 그 결과의 품질을 개선하는데 사용될 수 있다.
포어그라운드 마스크 추정
독립적으로 이동하는 영역을 가지는 프레임으로부터 깨끗하고 신뢰할만한 포어그라운드 마스크를 추출하는 것은 어려운 문제이다. 픽셀 값에서 잡음과 함께 글로벌 움직임 추정에서의 에러는 공정을 복잡하게 한다. 나아가, 포어그라운드 정보를 메타데이터로서 콤팩트하게 나타내고 이를 디코더에 송신하는 문제가 또 있다.
각 고해상도 프레임(Ht)에 대해 포어그라운드 마스크(Ft)를 추출하는 하나의 방법이 이제 기술된다. 이것은 고해상도 프레임이 이용가능한 전처리 단계에서 일어난다. 이하는 이 공정에서의 단계들이다.
1. 프레임 H1에서, 마스크 F1이 제로(0)로 충진된다. 다시 말해, 모든 픽셀은 백그라운드인 것으로 고려된다.
2. Ft를 추출하기 위해, 프레임(Ht)이 H1t = Θ1t(H1)와 비교되는데, 즉 H1은 Ht의 좌표로 변환된다. 정규화된 상관 메트릭 Nt1(x)이 픽셀 주위 작은 인근을 고려하여 Ht에 있는 각 픽셀(x)과 H1t에 있는 대응하는 픽셀 사이에 계산된다. H1t에 대응하는 픽셀이 없다면 {즉, Θt1(x)가 H1의 경계 외에 놓여있다면} Ft(x)은 1로 설정된다. 그렇지 않다면, Nt1(x) > T라면(여기서 T는 선택된 임계값임), Ft(x) = 0이다. 그렇지 않다면, Ft(x) = 1이다.
상기의 변형을 포함하는 다른 방법이 대신 사용될 수 있다.
마스크가 전처리 단계에서 계산된다면, 마스크가 수신기에 부가 정보로서 송신되어야 한다. 포어그라운드 마스크의 고해상도 버전을 송신하는 것이 반드시 필요한 것은 아닐 수 있다. 마스크는 Ht로부터 저해상도 프레임(Lt)를 생성하는데 사용된 것과 동일한 전략을 사용하여 저해상도로 다운샘플링된 후에 후처리 단계에서 업샘플링될 수 있다. 마스크는 또한 송신 전에 (예를 들어, ZIP, MPEG-4 AVC 표준 및/또는 임의의 다른 데이터 압축 구조를 사용하여) 압축될 수 있다. 대안적으로, 마스크를 송신하는 것은 디코딩된 저해상도 프레임과 메타데이터를 사용하여 수신기 측에서 이를 계산하는 것에 의해 완전히 회피될 수 있다. 그러나, 수신기에서 신뢰할만한 마스크를 계산하는 것은 어려운 문제이다.
이 기술 분야에 통상의 지식을 가진 자에게는 명백한 바와 같이 본 발명의 범위 내에 있으며 본 발명의 원리의 하나 이상의 실시예에서 사용될 수 있는 이하의 가능한 변형예들이 있다는 것을 주목해야 한다.
1. 본 방법이 4개의 프레임의 세트에 대해 기술되어 있으나, 이 세트에 있는 프레임의 수(N)에는 상한이 없다. 실제로 N은 적어도 4이어야 한다. 이 세트의 사이즈는 다운샘플링 인수와 프레임들 사이의 움직임의 양에 기초하여 결정될 수 있다.
2. K > N개의 프레임인 K를 가지는 시퀀스가 N개의 프레임 각각의 세트의 수로 다운될 수 있다. 각 세트는 제안된 방법을 사용하여 처리될 수 있다.
3. 참조 프레임은 세트에서 항상 제1프레임일 필요는 없다. 참조 프레임과 비참조 프레임 사이에 움직임의 양을 최소화하기 위하여 세트의 (시간적) 중심 부근에 있는 프레임을 사용하는 것이 유리할 수 있다.
4. 프레임의 세트를 재구성하는 동안, 프레임의 다른 세트로부터의 정보가 사용될 수 있다. 예를 들어, 이전의 세트로부터 재구성된 고해상도 참조 프레임을 사용하여 현재 세트에 있는 비참조 프레임을 재구성할 수 있다. 이를 위하여 프레임의 세트들 사이에 움직임 정보가 결정되고 메타데이터로서 송신될 수 있다. 또 현재 세트 외에 있는 프레임으로부터의 정보가 초해상도 모자이크 생성 공정 동안 사용될 수 있다.
5. 본 명세서에서 처리는 그레이스케일(단일 성분)과 컬러(멀티 성분) 프레임에 대해 모두 유효하다. 하나 이상의 전처리 및 후처리 단계(예를 들어, 샘플링 그리드 선택)는 이들 모두를 공동으로 고려하는 것에 의해 또는 각 컬러 성분에 대해 독립적으로 수행될 수 있다. 예를 들어, 상이한 샘플링 그리드가 각 컬러 성분에 대해 결정될 수 있다.
6. 다수의 샘플링 그리드가 단일 프레임의 상이한 영역에 대해 추정될 수 있다. 예를 들어, 프레임은 4개의 직사각형 사분면(quarter)으로 분할되고 각 사분면에 대해 샘플링 그리드가 선택될 수 있다. 이 경우, "샘플링 그리드 선택"이라고 명명된 상기 단락에 있는 단계(2,3,4)가 프레임에 기초하는 대신에 사분면에 기초하여 수행된다. 모든 후속하는 공정(다운샘플링, 후처리)은 프레임의 상이한 영역에 대해 상이한 샘플링 그리드를 사용하기 위해 적절히 변경된다.
7. 상이한 글로벌 움직임 변환이 단일 프레임의 상이한 영역에 대해 추정될 수 있다. 예를 들어, "움직임 추정"이라고 명명된 상기 단락에서 프레임은 4개의 직사각형 사분면으로 분할될 수 있으며, 상이한 변환이 세트에 있는 참조 프레임과 각각의 것 사이에 추정될 수 있다. 모든 후속하는 공정은 프레임에 있는 각 영역에 대해 대응하는 변환을 사용할 수 있다.
8. "움직임 추정"이라고 명명된 상기 단락에서, 세트에 있는 각 프레임으로부터 참조 프레임으로 변환을 추정하는 대신에, 각 프레임으로부터 그 다음 프레임으로 (또는 그 역으로) 변환을 추정하고 이들 중 하나 이상을 결합하여 필요한 변환을 유도하는 것도 가능하다.
9. 포어그라운드 마스크에서("포어그라운드 마스크 추정"이라고 명명된 상기 단락에서), 경계 픽셀의 밴드는 포어그라운드로, 예를 들어 고정된 블랙 경계를 처리하기 위해 고려될 수 있다. 전술된 바와 같이, 또 충분히 플랫한 영역을 포어그라운드로 고려하는 것이 가능하다.
이제 일부가 전술된 본 발명의 많은 부수적인 이점/특징들 중 일부에 대한 설명이 제공된다. 예를 들어, 하나의 이점/특징은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하는 장치이다. 다운샘플러와 메타데이터 생성기는 고해상도 화상을 수신하고 이로부터 저해상도 화상과 메타데이터를 생성한다. 이 메타데이터는 저해상도 화상과 메타데이터의 후디코딩 후처리를 가이드하기 위한 것이다. 적어도 하나의 인코더(152)가 저해상도 화상과 메타데이터를 인코딩한다.
다른 이점/특징은 전술된 바와 같은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 상기 메타데이터는 움직임 변환 정보와 샘플링 그리드 정보를 포함하는 것인 장치이다.
또 다른 이점/특징은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 상기 메타데이터는 전술된 바와 같이 움직임 변환 정보와 샘플링 그리드 정보를 포함하며, 상기 움직임 변환 정보는 2개 이상의 고해상도 화상들 사이에 글로벌 움직임에 관한 글로벌 움직임 변환 정보를 포함하는 것인 장치이다.
더 다른 이점/특징은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 상기 메타데이터는 전술된 바와 같이 움직임 변환 정보와 샘플링 그리드 정보를 포함하며, 상기 샘플링 그리드 정보는 다운샘플링에 의해 고해상도 화상으로부터 저해상도 화상을 생성하는데 사용된 복수의 다운샘플링 그리드 중 각 해당하는 것을 나타내는 샘플링 그리드 지수를 포함하는 것인 장치이다.
다른 이점/특징은 전술된 바와 같이 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 고해상도 화상은 적어도 하나의 참조 화상과 하나 이상의 비참조 화상을 포함하며 상기 다운샘플러와 메타데이터 생성기는 참조 화상으로부터 하나 이상의 비참조 화상들 각각으로 움직임을 추정하고, 움직임 정보에 기초하여 고해상도 화상을 다운샘플링하는데 사용하기 위한 복수의 후보 다운샘플링 그리드로부터 하나 이상의 다운샘플링 그리드를 선택하고, 하나 이상의 다운샘플링 그리드를 사용하여 고해상도 화상을 다운샘플링하는 것에 의해 저해상도 화상을 생성하는 것인 장치이다.
더욱이, 다른 이점/특징은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 고해상도 화상은 적어도 하나의 참조 화상과 하나 이상의 비참조 화상을 포함하며, 상기 다운샘플러와 메타데이터 생성기는 전술된 바와 같이 참조 화상으로부터 하나 이상의 비참조 화상들 각각으로 움직임을 추정하고, 움직임 정보에 기초하여 고해상도 화상을 다운샘플링할 때 사용하기 위한 복수의 후보 다운샘플링 그리드로부터 하나 이상의 다운샘플링 그리드를 선택하고, 하나 이상의 다운샘플링 그리드를 사용하여 고해상도 화상을 다운샘플링하는 것에 의해 저해상도 화상을 생성하며, 상기 하나 이상의 다운샘플링 그리드는 고해상도 화상들 각각이 하나 이상의 다운샘플링 그리드를 사용하여 다운샘플링될 때 저해상도 화상의 후디코딩 후처리를 위한 상보적인 픽셀 정보를 제공하도록 움직임 정보에 기초하여 선택된 것인 장치이다.
더욱이, 다른 이점/특징은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 상기 하나 이상의 다운샘플링 그리드는 고해상도 화상들 각각이 하나 이상의 다운샘플링 그리드를 사용하여 다운샘플링될 때 전술된 바와 같이 저해상도 화상의 후디코딩 후처리를 위한 상보적인 픽셀 정보를 제공하도록 움직임 정보에 기초하여 선택되며, 상기 그리드는 하나 이상의 다운샘플링 그리드 중 특정 그리드를 사용하여 생성된 초해상도 화상에 있는 이전에 충진되지 않은 픽셀의 수를 나타내는 충진 인수에 기초하여 더 선택되며, 상기 초 해상도 화상은 저해상도 화상과 메타데이터의 후디코딩 후처리에 의해 제공된 출력에 대응하는 것인 장치이다.
또한, 다른 이점/특징은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 하나 이상의 다운샘플링 그리드는 고해상도 화상들 각각이 하나 이상의 다운샘플링 그리드를 사용하여 다운샘플링될 때 전술된 바와 같이 저해상도 화상의 후디코딩 후처리를 위한 상보적인 픽셀 정보를 제공하도록 움직임 정보에 기초하여 선택되고, 상기 그리드는 왜곡 척도에 기초하여 더 선택되는 것인 장치이다.
추가적으로, 다른 이점/특징은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 고해상도 화상은 적어도 하나의 참조 화상과 하나 이상의 비참조 화상을 포함하며, 상기 다운샘플러와 메타데이터 생성기는 전술된 바와 같이 참조 화상으로부터 하나 이상의 비참조 화상들 각각으로 움직임을 추정하고, 움직임 정보에 기초하여 고해상도 화상을 다운샘플링하는데 사용하기 위한 복수의 후보 다운샘플링 그리드로부터 하나 이상의 다운샘플링 그리드를 선택하며, 하나 이상의 다운샘플링 그리드를 사용하여 고해상도 화상을 다운샘플링하는 것에 의해 저해상도 화상을 생성하며, 상기 복수의 다운샘플링 그리드 중 상이한 그리드는 적어도 하나의 고해상도 화상의 특정한 화상의 상이한 부분을 다운샘플링하는데 사용되는 것인 장치이다.
더욱이, 다른 이점/특징은 다운샘플러와 메타데이터 생성기 및 적어도 하나의 인코더를 구비하며, 고해상도 화상은 적어도 하나의 참조 화상과 하나 이상의 비참조 화상을 포함하며, 상기 다운샘플러와 메타데이터 생성기는 전술된 바와 같이 참조 화상으로부터 하나 이상의 비참조 화상들 각각으로 움직임을 추정하고, 움직임 정보에 기초하여 고해상도 화상을 다운샘플링하는데 사용하기 위한 복수의 후보 다운샘플링 그리드로부터 하나 이상의 다운샘플링 그리드를 선택하며, 하나 이상의 다운샘플링 그리드를 사용하여 고해상도 화상을 다운샘플링하는 것에 의해 저해상도 화상을 생성하며, 각 이진 마스크는 고해상도 화상들 각각에 대해 구성되고, 상기 이진 마스크는 고해상도 화상에서 포어그라운드 픽셀의 각 위치를 나타내는 것인 장치이다.
본 발명의 원리의 이들 및 다른 특징 및 이점은 본 명세서에 있는 교시 내용에 기초하여 이 기술 분야에 통상의 지식을 가진 자라면 용이하게 확인할 수 있다. 본 발명의 원리의 교시 내용이 하드웨어, 소프트웨어, 펌웨어, 특수 목적 프로세서 또는 이들의 조합의 여러 형태로 구현될 수 있다는 것을 이해할 수 있을 것이다.
가장 바람직하게는 본 발명의 원리의 교시 내용은 하드웨어와 소프트웨어의 조합으로 구현된다. 나아가, 소프트웨어는 프로그램 저장 장치에 유형적으로 구현되는 애플리케이션 프로그램으로 구현될 수 있다. 애플리케이션 프로그램은 임의의 적절한 이키텍처를 포함하는 기계에 업로딩되고 이 기계에 의해 실행될 수 있다. 바람직하게는, 이 기계는 하나 이상의 중앙 처리 장치("CPU"), 랜덤 액세스 메모리("RAM") 및 입력/출력("I/O") 인터페이스와 같은 하드웨어를 구비하는 컴퓨터 플랫폼에서 구현된다. 컴퓨터 플랫폼은 운영 시스템 및 마이크로명령 코드를 더 포함할 수 있다. 본 명세서에 기술된 여러 공정과 기능은 CPU에 의해 실행될 수 있는 마이크로명령 코드의 부분이나 애플리케이션 프로그램의 부분 또는 이들의 임의의 조합일 수 있다. 나아가, 여러 다른 주변 장치들이 추가적인 데이터 저장 장치와 프린팅 장치와 같은 컴퓨터 플랫폼에 연결될 수 있다.
첨부 도면에 도시된 구성 시스템 요소 및 방법의 일부는 바람직하게는 소프트웨어로 구현될 수 있으므로, 시스템 요소나 공정 기능 블록들 사이의 실제 연결은 본 발명의 원리가 프로그래밍되는 방식에 따라 상이할 수 있다는 것을 더 이해할 수 있을 것이다. 본 명세서에 있는 교시 내용에 따라 이 기술 분야에 통상의 지식을 가진 자라면 본 발명의 원리의 이들 및 이와 유사한 구현예나 구성을 구상할 수 있을 것이다.
첨부 도면을 참조하여 본 명세서에서 예시적인 실시예들이 기술되었으나, 본 발명의 원리는 이들 정확한 실시예로 제한되는 것은 아니고 본 발명의 원리의 범위나 사상을 벗어남이 없이 이 기술 분야에 통상의 지식을 가진 자라면 여러 변경과 변형이 이루어질 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 모든 이러한 변경과 변형은 첨부된 청구범위에 개시된 본 발명의 원리의 범위 내에 포함된 것으로 의도된다.

Claims (41)

  1. 고해상도 화상을 수신하고 이로부터 저해상도 화상과 메타데이터를 생성하되, 상기 메타데이터는 상기 저해상도 화상과 메타데이터의 후디코딩 후처리를 가이드하는 것인 다운샘플러와 메타데이터 생성기(151); 및
    상기 저해상도 화상과 상기 메타데이터를 인코딩하기 위한 적어도 하나의 인코더(152)를 포함하는 장치.
  2. 제1항에 있어서, 상기 메타데이터는 움직임 변환 정보와 샘플링 그리드 정보를 포함하는 것인 장치.
  3. 제2항에 있어서, 상기 움직임 변환 정보는 2개 이상의 상기 고해상도 화상 사이에 글로벌 움직임에 관한 글로벌 움직임 변환 정보를 포함하는 것인 장치.
  4. 제2항에 있어서, 상기 샘플링 그리드 정보는 다운샘플링에 의해 상기 고해상도 화상으로부터 상기 저해상도 화상을 생성하는데 사용된 복수의 다운샘플링 그리드 중 각 해당 그리드를 나타내기 위한 샘플링 그리드 지수를 포함하는 것인 장치.
  5. 제1항에 있어서, 상기 고해상도 화상은 적어도 하나의 참조 화상과 하나 이상의 비참조 화상을 포함하며, 상기 다운샘플러와 메타데이터 생성기(151)는, 상기 참조 화상으로부터 상기 하나 이상의 비참조 화상들 각각으로 움직임을 추정하고 상기 움직임 정보에 기초하여 상기 고해상도 화상을 다운샘플링하는데 사용하기 위한 복수의 후보 다운샘플링 그리드로부터 하나 이상의 다운샘플링 그리드를 선택하며 상기 하나 이상의 다운샘플링 그리드를 사용하여 상기 고해상도 화상을 다운샘플링하는 것에 의해, 상기 저해상도 화상을 생성하는 것인 장치.
  6. 제5항에 있어서, 상기 하나 이상의 다운샘플링 그리드는, 상기 고해상도 화상들 각각이 상기 하나 이상의 다운샘플링 그리드를 사용하여 다운샘플링될 때 상기 저해상도 화상의 후디코딩 후처리를 위한 상보적인 화상 정보를 제공하도록, 상기 움직임 정보에 기초하여 선택되는 것인 장치.
  7. 제6항에 있어서, 상기 그리드는 상기 하나 이상의 다운샘플링 그리드 중 특정한 그리드를 사용하여 생성된 초해상도 화상에 있는 이전에 비충진된 픽셀의 수를 나타내는 충진 인수에 기초하여 더 선택되며, 상기 초해상도 화상은 상기 저해상도 화상과 상기 메타데이터의 후디코딩 후처리에 의해 제공된 출력에 대응하는 것인 장치.
  8. 제6항에 있어서, 상기 그리드는 왜곡 척도에 기초하여 더 선택되는 것인 장치.
  9. 제5항에 있어서, 상기 복수의 다운샘플링 그리드 중 상이한 그리드들이 적어도 하나의 상기 고해상도 화상 중 특정한 화상의 상이한 부분을 다운샘플링하는데 사용되는 것인 장치.
  10. 제5항에 있어서, 각 이진 마스크는 상기 고해상도 화상들 각각에 대해 구성되고, 상기 이진 마스크는 상기 고해상도 화상에 있는 포어그라운드 픽셀의 각 위치를 나타내는 것인 장치.
  11. 고해상도 화상을 수신하고(610) 이로부터 저해상도 화상과 메타데이터를 생성하는 단계(625, 110)로서, 상기 메타데이터는 상기 저해상도 화상과 상기 메타데이터의 후디코딩 후처리를 가이드하기 위한 것인 단계; 및
    적어도 하나의 인코더를 사용하여 상기 저해상도 화상과 상기 메타데이터를 인코딩하는 단계(115)를 포함하는 방법.
  12. 제11항에 있어서, 상기 메타데이터는 움직임 변환 정보와 샘플링 그리드 정보(615, 620)를 포함하는 것인 방법.
  13. 제12항에 있어서, 상기 움직임 변환 정보는 2개 이상의 상기 고해상도 화상(615)들 사이에 글로벌 움직임에 관한 글로벌 움직임 변환 정보를 포함하는 것인 방법.
  14. 제12항에 있어서, 상기 샘플링 그리드 정보는 다운샘플링(620)에 의해 상기 고해상도 화상으로부터 상기 저해상도 화상을 생성하는데 사용된 복수의 다운샘플링 그리드 중 각 해당 그리드를 나타내기 위한 샘플링 그리드 지수를 포함하는 것인 방법.
  15. 제11항에 있어서, 상기 고해상도 화상은 적어도 하나의 참조 화상과 하나 이상의 비참조 화상을 포함하며, 상기 다운샘플러와 메타데이터 생성기는, 참조 화상으로부터 상기 하나 이상의 비참조 화상들 각각으로 움직임을 추정하고(615) 상기 움직임 정보에 기초하여 상기 고해상도 화상을 다운샘플링하는데 사용하기 위한 복수의 후보 다운샘플링 그리드로부터 하나 이상의 다운샘플링 그리드를 선택하며(620) 상기 하나 이상의 다운샘플링 그리드를 사용하여 상기 고해상도 화상을 다운샘플링하는(625) 것에 의해, 상기 저해상도 화상을 생성하는 것인 방법.
  16. 제15항에 있어서, 상기 하나 이상의 다운샘플링 그리드는, 상기 고해상도 화상들 각각이 상기 하나 이상의 다운샘플링 그리드를 사용하여 다운샘플링될 때 상기 저해상도 화상의 후디코딩 후처리를 위한 상보적인 픽셀 정보를 제공하도록, 상기 움직임 정보에 기초하여 선택되는 것인 방법.
  17. 제16항에 있어서, 상기 그리드는 상기 하나 이상의 다운샘플링 그리드 중 특정한 그리드를 사용하여 생성된 초해상도 화상에 있는 이전에 충진되지 않은 픽셀의 수를 나타내는 충진 인수에 기초하여 더 선택되며, 상기 초 해상도 화상은 상기 저해상도 화상과 상기 메타데이터의 후디코딩 후처리에 의해 제공된 출력에 대응하는 것인 방법.
  18. 제16항에 있어서, 상기 그리드는 왜곡 척도에 기초하여 더 선택되는 것인 방법.
  19. 제15항에 있어서, 상기 복수의 다운샘플링 그리드 중 상이한 그리드들이 적어도 하나의 고해상도 화상들 중 특정한 화상의 상이한 부분을 다운샘플링하는데 사용되는 것인 방법.
  20. 제15항에 있어서, 각 이진 마스크가 상기 고해상도 화상들 각각에 대해 구성되고, 상기 이진 마스크는 상기 고해상도 화상에 있는 포어그라운드 픽셀의 각 위치를 나타내는 것인 방법.
  21. 비트스트림을 수신하고 이로부터 저해상도 화상과 메타데이터를 디코딩하기 위한 디코더(153); 및
    상기 저해상도 화상과 상기 메타데이터를 사용하여 상기 저해상도 화상에 각각 대응하는 고해상도 화상을 재구성하기 위한 초 해상도 후프로세서(154)를 포함하는 장치.
  22. 제21항에 있어서, 상기 메타데이터는 움직임 변환 정보와 샘플링 그리드 정보를 포함하는 것인 장치.
  23. 제22항에 있어서, 상기 움직임 변환 정보는 2개 이상의 상기 고해상도 화상들 사이에 글로벌 움직임에 관한 글로벌 움직임 변환 정보를 포함하는 것인 장치.
  24. 제22항에 있어서, 상기 샘플링 그리드 정보는 다운샘플링에 의해 상기 고해상도 화상으로부터 상기 저해상도 화상을 생성하는데 사용된 복수의 다운샘플링 그리드들 중 각 해당 그리드를 나타내기 위한 샘플링 그리드 지수를 포함하는 것인 장치.
  25. 제21항에 있어서, 상기 초해상도 후프로세서(154)는 상기 메타데이터와 상기 저해상도 화상으로부터 고해상도 모자이크를 생성하며, 상기 저해상도 화상, 상기 메타데이터 및 상기 고해상도 모자이크를 사용하여 상기 고해상도 화상을 재구성하는 것인 장치.
  26. 제25항에 있어서, 상기 고해상도 모자이크는 상기 저해상도 화상에 있는 주변 공동 위치된 픽셀(surrounding co-located pixel)의 픽셀 값으로부터 상기 고해상도 모자이크에 있는 픽셀 위치에 있는 픽셀 값을 보간하는 것에 의해 생성되는 것인 장치.
  27. 제25항에 있어서, 상기 초해상도 후프로세서(154)는 상기 고해상도 모자이크에 있는 픽셀 각각에 대한 유효성의 척도를 포함하는 유효성 맵을 생성하는 것인 장치.
  28. 제27항에 있어서, 상기 고해상도 모자이크에 있는 픽셀들 중 주어진 어느 하나에 대해 유효성의 척도는 상기 픽셀들 중 주어진 하나의 주위 인근에 있는 샘플에 기초하여 계산되고, 상기 픽셀들 중 주어진 하나는 상기 픽셀들 중 주어진 하나에 대해 계산된 유효성의 척도가 임계값보다 큰 경우에만 상기 고해상도 화상을 재구성하는데 사용하도록 허용되는 것인 장치.
  29. 제25항에 있어서, 상기 고해상도 화상들 중 주어진 어느 하나는 상기 저해상도 화상들 중 대응하는 것에 있는 주변 공동 위치된 픽셀, 상기 고해상도 모자이크에 있는 주변 공동 위치된 픽셀, 및 상기 저해상도 화상의 적어도 다른 것에 있는 주변 공동 위치된 픽셀 중 적어도 하나의 픽셀의 픽셀 값으로부터 상기 고해상도 화상들 중 주어진 하나에 있는 픽셀 위치에서의 픽셀 값을 보간하는 것에 의해 재구성되고, 상기 고해상도 모자이크에 있는 상기 주변 공동 위치된 픽셀로부터 보간하는 것은 상기 고해상도 화상들 중 주어진 하나와 상기 저해상도 모자이크 사이에 픽셀의 움직임 변환을 수반하며, 상기 저해상도 화상들 중 적어도 다른 하나에 있는 상기 주변 공동 위치된 픽셀로부터 보간하는 것은 상기 고해상도 화상들 중 주어진 하나와 상기 저해상도 화상들 중 적어도 다른 하나 사이에 픽셀의 움직임 변환을 수반하는 것인 장치.
  30. 제21항에 있어서, 상기 고해상도 화상의 특정한 화상의 포어그라운드 픽셀은 상기 저해상도 화상에 있는 주변 공동 위치된 픽셀로부터 보간하는 것에 의해 재구성되는 것인 장치.
  31. 비트스트림을 수신하고 이로부터 디코더를 사용하여 저해상도 화상과 메타데이터를 디코딩하는 단계(1010); 및
    상기 저해상도 화상과 상기 메타데이터를 사용하여 상기 저해상도 화상에 각각 대응하는 고해상도 화상을 재구성하는 단계(1025)를 포함하는 방법.
  32. 제31항에 있어서, 상기 메타데이터는 움직임 변환 정보와 샘플링 그리드 정보를 포함하는 것인 방법.
  33. 제32항에 있어서, 상기 움직임 변환 정보는 2개 이상의 상기 고해상도 화상 사이에 글로벌 움직임에 관한 글로벌 움직임 변환 정보를 포함하는 것인 방법.
  34. 제32항에 있어서, 상기 샘플링 그리드 정보는 다운샘플링에 의해 상기 고해상도 화상으로부터 상기 저해상도 화상을 생성하는데 사용된 복수의 다운샘플링 그리드 중 각 해당 그리드를 나타내기 위한 샘플링 그리드 지수를 포함하는 것인 방법.
  35. 제31항에 있어서, 상기 메타데이터와 상기 저해상도 화상으로부터 고해상도 모자이크를 생성하는 단계(1020)를 더 포함하며, 상기 재구성하는 단계는 상기 저해상도 화상, 상기 메타데이터 및 상기 고해상도 모자이크를 사용하여 상기 고해상도 화상을 재구성하는 것인 방법.
  36. 제35항에 있어서, 상기 고해상도 모자이크는 상기 저해상도 화상에 있는 주변 공동 위치된 픽셀의 픽셀 값으로부터 상기 고해상도 모자이크에 있는 픽셀 위치에 있는 픽셀 값을 보간하는(1020) 것에 의해 생성되는 것인 방법.
  37. 제35항에 있어서, 상기 고해상도 모자이크에 있는 각 픽셀에 대한 유효성의 척도를 포함하는 유효성 맵을 생성하는 단계를 더 포함하는 방법.
  38. 제37항에 있어서, 상기 고해상도 모자이크에 있는 상기 픽셀들 중 주어진 어느 하나에 대해 유효성의 척도는 상기 픽셀들 중 주어진 하나의 주위 인근에 있는 샘플에 기초하여 계산되고, 상기 픽셀들 중 주어진 하나는 상기 픽셀들 중 주어진 하나에 대해 계산된 유효성의 척도가 임계값보다 큰 경우에만 상기 고해상도 화상을 재구성하는데 사용하기 위해 허용가능한 것인 방법.
  39. 제35항에 있어서, 상기 고해상도 화상들 중 주어진 어느 하나는 상기 저해상도 화상들 중 대응하는 것에 있는 주변 공동 위치된 픽셀, 상기 고해상도 모자이크에 있는 주변 공동 위치된 픽셀, 및 상기 저해상도 화상들 중 적어도 다른 하나에 있는 주변 공동 위치된 픽셀 중 적어도 하나의 픽셀의 픽셀 값으로부터 상기 고해상도 화상들 중 주어진 하나에 있는 픽셀 위치에서의 픽셀 값을 보간하는 것에 의해 재구성되며, 상기 고해상도 모자이크에 있는 상기 주변 공동 위치된 픽셀로부터 보간하는 것은 상기 고해상도 화상들 중 주어진 하나와 상기 고해상도 모자이크 사이에 픽셀의 움직임 변환을 수반하며, 상기 저해상도 화상들 중 적어도 다른 하나에 있는 상기 주변 공동 위치된 픽셀로부터 보간하는 것은 상기 고해상도 화상들 중 주어진 하나와 상기 저해상도 화상들 중 적어도 다른 하나 사이에 픽셀의 움직임 변환을 수반하는 것인 방법.
  40. 제31항에 있어서, 상기 고해상도 화상의 특정한 화상의 포어그라운드 픽셀은 상기 저해상도 화상에 있는 주변 공동 위치된 픽셀로부터 보간하는 것에 의해 재구성되는 것인 방법.
  41. 인코딩된 비디오 신호 데이터를 포함하는 컴퓨터 판독가능한 저장 매체로서,
    고해상도 화상으로부터 생성된 인코딩된 저해상도 화상 및 메타데이터를 포함하되, 상기 메타데이터는 상기 저해상도 화상과 상기 메타데이터의 후디코딩 후처리를 가이드하기 위한 것인 컴퓨터 판독가능한 저장 매체.
KR1020127021782A 2010-01-22 2011-01-20 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치 KR101789845B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US29732010P 2010-01-22 2010-01-22
US61/297,320 2010-01-22
PCT/US2011/000107 WO2011090790A1 (en) 2010-01-22 2011-01-20 Methods and apparatus for sampling -based super resolution vido encoding and decoding

Publications (2)

Publication Number Publication Date
KR20120118477A true KR20120118477A (ko) 2012-10-26
KR101789845B1 KR101789845B1 (ko) 2017-11-20

Family

ID=43755097

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127021782A KR101789845B1 (ko) 2010-01-22 2011-01-20 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치

Country Status (6)

Country Link
US (1) US9602814B2 (ko)
EP (1) EP2526698A1 (ko)
JP (1) JP5911809B2 (ko)
KR (1) KR101789845B1 (ko)
CN (1) CN102823242B (ko)
WO (1) WO2011090790A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101420638B1 (ko) * 2012-12-14 2014-07-17 에스케이플래닛 주식회사 스트리밍 서비스에서 콘텐츠 제공을 위한 장치 및 이를 위한 방법
KR20230105150A (ko) * 2022-01-03 2023-07-11 네이버 주식회사 하드웨어 디코더 환경에서의 초해상도 이미지 생성 방법 및 시스템

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8780976B1 (en) * 2011-04-28 2014-07-15 Google Inc. Method and apparatus for encoding video using granular downsampling of frame resolution
US8681866B1 (en) 2011-04-28 2014-03-25 Google Inc. Method and apparatus for encoding video by downsampling frame resolution
EP2555521A1 (en) * 2011-08-01 2013-02-06 Advanced Digital Broadcast S.A. A method and system for transmitting a high resolution video stream as a low resolution video stream
EP2557789B1 (en) 2011-08-09 2017-09-27 Dolby Laboratories Licensing Corporation Guided image up-sampling in video coding
JP2014532377A (ja) * 2011-10-14 2014-12-04 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated 領域ベースの画像圧縮
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
WO2013105946A1 (en) * 2012-01-11 2013-07-18 Thomson Licensing Motion compensating transformation for video coding
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US20130314401A1 (en) 2012-05-23 2013-11-28 1-800 Contacts, Inc. Systems and methods for generating a 3-d model of a user for a virtual try-on product
TWI674792B (zh) * 2012-08-06 2019-10-11 美商Vid衡器股份有限公司 在多層視訊編碼中空間層取樣格網資訊
US10034004B2 (en) * 2012-08-24 2018-07-24 I-Cubed Research Center Inc. Receiving apparatus, transmitting apparatus, and image transmitting method
US20140118460A1 (en) * 2012-11-01 2014-05-01 Microsoft Corporation Video Coding
US20140119446A1 (en) * 2012-11-01 2014-05-01 Microsoft Corporation Preserving rounding errors in video coding
US20140119456A1 (en) * 2012-11-01 2014-05-01 Microsoft Corporation Encoding video into lower resolution streams
US9185437B2 (en) * 2012-11-01 2015-11-10 Microsoft Technology Licensing, Llc Video data
US10349069B2 (en) * 2012-12-11 2019-07-09 Sony Interactive Entertainment Inc. Software hardware hybrid video encoder
KR102121558B1 (ko) * 2013-03-15 2020-06-10 삼성전자주식회사 비디오 이미지의 안정화 방법, 후처리 장치 및 이를 포함하는 비디오 디코더
KR102131326B1 (ko) * 2013-08-22 2020-07-07 삼성전자 주식회사 영상 프레임 움직임 추정 장치, 그것의 움직임 추정 방법
US9774865B2 (en) 2013-12-16 2017-09-26 Samsung Electronics Co., Ltd. Method for real-time implementation of super resolution
US20160330400A1 (en) * 2014-01-03 2016-11-10 Thomson Licensing Method, apparatus, and computer program product for optimising the upscaling to ultrahigh definition resolution when rendering video content
US9602811B2 (en) * 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
GB2539845B (en) 2015-02-19 2017-07-12 Magic Pony Tech Ltd Offline training of hierarchical algorithms
GB201604672D0 (en) 2016-03-18 2016-05-04 Magic Pony Technology Ltd Generative methods of super resolution
GB201603144D0 (en) 2016-02-23 2016-04-06 Magic Pony Technology Ltd Training end-to-end video processes
WO2016156864A1 (en) 2015-03-31 2016-10-06 Magic Pony Technology Limited Training end-to-end video processes
KR20170023484A (ko) 2015-08-24 2017-03-06 삼성전자주식회사 이미지 처리장치 및 방법
JP6909223B2 (ja) 2016-01-25 2021-07-28 コニンクリーケ・ケイピーエヌ・ナムローゼ・フェンノートシャップ 空間スケーラブル・ビデオ・コーディング
JP6516695B2 (ja) * 2016-02-24 2019-05-22 株式会社 日立産業制御ソリューションズ 画像処理システムおよび画像処理装置
WO2017178808A1 (en) 2016-04-12 2017-10-19 Magic Pony Technology Limited Visual data processing using energy networks
KR102520957B1 (ko) * 2016-04-15 2023-04-12 삼성전자주식회사 인코딩 장치, 디코딩 장치 및 이의 제어 방법
GB201607994D0 (en) 2016-05-06 2016-06-22 Magic Pony Technology Ltd Encoder pre-analyser
US10701394B1 (en) 2016-11-10 2020-06-30 Twitter, Inc. Real-time video super-resolution with spatio-temporal networks and motion compensation
TWI632814B (zh) * 2016-11-11 2018-08-11 財團法人工業技術研究院 視訊畫幀產生方法及其系統
US10721471B2 (en) * 2017-10-26 2020-07-21 Intel Corporation Deep learning based quantization parameter estimation for video encoding
CN108184116A (zh) * 2017-12-18 2018-06-19 西南技术物理研究所 一种适用于无线数据链传输的图像重建方法
EP3777166A1 (en) 2018-04-13 2021-02-17 Koninklijke KPN N.V. Frame-level super-resolution-based video coding
KR102190483B1 (ko) * 2018-04-24 2020-12-11 주식회사 지디에프랩 Ai 기반의 영상 압축 및 복원 시스템
WO2020080765A1 (en) 2018-10-19 2020-04-23 Samsung Electronics Co., Ltd. Apparatuses and methods for performing artificial intelligence encoding and artificial intelligence decoding on image
WO2020080665A1 (en) * 2018-10-19 2020-04-23 Samsung Electronics Co., Ltd. Methods and apparatuses for performing artificial intelligence encoding and artificial intelligence decoding on image
WO2020080873A1 (en) 2018-10-19 2020-04-23 Samsung Electronics Co., Ltd. Method and apparatus for streaming data
US10824917B2 (en) 2018-12-03 2020-11-03 Bank Of America Corporation Transformation of electronic documents by low-resolution intelligent up-sampling
WO2020191475A1 (en) * 2019-03-25 2020-10-01 Teledyne Digital Imaging, Inc. Method for generating a super-resolution image and related device
KR102436512B1 (ko) 2019-10-29 2022-08-25 삼성전자주식회사 부호화 방법 및 그 장치, 복호화 방법 및 그 장치
WO2021096159A1 (ko) * 2019-11-15 2021-05-20 한국과학기술원 라이브 비디오 수집 시스템 및 방법
US11367165B2 (en) * 2020-05-19 2022-06-21 Facebook Technologies, Llc. Neural super-sampling for real-time rendering
AU2020281143B1 (en) * 2020-12-04 2021-03-25 Commonwealth Scientific And Industrial Research Organisation Creating super-resolution images
FR3118380A1 (fr) * 2020-12-22 2022-06-24 Fondation B-Com Procédé de codage d’images d’une séquence vidéo à coder, procédé de décodage, dispositifs et système correspondants.
US11924408B2 (en) 2021-01-14 2024-03-05 Tencent America LLC Method and apparatus for video coding
JPWO2022210661A1 (ko) * 2021-03-30 2022-10-06
CN113329228B (zh) * 2021-05-27 2024-04-26 杭州网易智企科技有限公司 视频编码方法、解码方法、装置、电子设备及存储介质
CN114339232B (zh) * 2021-12-16 2024-04-16 杭州当虹科技股份有限公司 自适应分辨率的编码方法及其对应的解码方法
CN114092337B (zh) * 2022-01-19 2022-04-22 苏州浪潮智能科技有限公司 一种图像任意尺度的超分辨率放大的方法和装置
CN114650449A (zh) * 2022-03-03 2022-06-21 京东科技信息技术有限公司 一种视频数据处理方法和装置
CN116776228B (zh) * 2023-08-17 2023-10-20 合肥工业大学 一种电网时序数据解耦自监督预训练方法与系统

Family Cites Families (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US845751A (en) 1906-03-03 1907-03-05 Max Ams Machine Co Method of forming covers for sheet-metal cans.
WO1994006099A1 (en) 1992-09-01 1994-03-17 Apple Computer, Inc. Improved vector quantization
JP3679426B2 (ja) 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
JP3027670B2 (ja) 1993-05-07 2000-04-04 キヤノン株式会社 光起電力素子
KR960706267A (ko) 1993-11-15 1996-11-08 존 엠. 클락 3세 쿼드트리 구조형 월시(walsh) 변환 코딩(quadtree-structured walsh transform conding)
US5446806A (en) 1993-11-15 1995-08-29 National Semiconductor Corporation Quadtree-structured Walsh transform video/image coding
US6798834B1 (en) 1996-08-15 2004-09-28 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
JP3197420B2 (ja) 1994-01-31 2001-08-13 三菱電機株式会社 画像符号化装置
JP3448091B2 (ja) 1994-02-18 2003-09-16 富士通株式会社 符号化復号化装置及び符号化復号化方法
US5537155A (en) 1994-04-29 1996-07-16 Motorola, Inc. Method for estimating motion in a video sequence
KR0169662B1 (ko) 1994-12-28 1999-03-20 배순훈 다수의 부호책을 갖는 피티에스 벡터양자화 부호기
JPH08336134A (ja) 1995-04-06 1996-12-17 Sanyo Electric Co Ltd 動画像圧縮符号化方法、動画像圧縮符号化装置、動画像復号方法、動画像復号装置、及び、記録媒体
KR100207638B1 (ko) 1995-05-29 1999-07-15 윤종용 가변비트율 비디오 부호화방법
US5764374A (en) 1996-02-05 1998-06-09 Hewlett-Packard Company System and method for lossless image compression having improved sequential determination of golomb parameter
US5862342A (en) 1996-10-31 1999-01-19 Sensormatic Electronics Corporation Intelligent video information management system with information archiving capabilities
EP1450275A3 (en) 1996-10-31 2007-08-08 Sensormatic Electronics Corporation Intelligent video information management system
DE69815251T2 (de) 1997-04-02 2004-04-29 Koninklijke Philips Electronics N.V. Bildbearbeitungssystem und -verfahren
US6043838A (en) 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
US6937659B1 (en) 1997-11-14 2005-08-30 Ac Capital Management, Inc. Apparatus and method for compressing video information
US6278446B1 (en) 1998-02-23 2001-08-21 Siemens Corporate Research, Inc. System for interactive organization and browsing of video
CN1128097C (zh) 1998-06-19 2003-11-19 中山医科大学中山眼科中心 将珊瑚转变为羟基磷灰石“人工骨”的制备工艺
US6480538B1 (en) 1998-07-08 2002-11-12 Koninklijke Philips Electronics N.V. Low bandwidth encoding scheme for video transmission
JP2002522836A (ja) 1998-08-05 2002-07-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 静止画像生成方法および装置
US6782132B1 (en) 1998-08-12 2004-08-24 Pixonics, Inc. Video coding and reconstruction apparatus and methods
US6487249B2 (en) * 1998-10-09 2002-11-26 Matsushita Electric Industrial Co., Ltd. Efficient down conversion system for 2:1 decimation
US6397166B1 (en) 1998-11-06 2002-05-28 International Business Machines Corporation Method and system for model-based clustering and signal-bearing medium for storing program of same
US6272250B1 (en) 1999-01-20 2001-08-07 University Of Washington Color clustering for scene change detection and object tracking in video sequences
US6301387B1 (en) 1998-12-18 2001-10-09 University Of Washington Template matching using correlative auto-predictive search
US6795578B1 (en) 1999-09-29 2004-09-21 Canon Kabushiki Kaisha Image processing apparatus and method, and storage medium
KR100708091B1 (ko) 2000-06-13 2007-04-16 삼성전자주식회사 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법
US7623706B1 (en) 2000-09-29 2009-11-24 Hewlett-Packard Development Company, L.P. Reduction of chromatic bleeding artifacts in images containing subsampled chrominance values
KR100406593B1 (ko) 2001-06-08 2003-11-20 제일모직주식회사 난연성 열가소성 수지조성물
US6952700B2 (en) 2001-03-22 2005-10-04 International Business Machines Corporation Feature weighting in κ-means clustering
US6766067B2 (en) 2001-04-20 2004-07-20 Mitsubishi Electric Research Laboratories, Inc. One-pass super-resolution images
US7003039B2 (en) 2001-07-18 2006-02-21 Avideh Zakhor Dictionary generation method for video and image compression
FR2828054B1 (fr) 2001-07-27 2003-11-28 Thomson Licensing Sa Procede et dispositif de codage d'une scene
US20060165386A1 (en) 2002-01-08 2006-07-27 Cernium, Inc. Object selective video recording
US7602848B2 (en) 2002-03-26 2009-10-13 General Instrument Corporation Methods and apparatus for efficient global motion compensation encoding and associated decoding
US7433526B2 (en) 2002-04-30 2008-10-07 Hewlett-Packard Development Company, L.P. Method for compressing images and image sequences through adaptive partitioning
WO2003102868A2 (en) 2002-05-29 2003-12-11 Pixonics, Inc. Classifying image areas of a video signal
US7119837B2 (en) 2002-06-28 2006-10-10 Microsoft Corporation Video processing system and method for automatic enhancement of digital video
US7379496B2 (en) 2002-09-04 2008-05-27 Microsoft Corporation Multi-resolution video coding and decoding
JP4762486B2 (ja) 2002-09-04 2011-08-31 マイクロソフト コーポレーション マルチ・リゾルーション・ビデオ符号化および復号化
AU2002951574A0 (en) 2002-09-20 2002-10-03 Unisearch Limited Method of signalling motion information for efficient scalable video compression
JP3759932B2 (ja) 2003-01-15 2006-03-29 ティーオーエー株式会社 画像圧縮方法及び伸張方法
DE10310023A1 (de) 2003-02-28 2004-09-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Anordnung zur Videocodierung, wobei die Videocodierung Texturanalyse und Textursynthese umfasst, sowie ein entsprechendes Computerprogramm und ein entsprechendes computerlesbares Speichermedium
US7218796B2 (en) 2003-04-30 2007-05-15 Microsoft Corporation Patch-based video super-resolution
KR100504594B1 (ko) 2003-06-27 2005-08-30 주식회사 성진씨앤씨 데이터 압축 처리된 저해상도 영상으로부터 초해상도 영상복원 및 재구성 방법
US7383180B2 (en) 2003-07-18 2008-06-03 Microsoft Corporation Constant bitrate media encoding techniques
WO2005043882A2 (en) 2003-10-21 2005-05-12 Prismvideo, Inc Video source coding with side information
US7720148B2 (en) 2004-03-26 2010-05-18 The Hong Kong University Of Science And Technology Efficient multi-frame motion estimation for video compression
TWI246338B (en) 2004-04-09 2005-12-21 Asustek Comp Inc A hybrid model sprite generator and a method to form a sprite
EP1631089A1 (en) * 2004-08-30 2006-03-01 Matsushita Electric Industrial Co., Ltd. Video coding apparatus and decoding apparatus
US7447337B2 (en) 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
JP2006174415A (ja) 2004-11-19 2006-06-29 Ntt Docomo Inc 画像復号装置、画像復号プログラム、画像復号方法、画像符号化装置、画像符号化プログラム及び画像符号化方法
CN101437162A (zh) * 2004-11-19 2009-05-20 株式会社Ntt都科摩 图像解码装置及其方法、图像编码装置及其方法
US7327904B2 (en) 2004-12-15 2008-02-05 Arcsoft, Inc. Pattern classification and filter design for increasing image resolution
US7671894B2 (en) 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
JP2006203744A (ja) 2005-01-24 2006-08-03 Victor Co Of Japan Ltd 静止画生成装置及び静止画生成方法
US8391368B2 (en) 2005-04-08 2013-03-05 Sri International Macro-block based mixed resolution video compression system
KR100716998B1 (ko) 2005-05-24 2007-05-10 삼성전자주식회사 블록화 현상을 감소시키기 위한 부호화 및 복호화 장치 및그 방법과, 이를 구현하기 위한 프로그램이 기록된 기록매체
JP2007043651A (ja) 2005-07-05 2007-02-15 Ntt Docomo Inc 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム
US7715658B2 (en) 2005-08-03 2010-05-11 Samsung Electronics Co., Ltd. Apparatus and method for super-resolution enhancement processing
US20090274377A1 (en) 2005-11-11 2009-11-05 Japan Advanced Institute Of Science And Technology Clustering System and Image Processing System Having the Same
US8249871B2 (en) 2005-11-18 2012-08-21 Microsoft Corporation Word clustering for input data
CN100413316C (zh) 2006-02-14 2008-08-20 华为技术有限公司 一种视频图像超分辨率重构方法
AU2006201210A1 (en) 2006-03-23 2007-10-11 Canon Information Systems Research Australia Pty Ltd Motion characterisation
US7778472B2 (en) 2006-03-27 2010-08-17 Qualcomm Incorporated Methods and systems for significance coefficient coding in video compression
US8019171B2 (en) 2006-04-19 2011-09-13 Microsoft Corporation Vision-based compression
US7933464B2 (en) 2006-10-17 2011-04-26 Sri International Scene-based non-uniformity correction and enhancement method using super-resolution
EP1926321A1 (en) 2006-11-27 2008-05-28 Matsushita Electric Industrial Co., Ltd. Hybrid texture representation
TWI319547B (en) 2006-12-01 2010-01-11 Compal Electronics Inc Method for generating typographical line
JP4375390B2 (ja) 2006-12-12 2009-12-02 ソニー株式会社 携帯端末装置および表示方法、並びにプログラム
KR101381600B1 (ko) 2006-12-20 2014-04-04 삼성전자주식회사 텍스처 합성을 이용한 영상의 부호화, 복호화 방법 및 장치
KR101383540B1 (ko) 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
CN101222641B (zh) 2007-01-11 2011-08-24 华为技术有限公司 帧内预测编解码方法及其装置
JP4467583B2 (ja) 2007-01-17 2010-05-26 富士通株式会社 設計支援プログラム、設計支援方法および設計支援装置
US7792423B2 (en) * 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
JP5372341B2 (ja) 2007-05-18 2013-12-18 株式会社エヌ・ティ・ティ・ドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラム
BRPI0810924A2 (pt) 2007-04-09 2019-09-24 Ntt Docomo Inc predição de imagem/dispositivo de codificação, predição de imagem/ método de codificação, predição de imagem/programa de codificação, predição de imagem/dispositivo de codificação, predição de imagem/método de codificação e predição de imagem/programa de codificação
JP5572802B2 (ja) 2007-05-30 2014-08-20 国立大学法人 香川大学 接着方法並びにそれを用いて作製したバイオケミカルチップ及び光学部品
CN101681499B (zh) 2007-06-14 2013-04-24 汤姆逊许可证公司 修改经编码的比特流
US20090003443A1 (en) 2007-06-26 2009-01-01 Nokia Corporation Priority-based template matching intra prediction video and image coding
US9648325B2 (en) 2007-06-30 2017-05-09 Microsoft Technology Licensing, Llc Video decoding implementations for a graphics processing unit
US8358840B2 (en) 2007-07-16 2013-01-22 Alexander Bronstein Methods and systems for representation and matching of video content
US8417037B2 (en) 2007-07-16 2013-04-09 Alexander Bronstein Methods and systems for representation and matching of video content
US8582908B2 (en) 2007-08-07 2013-11-12 Texas Instruments Incorporated Quantization method and apparatus
US8081842B2 (en) 2007-09-07 2011-12-20 Microsoft Corporation Image resizing for web-based image search
CN101389021B (zh) 2007-09-14 2010-12-22 华为技术有限公司 视频编解码方法及装置
JP4876048B2 (ja) 2007-09-21 2012-02-15 株式会社日立製作所 映像送受信方法、受信装置、映像蓄積装置
US8422559B2 (en) 2007-10-10 2013-04-16 Mediatek Inc. Matching-pixel sub-sampling motion estimation method for video compression
JP5098559B2 (ja) 2007-10-11 2012-12-12 富士ゼロックス株式会社 類似画像検索装置、及び類似画像検索プログラム
CN101415122B (zh) 2007-10-15 2011-11-16 华为技术有限公司 一种帧间预测编解码方法及装置
CN101198064A (zh) * 2007-12-10 2008-06-11 武汉大学 一种分辨率分层技术中的运动矢量预测方法
WO2009087641A2 (en) 2008-01-10 2009-07-16 Ramot At Tel-Aviv University Ltd. System and method for real-time super-resolution
CN101911708B (zh) 2008-01-10 2016-03-09 汤姆森特许公司 帧内预测视频的照明补偿方法和装置
US8228990B2 (en) 2008-01-16 2012-07-24 Sony Corporation Template matching scheme using multiple predictors as candidates for intra-prediction
US8204325B2 (en) 2008-01-18 2012-06-19 Sharp Laboratories Of America, Inc. Systems and methods for texture synthesis for video coding with side information
US20100295922A1 (en) 2008-01-25 2010-11-25 Gene Cheung Coding Mode Selection For Block-Based Encoding
CN101965733B (zh) 2008-03-09 2013-08-07 Lg电子株式会社 用于编码或解码视频信号的方法和设备
JP2009239686A (ja) 2008-03-27 2009-10-15 Hitachi Ltd 放送受信システム、ホームゲートウェイ装置及び放送受信端末装置
US8189933B2 (en) 2008-03-31 2012-05-29 Microsoft Corporation Classifying and controlling encoding quality for textured, dark smooth and smooth video content
JP5406465B2 (ja) 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
BRPI0822815A2 (pt) 2008-06-27 2015-06-30 Thomson Licensing Método e aparelho para compressão de textura utilizando síntese de textura de amostragem baseada em patch
US8340463B1 (en) 2008-08-29 2012-12-25 Adobe Systems Incorporated Candidate pruning for patch transforms
KR20160114186A (ko) 2008-09-18 2016-10-04 톰슨 라이센싱 비디오 영상 프루닝 방법 및 장치
US8233734B2 (en) 2008-09-22 2012-07-31 Microsoft Corporation Image upsampling with training images
CN101459842B (zh) * 2008-12-17 2011-05-11 浙江大学 一种空间降采样解码方法和装置
FR2941581A1 (fr) 2009-01-28 2010-07-30 France Telecom Codage et decodage d'une sequence d'images video par zones d'images
CN101551903A (zh) 2009-05-11 2009-10-07 天津大学 步态识别中的超分辨率图像恢复方法
CN101556690B (zh) 2009-05-14 2015-01-07 复旦大学 基于词典学习和稀疏表示的超分辨率算法
JP2010268259A (ja) 2009-05-15 2010-11-25 Sony Corp 画像処理装置および方法、並びにプログラム
US20110047163A1 (en) 2009-08-24 2011-02-24 Google Inc. Relevance-Based Image Selection
EP2486727A4 (en) 2009-10-05 2014-03-12 Icvt Ltd METHOD AND SYSTEM FOR PROCESSING AN IMAGE
KR20110065997A (ko) 2009-12-10 2011-06-16 삼성전자주식회사 영상처리장치 및 영상처리방법
KR101782661B1 (ko) 2010-01-19 2017-10-23 톰슨 라이센싱 비디오 인코딩 및 디코딩을 위한 템플릿 매칭 예측의 복잡도를 감소시키는 방법 및 장치
CN102726044B (zh) 2010-01-22 2016-08-10 汤姆逊许可证公司 使用基于示例的超分辨率的用于视频压缩的数据剪切
US20110210960A1 (en) 2010-02-26 2011-09-01 Google Inc. Hierarchical blurring of texture maps
DE102010022987B4 (de) 2010-06-08 2012-12-20 Phoenix Contact Gmbh & Co. Kg Elektrisches Gerät mit einem Steckverbinder und elektrische Steckverbindung
CN103210648B (zh) 2010-09-10 2017-06-09 汤姆逊许可公司 使用基于块的混合分辨率数据修剪的视频解码
US9338477B2 (en) 2010-09-10 2016-05-10 Thomson Licensing Recovering a pruned version of a picture in a video sequence for example-based data pruning using intra-frame patch similarity
CN103202017B (zh) 2010-09-10 2017-02-22 汤姆逊许可公司 使用基于样本的数据修剪的视频解码的方法和装置
WO2012033962A2 (en) 2010-09-10 2012-03-15 Thomson Licensing Methods and apparatus for encoding video signals using motion compensated example-based super-resolution for video compression
US8503792B2 (en) 2010-12-17 2013-08-06 Sony Corporation Patch description and modeling for image subscene recognition
WO2013149038A1 (en) 2012-03-28 2013-10-03 University Of Houston System Methods and software for screening and diagnosing skin lesions and plant diseases
JP6192271B2 (ja) 2012-08-22 2017-09-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101420638B1 (ko) * 2012-12-14 2014-07-17 에스케이플래닛 주식회사 스트리밍 서비스에서 콘텐츠 제공을 위한 장치 및 이를 위한 방법
KR20230105150A (ko) * 2022-01-03 2023-07-11 네이버 주식회사 하드웨어 디코더 환경에서의 초해상도 이미지 생성 방법 및 시스템

Also Published As

Publication number Publication date
WO2011090790A1 (en) 2011-07-28
WO2011090790A8 (en) 2012-08-30
CN102823242A (zh) 2012-12-12
KR101789845B1 (ko) 2017-11-20
CN102823242B (zh) 2016-08-10
JP5911809B2 (ja) 2016-04-27
EP2526698A1 (en) 2012-11-28
US20120294369A1 (en) 2012-11-22
US9602814B2 (en) 2017-03-21
JP2013518463A (ja) 2013-05-20

Similar Documents

Publication Publication Date Title
KR101789845B1 (ko) 샘플링 기반 초 해상도 비디오 인코딩 및 디코딩을 위한 방법 및 장치
JP5535625B2 (ja) 適応的参照フィルタリングの方法及び装置
CN113612994B (zh) 具有仿射运动补偿的视频编解码的方法
KR101915425B1 (ko) 비디오 영상 프루닝 방법 및 장치
JP2019216466A (ja) 省略符号化を用いた映像符号化及び復号化装置及びその方法
KR101906614B1 (ko) 모션 보상 예제 기반 초해상도를 사용하는 비디오 디코딩
JP5628155B2 (ja) 動き補償の補間フィルタリング及び参照画像のフィルタリングのための局所的な適応フィルタリングの方法及び装置
JP2013537381A5 (ko)
JP6042899B2 (ja) 映像符号化方法および装置、映像復号方法および装置、それらのプログラム及び記録媒体
US8170110B2 (en) Method and apparatus for zoom motion estimation
CN115606179A (zh) 用于使用学习的下采样特征进行图像和视频编码的基于学习的下采样的cnn滤波器
CN115552905A (zh) 用于图像和视频编码的基于全局跳过连接的cnn滤波器
KR101543298B1 (ko) 동영상 부호화/복호화 장치 및 그를 위한 가변 단위의 적응적 중첩 블록 움직임 보상 장치 및 방법
CN116848843A (zh) 可切换的密集运动向量场插值
KR101543301B1 (ko) 동영상 부호화/복호화 장치 및 그를 위한 하이브리드 블록 움직임 보상/중첩 블록 움직임 보상 방법 및 장치
WO2023274406A1 (en) Super resolution upsampling and downsampling
US20240137577A1 (en) Super Resolution Upsampling and Downsampling
WO2023274404A1 (en) Application of super resolution
WO2024078635A1 (en) Down-sampling methods and ratios for super-resolution based video coding
US20240137513A1 (en) Application of Super Resolution
WO2023001042A1 (en) Signaling of down-sampling information for video bitstreams
WO2023274405A1 (en) Super resolution position and network structure
US20240137517A1 (en) Super Resolution Position and Network Structure
WO2024006167A1 (en) Inter coding using deep learning in video compression

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant