KR20080066784A - 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리 - Google Patents

규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리 Download PDF

Info

Publication number
KR20080066784A
KR20080066784A KR1020087011093A KR20087011093A KR20080066784A KR 20080066784 A KR20080066784 A KR 20080066784A KR 1020087011093 A KR1020087011093 A KR 1020087011093A KR 20087011093 A KR20087011093 A KR 20087011093A KR 20080066784 A KR20080066784 A KR 20080066784A
Authority
KR
South Korea
Prior art keywords
layer
inter
decoded picture
picture
marked
Prior art date
Application number
KR1020087011093A
Other languages
English (en)
Inventor
예-쿠에이 왕
미스카 한누크셀라
슈테판 벵어
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20080066784A publication Critical patent/KR20080066784A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/34Scalability techniques involving progressive bit-plane based encoding of the enhancement layer, e.g. fine granular scalability [FGS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23406Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving management of server-side video buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

디코딩 화상들이 예측 참조 및 추후 출력에 더 이상 필요로 되지 않는 순간 디코딩 화상 버퍼로부터 디코딩 화상들을 제거하게 하는 시스템 및 방법. 한 화상이 계층간 예측 참조에 사용될지 여부에 대한 표시뿐 아니라, 그 표시를 사용하는 디코딩 화상 버퍼 관리 방법이 비트 스트림 안에 도입된다. 본 발명은 화상을 게층간 참조에 사용된다거나 계층간 참조에 사용되지 않는다고 마크하는 프로세스, 디코딩 화상들을 디코딩 화상 버퍼에 저장하는 프로세스, 참조 화상들의 마킹 프로세스, 및 디코딩 화상 버퍼로부터 디코딩 화상들을 출력 및 제거하는 프로세스를 포함한다.

Description

규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼 관리{Efficient decoded picture buffer management for scalable video coding}
본 발명은 비디오 코딩 분야에 관한 것이다. 더 구체적으로 말해, 본 발명은 규모가변적 비디오 코딩에 관한 것이다.
비디오 코딩 규격들에는 ITU-T H.261, ISO/IEC MPEG-1 비주얼, ITU-T H.262 또는 ISO/IEC MPEG-2 비주얼, ITU-T H.263, ISO/IEC MPEG-4 비주얼 및 ITU-T H.264 (ISO/IEC MPEG-4 AVC로도 알려짐)가 포함된다. 그 외에도, 현재 새로운 비디오 코딩 규격 개발과 관련한 노력들이 진행중에 있다. 그러한 개발 중인 하나의 규격이 규모가변적 비디오 코딩 (SVC, scalable video coding) 규격으로서, 이것은 H.264/AVC에 대한 규모가변적 확장 버전이 될 것이다. 또 다른 그러한 노력에 차이나 (China) 비디오 코딩 규격들이 포함된다.
규모가변적 비디오 코딩은 규모가변적 비디오 비트 스트림들을 제공할 수 있다. 규모가변적 비디오 비트스트림의 일부는 저하된 비주얼 재생 품질을 가진 채 추출 및 디코딩될 수 있다. 오늘날의 개념 안에서, 규모가변적 비디오 비트스트림은 비규모가변적 (non-scalable) 기저 계층 (base layer) 및 하나 이상의 인핸스먼트 계층 (enhancement layer)들을 포함한다. 인핸스먼트 계층은 시간적 해상도 (즉, 프레임 레이트), 공간적 해상도, 또는 단순히 그것의 하위 계층이나 그 일부에 의해 표현되는 비디오 콘텐츠의 품질을 개선시킬 수 있다. 몇몇 경우들에서, 인핸스먼트 계층의 데이터는 일정 위치 뒤에, 심지어 임의의 위치들에서 잘라질 수 있고, 각각의 자른 위치는 크게 개선된 비주얼 품질을 나타내는 어떤 부가 데이터를 포함할 수 있다. 그러한 규모가변성 (scalability)을 미소 단위 (granularity) 규모가변성 (FGS, fine-grained scalability)이라고 한다. FGS와는 반대로, 미소 단위 규모가변성을 제공하지 않는 품질 인핸스먼트 계층에 의해 제공되는 규모가변성을 조악한 단위의 규모가변성 (CGS, coarse-grained scalabilty)이라 부른다. 기저 계층들도 FGS 규모가변성을 가지도록 디자인 될 수 있으나; 현재의 어떤 비디오 압축 표준이나 표준안 초안도 그러한 개념을 구현하고 있지 못하다.
현재 계획단계인 SVC 표준에서의 규모가변적 계층 구조는 비트 스트림을 통해 시그날링 되거나 그 사양에 따라 도출될 수 있는 시간_레벨 (temporal_level), 종속성_아이디 (dependency_id) 및 품질_레벨 (quality_level)이라 불리는 세 가지 변수들을 특징으로 한다. temporal_level은 시간적 규모가변성이나 프레임 레이트를 가리키는데 사용된다. 보다 작은 temporal_level의 화상들을 포함하는 계층은 보다 큰 temporal_level의 화상들을 포함하는 계층보다 작은 프레임 레이트를 갖는다. dependency_id는 계층 간 (inter-layer) 코딩 종속성 위계 (hierarchy)를 가리키는 데 사용된다. 어떤 시간적 위치에서, 보다 작은 dependency_id 값의 화상은 보다 큰 dependency_id 값의 화상 코딩을 위한 계층간 예측에 사용될 수 있다. quality_level은 FGS 계층 위계를 가리키는데 사용된다. 어떤 시간 위치상에서 동 일한 dependency_id 값을 가진, QL과 동일한 quality_level을 갖는 FGS 화상은, 계층간 예측을 위해 QL-1과 동일한 quality_level 값을 갖는 FGS 화상 또는 기저 품질 화상 (즉, QL-1=0일 때 비 FGS 화상)를 이용한다.
도 1은 상술한 세 변수들의 표시 값들과 함께 예로 든 규모가변적 비디오 스트림의 시간적 세그먼트를 도시한 것이다. 시간 값들은 상대적인 것임을 인지해야 한다, 즉, time=0이라는 것이 반드시, 그 비트 스트림 상에서의 디스플레이 순서상 최초 화상의 시간임을 의미하는 것은 아니라는 것을 알아야 한다. 이 예의, 통상적 예측 참조 관계가 도 2에 도시되는데, 도 2에서 실선 화살표는 수평 방향의 상호 예측 참조 관계 (interprediction reference relationship)를 가리키고, 점선 블록 화살표는 계층간 예측 참조 관계를 가리킨다. 지시되는 쪽 인스턴스 (instance)는 예측 참조를 위해 반대 방향의 인스턴스를 이용한다.
여기 논의되는 바와 같이, 한 계층은 각각 동일한 temporal_level, dependency_id 및 quality_level 값들을 가진 화상들의 집합으로 정의된다. 인핸스먼트 계층을 디코딩 및 재생하기 위해, 통상적으로 기저 계층을 포함하는 그 하위 계층들 역시 사용가능해야 하는데, 이는 그 하위 계층들이 인핸스먼트 계층의 디코딩시 계층간 예측을 위해 직간접적으로 사용될 것이기 때문이다. 예를 들어, 도 1 및 2에서, (0,0,0,0) 및 (8,0,0,0)과 동일한 (t, T, D, Q)를 갖는 화상들이 기저 계층에 속하고, 이것은 어떤 인핸스먼트 계층들과도 무관하게 디코딩될 수 있다. (4,1,0,0)과 같은 (t, T, D, Q)를 갖는 화상은 기저 계층의 프레임 레이트의 두 배가 되는 인핸스먼트 계층에 속한다; 이 계층의 디코딩은 기저 계층 화상들의 존재를 필요로 한다. (0,0,0,1) 및 (8,0,0,1)과 같은 (t, T, D, Q)를 갖는 화상들은 FGS 방식으로 기저 계층의 품질 및 비트 레이트를 향상시키는 인핸스먼트 계층에 속한다; 이 계층의 디코딩 역시 기저 계층 화상들의 존재를 필요로 한다.
현재의 SVC 표준 초안에서, 공간적 혹은 CGS의 인핸스먼트 계층 내 한 코딩(된) 화상은 계층간 예측 참조 표시 (즉, 슬라이스 헤더 안에 base_id_plus1 신택스 엘리먼트)를 포함한다. 계층간 예측은 코딩 모드, 모션 정보 및 샘플 잔여정보 (residual) 예측을 포함한다. 계층간 예측의 사용은 인핸스먼트 계층들의 코딩 효율을 크게 향상시킬 수 있다. 계층간 예측은 예측을 위한 참조로서 하위 계층들을 항상 이용한다. 달리 말해, 상위 계층은 하위 계층의 디코딩에 절대 필요로 되지 않는다는 것이다.
규모가변적 비디오 비트스트림에서, 인핸스먼트 계층 화상은 계층간 예측에 어떤 하위 계층을 사용할지를 자유로이 선택할 수 있다. 예를 들어, 세 계층들인 base_layer_0, CGS_layer_1 및 spatiallayer_2가 있고, 이들이 동일한 프레임 레이트를 가질 때, 상기 인핸스먼트 계층 화상은 계층간 예측을 위해 이들 계층들 중 어느 하나를 선택할 수 있다.
일반적인 계층간 예측 종속성 위계가 도 3에 도시된다. 도 3을 참조하면, 계층간 예측은 종속성 방향으로 가리키는 화살표들로 표시된다. 가리켜진 (pointed-to) 오브젝트는 계층간 예측을 위해 가리키는 (pointed-from) 오브젝트를 필요로 한다. 계속 도 3을 참조하면, 각 계층의 오른쪽에 있는 한 쌍의 값들이 현재의 SVC 표준 초안에서 특정된 것과 같은 dependency_id 및 quality_level 값들을 나타낸다. 그러나, spatial_layer_2 안의 한 화상 역시 도 4에 도시된 것과 같이 계층간 예측을 위해 base_layer_0를 사용하도록 선택할 수 있다. 또한, spatiallayer_2 안의 한 화상은 계층간 예측을 위해 base_layer_2를 선택하지만, 같은 시간적 위치에 있는 CGS_layer_1 안의 한 화상은 도 5에 도시된 것과 같이 어떤 계층간 예측도 전혀 하지 않기로 결정하는 것이 가능하다.
FGS 계층들이 관여될 때, 코딩 모드 및 모션 정보에 대한 계층간 예측은 샘플 잔여정보를 위한 계층간 예측이 아닌 기저 계층으로부터 얻어질 수 있다. 예를 들어 도 6에 도시된 바와 같이, spatial_layer_2 화상에 있어서, 코딩 모드 및 모션 정보를 위한 계층간 예측은 CGS_layer_1 화상으로부터 일어나는 반면, 샘플 잔여정보에 대한 계층간 예측은 FGS_layer_1_1 화상으로부터 얻어진다. 다른 예로서 도 7에 도시된 것과 같이 spatial_layer_2 화상에 있어서, 코딩 모드 및 모션을 위한 계층간 예측은 계속해서 CGS_layer_1 화상으로부터 얻어지는 반면, 샘플 잔여정보의 계층간 예측은 FGS_layer_1_0 화상으로부터 시작된다. 상기 관계는, 보다 개념적으로 말해, 코딩 모드, 모션 정보 및 샘플 잔여정보 모두에 대한 계층간 예측이 각각 도 8 및 9에 도시된 바와 같이 동일한 FGS 계층으로부터 얻어지도록 표현될 수 있다.
비디오 코딩 표준들에서, 한 비트 스트림은 그것이 개념적으로 인코더의 출력과 연결되는 가정하의 참조 디코더에 의해 디코딩될 때 부합되는 것으로서 정의되며, 상기 참조 디코더는 사전 디코더 (pre-decoder) 버퍼, 디코더, 및 출력/디스플레이 유닛을 포함한다. 이러한 가상의 디코더는 H.263, H.264의 가정적 참조 디 코더 (HRD, hypothetical reference decoder) 및 MPEG 하의 비디오 버퍼링 검증기 (VBV, video buffering verifier)라고 알려진다. 3GPP 패킷 교환형 스트리밍 서비스 표준 (3GPP TS 26.234)의 부록 G에서는, 개념적으로 스트리밍 서버의 출력에 연결된다는 차이점을 가진, HRD로서 간주될 수도 있는 서버 버퍼링 검증기를 특정한다. 가상의 디코더 및 버퍼링 검증기 같은 기술들은 이 명세서 전반에 걸쳐 가정적 참조 디코더 (HRD)라고 집합적으로 불릴 것이다. 스트림은 버퍼 오버플로 (overflow)나 언더플로 (underflow) 없이 HRD에 의해 디코딩될 경우 순응적인 것이 된다. 버퍼 오버플로는 버퍼가 이미 가득 차 있을 때 더 많은 비트들이 버퍼 안에 놓여져야 할 경우에 발생한다. 버퍼 언더플로는 디코딩/재생을 위해 비트들이 버퍼로부터 불려져야 할 시점에서 버퍼가 비어 있는 경우에 일어난다.
HRD 파라미터들이 화상들의 인코딩(된) 사이즈들에 대한 제약사항을 부과하고 필요한 버퍼 사이즈 및 시동 지연 결정을 돕는데 사용될 수 있다.
PSS 부록 G 및 H.264 이전의 앞선 HRD 사양에서는, 사전 디코딩된 버퍼의 동작만이 특정되어 있다. 이 버퍼는 보통 H.264의 코딩 화상 버퍼, CPB로 불린다. PSS 부록 G 및 H.264 HRD 안의 HRD는 포스트 디코더 (post-decoder) 버퍼 (H.264에서 디코딩 화상 버퍼 (DBP, decoded picture buffer)라고도 불림)의 동작을 역시 특정한다. 또, 일찍이 HRD 사양들은 오직 한 HRD 동작 포인트만을 사용하지만, PSS 부록 G 및 H.264 HRD의 HRD는 여러 개의 HRD 동작 포인트들을 가능하게 한다. 각각의 HRD 동작 포인트는 HRD 파라미터 값들의 집합에 대응한다.
SVC 표준 초안에 따르면, 다음 코딩 화상들에 대한 예측 및 추후 출력에 사 용되는 디코딩 화상들은 디코딩 화상 버퍼 (DPB)에서 버퍼링된다. 버퍼 메모리를 효율적으로 이용하기 위해, 디코딩 화상들을 DPB 안에 저장하는 프로세스, 참조 화상들의 마킹 (marking) 프로세스, 디코딩 화상들을 DPB로부터 출력 및 제거하는 프로세스를 포함하는 DPB 관리 프로세스들이 특정된다.
현재의 SVC 표준 초안에 특정된 DPB 관리 프로세스들은, 계층간 예측을 위해 버퍼링될 필요가 있는 디코딩 화상들의 관리를, 그 화상들이 비참조 화상들일 때 특히, 효율적으로 처리할 수 없다. 이것은 DPB 관리 프로세스들이, 기껏해야 시간적 규모가변성을 지원하는 전통적인 단일 계층 코딩에 대해 의도되고 있다는 사실에서 비롯된다.
H.264/AVC 같은 전통적 단일 계층 코딩 시, 상호 예측 참조나 추후 출력을 위해 버퍼링 되어야 하는 디코딩 화상들은 이들이 상호 예측 참조 및 추후 출력을 위해 더 이상 필요로 되지 않을 때 버퍼에서 제거될 수 있다. 참조 화상이 상호 예측 참조 및 추후 출력에 더 이상 필요로 되지 않게 되자마자 그 참조 화상을 제거할 수 있도록, 참조 화상이 상호 예측 기준에 더 이상 필요하지 않게 되자마자 그것이 알려질 수 있도록, 참조 화상 마킹 프로세스가 특정된다. 그러나, 계층간 예측 참조를 위한 화상들에 대해, 현재로서는, 계층간 예측 참조에 더 이상 필요로 되지 않게 된 한 화상에 대한 정보를 가능한 한 빠르게 얻을 수 있도록 디코더를 돕는 어떠한 이용가능한 메커니즘도 존재하지 않는다. 그러한 방법 하나는, 원하는 규모가변적 계층의 각 화상을 디코딩한 후에, 이하의 조건들이 모두 참 (true)인 DPB 내 모든 화상들을 DPB로부터 제거하는 동작을 수반할 수 있다; 조건들 1) 화상이 비참조 화상임; 2) 화상이 방금 디코딩된 화상과 같은 액세스 유닛 안에 있음; 3) 화상이 상기 원하는 규모가변적 계층보다 하위에 있는 계층 안에 있음. 결국, 계층간 예측 참조를 위한 화상들은 DPB에서 불필요하게 버퍼링되게 될 것이고, 이것이 버퍼 메모리 이용도의 효율성을 떨어뜨리게 된다. 예를 들어, 필요로 되는 DPB는 기술적으로 필요한 것 이상으로 커질 것이다.
그 외에, 규모가변적 비디오 코딩에 있어서, 재생에 요망되는 규모가변적 게층보다 하위에 있는 어떤 규모가변적 계층의 디코딩(된) 화상들은 절대 출력되지 않는다. 그러한 화상들이 상호 예측 또는 계층간 예측에 필요로 될 때 이들을 DPB에 저장하는 것은 간단히 말해 버퍼 메모리의 낭비가 된다.
따라서, 디코딩 화상들이 예측 참조 (상호 예측 또는 계층간 예측) 및 추후 출력에 더 이상 필요로 되지 않게 되자마자, DPB로부터 그 화상들을 제거하는 시스템 및 방법을 제공하는 것이 요망될 것이다.
본 발명은 디코딩 화상들이 상호 예측 참조, 계층간 예측 참조 및 추후 출력에 더 이상 필요로 되지 않게 되자마자 DPB로부터 그 디코딩 화상들의 제거를 가능하게 하는 시스템 및 방법을 제안한다. 본 발명의 시스템 및 방법은 비트스트림 안에, 한 화상이 계층간 예측 참조에 사용될 수 있는지 여부에 대한 표시 및, 그 표시를 이용하는 DPB 관리 방법에 대한 도입부를 포함한다. DPB 관리 방법은 계층간 참조에 사용되거나, 계층간 참조에 사용되지 않는 한 화상을 마킹하는 프로세스, DPB 안으로의 디코딩(된) 화상들의 저장 프로세스, 참조 화상들의 마킹 프로세스, 및 DPB로부터 디코딩 화상들의 출력 및 제거 프로세스들을 포함한다. 한 화상이 계층간 예측 참조에 더 이상 필요로 되자마자 디코더가 알 수 있도록, 그 화상을 계층간 참조에 미사용한다는 마킹을 수행하기 위해, 새로운 메모리 관리 제어 동작 (MMCO, memory management control operation)이 정의되고, 비트 스트림 안에 해당 시그날링이 특정된다.
본 발명은 규모가변적 비디오 비트 스트림들의 디코딩을 위해 필요한 메모리를 절감할 수 있는 디코딩 화상 버퍼 관리 프로세스 제공을 가능하게 한다. 본 발명은 H.264/AVC 비디오 코딩 표준의 규모가변적 확장의 맥락 및 기타의 규모가변적 비디오 코딩 방식들 안에서 이용될 수 있다.
본 발명의 이러한, 그리고 기타의 이점들과 특징들과, 그 동작 체계 및 방식 모두, 첨부된 도면과 연계하여 취해진 이하의 상세한 설명으로부터 명확히 파악될 것이고, 이하에서 논의될 여러 도면들 전체에서 동일한 참조부호는 동일한 구성요소를 가리킨다.
도 1은 세 변수들인 temporal_level, dependency_id 및 quality_level의 값들이 표시되는, 예로 든 규모가변적 비디오 스트림의 시간상의 세그먼트를 보인다.
도 2는 도 1에 도시된 시간상의 세그먼트에 있어서의 통상의 예측 참조 관계이다.
도 3은 통상적 계층간 예측 종속성 위계 표현으로서, 여기서 화살표는 가리켜진 오브젝트가 계층간 예측 참조를 위해 가리킨 오브젝트를 이용한다는 것을 가 리킨다.
도 4는 어떻게 spatial_layer_2 안의 한 화상이 계층간 예측에 base_layer_0를 또한 이용하도록 선택할 수 있는지를 보인 흐름도이다.
도 5는 spatial_layer_2 안의 한 화상이 계층간 예측을 위해 base_layer_0를 선택하는 한편, 같은 시간적 위치상에 있는 CGS_layer_1 안의 화상은 어떠한 계층간 예측치도 갖지 않도록 결정하고 있는 예를 나타낸다.
도 6은 코딩 모드 및 모션 정보를 위한 계층간 예측이 샘플 잔여정보에 대한 계층간 예측과는 다른 기저 계층으로 나오는 방법을 보인 예를 나타낸 것이다.
도 7은 spatial_layer_2 화상에 있어서, 샘플 잔여 정보를 위한 계층간 예측이 FGS_layer_1_0 화상으로부터 나오는 한편, 코딩 모드 및 모션을 위한 계층간 예측이 CGS_layer_1 화상으로부터 어떻게 나올 수 있는가를 보인 예이다.
도 8은 코딩 모드와 모션 정보가 기저 품질 계층으로부터 이어받은 것인 경우, 그 코딩 모드, 모션 정보 및 샘플 잔여 정보 모두에 대한 계층간 예측이 FGS_layer_1_1 화상으로부터 나오는 예를 나타낸 것이다.
도 9는 코딩 모드와 모션 정보가 기저 품질 계층으로부터 이어받은 것인 경우, 그 코딩 모드, 모션 정보 및 샘플 잔여 정보 모두에 대한 계층간 예측이 FGS_layer_1_0 화상으로부터 나오는 예를 나타낸 것이다.
도 10은 종래에 알려진 시스템들에 따라, 액세스 유닛에 있는 다수의 코딩 화상들에 대한 상태 진화 프로세스의 예를 도시한 것이다.
도 11은 본 발명의 시스템 및 방법에 따라, 액세스 유닛 안의 여러 코딩 화 상들의 상태 진화 프로세스의 예를 보인 것이다.
도 12는 본 발명이 구현될 수 있는 시스템의 개략도이다.
도 13은 본 발명의 원리들을 포함할 수 있는 전자 기기의 정면도이다.
도 14는 도 13의 전자 기기의 개략적 회로도 표현이다.
도 15는 본 발명의 규모가변적 코딩 위계가 적용될 수 있는 일반 멀티미디어 데이터 스트리밍 시스템을 예시한 것이다.
도 6을 참조하여, 본 발명의 처리절차를 적용하기 위한 한 시스템인, 통상의 멀티미디어 스트리밍 시스템이 논의될 것이다.
멀티미디어 데이터 스트리밍 시스템은 보통, 비디오 카메라 및 마이크, 또는 메모리 캐리어에 저장되는 비디오 이미지나 컴퓨터 그래픽 파일들 같은 하나 이상의 멀티미디어 소스들(100)을 포함한다. 서로 다른 멀티미디어 소스들(100)로부터 얻은 미가공 데이터는 편집기라고도 불릴 수 있는 인코더(102) 안의 멀티미디어 파일 속에 결합될 것이다. 하나 이상의 멀티미디어 소스들(100)로부터 나온 미가공 데이터는 우선 인코더(102)에 포함된 캡처 수단(104)을 이용해 캡처되는데, 그 캡처 수단은 통상적으로 서로 다른 인터페이스 카드들, 드라이버 소프트웨어, 또는 카드 기능을 제어하는 어플리케이션 소프트웨어로서 구현될 수 있다. 예를 들어, 비디오 데이터가 비디오 캡처 카드 및 관련 소프트웨어를 이용해 캡처될 수 있다. 캡처 수단(104)의 출력은 보통 압축되지 않았거나 약간 압축된 데이터 플로 (flow)가 되는데, 이를테면, 비디오 캡처 카드가 관여될 때 YUV 4:2:0 포맷이나 모션 JPEG 이미지 포맷의 미압축 비디오 프레임들이 된다.
편집기(106)는 비디오 및 오디오 플로들이 원하는 바와 같이 동시에 재생될 수 있게 이들을 동기시키도록 서로 다른 미디어 플로우들을 서로 링크시킨다. 편집기(106)는 또한 프레임 레이트를 절반으로 내리거나, 공간적 해상도 등을 감축함으로써 비디오 플로 같은 각각의 미디어 플로를 편집할 수도 있을 것이다. 동기되어 있더라도, 압축기(108)에서는 개별 미디오 플로들이 압축되며, 이때 각 미디어 플로는 그 미디어 플로에 적합한 압축기를 써서 개별적으로 압축된다. 예를 들어, YUV 4:2:0 포맷의 비디오 프레임들은 ITU-T 권고안 H.263이나 H.264를 이용해 압축될 수 있다. 따로 따로인, 동기 및 압축된 미디어 플로들은 통상적으로 멀티플렉서(110) 안에서 인터리빙되며, 인코더(102)로부터 얻어진 출력은 복수의 미디어 플로들의 데이터를 포함하는 하나의 단일한 비트 플로로서 멀티미디어 파일이라고 부를 수 있다. 멀티미디어 파일을 생성하는 것이 반드시 복수의 미디어 플로들을 하나의 파일로 다중화하는 것을 필요로 하는 것은 아니며, 스트리밍 서버가 미디어 플로들을 전송하기 바로 전에 그들을 인터리빙할 수 있다는 것을 알아야 할 것이다.
멀티미디어 파일들은 스트리밍 서버(112)로 전송되고, 그러면 스트리밍 서버는 실시간 스트리밍이나 점진적 (progressive) 다운로딩의 형태로 스트리밍을 실행할 수 있다. 점진적 다운로딩시, 멀티미디어 파일들은, 수요가 일어날 때 이들이 전송을 위해 검색될 수 있는 서버(112)의 메모리 안에 먼저 저장된다. 실시간 스트리밍 시, 편집기(102)는 멀티미디어 파일들의 연속적 미디어 플로를 스트리밍 서 버(112)로 전송하며, 서버(112)는 그 플로를 바로 클라이언트(114)로 전달한다. 추가 옵션으로서, 멀티미디어 파일들이, 서버(112)로부터 액세스 가능하고 그로부터 실시간 스트리밍이 도출될 수 있고 수요가 있을 때 멀티미디어 파일들의 연속적 미디어 플로가 시작되는 스토리지 안에 저장되도록, 실시간 스트리밍이 또한 수행될 수 있다. 그 경우, 편집기(102)는 어떤 수단에 의해서든 스트리밍을 반드시 통제하지는 못한다. 스트리밍 서버(112)는 클라이언트(114)의 사용 가능 대역폭 또는 최대 디코딩 및 재생 레이트에 관해서, 멀티미디어 데이터의 트래픽 정형화 (traffic shaping)을 수행하며, 스트리밍 서버는 전송정보로부터 B-프레임들을 제거하거나 규모가변성 계층들의 개수를 최적화하는 등에 의해 미디어 플로의 비트 레이트를 조정할 수가 있다. 더 나아가, 스트리밍 서버(112)는 다중화된 미디어 플로의 헤더 필드들을 변경하여 그들의 사이즈를 줄이고 사용하는 통신 네트워크 상에서의 전송에 적합한 데이터 패킷들 안에 그 멀티미디어 데이터를 캡슐화할 수 있다. 클라이언트(114)는 보통 적절한 제어 프로토콜을 사용해 서버(112)의 동작을 적어도 어느 정도까지는 조정할 수 있다. 클라이언트(114)는 적어도 원하는 멀티미디어 파일이 클라이언트에게 전송되도록 선택될 수 있게 서버(112)를 통제할 수 있고, 여기에 더해, 클라이언트는 보통 멀티미디어 파일 전송을 정지 및 중단시킬 수 있다.
이하의 텍스트는 본 발명의 한 특정 실시예를 SVC 표준을 위한 특정 텍스트 형식으로 기술한 것이다. 이 실시예에서, 디코딩 참조 화상 마킹 신택스 (marking syntax)는 다음과 같다.
디코딩 참조 화상 마킹 신택스
Figure 112008032927825-PCT00001
규모가변적 확장 신택스 안에서의 슬라이스 헤더는 다음과 같다.
규모가변적 확장 신택스 내 슬라이스 헤더
Figure 112008032927825-PCT00002
Figure 112008032927825-PCT00003
Figure 112008032927825-PCT00004
디코딩 참조 화상 마킹 어문 (semantics)에 있어서, "num_inter_layer_mmco"는 DPB 안의 디코딩 화상들을 "계층간 예측에 미사용"이라고 마킹하기 위한 memory_management_control 동작 횟수를 가리킨다. "dependency_id[i]"는 "계층간 예측 미사용"이라고 마킹될 화상의 dependency_id를 나타낸다. dependency_id[i]는 현 화상의 dependency_id보다 작거나 같다. "quality_level[i]은 "계층간 예측 미사용"이라고 마킹될 화상의 quality_level을 나타낸다. dependency_id[i]가 dependency_id와 같을 때, quality_level[i]는 quality_level보다 작다. 현 화상과 같은 액세스 유닛에 있고 dependency_id[i]와 같은 dependency_id 및quality_level[i]와 같은 quality_level을 가진 디코딩 화상은 1인 inter_layer_ref_flag를 가질 것이다.
존재할 경우, 규모가변적 확장 신택스 엘리먼트들인 pic_parametr_set_id, frame_num, inter_layer_ref_flag, field_pic_flag, bottom_field_flag, idr_pic_id, pic_order_cnt_1sb, delta_pic_order_cnt_bottom, delta_pic_order_cnt[0], delta_pic_order_cnt[1], 및 slice_group_change_cycle 내 슬라이스 헤더의 값은 코딩 화상의 모든 슬라이스 헤더들 안에서와 동일하다. "frame_num"은 현재의 SVC 표준 초안의 하위 절 S.7.4.3의 fram_num과 같은 어문구조를 가진다. 0에 해당하는 "inter_layer_ref_flag" 값은, 현재의 화상이, 현재의 화상에 대한 dependency_id 값보다 큰 값의 dependency_id를 가진 어떤 화상의 디코딩을 위한 계층간 예측 참조에 사용되지 않는다는 것을 의미한다. 1에 해당하는 "inter_layer_ref_flag" 값은 현재의 화상보다 큰 값의 dependency_id를 가진 화상 디코딩을 위해 현재의 화상이 계층간 예측 참조로서 사용될 수 있다는 것을 가리킨다. "filed_pic_flag"는 현재의 SVC 표준 초안 하위 절 S.7.4.3의 filed_pic_flag와 동일한 어의구조를 가진다.
디코딩 화상 마킹 프로세스의 일련의 동작들에 있어서, "inter_layer_ref_flag" 값이 1과 같으면, 현재의 화상은 "계층간 참조에 사용됨"으로 마킹된다.
한 화상을 "계층간 참조에 미사용"으로 마킹하는 프로세스에 있어서, 이 프로세스는 "num_inter_layer_mmco"의 값이 0이 아닐 때 유발된다. 이하의 모든 조건들이 참이 되는 DPB 내 모든 화상들은 "계층간 참조에 미사용"으로 마킹된다: 조건 (1) 화상이 현재의 화상과 같은 액세스 유닛에 속함; (2) 화상이 1에 해당하는 "inter_layer_ref_flag" 값을 가지고 "계층간 참조에 사용됨"으로 마킹됨; (3) 화상이 현재의 화상에 대한 dec_ref_pic_marking()을 통해 시그날링 된 한 쌍의 dependency_id[i] 및 quality_level[i]와 같은 dependency_id 및 quality_level 값 들을 가짐; (4) 화상이 비참조 화상임.
디코딩 화상 버퍼 (decoded picture buffer)의 동작에 있어서, 디코딩 화상 버퍼는 프레임 버퍼들을 포함한다. 프레임 버퍼들 각각은 디코딩 프레임, "참조에 사용됨" (참조 화상들)으로 마킹되거나 "계층간 참조에 사용됨"으로 마킹되거나 추후 출력 (기록 또는 지연 화상들)을 위해 보유되는 디코딩 보충 필드 쌍 (decoded complementary filed pair) 또는 (쌍이 아닌) 단일 디코딩 필드를 포함할 수 있다. 초기화 전에, DPB는 비어 있게 된다 (DPB 충만도가 0으로 세팅됨). 이 하부절의 다음 하부절들의 단계들은 모두 tr(n)에서 순간적으로, 나열된 시퀀스에 따라 일어난다.
frame_num의 디코딩 및 "존재하지 않는" 프레임들의 저장에 있어서, 적용 가능한 경우, 디코딩 프로세스를 통해 frame_num의 갭 (gap)들이 검출되고, 생성된 프레임들은 마킹되어 이하와 같이 특정된 대로 DPB에 삽입된다. frame_num의 갭들이 디코딩 프로세스에 의해 검출되고 생성 프레임들은 현 SVC 표준 초안의 하부절 8.2.5.2에 특정된 바와 같이 마킹된다. 생성된 각각의 프레임 마킹 후, "참조에 미사용"이라고 "슬라이딩 윈도 (sliding window)" 프로세스를 통해 마킹된 각 화상 m은, 그것이 "존재하지 않음"으로 역시 마킹되어 있거나, 그것의 DPB 출력 시간이 현재의 화상 n의 코딩 화상 버퍼 (CPB, coded picture buffer) 제거 시간보다 작거나 같을 때, 즉, to, dpb(m)<=tr(n)일 때, DPB에서 제거된다. 한 프레임이나 한 프레임 버퍼 내 마지막 필드가 DPB에서 제거될 때, DPB 충만도는 1 만큼 감소된다. " 존재하지 않는" 생성 프레임이 DPB로 삽입되면, DPB 충만도는 1 만큼 증가된다.
화상 디코딩 및 출력에 있어서, 화상 n이 디코딩되고 (DPB 아닌 곳에) 일시적으로 저장된다. 화상 n이 요망되는 규모가변적 계층 내에 있으면, 아래의 텍스트가 적용된다. 화상 n의 DPB 출력 시간 to, dpb(n)은 to,dpu(n)=tr(n)+tc*dpb_output_delay(n)에 의해 도출된다. 현재의 화상 출력은 다음과 같이 특정된다. to, dpb(n)=tr(n)일 때, 현재의 화상이 출력된다. 현재의 화상이 참조 화상일 때 그것은 DPB에 저장될 것이라는 것을 주지해야 한다. to, dpb(n)≠tr(n)이면, to,dpb(n)>tr(n)이고, 현재의 화상은 나중에 출력되고 DPB에 저장될 것이며 (현 SVC 표준 초안의 하부절 C.2.4에 명시된 바와 같음), to, dpb(n)에 앞선 시간에 1에 해당하는 no_output_of_prior_pics_flag의 디코딩 또는 추정에 의해 출력되지 않는 것으로 지시된 것이 아니라면, to, dpb(n) 시점에 출력된다. 출력 화상은 그 시퀀스에 대해 정해진 시퀀스 파라미터에 특정된 크로핑 (cropping) 사각형을 이용해 크롭 (crop)된다.
화상 n이 출력되는 화상이고 출력되는 비트 스트림의 마지막 화상은 아닐 때,
Figure 112008032927825-PCT00005
의 값은
Figure 112008032927825-PCT00006
으로 정의되고, 이때 nn은 출력 순서상 화상 n 뒤에 이어지는 화상을 가리킨다.
현재의 화상 삽입 전에 DPB로부터 화상들을 제거하는 것은 다음과 같이 나열 된 시퀀스에 따라 진행된다. 디코딩 화상이 IDR 화상이면, 다음과 같은 사항이 적용된다. DPB 안에 있고 현 SVC 표준 초안의 하부절 8.2.5.1에 명시된 바와 같이 각각 현재의 화상과 동일한 dependency_id 및 quality_level 값들을 가진 모든 참조 화상들이 "참조에 미사용 (unused for reference)"이라고 마킹된다. IDR 화상이 디코딩된 최초 IDR 화상이 아니고 액티브 시퀀스 파라미터 세트로부터 도출된 PicWidthInMbs나 FrameHeightInMbs나 max_dec_frame_buffeing의 값이, 현재 코딩된 비디오 시퀀스와 각각 동일한 dependency_id 및 quality_level 값을 가진 이전 시퀀스에 대해 영향을 가졌던 시퀀스 파라미터 세트로부터 도출된 PicWidthInMbs나 FrameHeightInMbs나 max_dec_frame_buffeing의 값과는 다를 때, no_output_of_prior_pics_glag의 실제 값과 무관하게, no_output_of_prior_pics_flag는 HRD에 의해 1에 해당한다고 추정된다. 디코더 구성은 PicWidthInMbs나 FrameHeightInMbs의 변경과 관련해 HRD보다 얌전하게 프레임이나 DPB 사이즈 변경을 처리하도록 시도할 것이라는 것을 인지해야 한다.
no_output_of_prior_pics_flag가 1이거나 1로 추정될 때, 현재의 화상과 각각 동일한 dependency_id 및 quality_level 값을 가진 디코딩 화상들을 포함하는 DPB 내 모든 프레임 버퍼들은, 이들이 포함하는 화상들의 출력 없이 비워지고, DPB 충만도는 비워진 프레임 버퍼들의 수만큼 감소된다. 그렇지 않은 경우 (즉, 디코딩 화상이 IDR 화상이 아닌 경우), 다음과 같은 사항이 적용된다. 현재 화상의 슬라이스 헤더가 5에 해당하는 memory_management_control_operation 값을 포함하면, DPB에 포함되어 있고 현재의 화상과 각각 동일한 dependency_id 및 quality_level 값을 가진 모든 화상들이 "참조에 미사용"으로 마킹된다. 그렇지 않으면 (즉, 현 화상의 슬라이스 헤더가 5에 해당하는 memory_management_control_operation 값을 포함하지 않으면), 현 SVC 표준 초안의 하부절 8.2.5에 명시된 디코딩 참조 화상 마킹 프로세스가 일어난다. 한 화상을 현 SVC 표준 초안의 하부절 8.2.5.5에 명시된 대로 "계층간 참조에 미사용"으로 하는 마킹 프로세스가 일어난다.
현 화상이 요망된 규모가변적 계층 안에 있으면, 이하의 조건들을 모두 만족하는 DPB 안의 모든 디코딩 화상들이 "계층간 참조에 미사용"으로 마킹된다. 조건들 (1) 화상이 현재의 화상과 같은 액세스 유닛에 속함; (2) 화상이 1에 해당하는 inter_layer_ref_flag 값을 가지고 "계층간 참조에 사용됨"으로 마킹됨; (3) 화상이 현 화상보다 작은 dependency_id 값을 가지거나, 동일한 dependency_id 값을 가지지만 현 화상보다 작은 quality_level 값을 가짐.
이하의 모든 조건들이 참이 되는 DPB 안의 모든 화상들이 DPB로부터 제거된다. 조건들 (1) 화상 m이 "참조에 미사용"으로 마킹되거나 화상 m이 비참조 화상임. 한 화상이 참조 프레임일 때, 그것의 필드 양쪽 모두가 "참조에 미사용"으로 마킹되어 있었을 때에만 "참조에 미사용"이라고 마킹된다고 간주됨. (2) 화상 m이 "계층간 참조에 미사용"으로 마킹되거나 화상 m이 0인 inter_layr_ref_flag를 포함. (3) 화상 m이 "존재하지 않음"으로 마킹되거나, 원하는 규모가변 계층에 있지 않거나, 그 DPB 출력 시간이 현 화상 n의 CPB 제거 시간과 같거나 그보다 작음, 즉 to,dpb(m)<=tr(n). 한 프레임이나 한 프레임 버퍼 내 마지막 필드가 DPB로부터 제거 될 때, DPB 충만도가 1 만큼 감소된다.
다음은 현 디코딩 화상 마킹 및 저장에 대한 논의가 될 것이다. 참조 디코딩 화상의 마킹 및 DPB 안으로의 저장에 있어서, 현재의 화상이 참조 화상일 때, 그것은 다음과 같이 DPB에 저장된다. 현재의 디코딩 화상이 보충 참조 필드 쌍의 두 번째 필드 (디코딩 순서상)이고, 그 쌍의 첫 번째 필드는 아직 DPB 안에 있을 때, 현재의 디코딩 화상이 그 쌍의 첫 번째 필드로서 동일한 프레임 버퍼 안에 저장된다. 그렇지 않은 경우, 현재의 디코딩 화상은 한 비어 있는 프레임 버퍼 안에 저장되며, DPB 충만도는 1 만큼 증가된다.
비참조 화상을 DPB에 저장하는 것에 있어서, 현재의 화상이 비참조 화상이면 다음과 같은 사항이 적용된다. 현재의 하상이 원하는 규모가변적 계층 안에 있지 않거나, 현재의 화상이 원하는 규모가변적 계층에 있고 to,dpb(m)>tr(n)을 가지면, 그 화상은 다음과 같이 DPB에 저장된다. 현재의 디코딩 화상이 보충 비참조 필드 쌍 중 두 번째 필드 (디코딩 순서 상)이고, 첫 번째 필드는 아직 DPB 안에 있을 때, 현재의 디코딩 화상은 상기 쌍의 첫째 필드와 동일한 프레임 버퍼 안에 저장된다. 그렇지 않으면, 현재의 디코딩 화상이 한 빈 프레임 버퍼 안에 저장되고, DPB 충만도가 1 만큼 증가된다.
상술한 실시예에서, 화상이 계층간 예측 참조에 사용될지 여부를 분별하는 표시가 슬라이스 헤더를 통해 시그날링된다. 그것은 신택스 엘리먼트 inter_layer_ref_flag로서 시그날링 된다. 그러한 표시를 시그날링하는 데 있어 다른 여러 대안적인 방법들이 존재한다. 예를 들어, 그 표시는 NAL 유닛 헤더나 다른 방식들을 통해 시그날링 될 수 있다.
계층간 참조로서 미사용된다고 마킹될 화상들이 식별되는 한, 메모리 관리 동작 명령 (MMCO)의 시그날링 역시 다른 대안적 방식들을 통해 수행될 수 있다. 예를 들어, 신택스 엘리먼트 dependency_id[i]는 슬라이스 헤더가 속한 현재 화상의 dependency_id 값에 대한 증분으로서 코딩될 수 있다.
상술한 실시예와 오리지널 DPB 관리 프로세서의 주요한 차이는 다음과 같다. (1) 상술한 실시예에서, inter_layer_ref_flag가 1일 때 디코딩 화상들이 계층간 참조에 사용된다고 마킹된다. (2) 화상이 원하는 규모가변적 계층 안에 있을 때에만 상기 실시예의 디코딩 화상 출력 프로세스가 특정된다. (3) 상기 실시예에서 "계층간 참조에 미사용"이라고 화상을 마킹하는 프로세스는, 현재 화상의 가능한 삽입 전 DPB로부터 화상들의 제거 전에 일어난다. (4) 상기 실시예에서 현재 화상의 가능한 삽입 전에 DPB로부터 제거될 화상들의 조건이, 화상이 "계층간 참조에 미사용"이라고 마킹되거나 0에 해당하는 inter_layer_ref_flag를 가지는지 여부, 및 화상이 원하는 규모가변적 계층에 있는지 여부가 고려되도록 변경된다. (5) DPB에 저장될 화상들의 조건은 상기 실시예에서, 화상이 원하는 규모가변적 계층 안에 있는지 여부를 고려하여 변경된다.
도 10은 종래에 알려진 시스템들에 따른 액세스 유닛 내 여러 코딩 화상들에 대한 상태 진보 프로세스의 예를 보인 것이고, 도 11은 본 발명에 따른 그러한 같은 예를 보인 것이다. 도 10에 도시된 종래의 시스템에 있어서 DPB 상태 진보 프 로세스는 다음과 같다 (계층 4가 디코딩 및 재생을 위한 요망되는 규모가변적 계층이라고 가정함). 앞서의 디코딩 액세스 유닛들로부터의 화상들 역시 DPB 안에 저장될 것이나, 단순화를 위해 이 화상들은 이하에서 고려되지 않을 것이다. 계층 0 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후에, DPB는 계층 0으로부터의 화상만을 포함한다. 계층 1 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후에, DPB는 계층 0 및 1 각각으로부터의 2 화상들을 포함한다. 계층 2 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후, DPB는 각각 계층 0-2들로부터의 3 화상들을 포함한다. 계층 3 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후, DPB는 각각 계층 0-3들로부터의 4 화상들을 포함한다. 계층 4 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후, DPB는 각각 계층 0 및 4들로부터의 2 화상들을 포함한다.
도 11에 도시된 것 같은 DPB 상태 진보 프로세스는 다음과 같다 (계층 4가 디코딩 및 재생을 위한 요망되는 규모가변적 계층이라고 가정함). 앞서의 디코딩 액세스 유닛들로부터의 화상들 역시 DPB에 저장될 수 있지만, 이 화상들은 단순화 목적을 위해 이하에서는 고려되지 않을 것이다. 계층 0 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후, DPB는 계층 0으로부터의 화상만을 포함한다. 계층 1 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후, DPB는 각각 계층 0 및 2로부터의 2 화상들을 포함한다. 계층 2 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후, DPB는 각각 계층 0 및 2로부터의 2 화상들을 포함한다. 계층 3 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후, DPB는 각각 계층 0 및 3으로부터의 2 화상들을 포함한다. 계층 4 화상의 디코딩 및 대응하는 DPB 관리 프로세스 후, DPB는 각각 계 층 0 및 4로부터의 2 화상들을 포함한다.
도 11에서 알 수 있는 바와 같이, 본 발명은 버퍼 메모리에 대한 요건을 감축시킬 수 있다. 도 11에 도시된 예에서, 2 디코딩 화상들에 대한 버퍼 메모리가 절약될 수 있다.
도 12는 본 발명이 활용될 수 있는 시스템(10)을 보인 것으로서, 그 시스템은 네트워크를 통해 통신할 수 있는 여러 통신 장치들을 포함한다. 시스템(10)은 모바일 전화 네트워크, 무선 LAN (Local Area Network), 블루투스 개인 영역 네트워크, 이더넷 LAN, 토큰 링 LAN, 광역 네트워크, 인터넷 등등을 포함하나 이들에 국한되는 것은 아닌 유무선 네트워크들의 임의의 조합을 포함할 수 있다. 시스템(10)은 유선 및 무선 통신 장치들을 모두 포함할 수 있다.
예로서, 도 12에 도시된 시스템(10)은 모바일 전화 네트워크(11) 및 인터넷(28)을 포함한다. 인터넷(28)에 대한 접속은, 장거리 무선 접속, 단거리 무선 접속 및 전화선, 케이블 선, 전력선 등등을 포함하나 여기에 한정되는 것은 아닌 다양한 유선 접속들을 포함하나, 여기에 국한되는 것은 아니다.
예로 든 시스템(10)의 통신 장치들은 모바일 전화(12), 복합 PDA 및 모바일 전화(14), PDA(16), 통합 메시징 장치 (IMD, integrated messaging device)(18), 데스크 탑 컴퓨터(20), 및 노트북 컴퓨터(22)를 포함할 수 있으며, 상기 나열된 것에 국한하지 않는다. 통신 장치들은 정지형이거나, 이동하는 개인에 의해 소지되는 것 같은 이동형일 수 있다. 통신 장치들은 또한, 자동차, 트럭, 택시, 버스, 보트, 비행기, 자전거, 오토바이 등등을 포함하나 여기에 국한되지는 않은 교통 모 드 상에 자리할 수도 있다. 통신 장치들 중 일부나 전부는 통화 및 메시지를 발신 및 수신하고 서비스 제공자들과 무선 접속(25)을 통해 기지국(24)까지 통신할 수 있다. 기지국(24)은 모바일 전화 네트워크(11) 및 인터넷(28) 사이에서 통신을 가능하게 하는 네트워크 서버(26)에 연결될 수 있다. 시스템(10)은 추가 통신 장치들 및 다른 종류의 통신 장치들을 포함할 수 있다.
통신 장치들은 CDMA (Code Division Multiple Access), GSM (Global System for Mobile Communications), UMTS (Universal Mobile Telecommunications System), TDMA (Time Division Multiple Access), FDMA (Frequency Division Multiple Access), TCP/IP (Transmission Control Protocol/Internet Protocol), SMS (Short Messaging Service), MMS (Multimedia Messaging Service), 이메일, IMS (Instant Messaging Service), 블루투스, IEEE 802.11 등등을 포함하나 여기 국한되는 것은 아닌 다양한 전송 기술들을 이용해 통신을 행할 수 있다. 통신 장치는 라디오, 적외선, 레이저, 케이블 접속 등등을 포함하나 거기에 국한되는 것은 아닌 다양한 매체를 이용해 통신을 행할 수 있다.
도 13 및 14는 본 발명이 구현될 수 있는 한 대표적 모바일 전화(12)를 보인 것이다. 그러나, 본 발명이 한 특정한 타입의 모바일 전화(12)나 기타 전자 기기에 한정되도록 의도되지는 않는다는 것을 알아야 한다. 도 13 및 14의 모바일 전화(12)는 하우징(30), 액정 디스플레이 형태의 디스플레이(32), 키패드(34), 마이크(36), 이어폰(38), 배터리(40), 적외선 포트(42), 안테나(44), 본 발명의 일 실시예에 따른 UICC 형태의 스마트 카드(46), 카드 리더(48), 라디오 인터페이스 회 로(52), 코덱 회로(54), 컨트롤러(56) 및 메모리(58)를 포함한다. 개별 회로들 및 구성요소들은 모두 이 분야에 잘 알려져 있는 타입의 것들로서, 예를 들자면, 노키아의 모바일 전화기들에 속한 것들이 해당된다.
본 발명은 네트워크 환경하에서 컴퓨터들에 의해 실행되는 프로그램 코드 같은 컴퓨터 실행가능 명령들을 포함하는 프로그램 제품을 통해 일 실시예로서 구현될 수 있는 일반적인 방법의 단계들로서 기술되었다.
일반적으로, 프로그램 모듈들은 특정 작업들을 수행하거나 특정의 추상적 데이터 타입들을 구현하는 루틴들, 프로그램들, 오브젝트들, 컴포넌트들, 데이터 구조들 등등을 포함한다. 컴퓨터 실행가능 명령들, 관련 데이터 구조들, 및 프로그램 모듈들은 여기 개시된 방법의 단계들을 실행하기 위한 프로그램 코드의 예들을 나타낸다. 그러한 실행가능한 명령들 또는 관련 데이터 구조들의 특정 시퀀스는 그러한 단계들에서 설명된 기능들을 구현하기 위한 해당 동작들의 예들을 나타낸다.
본 발명의 소프트웨어 및 웹 구현물은, 다양한 데이터베이스 서치 단계들, 상관 단계들, 비교단계들 및 결정 단계들을 수행하기 위한 규칙 기반 로직 및 기타 로직을 갖춘 표준 프로그래밍 기술을 통해 구현될 수 있다. 명세서와 청구범위에서 사용된 "컴포넌트" 및 "모듈"이라는 말들은 소프트웨어 코드의 하나 이상의 라인들, 및/또는 하드웨어 구성, 및/또는 수동 입력 수취용 기기를 사용하는 구현물들을 포괄하도록 의도된 것임을 주지해야 한다.
본 발명의 실시예들에 대한 상기 내용은 예시 및 설명의 목적으로 제시된 것 들이다. 그것이 본 발명의 전부가 되거나 개시된 특정 형태로 제한하고자 한 것이 아니고, 상기 개념들에 비춰 다양한 변경 및 치환이 가능하거나 본 발명의 실시로부터 획득될 수 있다. 실시예들은, 이 분야의 당업자가 본 발명을 다양한 실시예들과 숙고된 특정한 용도로 맞춰진 여러가지 변형을 통해 활용할 수 있도록 하는 본 발명의 원리들 및 그 실제적 어플리케이션을 설명하기 위해 선택 및 기술되었다.

Claims (52)

  1. 규모가변적 비디오 코딩을 위한, 디코딩 화상 버퍼 (decoded picture buffer) 관리 방법에 있어서,
    비트 스트림 상의 제1계층에 속하는 제1디코딩 화상을 상기 디코딩 화상 버퍼 안에 수신하는 단계;
    제2계층에 속하는 제2디코딩 화상을 수신하는 단계;
    상기 제2디코딩 화상의 수신에 비춰, 상기 제1디코딩 화상이 계층간 예측 참조를 위해 필요로 되는지 여부를 판단하는 단계; 및
    상기 제1디코딩 화상이 계층간 예측 참조 및 추후 출력에 더 이상 필요로 되지 않으면, 상기 디코딩 화상 버퍼로부터 제1디코딩 화상을 제거하는 단계를 포함함을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 비트 스트림을 통해 시그날링 된 디코딩 순서상 다음 화상의 가능한 계층간 예측 참조 표시에 관한 정보를 운반하는 단계를 더 포함함을 특징으로 하는 방법.
  3. 제2항에 있어서, 상기 가능한 계층간 예측 참조 표시는 슬라이스 헤더 안에 넣어져 시그날링 됨을 특징으로 하는 방법.
  4. 제2항에 있어서, 상기 가능한 계층간 예측 참조 표시는 NAL (Network Abstraction Layer) 유닛 헤더 안에 넣어져 시그날링 됨을 특징으로 하는 방법.
  5. 제2항에 있어서, 상기 제1디코딩 화상이 계층간 예측 참조에 필요로 되는지 여부를 판단하는 단계는, 상기 제1디코딩 화상을 "계층간 참조에 미사용"이라고 선택적으로 마킹하는 단계를 포함함을 특징으로 하는 방법.
  6. 제5항에 있어서, 상기 제1디코딩 화상은, 그 제1화상이 제2화상과 같은 액세스 유닛에 속할 때 "계층간 참조에 미사용"이라고 마킹됨을 특징으로 하는 방법.
  7. 제6항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"이라고 마킹되는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 방법.
  8. 제5항에 있어서, 상기 제1디코딩 화상은, 상기 제1화상이 포지티브인 가능한 계층간 예측 참조 표시를 가지고 "계층간 참조에 사용됨"이라고 마크될 때, "계층간 참조에 미사용"으로 마킹됨을 특징으로 하는 방법.
  9. 제8항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"으로 마킹되 는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 방법.
  10. 제5항에 있어서, 상기 제1디코딩 화상은, 상기 제1화상이 제2화상보다 작은 값의 dependency_id를 가지거나, 제2화상과 같은 값의 dependency_id를 가지나 제2화상보다 작은 값의 quality_level을 가지는 경우, "계층간 참조에 미사용"으로 마킹됨을 특징으로 하는 방법.
  11. 제10항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"으로 마킹되는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 방법.
  12. 제2항에 있어서, 상기 제1화상이 "참조에 미사용"으로 마킹되거나 미참조 화상인 경우; 제1화상이 "계층간 참조에 미사용"으로 마킹되거나 가능한 계층간 예측 참조 표시가 네거티브로 되는 경우; 제1화상이 "존재하지 않는다"고 마킹되거나 원하는 규모가변적 계층에 있지 않거나, 디코딩 화상 버퍼 출력 시간이 제2화상의 코딩 화상 버퍼 (coded picture buffer) 제거 시간보다 작거나 같을 때, 상기 제1디코딩 화상이 계층간 예측 참조에 더 이상 필요로 되지 않는다고 정해짐을 특징으로 하는 방법.
  13. 제12항에 있어서, 상기 제1디코딩 화상이 참조 프레임이면, 제1디코딩 화상은 제1디코딩 화상의 필드들이 모두 "참조에 미사용"으로 마크되어 있을 때에만 "참조에 미사용"으로 마크된다고 간주 됨을 특징으로 하는 방법.
  14. 제1항에 있어서, 상기 제1디코딩 화상은, 재생을 위해 원하는 규모가변적 계층 안에 있지 않은 경우, 추후 출력에 필요로 되지 않음을 특징으로 하는 방법.
  15. 제1항에 있어서, 상기 비트 스트림은 제1서브 비트 스트림 및 제2서브 비트 스트림을 포함하고, 상기 제1서브 비트 스트림은 제1계층에 속하는 코딩 화상들을 포함하고, 제2서브 비트 스트림은 제2계층의 화상들을 포함함을 특징으로 하는 방법.
  16. 복수의 화상들로 된 한 인코딩 스트림을 디코딩하기 위한 디코더에 있어서,
    상기 복수의 화상들은 참조 화상들 또는 비참조 화상들로 규정되고, 화상 스트림의 화상들에 대해 한 화상의 디코딩 순서 및 출력 순서와 관련된 정보가 정해질 때, 상기 디코더는 제1항의 방법을 수행하도록 구성됨을 특징으로 하는 디코더.
  17. 규모가변적 비디오 코딩을 위한, 디코딩 화상 버퍼 (decoded picture buffer) 관리를 위한 컴퓨터 프로그램 제품에 있어서,
    비트 스트림 상의 제1계층에 속하는 제1디코딩 화상을 상기 디코딩 화상 버 퍼 안에 수신하도록 하는 컴퓨터 코드;
    제2계층에 속하는 제2디코딩 화상을 수신하도록 하는 컴퓨터 코드;
    상기 제2디코딩 화상의 수신에 비춰, 상기 제1디코딩 화상이 계층간 예측 참조를 위해 필요로 되는지 여부를 판단하도록 하는 컴퓨터 코드; 및
    상기 제1디코딩 화상이 계층간 예측 참조 및 추후 출력에 더 이상 필요로 되지 않으면, 상기 디코딩 화상 버퍼로부터 제1디코딩 화상을 제거하도록 하는 컴퓨터 코드를 포함함을 특징으로 하는 컴퓨터 프로그램 제품.
  18. 제17항에 있어서,
    상기 비트 스트림을 통해 시그날링 된 디코딩 순서상 다음 화상의 가능한 계층간 예측 참조 표시에 관한 정보를 운반하도록 하는 컴퓨터 코드를 더 포함함을 특징으로 하는 컴퓨터 프로그램 제품.
  19. 제18항에 있어서, 상기 가능한 계층간 예측 참조 표시는 슬라이스 헤더 안에 넣어져 시그날링 됨을 특징으로 하는 컴퓨터 프로그램 제품.
  20. 제18항에 있어서, 상기 가능한 계층간 예측 참조 표시는 NAL (Network Abstraction Layer) 유닛 헤더 안에 넣어져 시그날링 됨을 특징으로 하는 컴퓨터 프로그램 제품.
  21. 제18항에 있어서, 상기 제1디코딩 화상이 계층간 예측 참조에 필요로 되는지 여부의 판단은, 상기 제1디코딩 화상을 "계층간 참조에 미사용"이라고 선택적으로 마킹하는 것을 포함함 특징으로 하는 컴퓨터 프로그램 제품.
  22. 제21항에 있어서, 상기 제1디코딩 화상은, 그 제1화상이 제2화상과 같은 액세스 유닛에 속할 때 "계층간 참조에 미사용"이라고 마킹됨을 특징으로 하는 컴퓨터 프로그램 제품.
  23. 제22항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"이라고 마킹되는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 컴퓨터 프로그램 제품.
  24. 제21항에 있어서, 상기 제1디코딩 화상은, 상기 제1화상이 가능한 계층간 예측 참조 표시가 포지티브인 것을 가지고 "계층간 참조에 사용됨"이라고 마크될 때, "계층간 참조에 미사용"으로 마킹됨을 특징으로 하는 컴퓨터 프로그램 제품.
  25. 제24항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"으로 마킹되는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 컴퓨터 프로그램 제품.
  26. 제21항에 있어서, 상기 제1디코딩 화상은, 상기 제1화상이 제2화상보다 작은 값의 dependency_id를 가지거나, 제2화상과 같은 값의 dependency_id를 가지나 제2화상보다 작은 값의 quality_level을 가지는 경우, "계층간 참조에 미사용"으로 마킹됨을 특징으로 하는 컴퓨터 프로그램 제품.
  27. 제26항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"으로 마킹되는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 컴퓨터 프로그램 제품.
  28. 제17항에 있어서, 상기 제1화상이 "참조에 미사용"으로 마킹되거나 미참조 화상인 경우; 제1화상이 "계층간 참조에 미사용"으로 마킹되거나 가능한 계층간 예측 참조 표시가 네거티브로 되는 경우; 제1화상이 "존재하지 않는다"고 마킹되거나 원하는 규모가변적 계층에 있지 않거나, 디코딩 화상 버퍼 출력 시간이 제2화상의 코딩 화상 버퍼 (coded picture buffer) 제거 시간보다 작거나 같을 때, 상기 제1디코딩 화상이 계층간 예측 참조에 더 이상 필요로 되지 않는다고 정해짐을 특징으로 하는 컴퓨터 프로그램 제품.
  29. 제28항에 있어서, 상기 제1디코딩 화상이 참조 프레임이면, 제1디코딩 화상은 제1디코딩 화상의 필드들이 모두 "참조에 미사용"으로 마크되어 있을 때에만 "참조에 미사용"으로 마크된다고 간주 됨을 특징으로 하는 컴퓨터 프로그램 제품.
  30. 제16항에 있어서, 상기 제1디코딩 화상은, 재생을 위해 원하는 규모가변적 계층 안에 있지 않은 경우, 추후 출력에 필요로 되지 않음을 특징으로 하는 컴퓨터 프로그램 제품.
  31. 제16항에 있어서, 상기 비트 스트림은 제1서브 비트 스트림 및 제2서브 비트 스트림을 포함하고, 상기 제1서브 비트 스트림은 제1계층에 속하는 코딩 화상들을 포함하고, 제2서브 비트 스트림은 제2계층의 화상들을 포함함을 특징으로 하는 컴퓨터 프로그램 제품.
  32. 전자 기기에 있어서,
    프로세서; 및
    상기 프로세서와 상호동작하도록 연결되고, 규모가변적 비디오 코딩을 위해 디코딩 화상 버퍼를 관리하기 위한 컴퓨터 프로그램 제품을 포함하는 메모리를 포함하고,
    상기 컴퓨터 프로그램 제품은,
    비트 스트림 상의 제1계층에 속하는 제1디코딩 화상을 상기 디코딩 화상 버퍼 안에 수신하도록 하는 컴퓨터 코드;
    제2계층에 속하는 제2디코딩 화상을 수신하도록 하는 컴퓨터 코드;
    상기 제2디코딩 화상의 수신에 비춰, 상기 제1디코딩 화상이 계층간 예측 참 조를 위해 필요로 되는지 여부를 판단하도록 하는 컴퓨터 코드; 및
    상기 제1디코딩 화상이 계층간 예측 참조 및 추후 출력에 더 이상 필요로 되지 않으면, 상기 디코딩 화상 버퍼로부터 제1디코딩 화상을 제거하도록 하는 컴퓨터 코드를 포함함을 특징으로 하는 전자 기기.
  33. 제32항에 있어서, 상기 메모리 유닛은, 상기 비트 스트림을 통해 시그날링 된 디코딩 순서상 다음 화상의 가능한 계층간 예측 참조 표시에 관한 정보를 운반하도록 하는 컴퓨터 코드를 더 포함함을 특징으로 하는 전자 기기.
  34. 제33항에 있어서, 상기 가능한 계층간 예측 참조 표시는 슬라이스 헤더 안에 넣어져 시그날링 됨을 특징으로 하는 전자 기기.
  35. 제33항에 있어서, 상기 가능한 계층간 예측 참조 표시는 NAL (Network Abstraction Layer) 유닛 헤더 안에 넣어져 시그날링 됨을 특징으로 하는 전자 기기.
  36. 제33항에 있어서, 상기 제1디코딩 화상이 계층간 예측 참조에 필요로 되는지 여부의 판단은, 상기 제1디코딩 화상을 "계층간 참조에 미사용"이라고 선택적으로 마킹하는 것을 포함함 특징으로 하는 전자 기기.
  37. 제36항에 있어서, 상기 제1디코딩 화상은, 그 제1화상이 제2화상과 같은 액세스 유닛에 속할 때 "계층간 참조에 미사용"이라고 마킹됨을 특징으로 하는 전자 기기.
  38. 제37항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"이라고 마킹되는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 전자 기기.
  39. 제36항에 있어서, 상기 제1디코딩 화상은, 상기 제1화상이 가능한 계층간 예측 참조 표시가 포지티브인 것을 가지고 "계층간 참조에 사용됨"이라고 마크될 때, "계층간 참조에 미사용"으로 마킹됨을 특징으로 하는 전자 기기.
  40. 제39항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"으로 마킹되는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 전자 기기.
  41. 제36항에 있어서, 상기 제1디코딩 화상은, 상기 제1화상이 제2화상보다 작은 값의 dependency_id를 가지거나, 제2화상과 같은 값의 dependency_id를 가지나 제2화상보다 작은 값의 quality_level을 가지는 경우, "계층간 참조에 미사용"으로 마킹됨을 특징으로 하는 전자 기기.
  42. 제41항에 있어서, 상기 제1디코딩 화상이 "계층간 참조에 미사용"으로 마킹되는지 여부에 대한 판단은 상기 비트 스트림을 통한 시그날링에 따름을 특징으로 하는 전자 기기.
  43. 제36항에 있어서, 상기 제1화상이 "참조에 미사용"으로 마킹되거나 미참조 화상인 경우; 제1화상이 "계층간 참조에 미사용"으로 마킹되거나 가능한 계층간 예측 참조 표시가 네거티브로 되는 경우; 제1화상이 "존재하지 않는다"고 마킹되거나 원하는 규모가변적 계층에 있지 않거나, 디코딩 화상 버퍼 출력 시간이 제2화상의 코딩 화상 버퍼 (coded picture buffer) 제거 시간보다 작거나 같을 때, 상기 제1디코딩 화상이 계층간 예측 참조에 더 이상 필요로 되지 않는다고 정해짐을 특징으로 하는 전자 기기.
  44. 제43항에 있어서, 상기 제1디코딩 화상이 참조 프레임이면, 제1디코딩 화상은 제1디코딩 화상의 필드들이 모두 "참조에 미사용"으로 마크되어 있을 때에만 "참조에 미사용"으로 마크된다고 간주 됨을 특징으로 하는 전자 기기.
  45. 제32항에 있어서, 상기 제1디코딩 화상은, 재생을 위해 원하는 규모가변적 계층 안에 있지 않은 경우, 추후 출력에 필요로 되지 않음을 특징으로 하는 전자 기기.
  46. 제32항에 있어서, 상기 비트 스트림은 제1서브 비트 스트림 및 제2서브 비트 스트림을 포함하고, 상기 제1서브 비트 스트림은 제1계층에 속하는 코딩 화상들을 포함하고, 제2서브 비트 스트림은 제2계층의 화상들을 포함함을 특징으로 하는 전자 기기.
  47. 제32항에 있어서, 상기 전자 기기는 상기 비트 스트림으로부터 가능한 참조 표시 및 메모리 관리 제어 동작들의 신택스 엘리먼트 (syntax elements)를 읽도록 된 디코더를 포함함을 특징으로 하는 전자 기기.
  48. 화상들의 인코딩 스트림을 형성하기 위한 인코더에 있어서,
    상기 화상들은 참조 화상들이나 비참조 화상들로 규정되고, 상기 스트림의 화상들에 있어서 한 화상의 디코딩 순서 및 출력 순서 관련 정보가 정의될 때,
    상기 인코더는 상기 스트림 안에, 가능한 참조 표시 및 메모리 관리 제어 동작에 대한 신택스 엘리먼트들을 위치시키고, 상기 신택스 엘리먼트들은 제32항에 따른 전자 기기에 의해 생성됨을 특징으로 하는 인코더.
  49. 비트 스트림에 있어서,
    제2계층의 제2디코딩 화상에 비춰 디코딩 화상 버퍼로부터 제1계층의 제1디코딩 화상을 선택적으로 제거하라는 표시를 제공하는 신택스 엘리먼트를 포함함을 특징으로 하는 비트 스트림.
  50. 제48항에 따른 비트 스트림을 생성하는 인코더를 구현함을 특징으로 하는 컴퓨터 장치.
  51. 비트 스트림에 있어서,
    제2계층의 제2디코딩 화상에 비춰 디코딩 화상 버퍼로부터 제1계층의 제1디코딩 화상을 선택적으로 제거하라는 표시를 제공하는 신택스 엘리먼트를 포함하고,
    상기 신택스 엘리먼트는 제1항의 방법에 따라 세팅됨을 특징으로 하는 비트 스트림.
  52. 규모가변적 비디오 코딩을 위한 디코딩 화상 버퍼 관리 방법에 있어서,
    비트 스트림 상의 제1계층에 속하는 제1디코딩 화상을 상기 디코딩 화상 버퍼 안에 수신하는 단계;
    제2계층에 속하는 제2디코딩 화상을 수신하는 단계;
    상기 제2디코딩 화상의 수신에 비춰, 상기 제1디코딩 화상이 계층간 예측 참조, 상호 예측 참조 및 추후 출력에 필요로 되는지 여부를 판단하는 단계; 및
    상기 제1디코딩 화상이 계층간 예측 참조, 상호 예측 참조 및 추후 출력에 더 이상 필요로 되지 않으면, 상기 디코딩 화상 버퍼로부터 제1디코딩 화상을 제거하는 단계를 포함함을 특징으로 하는 방법.
KR1020087011093A 2005-10-11 2006-10-11 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리 KR20080066784A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US72586505P 2005-10-11 2005-10-11
US60/725,865 2005-10-11

Publications (1)

Publication Number Publication Date
KR20080066784A true KR20080066784A (ko) 2008-07-16

Family

ID=37942355

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087011093A KR20080066784A (ko) 2005-10-11 2006-10-11 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리

Country Status (6)

Country Link
US (1) US20070086521A1 (ko)
EP (1) EP1949701A1 (ko)
JP (1) JP2009512306A (ko)
KR (1) KR20080066784A (ko)
CN (1) CN101317459A (ko)
WO (1) WO2007042914A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012148139A2 (ko) * 2011-04-26 2012-11-01 엘지전자 주식회사 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
KR20130129338A (ko) * 2012-04-16 2013-11-28 한국전자통신연구원 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치
US9237356B2 (en) 2011-09-23 2016-01-12 Qualcomm Incorporated Reference picture list construction for video coding
US10873750B2 (en) 2012-12-14 2020-12-22 Lg Electronics Inc. Method for encoding video, method for decoding video, and apparatus using same
KR20210107893A (ko) * 2019-03-15 2021-09-01 텐센트 아메리카 엘엘씨 비디오 코딩을 위한 디코딩된 픽처 버퍼 관리

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070038396A (ko) * 2005-10-05 2007-04-10 엘지전자 주식회사 영상 신호의 인코딩 및 디코딩 방법
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
CN102036070A (zh) 2005-12-08 2011-04-27 维德约股份有限公司 用于视频通信系统中的差错弹性和随机接入的系统和方法
WO2007080223A1 (en) * 2006-01-10 2007-07-19 Nokia Corporation Buffering of decoded reference pictures
US8693538B2 (en) 2006-03-03 2014-04-08 Vidyo, Inc. System and method for providing error resilience, random access and rate control in scalable video communications
CN101523920B (zh) * 2006-10-16 2013-12-04 汤姆森许可贸易公司 在视频操作期间使用网络抽象层单元以信号方式指示即时解码刷新的方法
KR20090085581A (ko) * 2006-10-24 2009-08-07 톰슨 라이센싱 다중-뷰 비디오 코딩을 위한 화상 관리
KR100776680B1 (ko) * 2006-11-09 2007-11-19 한국전자통신연구원 Svc 비디오 압축 비트스트림에 대한 패킷타입 분류방법과 이를 이용한 rtp 패킷화 장치 및 그 방법
WO2008084443A1 (en) * 2007-01-09 2008-07-17 Nokia Corporation System and method for implementing improved decoded picture buffer management for scalable video coding and multiview video coding
AU2008204833A1 (en) * 2007-01-09 2008-07-17 Vidyo, Inc. Improved systems and methods for error resilience in video communication systems
US8761265B2 (en) 2007-04-17 2014-06-24 Thomson Licensing Hypothetical reference decoder for multiview video coding
CA2681197C (en) 2007-04-24 2014-01-07 Nokia Corporation Signaling of multiple decoding times in media files
US7974489B2 (en) * 2007-05-30 2011-07-05 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Buffer management for an adaptive buffer value using accumulation and averaging
US8886022B2 (en) * 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
CN101668208B (zh) * 2009-09-15 2013-03-27 浙江宇视科技有限公司 帧编码方法及装置
US8301794B2 (en) 2010-04-16 2012-10-30 Microsoft Corporation Media content improved playback quality
EP2395505A1 (en) * 2010-06-11 2011-12-14 Thomson Licensing Method and apparatus for searching in a layered hierarchical bit stream followed by replay, said bit stream including a base layer and at least one enhancement layer
US9113172B2 (en) 2011-01-14 2015-08-18 Vidyo, Inc. Techniques for describing temporal coding structure
JP5752268B2 (ja) 2011-01-14 2015-07-22 ヴィディオ・インコーポレーテッド 時間スケーラビリティのための高いレイヤのシンタックス
CN108391137B (zh) * 2011-06-15 2022-07-19 韩国电子通信研究院 可伸缩解码方法/设备、可伸缩编码方法/设备和介质
US20140169449A1 (en) * 2011-07-05 2014-06-19 Telefonaktiebolaget L M Ericsson (Publ) Reference picture management for layered video
KR20140085456A (ko) 2011-09-29 2014-07-07 텔레폰악티에볼라겟엘엠에릭슨(펍) 레퍼런스 픽처 리스트 핸들링
US20140233653A1 (en) * 2011-09-30 2014-08-21 Telefonaktiebolaget L M Ericsson (Publ) Decoder and encoder for picture outputting and methods thereof
JP5698644B2 (ja) * 2011-10-18 2015-04-08 株式会社Nttドコモ 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置及び動画像予測復号プログラム
US9264717B2 (en) 2011-10-31 2016-02-16 Qualcomm Incorporated Random access with advanced decoded picture buffer (DPB) management in video coding
KR20130058584A (ko) 2011-11-25 2013-06-04 삼성전자주식회사 복호화기의 버퍼 관리를 위한 영상 부호화 방법 및 장치, 그 영상 복호화 방법 및 장치
US10200708B2 (en) 2011-11-30 2019-02-05 Qualcomm Incorporated Sequence level information for multiview video coding (MVC) compatible three-dimensional video coding (3DVC)
WO2013106521A2 (en) * 2012-01-10 2013-07-18 Vidyo, Inc. Techniques for layered video encoding and decoding
US9451252B2 (en) 2012-01-14 2016-09-20 Qualcomm Incorporated Coding parameter sets and NAL unit headers for video coding
WO2013109026A1 (ko) 2012-01-18 2013-07-25 엘지전자 주식회사 엔트로피 부호화/복호화 방법 및 그 장치
US9313486B2 (en) 2012-06-20 2016-04-12 Vidyo, Inc. Hybrid video coding techniques
WO2014028838A1 (en) * 2012-08-16 2014-02-20 Vid Scale, Inc. Slice based skip mode signaling for multiple layer video coding
US9351005B2 (en) 2012-09-24 2016-05-24 Qualcomm Incorporated Bitstream conformance test in video coding
US9479774B2 (en) 2012-09-24 2016-10-25 Qualcomm Incorporated Buffering period and recovery point supplemental enhancement information messages
CN104813660B (zh) 2012-09-28 2019-04-05 诺基亚技术有限公司 用于视频编码和解码的装置和方法
US9380317B2 (en) * 2012-10-08 2016-06-28 Qualcomm Incorporated Identification of operation points applicable to nested SEI message in video coding
US9936196B2 (en) 2012-10-30 2018-04-03 Qualcomm Incorporated Target output layers in video coding
KR20140087971A (ko) 2012-12-26 2014-07-09 한국전자통신연구원 계층적 비디오 부호화에서 다중참조계층을 적용한 화면간 부/복호화 방법 및 그 장치
US20140192895A1 (en) * 2013-01-04 2014-07-10 Qualcomm Incorporated Multi-resolution decoded picture buffer management for multi-layer video coding
US9900609B2 (en) * 2013-01-04 2018-02-20 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
EP2804375A1 (en) 2013-02-22 2014-11-19 Thomson Licensing Coding and decoding methods of a picture block, corresponding devices and data stream
US10194146B2 (en) 2013-03-26 2019-01-29 Qualcomm Incorporated Device and method for scalable coding of video information
US9992493B2 (en) 2013-04-01 2018-06-05 Qualcomm Incorporated Inter-layer reference picture restriction for high level syntax-only scalable video coding
KR102118524B1 (ko) 2013-04-05 2020-06-09 브이아이디 스케일, 인크. 다수의 레이어 비디오 코딩을 위한 레이어간 참조 화상 강화
US20140301477A1 (en) * 2013-04-07 2014-10-09 Sharp Laboratories Of America, Inc. Signaling dpb parameters in vps extension and dpb operation
IL287526B (en) 2013-04-07 2022-07-01 Dolby Int Ab Signal change in systems layer output
US9591321B2 (en) 2013-04-07 2017-03-07 Dolby International Ab Signaling change in output layer sets
US11438609B2 (en) * 2013-04-08 2022-09-06 Qualcomm Incorporated Inter-layer picture signaling and related processes
US20140307803A1 (en) 2013-04-08 2014-10-16 Qualcomm Incorporated Non-entropy encoded layer dependency information
MX344186B (es) * 2013-04-12 2016-12-08 Ericsson Telefon Ab L M Construccion de listas de imagenes de referencia entre capas.
AU2013387114B2 (en) * 2013-04-17 2018-02-22 Interdigital Vc Holdings, Inc. Method and apparatus for packet header compression
WO2015009693A1 (en) * 2013-07-15 2015-01-22 Sony Corporation Layer based hrd buffer management for scalable hevc
US9819941B2 (en) * 2013-10-10 2017-11-14 Qualcomm Incorporated Signaling for sub-decoded picture buffer (sub-DPB) based DPB operations in video coding
WO2015052943A1 (en) * 2013-10-13 2015-04-16 Sharp Kabushiki Kaisha Signaling parameters in vps extension and dpb operation
US20150103887A1 (en) * 2013-10-14 2015-04-16 Qualcomm Incorporated Device and method for scalable coding of video information
CN105981387B (zh) 2013-10-15 2019-09-27 诺基亚技术有限公司 用于处理视频的方法、装置和计算机可读存储介质
US9819945B2 (en) * 2014-06-25 2017-11-14 Qualcomm Incorporated Multi-layer video coding
JP2016015009A (ja) * 2014-07-02 2016-01-28 ソニー株式会社 情報処理システム、情報処理端末、および情報処理方法
US10283091B2 (en) 2014-10-13 2019-05-07 Microsoft Technology Licensing, Llc Buffer optimization
EP3241352B1 (en) 2014-12-31 2021-11-24 Nokia Technologies Oy Inter-layer prediction for scalable video coding and decoding
EP3292691A4 (en) * 2015-05-29 2019-01-23 HFI Innovation Inc. METHOD FOR MANAGING DECODED IMAGE PADS FOR THE INTRA-IMAGE BLOCKS COPYING METHOD
GB2538997A (en) * 2015-06-03 2016-12-07 Nokia Technologies Oy A method, an apparatus, a computer program for video coding
US11595652B2 (en) 2019-01-28 2023-02-28 Op Solutions, Llc Explicit signaling of extended long term reference picture retention
CN108668132A (zh) * 2018-05-07 2018-10-16 联发科技(新加坡)私人有限公司 管理解码图像缓冲区的方法、图像解码器以及存储介质
CN109274973A (zh) * 2018-09-26 2019-01-25 江苏航天大为科技股份有限公司 嵌入式arm平台上的快速视频解码方法
US10939118B2 (en) * 2018-10-26 2021-03-02 Mediatek Inc. Luma-based chroma intra-prediction method that utilizes down-sampled luma samples derived from weighting and associated luma-based chroma intra-prediction apparatus
CN113597768A (zh) * 2019-01-28 2021-11-02 Op方案有限责任公司 扩展长期参考图片保留的在线和离线选择
WO2020156175A1 (zh) * 2019-02-01 2020-08-06 浙江大学 位流检验方法、解码方法及其装置
WO2021027774A1 (en) 2019-08-10 2021-02-18 Beijing Bytedance Network Technology Co., Ltd. Subpicture dependent signaling in video bitstreams
JP2022550320A (ja) * 2019-09-24 2022-12-01 ホアウェイ・テクノロジーズ・カンパニー・リミテッド ビデオ符号化におけるseiメッセージ依存性の簡略化
CN114503593B (zh) * 2019-10-07 2024-02-13 华为技术有限公司 编码器、解码器及对应方法
WO2021222036A1 (en) * 2020-04-26 2021-11-04 Bytedance Inc. Conditional signaling of video coding syntax elements
CN114205615B (zh) * 2021-12-03 2024-02-06 北京达佳互联信息技术有限公司 解码图像缓存区的管理方法和装置
WO2024017135A1 (zh) * 2022-07-21 2024-01-25 华为技术有限公司 处理图像的方法和装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6034731A (en) * 1997-08-13 2000-03-07 Sarnoff Corporation MPEG frame processing method and apparatus
JP2000013790A (ja) * 1998-06-19 2000-01-14 Sony Corp 画像符号化装置および画像符号化方法、画像復号装置および画像復号方法、並びに提供媒体
EP1670259A3 (en) * 2002-01-23 2010-03-03 Nokia Corporation Grouping of image frames in video coding
MY134659A (en) * 2002-11-06 2007-12-31 Nokia Corp Picture buffering for prediction references and display
US20050201471A1 (en) * 2004-02-13 2005-09-15 Nokia Corporation Picture decoding method
US20060013318A1 (en) * 2004-06-22 2006-01-19 Jennifer Webb Video error detection, recovery, and concealment
US20070014346A1 (en) * 2005-07-13 2007-01-18 Nokia Corporation Coding dependency indication in scalable video coding

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012148139A3 (ko) * 2011-04-26 2013-03-21 엘지전자 주식회사 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
GB2505344A (en) * 2011-04-26 2014-02-26 Lg Electronics Inc Method for managing a reference picture list, and apparatus using same
WO2012148139A2 (ko) * 2011-04-26 2012-11-01 엘지전자 주식회사 참조 픽쳐 리스트 관리 방법 및 이러한 방법을 사용하는 장치
GB2505344B (en) * 2011-04-26 2017-11-15 Lg Electronics Inc Method for managing a reference picture list, and apparatus using same
US9420307B2 (en) 2011-09-23 2016-08-16 Qualcomm Incorporated Coding reference pictures for a reference picture set
US11490119B2 (en) 2011-09-23 2022-11-01 Qualcomm Incorporated Decoded picture buffer management
US10856007B2 (en) 2011-09-23 2020-12-01 Velos Media, Llc Decoded picture buffer management
US10542285B2 (en) 2011-09-23 2020-01-21 Velos Media, Llc Decoded picture buffer management
US10034018B2 (en) 2011-09-23 2018-07-24 Velos Media, Llc Decoded picture buffer management
US9237356B2 (en) 2011-09-23 2016-01-12 Qualcomm Incorporated Reference picture list construction for video coding
US9338474B2 (en) 2011-09-23 2016-05-10 Qualcomm Incorporated Reference picture list construction for video coding
US9998757B2 (en) 2011-09-23 2018-06-12 Velos Media, Llc Reference picture signaling and decoded picture buffer management
KR101488496B1 (ko) * 2012-04-16 2015-02-03 한국전자통신연구원 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치
US10958918B2 (en) 2012-04-16 2021-03-23 Electronics And Telecommunications Research Institute Decoding method and device for bit stream supporting plurality of layers
KR20160086805A (ko) * 2012-04-16 2016-07-20 한국전자통신연구원 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치
KR101488494B1 (ko) * 2012-04-16 2015-02-03 한국전자통신연구원 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치
KR101488493B1 (ko) * 2012-04-16 2015-02-03 한국전자통신연구원 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치
US10595026B2 (en) 2012-04-16 2020-03-17 Electronics And Telecommunications Research Institute Decoding method and device for bit stream supporting plurality of layers
US10602160B2 (en) 2012-04-16 2020-03-24 Electronics And Telecommunications Research Institute Image information decoding method, image decoding method, and device using same
KR101488495B1 (ko) * 2012-04-16 2015-02-03 한국전자통신연구원 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치
US12028538B2 (en) 2012-04-16 2024-07-02 Electronics And Telecommunications Research Institute Image information decoding method, image decoding method, and device using same
KR20160086806A (ko) * 2012-04-16 2016-07-20 한국전자통신연구원 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치
US10958919B2 (en) 2012-04-16 2021-03-23 Electronics And Telecommunications Resarch Institute Image information decoding method, image decoding method, and device using same
US11949890B2 (en) 2012-04-16 2024-04-02 Electronics And Telecommunications Research Institute Decoding method and device for bit stream supporting plurality of layers
US11483578B2 (en) 2012-04-16 2022-10-25 Electronics And Telecommunications Research Institute Image information decoding method, image decoding method, and device using same
KR20130129338A (ko) * 2012-04-16 2013-11-28 한국전자통신연구원 영상 정보 디코딩 방법, 영상 디코딩 방법 및 이를 이용하는 장치
US11490100B2 (en) 2012-04-16 2022-11-01 Electronics And Telecommunications Research Institute Decoding method and device for bit stream supporting plurality of layers
US20230035462A1 (en) 2012-04-16 2023-02-02 Electronics And Telecommunications Research Institute Image information decoding method, image decoding method, and device using same
US10873750B2 (en) 2012-12-14 2020-12-22 Lg Electronics Inc. Method for encoding video, method for decoding video, and apparatus using same
US11516486B2 (en) 2019-03-15 2022-11-29 Tencent America LLC Decoded picture buffer management for video coding
KR20210107893A (ko) * 2019-03-15 2021-09-01 텐센트 아메리카 엘엘씨 비디오 코딩을 위한 디코딩된 픽처 버퍼 관리

Also Published As

Publication number Publication date
US20070086521A1 (en) 2007-04-19
WO2007042914A1 (en) 2007-04-19
JP2009512306A (ja) 2009-03-19
EP1949701A1 (en) 2008-07-30
CN101317459A (zh) 2008-12-03

Similar Documents

Publication Publication Date Title
KR20080066784A (ko) 규모가변적 비디오 코딩을 위한 효율적 디코딩 화상 버퍼관리
KR101245576B1 (ko) 효율적인 규모가변적 스트림 조정을 위한 시스템 및 방법
US20210314584A1 (en) Signaling change in output layer sets
KR100984693B1 (ko) 규모가변적 비디오 코딩의 픽처 경계 기호
RU2697741C2 (ru) Система и способ предоставления указаний о выводе кадров при видеокодировании
EP2005761B1 (en) Reference picture marking in scalable video encoding and decoding
US8855199B2 (en) Method and device for video coding and decoding
RU2414092C2 (ru) Адаптация отбрасываемого низкого уровня при масштабируемом кодировании видеосигнала
RU2437245C2 (ru) Сигнализация о множестве значений времени декодирования в медиафайлах
US20070230567A1 (en) Slice groups and data partitioning in scalable video coding
KR20100030648A (ko) 시간 레이어 스위칭 포인트들을 표시하는 시스템 및 방법
WO2008084443A1 (en) System and method for implementing improved decoded picture buffer management for scalable video coding and multiview video coding
AU2011202791B2 (en) System and method for efficient scalable stream adaptation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee