KR101935977B1 - 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치 - Google Patents

화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치 Download PDF

Info

Publication number
KR101935977B1
KR101935977B1 KR1020137028063A KR20137028063A KR101935977B1 KR 101935977 B1 KR101935977 B1 KR 101935977B1 KR 1020137028063 A KR1020137028063 A KR 1020137028063A KR 20137028063 A KR20137028063 A KR 20137028063A KR 101935977 B1 KR101935977 B1 KR 101935977B1
Authority
KR
South Korea
Prior art keywords
reference picture
block
picture
term reference
motion vector
Prior art date
Application number
KR1020137028063A
Other languages
English (en)
Other versions
KR20140092760A (ko
Inventor
빅토르 와하다니아
총순 림
슈 몬 텟 나잉
하이 웨이 선
다카히로 니시
히사오 사사이
요우지 시바하라
교코 다니카와
도시야스 스기오
겐고 데라다
도루 마츠노부
Original Assignee
선 페이턴트 트러스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 선 페이턴트 트러스트 filed Critical 선 페이턴트 트러스트
Publication of KR20140092760A publication Critical patent/KR20140092760A/ko
Application granted granted Critical
Publication of KR101935977B1 publication Critical patent/KR101935977B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/58Motion compensation with long-term prediction, i.e. the reference frame for a current frame not being the temporally closest one

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

화상 부호화 방법은, co-located 움직임 벡터로부터 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계(S1301)와, 후보를 리스트에 추가하는 추가 단계(S1302)와, 리스트로부터 현재 블록의 움직임 벡터를 선택하는 선택 단계(S1303)와, 현재 블록을 부호화하는 부호화 단계(S1304)를 포함하고, 도출 단계(S1301)에서는, 현재 참조 픽쳐 및 co-located 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 제1 도출 방식에 의해 후보를 도출하며, 현재 참조 픽쳐 및 co-located 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 제2 도출 방식에 의해 후보를 도출한다.

Description

화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치{IMAGE ENCODING METHOD, IMAGE DECODING METHOD, IMAGE ENCODING DEVICE, AND IMAGE DECODING DEVICE}
본 발명은, 복수의 픽쳐에 있어서의 복수의 블록의 각각을 부호화하는 화상 부호화 방법에 관한 것이다.
복수의 픽쳐에 있어서의 복수의 블록의 각각을 부호화하는 화상 부호화 방법에 관한 기술로서, 비특허 문헌 1에 기재된 기술이 있다.
ISO/IEC 14496-10 「MPEG-4 Part 10 Advanced Video Coding」
그러나, 종래의 화상 부호화 방법에서는, 충분히 높은 부호화 효율이 얻어지지 않는 경우가 있다.
그래서, 본 발명은, 화상의 부호화에 있어서, 부호화 효율을 향상시킬 수 있는 화상 부호화 방법을 제공한다.
본 발명의 일 양태에 따른 화상 부호화 방법은, 복수의 픽쳐에 있어서의 복수의 블록의 각각을 부호화하는 화상 부호화 방법으로서, 부호화 대상인 현재 블록을 포함하는 픽쳐와는 다른 픽쳐에 포함되는 블록인 co-located 블록의 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와, 도출된 상기 후보를 리스트에 추가하는 추가 단계와, 상기 후보가 추가된 상기 리스트로부터, 상기 현재 블록의 움직임 벡터를 선택하는 선택 단계와, 선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 부호화하는 부호화 단계를 포함하고, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않는 제1 도출 방식에 의해, 상기 후보를 도출하고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하는 제2 도출 방식에 의해, 상기 후보를 도출한다.
또한, 이들의 포괄적 또는 구체적인 양태는, 시스템, 장치, 집적 회로, 컴퓨터 프로그램 또는 컴퓨터 판독 가능한 CD-ROM 등의 비일시적인 기록 매체로 실현되어도 되고, 시스템, 장치, 방법, 집적 회로, 컴퓨터 프로그램 및 기록 매체의 임의로 조합으로 실현되어도 된다.
본 발명의,화상 부호화 방법은, 화상의 부호화에 있어서, 부호화 효율을 향상시킬 수 있다.
도 1은, 참고예에 따른 화상 부호화 장치의 동작을 나타내는 플로차트이다.
도 2는, 참고예에 따른 화상 복호 장치의 동작을 나타내는 플로차트이다.
도 3은, 참고예에 따른 도출 처리의 상세를 나타내는 플로차트이다.
도 4는, 참고예에 따른 co-located 블록을 설명하기 위한 도이다.
도 5는, 실시 형태 1에 따른 화상 부호화 장치의 블럭도이다.
도 6은, 실시 형태 1에 따른 화상 복호 장치의 블럭도이다.
도 7은, 실시 형태 1에 따른 화상 부호화 장치의 동작을 나타내는 플로차트이다.
도 8은, 실시 형태 1에 따른 화상 복호 장치의 동작을 나타내는 플로차트이다.
도 9는, 실시 형태 1에 따른 도출 처리의 상세를 나타내는 플로차트이다.
도 10은, 실시 형태 2에 따른 도출 처리의 상세를 나타내는 플로차트이다.
도 11은, 실시 형태 2에 따른 co-located 블록을 설명하기 위한 도이다.
도 12는, 실시 형태 3에 따른 도출 처리의 상세를 나타내는 플로차트이다.
도 13A는, 실시 형태 4에 따른 화상 부호화 장치의 블럭도이다.
도 13B는, 실시 형태 4에 따른 화상 부호화 장치의 동작을 나타내는 플로차트이다.
도 14A는, 실시 형태 4에 따른 화상 복호 장치의 블럭도이다.
도 14B는, 실시 형태 4에 따른 화상 복호 장치의 동작을 나타내는 플로차트이다.
도 15A는, 참조 픽쳐의 분류를 나타내는 파라미터의 기억 위치의 제1 예를 도시하는 도이다.
도 15B는, 참조 픽쳐의 분류를 나타내는 파라미터의 기억 위치의 제2 예를 도시하는 도이다.
도 15C는, 참조 픽쳐의 분류를 나타내는 파라미터의 기억 위치의 제3 예를 도시하는 도이다.
도 16은, 예측 모드를 나타내는 파라미터의 기억 위치의 예를 도시하는 도이다.
도 17은, 컨텐츠 전송 서비스를 실현하는 컨텐츠 공급 시스템의 전체 구성도이다.
도 18은, 디지털 방송용 시스템의 전체 구성도이다.
도 19는, 텔레비전의 구성예를 도시하는 블럭도이다.
도 20은, 광디스크인 기록 미디어에 정보의 읽고 쓰기를 행하는 정보 재생/기록부의 구성예를 도시하는 블럭도이다.
도 21은, 광디스크인 기록 미디어의 구조예를 도시하는 도이다.
도 22A는, 휴대 전화의 일례를 도시하는 도이다.
도 22B는, 휴대 전화의 구성예를 도시하는 블럭도이다.
도 23는, 다중화 데이터의 구성을 도시하는 도이다.
도 24는, 각 스트림이 다중화 데이터에 있어서 어떻게 다중화되어 있는지를 모식적으로 도시하는 도이다.
도 25는, PES 패킷열에, 비디오 스트림이 어떻게 기억되는지를 더 상세하게 도시한 도이다.
도 26은, 다중화 데이터에 있어서의 TS패킷과 소스 패킷의 구조를 도시하는 도이다.
도 27은, PMT의 데이터 구성을 도시하는 도이다.
도 28은, 다중화 데이터 정보의 내부 구성을 도시하는 도이다.
도 29는, 스트림 속성 정보의 내부 구성을 도시하는 도이다.
도 30은, 영상 데이터를 식별하는 단계를 도시하는 도이다.
도 31은, 각 실시 형태의 동화상 부호화 방법 및 동화상 복호화 방법을 실현하는 집적 회로의 구성예를 도시하는 블럭도이다.
도 32는, 구동 주파수를 전환하는 구성을 도시하는 도이다.
도 33은, 영상 데이터를 식별하여, 구동 주파수를 전환하는 단계를 도시하는 도이다.
도 34는, 영상 데이터의 규격과 구동 주파수를 대응시킨 룩업테이블의 일례를 도시하는 도이다.
도 35A는, 신호 처리부의 모듈을 공유화하는 구성의 일례를 도시하는 도이다.
도 35B는, 신호 처리부의 모듈을 공유화하는 구성의 다른 일례를 도시하는 도이다.
(본 발명의 기초가 된 지견)
본 발명자는, 「배경 기술」의 란에 있어서 기재한 화상 부호화 방법에 관하여, 이하의 문제가 발생하는 것을 찾아냈다. 또한, 이하에 있어서, 화상은, 복수의 픽쳐로 구성되는 동화상, 하나의 픽쳐로 구성되는 정지 화상, 및, 픽쳐의 일부 등의 어느 것이어도 된다.
근년의 화상 부호화 방식으로서, MPEG-4 AVC/H.264 및 HEVC(High Efficiency Video Coding)가 있다. 이러한 화상 부호화 방식에서는, 부호화 완료된 참조 픽쳐를 이용하는 인터 예측이 이용 가능하다.
또, 이러한 화상 부호화 방식에서는, 롱 텀 참조 픽쳐라고 불리는 참조 픽쳐가 이용되는 경우가 있다. 예를 들어, 참조 픽쳐를 DPB(Decoded Picture Buffer:복호 픽쳐 버퍼)에 길게 유지하는 경우, 참조 픽쳐는 롱 텀 참조 픽쳐로서 이용되어도 된다.
또, HEVC에서는, 머지 모드라고 불리는 모드가 있다. 머지 모드에서는, 인접 블록의 움직임 벡터 등으로부터 현재 블록의 움직임 벡터를 예측함으로써 얻어지는 예측 움직임 벡터가, 현재 블록의 움직임 벡터로서 현재 블록의 부호화에 이용된다. 즉, 머지 모드에서는, 예측 움직임 벡터가 현재 블록의 움직임 벡터로서 다루어진다. 머지 모드에 있어서, 예측 움직임 벡터, 및, 현재 블록의 움직임 벡터는, 머지 벡터라고 불리는 경우가 있다.
또한, HEVC에서는, 시간 예측 움직임 벡터가 이용 가능하다. 시간 예측 움직임 벡터는, 부호화 완료된 co-located 픽쳐 내의 co-located 블록의 움직임 벡터로부터 도출된다. co-located 픽쳐에 있어서의 co-located 블록의 좌표는, 부호화 대상의 현재 픽쳐에 있어서의 현재 블록의 좌표에 대응한다.
여기에서는, co-located 블록의 움직임 벡터를 co-located 움직임 벡터라고 부르는 경우가 있다. 또, co-located 블록의 참조 픽쳐를 co-located 참조 픽쳐라고 부르는 경우가 있다. co-located 블록은, co-located 움직임 벡터 및 co-located 참조 픽쳐를 이용하여 부호화된다. 또한, co-located는 collocated 또는 코로케이티드라고 기재되는 경우가 있다.
마찬가지로, 현재 블록의 움직임 벡터를 현재 움직임 벡터라고 부르는 경우가 있다. 또, 현재 블록의 참조 픽쳐를 현재 참조 픽쳐라고 부르는 경우가 있다. 현재 블록은, 현재 움직임 벡터 및 현재 참조 픽쳐를 이용하여 부호화된다.
상기의 현재 블록 및 co-located 블록은, 각각, 예측 유닛(PU:Prediction Unit)이다. 예측 유닛은, 화상의 블록이며, 예측의 데이터 단위로서 정의된다. HEVC에서는, 부호화의 데이터 단위로서 부호화 유닛(CU:Coding Unit)이, 예측 유닛과는 별도로 정의된다. 예측 유닛은, 부호화 유닛 내의 블록이다. 이하에 기재된 블록은, 예측 유닛 또는 부호화 유닛으로 바꾸어도 된다.
부호화 유닛 및 예측 유닛의 사이즈는, 일정하지 않다. 예를 들어, 하나의 픽쳐가 다양한 사이즈의 복수의 부호화 유닛을 포함하는 경우가 있고, 또, 하나의 픽쳐가 다양한 사이즈의 복수의 예측 유닛을 포함하는 경우가 있다.
그로 인해, 현재 블록의 영역에 정확하게 일치하는 블록이 co-located 픽쳐에 있어서 정의되지 않는 경우도 있다. 따라서, HEVC에서는, co-located 블록은, co-located 픽쳐에 포함되는 복수의 블록으로부터, 미리 정해진 선택 방법에 의해 선택된다.
시간 예측 움직임 벡터는, 선택된 co-located 블록의 움직임 벡터를 POC(픽쳐 오더 카운트) 거리에 따라 스케일링함으로써, 생성된다. POC는, 표시 순서에 있어서 픽쳐에 할당되는 서수이다. POC 거리는, 2개의 픽쳐 사이의 시간적 거리에 대응한다. POC 거리에 기초하는 스케일링은, POC 베이스의 스케일링이라고도 불린다. 다음에 표시하는 식 1은, co-located 블록의 움직임 벡터에 대해 POC 베이스의 스케일링을 행하는 연산식이다.
pmv=(tb/td)×colmv···(식 1)
여기서, colmv는, co-located 블록의 움직임 벡터이다. pmv는, co-located 블록의 움직임 벡터로부터 도출되는 시간 예측 움직임 벡터이다. tb는, 부호가 부여된 POC 거리이며, 현재 픽쳐로부터 현재 참조 픽쳐까지의 차이다. td는, 부호가 부여된 POC 거리이며, co-located 픽쳐로부터 co-located 참조 픽쳐까지의 차이다.
유효한 시간 예측 움직임 벡터가 존재하는 경우, 상기 시간 예측 움직임 벡터는 현재 움직임 벡터의 후보의 순서가 부여된 리스트에 넣어진다. 현재 움직임 벡터의 후보의 순서가 부여된 리스트로부터 현재 블록의 부호화에 이용되는 움직임 벡터가 선택된다. 그리고, 선택된 움직임 벡터는, 부호화 스트림에 있어서의 파라미터에 의해 나타난다.
도 1은, 참고예에 따른 화상 부호화 장치의 동작을 나타내는 플로차트이다. 특히, 도 1은, 인터 예측에 의해 화상을 부호화하는 처리를 나타낸다.
우선, 화상 부호화 장치는, 복수의 참조 픽쳐의 각각을 쇼트 텀 참조 픽쳐 또는 롱 텀 참조 픽쳐로 분류한다(S101). 화상 부호화 장치는, 부호화 스트림의 헤더에, 복수의 참조 픽쳐의 각각의 분류를 나타내는 정보를 기록한다(S102).
다음에, 화상 부호화 장치는, 현재 참조 픽쳐를 특정한다(S103). 다음에, 화상 부호화 장치는, 현재 움직임 벡터를 도출한다(S104). 도출 처리의 상세에 대해는, 후술한다.
다음에, 화상 부호화 장치는, 현재 참조 픽쳐 및 현재 움직임 벡터를 이용하여 움직임 보상을 행함으로써, 예측 블록을 생성한다(S105).
다음에, 화상 부호화 장치는, 현재 블록으로부터 예측 블록을 감산하고, 잔차 블록을 생성한다(S106). 마지막으로, 화상 부호화 장치는, 잔차 블록을 부호화하고, 부호화된 잔차 블록을 포함하는 부호화 스트림을 생성한다(S107).
도 2는, 참고예에 따른 화상 복호 장치의 동작을 나타내는 플로차트이다. 특히, 도 2는, 인터 예측에 의해 화상을 복호하는 처리를 나타낸다.
우선, 화상 복호 장치는, 부호화 스트림을 취득하고, 부호화 스트림의 헤더를 해석(parse)함으로써, 복수의 참조 픽쳐의 각각의 분류를 나타내는 정보를 취득한다(S201). 또, 화상 복호 장치는, 부호화 스트림을 해석함으로써, 잔차 블록을 취득한다(S202).
다음에, 화상 복호 장치는, 현재 참조 픽쳐를 특정한다(S203). 다음에, 화상 복호 장치는, 현재 움직임 벡터를 도출한다(S204). 도출 처리의 상세에 대해는, 후술한다. 다음에, 화상 복호 장치는, 현재 참조 픽쳐 및 현재 움직임 벡터를 이용하여 움직임 보상을 행함으로써, 예측 블록을 생성한다(S205). 마지막으로, 화상 복호 장치는, 잔차 블록에 예측 블록을 가산하고, 재구성 블록을 생성한다(S206).
도 3은, 도 1 및 도 2에 도시된 도출 처리의 상세를 나타내는 플로차트이다. 이하는, 화상 부호화 장치의 동작을 나타낸다. 부호화를 복호로 대체하면, 화상 복호 장치의 동작도, 화상 부호화 장치의 동작과 같다.
우선, 화상 부호화 장치는, co-located 픽쳐를 선택한다(S301). 다음에, 화상 부호화 장치는, co-located 픽쳐 내의 co-located 블록을 선택한다(S302). 그리고, 화상 부호화 장치는, co-located 참조 픽쳐 및 co-located 움직임 벡터를 특정한다(S303). 다음에, 화상 부호화 장치는, POC 베이스의 스케일링을 행하는 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S304).
도 4는, 도 3에 도시된 도출 처리에 이용되는 co-located 블록을 설명하기 위한 도이다. co-located 블록은, co-located 픽쳐 내의 복수의 블록으로부터 선택된다.
co-located 픽쳐는, 현재 블록을 포함하는 현재 픽쳐와는 상이하다. 예를 들어, co-located 픽쳐는, 표시 순서로 현재 픽쳐의 직전 또는 직후의 픽쳐이다. 보다 구체적으로는, 예를 들어, co-located 픽쳐는, B픽쳐의 부호화(양예측의 부호화)에 이용되는 2개의 참조 픽쳐 리스트 중 어느 한쪽에 있어서의 1번째의 참조 픽쳐이다.
co-located 픽쳐에 있어서 샘플 c0을 포함하는 제1 블록은, co-located 블록의 1번째의 후보이며, 프라이머리 co-located 블록이라고도 불린다. co-located 픽쳐에 있어서 샘플 c1을 포함하는 제2 블록은, co-located 블록의 2번째의 후보이며, 세컨더리 co-located 블록이라고도 불린다.
현재 블록의 좌상측의 샘플 tl의 좌표가 (x, y)이고, 현재 블록의 폭이 w이며, 현재 블록의 높이가 h인 경우, 샘플 c0의 좌표는 (x+w, y+h)이다. 또, 이 경우, 샘플 c1의 좌표는 (x+(w/2)-1, y+(h/2)-1)이다.
제1 블록이 이용 가능하지 않은 경우, 제2 블록이 co-located 블록으로서 선택된다. 제1 블록이 이용 가능하지 않은 경우로서, 현재 블록이 픽쳐의 우측 또는 하측의 단이기 때문에, 제1 블록이 존재하지 않는 경우, 혹은, 제1 블록이 인트라 예측으로 부호화된 경우 등이 있다.
이하, 다시, 도 3을 참조하여, 시간 예측 움직임 벡터를 현재 움직임 벡터로서 도출하는 처리의 보다 구체적인 예를 설명한다.
우선, 화상 부호화 장치는, co-located 픽쳐를 선택한다(S301). 다음에, 화상 부호화 장치는, co-located 블록을 선택한다(S302). 도 4에 도시된 샘플 c0을 포함하는 제1 블록이 이용 가능한 경우, 제1 블록이 co-located 블록으로서 선택된다. 제1 블록이 이용 가능하지 않고, 또한, 도 4에 도시된 샘플 c1을 포함하는 제2 블록이 이용 가능한 경우, 제2 블록이 co-located 블록으로서 선택된다.
이용 가능한 co-located 블록이 선택된 경우, 화상 부호화 장치는, 시간 예측 움직임 벡터를 이용 가능으로서 설정한다. 이용 가능한 co-located 블록이 선택되지 않은 경우, 화상 부호화 장치는, 시간 예측 움직임 벡터를 이용 불가로서 설정한다.
시간 예측 움직임 벡터가 이용 가능으로서 설정된 경우, 화상 부호화 장치는, co-located 움직임 벡터를 기준 움직임 벡터로서 특정한다. 또, 화상 부호화 장치는, co-located 참조 픽쳐를 특정한다(S303). 그리고, 화상 부호화 장치는, 기준 움직임 벡터로부터, 식 1의 스케일링에 의해, 시간 예측 움직임 벡터를 도출한다(S304).
이상의 처리에 의해, 화상 부호화 장치 및 화상 복호 장치는, 시간 예측 움직임 벡터를 현재 움직임 벡터로서 도출한다.
그러나, 현재 픽쳐, 현재 참조 픽쳐, co-located 픽쳐 및 co-located 참조 픽쳐의 관계에 의해, 적절한 현재 움직임 벡터를 도출하는 것이 어려운 경우가 있다.
예를 들어, 현재 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 현재 참조 픽쳐로부터 현재 픽쳐까지의 시간적 거리가 길 가능성이 있다. 또, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, co-located 참조 픽쳐로부터 co-located 픽쳐까지의 시간적 거리가 길 가능성이 있다.
이러한 경우, POC 베이스의 스케일링에 의해, 극단적으로 크거나 또는 작은 현재 움직임 벡터가 생성될 가능성이 있다. 이에 의해, 예측 정밀도가 열화하고, 부호화 효율이 열화한다. 특히, 고정의 비트수에서는, 극단적으로 크거나 또는 작은 현재 움직임 벡터가 적절히 표현되지 않고, 예측 정밀도의 열화, 및, 부호화 효율의 열화가 현저하게 발생한다.
이러한 문제를 해결하기 위해, 본 발명의 일 양태에 따른 화상 부호화 방법은, 복수의 픽쳐에 있어서의 복수의 블록의 각각을 부호화하는 화상 부호화 방법으로서, 부호화 대상인 현재 블록을 포함하는 픽쳐와는 다른 픽쳐에 포함되는 블록인 co-located 블록의 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와, 도출된 상기 후보를 리스트에 추가하는 추가 단계와, 상기 후보가 추가된 상기 리스트로부터, 상기 현재 블록의 움직임 벡터를 선택하는 선택 단계와, 선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 부호화하는 부호화 단계를 포함하고, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않는 제1 도출 방식에 의해, 상기 후보를 도출하고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하는 제2 도출 방식에 의해, 상기 후보를 도출한다.
이에 의해, 현재 움직임 벡터의 후보가, 극단적으로 커지거나, 극단적으로 작아지지 않고, 적절히 도출된다. 따라서, 예측 정밀도의 향상이 가능해지고, 부호화 효율의 향상이 가능해진다.
예를 들어, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터 상기 후보를 도출하지 않고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 또는, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터 상기 후보를 도출해도 된다.
이에 의해, 예측 정밀도가 낮다고 예상되는 경우, 현재 움직임 벡터의 후보는, co-located 블록의 움직임 벡터로부터, 도출되지 않는다. 따라서, 예측 정밀도의 열화가 억제된다.
또, 예를 들어, 상기 부호화 단계에서는, 또한, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보, 및, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 부호화해도 된다.
이에 의해, 각 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보가 부호화측으로부터 복호측으로 통지된다. 따라서, 부호화측과 복호측에서, 같은 판정 결과가 얻어지고, 같은 처리가 행해진다.
또, 예를 들어, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐로부터 상기 현재 블록을 포함하는 픽쳐까지의 시간적 거리를 이용하여, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하고, 상기 co-located 블록의 참조 픽쳐로부터 상기 co-located 블록을 포함하는 픽쳐까지의 시간적 거리를 이용하여, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
이에 의해, 각 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지가, 시간적 거리에 기초하여, 간결하고 또한 적절히 판정된다.
또, 예를 들어, 상기 도출 단계에서는, 상기 co-located 블록의 부호화가 행해지는 기간에, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
이에 의해, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지가, 보다 정확하게 판정된다.
또, 예를 들어, 상기 도출 단계에서는, 상기 현재 블록의 부호화가 행해지는 기간에, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
이에 의해, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지의 정보가, 장기간에 걸쳐서 유지되지 않아도 된다.
또, 예를 들어, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터를 상기 후보로서 도출하고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 참조 픽쳐로부터 상기 co-located 블록을 포함하는 픽쳐까지의 시간적 거리에 대한, 상기 현재 블록의 참조 픽쳐로부터 상기 현재 블록을 포함하는 픽쳐까지의 시간적 거리의 비율을 이용하여, 상기 co-located 블록의 움직임 벡터의 스케일링을 행함으로써, 상기 후보를 도출해도 된다.
이에 의해, 2개의 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 스케일링이 생략되어, 연산량이 저감한다. 그리고, 2개의 참조 픽쳐가 쇼트 텀 참조 픽쳐인 경우, 현재 움직임 벡터의 후보가, 시간적 거리에 기초하여, 적절히 도출된다.
또, 예를 들어, 상기 도출 단계에서는, 또한, 상기 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐라고 판정되고, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록으로부터 상기 후보를 도출하지 않고, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 다른 co-located 블록을 선택하며, 상기 다른 co-located 블록의 움직임 벡터로부터 상기 제2 도출 방식에 의해 상기 후보를 도출해도 된다.
이에 의해, 예측 정밀도가 높은 후보를 도출하기 위한 블록이 선택된다. 따라서, 예측 정밀도가 향상한다.
또, 본 발명의 일 양태에 따른 화상 복호 방법은, 복수의 픽쳐에 있어서의 복수의 블록의 각각을 복호하는 화상 복호 방법으로서, 복호 대상인 현재 블록을 포함하는 픽쳐와는 다른 픽쳐에 포함되는 블록인 co-located 블록의 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와, 도출된 상기 후보를 리스트에 추가하는 추가 단계와, 상기 후보가 추가된 상기 리스트로부터, 상기 현재 블록의 움직임 벡터를 선택하는 선택 단계와, 선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 복호하는 복호 단계를 포함하고, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않는 제1 도출 방식에 의해, 상기 후보를 도출하고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하는 제2 도출 방식에 의해, 상기 후보를 도출하는 화상 복호 방법이어도 된다.
이에 의해, 현재 움직임 벡터의 후보가, 극단적으로 커지거나, 극단적으로 작아지지 않고, 적절히 도출된다. 따라서, 예측 정밀도의 향상이 가능해지고, 부호화 효율의 향상이 가능해진다.
예를 들어, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터 상기 후보를 도출하지 않고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 또는, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터 상기 후보를 도출해도 된다.
이에 의해, 예측 정밀도가 낮다고 예상되는 경우, 현재 움직임 벡터의 후보는, co-located 블록의 움직임 벡터로부터, 도출되지 않는다. 따라서, 예측 정밀도의 열화가 억제된다.
또, 예를 들어, 상기 복호 단계에서는, 또한, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보, 및, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 복호하고, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 이용하여, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 이용하여, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
이에 의해, 각 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보가 부호화측으로부터 복호측으로 통지된다. 따라서, 부호화측과 복호측에서, 같은 판정 결과가 얻어지고, 같은 처리가 행해진다.
또, 예를 들어, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐로부터 상기 현재 블록을 포함하는 픽쳐까지의 시간적 거리를 이용하여, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하고, 상기 co-located 블록의 참조 픽쳐로부터 상기 co-located 블록을 포함하는 픽쳐까지의 시간적 거리를 이용하여, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
이에 의해, 각 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지가, 시간적 거리에 기초하여, 간결하고 적절히 판정된다.
또, 예를 들어, 상기 도출 단계에서는, 상기 co-located 블록의 복호가 행해지는 기간에, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
이에 의해, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지가, 보다 정확하게 판정된다.
또, 예를 들어, 상기 도출 단계에서는, 상기 현재 블록의 복호가 행해지는 기간에, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
이에 의해, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지의 정보가 장기간 유지되지 않아도 된다.
또, 예를 들어, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터를 상기 후보로서 도출하고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 참조 픽쳐로부터 상기 co-located 블록을 포함하는 픽쳐까지의 시간적 거리에 대한, 상기 현재 블록의 참조 픽쳐로부터 상기 현재 블록을 포함하는 픽쳐까지의 시간적 거리의 비율을 이용하여, 상기 co-located 블록의 움직임 벡터의 스케일링을 행함으로써, 상기 후보를 도출해도 된다.
이에 의해, 2개의 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 스케일링이 생략되어, 연산량이 저감한다. 그리고, 2개의 참조 픽쳐가 쇼트 텀 참조 픽쳐인 경우, 현재 움직임 벡터의 후보가, 시간적 거리에 기초하여, 적절히 도출된다.
또, 예를 들어, 상기 도출 단계에서는, 또한, 상기 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐라고 판정되고, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록으로부터 상기 후보를 도출하지 않고, 쇼트 텀 참조 픽쳐를 참조하여 복호된 다른 co-located 블록을 선택하며, 상기 다른 co-located 블록의 움직임 벡터로부터 상기 제2 도출 방식에 의해 상기 후보를 도출해도 된다.
이에 의해, 예측 정밀도가 높은 후보를 도출하기 위한 블록이 선택된다. 따라서, 예측 정밀도가 향상한다.
또, 본 발명의 일 양태에 따른 컨텐츠 공급 방법은, 상기 화상 부호화 방법에 의해 부호화된 화상 데이터가 기록된 서버로부터, 외부의 단말로부터의 요구에 따라, 상기 화상 데이터를 송신한다.
또한, 이들의 포괄적 또는 구체적인 양태는, 시스템, 장치, 집적 회로, 컴퓨터 프로그램 또는 컴퓨터 판독 가능한 CD-ROM 등의 비일시적인 기록 매체로 실현되어도 되고, 시스템, 장치, 방법, 집적 회로, 컴퓨터 프로그램 또는 기록 매체의 임의의 조합으로 실현되어도 된다.
이하, 실시 형태에 대해, 도면을 참조하면서 구체적으로 설명한다. 또한, 이하에서 설명하는 실시 형태는, 모두 포괄적 또는 구체적인 예를 나타내는 것이다. 이하의 실시 형태에서 나타내는 수치, 형상, 재료, 구성 요소, 구성 요소의 배치 위치 및 접속 형태, 단계, 단계의 순서 등은, 일례이며, 본 발명을 한정하는 주지는 아니다. 또, 이하의 실시 형태에 있어서의 구성 요소 중, 최상위 개념을 나타내는 독립 청구항에 기재되지 않은 구성 요소에 대해서는, 임의의 구성 요소로서 설명된다.
(실시 형태 1)
도 5는, 본 실시 형태에 따른 화상 부호화 장치의 블럭도이다. 도 5에 도시된 화상 부호화 장치(500)는, 화상을 블록마다 부호화하고, 부호화된 화상을 포함하는 부호화 스트림을 출력한다. 구체적으로는, 화상 부호화 장치(500)는, 감산부(501), 변환부(502), 양자화부(503), 엔트로피 부호화부(504), 역양자화부(505), 역변환부(506), 가산부(507), 블록 메모리(508), 픽쳐 메모리(509), 인트라 예측부(510), 인터 예측부(511) 및 선택부(512)를 구비한다.
감산부(501)는, 화상 부호화 장치(500)에 입력된 화상으로부터 예측 화상을 감산함으로써 차분 화상을 출력한다. 변환부(502)는, 감산부(501)로부터 출력된 차분 화상을 주파수 변환함으로써, 복수의 주파수 계수를 생성한다. 양자화부(503)는, 변환부(502)에서 생성된 복수의 주파수 계수를 양자화함으로써, 복수의 양자화 계수를 생성한다. 엔트로피 부호화부(504)는, 양자화부(503)에서 생성된 복수의 양자화 계수를 부호화함으로써, 부호화 스트림을 생성한다.
역양자화부(505)는, 양자화부(503)에서 생성된 복수의 양자화 계수를 역양자화함으로써, 복수의 주파수 계수를 복원한다. 역변환부(506)는, 역양자화부(505)에서 복원된 복수의 주파수 계수를 역주파수 변환함으로써, 차분 화상을 복원한다. 가산부(507)는, 역변환부(506)에서 복원된 차분 화상에 예측 화상을 가산함으로써, 화상을 복원(재구성)한다. 가산부(507)는, 복원된 화상(재구성 화상)을 블록 메모리(508) 및 픽쳐 메모리(509)에 기억한다.
블록 메모리(508)는, 가산부(507)에서 복원된 화상을 블록마다 기억하기 위한 메모리이다. 또, 픽쳐 메모리(509)는, 가산부(507)에서 복원된 화상을 픽쳐마다 기억하기 위한 메모리이다.
인트라 예측부(510)는, 블록 메모리(508)를 참조하여, 인트라 예측을 행한다. 즉, 인트라 예측부(510)는, 픽쳐 내의 화소값을 그 픽쳐 내의 다른 화소값으로부터 예측한다. 이에 의해, 인트라 예측부(510)는, 예측 화상을 생성한다. 또, 인터 예측부(511)는, 픽쳐 메모리(509)를 참조하여, 인터 예측을 행한다. 즉, 인터 예측부(511)는, 픽쳐 내의 화소값을 다른 픽쳐 내의 화소값으로부터 예측한다. 이에 의해, 인터 예측부(511)는, 예측 화상을 생성한다.
선택부(512)는, 인트라 예측부(510)에서 생성된 예측 화상, 및, 인터 예측부(511)에서 생성된 예측 화상 중 어느 한쪽을 선택하고, 선택된 예측 화상을 감산부(501) 및 가산부(507)로 출력한다.
도 5에는 도시 생략되어 있으나, 화상 부호화 장치(500)는, 디블록 필터부를 구비해도 된다. 그리고, 디블록 필터부가, 가산부(507)에서 복원된 화상에 대해 디블록 필터 처리를 행함으로써, 블록 경계 부근의 노이즈를 제거해도 된다. 또, 화상 부호화 장치(500)는, 화상 부호화 장치(500)에 있어서의 각 처리를 제어하는 제어부를 구비해도 된다.
도 6은, 본 실시 형태에 따른 화상 복호 장치의 블럭도이다. 도 6에 도시된 화상 복호 장치(600)는, 부호화 스트림을 취득하고, 화상을 블록마다 복호한다. 구체적으로는, 화상 복호 장치(600)는, 엔트로피 복호부(601), 역양자화부(602), 역변환부(603), 가산부(604), 블록 메모리(605), 픽쳐 메모리(606), 인트라 예측부(607), 인터 예측부(608) 및 선택부(609)를 구비한다.
엔트로피 복호부(601)는, 부호화 스트림에 포함되는 부호화된 복수의 양자화 계수를 복호한다. 역양자화부(602)는, 엔트로피 복호부(601)에서 복호된 복수의 양자화 계수를 역양자화함으로써, 복수의 주파수 계수를 복원한다. 역변환부(603)는, 역양자화부(602)에서 복원된 복수의 주파수 계수를 역주파수 변환함으로써, 차분 화상을 복원한다.
가산부(604)는, 역변환부(603)에서 복원된 차분 화상에 예측 화상을 가산함으로써, 화상을 복원(재구성)한다. 가산부(604)는, 복원된 화상(재구성 화상)을 출력한다. 또, 가산부(604)는, 복원된 화상을 블록 메모리(605) 및 픽쳐 메모리(606)에 기억한다.
블록 메모리(605)는, 가산부(604)에서 복원된 화상을 블록마다 기억하기 위한 메모리이다. 또, 픽쳐 메모리(606)는, 가산부(604)에서 복원된 화상을 픽쳐마다 기억하기 위한 메모리이다.
인트라 예측부(607)는, 블록 메모리(605)를 참조하여, 인트라 예측을 행한다. 즉, 인트라 예측부(607)는, 픽쳐 내의 화소값을 그 픽쳐 내의 다른 화소값으로부터 예측한다. 이에 의해, 인트라 예측부(607)는, 예측 화상을 생성한다. 또, 인터 예측부(608)는, 픽쳐 메모리(606)을 참조하여, 인터 예측을 행한다. 즉, 인터 예측부(608)는, 픽쳐 내의 화소값을 다른 픽쳐 내의 화소값으로부터 예측한다. 이에 의해, 인터 예측부(608)는, 예측 화상을 생성한다.
선택부(609)는, 인트라 예측부(607)에서 생성된 예측 화상, 및, 인터 예측부(608)에서 생성된 예측 화상 중 어느 한쪽을 선택하고, 선택된 예측 화상을 가산부(604)로 출력한다.
도 6에는 도시 생략되어 있으나, 화상 복호 장치(600)는, 디블록 필터부를 구비해도 된다. 그리고, 디블록 필터부가, 가산부(604)에서 복원된 화상에 대해 디블록 필터 처리를 행함으로써, 블록 경계 부근의 노이즈를 제거해도 된다. 또, 화상 복호 장치(600)는, 화상 복호 장치(600)에 있어서의 각 처리를 제어하는 제어부를 구비해도 된다.
상기의 부호화 처리 및 복호 처리는, 부호화 유닛마다 행해진다. 변환 처리, 양자화 처리, 역변환 처리 및 역양자화 처리는, 부호화 유닛 내의 변환 유닛(TU:Transform Unit)마다 행해진다. 예측 처리는, 부호화 유닛 내의 예측 유닛마다 행해진다.
도 7은, 도 5에 도시된 화상 부호화 장치(500)의 동작을 나타내는 플로차트이다. 특히, 도 7은, 인터 예측에 의해 화상을 부호화하는 처리를 나타낸다.
우선, 인터 예측부(511)는, 복수의 참조 픽쳐의 각각을 쇼트 텀 참조 픽쳐 또는 롱 텀 참조 픽쳐로 분류한다(S701).
롱 텀 참조 픽쳐는, 장기간의 이용에 적절한 참조 픽쳐이다. 또, 롱 텀 참조 픽쳐는, 쇼트 텀 참조 픽쳐보다 길게 이용하기 위한 참조 픽쳐로서 정의된다. 그로 인해, 롱 텀 참조 픽쳐는, 픽쳐 메모리(509)에 길게 유지될 가능성이 높다. 또, 롱 텀 참조 픽쳐는, 현재 픽쳐에 의존하지 않는 절대적인 POC로 지정된다. 한편, 쇼트 텀 참조 픽쳐는, 현재 픽쳐로부터의 상대적인 POC로 지정된다.
다음에, 엔트로피 부호화부(504)는, 부호화 스트림의 헤더에, 복수의 참조 픽쳐의 각각의 분류를 나타내는 정보를 기록한다(S702). 즉, 엔트로피 부호화부(504)는, 복수의 참조 픽쳐의 각각이 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 기록한다.
다음에, 인터 예측부(511)는, 부호화 대상(예측 대상)의 현재 블록의 참조 픽쳐를 특정한다(S703). 인터 예측부(511)는, 현재 블록에 인접하는 블록의 참조 픽쳐를 현재 참조 픽쳐로서 특정해도 된다. 혹은, 인터 예측부(511)는, 미리 정해진 참조 인덱스에서, 현재 참조 픽쳐를 특정해도 된다. 다음에, 인터 예측부(511)는, 현재 움직임 벡터를 도출한다(S704). 도출 처리의 상세에 대해서는, 후술한다.
다음에, 인터 예측부(511)는, 현재 참조 픽쳐 및 현재 움직임 벡터를 이용하여 움직임 보상을 행함으로써, 예측 블록을 생성한다(S705). 다음에, 감산부(501)는, 현재 블록(원화상)으로부터 예측 블록을 감산하고, 잔차 블록을 생성한다(S706). 마지막으로, 엔트로피 부호화부(504)는, 잔차 블록을 부호화하고, 잔차 블록을 포함하는 부호화 스트림을 생성한다(S707).
도 8은, 도 6에 도시된 화상 복호 장치(600)의 동작을 나타내는 플로차트이다. 특히, 도 8은, 인터 예측에 의해 화상을 복호하는 처리를 나타낸다.
우선, 엔트로피 복호부(601)는, 부호화 스트림을 취득하고, 부호화 스트림의 헤더를 해석(parse)함으로써, 복수의 참조 픽쳐의 각각의 분류를 나타내는 정보를 취득한다(S801). 즉, 엔트로피 복호부(601)는, 복수의 참조 픽쳐의 각각이 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 취득한다. 또, 엔트로피 복호부(601)는, 부호화 스트림을 해석함으로써, 잔차 블록을 취득한다(S802).
다음에, 인터 예측부(608)는, 현재 참조 픽쳐를 특정한다(S803). 인터 예측부(608)는, 현재 블록에 인접하는 블록의 참조 픽쳐를 현재 참조 픽쳐로서 특정해도 된다. 혹은, 인터 예측부(608)는, 미리 정해진 참조 인덱스로, 현재 참조 픽쳐를 특정해도 된다.
다음에, 인터 예측부(608)는, 현재 움직임 벡터를 도출한다(S804). 도출 처리의 상세에 대해서는, 후술한다. 다음에, 인터 예측부(608)는, 현재 참조 픽쳐 및 현재 움직임 벡터를 이용하여 움직임 보상을 행함으로써, 예측 블록을 생성한다(S805). 마지막으로, 가산부(604)는, 잔차 블록에 예측 블록을 가산하고, 재구성 블록을 생성한다(S806).
도 9는, 도 7 및 도 8에 도시된 도출 처리의 상세를 나타내는 플로차트이다. 이하는, 주로, 도 5의 인터 예측부(511)의 동작을 나타낸다. 부호화를 복호로 대체하면, 도 6의 인터 예측부(608)의 동작도, 도 5의 인터 예측부(511)의 동작과 같다.
우선, 인터 예측부(511)는, 이용 가능한 복수의 참조 픽쳐로부터, co-located 픽쳐를 선택한다(S901). 이용 가능한 복수의 참조 픽쳐는, 부호화 완료된 픽쳐이며, 픽쳐 메모리(509)에 유지되어 있는 픽쳐이다.
다음에, 인터 예측부(511)는, co-located 픽쳐 내의 co-located 블록을 선택한다(S902). 그리고, 인터 예측부(511)는, co-located 참조 픽쳐 및 co-located 움직임 벡터를 특정한다(S903).
다음에, 인터 예측부(511)는, 현재 참조 픽쳐 및 co-located 참조 픽쳐 중 한쪽이 롱 텀 참조 픽쳐인지의 여부를 판정한다(S904). 그리고, 현재 참조 픽쳐 및 co-located 참조 픽쳐 중 한쪽이 롱 텀 참조 픽쳐라고 판정된 경우(S904에서 Yes), 인터 예측부(511)는, 제1 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S905).
제1 도출 방식은, co-located 움직임 벡터를 이용하는 방식이다. 보다 구체적으로는, 제1 도출 방식은, POC 베이스의 스케일링 없이, 직접, co-located 움직임 벡터를 현재 움직임 벡터로서 도출하는 방식이다. 제1 도출 방식은, 미리 정해진 일정한 비율로 co-located 움직임 벡터를 스케일링 함으로써, 현재 움직임 벡터를 도출하는 방식이어도 된다.
현재 참조 픽쳐 및 co-located 참조 픽쳐의 모두가 롱 텀 참조 픽쳐가 아니라고 판정된 경우(S904에서 No), 인터 예측부(511)는, 제2 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S906). 즉, 현재 참조 픽쳐 및 co-located 참조 픽쳐의 양쪽 모두가 쇼트 텀 참조 픽쳐라고 판정된 경우, 인터 예측부(511)는, 제2 도출 방식에 따라, 현재 움직임 벡터를 도출한다.
제2 도출 방식은, 현재 참조 픽쳐와, co-located 참조 픽쳐와, co-located 움직임 벡터를 이용하는 방식이다. 보다 구체적으로는, 제2 도출 방식은, co-located 움직임 벡터에 대해 POC 베이스의 스케일링(식 1)을 행함으로써, 현재 움직임 벡터를 도출하는 방식이다.
이하, 다시, 도 9를 참조하여, 현재 움직임 벡터를 도출하는 처리의 보다 구체적인 예를 설명한다. 앞서 설명된 도출 처리는, 이하와 같이 변경되어도 된다.
우선, 인터 예측부(511)는, co-located 픽쳐를 선택한다(S901). 보다 구체적으로는, 슬라이스 헤더 파라미터 slice_type이 B이며, 또한, 슬라이스 헤더 파라미터 collocated_from_I0_flag가 0인 경우, 픽쳐 RefPicList1[0]이 co-located 픽쳐로서 선택된다. 픽쳐 RefPicList1[0]은, 순서가 부여된 참조 픽쳐 리스트 RefPicList1에 있어서의 1번째의 참조 픽쳐이다.
슬라이스 헤더 파라미터 slice_type이 B가 아닌 경우, 또는, 슬라이스 헤더 파라미터 collocated_from_I0_flag가 0이 아닌 경우, 픽쳐 RefPicList0[0]이 co-located 픽쳐로서 선택된다. 픽쳐 RefPicList0[0]은, 순서가 부여된 참조 픽쳐 리스트 RefPicList0에 있어서의 1번째의 참조 픽쳐이다.
다음에, 인터 예측부(511)는, co-located 블록을 선택한다(S902). 도 4에 도시된 샘플 c0을 포함하는 제1 블록이 이용 가능한 경우, 제1 블록이 co-located 블록으로서 선택된다. 제1 블록이 이용 가능하지 않고, 또한, 도 4에 도시된 샘플 c1을 포함하는 제2 블록이 이용 가능한 경우, 제2 블록이 co-located 블록으로서 선택된다.
이용 가능한 co-located 블록이 선택된 경우, 인터 예측부(511)는, 시간 예측 움직임 벡터를 이용 가능으로서 설정한다. 이용 가능한 co-located 블록이 선택되지 않은 경우, 인터 예측부(511)는, 시간 예측 움직임 벡터를 이용 불가로서 설정한다.
시간 예측 움직임 벡터가 이용 가능으로서 설정된 경우, 인터 예측부(511)는, co-located 움직임 벡터를 기준 움직임 벡터로서 특정한다. 또, 인터 예측부(511)는, co-located 참조 픽쳐를 특정한다(S903). co-located 블록이 복수의 움직임 벡터를 가지는 경우, 즉, co-located 블록이 복수의 움직임 벡터를 이용하여 부호화된 경우, 인터 예측부(511)는, 소정의 우선 순위에 따라, 기준 움직임 벡터를 선택한다.
예를 들어, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐인 경우, 인터 예측부(511)는, 복수의 움직임 벡터 중, 쇼트 텀 참조 픽쳐 내의 위치를 지시하는 움직임 벡터를 우선하여 기준 움직임 벡터로서 선택해도 된다.
즉, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐 내의 위치를 지시하는 움직임 벡터가 존재하는 경우, 그 움직임 벡터를 기준 움직임 벡터로서 선택한다. 그리고, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐 내의 위치를 지시하는 움직임 벡터가 존재하지 않는 경우, 롱 텀 참조 픽쳐 내의 위치를 지시하는 움직임 벡터를 기준 움직임 벡터로서 선택한다.
그 후, 현재 참조 픽쳐 및 co-located 참조 픽쳐 중 한쪽이 롱 텀 참조 픽쳐인 경우(S904에서 Yes), 인터 예측부(511)는, 기준 움직임 벡터를 시간 예측 움직임 벡터로서 도출한다(S905).
한편, 2개의 참조 픽쳐의 모두가 롱 텀 참조 픽쳐가 아닌 경우(S904에서 No), 인터 예측부(511)는, 기준 움직임 벡터로부터 POC 베이스의 스케일링에 의해 시간 예측 움직임 벡터를 도출한다(S906).
상기와 같이, 시간 예측 움직임 벡터는, 이용 가능 또는 이용 불가로서 설정된다. 인터 예측부(511)는, 이용 가능으로서 설정된 시간 예측 움직임 벡터를 현재 움직임 벡터의 후보의 순서가 부여된 리스트에 넣는다. 순서가 부여된 리스트는, 시간 예측 움직임 벡터에 한정하지 않고, 다양한 움직임 벡터를 후보로서 유지한다.
인터 예측부(511)는, 순서가 부여된 리스트로부터 하나를 현재 움직임 벡터로서 선택한다. 그때, 인터 예측부(511)는, 순서가 부여된 리스트로부터, 현재 블록의 예측 정밀도가 가장 높은 움직임 벡터, 혹은, 현재 블록을 가장 높은 부호화 효율로 부호화하는 것이 가능한 움직임 벡터를 선택한다. 선택된 움직임 벡터에 대응하는 인덱스는, 부호화 스트림에 기록된다.
이상의 처리에 의해, 현재 움직임 벡터가, 극단적으로 커지거나, 극단적으로 작아지지 않고, 적절히 도출된다. 따라서, 예측 정밀도가 향상하고, 부호화 효율이 향상한다.
또한, 각 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지는, 시간에 의해 변경되어도 된다. 예를 들어, 쇼트 텀 참조 픽쳐가, 후에, 롱 텀 참조 픽쳐로 변경되어도 된다. 반대로, 롱 텀 참조 픽쳐가, 후에, 쇼트 텀 참조 픽쳐로 변경되어도 된다.
또, 인터 예측부(511)는, co-located 블록의 부호화가 행해지는 기간에, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다. 그리고, 화상 부호화 장치(500)는, co-located 블록의 부호화가 행해지고 나서부터 현재 블록의 부호화가 행해질 때까지, 판정 결과를 유지하기 위한 추가의 메모리를 가져도 된다.
이 경우, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지가, 보다 정확하게 판정된다.
혹은, 인터 예측부(511)는, 현재 블록의 부호화가 행해지는 기간에, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
이 경우, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지의 정보가, 장기간에 걸쳐서 유지되지 않아도 된다.
또, 인터 예측부(511)는, 현재 참조 픽쳐로부터 현재 픽쳐까지의 시간적 거리를 이용하여, 현재 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
예를 들어, 현재 참조 픽쳐로부터 현재 픽쳐까지의 시간적 거리가 소정의 임계치보다 큰 경우, 인터 예측부(511)는, 현재 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정한다. 그리고, 시간적 거리가 소정의 임계치 이하인 경우, 인터 예측부(511)는, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐라고 판정한다.
마찬가지로, 인터 예측부(511)는, co-located 참조 픽쳐로부터 co-located 픽쳐까지의 시간적 거리를 이용하여, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
예를 들어, co-located 참조 픽쳐로부터 co-located 픽쳐까지의 시간적 거리가 소정의 임계치보다 큰 경우, 인터 예측부(511)는, co-located 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정한다. 그리고, 시간적 거리가 소정의 임계치 이하인 경우, 인터 예측부(511)는, co-located 참조 픽쳐가 쇼트 텀 참조 픽쳐라고 판정한다.
그리고, 화상 복호 장치(600)의 인터 예측부(608)가, 화상 부호화 장치(500)의 인터 예측부(511)와 마찬가지로, 각 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 시간적 거리에 기초하여 판정해도 된다. 이 경우, 각 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보는 부호화되지 않아도 된다.
본 실시 형태에서 나타낸 그 외의 처리에 대해서도, 화상 복호 장치(600)의 각 구성 요소가, 화상 부호화 장치(500)에 있어서 대응하는 구성 요소와 같은 처리를 행함으로써, 높은 부호화 효율로 부호화된 화상이 적절히 복호된다.
또, 이상에서 나타낸 동작은, 다른 실시 형태에 있어서도 적용 가능하다. 본 실시 형태에 나타낸 구성 및 동작이, 다른 실시 형태에 넣어져도 되고, 다른 실시 형태에 나타낸 구성 및 동작이, 본 실시 형태에 넣어져도 된다.
(실시 형태 2)
본 실시 형태에 따른 화상 부호화 장치 및 화상 복호 장치의 구성은 실시 형태 1과 같다. 그로 인해, 도 5의 화상 부호화 장치(500)의 구성, 및, 도 6의 화상 복호 장치(600)의 구성을 이용하여, 본 실시 형태에 따른 이들의 동작을 설명한다.
또, 본 실시 형태에 따른 화상 부호화 장치(500)는, 실시 형태 1과 마찬가지로, 도 7에 도시된 동작을 행한다. 또, 본 실시 형태에 따른 화상 복호 장치(600)는, 실시 형태 1과 마찬가지로, 도 8에 도시된 동작을 행한다. 본 실시 형태에서는, 현재 움직임 벡터의 도출 처리가, 실시 형태 1과는 상이하다. 이하, 상세하게 설명한다.
도 10은, 본 실시 형태에 따른 도출 처리의 상세를 나타내는 플로차트이다. 본 실시 형태에 따른 인터 예측부(511)는, 도 9에 도시된 동작을 대신하여, 도 10에 도시된 동작을 행한다. 이하는, 주로, 도 5의 인터 예측부(511)의 동작을 나타낸다. 부호화를 복호로 대체하면, 도 6의 인터 예측부(608)의 동작도, 도 5의 인터 예측부(511)의 동작과 같다.
우선, 인터 예측부(511)는, 이용 가능한 복수의 참조 픽쳐로부터, co-located 픽쳐를 선택한다(S1001). 다음에, 인터 예측부(511)는, co-located 픽쳐 내의 co-located 블록을 선택한다(S1002). 그리고, 인터 예측부(511)는, co-located 참조 픽쳐 및 co-located 움직임 벡터를 특정한다(S1003).
다음에, 인터 예측부(511)는, 현재 참조 픽쳐가 롱 텀 참조 픽쳐인지의 여부를 판정한다(S1004). 그리고, 현재 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정된 경우(S1004에서 Yes), 인터 예측부(511)는, 실시 형태 1과 같은 제1 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S1005).
현재 참조 픽쳐가 롱 텀 참조 픽쳐가 아니라고 판정된 경우(S1004에서 No), 인터 예측부(511)는, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인지의 여부를 판정한다(S1006).
그리고, co-located 참조 픽쳐가 롱 텀 참조 픽쳐가 아니라고 판정된 경우(S1006에서 No), 인터 예측부(511)는, 실시 형태 1과 같은 제2 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S1007). 즉, 현재 참조 픽쳐 및 co-located 참조 픽쳐의 양쪽 모두가 쇼트 텀 참조 픽쳐라고 판정된 경우, 인터 예측부(511)는, 제2 도출 방식에 따라, 현재 움직임 벡터를 도출한다.
co-located 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정된 경우(S1006에서 Yes), 인터 예측부(511)는, co-located 픽쳐 내의 다른 co-located 블록을 선택한다(S1008). 도 10의 예에서는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록이 다른 co-located 블록으로서 선택된다.
그 후, 인터 예측부(511)는, 다른 co-located 블록에 대응하는 co-located 참조 픽쳐와 co-located 움직임 벡터를 특정한다(S1009). 다음에, 인터 예측부(511)는, POC 베이스의 스케일링을 이용하는 제2 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S1010).
즉, 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 인터 예측부(511)는, 그 co-located 블록의 움직임 벡터로부터 현재 움직임 벡터를 도출하지 않는다. 이 경우, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 다른 co-located 블록을 선택하고, 선택된 다른 co-located 블록의 움직임 벡터로부터 현재 움직임 벡터를 도출한다.
예를 들어, 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 탐색한다. 그리고, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 다른 co-located 블록으로서 선택한다.
다른 예로서, 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 처음에, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 탐색한다.
그리고, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록이 존재하는 경우, 인터 예측부(511)는, 그 블록을 다른 co-located 블록으로서 선택한다. 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록이 존재하지 않는 경우, 다음에, 인터 예측부(511)는, 롱 텀 참조 픽쳐를 참조하여 부호화된 블록을 탐색한다. 그리고, 롱 텀 참조 픽쳐를 참조하여 부호화된 블록을 다른 co-located 블록으로서 선택한다.
또, 예를 들어, 우선, 인터 예측부(511)는, 도 4의 제1 블록을 co-located 블록으로서 선택한다. 그리고, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 다음에, 인터 예측부(511)는, 도 4의 제2 블록을 co-located 블록으로서 새롭게 선택한다.
상기의 예에 있어서, 도 4의 제2 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐인 경우에만, 인터 예측부(511)는, 제2 블록을 co-located 블록으로서 선택해도 된다. 또한, co-located 블록으로서 선택되는 블록은, 도 4의 제2 블록에 한정하지 않고, 그 외의 블록이 co-located 블록으로서 선택되어도 된다.
도 11은, 본 실시 형태에 따른 co-located 블록을 설명하기 위한 도이다. 도 11에는, co-located 픽쳐 내에 샘플 c0, c1, c2 및 c3이 도시되어 있다. 도 11의 샘플 c0 및 c1는, 도 4의 샘플 c0 및 c1과 동등하다. 샘플 c1을 포함하는 제2 블록뿐만이 아니라, 샘플 c2를 포함하는 제3 블록, 또는, 샘플 c3을 포함하는 제4 블록이, 다른 co-located 블록으로서 선택되어도 된다.
샘플 c2의 좌표는 (x+w-1, y+h-1)이다. 샘플 c3의 좌표는 (x+1, y+1)이다.
인터 예측부(511)는, 제1 블록, 제2 블록, 제3 블록 및 제4 블록의 순으로, 그들이 이용 가능한지의 여부를 판정한다. 그리고, 인터 예측부(511)는, 이용 가능한 블록을 최종적인 co-located 블록으로서 결정한다. 블록이 이용 가능하지 않은 예로서, 블록이 존재하지 않는 경우, 혹은, 블록이 인트라 예측으로 부호화된 경우 등이 있다.
인터 예측부(511)는, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐인 경우, 롱 텀 참조 픽쳐를 참조하여 부호화된 블록을 이용 가능하지 않다고 판정해도 된다.
상기에서는, co-located 블록의 선택 방법의 예가 설명되어 있으나, co-located 블록의 선택 방법은, 상기에서 설명된 예에 한정되지 않는다. 샘플 c0, c1, c2 또는 c3 이외의 샘플을 포함하는 블록이, co-located 블록으로서 선택되어도 된다. 또, 그들의 우선 순위는, 본 실시 형태에서 나타낸 예에 한정되지 않는다.
이하, 다시, 도 10을 참조하여, 현재 움직임 벡터를 도출하는 처리의 보다 구체적인 예를 설명한다. 앞서 설명된 도출 처리는, 이하와 같이 변경되어도 된다.
우선, 인터 예측부(511)는, 실시 형태 1과 마찬가지로, co-located 픽쳐를 선택한다(S1001). 그리고, 인터 예측부(511)는, 도 11에 도시된 샘플 c0을 포함하는 제1 블록을 co-located 블록으로서 선택하고, co-located 참조 픽쳐를 특정한다(S1002 및 S1003).
다음에, 인터 예측부(511)는, co-located 블록이 이용 가능한지의 여부를 판정한다. 그때, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, 또한, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 인터 예측부(511)는, co-located 블록이 이용 가능하지 않다고 판정한다(S1004 및 S1006).
co-located 블록이 이용 가능하지 않은 경우, 인터 예측부(511)는, 이용 가능한 다른 co-located 블록을 탐색하여 선택한다(S1008). 구체적으로는, 인터 예측부(511)는, 도 11의 샘플 c1을 포함하는 제2 블록, 샘플 c2를 포함하는 제3 블록, 및, 샘플 c3을 포함하는 제4 블록 중에서, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 선택한다. 그리고, 인터 예측부(511)는, co-located 블록의 참조 픽쳐를 특정한다(S1009).
이용 가능한 co-located 블록이 선택된 경우, 인터 예측부(511)는, 시간 예측 움직임 벡터를 이용 가능으로서 설정한다. 이용 가능한 co-located 블록이 선택되지 않은 경우, 인터 예측부(511)는, 시간 예측 움직임 벡터를 이용 불가로서 설정한다.
시간 예측 움직임 벡터가 이용 가능으로서 설정된 경우, 인터 예측부(511)는, co-located 움직임 벡터를 기준 움직임 벡터로서 특정한다(S1003 및 S1009). co-located 블록이 복수의 움직임 벡터를 가지는 경우, 즉, co-located 블록이 복수의 움직임 벡터를 이용하여 부호화된 경우, 인터 예측부(511)는, 실시 형태 1과 마찬가지로 소정의 우선 순위에 따라, 기준 움직임 벡터를 선택한다.
그리고, 현재 참조 픽쳐 및 co-located 참조 픽쳐 중 한쪽이 롱 텀 참조 픽쳐인 경우(S1004에서 Yes), 인터 예측부(511)는, 기준 움직임 벡터를 시간 예측 움직임 벡터로서 도출한다(S1005).
한편, 현재 참조 픽쳐 및 co-located 참조 픽쳐의 모두가 롱 텀 참조 픽쳐가 아닌 경우(S1004에서 No), 인터 예측부(511)는, 기준 움직임 벡터로부터, POC 베이스의 스케일링에 의해, 시간 예측 움직임 벡터를 도출한다(S1007 및 S1010).
시간 예측 움직임 벡터가 이용 불가로서 설정된 경우, 인터 예측부(511)는, 시간 예측 움직임 벡터를 도출하지 않는다.
실시 형태 1과 마찬가지로, 인터 예측부(511)는, 이용 가능으로서 설정된 시간 예측 움직임 벡터를 현재 움직임 벡터의 후보로서 리스트에 추가한다. 그리고, 인터 예측부(511)는, 현재 움직임 벡터를 리스트로부터 선택한다.
이상과 같이, 본 실시 형태에서는, 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, 또한, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 그 co-located 블록의 움직임 벡터로부터 현재 움직임 벡터는 도출되지 않는다.
현재 참조 픽쳐 및 co-located 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐이며, 다른쪽이 쇼트 텀 참조 픽쳐인 경우, 예측 정밀도가 높은 현재 움직임 벡터를 도출하는 것은, 매우 어렵다. 그래서, 본 실시 형태에 따른 화상 부호화 장치(500) 및 화상 복호 장치(600)는, 상기의 동작에 의해, 예측 정밀도의 열화를 억제한다.
(실시 형태 3)
본 실시 형태에 따른 화상 부호화 장치 및 화상 복호 장치의 구성은 실시 형태 1과 같다. 그로 인해, 도 5의 화상 부호화 장치(500)의 구성, 및, 도 6의 화상 복호 장치(600)의 구성을 이용하여, 본 실시 형태에 따른 이들의 동작을 설명한다.
또, 본 실시 형태에 따른 화상 부호화 장치(500)는, 실시 형태 1과 마찬가지로, 도 7에 도시된 동작을 행한다. 또, 본 실시 형태에 따른 화상 복호 장치(600)는, 실시 형태 1과 마찬가지로, 도 8에 도시된 동작을 행한다. 본 실시 형태에서는, 현재 움직임 벡터의 도출 처리가, 실시 형태 1과는 상이하다. 이하, 상세하게 설명한다.
도 12는, 본 실시 형태에 따른 도출 처리의 상세를 나타내는 플로차트이다. 본 실시 형태에 따른 인터 예측부(511)는, 도 9에 도시된 동작을 대신하여, 도 12에 도시된 동작을 행한다. 이하는, 주로, 도 5의 인터 예측부(511)의 동작을 나타낸다. 부호화를 복호로 대체하면, 도 6의 인터 예측부(608)의 동작도, 도 5의 인터 예측부(511)의 동작과 같다.
우선, 인터 예측부(511)는, 이용 가능한 복수의 참조 픽쳐로부터, co-located 픽쳐를 선택한다(S1201). 다음에, 인터 예측부(511)는, co-located 픽쳐 내의 co-located 블록을 선택한다(S1202). 그리고, 인터 예측부(511)는, co-located 참조 픽쳐 및 co-located 움직임 벡터를 특정한다(S1203).
다음에, 인터 예측부(511)는, 현재 참조 픽쳐가 롱 텀 참조 픽쳐인지의 여부를 판정한다(S1204). 그리고, 현재 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정된 경우(S1204에서 Yes), 인터 예측부(511)는, 실시 형태 1과 같은 제1 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S1205).
현재 참조 픽쳐가 롱 텀 참조 픽쳐가 아니라고 판정된 경우(S1204에서 No), 인터 예측부(511)는, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인지의 여부를 판정한다(S1206).
그리고, co-located 참조 픽쳐가 롱 텀 참조 픽쳐가 아니라고 판정된 경우(S1206에서 No), 인터 예측부(511)는, 실시 형태 1과 같은 제2 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S1207). 즉, 현재 참조 픽쳐 및 co-located 참조 픽쳐의 양쪽 모두가 쇼트 텀 참조 픽쳐라고 판정된 경우, 인터 예측부(511)는, 제2 도출 방식에 따라, 현재 움직임 벡터를 도출한다.
co-located 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정된 경우(S1206에서 Yes), 인터 예측부(511)는, 다른 co-located 픽쳐를 선택한다(S1208). 그리고, 인터 예측부(511)는, 다른 co-located 픽쳐 내의 다른 co-located 블록을 선택한다(S1209). 도 12의 예에서는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록이 다른 co-located 블록으로서 선택된다.
그 후, 인터 예측부(511)는, 다른 co-located 블록에 대응하는 co-located 참조 픽쳐와 co-located 움직임 벡터를 특정한다(S1210). 다음에, 인터 예측부(511)는, POC 베이스의 스케일링을 이용하는 제2 도출 방식에 따라, 현재 움직임 벡터를 도출한다(S1211).
즉, 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 인터 예측부(511)는, 그 co-located 블록으로부터 현재 움직임 벡터를 도출하지 않는다.
이 경우, 인터 예측부(511)는, 다른 co-located 픽쳐를 선택한다. 그리고, 인터 예측부(511)는, 선택된 다른 co-located 픽쳐로부터, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 다른 co-located 블록을 선택한다. 인터 예측부(511)는, 선택된 다른 co-located 블록의 움직임 벡터로부터 현재 움직임 벡터를 도출한다.
예를 들어, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 포함하는 픽쳐를 탐색한다. 그리고, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 포함하는 픽쳐를 다른 co-located 픽쳐로서 선택한다.
다른 예로서, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 처음에, 인터 예측부(511)는, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 포함하는 픽쳐를 탐색한다.
그리고, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 포함하는 픽쳐가 존재하는 경우, 인터 예측부(511)는, 그 픽쳐를 다른 co-located 픽쳐로서 선택한다.
쇼트 텀 참조 픽쳐를 참조하여 부호화된 블록을 포함하는 픽쳐가 존재하지 않는 경우, 다음에, 인터 예측부(511)는, 롱 텀 참조 픽쳐를 참조하여 부호화된 블록을 포함하는 픽쳐를 탐색한다. 그리고, 인터 예측부(511)는, 롱 텀 참조 픽쳐를 참조하여 부호화된 블록을 포함하는 픽쳐를 다른 co-located 픽쳐로서 선택한다.
또, 예를 들어, 픽쳐 RefPicList0[0]이 co-located 픽쳐인 경우, 픽쳐 RefPicList1[0]이 다른 co-located 픽쳐이다. 픽쳐 RefPicList1[0]이 co-located 픽쳐인 경우, 픽쳐 RefPicList0[0]이 다른 co-located 픽쳐이다.
즉, B픽쳐의 부호화(양예측의 부호화)에 있어서 이용되는 2개의 참조 픽쳐 리스트 중, 한쪽의 참조 픽쳐 리스트의 1번째의 픽쳐가 co-located 픽쳐이며, 다른쪽의 참조 픽쳐 리스트의 1번째의 픽쳐가 다른 co-located 픽쳐이다.
이하, 다시, 도 12를 참조하여, 현재 움직임 벡터를 도출하는 처리의 보다 구체적인 예를 설명한다. 앞서 설명된 도출 처리는, 이하와 같이 변경되어도 된다.
우선, 인터 예측부(511)는, 픽쳐 RefPicList0[0]및 픽쳐 RefPicList1[0] 중 한쪽을 co-located 픽쳐로서 선택한다(S1201). 그리고, 인터 예측부(511)는, 선택된 co-located 픽쳐로부터, 도 11에 도시된 샘플 c0을 포함하는 제1 블록을 co-located 블록으로서 선택하고, co-located 참조 픽쳐를 특정한다(S1202 및 S1203).
다음에, 인터 예측부(511)는, co-located 블록이 이용 가능한지의 여부를 판정한다. 그때, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, 또한, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 인터 예측부(511)는, co-located 블록이 이용 가능하지 않다고 판정한다(S1204 및 S1206).
co-located 블록이 이용 가능하지 않은 경우, 인터 예측부(511)는, 이용 가능한 co-located 블록을 새롭게 선택한다. 예를 들어, 인터 예측부(511)는, 도 11의 샘플 c1을 포함하는 제2 블록을 co-located 블록으로서 선택한다. 그리고, 인터 예측부(511)는, co-located 참조 픽쳐를 특정한다.
이용 가능한 co-located 블록이 선택되지 않은 경우, 인터 예측부(511)는, 다른 co-located 픽쳐를 선택한다. 그때, 인터 예측부(511)는, 픽쳐 RefPicList0[0]및 픽쳐 RefPicList1[0] 중 다른쪽을 co-located 픽쳐로서 선택한다(S1208).
그리고, 인터 예측부(511)는, 선택된 co-located 픽쳐로부터, 도 11에 도시된 샘플 c0을 포함하는 제1 블록을 co-located 블록으로서 선택하고, co-located 참조 픽쳐를 특정한다(S1209 및 S1210).
다음에, 인터 예측부(511)는, co-located 블록이 이용 가능한지의 여부를 판정한다. 그때, 앞의 판정과 마찬가지로, 현재 참조 픽쳐가 쇼트 텀 참조 픽쳐이며, 또한, co-located 참조 픽쳐가 롱 텀 참조 픽쳐인 경우, 인터 예측부(511)는, co-located 블록이 이용 가능하지 않다고 판정한다.
co-located 블록이 이용 가능하지 않은 경우, 인터 예측부(511)는, 이용 가능한 co-located 블록을 새롭게 선택한다(S1209). 구체적으로는, 인터 예측부(511)는, 도 11의 샘플 c1을 포함하는 제2 블록을 co-located 블록으로서 선택한다. 그리고, 인터 예측부(511)는, co-located 참조 픽쳐를 특정한다(S1210).
최종적으로, 이용 가능한 co-located 블록이 선택된 경우, 인터 예측부(511)는, 시간 예측 움직임 벡터를 이용 가능으로서 설정한다. 이용 가능한 co-located 블록이 선택되지 않은 경우, 인터 예측부(511)는, 시간 예측 움직임 벡터를 이용 불가로서 설정한다.
시간 예측 움직임 벡터가 이용 가능으로서 설정된 경우, 인터 예측부(511)는, co-located 블록의 움직임 벡터를 기준 움직임 벡터로서 특정한다(S1203 및 S1210). co-located 블록이 복수의 움직임 벡터를 가지는 경우, 즉, co-located 블록이 복수의 움직임 벡터를 이용하여 부호화된 경우, 인터 예측부(511)는, 실시 형태 1과 마찬가지로 소정의 우선 순위에 따라, 기준 움직임 벡터를 선택한다.
그리고, 현재 참조 픽쳐 및 co-located 참조 픽쳐 중 한쪽이 롱 텀 참조 픽쳐인 경우(S1204에서 Yes), 인터 예측부(511)는, 기준 움직임 벡터를 시간 예측 움직임 벡터로서 도출한다(S1205).
한편, 현재 참조 픽쳐 및 co-located 참조 픽쳐의 모두가 롱 텀 참조 픽쳐가 아닌 경우(S1204에서 No), 인터 예측부(511)는, 기준 움직임 벡터로부터, POC 베이스의 스케일링에 의해, 시간 예측 움직임 벡터를 도출한다(S1207 및 S1211).
시간 예측 움직임 벡터가 이용 불가로서 설정된 경우, 인터 예측부(511)는, 시간 예측 움직임 벡터를 도출하지 않는다.
실시 형태 1과 마찬가지로, 인터 예측부(511)는, 이용 가능으로서 설정된 시간 예측 움직임 벡터를 현재 움직임 벡터의 후보로서 리스트에 추가한다. 그리고, 인터 예측부(511)는, 현재 움직임 벡터를 리스트로부터 선택한다.
이상과 같이, 본 실시 형태에 따른 화상 부호화 장치(500) 및 화상 복호 장치(600)는, 복수의 픽쳐로부터, 현재 움직임 벡터의 도출에 적절한 블록을 선택하고, 선택된 블록의 움직임 벡터로부터, 현재 움직임 벡터를 도출한다. 이에 의해, 부호화 효율이 향상한다.
(실시 형태 4)
본 실시 형태는, 실시 형태 1~3에 포함되는 특징적인 구성 및 특징적인 순서를 확인적으로 나타낸다.
도 13A는, 본 실시 형태에 따른 화상 부호화 장치의 블럭도이다. 도 13A에 도시된 화상 부호화 장치(1300)는, 복수의 픽쳐에 있어서의 복수의 블록의 각각을 부호화한다. 또, 화상 부호화 장치(1300)는, 도출부(1301), 추가부(1302), 선택부(1303) 및 부호화부(1304)를 구비한다.
예를 들어, 도출부(1301), 추가부(1302) 및 선택부(1303)는, 도 5의 인터 예측부(511) 등에 대응한다. 부호화부(1304)는, 도 5의 엔트로피 부호화부(504) 등에 대응한다.
도 13B는, 도 13A에 도시된 화상 부호화 장치(1300)의 동작을 나타내는 플로차트이다.
도출부(1301)는, co-located 블록의 움직임 벡터로부터, 현재 블록의 움직임 벡터의 후보를 도출한다(S1301). co-located 블록은, 부호화 대상인 현재 블록을 포함하는 픽쳐와는 다른 픽쳐에 포함되는 블록이다.
후보의 도출에 있어서, 도출부(1301)는, 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정한다. 또, 도출부(1301)는, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정한다.
여기서, 현재 블록의 참조 픽쳐 및 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 도출부(1301)는, co-located 블록의 움직임 벡터로부터 제1 도출 방식에 의해 후보를 도출한다. 제1 도출 방식은, 시간적 거리에 기초하는 스케일링을 행하지 않는 도출 방식이다.
한편, 현재 블록의 참조 픽쳐 및 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 도출부(1301)는, co-located 블록의 움직임 벡터로부터 제2 도출 방식에 의해 후보를 도출한다. 제2 도출 방식은, 시간적 거리에 기초하는 스케일링을 행하는 도출 방식이다.
추가부(1302)는, 도출된 후보를 리스트에 추가한다(S1302). 선택부(1303)는, 후보가 추가된 리스트로부터, 현재 블록의 움직임 벡터를 선택한다(S1303).
부호화부(1304)는, 선택된 움직임 벡터 및 현재 블록의 참조 픽쳐를 이용하여 현재 블록을 부호화한다(S1304).
도 14A는, 본 실시 형태에 따른 화상 복호 장치의 블럭도이다. 도 14A에 도시된 화상 복호 장치(1400)는, 복수의 픽쳐에 있어서의 복수의 블록의 각각을 복호한다. 또, 화상 복호 장치(1400)는, 도출부(1401), 추가부(1402), 선택부(1403) 및 복호부(1404)를 구비한다.
예를 들어, 도출부(1401), 추가부(1402) 및 선택부(1403)는, 도 6의 인터 예측부(608) 등에 대응한다. 복호부(1404)는, 도 6의 엔트로피 복호부(601) 등에 대응한다.
도 14B는, 도 14A에 도시된 화상 복호 장치(1400)의 동작을 나타내는 플로차트이다.
도출부(1401)는, co-located 블록의 움직임 벡터로부터, 현재 블록의 움직임 벡터의 후보를 도출한다(S1401). co-located 블록은, 복호 대상의 현재 블록을 포함하는 픽쳐와는 다른 픽쳐에 포함되는 블록이다.
후보의 도출에 있어서, 도출부(1401)는, 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정한다. 또, 도출부(1401)는, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정한다.
여기서, 현재 블록의 참조 픽쳐 및 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 도출부(1401)는, co-located 블록의 움직임 벡터로부터 제1 도출 방식에 의해 후보를 도출한다. 제1 도출 방식은, 시간적 거리에 기초하는 스케일링을 행하지 않는 도출 방식이다.
한편, 현재 블록의 참조 픽쳐 및 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 도출부(1401)는, co-located 블록의 움직임 벡터로부터 제2 도출 방식에 의해 후보를 도출한다. 제2 도출 방식은, 시간적 거리에 기초하는 스케일링을 행하는 도출 방식이다.
추가부(1402)는, 도출된 후보를 리스트에 추가한다(S1402). 선택부(1403)는, 후보가 추가된 리스트로부터, 현재 블록의 움직임 벡터를 선택한다(S1403).
복호부(1404)는, 선택된 움직임 벡터 및 현재 블록의 참조 픽쳐를 이용하여 현재 블록을 복호한다(S1404).
이상의 처리에 의해, 현재 움직임 벡터의 후보가, co-located 블록의 움직임 벡터로부터, 극단적으로 커지거나 극단적으로 작아지지 않고, 적절히 도출된다. 따라서, 예측 정밀도의 향상이 가능해지고, 부호화 효율의 향상이 가능해진다.
또한, 도출부(1301 및 1401)는, 현재 블록의 참조 픽쳐 및 co-located 블록의 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, co-located 블록의 움직임 벡터로부터 후보를 도출하지 않아도 된다.
이 경우, 도출부(1301 및 1401)는, 또한, 쇼트 텀 참조 픽쳐를 참조하여 부호화 또는 복호된 다른 co-located 블록을 선택하고, 다른 co-located 블록으로부터 제2 도출 방식에 의해 후보를 도출해도 된다. 혹은, 이 경우, 도출부(1301 및 1401)는, 다른 도출 방식으로 후보를 도출해도 된다. 혹은, 이 경우, 도출부(1301 및 1401)는, 최종적으로, 시간 예측 움직임 벡터에 대응하는 후보를 도출하지 않아도 된다.
또, 도출부(1301 및 1401)는, 현재 블록의 참조 픽쳐로부터 현재 블록을 포함하는 픽쳐까지의 시간적 거리를 이용하여, 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
또, 도출부(1301 및 1401)는, co-located 블록의 참조 픽쳐로부터 co-located 블록을 포함하는 픽쳐까지의 시간적 거리를 이용하여, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
또, 도출부(1301 및 1401)는, co-located 블록의 부호화 또는 복호가 행해지는 기간에, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
또, 도출부(1301 및 1401)는, 현재 블록의 부호화 또는 복호가 행해지는 기간에, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
또, 제1 도출 방식은, co-located 블록의 움직임 벡터를 후보로서 도출하는 방식이여도 된다. 제2 도출 방식은, co-located 블록의 참조 픽쳐로부터 co-located 블록을 포함하는 픽쳐까지의 시간적 거리에 대한, 현재 블록의 참조 픽쳐로부터 현재 블록을 포함하는 픽쳐까지의 시간적 거리의 비율을 이용하여, co-located 블록의 움직임 벡터의 스케일링을 행함으로써, 후보를 도출하는 방식이여도 된다.
또, 부호화부(1304)는, 또한, 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보, 및, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 부호화해도 된다.
또, 복호부(1404)는, 또한, 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보, 및, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 복호해도 된다.
그리고, 도출부(1401)는, 복호된 정보를 이용하여, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다. 또, 도출부(1401)는, 복호된 정보를 이용하여, co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정해도 된다.
또, 참조 픽쳐의 분류를 나타내는 정보는 파라미터로서 부호화 스트림에 있어서 다음에 나타내는 위치에 기억되어도 된다.
도 15A는, 참조 픽쳐의 분류를 나타내는 파라미터의 기억 위치의 제1 예를 도시하는 도이다. 도 15A와 같이, 참조 픽쳐의 분류를 나타내는 파라미터는, 순서 헤더에 기억되어도 된다. 순서 헤더는, 순서 파라미터 세트라고도 불린다.
도 15B는, 참조 픽쳐의 분류를 나타내는 파라미터의 기억 위치의 제2 예를 도시하는 도이다. 도 15B와 같이, 참조 픽쳐의 분류를 나타내는 파라미터는, 픽쳐 헤더에 기억되어도 된다. 픽쳐 헤더는, 픽쳐 파라미터 세트라고도 불린다.
도 15C는, 참조 픽쳐의 분류를 나타내는 파라미터의 기억 위치의 제3 예를 도시하는 도이다. 도 15C와 같이, 참조 픽쳐의 분류를 나타내는 파라미터는, 슬라이스 헤더에 기억되어도 된다.
또, 예측 모드(인터 예측 또는 인트라 예측)를 나타내는 정보는 파라미터로서 부호화 스트림에 있어서 다음에 나타내는 위치에 기억되어도 된다.
도 16은, 예측 모드를 나타내는 파라미터의 기억 위치의 예를 도시하는 도이다. 도 16과 같이, 이 파라미터는, CU 헤더(부호화 유닛 헤더)에 기억되어도 된다. 이 파라미터는, 부호화 유닛 내의 예측 유닛이 인터 예측으로 부호화되었는지 인트라 예측으로 부호화되었는지를 나타낸다. co-located 블록이 이용 가능한지의 여부의 판정에, 이 파라미터가 이용되어도 된다.
또, 상기 각 실시 형태에 있어서, 각 구성 요소는, 전용의 하드웨어로 구성되는지, 각 구성 요소에 적절한 소프트웨어 프로그램을 실행함으로써 실현되어도 된다. 각 구성 요소는, CPU 또는 프로세서 등의 프로그램 실행부가, 하드 디스크 또는 반도체 메모리 등의 기록 매체에 기록된 소프트웨어 프로그램을 읽어내고 실행함으로써 실현되어도 된다. 여기서, 상기 각 실시 형태의 화상 부호화 장치 등을 실현하는 소프트웨어는, 다음과 같은 프로그램이다.
즉, 이 프로그램은, 컴퓨터에, 복수의 픽쳐에 있어서의 복수의 블록의 각각을 부호화하는 화상 부호화 방법으로서, 부호화 대상인 현재 블록을 포함하는 픽쳐와는 다른 픽쳐에 포함되는 블록인 co-located 블록의 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와, 도출된 상기 후보를 리스트에 추가하는 추가 단계와, 상기 후보가 추가된 상기 리스트로부터, 상기 현재 블록의 움직임 벡터를 선택하는 선택 단계와, 선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 부호화하는 부호화 단계를 포함하고, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않는 제1 도출 방식에 의해, 상기 후보를 도출하고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하는 제2 도출 방식에 의해, 상기 후보를 도출하는 화상 부호화 방법을 실행시킨다.
또, 이 프로그램은, 컴퓨터에, 복수의 픽쳐에 있어서의 복수의 블록의 각각을 복호하는 화상 복호 방법으로서, 복호 대상인 현재 블록을 포함하는 픽쳐와는 다른 픽쳐에 포함되는 블록인 co-located 블록의 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와, 도출된 상기 후보를 리스트에 추가하는 추가 단계와, 상기 후보가 추가된 상기 리스트로부터, 상기 현재 블록의 움직임 벡터를 선택하는 선택 단계와, 선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 복호하는 복호 단계를 포함하고, 상기 도출 단계에서는, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 co-located 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 롱 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않는 제1 도출 방식에 의해, 상기 후보를 도출하고, 상기 현재 블록의 참조 픽쳐 및 상기 co-located 블록의 참조 픽쳐가 각각 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 co-located 블록의 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하는 제2 도출 방식에 의해, 상기 후보를 도출하는 화상 복호 방법을 실행시켜도 된다.
또, 각 구성 요소는, 회로여도 된다. 이들 회로는, 전체적으로 하나의 회로를 구성해도 되고, 각각 다른 회로여도 된다. 또, 각 구성 요소는, 범용적인 프로세서로 실현되어도 되고, 전용의 프로세서로 실현되어도 된다.
이상, 하나 또는 복수의 양태에 따른 화상 부호화 장치에 대해, 실시 형태에 기초하여 설명했으나, 본 발명은, 이 실시 형태에 한정되는 것은 아니다. 본 발명의 취지를 일탈하지 않는 한, 당업자가 생각해내는 각종 변형을 본 실시 형태에 실시한 것이나, 다른 실시 형태에 있어서의 구성 요소를 조합하여 구축되는 형태도, 하나 또는 복수의 양태의 범위 내에 포함되어도 된다.
예를 들어, 화상 부호화 복호 장치가, 화상 부호화 장치 및 화상 복호 장치를 구비해도 된다. 또, 특정의 처리부가 실행하는 처리를 다른 처리부가 실행해도 된다. 또, 처리를 실행하는 차례가 변경되어도 되고, 복수의 처리가 병행하여 실행되어도 된다.
(실시 형태 5)
상기 각 실시 형태에서 나타낸 동화상 부호화 방법(화상 부호화 방법) 또는 동화상 복호화 방법(화상 복호 방법)의 구성을 실현하기 위한 프로그램을 기억 미디어에 기록함으로써, 상기 각 실시 형태에서 나타낸 처리를 독립한 컴퓨터 시스템에 있어서 간단하게 실시하는 것이 가능해진다. 기억 미디어는, 자기 디스크, 광디스크, 광자기 디스크, IC카드, 반도체 메모리 등, 프로그램을 기록할 수 있는 것이면 된다.
또한, 여기서, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법(화상 부호화 방법)이나 동화상 복호화 방법(화상 복호 방법)의 응용예와 그것을 이용한 시스템을 설명한다. 상기 시스템은, 화상 부호화 방법을 이용한 화상 부호화 장치, 및 화상 복호 방법을 이용한 화상 복호 장치로 이루어지는 화상 부호화 복호 장치를 가지는 것을 특징으로 한다. 시스템에 있어서의 다른 구성에 대해, 경우에 따라 적절히 변경할 수 있다.
도 17은, 컨텐츠 전송 서비스를 실현하는 컨텐츠 공급 시스템(ex100)의 전체 구성을 도시하는 도이다. 통신 서비스의 제공 에리어를 원하는 크기로 분할하여, 각 셀 내에 각각 고정 무선국인 기지국(ex106, ex107, ex108, ex109, ex110)이 설치되어 있다.
이 컨텐츠 공급 시스템(ex100)은, 인터넷(ex101)에 인터넷 서비스 프로바이더(ex102) 및 전화망(ex104), 및 기지국(ex106 내지 ex110)을 개재하여, 컴퓨터(ex111), PDA(Personal Digital Assistant)(ex112), 카메라(ex113), 휴대 전화(ex114), 게임기(ex115) 등의 각 기기가 접속된다.
그러나, 컨텐츠 공급 시스템(ex100)은 도 17과 같은 구성에 한정되지 않고, 어느 하나의 요소를 조합하여 접속하도록 해도 된다. 또, 고정 무선국인 기지국(ex106 내지 ex110)을 개재하지 않고, 각 기기가 전화망(ex104)에 직접 접속되어도 된다. 또, 각 기기가 근거리 무선 등을 개재하여 직접 서로 접속되어 있어도 된다.
카메라(ex113)는 디지털 비디오 카메라 등의 동영상 촬영이 가능한 기기이며, 카메라(ex116)는 디지털 카메라 등의 정지 화상 촬영, 동영상 촬영이 가능한 기기이다. 또, 휴대 전화(ex114)는, GSM(등록 상표)(Global System for Mobile Communications) 방식, CDMA(Code Division Multiple Access) 방식, W-CDMA(Wideband-Code Division Multiple Access) 방식, 혹은 LTE(Long Term Evolution) 방식, HSPA(High Speed Packet Access)의 휴대 전화기, 또는 PHS(Personal Handyphone System) 등이며, 어느 하나여도 상관없다.
컨텐츠 공급 시스템(ex100)에서는, 카메라(ex113) 등이 기지국(ex109), 전화망(ex104)을 통해 스트리밍 서버(ex103)에 접속됨으로써, 라이브 전송 등이 가능해진다. 라이브 전송에서는, 유저가 카메라(ex113)를 이용하여 촬영하는 컨텐츠(예를 들어, 음악 라이브의 영상 등)에 대해 상기 각 실시 형태에서 설명한 바와 같이 부호화 처리를 행하여(즉, 본 발명의 일 양태에 따른 화상 부호화 장치로서 기능한다), 스트리밍 서버(ex103)로 송신한다. 한편, 스트리밍 서버(ex103)는 요구가 있던 클라이언트에 대해 송신된 컨텐츠 데이터를 스트림 전송한다. 클라이언트로는, 상기 부호화 처리된 데이터를 복호화하는 것이 가능한, 컴퓨터(ex111), PDA(ex112), 카메라(ex113), 휴대 전화(ex114), 게임기(ex115) 등이 있다. 전송된 데이터를 수신한 각 기기에서는, 수신한 데이터를 복호화 처리하여 재생한다(즉, 본 발명의 일 양태에 따른 화상 복호 장치로서 기능한다).
또한, 촬영한 데이터의 부호화 처리는 카메라(ex113)에서 행해도, 데이터의 송신 처리를 하는 스트리밍 서버(ex103)에서 행해도 되고, 서로 분담하여 행해도 된다. 마찬가지로 전송된 데이터의 복호화 처리는 클라이언트에서 행해도, 스트리밍 서버(ex103)에서 행해도 되고, 서로 분담하여 행해도 된다. 또, 카메라(ex113)에 한정하지 않고, 카메라(ex116)로 촬영한 정지 화상 및/또는 동화상 데이터를, 컴퓨터(ex111)를 개재하여 스트리밍 서버(ex103)로 송신해도 된다. 이 경우의 부호화 처리는 카메라(ex116), 컴퓨터(ex111), 스트리밍 서버(ex103) 중 어느 하나에서 행해도 되고, 서로 분담하여 행해도 된다.
또, 이들 부호화·복호화 처리는, 일반적으로 컴퓨터(ex111)나 각 기기가 가지는 LSI(ex500)에 있어서 처리한다. LSI(ex500)는, 원칩이어도 복수칩으로 이루어지는 구성이어도 된다. 또한, 동화상 부호화·복호화용의 소프트웨어를 컴퓨터(ex111) 등으로 판독 가능한 어떠한 기록 미디어(CD-ROM, 플렉시블 디스크, 하드 디스크 등)에 넣고, 그 소프트웨어를 이용하여 부호화·복호화 처리를 행하여도 된다. 또한, 휴대 전화(ex114)가 카메라 부착인 경우에는, 그 카메라로 취득한 동영상 데이터를 송신해도 된다. 이때의 동영상 데이터는 휴대 전화(ex114)가 가지는 LSI(ex500)로 부호화 처리된 데이터이다.
또, 스트리밍 서버(ex103)는 복수의 서버나 복수의 컴퓨터이며, 데이터를 분산하여 처리하거나 기록하거나 전송하는 것이어도 된다.
이상과 같이 하여, 컨텐츠 공급 시스템(ex100)에서는, 부호화된 데이터를 클라이언트가 수신하여 재생할 수 있다. 이와 같이 컨텐츠 공급 시스템(ex100)에서는, 유저가 송신한 정보를 실시간으로 클라이언트가 수신하여 복호화하고, 재생할 수 있어, 특별한 권리나 설비를 가지지 않은 유저라도 개인 방송을 실현할 수 있다.
또한, 컨텐츠 공급 시스템(ex100)의 예에 한정하지 않고, 도 18에 도시하는 바와 같이, 디지털 방송용 시스템(ex200)에도, 상기 각 실시 형태 중 적어도 동화상 부호화 장치(화상 부호화 장치) 또는 동화상 복호화 장치(화상 복호 장치) 중 어느 하나를 넣을 수 있다. 구체적으로는, 방송국(ex201)에서는 영상 데이터에 음악 데이터 등이 다중화된 다중화 데이터가 전파를 개재하여 통신 또는 위성(ex202)으로 전송된다. 이 영상 데이터는 상기 각 실시 형태에서 설명한 동화상 부호화 방법에 의해 부호화된 데이터이다(즉, 본 발명의 일 양태에 따른 화상 부호화 장치에 의해 부호화된 데이터이다). 이것을 받은 방송 위성(ex202)은, 방송용의 전파를 발신하고, 이 전파를 위성 방송의 수신이 가능한 가정의 안테나(ex204)가 수신한다. 수신한 다중화 데이터를, 텔레비전(수신기)(ex300) 또는 셋탑박스(STB)(ex217) 등의 장치가 복호화하여 재생한다(즉, 본 발명의 일 양태에 따른 화상 복호 장치로서 기능한다).
또, DVD, BD 등의 기록 미디어(ex215)에 기록된 다중화 데이터를 판독하고 복호화하거나, 또는 기록 미디어(ex215)에 영상 신호를 부호화하고, 또한 경우에 따라서는 음악 신호와 다중화하여 기록하는 리더/레코더(ex218)에도 상기 각 실시 형태에서 나타낸 동화상 복호화 장치 또는 동화상 부호화 장치를 실장하는 것이 가능하다. 이 경우, 재생된 영상 신호는 모니터(ex219)에 표시되고, 다중화 데이터가 기록된 기록 미디어(ex215)에 의해 다른 장치나 시스템에 있어서 영상 신호를 재생할 수 있다. 또, 케이블 텔레비전용의 케이블(ex203) 또는 위성/지상파 방송의 안테나(ex204)에 접속된 셋탑박스(ex217) 내에 동화상 복호화 장치를 실장하고, 이것을 텔레비전의 모니터(ex219)로 표시해도 된다. 이때 셋탑박스가 아닌, 텔레비전 내에 동화상 복호화 장치를 넣어도 된다.
도 19는, 상기 각 실시 형태에서 설명한 동화상 복호화 방법 및 동화상 부호화 방법을 이용한 텔레비전(수신기)(ex300)을 도시하는 도이다. 텔레비전(ex300)은, 상기 방송을 수신하는 안테나(ex204) 또는 케이블(ex203) 등을 개재하여 영상 데이터에 음성 데이터가 다중화된 다중화 데이터를 취득, 또는 출력하는 튜너(ex301)와, 수신한 다중화 데이터를 복조하거나, 또는 외부로 송신하는 다중화 데이터에 변조하는 변조/복조부(ex302)와, 복조한 다중화 데이터를 영상 데이터와, 음성 데이터로 분리하거나, 또는 신호 처리부(ex306)에서 부호화된 영상 데이터, 음성 데이터를 다중화하는 다중/분리부(ex303)를 구비한다.
또, 텔레비전(ex300)은, 음성 데이터, 영상 데이터 각각을 복호화하거나, 또는 각각의 정보를 부호화하는 음성 신호 처리부(ex304), 영상 신호 처리부(ex305)(본 발명의 일 양태에 따른 화상 부호화 장치 또는 화상 복호 장치로서 기능한다)를 가지는 신호 처리부(ex306)와, 복호화한 음성 신호를 출력하는 스피커(ex307), 복호화한 영상 신호를 표시하는 디스플레이 등의 표시부(ex308)를 가지는 출력부(ex309)를 가진다. 또한, 텔레비전(ex300)은, 유저 조작의 입력을 받아들이는 조작 입력부(ex312) 등을 가지는 인터페이스부(ex317)를 가진다. 또한, 텔레비전(ex300)은, 각부를 통괄적으로 제어하는 제어부(ex310), 각부에 전력을 공급하는 전원 회로부(ex311)를 가진다. 인터페이스부(ex317)는, 조작 입력부(ex312) 이외에, 리더/레코더(ex218) 등의 외부 기기와 접속되는 브리지(ex313), SD 카드 등의 기록 미디어(ex216)를 장착 가능하게 하기 위한 슬롯부(ex314), 하드 디스크 등의 외부 기록 미디어와 접속하기 위한 드라이버(ex315), 전화망과 접속하는 모뎀(ex316) 등을 가지고 있어도 된다. 또한 기록 미디어(ex216)는, 기억하는 불휘발성/휘발성의 반도체 메모리 소자에 의해 전기적으로 정보의 기록을 가능하게 한 것이다. 텔레비전(ex300)의 각부는 동기 버스를 개재하여 서로 접속되어 있다.
우선, 텔레비전(ex300)이 안테나(ex204) 등에 의해 외부로부터 취득한 다중화 데이터를 복호화하고, 재생하는 구성에 대해 설명한다. 텔레비전(ex300)은, 리모트 컨트롤러(ex220) 등으로부터의 유저 조작을 받아, CPU 등을 가지는 제어부(ex310)의 제어에 기초하여, 변조/복조부(ex302)에서 복조한 다중화 데이터를 다중/분리부(ex303)에서 분리한다. 또한 텔레비전(ex300)은, 분리한 음성 데이터를 음성 신호 처리부(ex304)에서 복호화하고, 분리한 영상 데이터를 영상 신호 처리부(ex305)에서 상기 각 실시 형태에서 설명한 복호화 방법을 이용하여 복호화한다. 복호화한 음성 신호, 영상 신호는, 각각 출력부(ex309)로부터 외부를 향해 출력된다. 출력할 때에는, 음성 신호와 영상 신호가 동기하여 재생되도록, 버퍼(ex318, ex319) 등에 일단 이들 신호를 축적하면 된다. 또, 텔레비전(ex300)은, 방송 등으로부터가 아닌, 자기/광디스크, SD 카드 등의 기록 미디어(ex215, ex216)로부터 다중화 데이터를 읽어내도 된다. 다음에, 텔레비전(ex300)이 음성 신호나 영상 신호를 부호화하고, 외부로 송신 또는 기록 미디어 등에 기록하는 구성에 대해 설명한다. 텔레비전(ex300)은, 리모트 컨트롤러(ex220) 등으로부터의 유저 조작을 받아, 제어부(ex310)의 제어에 기초하여, 음성 신호 처리부(ex304)에서 음성 신호를 부호화하고, 영상 신호 처리부(ex305)에서 영상 신호를 상기 각 실시 형태에서 설명한 부호화 방법을 이용하여 부호화한다. 부호화한 음성 신호, 영상 신호는 다중/분리부(ex303)에서 다중화되어 외부로 출력된다. 다중화할 때에는, 음성 신호와 영상 신호가 동기하도록, 버퍼(ex320, ex321) 등에 일단 이들 신호를 축적하면 된다. 또한, 버퍼(ex318, ex319, ex320, ex321)는 도시하고 있는 바와 같이 복수 구비하고 있어도 되고, 하나 이상의 버퍼를 공유하는 구성이어도 된다. 또한, 도시하고 있는 것 이외에, 예를 들어 변조/복조부(ex302)나 다중/분리부(ex303) 사이 등에서도 시스템의 오버플로, 언더플로를 피하는 완충재로서 버퍼에 데이터를 축적하는 것으로 해도 된다.
또, 텔레비전(ex300)은, 방송 등이나 기록 미디어 등으로부터 음성 데이터, 영상 데이터를 취득하는 것 이외에, 마이크나 카메라의 AV 입력을 받아들이는 구성을 구비하고, 그들로부터 취득한 데이터에 대해 부호화 처리를 행해도 된다. 또한, 여기에서는 텔레비전(ex300)은 상기의 부호화 처리, 다중화, 및 외부 출력이 가능한 구성으로서 설명했는데, 이러한 처리를 행하지 못하고, 상기 수신, 복호화 처리, 외부 출력만이 가능한 구성이어도 된다.
또, 리더/레코더(ex218)에서 기록 미디어로부터 다중화 데이터를 읽어내거나, 또는 기록하는 경우에는, 상기 복호화 처리 또는 부호화 처리는 텔레비전(ex300), 리더/레코더(ex218) 중 어느 하나에서 행해도 되고, 텔레비전(ex300)과 리더/레코더(ex218)가 서로 분담하여 행해도 된다.
일례로서, 광디스크로부터 데이터의 읽어들임 또는 기록을 하는 경우의 정보 재생/기록부(ex400)의 구성을 도 20에 도시한다. 정보 재생/기록부(ex400)는, 이하에 설명하는 요소(ex401, ex402, ex403, ex404, ex405, ex406, ex407)를 구비한다. 광헤드(ex401)는, 광디스크인 기록 미디어(ex215)의 기록면에 레이저 스폿을 조사하여 정보를 기록하고, 기록 미디어(ex215)의 기록면으로부터의 반사광을 검출하여 정보를 읽어들인다. 변조 기록부(ex402)는, 광헤드(ex401)에 내장된 반도체 레이저를 전기적으로 구동하여 기록 데이터에 따라 레이저광의 변조를 행한다. 재생 복조부(ex403)는, 광헤드(ex401)에 내장된 포토 디텍터에 의해 기록면으로부터의 반사광을 전기적으로 검출한 재생 신호를 증폭해, 기록 미디어(ex215)에 기록된 신호 성분을 분리하여 복조하고, 필요한 정보를 재생한다. 버퍼(ex404)는, 기록 미디어(ex215)에 기록하기 위한 정보 및 기록 미디어(ex215)로부터 재생한 정보를 일시적으로 보관한다. 디스크 모터(ex405)는 기록 미디어(ex215)를 회전시킨다. 서보 제어부(ex406)는, 디스크 모터(ex405)의 회전 구동을 제어하면서 광헤드(ex401)를 소정의 정보 트랙으로 이동시켜, 레이저 스폿의 추종 처리를 행한다. 시스템 제어부(ex407)는, 정보 재생/기록부(ex400) 전체의 제어를 행한다. 상기의 읽어들임이나 기록의 처리는 시스템 제어부(ex407)가, 버퍼(ex404)에 보관된 각종 정보를 이용하여, 또 필요에 따라 새로운 정보의 생성·추가를 행함과 더불어, 변조 기록부(ex402), 재생 복조부(ex403), 서보 제어부(ex406)를 협조 동작시키면서, 광헤드(ex401)를 통해, 정보의 기록 재생을 행함으로써 실현된다. 시스템 제어부(ex407)는 예를 들어 마이크로 프로세서로 구성되고, 읽기 기록의 프로그램을 실행함으로써 그러한 처리를 실행한다.
이상에서는, 광헤드(ex401)는 레이저 스폿을 조사하는 것으로 설명했는데, 근접장광을 이용하여 보다 고밀도인 기록을 행하는 구성이어도 된다.
도 21에 광디스크인 기록 미디어(ex215)의 모식도를 도시한다. 기록 미디어(ex215)의 기록면에는 안내홈(그루브)이 스파이럴형상으로 형성되고, 정보 트랙(ex230)에는, 사전에 그루브의 형상의 변화에 의해 디스크상의 절대 위치를 나타내는 번지 정보가 기록되어 있다. 이 번지 정보는 데이터를 기록하는 단위인 기록 블록(ex231)의 위치를 특정하기 위한 정보를 포함하며, 기록이나 재생을 행하는 장치에 있어서 정보 트랙(ex230)을 재생하고 번지 정보를 판독함으로써 기록 블록을 특정할 수 있다. 또, 기록 미디어(ex215)는, 데이터 기록 영역(ex233), 내주 영역(ex232), 외주 영역(ex234)을 포함하고 있다. 유저 데이터를 기록하기 위해 이용하는 영역이 데이터 기록 영역(ex233)이며, 데이터 기록 영역(ex233)보다 내주 또는 외주에 배치되어 있는 내주 영역(ex232)과 외주 영역(ex234)은, 유저 데이터의 기록 이외의 특정 용도로 이용된다. 정보 재생/기록부(ex400)는, 이러한 기록 미디어(ex215)의 데이터 기록 영역(ex233)에 대해, 부호화된 음성 데이터, 영상 데이터 또는 그러한 데이터를 다중화한 다중화 데이터의 읽고 쓰기를 행한다.
이상에서는, 1층의 DVD, BD 등의 광디스크를 예로 들어 설명했지만, 이들에 한정한 것이 아니라, 다층 구조이며 표면 이외에도 기록 가능한 광디스크여도 된다. 또, 디스크의 같은 장소에 다양한 상이한 파장의 색광을 이용하여 정보를 기록하거나, 다양한 각도로부터 상이한 정보의 층을 기록하는 등, 다차원적인 기록/재생을 행하는 구조의 광디스크여도 된다.
또, 디지털 방송용 시스템(ex200)에 있어서, 안테나(ex205)를 가지는 자동차(ex210)에서 위성(ex202) 등으로부터 데이터를 수신하여, 자동차(ex210)가 가지는 자동차 내비게이션(ex211) 등의 표시 장치에 동영상을 재생하는 것도 가능하다. 또한, 자동차 내비게이션(ex211)의 구성은 예를 들어 도 19에 도시하는 구성 중, GPS 수신부를 더한 구성을 생각할 수 있으며, 동일한 것을 컴퓨터(ex111)나 휴대 전화(ex114) 등에서도 생각할 수 있다.
도 22A는, 상기 실시 형태에서 설명한 동화상 복호화 방법 및 동화상 부호화 방법을 이용한 휴대 전화(ex114)를 도시하는 도이다. 휴대 전화(ex114)는, 기지국(ex110)과의 사이에서 전파를 송수신하기 위한 안테나(ex350), 영상, 정지 화상을 찍는 것이 가능한 카메라부(ex365), 카메라부(ex365)로 촬상한 영상, 안테나(ex350)로 수신한 영상 등이 복호화된 데이터를 표시하는 액정 디스플레이 등의 표시부(ex358)를 구비한다. 휴대 전화(ex114)는, 또한, 조작키부(ex366)를 가지는 본체부, 음성을 출력하기 위한 스피커 등인 음성 출력부(ex357), 음성을 입력하기 위한 마이크 등인 음성 입력부(ex356), 촬영한 영상, 정지 화상, 녹음한 음성, 또는 수신한 영상, 정지 화상, 메일 등의 부호화된 데이터 혹은 복호화된 데이터를 저장하는 메모리부(ex367), 또는 마찬가지로 데이터를 저장하는 기록 미디어와의 인터페이스부인 슬롯부(ex364)를 구비한다.
또한, 휴대 전화(ex114)의 구성예에 대해, 도 22B를 이용하여 설명한다. 휴대 전화(ex114)는, 표시부(ex358) 및 조작키부(ex366)를 구비한 본체부의 각부를 통괄적으로 제어하는 주제어부(ex360)에 대해, 전원 회로부(ex361), 조작 입력 제어부(ex362), 영상 신호 처리부(ex355), 카메라 인터페이스부(ex363), LCD(Liquid Crystal Display) 제어부(ex359), 변조/복조부(ex352), 다중/분리부(ex353), 음성 신호 처리부(ex354), 슬롯부(ex364), 메모리부(ex367)가 버스(ex370)를 개재하여 서로 접속되어 있다.
전원 회로부(ex361)는, 유저의 조작에 의해 종화(終話) 및 전원키가 온 상태로 되면, 배터리 팩으로부터 각부에 대해 전력을 공급함으로써 휴대 전화(ex114)를 동작 가능한 상태로 기동한다.
휴대 전화(ex114)는, CPU, ROM, RAM 등을 가지는 주제어부(ex360)의 제어에 기초하여, 음성 통화 모드시에 음성 입력부(ex356)에서 수음(受音)한 음성 신호를 음성 신호 처리부(ex354)에서 디지털 음성 신호로 변환하고, 이것을 변조/복조부(ex352)에서 스펙트럼 확산 처리하고, 송신/수신부(ex351)에서 디지털 아날로그 변환 처리 및 주파수 변환 처리를 행한 후에 안테나(ex350)를 개재하여 송신한다. 또 휴대 전화(ex114)는, 음성 통화 모드시에 안테나(ex350)를 개재하여 수신한 수신 데이터를 증폭해 주파수 변환 처리 및 아날로그 디지털 변환 처리를 행하고, 변조/복조부(ex352)에서 스펙트럼 역확산 처리하여, 음성 신호 처리부(ex354)에서 아날로그 음성 신호로 변환한 후, 이것을 음성 출력부(ex357)로부터 출력한다.
또한 데이터 통신 모드시에 전자 메일을 송신하는 경우, 본체부의 조작키부(ex366) 등의 조작에 의해 입력된 전자 메일의 텍스트 데이터는 조작 입력 제어부(ex362)를 개재하여 주제어부(ex360)로 송출된다. 주제어부(ex360)는, 텍스트 데이터를 변조/복조부(ex352)에서 스펙트럼 확산 처리를 하고, 송신/수신부(ex351)에서 디지털 아날로그 변환 처리 및 주파수 변환 처리를 행한 후에 안테나(ex350)를 개재하여 기지국(ex110)으로 송신한다. 전자 메일을 수신하는 경우는, 수신한 데이터에 대해 이 거의 반대의 처리가 행해지고, 표시부(ex358)로 출력된다.
데이터 통신 모드시에 영상, 정지 화상, 또는 영상과 음성을 송신하는 경우, 영상 신호 처리부(ex355)는, 카메라부(ex365)로부터 공급된 영상 신호를 상기 각 실시 형태에서 나타낸 동화상 부호화 방법에 의해 압축 부호화하고(즉, 본 발명의 일 양태에 따른 화상 부호화 장치로서 기능한다), 부호화된 영상 데이터를 다중/분리부(ex353)로 송출한다. 또, 음성 신호 처리부(ex354)는, 영상, 정지 화상 등을 카메라부(ex365)에서 촬상 중에 음성 입력부(ex356)에서 수음한 음성 신호를 부호화하고, 부호화된 음성 데이터를 다중/분리부(ex353)로 송출한다.
다중/분리부(ex353)는, 영상 신호 처리부(ex355)로부터 공급된 부호화된 영상 데이터와 음성 신호 처리부(ex354)로부터 공급된 부호화된 음성 데이터를 소정의 방식으로 다중화하고, 그 결과 얻어지는 다중화 데이터를 변조/복조부(변조/복조 회로부)(ex352)에서 스펙트럼 확산 처리를 하며, 송신/수신부(ex351)에서 디지털 아날로그 변환 처리 및 주파수 변환 처리를 행한 후에 안테나(ex350)를 개재하여 송신한다.
데이터 통신 모드시에 홈페이지 등에 링크된 동화상 파일의 데이터를 수신하는 경우, 또는 영상 및 혹은 음성이 첨부된 전자 메일을 수신하는 경우, 안테나(ex350)를 개재하여 수신된 다중화 데이터를 복호화하기 위해, 다중/분리부(ex353)는, 다중화 데이터를 분리함으로써 영상 데이터의 비트 스트림과 음성 데이터의 비트 스트림으로 나누고, 동기 버스(ex370)를 개재하여 부호화된 영상 데이터를 영상 신호 처리부(ex355)에 공급함과 더불어, 부호화된 음성 데이터를 음성 신호 처리부(ex354)에 공급한다. 영상 신호 처리부(ex355)는, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법에 대응한 동화상 복호화 방법에 따라 복호화함으로써 영상 신호를 복호하고(즉, 본 발명의 일 양태에 따른 화상 복호 장치로서 기능한다), LCD 제어부(ex359)를 개재하여 표시부(ex358)로부터, 예를 들어 홈페이지에 링크된 동화상 파일에 포함되는 영상, 정지 화상이 표시된다. 또 음성 신호 처리부(ex354)는, 음성 신호를 복호하고, 음성 출력부(ex357)로부터 음성이 출력된다.
또, 상기 휴대 전화(ex114) 등의 단말은, 텔레비전(ex300)과 마찬가지로, 부호화기·복호화기를 모두 가지는 송수신형 단말 외에, 부호화기만의 송신 단말, 복호화기만의 수신 단말이라고 하는 3가지의 실장 형식을 생각할 수 있다. 또한, 디지털 방송용 시스템(ex200)에 있어서, 영상 데이터에 음악 데이터 등이 다중화된 다중화 데이터를 수신, 송신한다고 설명했는데, 음성 데이터 이외에 영상에 관련하는 문자 데이터 등이 다중화된 데이터여도 되고, 다중화 데이터가 아닌 영상 데이터 자체여도 된다.
이와 같이, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 혹은 동화상 복호화 방법을 상기 서술한 어느 하나의 기기·시스템에 이용하는 것은 가능하며, 그렇게 함으로써, 상기 각 실시 형태에서 설명한 효과가 얻어진다.
또, 본 발명은 어느 상기 실시 형태에 한정되는 것이 아니며, 본 발명의 범위를 일탈하는 일 없이 여러 가지의 변형 또는 수정이 가능하다.
(실시 형태 6)
상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치와, MPEG-2, MPEG4-AVC, VC-1 등 상이한 규격에 준거한 동화상 부호화 방법 또는 장치를, 필요에 따라 적절히 전환함으로써, 영상 데이터를 생성하는 것도 가능하다.
여기서, 각각 상이한 규격에 준거하는 복수의 영상 데이터를 생성한 경우, 복호할 때에, 각각의 규격에 대응한 복호 방법을 선택할 필요가 있다. 그러나, 복호하는 영상 데이터가, 어느 규격에 준거하는 것인지 식별할 수 없기 때문에, 적절한 복호 방법을 선택할 수 없다고 하는 과제가 발생한다.
이 과제를 해결하기 위해, 영상 데이터에 음성 데이터 등을 다중화한 다중화 데이터는, 영상 데이터가 어느 규격에 준거하는 것인지를 나타내는 식별 정보를 포함하는 구성으로 한다. 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 영상 데이터를 포함하는 다중화 데이터의 구체적인 구성을 이하 설명한다. 다중화 데이터는, MPEG-2 트랜스포트 스트림 형식의 디지털 스트림이다.
도 23은, 다중화 데이터의 구성을 도시하는 도이다. 도 23에 도시하는 바와 같이 다중화 데이터는, 비디오 스트림, 오디오 스트림, 프레젠테이션 그래픽스 스트림(PG), 인터랙티브 그래픽스 스트림 중, 하나 이상을 다중화함으로써 얻어진다. 비디오 스트림은 영화의 주영상 및 부영상을, 오디오 스트림(IG)은 영화의 주음성과 그 주음성과 믹싱하는 부음성을, 프레젠테이션 그래픽스 스트림은, 영화의 자막을 각각 나타내고 있다. 여기서 주영상이란 화면에 표시되는 통상의 영상을 나타내고, 부영상이란 주영상 안에 작은 화면에서 표시하는 영상이다. 또, 인터랙티브 그래픽스 스트림은, 화면상에 GUI 부품을 배치함으로써 작성되는 대화 화면을 나타내고 있다. 비디오 스트림은, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치, 종래의 MPEG-2, MPEG4-AVC, VC-1 등의 규격에 준거한 동화상 부호화 방법 또는 장치에 의해 부호화되어 있다. 오디오 스트림은, 돌비AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD, 또는, 리니어 PCM 등의 방식으로 부호화되어 있다.
다중화 데이터에 포함되는 각 스트림은 PID에 의해 식별된다. 예를 들어, 영화의 영상에 이용하는 비디오 스트림에는 0x1011이, 오디오 스트림에는 0x1100에서 0x111F까지가, 프레젠테이션 그래픽스에는 0x1200에서 0x121F까지가, 인터랙티브 그래픽스 스트림에는 0x1400에서 0x141F까지가, 영화의 부영상에 이용하는 비디오 스트림에는 0x1B00에서 0x1B1F까지, 주음성과 믹싱하는 부음성에 이용하는 오디오 스트림에는 0x1A00에서 0x1A1F가, 각각 할당되어 있다.
도 24는, 다중화 데이터가 어떻게 다중화되는지를 모식적으로 도시하는 도이다. 우선, 복수의 비디오 프레임으로 이루어지는 비디오 스트림(ex235), 복수의 오디오 프레임으로 이루어지는 오디오 스트림(ex238)을, 각각 PES 패킷열(ex236 및 ex239)로 변환하고, TS 패킷(ex237 및 ex240)으로 변환한다. 마찬가지로 프레젠테이션 그래픽스 스트림(ex241) 및 인터랙티브 그래픽스(ex244)의 데이터를 각각 PES 패킷열(ex242 및 ex245)로 변환하고, 또한 TS 패킷(ex243 및 ex246)으로 변환한다. 다중화 데이터(ex247)는 이러한 TS 패킷을 하나의 스트림에 다중화함으로써 구성된다.
도 25는, PES 패킷열에, 비디오 스트림이 어떻게 기억되는지를 더 상세하게 도시하고 있다. 도 25에 있어서의 제1단째는 비디오 스트림의 비디오 프레임열을 나타낸다. 제2단째는, PES 패킷열을 나타낸다. 도 25의 화살표 yy1, yy2, yy3, yy4로 나타내는 바와 같이, 비디오 스트림에 있어서의 복수의 Video Presentation Unit인 I픽쳐, B픽쳐, P픽쳐는, 픽쳐마다 분할되고, PES 패킷의 페이로드에 기억된다. 각 PES 패킷은 PES 헤더를 가지고, PES 헤더에는, 픽쳐의 표시 시각인 PTS(Presentation Time-Stamp)나 픽쳐의 복호 시각인 DTS(Decoding Time-Stamp)가 기억된다.
도 26은, 다중화 데이터에 최종적으로 기록되는 TS 패킷의 형식을 나타내고 있다. TS 패킷은, 스트림을 식별하는 PID 등의 정보를 가지는 4Byte의 TS 헤더와 데이터를 기억하는 184Byte의 TS 페이로드로 구성되는 188Byte 고정길이의 패킷이며, 상기 PES 패킷은 분할되어 TS 페이로드에 기억된다. BD-ROM의 경우, TS 패킷에는, 4Byte의 TP_Extra_Header가 부여되고, 192Byte의 소스 패킷을 구성하며, 다중화 데이터에 기록된다. TP_Extra_Header에는 ATS(Arrival_Time_Stamp) 등의 정보가 기재된다. ATS는 상기 TS 패킷의 디코더의 PID 필터로의 전송 개시 시각을 나타낸다. 다중화 데이터에는 도 26 하단에 도시하는 바와 같이 소스 패킷이 늘어서게 되고, 다중화 데이터의 선두로부터 인크리먼트하는 번호는 SPN(소스 패킷 넘버)로 불린다.
또, 다중화 데이터에 포함되는 TS 패킷에는, 영상·음성·자막 등의 각 스트림 이외에도 PAT(Program Association Table), PMT(Program Map Table), PCR(Program Clock Reference) 등이 있다. PAT는 다중화 데이터 중에 이용되는 PMT의 PID가 무엇인지를 나타내고, PAT 자신의 PID는 0으로 등록된다. PMT는, 다중화 데이터 중에 포함되는 영상·음성·자막 등의 각 스트림의 PID와 각 PID에 대응하는 스트림의 속성 정보를 가지고, 또 다중화 데이터에 관한 각종 디스크립터를 가진다. 디스크립터에는 다중화 데이터의 카피를 허가·불허가를 지시하는 카피 컨트롤 정보 등이 있다. PCR는, ATS의 시간축인 ATC(Arrival Time Clock)와 PTS·DTS의 시간축인 STC(System Time Clock)의 동기를 취하기 위해, 그 PCR 패킷이 디코더에 전송되는 ATS에 대응하는 STC 시간의 정보를 가진다.
도 27은 PMT의 데이터 구조를 상세하게 설명하는 도이다. PMT의 선두에는, 그 PMT에 포함되는 데이터의 길이 등을 기록한 PMT 헤더가 배치된다. 그 뒤에는, 다중화 데이터에 관한 디스크립터가 복수 배치된다. 상기 카피 컨트롤 정보 등이, 디스크립터로서 기재된다. 디스크립터의 뒤에는, 다중화 데이터에 포함되는 각 스트림에 관한 스트림 정보가 복수 배치된다. 스트림 정보는, 스트림의 압축 코덱 등을 식별하기 위해 스트림 타입, 스트림의 PID, 스트림의 속성 정보(프레임 레이트, 어스펙트비 등)가 기재된 스트림 디스크립터로 구성된다. 스트림 디스크립터는 다중화 데이터에 존재하는 스트림의 수만큼 존재한다.
기록 매체 등에 기록하는 경우에는, 상기 다중화 데이터는, 다중화 데이터 정보 파일과 함께 기록된다.
다중화 데이터 정보 파일은, 도 28에 도시하는 바와 같이 다중화 데이터의 관리 정보이며, 다중화 데이터와 1대 1로 대응하여, 다중화 데이터 정보, 스트림 속성 정보와 엔트리 맵으로 구성된다.
다중화 데이터 정보는 도 28에 도시하는 바와 같이 시스템 레이트, 재생 개시 시각, 재생 종료 시각으로 구성되어 있다. 시스템 레이트는 다중화 데이터의, 후술하는 시스템 타겟 디코더의 PID 필터로의 최대 전송 레이트를 나타낸다. 다중화 데이터 중에 포함되는 ATS의 간격은 시스템 레이트 이하가 되도록 설정되어 있다. 재생 개시 시각은 다중화 데이터의 선두의 비디오 프레임의 PTS이며, 재생 종료 시각은 다중화 데이터의 종단의 비디오 프레임의 PTS에 1프레임 분의 재생 간격을 더한 것이 설정된다.
스트림 속성 정보는 도 29에 도시하는 바와 같이, 다중화 데이터에 포함되는 각 스트림에 대한 속성 정보가, PID마다 등록된다. 속성 정보는 비디오 스트림, 오디오 스트림, 프레젠테이션 그래픽스 스트림, 인터랙티브 그래픽스 스트림마다 상이한 정보를 가진다. 비디오 스트림 속성 정보는, 그 비디오 스트림이 어떠한 압축 코덱으로 압축되었는지, 비디오 스트림을 구성하는 개개의 픽쳐 데이터의 해상도가 어느 정도인지, 어스펙트비는 어느 정도인지, 프레임 레이트는 어느 정도인지 등의 정보를 가진다. 오디오 스트림 속성 정보는, 그 오디오 스트림이 어떠한 압축 코덱으로 압축되었는지, 그 오디오 스트림에 포함되는 채널수는 몇인지, 무슨 언어에 대응하는지, 샘플링 주파수가 어느 정도인지 등의 정보를 가진다. 이러한 정보는, 플레이어가 재생하기 전의 디코더의 초기화 등에 이용된다.
본 실시 형태에 있어서는, 상기 다중화 데이터 중, PMT에 포함되는 스트림 타입을 이용한다. 또, 기록 매체에 다중화 데이터가 기록되어 있는 경우에는, 다중화 데이터 정보에 포함되는, 비디오 스트림 속성 정보를 이용한다. 구체적으로는, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 있어서, PMT에 포함되는 스트림 타입, 또는, 비디오 스트림 속성 정보에 대해, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 영상 데이터인 것을 나타내는 고유의 정보를 설정하는 단계 또는 수단을 설치한다. 이 구성에 의해, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성한 영상 데이터와, 다른 규격에 준거하는 영상 데이터를 식별하는 것이 가능해진다.
또, 본 실시 형태에 있어서의 동화상 복호화 방법의 단계를 도 30에 도시한다. 단계(exS100)에 있어서, 다중화 데이터로부터 PMT에 포함되는 스트림 타입, 또는, 다중화 데이터 정보에 포함되는 비디오 스트림 속성 정보를 취득한다. 다음에, 단계(exS101)에 있어서, 스트림 타입, 또는, 비디오 스트림 속성 정보가 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 다중화 데이터인 것을 나타내고 있는지의 여부를 판단한다. 그리고, 스트림 타입, 또는, 비디오 스트림 속성 정보가 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 것이라 판단된 경우에는, 단계(exS102)에 있어서, 상기 각 실시 형태에서 나타낸 동화상 복호 방법에 의해 복호를 행한다. 또, 스트림 타입, 또는, 비디오 스트림 속성 정보가, 종래의 MPEG-2, MPEG4-AVC, VC-1 등의 규격에 준거하는 것임을 나타내고 있는 경우에는, 단계(exS103)에 있어서, 종래의 규격에 준거한 동화상 복호 방법에 의해 복호를 행한다.
이와 같이, 스트림 타입, 또는, 비디오 스트림 속성 정보에 새로운 고유값을 설정함으로써, 복호할 때에, 상기 각 실시 형태에서 나타낸 동화상 복호화 방법 또는 장치로 복호 가능한지를 판단할 수 있다. 따라서, 상이한 규격에 준거하는 다중화 데이터가 입력된 경우여도, 적절한 복호화 방법 또는 장치를 선택할 수 있기 때문에, 에러를 발생시키지 않고 복호하는 것이 가능해진다. 또, 본 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치, 또는, 동화상 복호 방법 또는 장치를, 상기 서술한 어느 하나의 기기·시스템에 이용하는 것도 가능하다.
(실시 형태 7)
상기 각 실시 형태에서 나타낸 동화상 부호화 방법 및 장치, 동화상 복호화 방법 및 장치는, 전형적으로는 집적 회로인 LSI로 실현된다. 일례로서, 도 31에 원칩화된 LSI(ex500)의 구성을 나타낸다. LSI(ex500)는, 이하에 설명하는 요소(ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508, ex509)를 구비하고, 각 요소는 버스(ex510)를 개재하여 접속되어 있다. 전원 회로부(ex505)는 전원이 온 상태의 경우에 각부에 대해 전력을 공급함으로써 동작 가능한 상태로 기동한다.
예를 들어 부호화 처리를 행하는 경우에는, LSI(ex500)는, CPU(ex502), 메모리 컨트롤러(ex503), 스트림 컨트롤러(ex504), 구동 주파수 제어부(ex512) 등을 가지는 제어부(ex501)의 제어에 기초하여, AV I/O(ex509)에 의해 마이크(ex117)나 카메라(ex113) 등으로부터 AV 신호를 입력한다. 입력된 AV 신호는, 일단 SDRAM 등의 외부의 메모리(ex511)에 축적된다. 제어부(ex501)의 제어에 기초하여, 축적한 데이터는 처리량이나 처리 속도에 따라 적절히 복수회로 나누어져 신호 처리부(ex507)로 보내지고, 신호 처리부(ex507)에 있어서 음성 신호의 부호화 및/또는 영상 신호의 부호화가 행해진다. 여기서 영상 신호의 부호화 처리는 상기 각 실시 형태에서 설명한 부호화 처리이다. 신호 처리부(ex507)에서는 또한, 경우에 따라 부호화된 음성 데이터와 부호화된 영상 데이터를 다중화하는 등의 처리를 행하고, 스트림 I/O(ex506)로부터 외부로 출력한다. 이 출력된 다중화 데이터는, 기지국(ex107)을 향해 송신되거나, 또는 기록 미디어(ex215)에 기록된다. 또한, 다중화할 때에는 동기하도록, 일단 버퍼(ex508)에 데이터를 축적하면 된다.
또한, 상기에서는, 메모리(ex511)가 LSI(ex500)의 외부의 구성으로서 설명했는데, LSI(ex500)의 내부에 포함되는 구성이어도 된다. 버퍼(ex508)도 하나로 한정된 것이 아니고, 복수의 버퍼를 구비하고 있어도 된다. 또, LSI(ex500)는 원칩화되어도 되고, 복수칩화되어도 된다.
또, 상기에서는, 제어부(ex501)가, CPU(ex502), 메모리 컨트롤러(ex503), 스트림 컨트롤러(ex504), 구동 주파수 제어부(ex512) 등을 가지는 것으로 하고 있는데, 제어부(ex501)의 구성은, 이 구성에 한정되지 않는다. 예를 들어, 신호 처리부(ex507)가 CPU를 더 구비하는 구성이어도 된다. 신호 처리부(ex507)의 내부에도 CPU를 설치함으로써, 처리 속도를 보다 향상시키는 것이 가능해진다. 또, 다른 예로서, CPU(ex502)가 신호 처리부(ex507), 또는 신호 처리부(ex507)의 일부인 예를 들어 음성 신호 처리부를 구비하는 구성이어도 된다. 이러한 경우에는, 제어부(ex501)는, 신호 처리부(ex507), 또는 그 일부를 가지는 CPU(ex502)를 구비하는 구성이 된다.
또한, 여기에서는, LSI로 했으나, 집적도의 차이에 의해, IC, 시스템 LSI, 슈퍼 LSI, 울트라 LSI로 호칭되기도 한다.
또, 집적 회로화의 수법은 LSI에 한정하는 것이 아니고, 전용 회로 또는 범용 프로세서로 실현되어도 된다. LSI 제조 후에, 프로그램하는 것이 가능한 FPGA(Field Programmable Gate Array)나, LSI 내부의 회로 셀의 접속이나 설정을 재구성 가능한 리콘피규러블·프로세서를 이용하여도 된다.
더욱이는, 반도체 기술의 진보 또는 파생되는 다른 기술에 의해 LSI로 치환되는 집적 회로화의 기술이 등장하면, 당연, 그 기술을 이용하여 기능 블록의 집적화를 행해도 된다. 바이오 기술의 적응 등이 가능성으로서 있을 수 있다.
(실시 형태 8)
상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 영상 데이터를 복호할 경우, 종래의 MPEG-2, MPEG4-AVC, VC-1 등의 규격에 준거하는 영상 데이터를 복호할 경우에 비해, 처리량이 증가하는 것을 생각할 수 있다. 그로 인해, LSI(ex500)에 있어서, 종래의 규격에 준거하는 영상 데이터를 복호할 때의 CPU(ex502)의 구동 주파수보다 높은 구동 주파수로 설정할 필요가 있다. 그러나, 구동 주파수를 높게 하면, 소비 전력이 높아진다고 하는 과제가 발생한다.
이 과제를 해결하기 위해, 텔레비전(ex300), LSI(ex500) 등의 동화상 복호화 장치는, 영상 데이터가 어느 규격에 준거하는 것인지를 식별하고, 규격에 따라 구동 주파수를 전환하는 구성으로 한다. 도 32는, 본 실시 형태에 있어서의 구성(ex800)을 나타내고 있다. 구동 주파수 전환부(ex803)는, 영상 데이터가, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 것인 경우에는, 구동 주파수를 높게 설정한다. 그리고, 상기 각 실시 형태에서 나타낸 동화상 복호화 방법을 실행하는 복호 처리부(ex801)에 대해, 영상 데이터를 복호하도록 지시한다. 한편, 영상 데이터가, 종래의 규격에 준거하는 영상 데이터인 경우에는, 영상 데이터가, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 것인 경우에 비해, 구동 주파수를 낮게 설정한다. 그리고, 종래의 규격에 준거하는 복호 처리부(ex802)에 대해, 영상 데이터를 복호하도록 지시한다.
보다 구체적으로는, 구동 주파부 전환부(ex803)는, 도 31의 CPU(ex502)와 구동 주파수 제어부(ex512)로 구성된다. 또, 상기 실시 형태에서 나타낸 동화상 복호화 방법을 실행하는 복호 처리부(ex801), 및, 종래의 규격에 준거하는 복호 처리부(ex802)는, 도 31의 신호 처리부(ex507)에 상당한다. CPU(ex502)는, 영상 데이터가 어느 규격에 준거하는 것인지를 식별한다. 그리고, CPU(ex502)로부터의 신호에 기초하여, 구동 주파수 제어부(ex512)는, 구동 주파수를 설정한다. 또, CPU(ex502)로부터의 신호에 기초하여, 신호 처리부(ex507)는, 영상 데이터의 복호를 행한다. 여기서, 영상 데이터의 식별에는, 예를 들어, 제6 실시 형태에서 기재한 식별 정보를 이용하는 것을 생각할 수 있다. 식별 정보에 관해서는, 실시 형태 6에서 기재한 것에 한정되지 않고, 영상 데이터가 어느 규격에 준거하는지 식별할 수 있는 정보이면 된다. 예를 들어, 영상 데이터가 텔레비전에 이용되는 것인지, 디스크에 이용되는 것 인지 등을 식별하는 외부 신호에 기초하여, 영상 데이터가 어느 규격에 준거하는 것인지 식별 가능한 경우에는, 이러한 외부 신호에 기초하여 식별해도 된다. 또, CPU(ex502)에 있어서의 구동 주파수의 선택은, 예를 들어, 도 34와 같은 영상 데이터의 규격과, 구동 주파수를 대응시킨 룩업 테이블에 기초하여 행하는 것을 생각할 수 있다. 룩업 테이블을, 버퍼(ex508)나, LSI의 내부 메모리에 기억해 두고, CPU(ex502)가 이 룩업 테이블을 참조함으로써, 구동 주파수를 선택하는 것이 가능하다.
도 33은, 본 실시 형태의 방법을 실시하는 단계를 도시하고 있다. 우선, 단계(exS200)에서는, 신호 처리부(ex507)에 있어서, 다중화 데이터로부터 식별 정보를 취득한다. 다음에, 단계(exS201)에서는, CPU(ex502)에 있어서, 식별 정보에 기초하여 영상 데이터가 상기 각 실시 형태에서 나타낸 부호화 방법 또는 장치에 의해 생성된 것인지의 여부를 식별한다. 영상 데이터가 상기 각 실시 형태에서 나타낸 부호화 방법 또는 장치에 의해 생성된 것인 경우에는, 단계(exS202)에 있어서, 구동 주파수를 높게 설정하는 신호를, CPU(ex502)가 구동 주파수 제어부(ex512)로 보낸다. 그리고, 구동 주파수 제어부(ex512)에 있어서, 높은 구동 주파수로 설정된다. 한편, 종래의 MPEG-2, MPEG4-AVC, VC-1 등의 규격에 준거하는 영상 데이터인 것을 나타내고 있는 경우에는, 단계(exS203)에 있어서, 구동 주파수를 낮게 설정하는 신호를, CPU(ex502)가 구동 주파수 제어부(ex512)로 보낸다. 그리고, 구동 주파수 제어부(ex512)에 있어서, 영상 데이터가 상기 각 실시 형태에서 나타낸 부호화 방법 또는 장치에 의해 생성된 것인 경우에 비해, 낮은 구동 주파수로 설정된다.
또한, 구동 주파수의 전환에 연동하여, LSI(ex500) 또는 LSI(ex500)를 포함하는 장치에 부여하는 전압을 변경함으로써, 전력 절약 효과를 보다 높이는 것이 가능하다. 예를 들어, 구동 주파수를 낮게 설정하는 경우에는, 이에 수반하여, 구동 주파수를 높게 설정하고 있는 경우에 비해, LSI(ex500) 또는 LSI(ex500)를 포함하는 장치에 부여하는 전압을 낮게 설정하는 것을 생각할 수 있다.
또, 구동 주파수의 설정 방법은, 복호할 때의 처리량이 큰 경우에, 구동 주파수를 높게 설정하고, 복호할 때의 처리량이 작은 경우에, 구동 주파수를 낮게 설정하면 되고, 상기 서술한 설정 방법에 한정되지 않는다. 예를 들어, MPEG4-AVC 규격에 준거하는 영상 데이터를 복호하는 처리량이, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 영상 데이터를 복호하는 처리량보다 큰 경우에는, 구동 주파수의 설정을 상기 서술한 경우와 반대로 하는 것을 생각할 수 있다.
또한, 구동 주파수의 설정 방법은, 구동 주파수를 낮게 하는 구성에 한정되지 않는다. 예를 들어, 식별 정보가, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 영상 데이터인 것을 나타내고 있는 경우에는, LSI(ex500) 또는 LSI(ex500)를 포함하는 장치에 부여하는 전압을 높게 설정하고, 종래의 MPEG-2, MPEG4-AVC, VC-1 등의 규격에 준거하는 영상 데이터인 것을 나타내고 있는 경우에는, LSI(ex500) 또는 LSI(ex500)를 포함하는 장치에게 부여하는 전압을 낮게 설정하는 것도 생각할 수 있다. 또, 다른 예로서는, 식별 정보가, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 영상 데이터인 것을 나타내고 있는 경우에는, CPU(ex502)의 구동을 정지시키지 않고, 종래의 MPEG-2, MPEG4-AVC, VC-1 등의 규격에 준거하는 영상 데이터인 것을 나타내고 있는 경우에는, 처리에 여유가 있기 때문에, CPU(ex502)의 구동을 일시 정지시키는 것도 생각할 수 있다. 식별 정보가, 상기 각 실시 형태에서 나타낸 동화상 부호화 방법 또는 장치에 의해 생성된 영상 데이터인 것을 나타내고 있는 경우여도, 처리에 여유가 있으면, CPU(ex502)의 구동을 일시 정지시키는 것도 생각할 수 있다. 이 경우는, 종래의 MPEG-2, MPEG4-AVC, VC-1 등의 규격에 준거하는 영상 데이터인 것을 나타내고 있는 경우에 비해, 정지 시간을 짧게 설정하는 것을 생각할 수 있다.
이와 같이, 영상 데이터가 준거하는 규격에 따라, 구동 주파수를 전환함으로써, 전력 절약화를 도모하는 것이 가능해진다. 또, 전지를 이용하여 LSI(ex500) 또는 LSI(ex500)를 포함하는 장치를 구동하고 있는 경우에는, 전력 절약화에 수반하여, 전지의 수명을 길게 하는 것이 가능하다
(실시 형태 9)
텔레비전이나, 휴대 전화 등, 상기 서술한 기기·시스템에는, 상이한 규격에 준거하는 복수의 영상 데이터가 입력되는 경우가 있다. 이와 같이, 상이한 규격에 준거하는 복수의 영상 데이터가 입력된 경우에도 복호할 수 있도록 하기 위해, LSI(ex500)의 신호 처리부(ex507)가 복수의 규격에 대응하고 있을 필요가 있다. 그러나, 각각의 규격에 대응하는 신호 처리부(ex507)를 개별적으로 이용하면, LSI(ex500)의 회로 규모가 커져, 또, 코스트가 증가한다고 하는 과제가 발생한다.
이 과제를 해결하기 위해, 상기 각 실시 형태에서 나타낸 동화상 복호 방법을 실행하기 위한 복호 처리부와, 종래의 MPEG-2, MPEG4-AVC, VC-1 등의 규격에 준거하는 복호 처리부를 일부 공유화하는 구성으로 한다. 이 구성예를 도 35A의 ex900으로 도시한다. 예를 들어, 상기 각 실시 형태에서 나타낸 동화상 복호 방법과, MPEG4-AVC 규격에 준거하는 동화상 복호 방법은, 엔트로피 부호화, 역양자화, 디블로킹·필터, 움직임 보상 등의 처리에 있어서 처리 내용이 일부 공통된다. 공통되는 처리 내용에 대해서는, MPEG4-AVC 규격에 대응하는 복호 처리부(ex902)를 공유하고, MPEG4-AVC 규격에 대응하지 않는, 본 발명의 일 양태에 특유의 다른 처리 내용에 대해서는, 전용의 복호 처리부(ex901)를 이용한다고 하는 구성을 생각할 수 있다. 특히, 본 발명의 일 양태는, 움직임 보상에 특징을 가지고 있기 때문에, 예를 들어, 움직임 보상에 대해서는 전용의 복호 처리부(ex901)를 이용하고, 그 이외의 엔트로피 복호, 디블로킹·필터, 역양자화 중 어느 한쪽, 또는, 모든 처리에 대해서는 복호 처리부를 공유하는 것을 생각할 수 있다. 복호 처리부의 공유화에 관해서는, 공통되는 처리 내용에 대해서는, 상기 각 실시 형태에서 나타낸 동화상 복호화 방법을 실행하기 위한 복호 처리부를 공유하고, MPEG4-AVC 규격에 특유의 처리 내용에 대해서는, 전용의 복호 처리부를 이용하는 구성이어도 된다.
또, 처리를 일부 공유화하는 다른 예를 도 35B의 ex1000으로 도시한다. 이 예에서는, 본 발명에 특유의 처리 내용에 대응한 전용의 복호 처리부(ex1001)와, 다른 종래 규격에 특유의 처리 내용에 대응한 전용의 복호 처리부(ex1002)와, 본 발명의 동화상 복호 방법과 다른 종래 규격의 동화상 복호 방법에 공통되는 처리 내용에 대응한 공용의 복호 처리부(ex1003)를 이용하는 구성으로 하고 있다. 여기서, 전용의 복호 처리부(ex1001, ex1002)는, 반드시 본 발명, 또는, 다른 종래 규격에 특유의 처리 내용에 특화한 것이 아니고, 다른 범용 처리를 실행할 수 있는 것이어도 된다. 또, 본 실시 형태의 구성을, LSI(ex500)에서 실장하는 것도 가능하다.
이와 같이, 본 발명의 일 양태에 따른 동화상 복호 방법과, 종래의 규격의 동화상 복호 방법에서 공통되는 처리 내용에 대해, 복호 처리부를 공유함으로써, LSI의 회로 규모를 작게하고, 또한, 코스트를 저감하는 것이 가능하다.
산업상의 이용 가능성
본 발명은, 예를 들어, 텔레비전 수상기, 디지털 비디오 레코더, 자동차 네비게이션, 휴대 전화, 디지털 카메라, 또는, 디지털 비디오 카메라 등에 이용 가능하다.
500, 1300 화상 부호화 장치
501 감산부
502 변환부
503 양자화부
504 엔트로피 부호화부
505, 602 역양자화부
506, 603 역변환부
507, 604 가산부
508, 605 블록 메모리
509, 606 픽쳐 메모리
510, 607 인트라 예측부
511, 608 인터 예측부
512, 609, 1303, 1403 선택부
600, 1400 화상 복호 장치
601 엔트로피 복호부
1301, 1401 도출부
1302, 1402 추가부
1304 부호화부
1404 복호부

Claims (23)

  1. 복수의 픽쳐에 있어서의 복수의 블록 중 각각의 블록을 부호화하는 화상 부호화 방법으로서,
    부호화 대상인 현재 블록을 포함하는 픽쳐와는 상이한 제1 픽쳐에 포함되는 제1 블록의 제1 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와,
    도출된 상기 후보를 후보 리스트에 추가하는 추가 단계와,
    상기 후보 리스트로부터, 상기 움직임 벡터를 선택하는 선택 단계와,
    선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 부호화하는 부호화 단계를 포함하고,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않고, 상기 후보를 도출하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하여 상기 후보를 도출하고,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하지 않고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 또는, 상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하는, 화상 부호화 방법.
  2. 삭제
  3. 청구항 1에 있어서,
    상기 부호화 단계에서는, 또한, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 부호화하는, 화상 부호화 방법.
  4. 청구항 1에 있어서,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐로부터 상기 현재 블록을 포함하는 픽쳐까지의 시간적 거리를 이용하여, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하고,
    상기 제1 블록의 제1 참조 픽쳐로부터 상기 제1 블록을 포함하는 제1 픽쳐까지의 시간적 거리를 이용하여, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하는, 화상 부호화 방법.
  5. 청구항 1에 있어서,
    상기 도출 단계에서는, 상기 제1 블록의 부호화가 행해지는 기간에, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하는, 화상 부호화 방법.
  6. 청구항 1에 있어서,
    상기 도출 단계에서는, 상기 현재 블록의 부호화가 행해지는 기간에, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하는, 화상 부호화 방법.
  7. 청구항 1에 있어서,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터를 상기 후보로서 도출하고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 참조 픽쳐로부터 상기 제1 블록을 포함하는 제1 픽쳐까지의 시간적 거리에 대한, 상기 현재 블록의 참조 픽쳐로부터 상기 현재 블록을 포함하는 픽쳐까지의 시간적 거리의 비율을 이용하여, 상기 제1 블록의 제1 움직임 벡터의 스케일링을 행함으로써 상기 후보를 도출하는, 화상 부호화 방법.
  8. 청구항 1에 있어서,
    상기 도출 단계에서는, 또한, 상기 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐라고 판정되고, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록으로부터 상기 후보를 도출하지 않고, 쇼트 텀 참조 픽쳐를 참조하여 부호화된 다른 제1 블록을 선택하며, 상기 다른 제1 블록의 움직임 벡터로부터 상기 후보를 도출하는, 화상 부호화 방법.
  9. 복수의 픽쳐에 있어서의 복수의 블록 중 각각의 블록을 복호하는 화상 복호 방법으로서,
    복호 대상인 현재 블록을 포함하는 픽쳐와는 상이한 제1 픽쳐에 포함되는 제1 블록의 제1 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와,
    도출된 상기 후보를 후보 리스트에 추가하는 추가 단계와,
    상기 후보 리스트로부터, 상기 움직임 벡터를 선택하는 선택 단계와,
    선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 복호하는 복호 단계를 포함하고,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않고, 상기 후보를 도출하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하여 상기 후보를 도출하고,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하지 않고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 또는, 상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하는, 화상 복호 방법.
  10. 삭제
  11. 청구항 9에 있어서,
    상기 복호 단계에서는, 또한, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 복호하고,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 이용하여, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며,
    상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 나타내는 정보를 이용하여, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하는, 화상 복호 방법.
  12. 청구항 9에 있어서,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐로부터 상기 현재 블록을 포함하는 픽쳐까지의 시간적 거리를 이용하여, 상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하고,
    상기 제1 블록의 제1 참조 픽쳐로부터 상기 제1 블록을 포함하는 제1 픽쳐까지의 시간적 거리를 이용하여, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하는, 화상 복호 방법.
  13. 청구항 9에 있어서,
    상기 도출 단계에서는, 상기 제1 블록의 복호가 행해지는 기간에, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하는, 화상 복호 방법.
  14. 청구항 9에 있어서,
    상기 도출 단계에서는, 상기 현재 블록의 복호가 행해지는 기간에, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하는, 화상 복호 방법.
  15. 청구항 9에 있어서,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터를 상기 후보로서 도출하고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 참조 픽쳐로부터 상기 제1 블록을 포함하는 제1 픽쳐까지의 시간적 거리에 대한, 상기 현재 블록의 참조 픽쳐로부터 상기 현재 블록을 포함하는 픽쳐까지의 시간적 거리의 비율을 이용하여, 상기 제1 블록의 제1 움직임 벡터의 스케일링을 행함으로써 상기 후보를 도출하는, 화상 복호 방법.
  16. 청구항 9에 있어서,
    상기 도출 단계에서는, 또한, 상기 현재 블록의 참조 픽쳐가 쇼트 텀 참조 픽쳐라고 판정되고, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록으로부터 상기 후보를 도출하지 않고, 쇼트 텀 참조 픽쳐를 참조하여 복호된 다른 제1 블록을 선택하며, 상기 다른 제1 블록의 움직임 벡터로부터 상기 후보를 도출하는, 화상 복호 방법.
  17. 복수의 픽쳐에 있어서의 복수의 블록 중 각각의 블록을 부호화하는 화상 부호화 장치로서,
    부호화 대상인 현재 블록을 포함하는 픽쳐와는 상이한 제1 픽쳐에 포함되는 제1 블록의 제1 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출부와,
    도출된 상기 후보를 후보 리스트에 추가하는 추가부와,
    상기 후보 리스트로부터, 상기 움직임 벡터를 선택하는 선택부와,
    선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 부호화하는 부호화부를 구비하고,
    상기 도출부는,
    상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않고, 상기 후보를 도출하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하여 상기 후보를 도출하고,
    상기 도출부는,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하지 않고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 또는, 상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하는, 화상 부호화 장치.
  18. 복수의 픽쳐에 있어서의 복수의 블록 중 각각의 블록을 복호하는 화상 복호 장치로서,
    복호 대상인 현재 블록을 포함하는 픽쳐와는 상이한 제1 픽쳐에 포함되는 제1 블록의 제1 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출부와,
    도출된 상기 후보를 후보 리스트에 추가하는 추가부와,
    상기 후보 리스트로부터, 상기 움직임 벡터를 선택하는 선택부와,
    선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 복호하는 복호부를 구비하고,
    상기 도출부는,
    상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않고, 상기 후보를 도출하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하여 상기 후보를 도출하고,
    상기 도출부는,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하지 않고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 또는, 상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하는, 화상 복호 장치.
  19. 화상 부호화 복호 장치로서,
    청구항 17에 기재된 화상 부호화 장치와,
    복수의 픽쳐에 있어서의 복수의 블록 중 각각의 블록을 복호하는 화상 복호 장치를 구비하고,
    상기 화상 복호 장치는,
    복호 대상인 현재 블록을 포함하는 픽쳐와는 상이한 제1 픽쳐에 포함되는 제1 블록의 제1 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출부와,
    도출된 상기 후보를 후보 리스트에 추가하는 추가부와,
    상기 후보 리스트로부터, 상기 움직임 벡터를 선택하는 선택부와,
    선택된 상기 움직임 벡터 및 상기 현재 블록의 참조 픽쳐를 이용하여 상기 현재 블록을 복호하는 복호부를 구비하고,
    상기 도출부는,
    상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않고, 상기 후보를 도출하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하여 상기 후보를 도출하는, 화상 부호화 복호 장치.
  20. 청구항 1에 기재된 화상 부호화 방법에 의해 부호화된 화상 데이터가 기록된 서버로부터, 외부의 단말로부터의 요구에 따라, 상기 외부의 단말에 대해 상기 화상 데이터를 송신하는, 컨텐츠 공급 방법.
  21. 청구항 9에 있어서,
    상기 화상 복호 방법은, 부호화 신호에 포함되는, 제1 규격과 제2 규격 중 어느 하나를 나타내는 식별자에 따라, 상기 제1 규격에 준거한 복호 처리와, 상기 제2 규격에 준거한 복호 처리를 전환하는 전환 단계를 더 포함하고,
    상기 식별자가 상기 제1 규격을 나타내는 경우에, 상기 도출 단계가 실행되는, 화상 복호 방법.
  22. 복수의 픽쳐에 있어서의 복수의 블록 중 각각의 블록의 움직임 벡터를 도출하는 움직임 벡터 도출 방법으로서,
    부호화 또는 복호 대상인 현재 블록을 포함하는 픽쳐와는 상이한 제1 픽쳐에 포함되는 제1 블록의 제1 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와,
    도출된 상기 후보를 후보 리스트에 추가하는 추가 단계와,
    상기 후보 리스트로부터, 상기 움직임 벡터를 선택하는 선택 단계를 포함하고,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않고, 상기 후보를 도출하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하여 상기 후보를 도출하고,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하지 않고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 또는, 상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하는, 움직임 벡터 도출 방법.
  23. 복수의 픽쳐에 포함되는 복수의 블록 중 각각의 블록을 복호하는 화상 처리 시스템에 이용되는 제어 회로로서,
    상기 화상 처리 시스템은, 상기 제어 회로가 엑세스 가능한 기억 장치를 구비하고,
    상기 제어 회로는, 상기 기억 장치를 이용하여,
    부호화 또는 복호 대상인 현재 블록을 포함하는 픽쳐와는 상이한 제1 픽쳐에 포함되는 제1 블록의 제1 움직임 벡터로부터, 상기 현재 블록의 움직임 벡터의 후보를 도출하는 도출 단계와,
    도출된 상기 후보를 후보 리스트에 추가하는 추가 단계와,
    상기 후보 리스트로부터, 상기 움직임 벡터를 선택하는 선택 단계를 실행하며,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지, 및, 상기 제1 블록의 제1 참조 픽쳐가 롱 텀 참조 픽쳐인지 쇼트 텀 참조 픽쳐인지를 판정하고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하지 않고, 상기 후보를 도출하며,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 움직임 벡터로부터, 시간적 거리에 기초하는 스케일링을 행하여 상기 후보를 도출하고,
    상기 도출 단계에서는,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐 중, 한쪽이 롱 텀 참조 픽쳐라고 판정되고, 다른쪽이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하지 않고,
    상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 롱 텀 참조 픽쳐라고 판정된 경우, 또는, 상기 현재 블록의 참조 픽쳐 및 상기 제1 블록의 제1 참조 픽쳐의 각각이 쇼트 텀 참조 픽쳐라고 판정된 경우, 상기 제1 블록의 제1 움직임 벡터로부터 상기 후보를 도출하는, 제어 회로.
KR1020137028063A 2011-10-28 2012-10-18 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치 KR101935977B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161552848P 2011-10-28 2011-10-28
US61/552,848 2011-10-28
PCT/JP2012/006674 WO2013061549A1 (ja) 2011-10-28 2012-10-18 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置

Publications (2)

Publication Number Publication Date
KR20140092760A KR20140092760A (ko) 2014-07-24
KR101935977B1 true KR101935977B1 (ko) 2019-01-07

Family

ID=48167405

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020137028063A KR101935977B1 (ko) 2011-10-28 2012-10-18 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치

Country Status (13)

Country Link
US (7) US8913665B2 (ko)
EP (1) EP2782341B1 (ko)
JP (4) JP5379933B2 (ko)
KR (1) KR101935977B1 (ko)
CN (2) CN104041042B (ko)
AR (2) AR088540A1 (ko)
CA (1) CA2836244C (ko)
ES (1) ES2780188T3 (ko)
MX (1) MX2013012224A (ko)
PL (1) PL2782341T3 (ko)
RU (2) RU2646328C1 (ko)
TW (1) TWI552576B (ko)
WO (1) WO2013061549A1 (ko)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2675167T3 (pl) * 2011-02-10 2018-11-30 Sun Patent Trust Sposób kodowania ruchomych obrazów, urządzenie do kodowania ruchomych obrazów, sposób dekodowania ruchomych obrazów, urządzenie do dekodowania ruchomych obrazów oraz urządzenie do kodowania i dekodowania ruchomych obrazów
CN107071476B (zh) * 2011-06-30 2020-12-08 索尼公司 图像解码设备和图像解码方法
EP2749027B1 (en) 2011-08-25 2020-04-29 Sun Patent Trust Methods and apparatuses for encoding and decoding video using updated buffer description
ES2625097T3 (es) 2011-09-07 2017-07-18 Sun Patent Trust Método de codificación de imágenes y aparato de codificación de imágenes
JP5932811B2 (ja) 2011-09-19 2016-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像復号方法、及び画像復号装置
ES2924280T3 (es) 2011-10-19 2022-10-05 Sun Patent Trust Procedimiento de descodificación de imágenes y aparato de descodificación de imágenes
EP3576412B1 (en) * 2011-11-08 2021-09-01 Nokia Technologies Oy Reference picture handling
AU2013210955B2 (en) * 2012-01-20 2017-11-09 Nokia Technologies Oy Method for video coding and an apparatus, a computer-program product, a system, and a module for the same
WO2013168407A1 (en) 2012-05-09 2013-11-14 Panasonic Corporation Method of performing motion vector prediction, encoding and decoding methods, and apparatuses thereof
US11595652B2 (en) 2019-01-28 2023-02-28 Op Solutions, Llc Explicit signaling of extended long term reference picture retention
US10271062B2 (en) * 2016-03-18 2019-04-23 Google Llc Motion vector prediction through scaling
US10602176B2 (en) 2016-04-15 2020-03-24 Google Llc Coding interpolation filter type
JP6867763B2 (ja) * 2016-08-10 2021-05-12 日本放送協会 符号化装置及びプログラム
CN107295348A (zh) * 2017-07-31 2017-10-24 南通海鑫信息科技有限公司 一种图像编码方法
CN117294837A (zh) 2018-04-02 2023-12-26 深圳市大疆创新科技有限公司 用于图像处理的方法和图像处理装置
WO2020003274A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Checking order of motion candidates in lut
BR112020024202A2 (pt) 2018-06-29 2021-02-17 Beijing Bytedance Network Technology Co., Ltd. método de processamento de dados de vídeo, aparelho de processamento de vídeo e meios de armazenamento e gravação legíveis por computador não transitório
CN110662057B (zh) 2018-06-29 2022-06-21 北京字节跳动网络技术有限公司 视频处理方法、装置、设备以及存储比特流的方法
TWI723444B (zh) 2018-06-29 2021-04-01 大陸商北京字節跳動網絡技術有限公司 使用一個或多個查找表來按順序存儲先前編碼的運動信息並使用它們來編碼後面的塊的概念
EP3791589A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Which lut to be updated or no updating
CN115134599A (zh) 2018-06-29 2022-09-30 抖音视界有限公司 更新查找表(lut)的条件
MX2020013828A (es) 2018-06-29 2021-03-25 Beijing Bytedance Network Tech Co Ltd Interaccion entre lut y amvp.
TWI752331B (zh) 2018-06-29 2022-01-11 大陸商北京字節跳動網絡技術有限公司 當向Merge/AMVP添加HMVP候選時的部分/完全修剪
JP7181395B2 (ja) 2018-07-02 2022-11-30 北京字節跳動網絡技術有限公司 イントラ予測モードを有するルックアップテーブルおよび非隣接ブロックからのイントラモード予測
TWI820211B (zh) 2018-09-12 2023-11-01 大陸商北京字節跳動網絡技術有限公司 取決於總數減去k的開始檢查hmvp候選的條件
US11122288B2 (en) 2018-12-06 2021-09-14 Qualcomm Incorporated Spatio-temporal motion vector prediction patterns for video coding
KR20240010576A (ko) 2019-01-10 2024-01-23 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut 업데이트의 호출
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
WO2020147772A1 (en) 2019-01-16 2020-07-23 Beijing Bytedance Network Technology Co., Ltd. Motion candidates derivation
CN113597768A (zh) * 2019-01-28 2021-11-02 Op方案有限责任公司 扩展长期参考图片保留的在线和离线选择
CN113615193A (zh) 2019-03-22 2021-11-05 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互
US10638130B1 (en) * 2019-04-09 2020-04-28 Google Llc Entropy-inspired directional filtering for image coding
CN114073080A (zh) * 2019-06-26 2022-02-18 三星电子株式会社 通过考虑编码顺序来执行基于仿射模型的预测的视频编码方法及其装置以及通过考虑解码顺序来执行基于仿射模型的预测的视频解码方法及其装置

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2682616B1 (fr) 1991-10-18 1993-12-10 Atochem Catalyseurs de deshalogenation d'acides carboxyliques alphahalogenes.
TW328969B (en) 1995-09-30 1998-04-01 Jiang Shiow Wan Manufacturing method for NiAl metal matrix ceramic composite
US6160920A (en) 1998-09-15 2000-12-12 Winbond Electronics Corp. Cosine transforming and quantizing device, method of reducing multiplication operations in a video compressing apparatus
US6594313B1 (en) * 1998-12-23 2003-07-15 Intel Corporation Increased video playback framerate in low bit-rate video applications
JP2003116053A (ja) 2001-10-05 2003-04-18 Hitachi Ltd 特殊効果データ符号化方法及び特殊効果表示方法及び特殊効果データ編集方法
US20030123738A1 (en) 2001-11-30 2003-07-03 Per Frojdh Global motion compensation for video pictures
JP2004215215A (ja) 2002-03-14 2004-07-29 Matsushita Electric Ind Co Ltd 動きベクトル検出方法
US20040247031A1 (en) * 2002-03-14 2004-12-09 Makoto Hagai Motion vector detection method
JP2004208258A (ja) * 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
JP4130783B2 (ja) 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
KR100491530B1 (ko) 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
KR100901030B1 (ko) 2002-05-11 2009-06-04 엘지전자 주식회사 동영상 코딩방법
CN1666532A (zh) * 2002-07-02 2005-09-07 松下电器产业株式会社 图像编码方法和图像解码方法
KR100865034B1 (ko) 2002-07-18 2008-10-23 엘지전자 주식회사 모션 벡터 예측 방법
ES2495440T3 (es) 2002-11-01 2014-09-17 Panasonic Intellectual Property Corporation Of America Procedimiento de codificación de fotogramas de movimiento y procedimiento de decodificación de fotogramas de movimiento
CN101304536B (zh) 2002-11-20 2011-11-02 松下电器产业株式会社 动态图像编码方法及动态图像编码装置
FR2850827B1 (fr) 2003-02-03 2005-11-04 Pagnac Andre Procede et dispositif de compression de parties d'images
US8131095B2 (en) 2003-02-03 2012-03-06 Actimagine Process and device for the compression of portions of images
KR100579493B1 (ko) * 2003-06-16 2006-05-15 삼성전자주식회사 움직임 벡터 생성 장치 및 방법
US7567617B2 (en) * 2003-09-07 2009-07-28 Microsoft Corporation Predicting motion vectors for fields of forward-predicted interlaced video frames
JP2005184042A (ja) 2003-12-15 2005-07-07 Sony Corp 画像復号装置及び画像復号方法並びに画像復号プログラム
JP4591657B2 (ja) * 2003-12-22 2010-12-01 キヤノン株式会社 動画像符号化装置及びその制御方法、プログラム
CN100385957C (zh) 2004-05-21 2008-04-30 中国科学院计算技术研究所 一种运动矢量预测的方法
KR100714696B1 (ko) 2005-06-24 2007-05-04 삼성전자주식회사 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치
WO2007035056A1 (en) 2005-09-26 2007-03-29 Samsung Electronics Co., Ltd. Method and apparatus for entropy encoding and entropy decoding fine-granularity scalability layer video data
KR100727989B1 (ko) 2005-10-01 2007-06-14 삼성전자주식회사 동영상 부호화시의 인터 모드 결정 방법 및 장치
JP4241709B2 (ja) 2005-10-11 2009-03-18 ソニー株式会社 画像処理装置
CN101005614A (zh) 2006-01-17 2007-07-25 鲁海宁 动态图像编解码方法、装置和计算机可读记录介质
US8238442B2 (en) * 2006-08-25 2012-08-07 Sony Computer Entertainment Inc. Methods and apparatus for concealing corrupted blocks of video data
JP2008193503A (ja) 2007-02-06 2008-08-21 Oki Electric Ind Co Ltd 動画像符号化装置および動画像符号化方法
CN101669367A (zh) * 2007-03-02 2010-03-10 Lg电子株式会社 用于解码/编码视频信号的方法及设备
US7761685B2 (en) 2007-11-20 2010-07-20 Seiko Epson Corporation Compressing and decompressing image data without introducing artifacts
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
JP4978575B2 (ja) 2008-06-25 2012-07-18 富士通株式会社 シンクライアントシステムにおける画像符号化方法及び画像符号化プログラム
KR101517768B1 (ko) 2008-07-02 2015-05-06 삼성전자주식회사 영상의 부호화 방법 및 장치, 그 복호화 방법 및 장치
US20110164684A1 (en) 2008-09-24 2011-07-07 Sony Corporation Image processing apparatus and method
KR101590511B1 (ko) 2009-01-23 2016-02-02 에스케이텔레콤 주식회사 움직임 벡터 부호화/복호화 장치 및 방법과 그를 이용한 영상 부호화/복호화 장치 및 방법
JP2011082683A (ja) 2009-10-05 2011-04-21 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
CN102045557B (zh) 2009-10-20 2012-09-19 鸿富锦精密工业(深圳)有限公司 视频编解码方法及使用其的视频编码、解码装置
CN102131094A (zh) * 2010-01-18 2011-07-20 联发科技股份有限公司 运动预测方法
US9036692B2 (en) 2010-01-18 2015-05-19 Mediatek Inc. Motion prediction method
KR101752418B1 (ko) * 2010-04-09 2017-06-29 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101791078B1 (ko) 2010-04-16 2017-10-30 에스케이텔레콤 주식회사 영상 부호화/복호화 장치 및 방법
KR102015674B1 (ko) 2011-05-24 2019-08-28 벨로스 미디어 인터내셔널 리미티드 화상 부호화 방법, 화상 부호화 장치, 화상 복호 방법, 화상 복호 장치, 및, 화상 부호화 복호 장치
US9420307B2 (en) * 2011-09-23 2016-08-16 Qualcomm Incorporated Coding reference pictures for a reference picture set
RU2577181C2 (ru) 2011-10-21 2016-03-10 Нокиа Текнолоджиз Ой Способ и устройство для кодирования видеосигналов
JP5320525B1 (ja) 2011-10-27 2013-10-23 パナソニック株式会社 予測動きベクトル導出方法および予測動きベクトル導出装置
CN103688545B (zh) 2011-10-28 2017-05-10 太阳专利托管公司 图像编码方法、图像解码方法、图像编码装置及图像解码装置
CN104796723B (zh) 2011-11-08 2016-10-12 三星电子株式会社 用于在视频编码或解码中的运动矢量确定的方法和设备
US9420286B2 (en) 2012-06-15 2016-08-16 Qualcomm Incorporated Temporal motion vector prediction in HEVC and its extensions
US9491461B2 (en) 2012-09-27 2016-11-08 Qualcomm Incorporated Scalable extensions to HEVC and temporal motion vector prediction
WO2015056179A1 (en) 2013-10-15 2015-04-23 Nokia Technologies Oy Video encoding and decoding using syntax element
US20170294097A1 (en) 2016-04-08 2017-10-12 Vivint, Inc. Automated nap mode

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
J-L. Lin, et al. Improved Advanced Motion Vector Prediction. JCT-VC of ITU-T and ISO/IEC. JCTVC-D125 Ver. 3, Jan. 23, 2011, pp.1-8
P. Yin, et al. Unification of Motion Vector Prediction Methods. JVT of ISO/IEC and ITU-T. JVT-E061r1. Oct. 8, 2002, pp.1-12

Also Published As

Publication number Publication date
US20230224491A1 (en) 2023-07-13
JP5379933B2 (ja) 2013-12-25
CA2836244A1 (en) 2013-05-02
CN104041042A (zh) 2014-09-10
US10321152B2 (en) 2019-06-11
AR088540A1 (es) 2014-06-18
US11902568B2 (en) 2024-02-13
JP5995102B2 (ja) 2016-09-21
EP2782341B1 (en) 2020-01-01
MX2013012224A (es) 2013-11-01
PL2782341T3 (pl) 2020-06-29
JP5414942B1 (ja) 2014-02-12
JP6041102B2 (ja) 2016-12-07
CN107948656A (zh) 2018-04-20
WO2013061549A1 (ja) 2013-05-02
US11622128B2 (en) 2023-04-04
US20190261017A1 (en) 2019-08-22
TW201325253A (zh) 2013-06-16
CA2836244C (en) 2021-02-16
US20200213614A1 (en) 2020-07-02
TWI552576B (zh) 2016-10-01
RU2013147415A (ru) 2015-12-10
JP2014039299A (ja) 2014-02-27
US20130107964A1 (en) 2013-05-02
US10631004B2 (en) 2020-04-21
RU2609083C2 (ru) 2017-01-30
JPWO2013061549A1 (ja) 2015-04-02
US20210360283A1 (en) 2021-11-18
JP2014030240A (ja) 2014-02-13
RU2646328C1 (ru) 2018-03-02
US20240121429A1 (en) 2024-04-11
ES2780188T3 (es) 2020-08-24
JP2014030241A (ja) 2014-02-13
US20140064377A1 (en) 2014-03-06
CN107948656B (zh) 2021-06-01
US11115677B2 (en) 2021-09-07
AR111961A2 (es) 2019-09-04
KR20140092760A (ko) 2014-07-24
EP2782341A4 (en) 2015-04-15
EP2782341A1 (en) 2014-09-24
CN104041042B (zh) 2018-10-23
US8913665B2 (en) 2014-12-16

Similar Documents

Publication Publication Date Title
JP6260920B2 (ja) 符号化復号システム
KR101935977B1 (ko) 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치
KR101941304B1 (ko) 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치
KR101935620B1 (ko) 동화상 부호화 방법, 동화상 부호화 장치, 동화상 복호화 방법, 동화상 복호화 장치, 및 동화상 부호화 복호화 장치
KR101790378B1 (ko) 화상 부호화 방법, 화상 복호방법, 화상 부호화 장치, 화상 복호장치 및 화상 부호화 복호장치
KR101846603B1 (ko) 동화상 부호화 방법, 동화상 부호화 장치, 동화상 복호 방법, 동화상 복호 장치, 및 동화상 부호화 복호 장치
KR101913086B1 (ko) 동화상 부호화 방법 및 동화상 복호화 방법
KR101878008B1 (ko) 동화상 부호화 방법, 동화상 복호 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
WO2013108616A1 (en) Methods and apparatuses for encoding and decoding video using temporal motion vector prediction
KR20140082969A (ko) 화상 부호화 방법, 화상 부호화 장치, 화상 복호 방법, 및, 화상 복호 장치
JPWO2012090495A1 (ja) 画像符号化方法および画像復号方法

Legal Events

Date Code Title Description
N231 Notification of change of applicant
AMND Amendment
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant