KR101717965B1 - 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램 - Google Patents

동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램 Download PDF

Info

Publication number
KR101717965B1
KR101717965B1 KR1020167014485A KR20167014485A KR101717965B1 KR 101717965 B1 KR101717965 B1 KR 101717965B1 KR 1020167014485 A KR1020167014485 A KR 1020167014485A KR 20167014485 A KR20167014485 A KR 20167014485A KR 101717965 B1 KR101717965 B1 KR 101717965B1
Authority
KR
South Korea
Prior art keywords
motion vector
motion
information
prediction
signal
Prior art date
Application number
KR1020167014485A
Other languages
English (en)
Other versions
KR20160075773A (ko
Inventor
요시노리 스즈키
충셍 분
Original Assignee
가부시키가이샤 엔.티.티.도코모
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 엔.티.티.도코모 filed Critical 가부시키가이샤 엔.티.티.도코모
Publication of KR20160075773A publication Critical patent/KR20160075773A/ko
Application granted granted Critical
Publication of KR101717965B1 publication Critical patent/KR101717965B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel

Abstract

동화상 예측 부호화 장치 내의 예측 신호 생성기(103)는, 제1 예측 신호를 취득하기 위한 제1 움직임 벡터를 추정하고, 상기 제1 움직임 벡터와 유사한 제1 예측 움직임 벡터를 선택하고, 상기 예측 움직임 벡터를 식별하기 위한 제1 예측 움직임 정보 인덱스와, 제1 움직임 벡터 및 제1 예측 움직임 벡터로부터 결정되는 차분 움직임 벡터를 포함하는 제1 부가 정보를 생성하는 수단(122); 및 대상 영역과의 상관이 높은 제2 예측 신호를 생성하는 움직임 벡터를 선택하고, 상기 움직임 벡터를 제2 예측 움직임 벡터로서 식별하기 위한 제2 예측 움직임 정보 인덱스를 포함하는 제2 부가 정보를 생성하고, 제2 예측 움직임 벡터를 제2 움직임 벡터로 설정하는 수단(121); 및 제1, 제2 예측 신호를 합성하고 대상 영역의 예측 신호를 생성하는 수단(123)을 포함한다.

Description

동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램 {VIDEO PREDICTION ENCODING DEVICE, VIDEO PREDICTION ENCODING METHOD, VIDEO PREDICTION ENCODING PROGRAM, VIDEO PREDICTION DECODING DEVICE, VIDEO PREDICTION DECODING METHOD, AND VIDEO PREDICTION DECODING PROGRAM}
본 발명은 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램에 관한 것이며, 특히, 2개의 예측 신호를 평균화함으로써 최종적인 블록 예측 신호(쌍예측 신호)를 생성하는 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램에 관한 것이다.
정지 화상이나 동화상 데이터의 전송이나 축적을 효율적으로 행하기 위하여, 압축 부호화 기술이 사용된다. 동화상의 경우에는 MPEG-1∼4나 ITU(International Teleco㎜unication Union) H.261∼H.264의 방식이 널리 사용되고 있다.
이들의 부호화 방식에서는, 부호화의 대상이 되는 화상을 복수의 블록으로 분할한 후에 부호화·복호 처리를 행한다. 화면 내의 예측 부호화에서는, 대상 블록과 동일 화면 내에 있는 인접하는 기(旣)재생의 화상 신호(압축된 화상 데이터가 복원된 것)를 사용하여 예측 신호를 생성한 후에, 그 예측 신호를 대상 블록의 신호로부터 감산한 차분(差分) 신호를 부호화한다. 화면 간 예측 부호화에서는, 대상 블록과 상이한 화면 내에 있는 인접하는 기재생의 화상 신호를 참조하여, 동작의 보정을 행하고, 예측 신호를 생성하고, 그 예측 신호를 대상 블록의 신호로부터 감산한 차분 신호를 부호화한다.
예를 들면, H.264의 화면 내 예측 부호화에서는, 부호화의 대상이 되는 블록에 인접하는 기재생의 화소값을 소정 방향에 외삽(外揷)하여 예측 신호를 생성하는 방법을 채용하고 있다. 도 20은 ITU H.264에 사용되는 화면 내 예측 방법을 설명하기 위한 모식도이다. 도 20 (A)에 있어서, 대상 블록(802)은 부호화의 대상이 되는 블록에서 있어, 그 대상 블록(802)의 경계에 인접하는 화소 A∼M으로 이루어지는 화소군(801)은 인접 영역이며, 과거의 처리에 있어서 이미 재생된 화상 신호이다.
이 경우, 대상 블록(802)의 바로 위에 있는 인접 화소인 화소군(801)을 아래쪽으로 확대하여 예측 신호를 생성한다. 또한 도 20 (B)에서는, 대상 블록(804)의 왼쪽에 있는 기재생 화소 I∼L을 오른쪽으로 확대하여 예측 신호를 생성한다. 예측 신호를 생성하는 구체적인 방법은, 예를 들면, 특허문헌 1에 기재되어 있다. 이와 같이, 도 20 (A)∼(I)에 나타낸 방법으로 생성된 9개의 예측 신호 각각에 대하여 대상 블록의 화소 신호와의 차분을 취하여, 차분값이 가장 작은 것을 최적의 예측 신호로 한다. 이상과 같이, 화소를 외삽함으로써 예측 신호를 생성할 수 있다. 이상의 내용에 대해서는, 하기 특허문헌 1에 기재되어 있다.
통상의 화면 간 예측 부호화에서는, 부호화의 대상이 되는 블록에 대하여, 그 화소 신호에 유사한 신호를 이미 재생이 끝난 화면으로부터 탐색한다고 하는 방법으로 예측 신호를 생성한다. 그리고, 대상 블록과 탐색한 신호가 구성하는 영역과의 사이의 공간적인 변위량인 움직임 벡터, 및 대상 블록의 화소 신호와 예측 신호와의 잔차 신호를 부호화한다. 이와 같이 블록마다 움직임 벡터를 탐색하는 방법은 블록 매칭(block matching)이라고 한다.
도 19는 블록 매칭 처리를 설명하기 위한 모식도이다. 여기서는, 부호화 대상의 화면(701) 상의 대상 블록(702)을 예로 예측 신호의 생성 절차를 설명한다. 참조 화면(703)은 이미 재생이 끝난 상태이며, 영역(704)은 대상 블록(702)과 공간적으로 동일 위치의 영역이다. 블록 매칭에서는, 영역(704)을 둘러싸는 탐색 범위(705)를 설정하고, 이 탐색 범위(705)의 화소 신호로부터 대상 블록(702)의 화소 신호와의 절대값 오차 합이 최소가 되는 영역(706)을 검출한다. 이 영역(706)의 신호가 예측 신호가 되어, 영역(704)으로부터 영역(706)으로의 변위량이 움직임 벡터(707)로서 검출된다. 또한, 참조 화면(703)을 복수 준비하고, 대상 블록마다 블록 매칭을 실시하는 참조 화면을 선택하고, 참조 화면 선택 정보를 검출하는 방법도 되고 사용된다. H.264에서는, 화상의 국소적인 특징의 변화에 대응하기 위하여, 움직임 벡터를 부호화하는 블록 사이즈가 상이한 복수의 예측 타입을 준비하고 있다. H.264의 예측 타입에 대하여는, 예를 들면, 특허문헌 2에 기재되어 있다.
동화상 데이터의 압축 부호화에서는, 각각의 화면(프레임, 필드)의 부호화 순서는 임의이어도 된다. 그러므로, 재생이 끝난 화면을 참조하여 예측 신호를 생성하는 화면 간 예측에도, 부호화 순서에 대해 2종류의 방법이 있다. 제1 방법은 1개의 재생이 끝난 화면을 참조하여 예측 신호를 생성하는 편(片)예측이며, 제2 방법은 1개 또는 2개의 재생이 끝난 화면을 참조하여 얻어지는 2개의 예측 신호를 평균화하는 쌍(雙)예측이다. 편예측에는, 표시 순서에서 과거의 재생이 끝난 화면을 참조하는 전(前)방향 예측과 표시 순서에서 미래의 재생이 끝난 화면을 참조하는 후(後)방향 예측이 있다. 화면 간 예측의 종류에 대하여는, 예를 들면, 특허문헌 3에 기재되어 있다.
H.264에서는, 참조 화면(703)의 후보로서, 복수의 재생이 끝난 화면으로 이루어지는 2개의 참조 화면 리스트를 작성하여 제2 의 화면 간 방법(쌍예측)을 행한다. 각 참조 화면 리스트에 등록되는 복수의 참조 화면을 대상으로 하여 블록 매칭을 행하고, 영역(706)에 상당하는 영역을 2개 검출하고, 검출한 2개의 예측 신호를 평균화한다.
도 5와 도 6에 의해 참조 화면 리스트의 예를 설명한다. 도 5 (A)에서는, 화면(505)이 부호화 대상 화상, 화면(501) 내지 화면(504)이 재생이 끝난 화면을 나타내고 있다. 도 5 (B)에서는, 화면(510)이 부호화 대상 화면, 화면(507, 508, 509) 및 화면(511)이 재생이 끝난 화면을 나타내고 있다. 각 화상(화면)의 식별은 프레임 번호(frame_num)에 의해 행해진다. 도 6의 List0와 List1이 2개의 참조 화면 리스트를 나타내고, 도 6 (A)가, 도 5 (A)의 참조 화면 리스트, 도 6 (B)와 (C)가 도 5 (B)의 참조 화면 리스트의 예를 나타내고 있다. 도 6 (A)와 (C)에서는, 각 참조 화면 리스트에 각각 4개의 참조 화면이 등록되어 있고, 도 6 (B)에서는, 각 참조 화면 리스트에 각각 2개의 참조 화면이 등록되어 있다. 각 참조 화면은 참조 화면 인덱스(ref_idx)에 의해 식별된다. 참조 화면 리스트에 등록할 수 있는 재생이 끝난 화상은, 기본적으로 임의이다. 그리고, 본건에서는, 내용의 이해를 용이하게 하기 위하여, 상기한 참조 화면 리스트 List0, List1에 맞춰, 예를 들면, 제1 움직임 정보, 제2 움직임 정보라는 호칭을 사용하고 있다.
미국 특허공보 제6765964호 미국 특허공보 제7003035호 미국 특허공보 제6259739호
쌍예측에서는, 유사한 2개의 예측 신호의 평균화에 의한 평활화 효과로 예측 신호에 포함되는 노이즈를 제거할 수 있게 된다. 그런데, 이와 같은 평활화 효과가 큰 블록은 텍스처 영역이나 노이즈를 포함하는 평탄 영역인 경우가 많고, 참조 화면 내에 유사 신호가 복수 개 존재한다.
이들 영역의 신호는 랜덤성이 강하기 때문에, 이들 영역에 의해 대상 블록에 유사한 2개의 예측 신호를 복수의 참조 화면으로부터 탐색하면, 인접하는 블록 사이의 움직임 벡터가 불균일해지는 경우가 있다. 움직임 벡터는 인접 블록의 움직임 벡터와의 차이로 부호화하므로, 인접 블록 사이에서 움직임 벡터가 불균일해지면 그 부호량이 증대된다.
쌍예측의 부호량을 줄이는 방법으로서는, 종래예로 나타낸 바와 같이, 인접 블록의 상황에 사용하여 2개의 움직임 벡터를 복호 측에서 도출하는 방법이 있지만, 이용할 수 있는 예측 신호의 제한이 너무 강하므로, 2개의 예측 신호의 유사성을 높이는 것이 어렵고, 충분한 평활화 효과를 얻을 수 없다.
전술한 과제를 해결하기 위하여, 본 발명에서는, 대상 블록과 유사한 예측 신호를 생성하는 1개의 움직임 벡터를 부호화하고, 또 1개의 움직임 벡터를 부호화가 끝난 움직임 정보로부터 선택적으로 구함으로써, 2개의 움직임 벡터를 부호화하는 쌍예측에 대해 적은 부호량으로, 효율적으로 예측 신호의 노이즈를 억제하는 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램을 제공하는 것을 목적으로 한다.
본 발명의 일 측면에 따른 동화상 예측 부호화 장치는, 입력 화상을 복수의 영역으로 분할하는 영역 분할 수단; 상기 영역 분할 수단에 의해 분할된 영역 중, 부호화 대상인 대상 영역과의 상관(相關)이 높은 신호를 기재생 화상으로부터 취득하기 위한 움직임 벡터를 결정하는 예측 신호 생성 수단; 상기 움직임 벡터를 저장하는 움직임 정보 기록 수단; 상기 대상 영역의 예측 신호와 상기 대상 영역의 화소 신호와의 잔차 신호를 생성하는 잔차 신호 생성 수단; 상기 잔차 신호 생성 수단에 의해 생성된 잔차 신호를 압축하는 잔차 신호 압축 수단; 상기 잔차 신호의 압축 데이터를 복원한 재생 잔차 신호를 생성하는 잔차 신호 복원 수단; 상기 움직임 정보 기록 수단에 저장된 기재생의 움직임 벡터로부터 선택된 상기 대상 영역의 움직임 벡터와 유사한 예측 움직임 벡터, 상기 대상 영역의 움직임 벡터로부터 결정되는 부가 정보, 및 상기 잔차 신호의 압축 데이터를 부호화하는 부호화 수단; 상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 대상 영역의 화소 신호를 복원하여, 복원된 화소 신호를 상기 기재생 화상으로서 저장하는 화상 기록 수단을 포함하고, 상기 움직임 벡터는, 제1 예측 신호의 생성에 필요한 제1 움직임 벡터와, 제2 예측 신호의 생성에 필요한 제2 움직임 벡터를 포함하고 있고, 상기 예측 신호 생성 수단이, 상기 제1 예측 신호를 취득하기 위한 제1 움직임 벡터를 추정하고, 추정한 제1 움직임 벡터와 유사한 제1 예측 움직임 벡터를 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택하고, 선택한 상기 예측 움직임 벡터를 식별하기 위한 제1 예측 움직임 정보 인덱스와, 상기 제1 움직임 벡터 및 제1 예측 움직임 벡터로부터 결정되는 차분 움직임 벡터를 포함하는 제1 부가 정보를 생성하는 제1 움직임 정보 추정 수단; 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터, 대상 영역과의 상관이 높은 제2 예측 신호를 생성하는 움직임 벡터를 선택하고, 선택한 움직임 벡터를 제2 예측 움직임 벡터로서 식별하기 위한 제2 예측 움직임 정보 인덱스를 포함하는 제2 부가 정보를 생성하고, 상기 제2 예측 움직임 벡터를 제2 움직임 벡터로 설정하는 제2 움직임 정보 추정 수단; 및 상기 제1 예측 신호와 상기 제2 예측 신호를 합성하여 대상 영역의 예측 신호를 생성하는 예측 신호 합성 수단을 포함하는 것을 특징으로 한다.
상기한 동화상 예측 부호화 장치에서는, 상기 제2 움직임 정보 추정 수단이, 또한 상기 제2 예측 신호를 취득하기 위한 제3 움직임 벡터를 추정하여, 제3 움직임 벡터를 검출하는 동시에, 추정한 제3 움직임 벡터와 유사한 제3 예측 움직임 벡터를 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택하고, 선택한 상기 예측 움직임 벡터를 식별하기 위한 제3 예측 움직임 정보 인덱스와, 상기 제3 움직임 벡터 및 상기 제3 예측 움직임 벡터로부터 결정되는 차분 움직임 벡터를 포함하는 제3 부가 정보를 생성하는 기능을 가지고, 상기 예측 신호 생성 수단은, 상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 모두 부호화 대상 화상보다 과거의 화상인 경우에는, 상기 제2 움직임 벡터에 의해 상기 제2 예측 신호를 생성하고, 상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상 화상보다 미래의 화상이 포함되는 경우에는, 상기 제3 움직임 벡터에 의해 상기 제2 예측 신호를 생성하고, 상기 부호화 수단은, 상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 모두 부호화 대상 화상보다 과거의 화상인 경우에는, 화면 또는 슬라이스마다, 상기 제2 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하고, 상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상 화상보다 미래의 화상이 포함되는 경우에는, 화면 또는 슬라이스마다, 상기 제3 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하고, 상기 제1 부가 정보와, 상기 지시 정보에 기초하여 제2 부가 정보 또는 제3 부가 정보 중 어느 한쪽을 각 대상 영역의 부가 정보로서 부호화해도 된다.
본 발명의 일 측면에 따른 동화상 예측 복호 장치는, 복수의 영역으로 분할하여 부호화된 압축 데이터 중에서 복호 대상이 되는 복호 대상 영역의 부가 정보와 잔차 신호의 압축 데이터를 복호하는 복호 수단; 상기 부가 정보로부터 상기 대상 영역의 예측 신호를 생성하는 데 필요한 움직임 벡터를 복원하는 움직임 정보 복원 수단; 상기 움직임 벡터를 저장하는 움직임 정보 기록 수단; 상기 움직임 벡터에 기초하여 상기 대상 영역의 예측 신호를 생성하는 움직임 보상 수단; 상기 잔차 신호의 압축 데이터로부터 상기 대상 영역의 재생 잔차 신호를 복원하는 잔차 신호 복원 수단; 및 상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 복호 대상 영역의 화소 신호를 복원하고, 복원된 화소 신호를 기재생 화상으로서 저장하는 화상 기록 수단을 포함하고, 상기 복호 수단은, 제1 부가 정보와 제2 부가 정보를 복호하고, 상기 제1 부가 정보는, 제1 차분 움직임 벡터와, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제1 예측 움직임 벡터로서 식별하기 위한 제1 예측 움직임 정보 인덱스를 포함하고, 상기 제2 부가 정보는, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제2 예측 움직임 벡터로서 식별하는 제2 예측 움직임 정보 인덱스를 포함하고, 상기 움직임 정보 복원 수단이, 상기 제1 예측 움직임 정보 인덱스에 기초하여 제1 예측 움직임 벡터를 생성하고, 생성한 제1 예측 움직임 벡터와 상기 제1 차분 움직임 벡터를 가산하여 제1 움직임 벡터를 복원하는 제1 움직임 정보 복원 수단; 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하는 제2 움직임 정보 복원 수단을 포함하고, 상기 움직임 보상 수단은, 상기 제1 움직임 벡터와 상기 제2 움직임 벡터에 기초하여 상기 기재생 화상으로부터 취득되는 2개의 신호를 합성하여 상기 대상 영역의 예측 신호를 생성하는 것을 특징으로 한다.
상기한 동화상 예측 복호 장치에서는, 상기 복호 수단은, 또한 화면 또는 슬라이스마다, 상기 제2 부가 정보가 차분 움직임 벡터를 포함하는지의 여부를 지시하는 지시 정보를 복호하고, 상기 지시 정보가, 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는 것을 나타내는 경우는, 상기 제2 부가 정보로서 차분 움직임 벡터를 복호하고, 상기 제2 움직임 정보 복원 수단은, 상기 지시 정보가, 제2 부가 정보가 제2 차분 움직임 벡터를 포함하지 않는 것을 나타내는 경우는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하고, 상기 지시 정보가, 제2 부가 정보가 차분 벡터를 포함하는 것을 나타내는 경우는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터와 복호한 차분 움직임 벡터를 가산하여 제2 움직임 벡터를 생성하여 복원해도 된다.
본 발명은 동화상 예측 부호화 방법에 관한 발명, 동화상 예측 복호 방법에 관한 발명, 동화상 예측 부호화 프로그램에 관한 발명, 동화상 예측 복호 프로그램에 관한 발명으로서 파악할 수도 있고, 다음과 같이 기술할 수 있다.
본 발명의 일 측면에 따른 동화상 예측 부호화 방법은, 동화상 예측 부호화 장치에 의해 실행되는 동화상 예측 부호화 방법으로서, 입력 화상을 복수의 영역으로 분할하는 영역 분할 단계; 상기 영역 분할 단계에 의해 분할된 영역 중, 부호화 대상인 대상 영역과의 상관이 높은 신호를 기재생 화상으로부터 취득하기 위한 움직임 벡터를 결정하는 예측 신호 생성 단계; 상기 움직임 벡터를 움직임 정보 기록 수단에 저장하는 움직임 정보 기록 단계; 상기 대상 영역의 예측 신호와 상기 대상 영역의 화소 신호와의 잔차 신호를 생성하는 잔차 신호 생성 단계; 상기 잔차 신호 생성 단계에 의해 생성된 잔차 신호를 압축하는 잔차 신호 압축 단계; 상기 잔차 신호의 압축 데이터를 복원한 재생 잔차 신호를 생성하는 잔차 신호 복원 단계; 상기 움직임 정보 기록 수단에 저장된 기재생의 움직임 벡터로부터 선택된 상기 대상 영역의 움직임 벡터와 유사한 예측 움직임 벡터, 상기 대상 영역의 움직임 벡터로부터 결정되는 부가 정보, 및 상기 잔차 신호의 압축 데이터를 부호화하는 부호화 단계; 및 상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 대상 영역의 화소 신호를 복원하고, 복원된 화소 신호를 상기 기재생 화상으로서 화상 기록 수단에 저장하는 화상 기록 단계를 포함하고, 상기 움직임 벡터는, 제1 예측 신호의 생성에 필요한 제1 움직임 벡터와, 제2 예측 신호의 생성에 필요한 제2 움직임 벡터를 포함하고 있고, 상기 예측 신호 생성 단계가, 상기 제1 예측 신호를 취득하기 위한 제1 움직임 벡터를 추정하고, 추정한 제1 움직임 벡터와 유사한 제1 예측 움직임 벡터를 상기 움직임 정보 기록 단계에서 저장되어 있는 복수의 움직임 벡터로부터 선택하고, 선택한 상기 예측 움직임 벡터를 식별하기 위한 제1 예측 움직임 정보 인덱스와, 상기 제1 움직임 벡터 및 제1 예측 움직임 벡터로부터 결정되는 차분 움직임 벡터를 포함하는 제1 부가 정보를 생성하는 제1 움직임 정보 추정 단계; 상기 움직임 정보 기록 단계에서 저장되어 있는 복수의 움직임 벡터로부터, 대상 영역과의 상관이 높은 제2 예측 신호를 생성하는 움직임 벡터를 선택하고, 선택한 움직임 벡터를 제2 예측 움직임 벡터로서 식별하기 위한 제2 예측 움직임 정보 인덱스를 포함하는 제2 부가 정보를 생성하고, 상기 제2 예측 움직임 벡터를 제2 움직임 벡터로 설정하는 제2 움직임 정보 추정 단계; 및 상기 제1 예측 신호와 상기 제2 예측 신호를 합성하여 대상 영역의 예측 신호를 생성하는 예측 신호 합성 단계를 포함하는 것을 특징으로 한다.
상기한 동화상 예측 부호화 방법에서는, 상기 제2 움직임 정보 추정 단계에 있어서, 상기 동화상 예측 부호화 장치는, 또한, 상기 제2 예측 신호를 취득하기 위한 제3 움직임 벡터를 추정하여, 제3 움직임 벡터를 검출하고, 추정한 제3 움직임 벡터와 유사한 제3 예측 움직임 벡터를 상기 움직임 정보 기록 단계에서 저장되어 있는 복수의 움직임 벡터로부터 선택하고, 선택한 상기 예측 움직임 벡터를 식별하기 위한 제3 예측 움직임 정보 인덱스와, 상기 제3 움직임 벡터 및 상기 제3 예측 움직임 벡터로부터 결정되는 차분 움직임 벡터를 포함하는 제3 부가 정보를 생성하고, 상기 예측 신호 생성 단계에서, 상기 동화상 예측 부호화 장치는, 상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 모두 부호화 대상 화상보다 과거의 화상인 경우에는, 상기 제2 움직임 벡터에 의해 상기 제2 예측 신호를 생성하고, 상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상 화상보다 미래의 화상이 포함되는 경우에는, 상기 제3 움직임 벡터에 의해 상기 제2 예측 신호를 생성하고, 상기 부호화 단계에 있어서, 상기 동화상 예측 부호화 장치는, 상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 모두 부호화 대상 화상보다 과거의 화상인 경우에는, 화면 또는 슬라이스마다, 상기 제2 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하고, 상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상 화상보다 미래의 화상이 포함되는 경우에는, 화면 또는 슬라이스마다, 상기 제3 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하고, 상기 제1 부가 정보와, 상기 지시 정보에 기초하여 제2 부가 정보 또는 제3 부가 정보 중 어느 한쪽을 각 대상 영역의 부가 정보로서 부호화해도 된다.
본 발명의 일 측면에 따른 동화상 예측 복호 방법은, 동화상 예측 복호 장치에 의해 실행되는 동화상 예측 복호 방법으로서, 복수의 영역으로 분할하여 부호화된 압축 데이터 중에서 복호 대상이 되는 복호 대상 영역의 부가 정보와 잔차 신호의 압축 데이터를 복호하는 복호 단계; 상기 부가 정보로부터 상기 대상 영역의 예측 신호를 생성하는 데 필요한 움직임 벡터를 복원하는 움직임 정보 복원 단계; 상기 움직임 벡터를 움직임 정보 기록 수단에 저장하는 움직임 정보 기록 단계; 상기 움직임 벡터에 기초하여 상기 대상 영역의 예측 신호를 생성하는 움직임 보상 단계; 상기 잔차 신호의 압축 데이터로부터 상기 대상 영역의 재생 잔차 신호를 복원하는 잔차 신호 복원 단계; 및 상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 복호 대상 영역의 화소 신호를 복원하여, 복원된 화소 신호를 기재생 화상으로서 저장하는 화상 기록 단계를 포함하고, 상기 복호 단계에 있어서, 상기 동화상 예측 복호 장치는, 제1 부가 정보와 제2 부가 정보를 복호하고, 상기 제1 부가 정보는, 제1 차분 움직임 벡터와, 상기 움직임 정보 기록 단계에서 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제1 예측 움직임 벡터로서 식별하기 위한 제1 예측 움직임 정보 인덱스를 포함하고, 상기 제2 부가 정보는, 상기 움직임 정보 기록 단계에서 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제2 예측 움직임 벡터로서 식별하는 제2 예측 움직임 정보 인덱스를 포함하고, 상기 움직임 정보 복원 단계가, 상기 제1 예측 움직임 정보 인덱스에 기초하여 제1 예측 움직임 벡터를 생성하고, 생성한 제1 예측 움직임 벡터와 상기 제1 차분 움직임 벡터를 가산하여 제1 움직임 벡터를 복원하는 제1 움직임 정보 복원 단계; 및 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하는 제2 움직임 정보 복원 단계를 포함하고, 상기 움직임 보상 단계에 있어서, 상기 동화상 예측 복호 장치는, 상기 제1 움직임 벡터와 상기 제2 움직임 벡터에 기초하여 상기 기재생 화상으로부터 취득되는 2개의 신호를 합성하여 상기 대상 영역의 예측 신호를 생성하는 것을 특징으로 한다.
상기한 동화상 예측 복호 방법에서는, 상기 복호 단계에 있어서, 상기 동화상 예측 복호 장치는, 또한, 화면 또는 슬라이스마다, 상기 제2 부가 정보가 차분 움직임 벡터를 포함하는지의 여부를 지시하는 지시 정보를 복호하고, 상기 지시 정보가, 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는 것을 나타내는 경우에는, 상기 동화상 예측 복호 장치는, 상기 제2 부가 정보로서 차분 움직임 벡터를 복호하고, 상기 제2 움직임 정보 복원 단계에서, 상기 동화상 예측 복호 장치는, 상기 지시 정보가, 제2 부가 정보가 제2 차분 움직임 벡터를 포함하지 않는 것을 나타내는 경우에는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하여, 상기 지시 정보가, 제2 부가 정보가 차분 벡터를 포함하는 것을 나타내는 경우에는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터와 복호한 차분 움직임 벡터를 가산하여 제2 움직임 벡터를 생성하여 복원해도 된다.
본 발명의 일 측면에 따른 동화상 예측 부호화 프로그램은, 컴퓨터를, 입력 화상을 복수의 영역으로 분할하는 영역 분할 수단; 상기 영역 분할 수단에 의해 분할된 영역 중, 부호화 대상인 대상 영역과의 상관이 높은 신호를 기재생 화상으로부터 취득하기 위한 움직임 벡터를 결정하는 예측 신호 생성 수단; 상기 움직임 벡터를 저장하는 움직임 정보 기록 수단; 상기 대상 영역의 예측 신호와 상기 대상 영역의 화소 신호와의 잔차 신호를 생성하는 잔차 신호 생성 수단; 상기 잔차 신호 생성 수단에 의해 생성된 잔차 신호를 압축하는 잔차 신호 압축 수단; 상기 잔차 신호의 압축 데이터를 복원한 재생 잔차 신호를 생성하는 잔차 신호 복원 수단; 상기 움직임 정보 기록 수단에 저장된 기재생의 움직임 벡터로부터 선택된 상기 대상 영역의 움직임 벡터와 유사한 예측 움직임 벡터, 상기 대상 영역의 움직임 벡터로부터 결정되는 부가 정보, 및 상기 잔차 신호의 압축 데이터를 부호화하는 부호화 수단; 및 상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 대상 영역의 화소 신호를 복원하고, 복원된 화소 신호를 상기 기재생 화상으로서 저장하는 화상 기록 수단으로서 기능하게 하기 위한 동화상 예측 부호화 프로그램이며, 상기 움직임 벡터는, 제1 예측 신호의 생성에 필요한 제1 움직임 벡터와, 제2 예측 신호의 생성에 필요한 제2 움직임 벡터를 포함하고 있고, 상기 예측 신호 생성 수단이, 상기 제1 예측 신호를 취득하기 위한 제1 움직임 벡터를 추정하고, 추정한 제1 움직임 벡터와 유사한 제1 예측 움직임 벡터를 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택하고, 선택한 상기 예측 움직임 벡터를 식별하기 위한 제1 예측 움직임 정보 인덱스와, 상기 제1 움직임 벡터 및 제1 예측 움직임 벡터로부터 결정되는 차분 움직임 벡터를 포함하는 제1 부가 정보를 생성하는 제1 움직임 정보 추정 수단; 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터, 대상 영역과의 상관이 높은 제2 예측 신호를 생성하는 움직임 벡터를 선택하고, 선택한 움직임 벡터를 제2 예측 움직임 벡터로서 식별하기 위한 제2 예측 움직임 정보 인덱스를 포함하는 제2 부가 정보를 생성하고, 상기 제2 예측 움직임 벡터를 제2 움직임 벡터로 설정하는 제2 움직임 정보 추정 수단; 및 상기 제1 예측 신호와 상기 제2 예측 신호를 합성하여 대상 영역의 예측 신호를 생성하는 예측 신호 합성 수단을 포함하는 것을 특징으로 한다.
상기한 동화상 예측 부호화 프로그램에서는, 상기 제2 움직임 정보 추정 수단이, 또한, 상기 제2 예측 신호를 취득하기 위한 제3 움직임 벡터를 추정하여, 제3 움직임 벡터를 검출하는 동시에, 추정한 제3 움직임 벡터와 유사한 제3 예측 움직임 벡터를 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택하고, 선택한 상기 예측 움직임 벡터를 식별하기 위한 제3 예측 움직임 정보 인덱스와, 상기 제3 움직임 벡터 및 상기 제3 예측 움직임 벡터로부터 결정되는 차분 움직임 벡터를 포함하는 제3 부가 정보를 생성하는 기능을 가지고, 상기 예측 신호 생성 수단은, 상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 모두 부호화 대상 화상보다 과거의 화상인 경우에는, 상기 제2 움직임 벡터에 의해 상기 제2 예측 신호를 생성하고, 상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상 화상보다 미래의 화상이 포함되는 경우에는, 상기 제3 움직임 벡터에 의해 상기 제2 예측 신호를 생성하고, 상기 부호화 수단은, 상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 모두 부호화 대상 화상보다 과거의 화상인 경우에는, 화면 또는 슬라이스마다, 상기 제2 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하고, 상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상 화상보다 미래의 화상이 포함되는 경우에는, 화면 또는 슬라이스마다, 상기 제3 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하고, 상기 제1 부가 정보와, 상기 지시 정보에 기초하여 제2 부가 정보 또는 제3 부가 정보 중 어느 한쪽을 각 대상 영역의 부가 정보로서 부호화해도 된다.
본 발명의 일 측면에 따른 동화상 예측 복호 프로그램은, 컴퓨터를, 복수의 영역으로 분할하여 부호화된 압축 데이터 중에서 복호 대상이 되는 복호 대상 영역의 부가 정보와 잔차 신호의 압축 데이터를 복호하는 복호 수단; 상기 부가 정보로부터 상기 대상 영역의 예측 신호를 생성하는 데 필요한 움직임 벡터를 복원하는 움직임 정보 복원 수단; 상기 움직임 벡터를 저장하는 움직임 정보 기록 수단; 상기 움직임 벡터에 기초하여 상기 대상 영역의 예측 신호를 생성하는 움직임 보상 수단; 상기 잔차 신호의 압축 데이터로부터 상기 대상 영역의 재생 잔차 신호를 복원하는 잔차 신호 복원 수단; 및 상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 복호 대상 영역의 화소 신호를 복원하여, 복원된 화소 신호를 기재생 화상으로서 저장하는 화상 기록 수단으로서 기능하게 하기 위한 동화상 예측 복호 프로그램이며, 상기 복호 수단은, 제1 부가 정보와 제2 부가 정보를 복호하고, 상기 제1 부가 정보는, 제1 차분 움직임 벡터와, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제1 예측 움직임 벡터로서 식별하기 위한 제1 예측 움직임 정보 인덱스를 포함하고, 상기 제2 부가 정보는, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제2 예측 움직임 벡터로서 식별하는 제2 예측 움직임 정보 인덱스를 포함하고, 상기 움직임 정보 복원 수단이, 상기 제1 예측 움직임 정보 인덱스에 기초하여 제1 예측 움직임 벡터를 생성하고, 생성한 제1 예측 움직임 벡터와 상기 제1 차분 움직임 벡터를 가산하여 제1 움직임 벡터를 복원하는 제1 움직임 정보 복원 수단; 및 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하는 제2 움직임 정보 복원 수단을 포함하고, 상기 움직임 보상 수단은, 상기 제1 움직임 벡터와 상기 제2 움직임 벡터에 기초하여 상기 기재생 화상으로부터 취득되는 2개의 신호를 합성하여 상기 대상 영역의 예측 신호를 생성하는 것을 특징으로 한다.
상기한 동화상 예측 복호 프로그램에서는, 상기 복호 수단은, 또한 화면 또는 슬라이스마다, 상기 제2 부가 정보가 차분 움직임 벡터를 포함하는지의 여부를 지시하는 지시 정보를 복호하고, 상기 지시 정보가, 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는 것을 나타내는 경우에는, 상기 제2 부가 정보로서 차분 움직임 벡터를 복호하고, 상기 제2 움직임 정보 복원 수단은, 상기 지시 정보가, 제2 부가 정보가 제2 차분 움직임 벡터를 포함하지 않는 것을 나타내는 경우에는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하고, 상기 지시 정보가, 제2 부가 정보가 차분 벡터을 포함하는 것을 나타내는 경우에는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 생성한 제2 예측 움직임 벡터와 복호한 차분 움직임 벡터를 가산하여 제2 움직임 벡터를 생성하여 복원해도 된다.
본 발명의 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램에 의하면, 부호화가 끝난 움직임 정보에 기초하여 쌍예측에 유효한 1개의 움직임 벡터를 지시 가능하므로, 적은 부호량으로 쌍예측의 성능을 높이고 효과가 있다.
도 1은 본 실시형태에 따른 동화상 예측 부호화 장치를 나타낸 블록도이다.
도 2는, 도 1에 나타낸 예측 신호 생성기를 설명하는 블록도이다.
도 3은, 도 2에 나타낸 제2 움직임 추정 처리를 설명하는 흐름도이다.
도 4는, 도 2에 나타낸 제1 움직임 추정 처리를 설명하는 흐름도이다.
도 5는 화면의 부호화 순서의 예를 설명하는 모식도이다.
도 6은 참조 화면 리스트의 예를 설명하는 도면이다.
도 7은 인접 블록의 예를 설명하는 도면이다.
도 8은 인접 블록의 다른 예를 설명하는 도면이다.
도 9는, 도 1에 나타낸 동화상 예측 부호화 장치의 동화상 예측 부호화 방법의 절차를 나타낸 흐름도이다.
도 10은 본 실시형태에 따른 동화상 예측 복호 장치를 나타낸 블록도이다.
도 11은, 도 10에 나타낸 움직임 정보 복원기를 설명하는 블록도이다.
도 12는, 도 11에 나타낸 제2 움직임 정보 복원 처리를 설명하는 흐름도이다.
도 13은, 도 11에 나타낸 제1 움직임 정보 복원 처리를 설명하는 흐름도이다.
도 14는, 도 10에 나타낸 동화상 예측 복호 장치의 동화상 예측 복호 방법의 수순을 나타낸 흐름도이다.
도 15는 본 실시형태에 따른 동화상 예측 부호화 방법을 실행할 수 있는 프로그램을 나타낸 블록도이다.
도 16은 본 실시형태에 따른 동화상 예측 복호 방법을 실행할 수 있는 프로그램을 나타낸 블록도이다.
도 17은 기록 매체에 기록된 프로그램을 실행하기 위한 컴퓨터의 하드웨어 구성을 나타낸 도면이다.
도 18은 기록 매체에 기억된 프로그램을 실행하기 위한 컴퓨터의 사시도이다.
도 19는 화면 간 예측에서의 움직임 추정 처리를 설명하기 위한 모식도이다.
도 20은 종래의 화면 내 예측 방법을 설명하기 위한 모식도이다.
이하, 첨부 도면을 참조하면서 본 실시형태를 상세하게 설명한다. 그리고, 도면의 설명에 있어서 동일 또는 동등한 요소에는 동일한 부호를 부여하고, 중복되는 설명을 생략한다. 또한, 동화상을 구성하는 "프레임", "화면", "화상"(도 5의 501에서 511)은 본 명세서 내의 설명에서는 동일한 의미로 한다.
도 1은 본 실시형태에 따른 동화상 예측 부호화 장치(100)를 나타낸 블록도이다. 이 동화상 예측 부호화 장치(100)는 입력 단자(101), 블록 분할기(102), 예측 신호 생성기(103), 프레임 메모리(104), 감산기(105), 변환기(106), 양자화기(107), 역양자화기(108), 역변환기(109), 가산기(110), 부호화기(111), 출력 단자(112), 움직임 정보용 메모리(113)를 구비하고 있다. 변환기(106) 및 양자화기(107)는 잔차 신호 압축 수단으로서 기능하고, 역양자화기(108) 및 역변환기(109)는 잔차 신호 복원 수단으로서 기능하고, 움직임 정보용 메모리는 움직임 정보 기록 수단으로서 기능한다. 또한, 움직임 정보용 메모리(113)는 예측 신호 생성기(103)에 포함되어도 된다.
입력 단자(101)는, 복수 장의 화상으로 이루어지는 동화상의 신호를 입력하는 단자이다.
블록 분할기(102)는 입력 단자(101)로부터 입력된 신호로 표현되는, 부호화의 대상이 되는 화상을 복수의 영역(대상 블록, 대상 영역)으로 분할한다. 본 실시형태에서는, 8×8의 화소로 이루어지는 블록으로 분할하지만, 그 이외의 블록의 크기 또는 형태로 분할해도 된다. 또한, 화면 내에 사이즈가 상이한 블록이 혼재해도 된다.
예측 신호 생성기(103)는 대상 블록 내의 각 예측 블록의 예측 신호를 생성하기 위해 필요한 움직임 정보를 검출하고 또, 예측 신호를 생성한다. 또한, 복호 장치에 의해 움직임 정보의 복원에 필요로 하는 부가 정보를 생성한다. 예측 신호의 생성 방법은 본 발명에서는 한정되지 않지만, 배경 기술에서 설명한 바와 같은 화면 간 예측(편예측, 쌍예측)이나 화면 내 예측(화면 내 예측에 대하여는 도시하지 않음)을 적용할 수 있다.
본 실시형태에서는 쌍예측에 의해 예측 신호를 생성한다. 쌍예측의 하나의 움직임 정보는 도 19에 나타낸 블록 매칭(block matching)에 의하여, L102를 경유하여 입력되는 대상 블록의 원래의 신호와 쌍예측 신호와의 절대값 오차의 합이 최소로 되도록, L104를 경유하여 취득되는 화상 신호를 사용하여 검출한다. 그리고, 또 하나의 움직임 정보는 부호화가 끝난 움직임 정보에 기초하여 생성한다.
본 실시형태에서는, 쌍예측에 대해 설명하므로, 움직임 정보는 제1 움직임 정보와 제2 움직임 정보로 구성되며, 각각, 참조 화면 인덱스(ref_idx[0] 또는 ref_idx[1])와 움직임 벡터(mv[0][0/1] 또는 mv[1][0/1])를 포함한다. 제1 움직임 정보의 참조 화면의 후보는 도 6의 List0, 제2 움직임 정보의 참조 화면의 후보는 도 6의 List1에 의해 지시된다. 여기서 [0/1]는 벡터의 수평 성분과 수직 성분을 식별하는 정보이다. 이후, [0/1]의 기술(記述)은 생략한다(도면에서도 마찬가지로 생략).
그리고, 도 6에 나타낸 참조 화면 리스트에 등록되는 재생 화상은, 미리 정해 둔 규칙(rule)에 따라 자동으로 정해져도 되고, 프레임 단위나 시퀀스 단위로 명시적으로 부호화해도 된다. 이때, 각 참조 화면의 식별에는 도 5로 도 6에 나타낸 바와 같이 프레임 번호를 이용할 수 있다.
예측 신호 생성기(103)에 의해 생성된 움직임 정보는 L103b를 경유하여, 움직임 정보용 메모리(113)에 출력된다.
움직임 정보용 메모리(113)는 입력된 움직임 정보를 저장한다. 저장한 움직임 정보는 L113을 경유하여 예측 신호 생성기에 입력되고, 후속하는 블록의 움직임 정보의 부호화에 이용된다.
예측 신호 생성기(103)에 의해 생성된 부가 정보는 L103c를 경유하여 부호화기(111)에 출력된다.
예측 신호 생성기(103)에 의해 생성된 예측 신호는 L103a 경유하여 감산기(105)와 가산기(110)에 출력된다.
감산기(105)는 라인 L102를 경유하여 입력된 블록 분할기(102)에 의해 분할하여 입력된 대상 블록의 화소 신호에서, 라인 L103a를 경유하여 입력되는 대상 블록에 대한 예측 신호를 감산하여, 잔차 신호를 생성한다. 감산기(105)는 감산하여 얻은 잔차 신호를, 라인 L105를 경유하여 변환기(106)에 출력한다.
변환기(106)는 입력된 잔차 신호를 이산 코사인 변환하는 부분이다. 또한, 양자화기(107)는 변환기(106)에 의해 이산 코사인 변환된 변환계수를 양자화하는 부분이다.
부호화기(111)는 예측 신호 생성기로부터 입력된 부가 정보와 양자화기(107)로부터 입력된 양자화 변환계수를 엔트로피 부호화하고, 부호화 데이터는 L111을 경유하여 출력 단자(112)에 출력된다. 엔트로피 부호화 방법은 한정되지 않지만, 산술 부호화나 가변 길이 부호화 등을 적용할 수 있다.
출력 단자(112)는 부호화기(111)로부터 입력된 정보를 모아서 외부에 출력한다.
역양자화기(108)는 양자화된 변환계수를 역양자화한다. 역변환기(109)는 역이산 코사인 변환에 의해 잔차 신호를 복원한다. 가산기(110)는 복원된 잔차 신호와 L103a 경유하여 입력되는 예측 신호를 가산하고, 부호화 대상 블록의 신호를 재생하고, 프레임 메모리(104)에 저장한다. 본 실시형태에서는 변환기(106)와 역변환기(109)를 사용하고 있지만, 이들의 변환기를 대신하는 다른 변환 처리를 사용해도 된다. 또한, 변환기(106) 및 역변환기(109)는 필수는 아니다. 이와 같이, 후속의 부호화 대상 블록의 예측 신호 생성에 사용하므로, 부호화된 부호화 대상 블록의 재생 신호는 역처리에 의해 복원되고 프레임 메모리(104)에 기억된다.
다음에, 예측 신호 생성기(103)에 대하여 상세하게 설명한다. 그래서, 먼저, 움직임 정보, 예측 움직임 정보와 부가 정보에 대하여 설명한다.
상기한 바와 같이, 쌍예측에서의 움직임 정보는 제1 움직임 정보와 제2 움직임 정보로 구성되며, 각각, 참조 화면 인덱스(ref_idx[0] 또는 ref_idx[1])와 움직임 벡터(mv[0] 또는 mv[1])를 포함한다. 제1 움직임 정보의 참조 화면의 후보는 도 6의 List0, 제2 움직임 정보의 참조 화면의 후보는 도 6의 List1에 의해 지시된다.
본 실시형태의 쌍예측에서는, 예측 신호 생성기(103)에 의해, 이미 부호화부가 끝난 움직임 정보를 예측 움직임 정보로서 이용한다. 부호화가 끝난 움직임 정보에는, 부호화가 끝난 인접 블록에 부수되는 움직임 정보나, 대상 영역의 부호화가 끝난 움직임 정보가 포함된다. 그리고, 인접 블록에 부수되는 움직임 정보란, 인접 블록이 부호화 대상이었을 때 예측 신호의 생성에 사용한 움직임 정보를 가리키며, 움직임 정보용 메모리(113)에 저장되어 있다.
예측 움직임 정보도, 제1 예측 움직임 정보와 제2 예측 움직임 정보로 구성되며, 각각, 참조 화면 인덱스(ref_idx[0] 또는 ref_idx[1])와 움직임 벡터(mv[0] 또는 mv[1])를 포함한다. 제1 예측 움직임 정보의 참조 화면의 후보는 도 6의 List0, 제2 예측 움직임 정보의 참조 화면의 후보는 도 6의 List1에 의해 지시된다.
예측 움직임 정보의 구체적인 이용 방법으로서는, List0의 참조 화면을 참조하여 블록 매칭에 의해 검출한 제1 움직임 정보의 움직임 벡터를 차분 부호화할 때, 제1 예측 움직임 정보에 기초하여, 예측 움직임 벡터를 생성한다. 또한, List1의 참조 화면을 사용하는 제2 움직임 정보를 제2 예측 움직임 정보에 기초하여 생성한다.
*예측 움직임 정보의 예를 도 7에 의해 설명한다. 도 7에 나타낸 블록(400)이 대상 블록이며, 그것에 인접하는 블록(401)에서 404에 부수되는 움직임 정보가 예측 움직임 정보의 후보가 된다. 인접 블록의 움직임 정보는 각각 제1 움직임 정보와 제2 움직임 정보를 포함하고 있다. 양쪽을 예측 움직임 정보의 후보로 해도 되고, 한쪽으로 한정해도 된다(제N 움직임 정보를 예측하는 경우에는, 인접 블록의 제N 움직임 벡터만을 후보로 함).
또한, 블록(410)이 참조 화면 내에서 블록(400)과 공간적으로 같은 위치의 블록(co-located block)을 나타낸다. 블록(410)과 그것에 인접하는 블록 411 내지 415에 부수되는 움직임 정보가, 예측 움직임 정보의 후보가 된다. n는 예측 움직임 정보의 후보를 식별하는 번호를 나타내고, 선택된 후보, 예측 움직임 정보 인덱스(mvp_idx[0] 또는 mvp_idx[1])에 의해 지시된다. 본 실시형태에서는, 제1 움직임 정보를 먼저 부호화하므로, 제2 예측 움직임 정보로서는 블록(400)에 부수되는 제1 움직임 정보를 이용하는 것도 가능하다(예에서는 n=4로 함).
그리고, 예측 움직임 정보의 후보의 위치와 번호는, 부호화 측과 복호 측에서 미리 정해져 있으면 되고, 본 발명에서는 한정되지 않는다. 또한, 예측 움직임 정보의 후보의 수는 부호화 측과 복호 측에서 미리 정해져 있어도 되고, 부호화해도 된다.
또한, 예측 움직임 정보의 ref_idx에 의해 식별되는 참조 화면과 대상 블록의 ref_idx에 의해 식별되는 참조 화면이 상이한 경우에는, 부호화 대상 화면과 2개의 참조 화면의 프레임 번호에 기초하여, 예측 움직임 정보에 포함되는 움직임 벡터의 스케일링(scaling) 처리를 행해도 된다. 즉, 예측 움직임 정보에 포함되는 움직임 벡터를 스케일링하여, 대상 블록에 의해 식별되는 참조 화면을 지시하는 움직임 벡터로 변환하여, 변환한 움직임 벡터를 예측 움직임 벡터(pmv[0][0/1] 또는 pmv[1][0/1])로서 사용한다. 이때, 예측 움직임 정보에 포함되는 참조 화면 인덱스(ref_idx[0] 또는 ref_idx[1])는, 대상 블록의 참조 화면 인덱스(ref_idx[0] 또는 ref_idx[1])으로 갱신된다. 여기서[0/1]는 벡터의 수평 성분과 수직 성분을 식별하는 정보이다. 이후, [0/1]의 기술(記述)은 생략한다(도면에서도 마찬가지로 생략).
부가 정보는 제1 부가 정보와 제2 부가 정보에 의해 구성된다. 제1 부가 정보는 ref_idx[0]과 차분 움직임 벡터(mvd[0][0/1]=mv[0][0/1]-pmv[0][0/1])와 mvp_idx[0]을 포함한다. 제2 부가 정보는 ref_idx[1]과 mvp_idx[1]을 포함한다. 본 실시형태에서는 mv[1][0/1]=pmv[1][0/1]로 하기 때문에, mvd[1][0/1]의 벡터값은 항상 0이 된다. mvd[1][0/1]은 부호화하지 않아도 복호 측에서 복원할 수 있으므로, 제2 부가 정보에 포함되는 필요가 없다. 여기서[0/1]는 벡터의 수평 성분과 수직 성분을 식별하는 정보이다. 이후, [0/1]의 기술은 생략한다(도면에서도 마찬가지로 생략).
도 2는 본 실시형태에 따른 예측 신호 생성기(103)의 구성을 나타낸 블록도이다. 이 예측 신호 생성기(103)는 제2 움직임 정보 추정기(121), 제1 움직임 정보 추정기(122), 및 예측 신호 합성기(123)를 구비하고 있다.
제2 움직임 정보 추정기(121)에서는, L104를 경유하여 입력되는 List1의 참조 화면을 사용하여, L113을 경유하여 입력되는 복수의 제2 예측 움직임 정보의 후보(참조 화면 인덱스에 따라, 움직임 벡터를 스케일링하여 예측 움직임 벡터로 함)로부터 L102를 경유하여 입력되는 대상 블록의 원래의 신호에 가장 유사한 제2 예측 신호를 생성하는 1개의 제2 예측 움직임 정보의 후보와 참조 화면 인덱스의 세트를 선택한다. 제2 예측 신호를 L121a 경유하여 예측 신호 합성기(123)에 출력하고, 선택된 제2 예측 움직임 정보와 참조 화면 인덱스의 세트에 기초하여 생성되는 제2 움직임 정보를, L121b와 L103b1을 경유하여 제1 움직임 정보 추정기(122)와 움직임 정보용 메모리(113)에 각각 출력한다. 또한, 제2 부가 정보를 생성하고, L103c1 경유하여 부호화기(111)에 출력한다.
제1 움직임 정보 추정기(122)에서는, L121b로부터 입력되는 제2 움직임 정보와 L104를 경유하여 입력되는 List1의 참조 화면을 사용하여, 제2 예측 신호를 생성한다. 그리고, L104를 경유하여 입력되는 List0의 참조 화면을 탐색하고, 제2 예측 신호와 탐색한 제1 예측 신호의 후보에 의해 생성되는 쌍예측 신호와 L102를 경유하여 입력되는 대상 블록의 원래의 신호와의 절대값 차분 합이, 최소가 되는 제1 움직임 정보를 검출한다. 검출한 제1 움직임 정보에 의해 생성되는 제1 예측 신호를 L122 경유하여 예측 신호 합성기(123)에 출력한다. 또한, 제1 움직임 정보를, L103b2를 경유하여 움직임 정보용 메모리(113)에 출력한다. 또한, 제1 부가 정보를 생성하고, L103c2 경유하여 부호화기(111)에 출력한다.
그리고, 제1 움직임 정보 추정기(122)에 의한 처리를 먼저 실행하여, 제1 움직임 정보와 제1 부가 정보를 제1 예측 신호보다 먼저 구해도 된다. 이 경우에는, 탐색한 제1 예측 신호의 후보에 의해 생성되는 예측 신호와 L102를 경유하여 입력되는 대상 블록의 원래의 신호와의 절대값 차분 합이, 최소가 되는 제1 움직임 정보를 검출한다. 그리고, 제1 예측 신호를 이용하여, 제2 움직임 정보 추정기(121)를 실행한다. 즉, L104를 경유하여 입력되는 List1의 참조 화면을 사용하여, L113을 경유하여 입력되는 복수의 제2 예측 움직임 정보의 후보(참조 화면 인덱스에 따라, 움직임 벡터를 스케일링하여 예측 움직임 벡터로 함)로부터 제2 예측 신호의 후보를 생성하고, 제1 예측 신호와 제2 예측 신호의 후보에 의해 생성되는 쌍예측 신호가 L102를 경유하여 입력되는 대상 블록의 원래의 신호에 가장 유사하도록, 제2 예측 움직임 정보의 후보와 참조 화면 인덱스의 세트를 선택한다. 이 변형은 제1 움직임 정보를 제2 움직임 정보 추정기(121)에 입력함으로써 실시할 수 있다.
예측 신호 합성기(123)에서는, L121a와 L122를 경유하여 입력되는 제2 예측 신호와 제1 예측 신호를 평균화하여, 대상 블록의 예측 신호를 생성하고, L103a 경유하여 감산기(105)와 가산기(110)에 출력한다.
도 3에 제2 움직임 정보 추정기(121)의 흐름도를 나타낸다. 최초에 단계 S301에서 대상 블록의 예측에 사용하는 List1의 참조 화면의 수를 M(도 6 (A)나 (C)에서는 M=4, 도 6 (B)에서는 M=2)으로 설정하는 동시에, 제2 움직임 정보에 포함되는 List1의 참조 화면 인덱스 ref_idx[1]을 0으로 설정하고, List1의 참조 화면 수의 카운트 m)을 0으로 초기화한다. 또한, 움직임 벡터 평가값 D를 Max 값으로 설정한다. 다음에, 단계 S302에서, 예측 움직임 벡터의 후보 수를 N(도 7에서는 N=11, 단, 제2 움직임 정보 추정기(121)를 제1 움직임 정보 추정기(122)보다 먼저 실시하는 경우에는, 블록(400)의 제1 움직임 정보는 결정되어 있지 않기 때문에 n=4는 건너뜀)으로 설정하고, 제2 부가 정보에 포함되는 예측 움직임 정보 인덱스 mvp_idx[1]을 0으로설정하고, 예측 움직임 정보 수의 카운트 n을 0으로 초기화한다.
다음에, 단계 S303에서, 인접 블록의 움직임 벡터로부터 예측 움직임 벡터 후보(n)의 움직임 벡터를 취득하고, 단계 S304에서, n번째의 예측 움직임 벡터 pmv[1][m][n][0/1]를 생성한다(여기서[0/1]는 벡터의 수평 성분과 수직 성분을 식별하는 정보이다. 이후, [0/1]의 기술은 생략한다. 도면에서도 마찬가지로 생략함). 이때, 인접 블록의 움직임 벡터를 대상 화면과 참조 화면의 거리(참조 화면 인덱스에 의해 식별되는 프레임 번호)에 따라, 스케일링하여, 예측 움직임 벡터로 한다. 그 후, 단계 S305에서, 제m 번째의 참조 화면과 n번째의 스케일링 후의 예측 움직임 벡터(pmv[1][m][n])에 기초하여 대상 블록의 예측 신호를 생성하고, 단계 S306에서, 생성한 예측 신호와 대상 블록의 원래의 신호와의 차분 신호의 절대값 합이 움직임 벡터 평가값(D)보다 작은지의 여부를 판정한다. 절대값 합이 움직임 벡터 평가값(D) 이상인 경우에는, 단계 S308로 진행한다. 절대값 합이 움직임 벡터 평가값(D)보다 작은 경우에는, 단계 S307로 진행하고, 제2 부가 정보에 포함되는 예측 움직임 정보 인덱스 mvp_idx[1]을 n으로 갱신하고, 참조 화면 인덱스를 ref_idx[1]을 m으로 갱신하고, 움직임 벡터 평가값 D를 단계 S306에 의해 산출한 예측 신호와 대상 블록의 원래의 신호와의 차분 신호의 절대값 합으로 갱신한다. 또한 제2 움직임 정보에 포함되는 움직임 벡터 mv[1]을 예측 움직임 벡터 pmv[1][ref_idx[1][mvp_idx[1]로 설정하고, 참조 화면 인덱스를 ref_idx[1]로 설정한다. 그 후, 단계 S308로 진행한다.
단계 S308에서는, n의 값이 N보다 작은지의 여부를 판정하고, n이 N보다 작은 경우에는, 단계 S309로 진행하고, n이 N에 도달한 경우에는 단계 S310으로 진행한다. 단계 S309에서는, n의 값에 1을 가산하고, 단계 S303으로 돌아간다. 그 후, n이 N에 도달할 때까지 단계 S303 내지 단계 S307을 반복한다. 단계 S310에서는, m의 값이 M보다 작은지의 여부를 판정하고, m이 M보다 작은 경우에는, 단계 S311로 진행하여, m의 값에 1을 가산하고, 단계 S302로 돌아간다. 그 후, m이 M에 도달할 때까지 단계 S302 내지 단계 S309를 반복한다. m이 M에 도달한 경우에는, 단계 S312에서 제2 부가 정보(ref_idx[1], mvp_idx[1])를 부호화기(111)에 출력하는 동시에, 제2 움직임 정보(ref_idx[1]과 mv[1])를 움직임 정보용 메모리(113)에 저장하여, 제1 움직임 정보 추정기(122)에 출력하고, 처리를 종료한다.
도 4에 제1 움직임 정보 추정기(122)의 흐름도를 나타낸다. 최초에 단계 S351에서, 제2 움직임 정보에 기초하여 쌍예측에서의 제2 예측 신호를 생성한다. 다음에, 단계 S352에서, 대상 블록의 예측에 사용하는 List0의 참조 화면의 수를 M(도 6 (A)나 (C)에서는 M=4, 도 6 (B)에서는 M=2)으로 설정하는 동시에, 제1 움직임 정보에 포함되는 List0의 참조 화면 인덱스 ref_idx[0]을 0으로 설정하고, List0의 참조 화면 수의 카운트 m을 0으로 초기화한다. 또한, 움직임 벡터 평가값 D를 Max값으로 설정한다. 다음에, 단계 S353에서, 복수의 후보로부터 제1 움직임 벡터를 차분 부호화할 때 사용하는 예측 움직임 벡터를 식별하는 예측 움직임 정보 인덱스 mvp_idx[0]을 결정한다. 선택 방법은, 예를 들면, 도 3의 단계 S303 내지 S309에 나타낸 방법을 이용할 수 있다. 그리고, 예측 움직임 벡터의 후보 pmv[0][m][n]를 생성한다. 이때, 도 3의 단계 S304에서 설명한 바와 같이, 인접 블록의 움직임 벡터를 대상 화면과 참조 화면의 거리(참조 화면 인덱스에 의해 식별되는 프레임 번호)에 따라, 스케일링하여 예측 움직임 벡터로 한다.
다음에, 단계 S354에서, 프레임 메모리(104)에 저장되어 있는 ref_idx[0]에 의해 지시되는 참조 화면을 취득하고, 제2 예측 신호와 함께 평균화함으로써 얻어지는 쌍예측 신호와 원래의 신호와의 차분 신호의 절대값 합이 최소가 되는 제1 움직임 벡터 mv[0]을 탐색한다. 이어서, 단계 S355에서는, 제1 차분 움직임 벡터 mvd[0](=mv[0]-pmv[0][m][n])을 생성한다. 이어서, 단계 S356에서, 생성한 쌍예측 신호와 대상 블록의 원래의 신호와의 차분 신호의 절대값 합과 제1 부가 정보(mvd[0]과 m과 n)의 부호량 평가값(λ(QP)×(mvd, m, n의 부호량), λ는 예측 오차 신호를 변환한 변환계수를 양자화할 때의 양자화 정밀도를 결정하는 파라미터 QP에 의해 결정되는 가중치)의 합이 움직임 벡터 평가값(D)보다 작은지의 여부를 판정한다. 절대값 합+부호량 평가값이 움직임 벡터 평가값(D) 이상인 경우에는, 단계 S358로 진행한다. 절대값 합+부호량 평가값이 움직임 벡터 평가값(D)보다 작은 경우에는, 단계 S357로 진행하고, 제1 부가 정보에 포함되는 예측 움직임 정보 인덱스 mvp_idx[0]을 n으로 갱신하고, 참조 화면 인덱스를 ref_idx[0]을 m으로 갱신하고, 차분 움직임 벡터 mvd[0]을(mv[0]-pmv[0][ref_idx[1][mvp_idx[1])으로 갱신하고, D를 단계 S356에서 산출한 쌍예측 신호와 대상 블록의 원래의 신호와의 차분 신호의 절대값 합+부호량 평가값으로 갱신한다. 또한 제1 움직임 정보에 포함되는 움직임 벡터 mv[0]을 갱신한다. 그 후, 단계 S358로 진행한다.
단계 S358에서는, m의 값이 M보다 작은지의 여부를 판정하고, m이 M보다 작은 경우에는, 단계 S359로 진행하여, m의 값에 1을 가산하고, 단계 S353으로 돌아간다. 그 후, m이 M에 도달할 때까지 단계 S353 내지 단계 S359를 반복한다. m이 M에 도달한 경우에는, 단계 S360에서, 제1 부가 정보(ref_idx[0], mvd[0], mvp_idx[0])를 부호화기(111)에 출력하는 동시에, 제1 움직임 정보(ref_idx[0]과 mv[0])를 움직임 정보용 메모리(113)에 저장하여, 처리를 종료한다.
그리고, 제1 움직임 정보 추정기(122)를 먼저 실행하여, 제1 움직임 정보와 제1 부가 정보를 제1 예측 신호보다 먼저 구해도 된다. 이 경우, 도 4의 단계 S351은 생략되고, 단계 S356에서는, 쌍예측 신호가 아니고, 제1 예측 신호와 원래의 신호와의 차분 신호의 절대값 합을 구한다. 도 3에서는, 도 7의 n=4로 지시되는 제1 움직임 정보를 예측 움직임 정보의 후보로서 활용하는 것이 가능해진다. 제1 움직임 정보에 기초하여 쌍예측에서의 제1 예측 신호를 생성하는 단계를 추가하고, 단계 S306에서, 생성한 제2 예측 신호와 제1 예측 신호를 평균화함으로써 생성되는 쌍예측 신호와 원래의 예측 신호와의 차분 신호의 절대값 합을 산출하도록 변경함으로써, 이 변형은 실현 가능하다.
이와 같이, 이미 부호화가 끝난 움직임 정보에 기초하여 쌍예측의 제2 움직임 벡터를 생성하고, 움직임 벡터 대신에, 도 6과 도 7에 나타낸 바와 같은 복수의 후보로부터 참조 화면 인덱스와 예측 움직임 정보를 식별하는 식별 정보를 부호화함으로써, 적은 부호량으로, 랜덤성이 높은 텍스처 영역이나 노이즈를 포함하는 평탄 영역의 대상 블록의 신호에 유사한 1개의 유사 신호를 생성할 수 있다. 또한, 참조 화면상을 탐색하여, 제2 유사 신호를 생성하는 제1 움직임 벡터를 검출하여 부호화함으로써, 2개의 움직임 벡터를 함께 부호화가 끝난 움직임 정보로부터 구하는 경우와 비교하여, 쌍예측 신호의 평활화 효과를 높이는 효과를 기대할 수 있다.
도 9는, 본 실시형태에 따른 동화상 예측 부호화 장치(100)에서의 동화상 예측 부호화 방법의 절차를 나타낸 흐름도이다. 먼저, 블록 분할기(102)에 의해 입력 화상을 8×8의 부호화 블록(그 이외의 블록의 크기 또는 형태로 분할해도 된다. 또한, 화면 내에 사이즈가 상이한 블록이 혼재해도 된다)으로 분할한다.
먼저, 예측 신호 생성기(103)를 구성하는 제2 움직임 정보 추정기(121)가 프레임 메모리(104)로부터 얻어지는 List1의 참조 화면과 움직임 정보용 메모리로부터 얻어지는 제2 예측 움직임 정보의 후보를 사용하여, 대상 블록에 유사한 제2 예측 신호를 생성하고, 제2 예측 신호의 생성에 필요로 하는 제2 움직임 정보와 제2 부가 정보를 생성한다(단계 S100). 이 단계의 상세한 것에 대해서는, 도 3에 의해 설명이 끝난 상태이다. 다음에, 제1 움직임 정보 추정기(122)가 프레임 메모리(104)로부터 얻어지는 List0의 참조 화면과 움직임 정보용 메모리로부터 얻어지는 제1 예측 움직임 정보의 후보와 제2 움직임 정보 추정기(121)로부터 얻어지는 제2 움직임 정보를 사용하여, 대상 블록에 유사한 제1 예측 신호를 생성하고, 제1 예측 신호의 생성에 필요로 하는 제1 움직임 정보와 제1 부가 정보를 생성한다(단계 S150). 이 단계의 상세한 것에 대해서는, 도 4에 의해 설명이 끝난 상태이다.
다음에, 제1 부가 정보와 제2 부가 정보를 부호화기(111)로 엔트로피 부호화하고, 제1 움직임 정보와 제2 움직임 정보를 움직임 정보용 메모리(113)에 저장한다(단계 S101). 이어서, 단계 S102에서는, 예측 신호 생성기(103)를 구성하는 예측 신호 합성기(123)에 의해, 제1 예측 신호와 제2 예측 신호를 평균화하여, 대상 블록의 쌍예측 신호를 생성한다. 부호화 대상 블록의 화소 신호와 예측 신호와의 차분을 나타내는 잔차 신호는, 변환기(106), 양자화기(107) 및 부호화기(111)에 의해 변환 부호화된다(단계 S103). 부가 정보와 양자화 변환계수의 부호화 데이터는 출력 단자(112)를 통하여 출력된다(단계 S104). 후속의 부호화 대상 블록을 예측 부호화하므로, 이들 처리 후에 또는 이들의 처리와 병행하여 부호화된 잔차 신호가 역양자화기(108) 및 역변환기(109)에 의해 복호된다. 그리고, 가산기(110)에 의해, 복호된 잔차 신호와 예측 신호가 가산되고, 부호화 대상 블록의 신호가 재생된다. 재생 신호는 프레임 메모리(104)에 참조 화면으로서 기억된다(단계 S105). 그리고, 모든 부호화 대상 블록의 처리가 완료되지 않은 경우에는 단계 S100으로 복귀하여, 다음의 부호화 대상 블록에 대한 처리가 행해진다. 모든 부호화 대상 블록의 처리가 완료된 경우에는, 처리를 종료한다(단계 S106).
다음에, 본 실시형태에 따른 동화상 예측 복호 방법에 대하여 설명한다. 도 10은 본 실시형태에 따른 동화상 예측 복호 장치(200)를 나타낸 블록도이다. 이 동화상 예측 복호 장치(200)는 입력 단자(201), 복호기(202), 역양자화기(203), 역변환기(204), 가산기(205), 출력 단자(206), 움직임 보상기(207), 움직임 정보 복원기(208), 프레임 메모리(104), 및 움직임 정보용 메모리(113)를 구비하고 있다. 역양자화기(203) 및 역변환기(204)는 잔차 신호 복원 수단으로서 기능하고, 움직임 정보용 메모리(113)는 움직임 정보 기록 수단으로서 기능한다. 역양자화기(203) 및 역변환기(204)에 의한 복호 수단은, 이들 이외의 것을 사용하여 행해도 된다. 또한, 역변환기(204)는 없어도 된다.
*입력 단자(201)는 전술한 동화상 예측 부호화 방법으로 압축 부호화된 압축 데이터를 입력한다. 이 압축 데이터에는, 복수로 분할된 부호화 블록에 대하여, 오차 신호를 변환 양자화하여 엔트로피 부호화한 양자화 변환계수의 정보의 부호화 데이터와, 블록의 쌍예측 신호를 생성하기 위한 제1 부가 정보와 제2 부가 정보의 부호화 데이터가 포함되어 있다.
복호기(202)는 입력 단자(201)에 입력된 압축 데이터를 해석하고, 복호 대상 블록에 관하여, 양자화 변환계수의 부호화 데이터, 부가 정보의 부호화 데이터로 분리하여, 엔트리피 복호하고, L202a, L202b를 경유하여, 각각, 역양자화기(203), 움직임 정보 복원기(208)에 출력한다.
움직임 정보 복원기(208)는 제1 부가 정보(ref_idx[0], mvd[0], mvp_idx[0])와 제2 부가 정보(ref_idx[1], mvp_idx[1])를, L202b를 경유하여 입력하고, L113 경유하여 취득되는 복호가 끝난 움직임 정보를 이용하여, 제1 움직임 정보(ref_idx[0], mv[0])와 제2 움직임 정보(ref_idx[1], mv[1])를 복원한다. 복원된 제1 움직임 정보와 제2 움직임 정보는 L208a와 L208b를 경유하여 움직임 보상기(207)와 움직임 정보용 메모리(113)에 각각 출력된다. 움직임 정보용 메모리는 움직임 정보를 저장한다.
움직임 보상기(207)는 2개의 움직임 정보에 기초하여 프레임 메모리(104)로부터 기(旣)재생 신호를 취득하고, 2개의 예측 신호를 평균화하여, 복호 대상 블록의 쌍예측 신호를 생성한다. 생성된 예측 신호는 L126을 경유하여 가산기(205)에 출력된다.
복호기(202)에 의해 복호된 복호 대상 블록에서의 잔차 신호의 양자화 변환계수는, L203을 경유하여 역양자화기(203)에 출력된다. 역양자화기(203)는 복호 대상 블록에서의 잔차 신호의 양자화 계수를 역양자화한다. 역변환기(204)는 역양자화한 데이터를 역이산 코사인 변환하여 잔차 신호를 생성한다.
가산기(205)는 움직임 보상기(207)에 의해 생성된 쌍예측 신호를 역양자화기(203) 및 역변환기(204)에 의해 복원된 잔차 신호에 가산하여, 복호 대상 블록의 재생 화소 신호를 라인 L205를 경유하여 출력 단자(206) 및 프레임 메모리(104)에 출력한다. 출력 단자(206)는 외부에(예를 들면, 디스플레이) 출력한다.
프레임 메모리(104)는, 다음의 복호 처리를 위한 참조용의 재생 화상으로서, 가산기(205)로부터 출력된 재생 화상을 참조 화면으로서 기억한다.
도 11은 본 실시형태에 따른 움직임 정보 복원기(208)의 구성을 나타낸 블록도이다. 이 움직임 정보 복원기(208)는 제2 움직임 정보 복원기(211)와 제1 움직임 정보 복원기(212)를 구비하고 있다.
이들 제2 움직임 정보 복원기(211)와 제1 움직임 정보 복원기(212)는 동시에 동작할 수 있다.
제1 움직임 정보 복원기(212)는, 제1 부가 정보(ref_idx[0], mvp_idx[0], mvd[0])를 입력으로 하여, L113을 경유하여 얻어지는 인접 블록의 움직임 정보로부터 제1 예측 움직임 벡터(pmv[0][ref_idx[0][mvp_idx[0])를 생성하고, 예측 움직임 벡터와 부가 정보에 포함되는 차분 움직임 벡터(mvd[0])를 가산함으로써, 제1 움직임 정보에 포함되는 움직임 벡터를 생성함으로써, 제1 움직임 정보를 복원한다. 마찬가지로, ref_idx에 의해 식별되는 참조 화면과 대상 블록의 ref_idx에 의해 식별되는 참조 화면이 상이한 경우에는, 부호화 대상 화면과 2개의 참조 화면의 프레임 번호에 기초하여, 예측 움직임 정보에 포함되는 움직임 벡터의 스케일링 처리를 행해도 된다.
제2 움직임 정보 복원기(211)는, 제2 부가 정보(ref_idx[1], mvp_idx[1])를 입력으로 하여, L113을 경유하여 얻어지는 복호가 끝난 움직임 정보로부터 제2 예측 움직임 벡터(pmv[1][ref_idx[1][mvp_idx[1])를 생성한다. 이 예측 움직임 벡터를 제2 움직임 정보에 포함되는 움직임 벡터(mv[1]=pmv[1][ref_idx[1]][mvp_idx[1])로 함으로써, 제2 움직임 정보를 복원한다. 이때, 차분 움직임 벡터 mvd[1]을 영(zero) 벡터로 설정하고, 이것을 예측 움직임 벡터와 가산하여, 제2 움직임 벡터를 복원하도록 해도 된다. 그리고, 이때, ref_idx에 의해 식별되는 참조 화면과 대상 블록의 ref_idx에 의해 식별되는 참조 화면이 상이한 경우에는, 부호화 대상 화면과 2개의 참조 화면의 프레임 번호에 기초하여, 예측 움직임 정보에 포함되는 움직임 벡터의 스케일링 처리를 행해도 된다. 즉, 예측 움직임 정보에 포함되는 움직임 벡터를 스케일링하여, 대상 블록에 의해 식별되는 참조 화면을 지시하는 움직임 벡터로 변환하여, 변환한 움직임 벡터를 예측 움직임 벡터로서 사용한다.
도 13에 제1 움직임 정보 복원기(212)의 흐름도를 나타낸다. 최초에 단계 S451에 의해 제1 부가 정보(ref_idx[0]과 mvp_idx[0]과 mvd[0])의 복호 데이터를 입력한다. 다음에, 단계 S452에서, 입력된 ref_idx[0]과 mvp_idx[0]에 기초하여, 도 7에 나타낸 바와 같은 인접 블록의 움직임 정보(블록(400)의 움직임 정보는 미정이기 때문에 포함되지 않음)로부터, mvp_idx[0]에 의해 지시되는 움직임 정보를 입력하고, 예측 움직임 벡터(pmv[0][ref_idx[0][mvp_idx[0])를 도출한다. 이때, ref_idx에 의해 식별되는 참조 화면과 대상 블록의 ref_idx에 의해 식별되는 참조 화면이 상이한 경우에는, 부호화 대상 화면과 2개의 참조 화면의 프레임 번호에 기초하여, 예측 움직임 정보에 포함되는 움직임 벡터의 스케일링 처리를 행해도 된다. 그 후, 단계 S453에서, 생성한 예측 움직임 벡터와 차분 움직임 벡터를 가산하여, 제1 움직임 벡터를 복원한다(mv[0]=pmv[0][ref_idx[0]][mvp_idx[0]+mvd[0]). 마지막으로 단계 S454에서 제1 움직임 정보(ref_idx[0]과 mv[0])를 움직임 보상기(207)와 움직임 정보용 메모리(113)에 출력하여, 처리를 종료한다.
도 12에 제2 움직임 정보 복원기(211)의 흐름도를 나타낸다. 최초에 단계 S401에서 제2 부가 정보(ref_idx[1]과 mvp_idx[1])의 복호 데이터를 입력하고, 단계 S402에서 차분 움직임 벡터(mvd[1])의 벡터값을 0으로 설정한다. 다음에, 단계 S403에서, 입력된 ref_idx[1]과 mvp_idx[1]에 기초하여, 도 7에 나타낸 바와 같이 복호가 끝난 움직임 정보(n=4를 포함되는 것이 가능)로부터, mvp_idx[1]에 의해 지시되는 움직임 정보를 입력하고, 예측 움직임 벡터(pmv[1][ref_idx[1][mvp_idx[1])를 도출한다. 이때, ref_idx에 의해 식별되는 참조 화면과 대상 블록의 ref_idx에 의해 식별되는 참조 화면이 상이한 경우에는, 부호화 대상 화면과 2개의 참조 화면의 프레임 번호에 기초하여, 예측 움직임 정보에 포함되는 움직임 벡터의 스케일링 처리를 행해도 된다. 그 후, 단계 S404에서, 생성한 예측 움직임 벡터와 차분 움직임 벡터를 가산하여, 제2 움직임 벡터를 복원한다(mv[1]=pmv[1][ref_idx[1][mvp_idx[1]]+mvd[1]). 마지막으로 단계 S405에서 제2 움직임 정보(ref_idx[1]과 mv[1])를 움직임 보상기(207)와 움직임 정보용 메모리(113)에 출력하여, 처리를 종료한다. 그리고, mvd[1]의 벡터값은 항상 0이 되므로, 단계 S402를 생략하고, 단계 S404에서 예측 움직임 벡터를 움직임 벡터로 설정해도 된다(mv[1]=pmv[1][ref_idx[1]][mvp_idx[1]]).
다음에, 도 14를 사용하여, 도 10에 나타낸 동화상 예측 복호 장치(200)에서의 동화상 예측 복호 방법을 설명한다. 먼저, 입력 단자(201)를 통하여, 압축 데이터가 입력된다(단계 S201). 그리고, 복호기(202)에 의해 압축 데이터의 데이터 해석하고, 엔트로피 복호를 행하고, 쌍예측 신호의 생성에 필요한 제1 부가 정보와 제2 부가 정보, 및 양자화 변환계수를 복호한다(단계 S202).
다음에, 움직임 정보 복원기(208)를 구성하는 제1 움직임 정보 복원기(212)에 의해, 제1 부가 정보와 움직임 정보용 메모리(113)에 저장되어 있는 인접 블록의 움직임 정보를 사용하여, 제1 움직임 정보를 복원한다(단계 S250). 이 단계의 상세한 것에 대해서는, 도 13에 의해 설명을 끝낸 상태이다.
이어서, 움직임 정보 복원기(208)를 구성하는 제2 움직임 정보 복원기(211)에 의해, 제2 부가 정보와 움직임 정보용 메모리(113)에 저장되어 있는 인접 블록의 움직임 정보를 사용하여, 제2 움직임 정보를 복원한다(단계 S200). 이 단계의 상세한 것에 대해서는, 도 12에 의해 설명을 끝낸 상태이다.
다음에, 복원된 움직임 정보에 기초하여, 움직임 보상기(207)가 복호 대상 블록의 쌍예측 신호를 생성하는 동시에, 움직임 정보를 움직임 정보용 메모리(113)에 저장한다(S207).
복호기(202)에 의해 복호된 양자화 변환계수는, 역양자화기(203)에 있어서 역양자화되고, 역변환기(204)에 있어서 역변환이 행해져, 재생 잔차 신호가 생성된다(S208). 그리고, 생성된 쌍예측 신호와 재생 잔차 신호가 가산됨으로써 재생 신호가 생성되고, 이 재생 신호가 다음의 복호 대상 블록을 재생하기 위해 프레임 메모리(104)에 저장된다(단계 S209). 다음의 압축 데이터가 있는 경우에는, S202∼S209의 프로세스를 반복(S210)하고, 모든 데이터가 최후까지 처리된다.
다음에, 본 발명을 포함하는 복수의 쌍예측 방법을 선택적으로 이용하는 방법에 대하여 설명한다. 상기에서 설명한 1개의 차분 움직임 벡터만을 부호화하는 쌍예측(쌍예측 타입 2라고 함)은, 종래의 2개의 차분 움직임 벡터를 부호화하는 쌍예측(쌍예측 타입 1이라고 함) 및 편예측과 적응적으로 조합하여 이용할 수 있다. 이들의 예측 방식은, 화면 단위, 복수의 블록을 묶은 슬라이스 단위, 또는 블록 단위로 전환하여 이용할 수 있다. 전환 처리에는, 전환 정보를 부호화하는 방법이나, 참조 화면의 프레임 번호에 기초하여 복호 측에 의해 결정하는 방법을 이용할 수 있다.
그리고, 쌍예측 타입 1과 쌍예측 타입 2를 전환하는 처리는, 도 2의 제2 움직임 정보 추정기(121)에, 블록 매칭 기능과 탐색한 움직임 벡터로부터 예측 벡터를 감산하여 차분 움직임 벡터를 산출하는 기능을 추가하고, 도 11의 제2 움직임 정보 복원기에 차분 움직임 벡터를 복호기로부터 취득하는 기능을 추가함으로써 실현할 수 있다. 하기에 구체적인 방법을 설명한다.
(화면/슬라이스 단위 전환, 쌍예측 타입의 전환 정보 부호화)
화면/슬라이스 단위로 쌍예측 타입 1과 쌍예측 타입 2를 전환하는 경우에는, 쌍예측 타입의 전환 정보(예를 들면, BiPred_type)를, 화면 또는 슬라이스의 헤더에 포함하여 부호화한다.
도 5 (A)와 같이 모든 참조 화면의 후보가, 부호화 대상 화면 보다 표시 순서에서 과대략 화면의 경우에는, 쌍예측 타입 2이 유효로 되므로, 부호화 측에서, 쌍예측 타입 2의 이용을 선택한다. 그리고, 부호화 장치는, 화면 또는 슬라이스의 헤더 정보에 의하여, 쌍예측 타입 2를 나타낸 지시 정보(예를 들면, BiPred_type=1)를 부호화한다. 한편, 도 5(B)와 같이, 표시 순서에서 부호화 대상 화면에 대해 미래의 화면이 참조 화면의 후보에 포함되는 경우에는, 부호화 장치는 쌍예측 타입 1을 선택하고, 화면 또는 슬라이스의 헤더 정보에 의해, 쌍예측 타입 1을 나타내는 지시 정보(예를 들면, BiPred_type=0)를 부호화한다.
쌍예측 타입 1을 이용하는 경우에는, 화면 내 또는 슬라이스 내의 블록을 부호화할 때, 움직임 벡터 mv[1]을 탐색하고, 제1 부가 정보(ref_idx[0]과 mvd[0]과 mvp_idx[0]을 부호화)와 동일하게, 제2 부가 정보에 mvd[1]을 포함하고, ref_idx[1]과 mvp_idx[1]과 함께 부호화한다. 쌍예측 타입 2를 이용하는 경우에는, 제1 부가 정보로서 ref_idx[0]과 mvd[0]과 mvp_idx[0]을 부호화하고, 제2 부가 정보로서 ref_idx[1]과 mvp_idx[1]을 부호화한다.
복호 측에서는, 화면 또는 슬라이스의 헤더 정보에 의해 복호한 지시 정보에 기초하여, 화면 내 또는 슬라이스 내의 각 블록을 복호할 때, mvd[1]의 복원 방법을 전환한다. 즉, 쌍예측 타입 1을 나타내는 지시 정보(예를 들면, BiPred_type=0)를 복호한 경우에는, 화면 내 또는 슬라이스 내의 각 블록을 복호할 때, 제2 부가 정보에 mvd[1]을 포함하고, ref_idx[1]과 mvp_idx[1]과 함께 복호한다. 쌍예측 타입 2를 나타낸 지시 정보(예를 들면, BiPred_type=1)를 복호한 경우에는, 화면 내 또는 슬라이스 내의 각 블록을 복호할 때, 제2 부가 정보로서 ref_idx[1]과 mvp_idx[1]을 복호하고, mvd[1]의 수평·수직 벡터값을 0으로 설정한다. 제1 부가 정보로서는, 지시 정보의 값에 관계없이, ref_idx[0]과 mvd[0]과 mvp_idx[0]을 복호한다.
*그리고, 부호화 측에서의 쌍예측 타입 1과 쌍예측 타입 2의 전환 방법은, 여기서 나타낸 방법에 의존하지 않는다. 예를 들면, 모든 참조 화면이 표시 순서에서 부호화 대상 화면에 대해 미래의 화면의 경우에, 쌍예측 타입 2를 이용하도록 해도 된다. 또한, 실제로 쌍예측 타입 1과 쌍예측 타입 2를 적용한 경우의 부호화 효율(예를 들면, 부호화 오차 신호의 제곱의 합+부호화 비트 수를 변환한 평가값)을 조사하여, 부호화 효율이 높은 쪽을 선택하는 방법을 채용할 수 있다.
또한, 도 8에 나타낸 바와 같이 복수의 블록 사이즈를 적응적으로 사용하는 부호화 방법에서는, 화면 또는 슬라이스 헤더에 의해, 상이한 블록 사이즈에 대해, 쌍예측 타입 1과 쌍예측 타입 2를 전환하는 지시 정보를 개별적으로 전송하도록 해도 된다. 예를 들면, 블록 사이즈가 64×64, 32×32, 16×16, 8×8의 경우에는, 4개의 지시 정보를 부호화한다.
그리고, 블록의 예측 방법으로 편예측과 쌍예측, 양쪽을 사용하는 경우에는, 예측 타입(편예측 또는 쌍예측)을 부호화 측에서 선택하고, 부가 정보에 포함하여 부호화한다. 그리고, 쌍예측을 선택한 블록에서만, 쌍예측 타입 1과 쌍예측 타입 2의 전환 처리를 실시한다. 복호 측에서는, 예측 타입으로서 쌍예측을 나타내는 정보를 복호한 블록에서만 쌍예측 타입 1과 쌍예측 타입 2의 전환 처리를 실시한다.
(화면/슬라이스 단위 전환, 참조 화면의 프레임 번호에 기초한 결정)
*도 5 (A)나 도 5 (B)에 나타낸 참조 화면의 후보는, 부호화 측과 복호 측에서 동일하다. 그러므로, 참조 화면의 후보의 프레임 번호와 부호화 대상 화면의 프레임 번호에 기초하여, 쌍예측 타입 1과 쌍예측 타입 2 중 어느 것을 사용하는지를 결정할 수 있다. 즉, 모든 참조 화면의 후보가, 부호화 대상 화면보다 표시 순서에서 과거의 화면인 경우에는, 쌍예측 타입 2를 이용하고, 표시 순서에서 부호화 대상 화면에 대해 미래의 화면이 참조 화면의 후보에 포함되는 경우에는, 쌍예측 타입 1을 이용한다. 이 방법에서는 지시 정보를 전송할 필요는 없다.
그리고, 모든 참조 화면의 후보가, 부호화 대상 화면에 대하여 표시 순서에서 미래의 화면인 경우에는, 쌍예측 타입 2를 이용하도록 해도 된다.
(블록 단위 전환, 전환 정보 부호화)
블록 단위로 쌍예측 타입 1과 쌍예측 타입 2를 전환하는 경우에는, 쌍예측 타입의 전환 정보(예를 들면, BiPred_block_type)를 블록의 부가 정보에 포함하여 부호화한다.
쌍예측의 2개의 참조 화면이 부호화 대상 화면보다 표시 순서에서 과거 화면인 경우에는 쌍예측 타입 2가 유효해지므로, 부호화 측에서, 쌍예측 타입 2의 이용을 선택한다. 그리고, 부호화 장치는, 블록의 부가 정보에 쌍예측 타입 2를 나타내는 지시 정보(예를 들면, BiPred_block_type=1)를 포함하고, 제1 부가 정보인 ref_idx[0], mvd[0], mvp_idx[0]과 제2 부가 정보인 ref_idx[1], mvp_idx[1]과 함께 부호화한다. 한편, 쌍예측의 2개의 참조 화면에 표시 순서에서 부호화 대상 화면에 대해 미래의 화면이 포함되는 경우에는, 쌍예측 타입 1을 선택한다. 그리고, 부호화 장치는 블록의 부가 정보에 쌍예측 타입 1을 나타내는 지시 정보(예를 들면, BiPred_block_type=0)를 포함하고, 제1 부가 정보인 ref_idx[0], mvd[0], mvp_idx[0]과 제2 부가 정보인 ref_idx[1], mvd[1](제2 부가 정보에 mvd[1]을 포함함), mvp_idx[1]과 함께 부호화한다.
복호 측에서는, 블록의 부가 정보에 쌍예측 타입의 전환 정보(예를 들면, BiPred_block_type)를 포함하여 복호하고, 복호값에 기초하여 mvd[1]의 복원 방법을 전환한다. 즉, 블록의 부가 정보로서, 쌍예측 타입 1을 나타내는 지시 정보(예를 들면, BiPred_block_type=0)를 복호한 경우에는, 제1 부가 정보로서, ref_idx[0]과 mvd[0]과 mvp_idx[0]을 복호하고, 제2 부가 정보로서, ref_idx[1]과 mvd[1]과 mvp_idx[1]을 복호한다. 한편, 블록의 부가 정보로서, 쌍예측 타입 2를 나타낸 지시 정보(예를 들면, BiPred_block_type=1)를 복호한 경우에는, 제1 부가 정보로서 ref_idx[0]과 mvd[0]과 mvp_idx[0]을 복호하고, 제2 부가 정보로서 ref_idx[1]과 mvp_idx[1]을 복호하고, mvd[1]의 수평·수직 벡터값을 0으로 설정한다.
그리고, 부호화 측에서의 쌍예측 타입 1과 쌍예측 타입 2의 전환 방법은, 여기서 나타낸 방법에 의존하지 않는다. 예를 들면, 2개의 참조 화면의 양쪽이 표시 순서에서 부호화 대상 화면에 대해 미래의 화면인 경우에는, 쌍예측 타입 2를 이용하도록 해도 된다. 또한, 실제로 쌍예측 타입 1과 쌍예측 타입 2를 적용한 경우의 부호화 효율(예를 들면, 부호화 오차 신호의 제곱의 합+부호화 비트 수를 변환한 평가값)을 블록마다 조사하여, 부호화 효율이 높은 쪽을 선택하는 방법을 채용할 수 있다.
또한, 블록의 예측 방법으로 편예측과 쌍예측 양쪽을 사용하는 경우에는, 부호화 측에서 예측 타입(편예측 또는 쌍예측)을 선택하고, 부가 정보에 포함하여 부호화한다. 그리고, 쌍예측을 선택한 블록에서만, 쌍예측 타입 1과 쌍예측 타입 2의 전환 처리를 실시한다. 복호 측에서는, 예측 타입으로서 쌍예측을 나타내는 정보를 복호한 블록에서만 쌍예측 타입 1과 쌍예측 타입 2의 전환 처리를 실시한다.
(블록 단위 전환, 참조 화면의 프레임 번호에 기초한 결정)
도 5 (A)나 도 5 (B)에 나타낸 참조 화면의 후보는, 부호화 측과 복호 측에서 동일하다. 그러므로, 블록의 부가 정보로서 부호화/복호하는 쌍예측에 사용하는 2개의 참조 화면의 프레임 번호와 부호화 대상 화면의 프레임 번호에 기초하여, 쌍예측 타입 1과 쌍예측 타입 2 중 어느 것을 사용하는지를 결정할 수 있다. 즉, 쌍예측에 사용하는 2개의 참조 화면이, 모두 부호화 대상 화면 보다 표시 순서에서 과거 화면인 경우에는 쌍예측 타입 2를 이용하고, 2개의 참조 화면 중 한쪽이든 양쪽이든 표시 순서에서 부호화 대상 화면에 대해 미래인 화면의 경우에는, 쌍예측 타입 1을 이용한다. 이 방법에서는 지시 정보를 전송할 필요는 없다. 그리고, 2개의 참조 화면의 양쪽이 표시 순서에서 부호화 대상 화면에 대해 미래의 화면인 경우에, 쌍예측 타입 2를 이용하도록 해도 된다.
(화면/슬라이스 단위 전환과 블록 단위 전환의 조합)
화면/슬라이스 단위로, 쌍예측 타입의 전환을 화면/슬라이스 단위로 행할 것인지 블록 단위로 행할 것인지를 나타내는 지시 정보를 부호화/복호한다.
쌍예측 타입의 전환을 화면/슬라이스 단위로 행하는 경우에는, 부가하여, 상기에서 설명한 바와 같이, 쌍예측 타입의 전환 정보(예를 들면, BiPred_type)를, 화면 또는 슬라이스의 헤더에 포함하여 부호화/복호한다. 이때, 도 8에 나타낸 바와 같이 복수의 블록 사이즈를 적응적으로 사용하는 부호화 방법에서는, 화면 또는 슬라이스 헤더에 의해, 상이한 블록 사이즈에 대해, 쌍예측 타입 1과 쌍예측 타입 2를 전환하는 지시 정보를 개별적으로 전송하도록 해도 된다. 예를 들면, 블록 사이즈가 64×64, 32×32, 16×16, 8×8인 경우에는, 4개의 지시 정보를 부호화한다.
쌍예측 타입의 전환을 블록 화면 단위로 행하는 경우에는, 부가하여, 상기에서 설명한 바와 같이, 블록 단위로, 쌍예측 타입의 전환 정보(예를 들면, BiPred_block_type)를, 블록의 부가 정보에 포함하여 부호화/복호한다. 이때, 또한 도 8에 나타낸 바와 같이 복수의 블록 사이즈를 적응적으로 사용하는 부호화 방법에서는, 화면 또는 슬라이스 헤더에 의해, 상이한 블록 사이즈에 대하여, 쌍예측 타입 1과 쌍예측 타입 2의 전환 처리를 행할 것인지의 여부를 지시하는 지시 정보를 개별적으로 전송하도록 해도 된다. 예를 들면, 블록 사이즈가 64×64, 32×32, 16×16, 8×8인 경우에는, 4개의 지시 정보를 부호화한다.
또한, 화면/슬라이스 단위로, 쌍예측 타입 1만을 이용할 것인지, 쌍예측 타입 2만을 이용할 것인지, 2개의 쌍예측 타입을 화면/슬라이스 내의 각각의 블록에서 전환할 것인지를 지시하는 지시 정보를 부호화/복호하도록 해도 된다. 이때, 도 8에 나타낸 바와 같이 복수의 블록 사이즈를 적응적으로 사용하는 부호화 방법에서는, 상이한 블록 사이즈에 대해 개별적으로 지시 정보를 전송하도록 해도 된다.
*또는, 화면/슬라이스 단위로, 쌍예측 타입 2를 이용할 것인지의 여부를 나타낸 지시 정보를 부호화/복호한다. 쌍예측 타입 2를 이용하는 화면/슬라이스에서는, 또한 화면/슬라이스 내의 각각의 블록에서 쌍예측 타입 1과 쌍예측 타입 2를 전환할 것인지, 화면/슬라이스 내의 모든 블록에서 쌍예측 타입 2를 이용할 것인지를 지시하는 지시 정보를 부호화/복호하도록 해도 된다. 이때, 도 8에 나타낸 바와 같이 복수의 블록 사이즈를 적응적으로 사용하는 부호화 방법에서는, 화면 또는 슬라이스 헤더에 의해, 상이한 블록 사이즈에 대해, 이들 지시 정보를 개별적으로 전송하도록 해도 된다.
상기에서는, 도 7에 나타낸 제2 예측 움직임 벡터의 후보에, 대상 블록(400)의 제1 움직임 정보를 포함하고 있었다. 그러나, 제1 움직임 정보를 제2 예측 움직임 정보로 하고, 예측 움직임 정보를 제1 움직임 정보에 포함되는 제1 참조 화면 인덱스와 제2 움직임 정보에 포함되는 제1 참조 화면 인덱스에 기초하여 스케일링 해 제2 움직임 정보로서 이용하는 방법을 쌍예측 타입 3으로서 별도로 준비해도 된다. 즉, 제1 움직임 정보에 포함되는 움직임 벡터가 제2 움직임 정보의 참조 화면 인덱스가 가리키는 참조 화면의 움직임 벡터가 되도록 스케일링한다. 이 경우에는, 쌍예측 타입 2에서의 제2 예측 움직임 정보의 후보에는, 대상 블록의 제1 움직임 정보를 포함하지 않아도 된다(도 7의 n=4를 후보로부터 제외함). 그리고, 쌍예측 타입 3을 이용하는 경우에는, 제2 예측 움직임 정보 인덱스의 부호화/복호는 행하지 않는다. 즉, 제2 부가 정보를 부호화/복호할 때는, 제1 참조 화면 인덱스(ref_idx[1])를 포함하고, 차분 움직임 벡터(mvd[1])와 제2 예측 움직임 정보 인덱스(mvp_idx[1])를 포함하지 않도록 한다.
쌍예측 타입 3의 이용 방법으로서는, 화면/슬라이스 단위 또는 블록 단위로, 쌍예측 타입 1과 쌍예측 타입 2와 쌍예측 타입 3을 전환하는 지시 정보를 부호화/복호하도록 해도 된다. 또한, 화면/슬라이스 단위 또는 블록 단위로, 쌍예측 타입 1과 쌍예측 타입 3, 또는 쌍예측 타입 2와 쌍예측 타입 3을 전환하는 지시 정보를 부호화/복호하도록 해도 된다.
또한, 상기에 의해 쌍예측 타입 1의 대용으로서 사용하는 방법도 생각할 수 있다. 즉, 복수의 참조 화면 후보에 표시 순서에서 부호화 대상 화면에 대해 미래의 화면이 포함되는 경우에는, 쌍예측 타입 3을 이용하고, 복수의 참조 화면 후보가 표시 순서에서 모두 부호화 대상 화면에 대하여 과거 화면인 경우에는, 쌍예측 타입 2를 이용하도록 해도 된다.
또는, 제1 움직임 정보에 포함되는 참조 화면 인덱스가 지시하는 참조 화면이, 제2 움직임 정보의 참조 화면 인덱스가 지시하는 참조 화면과 다른 경우에는, 쌍예측 타입 2 대신에 쌍예측 타입 3을 이용하고(제2 예측 움직임 정보 인덱스의 부호화/복호는 불필요), 한편, 제1 움직임 정보에 포함되는 참조 화면 인덱스가 지시하는 참조 화면이, 제2 움직임 정보의 참조 화면 인덱스가 지시하는 참조 화면과 같은 경우에는, 쌍예측 타입 2를 이용(제2 예측 움직임 정보 인덱스를 부호화/복호)하도록 해도 된다.
그리고, 쌍예측 타입의 전환 정보는, BiPred_type나 BiPred_block_type과 같은 식별 정보에는 한정되지 않는다. 차분 움직임 벡터의 부호화/복호를 행할 것인지의 여부를 나타낸 정보이면 된다. 예를 들면, mvd_list1_zero_flag나 mvd_list0_zero_flag와 같이 제2 부가 정보나 제1 부가 정보에 mvd가 포함되는지의 여부를 지시하는 플래그(flag) 정보를 부호화/복호하도록 해도 된다. 쌍예측 타입 1, 쌍예측 타입 2 및 쌍예측 타입 3을 화면/슬라이스 단위 또는 블록 단위로 전환하는 경우에는, 쌍예측 타입 2나 쌍예측 타입 3 중 어느 하나를 이용하는 경우에, 부가 정보에 mvd를 포함하지 않는 것을 지시하는 플래그를 전송한다. 쌍예측 타입 2와 쌍예측 타입 3의 전환은, 상기한 바와 같이 참조 화면 인덱스에 기초하여 행해도 되고(제1 움직임 정보에 포함되는 참조 화면 인덱스가 지시하는 참조 화면이, 제2 움직임 정보의 참조 화면 인덱스가 지시하는 참조 화면과 같은 경우에는, 쌍예측 타입 2를 이용하는), 선택 정보를 더 부호화/복호해도 된다.
도 15는 동화상 예측 부호화 방법을 실행할 수 있는 프로그램의 모듈을 나타낸 블록도이다. 도 15 (A)에 나타낸 바와 같이 동화상 예측 부호화 프로그램(P100)은 블록 분할 모듈(P101), 예측 신호 생성 모듈(P103), 기억 모듈(P104), 감산 모듈(P105), 변환 모듈(P106), 양자화 모듈(P107), 역양자화 모듈(P108), 역변환 모듈(P109), 가산 모듈(P110), 부호화 모듈(P111) 및 움직임 정보 기억 모듈(P113)을 구비하고 있다. 또한, 도 15 (B)에 나타낸 바와 같이 예측 신호 생성 모듈(P103)은 제2 움직임 정보 추정 모듈(P121), 제1 움직임 정보 추정 모듈(P122) 및 예측 신호 합성 모듈(P123)을 구비하고 있다. 상기 각 모듈이 실행됨으로써 실현되는 기능은, 전술한 동화상 예측 부호화 장치(100)의 기능과 같다. 즉, 동화상 예측 부호화 프로그램(P100)의 각 모듈의 기능은, 블록 분할기(102), 예측 신호 생성기(103), 프레임 메모리(104), 감산기(105), 변환기(106), 양자화기(107), 역양자화기(108), 역변환기(109), 가산기(110), 부호화기(111), 움직임 정보용 메모리(113), 제2 움직임 정보 추정기(121), 제1 움직임 정보 추정기(122) 및 예측 신호 합성기(123)의 기능과 동일하다.
또한, 도 16은 동화상 예측 복호 방법을 실행할 수 있는 프로그램의 모듈을 나타낸 블록도이다. 도 16 (A)에 나타낸 바와 같이, 동화상 예측 복호 프로그램(P200)은 복호 모듈(P201), 움직임 정보 복호 모듈(P202), 움직임 보상 모듈(P203), 움직임 정보 기억 모듈(P204), 역양자화 모듈(P205), 역변환 모듈(P206), 가산 모듈(P207) 및 기억 모듈(P104)을 구비하고 있다. 또한, 도 16 (B)에 나타낸 바와 같이, 움직임 정보 복호 모듈(P202)은 제2 움직임 정보 복원 모듈(P211) 및 제1 움직임 정보 복원 모듈(P212)을 구비하고 있다.
상기 각 모듈이 실행됨으로써 실현되는 기능은, 전술한 동화상 예측 복호 장치(200)의 각 구성 요소와 같다. 즉, 동화상 예측 복호 프로그램(P200)의 각 모듈의 기능은, 복호기(202), 움직임 정보 복원기(208), 움직임 보상기(207), 움직임 정보용 메모리(113), 역양자화기(203), 역변환기(204), 가산기(205), 프레임 메모리(104), 제2 움직임 정보 복원기(211) 및 제1 움직임 정보 복원기(212)의 기능과 동일하다.
이와 같이 구성된 동화상 예측 부호화 프로그램(P100) 또는 동화상 예측 복호 프로그램(P200)은, 후술하는 도 17 및 도 18에 나타낸 기록 매체(10)에 기억되고, 후술하는 컴퓨터로 실행된다.
도 17은 기록 매체에 기록된 프로그램을 실행하기 위한 컴퓨터의 하드웨어 구성을 나타낸 도면이며, 도 18은 기록 매체에 기억된 프로그램을 실행하기 위한 컴퓨터의 사시도이다. 그리고, 기록 매체에 기억된 프로그램을 실행하는 것은 컴퓨터로 한정되지 않고, CPU를 구비하고 소프트웨어에 의한 처리나 제어를 행하는 DVD 플레이어, 셋탑 박스, 휴대 전화기 등이어도 된다.
도 17에 나타낸 바와 같이, 컴퓨터(30)는 플렉시블 디스크 드라이브 장치, CD-ROM 드라이브 장치, DVD 드라이브 장치 등의 판독 장치(12)와, 운영체제(operating system)를 상주시킨 작업용 메모리(RAM)(14)와, 기록 매체(10)에 기억된 프로그램을 기억하는 메모리(16)와, 디스플레이 등의 표시 장치(18)와, 입력 장치인 마우스(20) 및 키보드(22)와, 데이터 등의 송수신을 행하기 위한 통신 장치(24)와, 프로그램의 실행을 제어하는 CPU(26)를 구비하고 있다. 컴퓨터(30)는, 기록 매체(10)가 판독 장치(12)에 삽입되면, 판독 장치(12)로부터 기록 매체(10)에 저장된 동화상 예측 부호화·복호 프로그램에 액세스 가능해져, 상기 화상 부호화·복호 프로그램에 의해, 본 실시형태에 따른 동화상 부호화 장치 또는 동화상 복호 장치로서 동작하는 것이 가능해진다.
도 18에 나타낸 바와 같이, 동화상 예측 부호화 프로그램 및 동화상 복호 프로그램은, 반송파에 중첩된 컴퓨터 데이터 신호(40)로서 네트워크를 통해 제공되는 것이어도 된다. 이 경우, 컴퓨터(30)는 통신 장치(24)에 의해 수신한 동화상 예측 부호화 프로그램 또는 동화상 복호 프로그램을 메모리(16)에 저장하고, 그 동화상 예측 부호화 프로그램 또는 동화상 예측 복호 프로그램을 실행할 수 있다.
본 발명에서는, 또한 하기의 변형이 가능하다.
(1) 제1 부가 정보와 제2 부가 정보의 관계
상기에서는, 제2 부가 정보가 ref_idx[1]과 mvp_idx[1]을 포함하고, 제1 부가 정보가 ref_idx[0]과 mvd[0]과 mvp_idx[0]을 포함하고 있지만, 이 구성은 반대이어도 된다. 즉, 제2 부가 정보가, ref_idx[1]과 mvd[1]과 mvp_idx[1]을 포함하고, 제1 부가 정보가 ref_idx[0]과 mvp_idx[0]을 포함한다. 이 경우, 제1 예측 움직임 정보를 인접 블록의 움직임 정보로부터 생성하는 동시에 제1 예측 신호를 생성하고, 이어서, 쌍예측 신호와 대상 블록의 원래의 신호와의 절대값 합+부가 정보의 평가값이 최소가 되는 제2 움직임 정보를 탐색한다.
*또한, 제2 부가 정보가 ref_idx[1]과 mvp_idx[1]을 포함하고, 제1 부가 정보가 ref_idx[0]과 mvp_idx[0]을 포함하도록 해도 된다. 즉, 차분의 움직임 벡터는 부호화되지 않고, 2개의 차분 움직임 벡터의 복호 측에서 수평·수직 벡터값을 0으로 설정한다. 또는, 제1 예측 움직임 벡터와 제2 예측 움직임 벡터를 각각 제1 움직임 벡터와 제2 움직임 벡터로 설정한다.
(2) 참조 화면
상기에서는, 참조 화면 인덱스를 제2 부가 정보에 포함하여 부호화/복호하고 있지만, mvp_idx에 의해 나타내는 인접 블록의 움직임 정보에 부수되는 참조 화면 인덱스에 기초하여 결정되도록 해도 된다(예를 들면, 도 7의 인접 블록 401 내지 404에 대해서는, 부수되는 List1의 참조 화면 인덱스를 그대로 이용하고, 인접 블록 410 내지 415에 대해서는, 대상 블록과 인접 블록의 참조 화면 인덱스가 지시하는 참조 화면의 상위에 기초하여, 인접 블록에 포함되는 움직임 벡터에 스케일링 처리를 행하도록 함). 또한, 제2 움직임 정보의 참조 화면 인덱스를 미리 결정해 두어도 된다. 이러한 경우는, 복호 측에 의해 일의적으로 복원할 수 있으므로, 참조 화면 인덱스 ref_idx를 제2 부가 정보에 포함하여 부호화할 필요가 없다.
참조 화면의 선택과 그 리스트는 도 5로 도 6의 예에 한정되지 않는다. 참조 화면 리스트는 화면/슬라이스 단위로 부호화해도 되고, 참조 화면의 수는, 도 5와 같이 4개가 아니라, 다른 임의의 수라도 본 발명은 실시할 수 있다.
(3) 예측 움직임 정보
상기에서는, 도 7에 나타낸 바와 같이 복수의 부호화/복호가 끝난 움직임 정보를 예측 움직임 정보의 후보로 하고 있지만, 그 수와 이용하는 인접 블록의 위치는 한정되지 않는다.
제2 예측 움직임 벡터의 후보에 인접 블록의 제1 움직임 벡터를 포함하여도 되고, 제1 예측 움직임 벡터의 후보에 인접 블록의 제2 움직임 벡터를 포함하여도 본 발명의 쌍예측은 실시할 수 있다. 제2 예측 움직임 정보의 후보에, 먼저 부호화/복호되어 있는 제1 움직임 정보를 추가해도 된다.
부호화/복호가 끝난 움직임 정보에 포함되는 참조 화면 인덱스와 대상 블록에 부수되는 움직임 정보에 포함되는 참조 화면 인덱스가 상이한 경우에, 움직임 벡터의 스케일링 처리를 행할 것인지의 여부도 본 발명에서는 한정되지 않는다.
그리고, 예측 움직임 벡터의 후보가 1개인 경우에는, 예측 움직임 정보 인덱스 mvp_idx를 제2 부가 정보에 포함하여 부호화할 필요가 없다.
예측 움직임 벡터의 생성 방법도 본 발명에서는 한정되지 않는다. 예를 들면, 홀수개의 예측 움직임 벡터의 후보의 중앙값을, 예측 움직임 벡터로서 채용하도록 해도 된다. 이 경우도, 예측 움직임 벡터는 복호 측에서 일의적으로 정해지므로, 예측 움직임 정보 인덱스 mvp_idx를 제2 부가 정보에 포함하여 부호화할 필요가 없다.
도 8에 나타낸 바와 같이, 복수의 블록 사이즈를 사용하는 부호화/복호 방식의 경우라도, 예측 움직임 정보의 후보를 결정하는 방법이 규정되어 있으면, 본 발명의 쌍예측은 실시할 수 있다. 예를 들면, 도 8의 예에서는, 대상 블록(400)에 인접하는 블록 421 내지 블록 428을 예측 정보의 후보로 해도 되고, 인접 블록의 번호 부여 방법을 미리 정해두고, 화면 단위나 슬라이스 단위로 지시되는 수의 인접 블록의 움직임 정보를 예측 움직임 벡터의 후보로 설정하도록 해도 된다.
(4) 제1 움직임 정보와 부가 정보
그리고, 제1 움직임 정보와 부가 정보의 구성에 대해서는, 본 발명에서는 한정되지 않는 참조 화면 인덱스나 예측 움직임 정보 인덱스를 부호화하지 않고 고정값으로 해도 되고, 미리 정한 방법으로 도출하도록 해도 된다.
또한, 제1 움직임 정보나 부가 정보에 대해서도, 제2 움직임 정보나 부가 정보와 같이, mvd[0]을 부호화하지 않고, 복호 측에 의해 mv[0]=pmv[0](또는 mvd[0]=0)으로 설정하도록 해도 된다.
(5) 프레임 번호
상기에서는, 참조 화면이나 부호화 대상 화면의 식별에 프레임 번호(frame_num)를 사용하고 있지만, 참조 화면을 식별할 수 있는 정보이면, 다른 정보이어도, 본 발명의 실시에 영향은 없다.
(6) 제2 차분 움직임 벡터 mvd[1]의 복원
상기에서 설명한 본 발명의 쌍예측에서는, 제2 차분 움직임 벡터 mvd[1]의 벡터값은 0이 된다. 그러므로, mvd[1]은 부호화하지 않고, 복호 측에서, mvd[1]의 벡터값을 0으로 설정하거나, 또는 움직임 벡터 mv[1]을 pmv[1]로 설정하고 있다. 다른 실시형태로서, mvd[1]=0을 제2 부가 정보에 포함하고, 0 값을 효율적으로 엔트로피 부호화하는 방법도 유효하다고 할 수 있다.
엔트로피 부호화에 산술 부호화를 사용하는 경우에는, 예를 들면, 제1 차분 움직임 벡터와 제2 차분 움직임 벡터를 상이한 확률 모델로 부호화/복호한다. 예를 들면, 차분 움직임 벡터의 벡터값 0의 확률 빈도가 상이한 2개의 확률 모델을 차분 움직임 벡터의 부호화/복호용으로 준비한다. 그리고, 제2 차분 움직임 벡터를 부호화/복호하는 경우에는, 차분 움직임 벡터의 벡터값 0의 빈도를 더욱 높게 설정한 제2 확률 모델을 사용하고, 제1 차분 움직임 벡터를 부호화/복호하는 경우에는, 다른 제1 확률 모델을 사용한다. 또한, 차분 움직임 벡터의 수평과 수직 방향 벡터값용으로 개별적으로 확률 모델을 준비해도 된다.
그리고, 쌍예측 타입 2를 적용하는 블록의 제2 차분 움직임 벡터에서만 제2 확률 모델을 사용하고, 그 이외의 차분 움직임 벡터의 부호화/복호에서는, 제1 확률 모델을 사용하도록 해도 된다.
가변길이 부호화를 사용하는 경우에는, 제1 차분 움직임 벡터와 제2 차분 움직임 벡터를 상이한 가변길이 테이블을 사용하여 부호화/복호한다. 예를 들면, 차분 움직임 벡터의 벡터값 0에 할당하는 부호 길이가 상이한 2개의 가변길이 테이블을 준비한다. 그리고, 제2 차분 움직임 벡터를 부호화/복호하는 경우에는, 차분 움직임 벡터의 벡터값 0에 할당하는 부호 길이를 더욱 짧게 설정한 제2 가변길이 테이블을 사용하고, 제1 차분 움직임 벡터를 부호화/복호하는 경우에는, 다른 제1 가변길이 테이블을 사용한다. 또한, 차분 움직임 벡터의 수평과 수직 방향 벡터값용으로 개별적으로 가변길이 테이블을 준비해도 된다.
그리고, 쌍예측 타입 2를 적용하는 블록의 제2 차분 움직임 벡터에만 제2 가변길이 테이블을 사용하고, 그 이외의 차분 움직임 벡터의 부호화/복호에서는, 제1 가변길이 테이블 사용하도록 해도 된다.
(7) N 예측
상기에서는 화면 간 예측의 예측 타입을 편예측과 쌍예측으로 하고 있지만, 3개 이상의 예측 신호를 합성하는 예측 방법에 대해서도 본 발명은 적용 가능하다. 3개 이상의 예측 신호를 합성하여 예측 신호를 생성하는 경우에는, mvd를 포함하지 않는 부가 정보의 수는 1개 이상이면, 몇 개라도 된다.
(8) 변환기, 역변환기
잔차 신호의 변환 처리, 고정된 블록 사이즈로 행해도 되고, 부분 영역에 맞추어 대상 영역을 재분할하여 변환 처리를 행해도 된다.
(9) 색 신호
상기에서는, 색 포맷에 대해 특별히 서술하고 있지 않지만, 색 신호 또는 색차 신호에 대해서도, 휘도 신호와 별개로 예측 신호의 생성 처리를 행해도 된다. 또한, 휘도 신호의 처리와 연동하여 행해도 된다.
이상, 본 발명을 그 실시형태에 기초하여 상세하게 설명하였다. 그러나, 본 발명은 또한 상기 실시형태에 한정되는 것은 아니다. 본 발명은 그 요지를 벗어나지 않는 범위에서 다양한 변형이 가능하다.
100: 동화상 예측 부호화 장치, 101: 입력 단자, 102: 블록 분할기, 103: 예측 신호 생성기, 104: 프레임 메모리, 105: 감산기, 106: 변환기, 107: 양자화기, 108: 역양자화기, 109: 역변환기, 110: 가산기, 111: 부호화기, 112: 출력 단자, 113: 움직임 정보용 메모리, 121: 제2 움직임 정보 추정기, 122: 제1 움직임 정보 추정기, 123: 예측 신호 합성기, 201: 입력 단자, 202: 복호기, 203: 역양자화기, 204: 역변환기, 205: 가산기, 206: 출력 단자, 207: 움직임 보상기, 208: 움직임 정보 복원기, 211: 제2 움직임 정보 복원기, 212: 제1 움직임 예측 정보 복원기

Claims (4)

  1. 동화상 예측 복호 장치에 의해 실행되는 동화상 예측 복호 방법으로서,
    상기 동화상 예측 복호 방법은,
    복호 대상이 되는 복호 대상 영역의 부가 정보에 포함된 예측 타입으로서, 1개의 기재생 화상을 참조하여 예측 신호를 생성하는 편(片)예측, 또는, 1개 또는 2개의 기재생 화상을 참조하여 얻어지는 2개의 예측 신호에 의한 쌍(雙)예측을 나타내는 정보를 복호하고, 예측 타입으로서 쌍예측을 나타내는 정보가 복호된 복호 대상 영역에서만 소정의 처리를 행하는 동화상 예측 복호 방법이며,
    상기 소정의 처리는,
    복수의 영역으로 분할하여 부호화된 압축 데이터 중에서 상기 복호 대상 영역의 부가 정보와 잔차 신호의 압축 데이터를 복호하는 복호 단계;
    상기 부가 정보로부터 상기 복호 대상 영역의 예측 신호의 생성에 필요한 움직임 벡터를 복원하는 움직임 정보 복원 단계;
    상기 움직임 벡터를 움직임 정보 기록 수단에 저장하는 움직임 정보 기록 단계;
    상기 움직임 벡터에 기초하여 상기 복호 대상 영역의 예측 신호를 생성하는 움직임 보상 단계;
    상기 잔차 신호의 압축 데이터로부터 상기 복호 대상 영역의 재생 잔차 신호를 복원하는 잔차 신호 복원 단계; 및
    상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 복호 대상 영역의 화소 신호를 복원하고, 상기 복원된 화소 신호를 기재생 화상으로서 저장하는 화상 기록 단계
    를 포함하고,
    상기 복호 단계에서, 상기 동화상 예측 복호 장치는 제1 부가 정보와 제2 부가 정보를 복호하고,
    상기 제1 부가 정보는, 제1 차분 움직임 벡터와, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제1 예측 움직임 벡터로서 식별하기 위한 제1 예측 움직임 정보 인덱스를 포함하고,
    상기 제2 부가 정보는, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제2 움직임 벡터로서 식별하는 제2 예측 움직임 정보 인덱스를 포함하고,
    상기 움직임 정보 복원 단계가,
    상기 제1 예측 움직임 정보 인덱스에 기초하여 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 벡터로부터 선택된 움직임 벡터를 이용하여 제1 예측 움직임 벡터를 생성하고, 상기 생성된 제1 예측 움직임 벡터와 상기 제1 차분 움직임 벡터를 가산하여 제1 움직임 벡터를 복원하는 제1 움직임 정보 복원 단계; 및
    상기 제2 예측 움직임 정보 인덱스에 기초하여 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 움직임 벡터를 이용하여 제2 예측 움직임 벡터를 생성하고, 상기 생성된 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하는 제2 움직임 정보 복원 단계
    를 포함하며,
    상기 움직임 보상 단계에서, 상기 동화상 예측 복호 장치는, 상기 제1 움직임 벡터와 제2 움직임 벡터에 기초하여 상기 기재생 화상으로부터 각각 취득되는 2개의 신호를 합성하여 상기 신호 대상 영역의 예측 신호를 생성하고,
    상기 복호 단계에서, 상기 동화상 예측 복호 장치는 또한, 화면이나 슬라이드마다 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는지 여부를 지시하는 지시 정보를 복호하며,
    상기 지시 정보가, 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하지 않는 것을 나타내는 경우에, 상기 동화상 예측 복호 장치는, 상기 제2 부가 정보로서 제2 예측 움직임 정보 인덱스를 복호하고,
    상기 지시 정보가, 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는 것을 나타내는 경우에, 상기 동화상 예측 복호 장치는, 상기 제2 부가 정보로서 제2 차분 움직임 벡터와 제2 예측 움직임 정보 인덱스를 복호하며,
    상기 제2 움직임 정보 복원 단계에서, 상기 동화상 예측 복호 장치는,
    상기 지시 정보가, 제2 부가 정보가 제2 차분 움직임 벡터를 포함하지 않는 것을 나타내는 경우에는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택되는 움직임 벡터를 이용하여 제2 예측 움직임 벡터를 생성하고, 상기 생성된 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하고,
    상기 지시 정보가, 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는 것을 나타내는 경우에는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 상기 생성된 제2 예측 움직임 벡터와 복호한 제2 차분 움직임 벡터를 가산하여 제2 움직임 벡터를 복원하는,
    동화상 예측 복호 방법.
  2. 복호 대상이 되는 복호 대상 영역의 부가 정보에 포함된 예측 타입으로서, 1개의 기재생 화상을 참조하여 예측 신호를 생성하는 편예측, 또는, 1개 또는 2개의 기재생 화상을 참조하여 얻어지는 2개의 예측 신호에 의한 쌍예측을 나타내는 정보를 복호하고, 예측 타입으로서 쌍예측을 나타내는 정보가 복호된 복호 대상 영역에서만 소정의 처리를 행하는 동화상 예측 복호 장치로서,
    상기 소정의 처리를 행하기 위해,
    복수의 영역으로 분할하여 부호화된 압축 데이터 중에서 상기 복호 대상 영역의 부가 정보와 잔차 신호의 압축 데이터를 복호하는 복호 수단;
    상기 부가 정보로부터 상기 복호 대상 영역의 예측 신호의 생성에 필요한 움직임 벡터를 복원하는 움직임 정보 복원 수단;
    상기 움직임 벡터를 저장하는 움직임 정보 기록 수단;
    상기 움직임 벡터에 기초하여 상기 복호 대상 영역의 예측 신호를 생성하는 움직임 보상 수단;
    상기 잔차 신호의 압축 데이터로부터 상기 복호 대상 영역의 재생 잔차 신호를 복원하는 잔차 신호 복원 수단; 및
    상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 복호 대상 영역의 화소 신호를 복원하고, 상기 복원된 화소 신호를 기재생 화상으로서 저장하는 화상 기록 수단
    을 포함하고,
    상기 복호 수단은, 제1 부가 정보와 제2 부가 정보를 복호하고,
    상기 제1 부가 정보는, 제1 차분 움직임 벡터와, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제1 예측 움직임 벡터로서 식별하기 위한 제1 예측 움직임 정보 인덱스를 포함하고,
    상기 제2 부가 정보는, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 1개를 제2 움직임 벡터로서 식별하는 제2 예측 움직임 정보 인덱스를 포함하고,
    상기 움직임 정보 복원 수단이,
    상기 제1 예측 움직임 정보 인덱스에 기초하여 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 벡터로부터 선택된 움직임 벡터를 이용하여 제1 예측 움직임 벡터를 생성하고, 상기 생성된 제1 예측 움직임 벡터와 상기 제1 차분 움직임 벡터를 가산하여 제1 움직임 벡터를 복원하는 제1 움직임 정보 복원 수단; 및
    상기 제2 예측 움직임 정보 인덱스에 기초하여 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 움직임 벡터를 이용하여 제2 예측 움직임 벡터를 생성하고, 상기 생성된 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하는 제2 움직임 정보 복원 수단
    을 포함하며,
    상기 움직임 보상 수단은, 상기 제1 움직임 벡터와 제2 움직임 벡터에 기초하여 상기 기재생 화상으로부터 각각 취득되는 2개의 신호를 합성하여 상기 신호 대상 영역의 예측 신호를 생성하고,
    상기 복호 수단은 또한, 화면이나 슬라이드마다 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는지 여부를 지시하는 지시 정보를 복호하며,
    상기 지시 정보가, 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하지 않는 것을 나타내는 경우에, 상기 제2 부가 정보로서 제2 예측 움직임 정보 인덱스를 복호하고,
    상기 지시 정보가, 상기 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는 것을 나타내는 경우에, 상기 제2 부가 정보로서 제2 차분 움직임 벡터와 제2 예측 움직임 정보 인덱스를 복호하며,
    상기 제2 움직임 정보 복원 수단은,
    상기 지시 정보가, 제2 부가 정보가 제2 차분 움직임 벡터를 포함하지 않는 것을 나타내는 경우에는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택되는 움직임 벡터를 이용하여 제2 예측 움직임 벡터를 생성하고, 상기 생성된 제2 예측 움직임 벡터를 제2 움직임 벡터로서 복원하고,
    상기 지시 정보가, 제2 부가 정보가 제2 차분 움직임 벡터를 포함하는 것을 나타내는 경우에는, 상기 제2 예측 움직임 정보 인덱스에 기초하여 제2 예측 움직임 벡터를 생성하고, 상기 생성된 제2 예측 움직임 벡터와 복호한 제2 차분 움직임 벡터를 가산하여 제2 움직임 벡터를 복원하는,
    동화상 예측 복호 장치.
  3. 동화상 예측 부호화 장치에 의해 실행되는 동화상 예측 부호화 방법으로서,
    상기 동화상 예측 부호화 방법은,
    부호화 대상인 대상 영역에 대한 예측 타입으로서, 1개의 기재생 화상을 참조하여 예측 신호를 생성하는 편예측, 또는, 1개 또는 2개의 기재생 화상을 참조하여 얻어지는 2개의 예측 신호에 의한 쌍예측을 나타내는 정보를, 부가 정보에 포함시켜 부호화하고, 예측 타입으로서 쌍예측을 나타내는 정보가 부호화된 대상 영역에서만 소정의 처리를 행하는 동화상 예측 부호화 방법이며,
    상기 소정의 처리는,
    입력 화상을 복수의 영역으로 분할하는 영역 분할 단계;
    상기 영역 분할 단계에 의해 분할된 영역 중에서, 상기 대상 영역과의 상관이 높은 신호를 기재생 화상으로부터 취득하기 위한 움직임 벡터를 결정하는 예측 신호 생성 단계;
    상기 움직임 벡터를 움직임 정보 기록 수단에 저장하는 움직임 정보 기록 단계;
    상기 대상 영역의 예측 신호와 상기 대상 영역의 화소 신호의 잔차 신호를 생성하는 잔차 신호 생성 단계;
    상기 잔차 신호 생성 단계에 의해 생성된 잔차 신호를 압축하는 잔차 신호 압축 단계;
    상기 잔차 신호의 압축 데이터를 복원한 재생 잔차 신호를 생성하는 잔차 신호 복원 단계;
    상기 움직임 정보 기록 수단에 저장된 기재생 움직임 벡터로부터 선택된 상기 대상 영역의 움직임 벡터에 유사한 예측 움직임 벡터와, 상기 대상 영역의 움직임 벡터로부터 결정된 부가 정보와, 상기 잔차 신호의 압축 데이터를 부호화하는 부호화 단계; 및
    상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 대상 영역의 화소 신호를 복원하고, 상기 복원된 화소 신호를 상기 기재생 화상으로서 화상 기록 수단에 저장하는 화상 기록 단계
    를 포함하고,
    상기 움직임 벡터는, 제1 예측 신호의 생성에 필요한 제1 움직임 벡터와, 제2 예측 신호의 생성에 필요한 제2 움직임 벡터를 포함하며,
    상기 예측 신호 생성 단계가,
    상기 제1 예측 신호를 취득하기 위한 제1 움직임 벡터를 추정함과 동시에, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 움직임 벡터를 이용하여, 상기 추정된 제1 움직임 벡터와 유사한 제1 예측 움직임 벡터를 생성하고, 상기 생성된 제1 예측 움직임 벡터를 식별하기 위한 제1 예측 움직임 정보 인덱스와, 상기 제1 움직임 벡터 및 제1 예측 움직임 벡터로부터 결정된 차분 움직임 벡터를 포함하는 제1 부가 정보를 생성하는 제1 움직임 정보 추정 단계;
    상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 움직임 벡터를 이용하여, 대상 영역과의 상관이 높은 제2 예측 신호를 생성하는 제2 예측 움직임 벡터를 생성하고, 상기 생성된 제2 예측 움직임 벡터를 식별하기 위한 제2 예측 움직임 정보 인덱스를 포함하는 제2 부가 정보를 생성하며, 상기 제2 예측 움직임 벡터를 제2 움직임 벡터로 설정하는 제2 움직임 정보 추정 단계; 및
    상기 제1 예측 신호와 상기 제2 예측 신호를 합성하여 대상 영역의 예측 신호를 생성하는 예측 신호 합성 단계
    를 포함하고,
    상기 제2 움직임 정보 추정 단계에서, 상기 동화상 예측 부호화 장치는 또한, 상기 제2 예측 신호를 취득하기 위한 제3 움직임 벡터를 추정하고, 제3 움직임 벡터를 검출함과 동시에, 상기 추정된 제3 움직임 벡터와 유사한 제3 예측 움직임 벡터를 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택하고, 상기 선택된 예측 움직임 벡터를 식별하기 위한 제3 예측 움직임 정보 인덱스와, 상기 제3 움직임 벡터 및 상기 제3 예측 움직임 벡터로부터 결정된 차분 움직임 벡터를 포함하는 제3 부가 정보를 생성하고,
    상기 예측 신호 생성 단계에서, 상기 동화상 예측 부호화 장치는,
    상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 전부 부호화 대상 화상보다 과거의 화상인 경우에는, 상기 제2 움직임 벡터로 상기 제2 예측 신호를 생성하고,
    상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상보다 미래의 화상이 포함된 경우에는, 상기 제2 움직임 벡터로 상기 제2 예측 신호를 생성하며,
    상기 부호화 단계에서, 상기 동화상 예측 부호화 장치는,
    상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 전부 부호화 대상 화상보다 과거의 화상인 경우에는, 화면이나 슬라이드마다 상기 제2 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하고,
    상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상 화상보다 미래의 화상이 포함된 경우에는, 화면 또는 슬라이드마다 상기 제3 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하며,
    상기 제1 부가 정보와, 상기 지시 정보에 기초하여 제2 부가 정보 또는 제3 부가 정보 중 어느 한 쪽을, 각 대상 영역의 부가 정보로서 부호화하는,
    동화상 예측 부호화 방법.
  4. 부호화 대상인 대상 영역에 대한 예측 타입으로서, 1개의 기재생 화상을 참조하여 예측 신호를 생성하는 편예측, 또는, 1개 또는 2개의 기재생 화상을 참조하여 얻어지는 2개의 예측 신호에 의한 쌍예측을 나타내는 정보를, 부가 정보에 포함시켜 부호화하고, 예측 타입으로서 쌍예측을 나타내는 정보가 부호화된 대상 영역에서만 소정의 처리를 행하는 동화상 예측 부호화 장치로서,
    상기 소정의 처리를 행하기 위해,
    입력 화상을 복수의 영역으로 분할하는 영역 분할 수단;
    상기 영역 분할 수단에 의해 분할된 영역 중에서, 상기 대상 영역과의 상관이 높은 신호를 기재생 화상으로부터 취득하기 위한 움직임 벡터를 결정하는 예측 신호 생성 수단;
    상기 움직임 벡터를 저장하는 움직임 정보 기록 수단;
    상기 대상 영역의 예측 신호와 상기 대상 영역의 화소 신호의 잔차 신호를 생성하는 잔차 신호 생성 수단;
    상기 잔차 신호 생성 수단에 의해 생성된 잔차 신호를 압축하는 잔차 신호 압축 수단;
    상기 잔차 신호의 압축 데이터를 복원한 재생 잔차 신호를 생성하는 잔차 신호 복원 수단;
    상기 움직임 정보 기록 수단에 저장된 기재생 움직임 벡터로부터 선택된 상기 대상 영역의 움직임 벡터에 유사한 예측 움직임 벡터와, 상기 대상 영역의 움직임 벡터로부터 결정된 부가 정보와, 상기 잔차 신호의 압축 데이터를 부호화하는 부호화 수단; 및
    상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 대상 영역의 화소 신호를 복원하고, 상기 복원된 화소 신호를 상기 기재생 화상으로서 저장하는 화상 기록 수단
    을 포함하고,
    상기 움직임 벡터는, 제1 예측 신호의 생성에 필요한 제1 움직임 벡터와, 제2 예측 신호의 생성에 필요한 제2 움직임 벡터를 포함하며,
    상기 예측 신호 생성 수단은,
    상기 제1 예측 신호를 취득하기 위한 제1 움직임 벡터를 추정함과 동시에, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 움직임 벡터를 이용하여, 상기 추정된 제1 움직임 벡터와 유사한 제1 예측 움직임 벡터를 생성하고, 상기 생성된 제1 예측 움직임 벡터를 식별하기 위한 제1 예측 움직임 정보 인덱스와, 상기 제1 움직임 벡터 및 제1 예측 움직임 벡터로부터 결정된 차분 움직임 벡터를 포함하는 제1 부가 정보를 생성하는 제1 움직임 정보 추정 수단;
    상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택된 움직임 벡터를 이용하여, 대상 영역과의 상관이 높은 제2 예측 신호를 생성하는 제2 예측 움직임 벡터를 생성하고, 상기 생성된 제2 예측 움직임 벡터를 식별하기 위한 제2 예측 움직임 정보 인덱스를 포함하는 제2 부가 정보를 생성하며, 상기 제2 예측 움직임 벡터를 제2 움직임 벡터로 설정하는 제2 움직임 정보 추정 수단; 및
    상기 제1 예측 신호와 상기 제2 예측 신호를 합성하여 대상 영역의 예측 신호를 생성하는 예측 신호 합성 수단
    을 포함하고,
    상기 제2 움직임 정보 추정 수단은 또한, 상기 제2 예측 신호를 취득하기 위한 제3 움직임 벡터를 추정하고, 제3 움직임 벡터를 검출함과 동시에, 상기 추정된 제3 움직임 벡터와 유사한 제3 예측 움직임 벡터를 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 벡터로부터 선택하고, 상기 선택된 예측 움직임 벡터를 식별하기 위한 제3 예측 움직임 정보 인덱스와, 상기 제3 움직임 벡터 및 상기 제3 예측 움직임 벡터로부터 결정된 차분 움직임 벡터를 포함하는 제3 부가 정보를 생성하고,
    상기 예측 신호 생성 수단은,
    상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 전부 부호화 대상 화상보다 과거의 화상인 경우에는, 상기 제2 움직임 벡터로 상기 제2 예측 신호를 생성하고,
    상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상보다 미래의 화상이 포함된 경우에는, 상기 제2 움직임 벡터로 상기 제2 예측 신호를 생성하며,
    상기 부호화 수단은,
    상기 화상 기록 수단에 저장된 복수의 기재생 화상이 표시 순서에서 전부 부호화 대상 화상보다 과거의 화상인 경우에는, 화면이나 슬라이드마다 상기 제2 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하고,
    상기 화상 기록 수단에 저장된 복수의 기재생 화상에 표시 순서에서 부호화 대상 화상보다 미래의 화상이 포함된 경우에는, 화면 또는 슬라이드마다 상기 제3 부가 정보가 부호화되는 것을 지시하는 지시 정보를 부호화하며,
    상기 제1 부가 정보와, 상기 지시 정보에 기초하여 제2 부가 정보 또는 제3 부가 정보 중 어느 한 쪽을, 각 대상 영역의 부가 정보로서 부호화하는,
    동화상 예측 부호화 장치.
KR1020167014485A 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램 KR101717965B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011243490A JP5485969B2 (ja) 2011-11-07 2011-11-07 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JPJP-P-2011-243490 2011-11-07
PCT/JP2012/074575 WO2013069384A1 (ja) 2011-11-07 2012-09-25 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020157015944A Division KR101628800B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020177006743A Division KR101833933B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램

Publications (2)

Publication Number Publication Date
KR20160075773A KR20160075773A (ko) 2016-06-29
KR101717965B1 true KR101717965B1 (ko) 2017-03-20

Family

ID=48289769

Family Applications (9)

Application Number Title Priority Date Filing Date
KR1020197030637A KR102124961B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020187005449A KR101923527B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020157015944A KR101628800B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020147015073A KR101553933B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020167014485A KR101717965B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020187033699A KR102036771B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020167014483A KR101708732B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020167014487A KR101708733B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020177006743A KR101833933B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램

Family Applications Before (4)

Application Number Title Priority Date Filing Date
KR1020197030637A KR102124961B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020187005449A KR101923527B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020157015944A KR101628800B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020147015073A KR101553933B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램

Family Applications After (4)

Application Number Title Priority Date Filing Date
KR1020187033699A KR102036771B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020167014483A KR101708732B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020167014487A KR101708733B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
KR1020177006743A KR101833933B1 (ko) 2011-11-07 2012-09-25 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램

Country Status (20)

Country Link
US (7) US9615088B2 (ko)
EP (3) EP3301927A1 (ko)
JP (1) JP5485969B2 (ko)
KR (9) KR102124961B1 (ko)
CN (6) CN106851305B (ko)
AU (9) AU2012337138B2 (ko)
BR (1) BR112014010751B1 (ko)
CA (6) CA2854705C (ko)
ES (2) ES2625514T3 (ko)
IN (1) IN2014CN04100A (ko)
MX (3) MX337949B (ko)
MY (1) MY166926A (ko)
NO (1) NO3054684T3 (ko)
PL (2) PL3054684T3 (ko)
PT (2) PT3054684T (ko)
RU (9) RU2566980C1 (ko)
SG (1) SG11201402036UA (ko)
TR (1) TR201802964T4 (ko)
TW (9) TWI650011B (ko)
WO (1) WO2013069384A1 (ko)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115460408A (zh) * 2016-01-27 2022-12-09 韩国电子通信研究院 通过使用预测对视频进行编码和解码的方法和装置
CN108605138B (zh) 2016-02-01 2022-08-09 Oppo广东移动通信有限公司 预测图像生成装置、运动图像解码装置、以及运动图像编码装置
US10271062B2 (en) * 2016-03-18 2019-04-23 Google Llc Motion vector prediction through scaling
US10462459B2 (en) * 2016-04-14 2019-10-29 Mediatek Inc. Non-local adaptive loop filter
EP3457694A4 (en) * 2016-05-24 2019-05-22 Huawei Technologies Co., Ltd. IMAGE FORECASTING METHOD AND ASSOCIATED DEVICE
KR102601732B1 (ko) 2016-05-31 2023-11-14 삼성디스플레이 주식회사 영상 부호화 방법 및 영상 복호화 방법
EP3968633A1 (en) * 2016-09-30 2022-03-16 Huawei Technologies Co., Ltd. Video encoding method, video decoding method, and terminal
WO2019183906A1 (zh) * 2018-03-29 2019-10-03 华为技术有限公司 帧间预测的方法和装置
CN111919439B (zh) * 2018-04-02 2022-01-14 华为技术有限公司 一种运动矢量的获取方法和装置、一种运动矢量集合的构建方法和装置及计算机可读存储介质
CN108537820B (zh) * 2018-04-18 2021-02-09 图灵人工智能研究院(南京)有限公司 动态预测方法、系统及所适用的设备
WO2019218286A1 (zh) * 2018-05-16 2019-11-21 华为技术有限公司 一种视频编解码方法和装置
BR112021004060A2 (pt) * 2018-09-04 2021-05-25 Huawei Technologies Co., Ltd. método e dispositivo de obtenção de quadro de referência aplicado a interpredição bidirecional, codificador / decodificador de vídeo, produto de programa de computador, meio de armazenamento legível por computador, e terminal
MX2021002557A (es) 2018-09-07 2021-04-29 Panasonic Ip Corp America Sistema y metodo para codificacion de video.
EP3764725A1 (en) * 2019-07-12 2021-01-13 Panasonic Intellectual Property Corporation of America User equipment and base station
KR20220070355A (ko) 2020-11-22 2022-05-31 고현지 피부 타입을 피지량을 통해 간접적으로 측정하기 위한 목적을 갖는 한지마스크와 제조방법
JP7036893B2 (ja) 2020-12-14 2022-03-15 ホアウェイ・テクノロジーズ・カンパニー・リミテッド 映像符号化方法、映像復号方法、および端末

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US268967A (en) * 1882-12-12 Geoege willett
CN1155259C (zh) 1996-11-26 2004-06-23 松下电器产业株式会社 运动图象可变比特率编码装置和编码方法
US6404813B1 (en) * 1997-03-27 2002-06-11 At&T Corp. Bidirectionally predicted pictures or video object planes for efficient and flexible video coding
JP3351705B2 (ja) * 1997-04-25 2002-12-03 日本ビクター株式会社 動き補償符号化装置、動き補償符号化方法、及び記録媒体への記録方法
JP3860323B2 (ja) * 1997-10-27 2006-12-20 三菱電機株式会社 画像復号化装置、画像復号化方法
US7184482B2 (en) * 1999-04-17 2007-02-27 Altera Corporation Encoding system using motion vectors to represent frame-to-frame changes, wherein a decoder uses predictions of motion vectors in decoding
US6765964B1 (en) 2000-12-06 2004-07-20 Realnetworks, Inc. System and method for intracoding video data
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US7003035B2 (en) 2002-01-25 2006-02-21 Microsoft Corporation Video coding methods and apparatuses
WO2003090473A1 (fr) * 2002-04-19 2003-10-30 Matsushita Electric Industrial Co., Ltd. Procede de calcul de vecteurs de mouvement
WO2004012459A1 (ja) 2002-07-26 2004-02-05 Matsushita Electric Industrial Co., Ltd. 動画像符号化方法、動画像復号化方法および記録媒体
US7720152B2 (en) * 2002-10-01 2010-05-18 Thomson Licensing Implicit weighting of reference pictures in a video decoder
US7646815B2 (en) * 2003-07-15 2010-01-12 Lsi Corporation Intra estimation chroma mode 0 sub-block dependent prediction
US20050013498A1 (en) * 2003-07-18 2005-01-20 Microsoft Corporation Coding of motion vector information
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
CN1225127C (zh) * 2003-09-12 2005-10-26 中国科学院计算技术研究所 一种用于视频编码的编码端/解码端双向预测方法
TWI274508B (en) * 2004-10-19 2007-02-21 Ali Corp Device and method for computing reference address of motion compensation in image processing
JP4247995B2 (ja) 2005-02-03 2009-04-02 富士通マイクロエレクトロニクス株式会社 固体撮像素子のデータ読出回路、撮像装置および固体撮像素子のデータ読出方法
KR100723403B1 (ko) * 2005-02-28 2007-05-30 삼성전자주식회사 컬러 성분간 단일 부호화 모드를 이용한 예측영상 생성 방법 및 장치와, 그를 이용한 영상 및 비디오 부호화/복호화방법 및 장치
CN1870748A (zh) * 2005-04-27 2006-11-29 王云川 因特网协议电视
US8457203B2 (en) * 2005-05-26 2013-06-04 Ntt Docomo, Inc. Method and apparatus for coding motion and prediction weighting parameters
RU2368095C1 (ru) * 2005-07-22 2009-09-20 Мицубиси Электрик Корпорейшн Кодер изображения и декодер изображения, способ кодирования изображения и способ декодирования изображения, программа кодирования изображения и программа декодирования изображения и компьютерно-считываемый носитель записи, на котором записана программа кодирования изображения, и компьютерно-считываемый носитель записи, на котором записана программа декодирования изображения
JP4662171B2 (ja) * 2005-10-20 2011-03-30 ソニー株式会社 符号化装置および方法、復号化装置および方法、プログラム、並びに記録媒体
TW200806040A (en) * 2006-01-05 2008-01-16 Nippon Telegraph & Telephone Video encoding method and decoding method, apparatuses therefor, programs therefor, and storage media for storing the programs
BRPI0620645B8 (pt) * 2006-01-05 2022-06-14 Nippon Telegraph & Telephone Método e aparelho de codificação de vídeo, e método e aparelho de decodificação de vídeo
BRPI0706803A2 (pt) * 2006-02-02 2011-04-05 Thomson Licensing método e aparelho para estimativa de animação usando bi-predição de referências combinadas
RU2395174C1 (ru) * 2006-03-30 2010-07-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для декодирования/кодирования сигнала видео
KR20100085199A (ko) * 2006-04-28 2010-07-28 가부시키가이샤 엔티티 도코모 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램
JP2007336281A (ja) 2006-06-15 2007-12-27 Sony Corp 画像記録装置、画像再生装置、画像記録方法及び画像再生方法
RU2446618C2 (ru) * 2006-12-28 2012-03-27 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования и способ декодирования видео, устройства для их осуществления и носители памяти, хранящие программы
CN104822062B (zh) * 2007-01-08 2018-11-30 诺基亚公司 用于视频编码中扩展空间可分级性的改进层间预测
KR101182634B1 (ko) * 2007-04-12 2012-09-14 노키아 코포레이션 공간적으로 향상된 변환 부호화
TWI338869B (en) * 2007-08-03 2011-03-11 Via Tech Inc Method and apparatus for block-based digital encoded picture
KR101712915B1 (ko) * 2007-10-16 2017-03-07 엘지전자 주식회사 비디오 신호 처리 방법 및 장치
KR101505195B1 (ko) * 2008-02-20 2015-03-24 삼성전자주식회사 직접 모드 부호화 및 복호화 방법
WO2009126260A1 (en) * 2008-04-11 2009-10-15 Thomson Licensing Methods and apparatus for template matching prediction (tmp) in video encoding and decoding
JP5406465B2 (ja) * 2008-04-24 2014-02-05 株式会社Nttドコモ 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
BRPI0904324A2 (pt) * 2008-06-27 2015-06-30 Sony Corp Dispositivo de processamento de imagem, e, método de processamento de imagem
JP5401071B2 (ja) * 2008-10-09 2014-01-29 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法
JP5686499B2 (ja) * 2009-01-22 2015-03-18 株式会社Nttドコモ 画像予測符号化装置、方法及びプログラム、画像予測復号装置、方法及びプログラム、並びに、符号化・復号システム及び方法
FI3567856T3 (fi) * 2009-03-23 2023-01-31 Kuvan ennakoiva dekoodauslaite ja kuvan ennakoiva dekoodausmenetelmä
WO2011050641A1 (en) * 2009-10-28 2011-05-05 Mediatek Singapore Pte. Ltd. Video coding methods and video encoders and decoders with localized weighted prediction
KR101611437B1 (ko) * 2009-10-28 2016-04-26 삼성전자주식회사 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치
KR101441905B1 (ko) 2009-11-18 2014-09-24 에스케이텔레콤 주식회사 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
EP2548372B1 (en) * 2010-03-16 2023-02-15 InterDigital Madison Patent Holdings, SAS Methods and apparatus for implicit adaptive motion vector predictor selection for video encoding and decoding
WO2011146451A1 (en) 2010-05-20 2011-11-24 Thomson Licensing Methods and apparatus for adaptive motion vector candidate ordering for video encoding and decoding
EP2728869B1 (en) * 2011-06-30 2021-11-10 Sun Patent Trust Image decoding method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
C.L.Lee, "bi prediction combining templage and block motion compensations"

Also Published As

Publication number Publication date
EP2779650A4 (en) 2015-06-24
TW201909639A (zh) 2019-03-01
KR101923527B1 (ko) 2018-11-29
KR101628800B1 (ko) 2016-06-21
AU2020294321A1 (en) 2021-02-18
AU2016201031A1 (en) 2016-03-10
US20170070746A1 (en) 2017-03-09
SG11201402036UA (en) 2014-06-27
US20140241432A1 (en) 2014-08-28
TW201921949A (zh) 2019-06-01
AU2019210545B2 (en) 2021-01-28
TW201531095A (zh) 2015-08-01
PL2779650T3 (pl) 2017-07-31
TW202041029A (zh) 2020-11-01
US20180070101A1 (en) 2018-03-08
KR20190120453A (ko) 2019-10-23
MX2014005287A (es) 2014-05-30
CN107071466B (zh) 2018-09-14
EP2779650A1 (en) 2014-09-17
US9788005B2 (en) 2017-10-10
TWI699997B (zh) 2020-07-21
AU2017204898A1 (en) 2017-08-03
ES2625514T3 (es) 2017-07-19
KR20180126635A (ko) 2018-11-27
KR20160075773A (ko) 2016-06-29
AU2015200951A1 (en) 2015-03-12
PT3054684T (pt) 2018-03-09
CN107105283A (zh) 2017-08-29
AU2019210545A1 (en) 2019-08-15
IN2014CN04100A (ko) 2015-07-10
MY166926A (en) 2018-07-24
CN107071465B (zh) 2019-01-29
TWI616092B (zh) 2018-02-21
NO3054684T3 (ko) 2018-07-07
PL3054684T3 (pl) 2018-05-30
CA2854705C (en) 2016-04-26
RU2677588C1 (ru) 2019-01-17
AU2017258876A1 (en) 2017-11-30
RU2607261C1 (ru) 2017-01-10
ES2662879T3 (es) 2018-04-10
TW201322776A (zh) 2013-06-01
CN103891288B (zh) 2016-12-21
AU2012337138B2 (en) 2015-03-19
KR101708732B1 (ko) 2017-02-21
BR112014010751A2 (pt) 2017-04-25
PT2779650T (pt) 2017-05-24
AU2019210544A1 (en) 2019-08-15
JP5485969B2 (ja) 2014-05-07
AU2017258876B2 (en) 2019-08-08
KR101833933B1 (ko) 2018-03-02
US9973775B2 (en) 2018-05-15
TWI701943B (zh) 2020-08-11
US10104393B2 (en) 2018-10-16
AU2016201031B2 (en) 2017-08-17
EP3054684B1 (en) 2018-02-07
EP2779650B1 (en) 2017-04-26
CN107071466A (zh) 2017-08-18
TWI739509B (zh) 2021-09-11
AU2019210546B2 (en) 2021-01-28
CA3082150C (en) 2021-11-09
RU2652500C1 (ru) 2018-04-26
US9615088B2 (en) 2017-04-04
CN106658025B (zh) 2019-07-23
CA3193531A1 (en) 2013-05-16
TW201639371A (zh) 2016-11-01
RU2677577C1 (ru) 2019-01-17
KR20170031262A (ko) 2017-03-20
US20170208339A1 (en) 2017-07-20
KR102036771B1 (ko) 2019-10-25
RU2703957C1 (ru) 2019-10-22
CN103891288A (zh) 2014-06-25
MX337949B (es) 2016-03-29
AU2017204898B2 (en) 2019-07-11
CA2977280A1 (en) 2013-05-16
RU2678489C1 (ru) 2019-01-29
TR201802964T4 (tr) 2018-03-21
KR101708733B1 (ko) 2017-02-21
CA3131475A1 (en) 2013-05-16
CA2895631A1 (en) 2013-05-16
TW201813397A (zh) 2018-04-01
CN106851305B (zh) 2019-05-21
KR102124961B1 (ko) 2020-06-19
AU2015200951B2 (en) 2015-11-26
WO2013069384A1 (ja) 2013-05-16
TW202042558A (zh) 2020-11-16
AU2020294321B2 (en) 2022-03-10
CN106658025A (zh) 2017-05-10
CA3131475C (en) 2023-05-09
AU2012337138A1 (en) 2014-07-10
BR112014010751A8 (pt) 2017-12-12
CN107071465A (zh) 2017-08-18
CA3082150A1 (en) 2013-05-16
KR20180023055A (ko) 2018-03-06
US9838708B2 (en) 2017-12-05
TWI650011B (zh) 2019-02-01
JP2013102266A (ja) 2013-05-23
AU2019210546A1 (en) 2019-08-15
KR20140092872A (ko) 2014-07-24
US20190020892A1 (en) 2019-01-17
CN106851305A (zh) 2017-06-13
KR101553933B1 (ko) 2015-09-17
RU2566980C1 (ru) 2015-10-27
US10104392B2 (en) 2018-10-16
CN107105283B (zh) 2019-07-30
TWI597974B (zh) 2017-09-01
US10484705B2 (en) 2019-11-19
EP3054684A1 (en) 2016-08-10
KR20160075772A (ko) 2016-06-29
US20180220150A1 (en) 2018-08-02
CA2854705A1 (en) 2013-05-16
MX351064B (es) 2017-09-29
CA2977280C (en) 2020-07-21
RU2615676C1 (ru) 2017-04-06
TWI739483B (zh) 2021-09-11
US20170208340A1 (en) 2017-07-20
AU2019210544B2 (en) 2020-12-17
KR20150079989A (ko) 2015-07-08
RU2715011C1 (ru) 2020-02-21
EP3301927A1 (en) 2018-04-04
TWI551123B (zh) 2016-09-21
KR20160075774A (ko) 2016-06-29
TWI513280B (zh) 2015-12-11
CA2895631C (en) 2017-10-10
TW201735644A (zh) 2017-10-01
BR112014010751B1 (pt) 2018-07-31

Similar Documents

Publication Publication Date Title
KR101717965B1 (ko) 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램
JP5922281B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP6134418B2 (ja) 動画像予測復号装置及び動画像予測復号方法
JP5736083B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5668169B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5642305B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
FPAY Annual fee payment

Payment date: 20200219

Year of fee payment: 4