KR20190122275A - 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 - Google Patents
화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 Download PDFInfo
- Publication number
- KR20190122275A KR20190122275A KR1020197031118A KR20197031118A KR20190122275A KR 20190122275 A KR20190122275 A KR 20190122275A KR 1020197031118 A KR1020197031118 A KR 1020197031118A KR 20197031118 A KR20197031118 A KR 20197031118A KR 20190122275 A KR20190122275 A KR 20190122275A
- Authority
- KR
- South Korea
- Prior art keywords
- motion information
- prediction
- information
- motion
- signal
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 77
- 230000033001 locomotion Effects 0.000 claims abstract description 465
- 239000013598 vector Substances 0.000 claims description 62
- 230000015654 memory Effects 0.000 claims description 47
- 239000000758 substrate Substances 0.000 claims description 24
- 230000004044 response Effects 0.000 claims 3
- 238000013139 quantization Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 13
- 238000009795 derivation Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000007405 data analysis Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 238000012935 Averaging Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 108091026890 Coding region Proteins 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/423—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
일 실시예의 화상 예측 부호화에 있어서는, 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 정보 중, 그 구성 요소 중 어느 하나의 값이 상이한 2개의 움직임 정보를 포함하는 하나 이상의 세트가 도출된다. 상기 하나 이상의 세트로부터 선택되는 세트의 2개의 움직임 정보를 사용하여, 화상 내의 대상 영역의 예측 신호의 생성이 움직임 보상에 의해 행해진다. 선택된 세트의 2개의 움직임 정보는, 다른 영역의 예측 신호의 생성을 위해, 움직임 정보 기록 수단에 저장된다.
Description
본 발명의 실시예는 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램에 관한 것이며, 더욱 상세하게는, 주위 블록의 움직임 정보(motion information)를 사용하여 대상 블록의 예측 신호를 생성하는 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램에 관한 것이다.
정지 화상이나 동화상 데이터의 전송이나 축적을 효율적으로 행하기 위해, 압축 부호화 기술이 사용된다. 동화상에 대해서는, MPEG-1∼4나 ITU(International Telecommunication Union) H.261∼H.264에 규정된 기술이 널리 사용되고 있다.
이들 부호화 기술에서는, 부호화의 대상이 되는 화상을 복수의 블록으로 분할하여 블록 베이스(block base)의 부호화 및 복호 처리가 행해진다. 화면 내의 예측 부호화에서는, 대상 블록과 같은 화면 내에 있는 인접하는 영역의 기(旣)재생의 화상 신호(즉, 압축된 화상 데이터가 복원된 것)를 사용하여 예측 신호가 생성되고, 그 예측 신호와 대상 블록의 화소 신호와의 차분인 차분 신호가 부호화된다. 화면 사이의 예측 부호화에서는, 대상 블록과 상이한 화면 내에 있는 인접하는 영역의 기재생의 화상 신호를 참조하여 움직임의 보정을 행함으로써, 예측 신호가 생성되고, 그 예측 신호와 대상 블록의 신호와의 차분인 차분 신호가 부호화된다.
예를 들면, H.264의 화면 내 예측 부호화에서는, 부호화의 대상이 되는 블록에 인접하는 영역의 기재생의 화소값을 소정 방향으로 외삽(外揷)하여 예측 신호를 생성하는 방법이 채용되고 있다. 도 17은 ITU H.264에 사용되는 화면 내 예측 방법을 설명하기 위한 모식도이다. 도 17의 (A)에서, 대상 블록(802)은 부호화의 대상이 되는 블록이며, 그 대상 블록(802)의 경계에 인접하는 화소 A∼M으로 이루어지는 화소군(801)은 인접 영역이고, 과거의 처리에서 이미 재생된 화상 신호이다.
도 17의 (A)에 나타낸 예측에서는, 대상 블록(802)의 바로 위에 존재하는 인접 화소인 화소군(801)을 아래쪽으로 잡아늘임으로써 예측 신호가 생성된다. 또한, 도 17의 (B)에서는, 대상 블록(804)의 왼쪽에 존재하는 기재생 화소(I∼L)를 오른쪽으로 잡아늘임으로써 예측 신호가 생성된다. 예측 신호를 생성하는 구체적인 방법에 대해서는, 예를 들면, 특허문헌 1을 참조하기 바란다. 이와 같이 도 17의 (A)∼(I)에 나타낸 방법으로 생성된 9개의 예측 신호의 후보 각각과 대상 블록의 화소 신호와의 차분을 취하고, 이들 차분을 비교함으로써, 최소의 차분 값을 제공하는 후보가 최적의 예측 신호로서 선택된다. 이상과 같이, 화소를 외삽함으로써 예측 신호를 생성할 수 있다. 이상의 내용에 대해서는,하기 특허문헌 1에 기재되어 있다.
통상의 화면 간 예측 부호화에서는, 대상 블록의 화소 신호와 유사한 신호를 이미 재생이 완료된 화면에서 탐색하는 방법으로 예측 신호가 생성된다. 그리고, 대상 블록과 탐색한 신호가 구성하는 영역 사이의 공간적 변위량인 움직임 벡터와, 대상 블록의 화소 신호와 예측 신호와의 차분인 잔차 신호가 부호화된다. 이와 같이 블록마다 움직임 벡터를 탐색하는 방법은 블록 매칭(block matching)이라고 한다.
도 16은, 블록 매칭 처리를 설명하기 위한 모식도이다. 여기서는, 부호화 대상의 화면(701) 상의 대상 블록(702)을 예로 예측 신호의 생성 절차를 설명한다. 화면(703)은 기재생 화상이며, 그 기재생 화상 내의 영역(704)은 대상 블록(702)과 공간적으로 동일 위치의 영역이다. 블록 매칭에서는, 영역(704)을 포함하는 탐색 범위(705)가 설정된다. 이 탐색 범위로부터 대상 블록(702)의 화소 신호에 대한 절대값 오차합이 최소가 되는 신호를 가지는 영역(706)이 검출된다. 이 영역(706)의 신호가 예측 신호가 되고, 영역(704)에서 영역(706)으로의 변위량이 움직임 벡터(707)로서 검출된다. 또한, 복수의 참조 화면을 준비하고, 대상 블록마다 블록 매칭을 실시하는 참조 화면을 선택하고, 참조 화면 선택 정보를 검출하는 방법도 자주 사용된다. H.264에서는, 화상의 국소적인 특징의 변화에 대응하기 위해, 움직임 벡터를 부호화하는 블록 사이즈가 상이한 복수의 예측 타입이 준비되는 경우가 있다. H.264의 예측 타입에 대해서는, 예를 들면, 특허문헌 2에 기재되어 있다.
동화상 데이터의 압축 부호화에서는, 각각의 화면(프레임, 필드)의 부호화 순서는 임의라도 된다. 그러므로, 재생 완료 화면을 참조하여 예측 신호를 생성하는 화면 간 예측에도, 부호화 순서에 대해 3종류의 방법이 있다. 제1 방법은 표시 순으로 과거의 재생 완료 화면을 참조하여 예측 신호를 생성하는 전(前)방향 예측이며, 제2 방법은 표시 순으로 미래의 재생 완료 화면을 참조하는 후(後)방향 예측이며, 제3 방법은 전방향 예측과 후방향 예측을 함께 행하고, 두 개의 예측 신호를 평균화하는 쌍방향 예측이다. 화면 간 예측의 종류에 대해서는, 예를 들면, 특허문헌 3에 기재되어 있다.
H.264에서는, 참조 화면의 후보로서, 복수의 재생 완료 화면으로 이루어지는 두 개의 참조 화면 리스트를 사용하여 제3 방법이 행해진다. 더욱 상세하게는, 각 참조 화면 리스트에 등록되는 복수의 참조 화면을 사용하여 블록 매칭이 행해지고, 영역(706)에 상당하는 두 개의 영역이 검출되고, 검출된 두 개의 예측 신호가 평균화된다.
도 5와 도 6에 의해 참조 화면 리스트의 예를 설명한다. 도 5의 (A)에서는, 화면(505)이 부호화 대상 화상, 화면(501)에서 화면(504)이 기재생 화상을 나타내고 있다. 각 화상(화면)의 식별은 프레임 번호(frame_num)에 의해 이루어진다. 도 6의 (A)의 참조 화면 리스트 식별 번호 List0 및 List1이 두 개의 참조 화면 리스트를 나타내고, 이 예에서는, 두 개의 참조 화면 리스트 각각에 4개의 참조 화면이 등록되어 있다. 각 참조 화면은 참조 화면 번호(ref_idx)에 의해 식별된다.
참조 화면 리스트에 등록할 수 있는 재생 완료 화상은, 기본적으로 임의이다. 도 6의 (A)에 나타낸 표(521)와 같이, 두 개의 참조 화면 리스트에 등록되어 있는 참조 화면이 모두 과거의 재생 완료 화상이어도 된다. 이 경우, 두 개의 예측 신호가 함께 전방향 예측이 되므로, 두 개의 예측 신호를 평균화하는 예측 방법을 쌍방향 예측은 아니라 2방향 예측이고 한다.
이 2방향 예측에서는, 움직임 벡터와 참조 화면 번호, 이 두 개의 조합(움직임 정보)을 부호화할 필요가 있다. 그래서, 부호량을 감소시키기 위해, 인접 블록의 움직임 정보 중, List0으로 식별되는 움직임 정보와 List1로 식별되는 움직임 정보를 사용하여 2방향 예측을 행하는 방법이 있다.
2방향 예측에서는, 유사한 두 개의 예측 신호의 평균화에 의해, 평활화 효과로 예측 신호에 포함되는 노이즈를 더욱 효과적으로 제거할 수 있게 된다. 이를 위해서는, 동일한 참조 화면에서 움직임 벡터가 약간 상이한 두 개의 신호를 취득하면 된다. 그러나, 인접 블록의 움직임 정보를 사용한 2방향 예측의 종래의 방법에서는, 두 개의 예측 신호의 생성에 사용하는 움직임 정보의 선택은 참조 화면 리스트에 의해 제한되어 있다. 이 제한에 의해, 인접 블록의 두 개의 움직임 정보의 세트가 같은 참조 화면에 기초하는 값이 가까운 움직임 벡터를 포함해도, 선택할 수 없는 경우가 있다.
여기서, 도 7의 블록(400)이 부호화 대상 블록, 블록(401)에서 블록(403)이 대상 블록의 인접 블록인 경우에, 세 개의 인접 블록이 각각 List0과 List1로 식별되는 두 개의 움직임 정보를 가지는 것을 상정한다. 배경기술의 방법에 의하면, 세 개의 인접 블록의 움직임 정보로서, List0으로 식별되는 세 개의 움직임 정보와 List1로 식별되는 세 개의 움직임 정보로부터 각각 하나의 움직임 정보가 선택되고, 두 개의 예측 신호가 생성된다. 일반적으로, 참조 화면 번호 ref_idx에 필요한 부호량은 상기 참조 화면 번호 ref_idx가 "0"일 때 줄어들기 때문에, 인접 블록의 움직임 정보에 포함되는 참조 화면 번호 ref_idx가 모두 0이 되는 경우가 많다. 참조 화면 번호가 "0"인 경우에는, 도 6의 (A)의 참조 화면 리스트(521)를 사용하면, 두 개의 예측 신호가 각각, 프레임 번호(frame_num)가 "3"인 참조 화면과 프레임 번호가 "2"인 참조 화면으로부터 취득되게 된다. 이 경우에는 높은 평활화 효과를 얻을 수 없다.
다른 예로서, 두 개의 참조 화면 리스트가 상이한 참조 화면으로 구성되어 있는 경우를 상정한다. 도 5의 (B)에 나타낸 바와 같이, 프레임 번호가 "3"으로 식별되는 화면(510)이 부호화 대상 화상이고, 프레임 번호가 "0", "1", "2", "4"로 식별되는 화면(507, 508, 509, 511)이 재생 완료 화상이며, 참조 화면 리스트가 도 6의 (B)에 나타낸 리스트(522)인 경우에는, 상이한 참조 화면으로부터 두 개의 예측 신호가 생성되게 된다. 이 경우에도 높은 평활화 효과를 얻을 수 없다.
따라서, 예측 신호의 노이즈를 억제할 수 있는 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램이 필요하다.
본 발명의 일 측면은 화상 예측 부호화에 관한 것이다.
본 발명의 일 측면에 따른 화상 예측 부호화 장치는, 입력 화상을 복수의 영역으로 분할하는 영역 분할 수단; 상기 영역 분할 수단에 의해 분할된 상기 복수의 영역 중, 부호화 대상인 대상 영역의 화소 신호와의 상관이 높은 화소 신호를 기재생 화상으로부터 취득하기 위한 움직임 정보를 결정하고, 상기 움직임 정보에 기초하여 상기 기재생 화상으로부터 상기 대상 영역의 예측 신호를 생성하는 예측 신호 생성 수단; 상기 움직임 정보를 저장하는 움직임 정보 기록 수단; 상기 대상 영역의 예측 신호와 상기 대상 영역의 화소 신호와의 차분인 잔차 신호를 생성하는 잔차 신호 생성 수단; 상기 잔차 신호 생성 수단에 의해 생성된 상기 잔차 신호를 부호화하는 잔차 신호 부호화 수단; 상기 잔차 신호 부호화 수단에 의해 생성된 부호화 데이터를 복호하여, 재생 잔차 신호를 생성하는 잔차 신호 복원 수단; 상기 예측 신호와 상기 재생 잔차 신호를 가산하여 상기 대상 영역의 재생 화소 신호를 생성하는 가산 수단; 및 상기 가산 수단에 의해 생성된 상기 재생 화소 신호를, 기재생 화상의 일부로서 저장하는 화상 기록 수단을 포함하고, 상기 예측 신호 생성 수단은, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 정보 중에서, 그 구성 요소 중 어느 하나의 값이 상이한 두 개의 움직임 정보로 이루어지는 하나 이상의 움직임 정보의 세트를 도출하는 움직임 정보 도출 수단, 상기 하나 이상의 움직임 정보의 세트로부터 대상 영역의 예측 신호 생성에 사용하는 움직임 정보의 세트를 선택하고, 선택된 세트의 두 개의 움직임 정보를 상기 움직임 정보 기록 수단에 저장시키는 움직임 예측 정보 선택 수단, 및 선택된 상기 세트의 두 개의 움직임 정보에 기초하여 상기 기재생 화상으로부터 취득한 두 개의 신호를 합성하여 상기 대상 영역의 예측 신호를 생성하는 움직임 보상 수단을 포함한다.
본 발명의 일 측면에 따른 화상 예측 부호화 방법은, 입력 화상을 복수의 영역으로 분할하는 단계; 상기 복수의 영역 중 부호화 대상인 대상 영역의 예측 신호를 생성하는 단계로서, 상기 대상 영역의 화소 신호와의 상관이 높은 화소 신호를 기재생 화상으로부터 취득하기 위한 움직임 정보를 결정하고, 상기 움직임 정보에 기초하여 상기 기재생 화상으로부터 상기 예측 신호를 생성하는, 상기 단계; 움직임 정보 기록 수단에 의해 상기 움직임 정보를 저장하는 단계; 상기 대상 영역의 예측 신호와 상기 대상 영역의 화소 신호와의 차분인 잔차 신호를 생성하는 단계; 상기 잔차 신호를 부호화하는 단계; 상기 잔차 신호를 부호화하는 단계에서 생성된 부호화 데이터를 복호하여, 재생 잔차 신호를 생성하는 단계; 상기 예측 신호와 상기 재생 잔차 신호를 가산하여 상기 대상 영역의 재생 화소 신호를 생성하는 단계; 및 화상 기록 수단에 의해, 상기 재생 화소 신호를 기재생 화상의 일부로서 저장하는 단계를 포함하고, 상기 예측 신호를 생성하는 단계가, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 정보 중에서, 그 구성 요소 중 어느 하나의 값이 상이한 두 개의 움직임 정보로 이루어지는 하나 이상의 움직임 정보의 세트를 도출하는 단계, 상기 하나 이상의 움직임 정보의 세트로부터 대상 영역의 예측 신호 생성에 사용하는 움직임 정보의 세트를 선택하고, 선택된 세트의 두 개의 움직임 정보를 상기 움직임 정보 기록 수단에 저장시키는 단계, 및 선택된 상기 세트의 두 개의 움직임 정보에 기초하여 상기 기재생 화상으로부터 취득한 두 개의 신호를 합성하여 상기 대상 영역의 예측 신호를 생성하는 단계를 포함한다.
본 발명의 일 측면에 따른 화상 예측 부호화 프로그램은, 컴퓨터를, 영역 분할 수단, 예측 신호 생성 수단, 움직임 정보 기록 수단, 잔차 신호 생성 수단, 잔차 신호 부호화 수단, 잔차 신호 복원 수단, 가산 수단, 및 화상 기록 수단으로서 기능하게 한다. 예측 신호 생성 수단은, 움직임 정보 도출 수단, 예측 정보 선택 수단, 및 움직임 보상 수단을 포함한다.
본 발명의 일 측면에 따른 화상 예측 부호화에 의하면, 참조 화면 리스트에 의해 제한되지 않고, 구성 요소의 값이 상이한 두 개의 움직임 정보를 선출하는 것이 가능해진다. 그 결과, 예측 신호의 생성에 평활화의 효과를 부여할 수 있다.
일 실시예에서는, 상기 화상 기록 수단이 복수의 기재생 화상을 저장하고 있고, 상기 움직임 정보가 상기 기재생 화상을 식별하는 정보와 움직임 벡터를 포함하고 있고, 상기 화상 기록 수단에 저장되어 있는 기재생 화상은 기재생 화상을 부호화했을 때의 프레임 번호를 사용하여 식별되어 있고, 상기 기재생 화상의 프레임 번호는 일치하지만 움직임 벡터의 값이 상이한 두 개의 움직임 정보를 포함하는 움직임 정보의 세트가 도출되어도 된다.
일 실시예에서는, 상기 화상 기록 수단이 복수의 기재생 화상을 저장하고 있고, 상기 화상 기록 수단에 저장되어 있는 복수의 기재생 화상이, 하나 이상의 기재생 화상으로 구성되는 두 개의 참조 화면 리스트를 사용하여 식별되어 있고, 상기 움직임 정보가 상기 두 개의 참조 화면 리스트를 식별하는 정보와 상기 움직임 벡터를 포함하고 있고, 상기 참조 화면 리스트를 식별하는 정보는 일치하지만, 움직임 벡터의 값이 상이한 두 개의 움직임 정보를 포함하는 움직임 정보의 세트가 도출되어도 된다.
일 실시예에서는, 상기 대상 영역에 인접하는 영역에 부수하는 복수의 움직임 정보로부터 상기 대상 영역의 예측 신호의 생성에 사용하는 상기 움직임 정보의 세트가 선택되어도 된다.
또한, 일 실시예에서는, 선택된 두 개의 움직임 정보로 이루어지는 움직임 정보의 세트를 지시하는 정보를 부호화해도 된다.
본 발명의 다른 일 측면은 화상 예측 복호에 관한 것이다.
본 발명의 다른 일 측면에 따른 화상 예측 복호 장치는, 압축 데이터 중에서 화상 내의 복수의 영역 중 복호 대상이 되는 대상 영역의 예측 신호를 생성하기 위한 움직임 정보의 부호화 데이터와, 잔차 신호의 부호화 데이터를 추출하는 데이터 해석 수단; 상기 움직임 정보를 저장하는 움직임 정보 기록 수단; 상기 움직임 정보에 기초하여 상기 대상 영역의 예측 신호를 생성하는 움직임 보상 수단; 상기 잔차 신호의 부호화 데이터로부터 상기 대상 영역의 재생 잔차 신호를 복원하는 잔차 신호 복원 수단; 상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 대상 영역의 화소 신호를 복원하고, 복원한 상기 화소 신호를 기재생 화상의 일부로서 저장하는 화상 기록 수단; 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 정보 중에서, 그 구성 요소 중 어느 하나의 값이 상이한 두 개의 움직임 정보로 이루어지는 하나 이상의 움직임 정보의 세트를 도출하는 움직임 정보 도출 수단; 및 도출된 상기 하나 이상의 움직임 정보의 세트 중에서 실제로 대상 영역의 예측 신호 생성에 사용하는 움직임 정보의 세트를 결정하고, 결정한 세트의 두 개의 움직임 정보를 상기 움직임 정보 기록 수단에 저장시키는 움직임 정보 결정 수단을 포함하고, 상기 움직임 보상 수단은, 결정된 상기 세트의 두 개의 움직임 정보에 기초하여 상기 기재생 화상으로부터 취득되는 두 개의 신호를 합성하여, 상기 대상 영역의 예측 신호를 생성한다.
본 발명의 다른 일 측면에 따른 화상 예측 복호 방법은, 압축 데이터 중에서 화상 내의 복수의 영역 중 복호 대상이 되는 대상 영역의 예측 신호를 생성하기 위한 움직임 정보의 부호화 데이터와, 잔차 신호의 부호화 데이터를 추출하는 단계; 움직임 정보 기록 수단에 의해 상기 움직임 정보를 저장하는 단계; 상기 움직임 정보에 기초하여 상기 대상 영역의 예측 신호를 생성하는 단계; 상기 잔차 신호의 부호화 데이터로부터 상기 대상 영역의 재생 잔차 신호를 복원하는 단계; 상기 예측 신호와 상기 재생 잔차 신호를 가산함으로써 상기 대상 영역의 화소 신호를 복원하여, 화상 기록 수단에 의해 복원한 상기 화소 신호를 기재생 화상의 일부로서 저장하는 단계; 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 정보 중에서, 그 구성 요소 중 어느 하나의 값이 상이한 두 개의 움직임 정보로 이루어지는 하나 이상의 움직임 정보의 세트를 도출하는 단계; 및 상기 도출한 움직임 정보의 세트 중에서 실제로 대상 영역의 예측 신호 생성에 사용하는 움직임 정보의 세트를 결정하고, 결정된 세트의 두 개의 움직임 정보를 상기 움직임 정보 기록 수단에 저장시키는 단계를 포함하고, 상기 예측 신호를 생성하는 단계에서, 결정된 상기 세트의 두 개의 움직임 정보에 기초하여 상기 기재생 화상으로부터 취득되는 두 개의 신호를 합성하여, 상기 대상 영역의 예측 신호를 생성한다.
본 발명의 다른 일 측면에 따른 화상 예측 복호 프로그램은, 컴퓨터를, 데이터 해석 수단; 움직임 정보 기록 수단; 움직임 보상 수단; 잔차 신호 복원 수단; 화상 기록 수단; 움직임 정보 도출 수단; 및 움직임 정보 결정 수단으로서 기능하게 한다.
본 발명의 일 측면에 따른 화상 예측 복호에 의하면, 전술한 일 측면의 화상 예측 부호화에 의해 생성된 압축 데이터로부터 화상을 복원할 수 있다. 이 화상에서는, 노이즈가 감소될 수 있다.
일 실시예에서는, 상기 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 정보 중에서, 그 구성 요소 중 어느 하나의 값이 상이한 두 개의 움직임 정보로 이루어지는 하나의 움직임 정보의 세트를 식별하기 위한 지시 정보의 부호화 데이터를 추출하고, 예측 정보 복호 수단에 의해 지시 정보를 복호하고, 복호된 상기 지시 정보에 기초하여, 상기 움직임 정보 도출 수단이 도출한 하나 이상의 움직임 정보의 세트 중에서, 대상 영역의 예측 신호 생성에 사용하는 움직임 정보의 세트를 추출해도 된다.
일 실시예에서는, 상기 화상 기록 수단이 복수의 기재생 화상을 저장하고 있고, 상기 움직임 정보가,상기 복수의 기재생 화상을 식별하는 정보와 움직임 벡터를 포함하고 있고, 상기 화상 기록 수단에 저장되어 있는 복수의 기재생 화상은, 상기 복수의 기재생 화상을 각각 복호했을 때의 프레임 번호를 사용하여 식별되어 있고, 상기 기재생 화상의 프레임 번호는 일치하지만 움직임 벡터의 값이 상이한 두 개의 움직임 정보를 포함하는 움직임 정보의 세트를 도출해도 된다.
일 실시예에서는, 상기 화상 기록 수단이 복수의 기재생 화상을 저장하고 있고, 상기 화상 기록 수단에 저장되어 있는 복수의 기재생 화상이, 하나 이상의 기재생 화상으로 구성되는 두 개의 참조 화면 리스트를 사용하여 식별되어 있고, 상기 움직임 정보가 상기 두 개의 참조 화면 리스트를 식별하는 정보와 상기 움직임 벡터를 포함하여 구성되어 있고, 상기 참조 화면 리스트를 식별하는 정보는 일치하지만, 움직임 벡터의 값이 상이한 두 개의 움직임 정보를 포함하는 움직임 정보의 세트를 도출해도 된다.
또한, 일 실시예에서는, 상기 대상 영역에 인접하는 영역에 부수하는 복수의 움직임 정보로부터 대상 영역의 예측 신호의 생성에 사용하는 상기 움직임 정보의 세트를 도출해도 된다.
본 발명의 다른 일 측면에 따른 화상 예측 복호 장치는, 압축 데이터 중에서 화상 내의 복수의 영역 중 복호 대상이 되는 대상 영역의 예측 신호를 생성하기 위한 움직임 정보의 부호화 데이터 또는 상기 대상 영역에 인접하는 인접 영역에 부수하는 복수의 움직임 정보 중 상기 대상 영역의 예측 신호의 생성에 사용하는 움직임 정보의 세트를 특정하는 지시 정보의 부호화 데이터와, 잔차 신호의 부호화 데이터를 추출하는 데이터 해석 수단과; 상기 움직임 정보의 부호화 데이터를 복호하여, 참조 화면 리스트 번호 및 참조 화면 번호와 움직임 벡터를 각각 포함하는 2개의 움직임 정보를 복원하거나, 상기 지시 정보의 부호화 데이터를 복호하여, 지시 정보를 복원하는 예측 정보 복호 수단; 상기 지시 정보가 복원된 경우에, 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 정보 중에서, 참조 화면 리스트 번호 및 참조 화면 번호에 의해 특정되는 프레임 번호 또는 움직임 벡터가 상이한 2개의 움직임 정보로 이루어지는 하나 이상의 움직임 정보의 세트를 도출하는 움직임 정보 도출 수단; 도출된 상기 하나 이상의 움직임 정보의 세트 중에서 상기 대상 영역의 예측 신호 생성에 사용하는 움직임 정보의 세트를 상기 지시 정보에 기초하여 결정하는 움직임 정보 결정 수단; 상기 결정한 상기 움직임 정보의 세트인 2개의 움직임 정보, 또는 상기 복원된 상기 2개의 움직임 정보에 기초하여 화상 기록 수단에 저장되어 있는 기재생 화상으로부터 취득되는 2개의 신호를 합성하여, 상기 대상 영역의 예측 신호를 생성하는 움직임 보상 수단; 상기 대상 영역의 상기 예측 신호의 생성에 사용된 움직임 정보를 저장하는 움직임 정보 기록 수단; 상기 잔차 신호의 부호화 데이터로부터 상기 대상 영역의 재생 잔차 신호를 복원하는 잔차 신호 복원 수단; 및 상기 예측 신호와 상기 재생 잔차 신호에 기초하여, 상기 대상 영역의 화소 신호를 복원하고, 복원된 상기 화소 신호를 기재생 화상의 일부로서 저장하는 화상 기록 수단을 포함한다.
본 발명의 다른 일 측면에 따른 화상 예측 복호 방법은, 압축 데이터 중에서 화상 내의 복수의 영역 중 복호 대상이 되는 대상 영역의 예측 신호를 생성하기 위한 움직임 정보의 부호화 데이터 또는 상기 대상 영역에 인접하는 인접 영역에 부수하는 복수의 움직임 정보 중 상기 대상 영역의 예측 신호의 생성에 사용하는 움직임 정보의 세트를 특정하는 지시 정보의 부호화 데이터와, 잔차 신호의 부호화 데이터를 추출하는 단계; 상기 움직임 정보의 부호화 데이터를 복호하여, 참조 화면 리스트 번호 및 참조 화면 번호와 움직임 벡터를 각각 포함하는 2개의 움직임 정보를 복원하거나, 상기 지시 정보의 부호화 데이터를 복호하여, 지시 정보를 복원하는 단계; 상기 지시 정보가 복원된 경우에, 움직임 정보 기록 수단에 저장되어 있는 복수의 움직임 정보 중에서, 참조 화면 리스트 번호 및 참조 화면 번호에 의해 특정되는 프레임 번호 또는 움직임 벡터가 상이한 2개의 움직임 정보로 이루어지는 하나 이상의 움직임 정보의 세트를 도출하는 단계; 도출된 상기 하나 이상의 움직임 정보의 세트 중에서 상기 대상 영역의 예측 신호 생성에 사용하는 움직임 정보의 세트를 상기 지시 정보에 기초하여 결정하는 단계; 상기 결정한 상기 움직임 정보의 세트인 2개의 움직임 정보, 또는 상기 복원된 상기 2개의 움직임 정보에 기초하여 화상 기록 수단에 저장되어 있는 기재생 화상으로부터 취득되는 2개의 신호를 합성하여, 상기 대상 영역의 예측 신호를 생성하는 단계; 상기 움직임 정보 기록 수단에 의해, 상기 대상 영역의 상기 예측 신호의 생성에 사용된 움직임 정보를 저장하는 단계; 상기 잔차 신호의 부호화 데이터로부터 상기 대상 영역의 재생 잔차 신호를 복원하는 단계; 상기 예측 신호와 상기 재생 잔차 신호에 기초하여, 상기 대상 영역의 화소 신호를 복원하는 단계; 및 화상 기록 수단에 의해, 복원된 상기 화소 신호를 기재생 화상의 일부로서 저장하는 단계를 포함한다.
본 발명의 다른 일 측면에 따른 화상 예측 복호 프로그램은, 컴퓨터를, 데이터 해석 수단; 예측 정보 복호 수단; 움직임 정보 도출 수단; 움직임 정보 결정 수단; 움직임 보상 수단; 움직임 정보 기록 수단; 잔차 신호 복원 수단; 및 화상 기록 수단으로서 기능하게 한다.
이상 설명한 바와 같이, 본 발명의 몇 가지 측면에 따르면, 예측 신호의 노이즈를 억제할 수 있는 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램이 제공된다.
도 1은 일 실시예에 따른 화상 예측 부호화 장치의 구성을 나타낸 도면이다.
도 2는 도 1에 나타낸 예측 신호 생성기의 구성을 나타낸 도면이다.
도 3은 도 2에 나타낸 움직임 정보 도출기의 처리를 나타낸 흐름도이다.
도 4는 대상 블록의 인접 화소를 사용하여 후보 움직임 예측 정보(두 개의 움직임 정보의 조합)로부터 하나의 후보 예측 정보를 선택하는 방법의 예를 설명하기 위한 모식도이다.
도 5는 화면의 부호화 순서의 예를 설명하는 모식도이다.
도 6은 참조 화면 리스트의 예를 설명하는 도면이다.
도 7은 인접 블록의 예를 설명하는 도면이다.
도 8은 인접 블록의 다른 예를 설명하는 도면이다.
도 9는 일 실시예에 따른 화상 예측 부호화 방법의 절차를 나타낸 흐름도이다.
도 10은 일 실시예에 따른 화상 예측 복호 장치의 구성을 나타낸 도면이다.
도 11은 일 실시예에 따른 화상 예측 복호 방법의 절차를 나타낸 흐름도이다.
도 12는 일 실시예에 따른 화상 예측 부호화 방법을 컴퓨터로 하여금 실행하게 하는 프로그램의 구성을 나타낸 도면이다.
도 13은 일 실시예에 따른 화상 예측 복호 방법을 컴퓨터로 하여금 실행하게 하는 프로그램의 구성을 나타낸 도면이다.
도 14는 기록 매체에 기록된 프로그램을 실행하기 위한 컴퓨터의 하드웨어 구성을 나타낸 도면이다.
도 15는 기록 매체에 기억된 프로그램을 실행하기 위한 컴퓨터의 사시도이다.
도 16은 화면 간 예측에서의 움직임 추정 처리를 설명하기 위한 모식도이다.
도 17은 종래의 화면 내 예측 방법을 설명하기 위한 모식도이다.
도 2는 도 1에 나타낸 예측 신호 생성기의 구성을 나타낸 도면이다.
도 3은 도 2에 나타낸 움직임 정보 도출기의 처리를 나타낸 흐름도이다.
도 4는 대상 블록의 인접 화소를 사용하여 후보 움직임 예측 정보(두 개의 움직임 정보의 조합)로부터 하나의 후보 예측 정보를 선택하는 방법의 예를 설명하기 위한 모식도이다.
도 5는 화면의 부호화 순서의 예를 설명하는 모식도이다.
도 6은 참조 화면 리스트의 예를 설명하는 도면이다.
도 7은 인접 블록의 예를 설명하는 도면이다.
도 8은 인접 블록의 다른 예를 설명하는 도면이다.
도 9는 일 실시예에 따른 화상 예측 부호화 방법의 절차를 나타낸 흐름도이다.
도 10은 일 실시예에 따른 화상 예측 복호 장치의 구성을 나타낸 도면이다.
도 11은 일 실시예에 따른 화상 예측 복호 방법의 절차를 나타낸 흐름도이다.
도 12는 일 실시예에 따른 화상 예측 부호화 방법을 컴퓨터로 하여금 실행하게 하는 프로그램의 구성을 나타낸 도면이다.
도 13은 일 실시예에 따른 화상 예측 복호 방법을 컴퓨터로 하여금 실행하게 하는 프로그램의 구성을 나타낸 도면이다.
도 14는 기록 매체에 기록된 프로그램을 실행하기 위한 컴퓨터의 하드웨어 구성을 나타낸 도면이다.
도 15는 기록 매체에 기억된 프로그램을 실행하기 위한 컴퓨터의 사시도이다.
도 16은 화면 간 예측에서의 움직임 추정 처리를 설명하기 위한 모식도이다.
도 17은 종래의 화면 내 예측 방법을 설명하기 위한 모식도이다.
이하, 도면을 참조하여 몇 가지 실시예에 대하여 상세하게 설명한다. 그리고, 각 도면에 있어서 동일 또는 상당하는 부분에 대해서는 동일한 부호를 부여하여, 중복되는 설명을 생략한다. 또한, 본 명세서에서는, 동화상을 구성하는 "프레임", "화면", "화상"(도 5의 501에서 511)은 동일한 것을 의미한다.
도 1은, 일 실시예에 따른 화상 예측 부호화 장치의 구성을 나타낸 도면이다. 도 1에 나타낸 화상 예측 부호화 장치(100)는, 입력 단자(101), 블록 분할기(102), 예측 신호 생성기(103), 프레임 메모리(104), 감산기(105), 변환기(106), 양자화기(107), 역(逆)양자화기(108), 역(逆)변환기(109), 가산기(110), 양자화 변환계수 부호화기(111), 출력 단자(112), 예측 정보용 메모리(113), 및 예측 정보 부호화기(114)를 구비하고 있다. 일 실시예에서는, 변환기(106) 및 양자화기(107)는 잔차 신호 부호화 수단으로서 기능하고, 역양자화기(108) 및 역변환기(109)는 잔차 신호 복원 수단으로서 기능하고, 예측 정보용 메모리(113)는 움직임 정보 기록 수단으로서 기능한다. 그리고, 예측 정보용 메모리(113)는 예측 신호 생성기(103)에 포함되어 있어도 된다. 또한, 일 실시예에서는, 양자화 변환계수 부호화기(111)도 잔차 신호 부호화 수단의 일부로서 기능해도 되고, 이 경우에는, 양자화 변환계수 부호화기(111)에 의해 생성된 데이터를 복호하여 역양자화기에 출력하는 요소가 잔차 신호 복원 수단의 일부를 구성한다.
입력 단자(101)는 복수 개의 화상으로 이루어지는 동화상의 신호를 입력하는 단자이다.
블록 분할기(102)는, 입력 단자(101)로부터 입력된 신호로 표현되는, 부호화의 대상이 되는 화상을 복수의 영역으로 분할한다. 일 실시예에서는, 부호화 대상의 화상은 8×8의 화소로 이루어지는 복수의 블록에 분할될 수 있다. 이들 복수의 영역 또는 블록은, 이하에 설명하는 처리가 적용되는 대상 영역 또는 대상 블록이 된다. 그리고, 블록의 크기 및 형상은 이에 한정되는 것은 아니다. 또한, 화면 내에 사이즈가 상이한 블록이 혼재하고 있어도 된다.
예측 신호 생성기(103)는, 대상 블록 내의 각 예측 블록의 예측 신호를 생성하기 위해 필요한 움직임 정보를 검출하고, 또한 예측 신호를 생성한다. 예측 신호의 생성 방법은, 한정되는 것은 아니지만, 배경 기술에서 설명한 바와 같은 화면 간 예측이나 화면 내 예측(화면 내 예측에 대해서는 도시하지 않음)일 수 있다. 일 실시예에서는, 도 16에 나타낸 블록 매칭에 의해 움직임 정보가 검출될 수 있다. 블록 매칭에서는, 대상 블록의 원(原)신호(화소 신호)에 대한 절대값 오차합이 최소가 되는 예측 신호가 라인(L104) 경유로 취득되는 기재생 화상으로부터 검출된다.
일 실시예에서는, 움직임 정보에는, 움직임 벡터, 참조 화면 리스트의 식별 번호(도 5의 List0과 List1), 및 참조 화면 번호(도 5의 ref_idx)가 포함될 수 있다.
도 6에 나타낸 바와 같이, 각 참조 화면 리스트가 복수의 참조 화면에 의해 구성되어 있는 경우에는, 움직임 정보에 포함되는 움직임 벡터가 어느 참조 화면을 대상으로 하는 것인지를 나타내기 위해, 움직임 벡터와 동시에 참조 화면 번호가 검출된다. 또한, 2방향 예측을 이용하는 경우에는, 예측 타입(전방향/후방향/2방향)도 동시에 결정된다. 예측 타입이 전방향 예측의 경우에는, 참조 화면 리스트의 식별 번호가 List0이 되는 움직임 정보가 검출되고, 후방향 예측의 경우에는, 참조 화면 리스트의 식별 번호가 List1이 되는 움직임 정보가 검출된다. 2방향 예측의 경우에는, List0과 List1로 식별되는 두 개의 움직임 정보가 검출된다. 그리고, 도 6에 나타낸 참조 화면 리스트에 등록되는 기재생 화상은, 미리 정해둔 규칙에 따라 자동으로 결정되어도 되고, 참조 화면 리스트에 등록되는 기재생 화상을 특정하는 정보가, 프레임 단위나 시퀀스 단위로 명시적으로 부호화되어도 된다. 일 실시예에서는, 상기 정보로서, 도 5로 도 6에 나타낸 바와 같이, 프레임 번호가 이용될 될 수 있다.
도 1로 돌아가면, 움직임 정보와 예측 타입은 라인(L103c) 및 라인(L103b)을 경유하여, 각각 예측 정보용 메모리(113) 및 예측 정보 부호화기(114)에 출력된다.
예측 정보용 메모리(113)는 입력된 움직임 정보와 예측 타입을 저장한다.
예측 정보 부호화기(114)는 부호화 대상 블록의 움직임 정보를 엔트로피 부호화하고, 부호화 데이터를 라인(L114) 경유로 출력 단자(112)에 출력한다. 엔트로피 부호화 방법은 한정되는 것은 아니지만, 산술 부호화나 가변 길이 부호화 등일 수 있다.
예측 신호 생성기(103)에 의해 생성된 예측 신호는, 라인(L103a) 경유로 감산기(105)와 가산기(110)에 출력된다.
감산기(105)는 대상 블록의 화소 신호로부터 라인(L103a)을 경유하여 입력되는 대상 블록의 예측 신호를 감산하여, 잔차 신호를 생성한다. 감산기(105)는 잔차 신호를, 라인(L105)을 경유하여 변환기(106)에 출력한다.
변환기(106)는 입력된 잔차 신호를 이산 코사인 변환하여, 변환계수를 생성한다. 또한, 양자화기(107)는 변환기(106)에 의해 생성된 변환계수를 양자화하여, 양자화 변환계수를 생성한다. 양자화 변환계수 부호화기(111)는 양자화기(107)에 의해 생성된 양자화 변환계수를 엔트로피 부호화한다. 양자화 변환계수 부호화기(111)에 의해 생성된 부호화 데이터는 라인(L111) 경유로 출력 단자(112)에 출력된다. 양자화 변환계수 부호화기(111)에서의 엔트로피 부호화 방법, 한정되는 것은 아니지만, 산술 부호화나 가변 길이 부호화 등일 수 있다.
출력 단자(112)는 예측 정보 부호화기(114) 및 양자화 변환계수 부호화기(111)로부터 수취한 정보를 모아서 외부에 출력한다.
역양자화기(108)는 양자화기(107)에 의해 생성된 양자화 변환계수를 역양자화하여, 변환계수를 생성한다. 역변환기(109)는 역양자화기(108)에 의해 생성된 변환계수에 역이산 코사인 변환을 적용하여 잔차 신호를 복원한다. 가산기(110)는 복원된 잔차 신호와 라인(L103a) 경유로 입력되는 예측 신호를 가산하고, 부호화 대상 블록의 재생 화상 신호를 생성하고, 그 재생 화소 신호를 프레임 메모리(104)에 저장한다. 그리고, 변환기(106)와 역변환기(109)의 처리를 대신하는 다른 변환 처리가 이용되어도 된다. 또한, 변환기(106) 및 역변환기(109)는 필수는 아니다. 이와 같이, 후속의 부호화 대상 블록의 예측 신호의 생성에 사용하기 위해, 부호화 대상 블록의 재생 화소 신호는, 참조 화면, 즉 기재생 화상의 일부로서, 프레임 메모리(104)에 기억된다.
일 실시예에서는, 예측 신호 생성기(103)는 대상 블록에 인접하는 블록(인접 블록)에 부수하는 움직임 정보를 이용하여 대상 블록의 예측 신호를 생성할 수도 있다. 인접 블록에 부수하는 움직임 정보란, 인접 블록이 부호화 대상이었을 때 예측 신호의 생성에 사용한 움직임 정보이다. 인접 블록에 부수하는 움직임 정보는 예측 정보용 메모리(113)에 저장되어 있다. 그리고, 블록마다, 인접 블록에 부수하는 움직임 정보를 이용하여 예측 신호를 생성한 것, 또는 블록 매칭에 의해 검출한 움직임 벡터를 사용하여 예측 신호를 생성한 것을 나타내는 정보를, 압축 데이터에 부호화 상태로 포함해도 된다.
여기서는, 대상 블록의 예측 신호를 2방향 예측으로 생성하는 경우를 고려한다. 이하, 도 7의 (A)를 예로 들어 설명한다. 대상 블록(400)의 바로 왼쪽과 바로 위에서 그 대상 블록(400)에 인접하는 두 개의 블록(401) 및 블록(402)이 인접 블록이 되고, 이들 블록에 부수하는 움직임 정보가 예측에 사용된다. 이때, 두 개의 인접 블록에 부수하는 예측 타입이 2방향 예측이면, 최대 네 개의 움직임 정보가 대상 블록의 예측 신호의 생성에 이용할 수 있다. 예측 신호 생성기(103)는, 후보가 되는 네 개의 움직임 정보(네 개의 후보 움직임 정보)로부터, 움직임 벡터의 값 또는 참조 화면의 프레임 번호의 값이 상이한 두 개의 움직임 정보를 선택한다. 참조 화면의 프레임 번호(frame_num)는 참조 화면 리스트 식별 번호(List0 또는 List1)와 참조 화면 번호(ref_idex)의 조합으로 식별될 수 있다. 그리고, 각각의 움직임 정보에 기초하여 프레임 메모리(104)로부터 두 개의 예측 신호를 취득하고, 그 두 개의 예측 신호를 화소 단위로 평균화함으로써, 예측 신호가 얻어진다. 두 개의 예측 신호가 유사하면, 평활화에 의한 노이즈 제거 효과로 예측 성능이 개선된다.
예측 정보 부호화기(114)는, 움직임 정보가 아니라, 4개의 후보 움직임 정보 중 대상 블록의 예측 신호의 생성에 사용하는 두 개의 움직임 정보를 식별하기 위한 정보(지시 정보)를 부호화한다. 따라서, 움직임 정보를 부호화함으로써 얻어지는 부호화 데이터의 부호량보다 적은 부호량으로 예측 신호가 생성될 수 있다. 지시 정보는 후보 움직임 정보를 식별하는 2개의 지시 정보라도 되고, 2개의 후보 움직임 정보의 조합을 식별하는 지시 정보라도 된다.
또한, 예측 정보용 메모리(113)는, 실제로 대상 블록의 예측 신호 생성에 사용한 2개의 움직임 정보를 대상 블록에 부수하는 움직임 정보로서 저장한다. 2개의 움직임 정보가 그대로 저장되어도 되지만, 기존의 화상 예측 부호화 및 복호에서는, List0 및 List1, 이 두 개의 참조 화면 리스트를 참조하는 제약을 가지므로, 이하에 설명하는 바와 같이, 2개의 움직임 정보가 저장될 수 있다.
즉, 두 개의 움직임 정보의 참조 화면 리스트 식별 번호가 같은 경우에는, 두 개의 움직임 정보에 포함되는 참조 화면 리스트 번호가 미리 정해진 규칙에 따라 변경될 수 있다. 예를 들면, 두 개의 움직임 정보 중, 더 작은 참조 화면 번호(ref_idx)를 가지는 한쪽의 움직임 정보의 참조 화면 리스트 식별 번호를 List0에 할당하고, 다른 쪽의 움직임 정보의 참조 화면 리스트 식별 번호를 List1에 할당한다.
두 개의 움직임 정보의 참조 화면 번호도 같은 경우에는, 각 성분의 절대값의 합이 더 작은 움직임 벡터를 가지는 한쪽의 움직임 정보의 참조 화면 리스트 식별 번호를 List0에 할당하고, 다른 쪽의 움직임 정보의 참조 화면 리스트 식별 번호를 List1에 할당한다.
이 할당에 의해, 할당 전의 프레임 번호와 다른 프레임 번호가 참조되게 되는 경우에는, 그 할당 전의 프레임 번호를 참조 가능하도록, 참조 화면 번호(ref_idx)가 변경될 수 있다.
또한, 도 6의 (B)에 나타낸 바와 같이 두 개의 참조 화면 리스트가 동일한 프레임 번호를 포함하지 않은 경우에는, 도 6의 (C)에 나타낸 바와 같이, 동일한 프레임 번호를 포함하도록 확장한 참조 화면 리스트(523)를 사용하여, 움직임 정보를 관리해도 된다. 이 확장한 참조 화면 리스트는, 인접 블록에 부수하는 움직임 정보를 사용하여 대상 블록의 예측 신호를 생성하는 경우에는, 그대로 이용할 수 있다. 또한, 프레임 번호가 기록되어 있으므로, 화면 간의 시간 방향의 거리에 따라 움직임 벡터를 스케일링(scaling)하는 경우(예를 들면, 도 5의 (A)의 화면(504)을 대상으로 한 움직임 벡터를, 화면(503)을 대상으로 한 움직임 벡터로 변환하는 경우에는, 각 벡터 성분을 2배 한다)에도 이용할 수 있다. 그리고, 여기서 나타낸 움직임 벡터의 저장 방법은 서로 변환이 가능하므로, 어느 저장 방법을 이용해도 부호화 결과에는 영향을 주지 않는다.
또한 예측 신호 생성기(103)의 처리를 상세하게 설명한다. 도 2는 일 실시예에 따른 예측 신호 생성기의 구성을 나타낸 도면이다. 도 2에 나타낸 바와 같이, 예측 신호 생성기(103)는 움직임 정보 도출기(121), 움직임 예측 정보 선택기(122), 및 움직임 보상기(123)를 구비하고 있다. 그리고, 이 도면에서는, 종래의 블록 매칭에 의한 움직임 검출의 부분은 생략되어 있다.
움직임 정보 도출기(121)는, 인접 블록으로서 사용하는 바로 위쪽과 바로 왼쪽 블록의 예측 타입이 모두 2방향 예측인 경우에는, 이들 인접 블록에 부수하는 4개의 움직임 정보를 비교한다. 움직임 정보 도출기(121)는, 움직임 정보를 구성하는 요소, 즉 움직임 벡터, 참조 화면 리스트 식별 번호, 참조 화면 번호 중 어느 하나의 값이 다른 세 개의 움직임 정보와 다른 움직임 정보를, 대상 블록의 예측에 이용 가능한 후보 움직임 정보로 한다. 움직임 벡터의 값과 참조 화면의 프레임 번호의 값(참조 화면의 프레임 번호는 참조 화면 리스트와 참조 화면 번호의 조합으로 알 수 있다)이 같은 움직임 정보이면, 어느 하나만을 후보 움직임 정보로 한다. 그리고, 움직임 정보 도출기(121)는, 임의의 두 개의 후보 움직임 정보의 세트를 후보 2방향 예측 정보로서 도출한다. 이 경우, 최대 여섯 개의 후보 2방향 예측 정보가 도출될 수 있다. 대상 블록의 바로 위쪽 및 바로 왼쪽의 블록 중 적어도 한쪽을 인접 블록으로 채용하는 경우로서 2방향 예측의 경우에는, 이하에 설명하는 개수의 두 개의 움직임 정보의 조합 패턴을 인접 블록으로부터 도출 가능하다. 즉,
(1) 바로 위쪽 블록(402)이나 바로 왼쪽 블록(401)의 두 개의 움직임 정보를 채용하는 경우: 2패턴
(2) 바로 위쪽 블록(402)의 하나의 움직임 정보와 바로 왼쪽 블록(401)의 하나의 움직임 정보로, 두 개의 움직임 정보에 포함되는 참조 화면 리스트가 상이한 경우: 4패턴
(3) 바로 위쪽 블록(402)의 하나의 움직임 정보와 바로 왼쪽 블록(401)의 하나의 움직임 정보로, 두 개의 움직임 정보에 포함되는 참조 화면 리스트가 같은 경우: 2패턴
도 3에 움직임 정보 도출기(121)에 의한 처리의 흐름도를 나타낸다. 최초에 단계 S301에서, 대상 블록의 예측에 이용하는 인접 블록의 수(N)를 설정하고, 현재의 인접 블록 번호(n)를 "0"으로 한다. 예를 들면, 블록(401)을 n=0, 블록(402)을 n=1로 설정한다. 또한, 후보 움직임 정보의 수(L)를 0으로 초기화한다. 다음에, n번의 블록의 움직임 정보와 예측 타입을 예측 정보용 메모리(113)로부터 취득한다(단계 S302). 그리고, 예측 타입에 기초하여 n번의 인접 블록에 부수하는 움직임 정보의 수(M)를 설정한다(단계 S303).
다음에, n번의 인접 블록의 m번째의 움직임 정보를 L개의 후보 움직임 정보와 비교한다(단계 S304). 모든 후보 움직임 정보가 비교 대상의 움직임 정보와 다른 경우, 또는 L=0의 경우에는 처리는 단계 S305로 진행한다. 단계 S305에서는, n번의 인접 블록의 m번째의 움직임 정보를 후보 움직임 정보에 추가하여, L의 값을 1만큼 증분한다. 그 후, 처리는 단계 S306으로 진행한다.
단계 S304에서 후보 움직임 정보 중에 m번째의 움직임 정보와 동일한 것이 발견되었을 경우에는, 처리는 단계 S306으로 진행한다. 그리고, 단계 S304에서는, 비교한 두 개의 움직임 벡터의 값이 같고, 또한 비교한 두 개의 참조 화면 번호와 참조 화면 리스트 식별 번호의 세트에 대응하는 프레임 번호가 같으면, 참조 화면 리스트가 달라도 동일한 움직임 정보라고 판단한다. 이것은, 두 개의 움직임 정보의 움직임 벡터와 그 참조 화면의 프레임 번호가 같은 경우에는, 그 움직임 정보로부터 생성되는 예측 신호가 일치하기 때문이다 .
단계 S306에서는, m의 값을 1만큼 증분한다. 계속되는 단계 S307에 의해, n번째의 인접 블록에 부수하는 모든 움직임 정보에 대하여, 단계 S304∼단계 S306의 처리를 완료하였는지의 여부를 판정하고, 완료한 경우에는 처리는 단계 S308로 진행하고, 완료되지 않은 경우에는 처리는 단계 S304로 돌아간다.
단계 S308에서는, 인접 블록의 번호 n의 값을 1만큼 증분한다. 그리고, 단계 S309에 의해, 모든 인접 블록의 처리가 완료되었는지의 여부를 판정한다. 완료된 경우에는 처리는 단계 S310으로 진행하고, 완료되지 않은 경우에는 처리는 단계 S302로 돌아간다.
마지막으로, 단계 S310에서는, L개의 후보 움직임 정보로부터 움직임 벡터의 값이나 참조 화면의 프레임 번호의 값(참조 화면의 프레임 번호는 참조 화면 리스트와 참조 화면 번호의 조합으로 알 수 있다)이 상이한 두 개의 움직임 정보의 세트를 모두 도출하고, 후보 2방향 예측 정보로서 설정한다.
그리고, 움직임 정보 도출기(121)가 어느 인접 블록으로부터의 움직임 정보를 이용할 것인지에 대해서는, 부호화 측과 복호 측, 양쪽에 대하여 미리 정해져 있어도 된다. 또한, 움직임 정보 도출기(121)가 어느 인접 블록으로부터의 움직임 정보를 이용했는지를 특정하기 위한 정보가, 부호화 상태로, 복호 측에 전달되어도 된다.
움직임 예측 정보 선택기(122)에서는, 움직임 정보 도출기(121)로부터 라인( L121)을 경유하여 입력된 후보 2방향 예측 정보로부터 최적인 하나를 선택한다. 구체적으로는, "두 개의 후보 움직임 정보에 기초하여 라인(L104) 경유로 프레임 메모리(104)로부터 취득한 두 개의 신호를 평균하여 얻은 신호"와 "라인(L102) 경유로 얻은 대상 블록의 화소 신호"의 차분 절대값 합을 최소로 하는 후보 2방향 예측 정보를 선택한다. 그리고, 선택한 후보 2방향 예측 정보, 또는 선택한 후보 2방향 예측 정보를 구성하는 두 개의 후보 움직임 정보를 식별하는 지시 정보를 라인(L103b) 경유로 예측 정보 부호화기에 출력한다.
또한, 움직임 예측 정보 선택기(122)는 선택한 두 개의 움직임 정보를 라인( L103c) 경유로 예측 정보용 메모리에 출력하여 저장시키고, 또한 라인(L122) 경유로 움직임 보상기(123)에 출력한다. 움직임 보상기(123)는, 입력된 두 개의 움직임 정보에 기초하여, 라인(L104) 경유로 취득한 기재생 화상으로부터 추출한 두 개의 기재생 화소 신호를 평균하여 예측 신호를 생성하고, 그 예측 신호를 라인(L103a) 경유로 감산기(105)로 가산기(110)에 출력한다.
그리고, 움직임 예측 정보 선택기(122)에 의해 최적인 하나의 후보 2방향 예측 정보를 선택하는 방법은 한정되는 것은 아니다. 예를 들면, 도 4에 나타낸 바와 같이, 부호화 대상 화상(451) 내의 대상 블록(461)의 화소 신호 대신에, 그것에 인접하는 역L자의 기재생의 영역(462)을 사용해도 된다. 영역(462)은 기재생의 영역이므로 복호 장치에서도 이용할 수 있다. 도면에 나타낸 바와 같이, 하나의 움직임 정보(473)에 기초하여 참조 화면(452)으로부터 영역(462)에 대응하는 예측 영역(472)을 취득할 수 있다. 모든 후보 2방향 예측 정보에 대하여, 두 개의 후보 움직임 정보에 대하여 역L자의 영역을 취득하고 그 신호를 평균함으로써, 영역(462)에 대하여 차분 절대값 합을 최소로 하는 후보 2방향 예측 정보를 찾아낼 수가 있다. 이 방법에 의하면, 복호 장치에서도 부호화 장치와 동일한 후보 2방향 예측 정보를 선택할 수 있으므로, 지시 정보를 전송할 필요가 없다는 이점이 있다.
이와 같이, 대상 블록에 인접하는 블록에 부수하는 움직임 정보로부터, 원래의 신호와의 차가 작은 예측 신호를 생성하고, 또한 움직임 벡터의 값이나 참조 화면의 프레임 번호의 값(참조 화면의 프레임 번호는 참조 화면 리스트와 참조 화면 번호의 조합으로 알 수 있다)이 상이한 두 개의 움직임 정보를 선택함으로써, 움직임 정보를 전송하지 않고, 대상 블록의 2방향 예측을 행한다. 움직임 정보는 참조 화면 리스트를 식별하는 정보를 포함하므로, 참조 화면 리스트가 동일한 움직임 정보를 사용한 2방향 예측이 가능해진다. 그러므로, 두 개의 참조 화면 리스트에 포함되는 참조 화면이 완전히 상이한 경우라도, 동일한 참조 화면의 움직임 벡터를 사용한 2방향 예측을 실시할 수 있다. 예를 들면, 같은 참조 화면의 움직임 벡터를 이용하여,두 개의 유사 신호에 의한 2방향 예측을 행함으로써, 평활화 효과에 의해 예측 성능을 향상시키는 것을 기대할 수 있다.
도 9는 일 실시예에 따른 화상 예측 부호화 방법의 절차를 나타낸 흐름도이다. 먼저, 블록 분할기(102)에 의해 입력 화상을 8×8의 부호화 블록으로 분할한다(그 이외의 블록의 크기 또는 형태로 분할해도 된다. 또한, 화면 내에 사이즈가 상이한 블록이 혼재해도 된다).
이어서, 움직임 정보 도출기(121)가 부호화 대상인 대상 블록에 인접하는 블록에 부수하는 움직임 정보를 예측 정보용 메모리(113)로부터 취득하고, 그 구성 요소 중 어느 하나의 값이 다른 움직임 정보와 다른 것을 대상 블록의 예측에 이용 가능한 후보 움직임 정보로서 추출한다. 그리고, 임의의 두 개의 후보 움직임 정보의 세트를 후보 2방향 예측 정보로서 도출한다(단계 S300). 이 단계 S300에 대한 상세한 것은 도 3에 의해 설명이 끝난 상태이다.
다음에, 움직임 예측 정보 선택기(122)가, 복수의 후보 2방향 예측 정보로부터 대상 블록의 예측 신호의 생성에 사용하는 하나를 선택한다. 그리고, 움직임 예측 정보 선택기(122)는, 선택한 후보 2방향 예측 정보, 또는 선택한 후보 2방향 예측 정보를 구성하는 두 개의 후보 움직임 정보를 식별하는 지시 정보를 결정한다(단계 S320). 계속되는 단계 S101에서는, 선택한 두 개의 움직임 정보를 예측 정보용 메모리(113)에 저장하는 동시에, 예측 정보 부호화기(114)에 의해 지시 정보를 부호화한다.
이어서, 단계 S102에서는, 움직임 보상기(123)가, 선택한 움직임 정보에 기초하여, 프레임 메모리(104)로부터 취득한 두 개의 기재생 화상으로부터 화소 신호를 취득하고, 이들 화소 신호를 평균하여 대상 블록의 예측 신호를 생성한다. 그리고, 인접 블록의 움직임 정보를 이용하지 않는 예측 방법에서는, 도 16에 설명한 블록 매칭에 의해 움직임 정보를 검출하고, 그 움직임 정보에 기초하여 대상 블록의 예측 신호를 생성한다. 움직임 정보와 두 개의 예측 방법의 전환을 위한 정보는 예측 정보 부호화기(114)에 의해 부호화된다. 또한, 움직임 정보는 예측 정보용 메모리(113)에 저장된다.
이어서, 부호화 대상 블록의 화소 신호와 예측 신호와의 차분을 나타내는 잔차 신호가, 변환기(106), 양자화기(107), 및 양자화 변환계수 부호화기(111)에 의해 변환 부호화된다(단계 S103). 지시 정보와 양자화 변환계수의 부호화 데이터는 출력 단자(112)를 통하여 출력된다(단계 S104).
후속의 부호화 대상 블록을 예측 부호화하기 위해, 이들의 처리 후에 또는 이들의 처리와 병행하여 부호화된 잔차 신호가 역양자화기(108) 및 역변환기(109)에 의해 복호된다. 그리고, 가산기(110)에 의해, 복호된 잔차 신호와 예측 신호가 가산되고, 부호화 대상 블록의 신호가 재생된다. 재생 신호는 프레임 메모리(104)에 참조 화면(기재생 화상 신호)으로서 기억된다(단계 S105). 그리고, 모든 부호화 대상 블록의 처리가 완료되지 않은 경우에는, 처리는 단계 S101로 복귀하고, 다음의 부호화 대상 블록에 대한 처리가 행해진다. 모든 부호화 대상 블록의 처리가 완료한 경우에는, 처리가 종료한다(단계 S106).
다음에, 일 실시예에 따른 화상 예측 복호 장치에 대하여 설명한다. 도 10은, 일 실시예에 따른 화상 예측 복호 장치를 나타낸 블록도이다. 도 10에 나타낸 화상 예측 복호 장치(200)는, 입력 단자(201), 데이터 해석기(202), 역양자화기(203), 역변환기(204), 가산기(205), 출력 단자(206), 양자화 변환계수 복호기(207), 예측 정보 복호기(208), 프레임 메모리(104), 움직임 정보 결정기(209), 움직임 정보 도출기(121), 예측 정보용 메모리(113), 움직임 보상기(126)를 구비하고 있다. 역양자화기(203) 및 역변환기(204)는 잔차 신호 복호 수단으로서 기능하고, 예측 정보용 메모리는 움직임 정보 기록 수단으로서 기능한다. 역양자화기(303) 및 역변환기(304)에 의한 복호 수단은, 이것들 외의 것을 사용하여 행해도 된다. 또한, 역변환기(304)는 없어도 된다.
입력 단자(201)는, 전술한 화상 예측 부호화 방법으로 압축 부호화된 압축 데이터를 입력한다. 이 압축 데이터에는, 복수의 블록에 대하여, 잔차 신호의 변환 양자화에 의해 생성된 양자화 변환계수의 엔트로피 부호화에 의한 부호화 데이터, 및 예측 정보의 부호화 데이터, 즉 블록의 예측 신호를 생성하기 위한 움직임 정보 또는 인접 블록에 부수하는 움직임 정보로부터 복호 대상인 블록의 예측 신호의 생성에 사용하는 움직임 정보를 식별하기 위한 지시 정보의 부호화 데이터, 및 움직임 정보와 지시 정보 중 어느 것이 부호화되어 있는지를 나타낸 정보의 부호화 데이터가 포함되어 있다.
데이터 해석기(202)는, 입력 단자(201)에 입력된 압축 데이터를 해석하고, 복호 대상 블록에 관하여, 양자화 변환계수의 부호화 데이터, 예측 정보의 부호화 데이터로 분리하여, 이들 부호화 데이터를 각각, 라인(L202a), 라인(L202b) 경유로 양자화 변환계수 복호기(207), 예측 정보 복호기(208)에 출력한다.
예측 정보 복호기(208)는, 움직임 정보 또는 지시 정보의 부호화 데이터를 엔트로피 복호한다. 복호된 움직임 정보는 라인(L208) 경유로 움직임 정보 결정기(209)에 전송도고, 그대로, 라인(L207a)과 라인(L207b)을 경유하여 움직임 보상기(126)와 예측 정보용 메모리(113)에 출력된다. 예측 정보용 메모리(113)는 움직임 정보를 저장하고, 움직임 보상기(126)는 움직임 정보에 기초하여, 프레임 메모리(104)로부터 취득한 기재생 화상으로부터 화소 신호를 취득하고, 그 화소 신호를 사용하여 복호 대상 블록 내의 각 예측 블록의 예측 신호를 생성한다. 생성된 예측 신호는 라인(L126) 경유로 가산기(205)에 출력된다.
한편, 예측 정보 복호기(208)가 지시 정보의 부호화 데이터를 엔트로피 복호한 경우에는, 움직임 정보 도출기(121)가 기능한다. 움직임 정보 도출기(121)는, 도 3에 의해 상세를 설명한 바와 같이, 복호 대상 블록에 인접하는 블록에 부수하는 움직임 정보를 예측 정보용 메모리(113)로부터 취득하고, 그 구성 요소 중 어느 하나의 값이 상이한 정보를 복호 대상 블록의 예측에 이용 가능한 후보 움직임 정보로서 추출한다. 그리고, 움직임 정보 도출기(121)는, 임의의 두 개의 후보 움직임 정보의 세트를 후보 2방향 예측 정보로서 도출하고, 그 후보 2방향 예측 정보를 라인(L121) 경유로 움직임 정보 결정기(209)에 출력한다.
움직임 정보 결정기(209)는, 라인(L121) 경유로 입력된 복수의 후보 2방향 예측 정보로부터, 라인(L208) 경유로 입력된 지시 정보에 의해 식별되는 하나의 후보 2방향 예측 정보를 선택한다. 선택된 후보 2방향 예측 정보를 구성하는 두 개의 움직임 정보는, 라인(L207a)과 라인(L207b)을 경유하여 움직임 보상기(126)와 예측 정보용 메모리(113)에 출력된다. 예측 정보용 메모리(113)는 움직임 정보를 저장하고, 움직임 보상기(126)는, 두 개의 움직임 정보에 기초하여, 프레임 메모리(104)로부터 취득한 기재생 화상으로부터 화소 신호를 취득하고, 그 화소 신호를 사용하여 복호 대상 블록 내의 각 예측 블록의 예측 신호를 생성한다. 생성된 예측 신호는 라인(L126) 경유로 가산기(205)에 출력된다.
양자화 변환계수 복호기(207)는 부호화 대상 블록에서의 잔차 신호의 양자화 변환계수의 부호화 데이터를 엔트로피 복호하고, 복원한 양자화 변환계수를 라인( L207) 경유로 역양자화기(203)에 출력한다.
역양자화기(203)는 라인(L207) 경유로 입력한 복호 대상 블록의 양자화 변환계수를 역양자화하여, 변환계수를 생성한다. 역변환기(204)는 변환계수를 역이산 코사인 변환하여, 잔차 신호를 복원한다.
가산기(205)는, 예측 신호 생성기(103)에서 생성된 예측 신호를, 역양자화기(203) 및 역변환기(204)에 의해 복원된 잔차 신호에 가산하여, 복호 대상 블록의 재생 화소 신호를 생성한다. 재생 화소 신호는 라인(L205) 경유로 출력 단자(206) 및 프레임 메모리(104)에 출력된다. 출력 단자(206)는 재생 화소 신호를 포함하는 재생 화상을 외부에(예를 들면, 디스플레이) 출력한다.
프레임 메모리(104)는, 다음의 복호 처리를 위한 참조용의 재생 화상으로서, 가산기(205)로부터 출력된 재생 화상을 참조 화면으로서 기억한다.
다음에, 도 11을 참조하여, 일 실시예에 따른 화상 예측 복호 방법을 설명한다. 먼저, 입력 단자(201)를 통하여, 압축 데이터가 입력된다(단계 S201). 그리고, 데이터 해석기(202)에 의해 압축 데이터의 데이터 해석을 행하고, 블록의 예측 신호를 생성하기 위한 움직임 정보 또는 인접 블록에 부수하는 움직임 정보로부터 복호 대상인 블록의 예측 신호의 생성에 사용하는 움직임 정보를 식별하기 위한 지시 정보, 움직임 정보와 지시 정보 중 어느 것이 부호화되어 있는지를 나타낸 정보의 부호화 데이터, 및 양자화 변환계수의 부호화 데이터를 추출한다. 움직임 정보의 부호화 데이터 또는 지시 정보의 부호화 데이터는 예측 정보 복호기(208)에 의해 복호된다.
움직임 정보가 복원되었을 경우에는, 복원된 움직임 정보에 기초하여, 움직임 보상기(126)가 복호 대상 블록의 예측 신호를 생성한다. 복원된 움직임 정보는 예측 정보용 메모리(113)에 저장된다.
지시 정보가 복원되었을 경우에는, 움직임 정보 도출기(121)가 예측 정보용 메모리(113)로부터 인접 블록의 움직임 정보를 취득한다. 움직임 정보 도출기(121)는 미리 정해진 인접 블록으로부터 움직임 정보를 취득해도 되고, 또한 부호화 측으로부터 전달된 정보에 기초하여, 인접 블록으로부터 움직임 정보를 취득해도 된다.
이어서, 움직임 정보 도출기(121)가, 도 3에 상세하게 나타낸 바와 같이, 취득한 복수의 움직임 정보 중 그 구성 요소 중 어느 하나의 값이 상이한 움직임 정보를, 복호 대상 블록의 예측에 이용 가능한 후보 움직임 정보로서 추출한다. 그리고, 움직임 정보 도출기(121)는 임의의 두 개의 후보 움직임 정보의 세트를 후보 2방향 예측 정보로서 도출한다(단계 S300).
이어서, 움직임 정보 결정기(209)가 복원된 지시 정보를 사용하여, 도출된 복수의 후보 2방향 예측 정보로부터 하나의 2방향 예측 정보를 선택하고, 두 개의 움직임 정보를 복원한다(단계 S203).
그 후, 복원된 두 개의 움직임 정보에 기초하여, 움직임 보상기(126)가 복호 대상 블록의 예측 신호를 생성하고, 그 두 개의 움직임 정보를 예측 정보용 메모리에 보존한다(단계 S207).
이어서, 양자화 변환계수 복호기(207)에 의해 복호된 양자화 변환계수는, 역양자화기(203)에서 역양자화되고, 또한 역변환기(204)에서 역양자화기(203)로부터의 출력에 역변환이 적용되어, 재생 잔차 신호가 생성된다(단계 S208).
이어서, 생성된 예측 신호와 재생 잔차 신호가 가산됨으로써 재생 신호가 생성되고, 이 재생 신호가 다음의 복호 대상 블록을 재생하기 위해 프레임 메모리(104)에 저장된다(단계 S209). 그리고, 단계 S210의 판정에 따라 다음의 압축 데이터가 있다고 판정되는 경우에는, S202∼S209의 프로세스가 반복되어(단계 S210), 모든 데이터가 최후까지 처리된다.
도 12는, 일 실시예에 따른 화상 예측 부호화 방법을 컴퓨터로 하여금 실행하게 하는 프로그램의 구성을 나타낸 도면이다. 화상 예측 부호화 프로그램(P100)은, 블록 분할 모듈(P101), 예측 신호 생성 모듈(P103), 기억 모듈(P104), 감산 모듈(P105), 변환 모듈(P106), 양자화 모듈(P107), 역양자화 모듈(P108), 역변환 모듈(P109), 가산 모듈(P110), 양자화 변환계수 부호화 모듈(P111), 예측 정보 기억 모듈(P113), 및 예측 정보 부호화 모듈(P114)을 구비하고 있다. 예측 신호 생성 모듈(P103)은 움직임 정보 도출 모듈(P121), 움직임 예측 정보 선택 모듈(P122), 및 움직임 보상 모듈(P123)을 포함하고 있다.
블록 분할 모듈(P101), 예측 신호 생성 모듈(P103), 기억 모듈(P104), 감산 모듈(P105), 변환 모듈(P106), 양자화 모듈(P107), 역양자화 모듈(P108), 역변환 모듈(P109), 가산 모듈(P110), 양자화 변환계수 부호화 모듈(P111), 예측 정보 기억 모듈(P113), 예측 정보 부호화 모듈(P114), 움직임 정보 도출 모듈(P121), 움직임 예측 정보 선택 모듈(P122), 움직임 보상 모듈(P123)이 컴퓨터로 하여금 실행하게 하는 기능은, 블록 분할기(102), 예측 신호 생성기(103), 프레임 메모리(104), 감산기(105), 변환기(106), 양자화기(107), 역양자화기(108), 역변환기(109), 가산기(110), 양자화 변환계수 부호화기(111), 예측 정보용 메모리(113), 예측 정보 부호화기(114), 움직임 정보 도출기(121), 움직임 예측 정보 선택기(122), 움직임 보상기(123) 각각의 기능과 동일하다.
도 13은, 일 실시예에 따른 화상 예측 복호 방법을 컴퓨터로 하여금 실행하게 하는 프로그램의 구성을 나타낸 도면이다. 화상 예측 복호 프로그램(P200)은, 데이터 해석 모듈(P201), 예측 정보 복호 모듈(P202), 움직임 정보 도출 모듈(P121), 움직임 정보 결정 모듈(P203), 예측 정보 기억 모듈(P205), 움직임 보상 모듈(P126), 양자화 변환계수 복호 모듈(P206), 역양자화 모듈(P207), 역변환 모듈(P208), 가산 모듈(P209), 및 기억 모듈(P104)을 구비하고 있다.
데이터 해석 모듈(P201), 예측 정보 복호 모듈(P202), 움직임 정보 도출 모듈(P121), 움직임 정보 결정 모듈(P203), 예측 정보 기억 모듈(P205), 움직임 보상 모듈(P126), 양자화 변환계수 복호 모듈(P206), 역양자화 모듈(P207), 역변환 모듈(P208), 가산 모듈(P209), 기억 모듈(P104)이 컴퓨터로 하여금 실행하게 하는 기능은, 데이터 해석기(202), 예측 정보 복호기(208), 움직임 정보 도출기(121), 움직임 정보 결정기(209), 예측 정보용 메모리(113), 움직임 보상기(126), 양자화 변환계수 복호기(207), 역양자화기(203), 역변환기(204), 가산기(205), 프레임 메모리(104) 각각의 기능과 동일하다.
이와 같이 구성된 화상 예측 부호화 프로그램(P100) 또는 화상 예측 복호 프로그램(P200)은 기록 매체(10)에 기억되고, 후술하는 컴퓨터로 실행된다.
도 14는 기록 매체에 기록된 프로그램을 실행하기 위한 컴퓨터의 하드웨어 구성을 나타낸 도면이며, 도 15는 기록 매체에 기억된 프로그램을 실행하기 위한 컴퓨터의 사시도이다. 그리고, 기록 매체에 기억된 프로그램을 실행하는 것은 컴퓨터로 한정되지 않고, CPU를 구비하고 소프트웨어에 의한 처리나 제어를 행하는 DVD 플레이어, 셋톱 박스, 휴대 전화 등이라도 된다.
도 14에 나타낸 바와 같이, 컴퓨터(30)는 플로피디스크 드라이브 장치, CD-ROM 드라이브 장치, DVD 드라이브 장치 등의 판독 장치(12), 운영체제(operating system)를 상주시킨 작업용 메모리(RAM)(14), 기록 매체(10)에 기억된 프로그램을 기억하는 메모리(16), 디스플레이 등의 표시 장치(18), 입력 장치인 마우스(20) 및 키보드(22), 데이터 등의 송수신을 행하기 위한 통신 장치(24), 및 프로그램의 실행을 제어하는 CPU(26)를 구비하고 있다. 컴퓨터(30)는, 기록 매체(10)가 판독 장치(12)에 삽입되면, 판독 장치(12)로부터 기록 매체(10)에 저장된 화상 예측 부호화 프로그램(P100) 또는 화상 예측 복호 프로그램(P200)에 액세스할 수 있게 되고, 그 화상 예측 부호화 프로그램(P100) 또는 화상 예측 복호 프로그램(P200)에 의해, 화상 예측 부호화 장치(100) 또는 화상 예측 복호 장치(200)로서 동작할 수 있게 된다.
도 15에 나타낸 바와 같이, 화상 예측 부호화 프로그램 및 화상 예측 복호 프로그램은, 반송파에 중첩된 컴퓨터 데이터 신호(40)로서 네트워크를 통하여 제공되는 것이라도 된다. 이 경우, 컴퓨터(30)는, 통신 장치(24)에 의해 수신한 화상 예측 부호화 프로그램 또는 화상 예측 복호 프로그램을 메모리(16)에 저장하고, 상기 화상 예측 부호화 프로그램 또는 화상 예측 복호 프로그램을 실행할 수 있다.
다양한 실시예에 대하여 설명하였으나, 본 발명은 하기의 변형예를 더 포함할 수 있다.
(움직임 정보의 후보)
상기 실시예에서는, 움직임 정보는 움직임 벡터, 참조 화면 리스트의 식별 번호(도 5의 List0과 List1), 및 참조 화면 번호(도 5의 ref_idx)로 구성되어 있지만, 참조 화면 리스트의 식별 번호와 참조 화면 번호 대신에, 프레임 번호에 의해 움직임 정보가 구성해도 된다. 이것은, 프레임 번호를 사용해도, 인접 블록에 부수하는 움직임 정보를 사용하여 전술한 실시예와 동일한 결과 및 효과를 얻을 수 있기 때문이다.
(후보 2방향 움직임 정보의 제한)
상기 실시예에서는, 움직임 정보 도출기에 의해, 후보 움직임 정보의 모든 조합을 후보 2방향 움직임 정보로 하였지만, 하기의 조건을 충족시키는 움직임 정보의 세트만을 후보 2방향 움직임 정보로 해도 된다.
(1) 대상 블록의 바로 위쪽과 바로 왼쪽의 블록만
(2) 동일한 참조 화면을 지시하는 두 개의 움직임 정보
(3) 두 개의 움직임 벡터는 동일하지 않지만, 가까운 값(절대값 차가 어느 값보다 작은)을 가진다. 즉, 바로 위쪽의 블록의 움직임 벡터(MVXa, MVYa), 및 바로 왼쪽의 블록의 움직임 벡터(MVXb, MVYb)가,
(| MVXa - MVXb |! = 0)||(| MVYa - MVYb |! = 0)을 충족시키고, 또한
(| MVXa - MVXb | <= N) && (| MVYa - MVYb | <= N)를 충족시킨다(N는 작은 값)
그리고, 조건을 충족시키는 후보 2방향 움직임 정보가 존재하지 않는 경우에는, 지시 정보를 전송하지 않고 다른 예측 처리를 사용하도록 해도 된다.
또한, 후보 2방향 움직임 정보의 수를 프레임 단위나 블록 단위로 지정하고, 지정한 수를 특정하는 정보를 압축 데이터에 포함해도 된다. 또한, 이와 같은 후보 2방향 움직임 정보의 제한의 적용을 지시하는 정보를 프레임 단위로 부호화해도 된다.
(지시 정보의 식별 번호)
지시 정보의 식별 번호를 결정할 때, 대상 블록(도 8의 400)의 오른쪽 위의 블록(도 8의 404)의 움직임 정보를 이용하여, 바로 왼쪽 블록(401)과 바로 위쪽 블록(402)의 우선 순위를 결정해도 된다. 여기서,
바로 위쪽의 블록의 움직임 벡터(MVXa, MVYa)
바로 오른쪽의 블록의 움직임 벡터(MVXb, MVYb) 및
왼쪽 위의 블록의 움직임 벡터(MVXc, MVYc)에 대하여,
|MVXa - MVXc| + |MVYa - MVYc| < |MVXb - MVXc| + |MVYb - MVYc|가 성립하는 경우에는, 바로 왼쪽 블록의 움직임 정보에 부호량이 작은 식별 번호를 부여한다. 성립하지 않는 경우에는, 바로 위쪽 블록의 움직임 정보에 부호량이 작은 식별 번호를 부여한다. 이와 같이, 대상 블록과의 상관이 더욱 높다고 추측되는 인접 블록의 움직임 정보를 우선하면, 지시 정보의 부호량을 삭감할 수 있을 가능성이 있다.
(후보 움직임 벡터의 도출과 선택)
상기 실시예에서는, 움직임 벡터의 수평 방향과 수직 방향의 성분을 함께 후보 움직임 벡터의 도출과 선택을 행하고 있지만, 움직임 벡터의 수평 방향과 수직 방향의 성분에 대하여 개별적으로 후보 움직임 벡터의 도출 및 선택에 사용해도 된다. 또한, 상기에서는, 인접 블록의 단독의 움직임 벡터를 후보 움직임 벡터로 하였지만, 두 개의 움직임 벡터의 평균값이나 화면 간의 시간 방향의 거리에 따라 스케일링한 움직임 벡터(예를 들면, 도 5의 (A)의 화면(504))를 대상으로 한 움직임 벡터를, 화면(503)을 대상으로 한 움직임 벡터로 변환하는 경우에는, 각 벡터 성분을 2배 한다)을 후보 움직임 벡터로 해도 된다.
(예측 타입)
상기 실시예에서는, 두 개의 인접 블록의 예측 타입을 모두 2방향 예측으로 하고 있지만, 그 한쪽이 전방향 또는 후방향 예측이라도 본 발명은 적용할 수 있다. 이 경우, 최대 세 개의 후보 2방향 예측 정보가 도출된다. 또한, 이 경우에는, 이하에 설명하는 개수 중 두 개의 움직임 정보의 조합 패턴을 인접 블록으로부터 도출 가능하다. 즉,
(1) 바로 위쪽 블록(402)이나 바로 왼쪽 블록(401)의 두 개의 움직임 정보를 채용하는 경우: 1패턴
(2) 바로 위쪽 블록(402)의 하나의 움직임 정보와 바로 왼쪽 블록(401)의 하나의 움직임 정보로, 두 개의 움직임 정보와 관련된 참조 화면 리스트가 상이한 경우: 1패턴
(3) 바로 위쪽 블록(402)의 하나의 움직임 정보와 바로 왼쪽 블록(401)의 하나의 움직임 정보로, 두 개의 움직임 정보와 관련된 참조 화면 리스트가 동일한 경우: 1패턴
또한, 두 개의 인접 블록 양쪽이 전방향 또는 후방향 예측이라도 되고, 한쪽이 전방향 예측이고 다른 쪽이 후방향 예측이라도 된다.
(인접 블록의 수)
대상 블록의 예측에 이용 가능한 인접 블록의 수는, 한정되지 않는다. 도 7의 (B)와 같이, 블록(401∼403)의 3개를 인접 블록으로 해도 된다. 또한, 전방 프레임의 블록에 부수하는 움직임 정보를 이용해도 된다. 또한, 도 8에 나타낸 바와 같이 인접 블록(401∼405)이 재분할되어 있는 경우에는, 이들 작은 블록에 부수하는 움직임 정보를 후보 움직임 정보에 포함해도 된다. 또한, 대상 블록에 인접하지 않는 블록의 움직임 정보를 이용해도 된다.
(N방향 예측)
상기 실시예에서는 인접 블록에 부수하는 움직임 정보를 사용하여 행하는 대상 블록의 예측 방법을 2방향 예측으로 하지만, 예측 방법은, 이에 한정되지 않고, 일방향 예측이라도 3방향 예측이라도 된다. 이 경우에는, 도 3의 단계 S310에서 후보 N방향 예측 정보를 도출하고, 그 선정을 행하면 된다. 그리고, N개의 움직임 정보를 저장해도 되지만, N이 3 이상인 경우에는, 참조 화면 번호나 움직임 벡터의 값에 따라, 저장하는 움직임 정보를 2개로 제한해도 된다.
(변환기, 역변환기)
잔차 신호의 변환 처리는 고정된 블록 사이즈로 행하여도 되고, 부분 영역에 맞추어 대상 영역을 재분할하여 변환 처리를 행해도 된다.
(색신호)
상기 실시예의 설명에서는, 색 포맷에 대해 특별히 설명하지 않았지만, 색 신호 또는 색차 신호에 대하여도, 휘도 신호와 개별적으로 예측 신호의 생성 처리를 행해도 된다. 또한, 휘도 신호의 처리와 연동하여 처리를 행해도 된다.
이상, 본 발명을 그 몇 가지 실시예에 기초하여 상세하게 설명하였다. 그러나, 본 발명은 상기 실시예에 한정되는 것은 아니다. 본 발명은 그 요지를 벗어나지 않는 범위에서 다양한 변형이 가능하다.
100: 화상 예측 부호화 장치, 101: 입력 단자, 102: 블록 분할기, 103: 예측 신호 생성기, 104: 프레임 메모리, 105: 감산기, 106: 변환기, 107: 양자화기, 108: 역양자화기, 109: 역변환기, 110: 가산기, 111: 양자화 변환계수 부호화기, 112: 출력 단자, 113: 예측 정보용 메모리, 114: 예측 정보 부호화기, 121: 움직임 정보 도출기, 122: 움직임 예측 정보 선택기, 123: 움직임 보상기, 201: 입력 단자, 202: 데이터 해석기, 203: 역양자화기, 204: 역변환기, 205: 가산기, 206: 출력 단자, 207: 양자화 변환계수 복호기, 208: 예측 정보 복호기, 209: 움직임 정보 결정기.
Claims (1)
- 압축 데이터 중에서, 움직임 정보의 부호화 데이터 또는 지시 정보의 부호화 데이터를 추출하고, 상기 압축 데이터 중에서, 잔차 신호의 부호화 데이터를 추출하는 단계 - 상기 움직임 정보의 부호화 데이터는 복호 대상의 대상 영역의 예측 신호를 생성하기 위해 화상 내의 복수의 영역에서 추출되고, 상기 지시 정보의 부호화 데이터는 복호된 이전의 프레임 내의 영역에 부수하는 움직임 정보와 복호될 프레임 내의 상기 대상 영역에 인접하는 인접 영역에 부수하는 복수의 움직임 정보 중 상기 대상 영역의 예측 신호의 생성에 사용하는 움직임 정보 세트를 특정함 -;
(a) 상기 움직임 정보의 부호화 데이터를 복호하여, 참조 화상 리스트 식별자, 참조 화상 인덱스, 및 움직임 벡터를 포함하는 2개의 움직임 정보를 복원하거나, 아니면 (b) 상기 지시 정보의 부호화 데이터를 복호하여, 상기 지시 정보를 복원하는 단계;
상기 복호된 이전의 프레임 내의 영역에 부수하는 움직임 정보를, 움직임 벡터가 상기 복호될 프레임과 상기 이전의 프레임의 화상 간의 시간 방향에 따라 스케일링되는 움직임 정보로 설정하고, 상기 지시 정보의 복원에 응하여, 메모리에 저장되어 있는 복수의 움직임 정보 중에서, 하나 이상의 움직임 정보 세트를 도출하는 단계 - 상기 하나 이상의 움직임 정보 세트 각각은, 각각의 참조 화상 인덱스 및 각각의 참조 화상 리스트 식별자에 의해 특정되는 각각의 프레임 번호가 서로 상이하거나 또는 각각의 움직임 벡터가 서로 상이한 2개의 움직임 정보를 포함함 -;
상기 하나 이상의 움직임 정보 세트 중에서 상기 대상 영역의 예측 신호 생성에 사용될 움직임 정보 세트를 상기 지시 정보에 기초하여 결정하는 단계;
상기 지시 정보의 복원에 응하여, 상기 복호될 프레임 내의 대상 영역에 인접하는 인접 영역에 부수하는 2개의 움직임 정보, 또는 상기 대상 영역의 위치에 의해 결정되는 상기 복호된 이전의 프레임 내의 영역에 부수하는 움직임 정보와 상기 복호될 프레임 내의 대상 영역에 인접하는 인접 영역에 부수하는 움직임 정보의 움직임 정보 세트에 기초하여 상기 메모리에 저장되어 있는 기재생 화상으로부터 획득된 2개의 신호를 합성함으로써 상기 대상 영역의 예측 신호를 생성하고, 상기 움직임 정보의 부호화 데이터를 복호하여 상기 2개의 움직임 정보를 복원하는 것에 응하여, 복원된 2개의 움직임 정보에 기초하여 상기 메모리에 저장되어 있는 기재생 화상으로부터 획득된 2개의 신호를 합성함으로써 상기 대상 영역의 예측 신호를 생성하는 단계;
상기 대상 영역의 상기 예측 신호의 생성에 사용된 움직임 정보를 상기 메모리에 저장하는 단계;
상기 잔차 신호의 상기 부호화 데이터로부터 상기 대상 영역의 잔차 신호를 복원하는 단계;
상기 예측 신호와 복원된 잔차 신호에 기초하여, 상기 대상 영역의 화소 신호를 재생(reconstruct)하는 단계; 및
재생된 화소 신호를 기재생 화상의 일부로서 저장하는 단계
를 포함하는 화상 예측 복호 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010226472 | 2010-10-06 | ||
JPJP-P-2010-226472 | 2010-10-06 | ||
PCT/JP2011/072449 WO2012046637A1 (ja) | 2010-10-06 | 2011-09-29 | 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020187034512A Division KR102037287B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190122275A true KR20190122275A (ko) | 2019-10-29 |
KR102123960B1 KR102123960B1 (ko) | 2020-06-17 |
Family
ID=45927632
Family Applications (8)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157020755A KR101665490B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020177016501A KR101842071B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020167015636A KR101752262B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020167027392A KR101752263B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020137006518A KR101560757B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020187034512A KR102037287B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020187006593A KR101927282B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020197031118A KR102123960B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
Family Applications Before (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157020755A KR101665490B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020177016501A KR101842071B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020167015636A KR101752262B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020167027392A KR101752263B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020137006518A KR101560757B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020187034512A KR102037287B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
KR1020187006593A KR101927282B1 (ko) | 2010-10-06 | 2011-09-29 | 화상 예측 부호화 장치, 화상 예측 부호화 방법, 화상 예측 부호화 프로그램, 화상 예측 복호 장치, 화상 예측 복호 방법 및 화상 예측 복호 프로그램 |
Country Status (19)
Country | Link |
---|---|
US (7) | US8873874B2 (ko) |
EP (9) | EP3637776A1 (ko) |
JP (8) | JP5575910B2 (ko) |
KR (8) | KR101665490B1 (ko) |
CN (9) | CN106210737B (ko) |
AU (2) | AU2011313407B2 (ko) |
BR (1) | BR112013007945B8 (ko) |
CA (4) | CA3083703C (ko) |
DK (4) | DK3657798T3 (ko) |
ES (3) | ES2773774T3 (ko) |
FI (1) | FI3637778T3 (ko) |
HU (1) | HUE060230T2 (ko) |
MX (5) | MX2013003063A (ko) |
PL (2) | PL3637778T3 (ko) |
PT (4) | PT3001686T (ko) |
RU (8) | RU2580942C2 (ko) |
SG (1) | SG188501A1 (ko) |
TW (9) | TWI621351B (ko) |
WO (1) | WO2012046637A1 (ko) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK3567852T3 (da) | 2009-03-23 | 2023-01-16 | Ntt Docomo Inc | Billedforudsigelsesafkodningsindretning og billedforudsigelsesafkodningsfremgangsmåde |
ES2820437T3 (es) * | 2010-07-20 | 2021-04-21 | Ntt Docomo Inc | Método de codificación predictiva de imágenes, dispositivo de decodificación predictiva de imágenes, método de decodificación predictiva de imágenes y programa de decodificación predictiva de imágenes |
PL3637778T3 (pl) | 2010-10-06 | 2024-09-23 | Ntt Docomo, Inc. | Sposób dwupredykcyjnego dekodowania obrazu |
US9648334B2 (en) * | 2011-03-21 | 2017-05-09 | Qualcomm Incorporated | Bi-predictive merge mode based on uni-predictive neighbors in video coding |
AU2013311185B2 (en) * | 2012-09-06 | 2017-06-22 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, image coding and decoding apparatus |
US20150195521A1 (en) * | 2014-01-09 | 2015-07-09 | Nvidia Corporation | Candidate motion vector selection systems and methods |
EP3357245A4 (en) * | 2015-11-05 | 2019-03-13 | MediaTek Inc. | METHOD AND DEVICE OF INTERPRESSATION USING AN AVERAGE MOTION VECTOR FOR VIDEO CODING |
US10531085B2 (en) * | 2017-05-09 | 2020-01-07 | Futurewei Technologies, Inc. | Coding chroma samples in video compression |
KR101982929B1 (ko) * | 2017-09-08 | 2019-05-27 | 연세대학교 산학협력단 | 행동 인식 장치 및 방법 |
US11082720B2 (en) | 2017-11-21 | 2021-08-03 | Nvidia Corporation | Using residual video data resulting from a compression of original video data to improve a decompression of the original video data |
JP2022503464A (ja) | 2018-07-17 | 2022-01-12 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | ビデオコーディング用動きベクトル予測 |
KR20210093891A (ko) * | 2018-12-18 | 2021-07-28 | 엘지전자 주식회사 | 이차 변환에 기반한 영상 코딩 방법 및 그 장치 |
WO2024143565A1 (ko) * | 2022-12-26 | 2024-07-04 | 광운대학교 산학협력단 | 원격 의료시스템을 위한 동영상 압축 전송 방법 및 장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6259739B2 (ko) | 1980-09-24 | 1987-12-12 | Mobil Oil | |
JPH073035Y2 (ja) | 1988-10-31 | 1995-01-30 | 株式会社ユニシアジェックス | 液体ポンプ |
US6765964B1 (en) | 2000-12-06 | 2004-07-20 | Realnetworks, Inc. | System and method for intracoding video data |
US20050117646A1 (en) * | 2003-11-28 | 2005-06-02 | Anthony Joch | Low-complexity motion vector prediction for video codec with two lists of reference pictures |
US20090003446A1 (en) * | 2007-06-30 | 2009-01-01 | Microsoft Corporation | Computing collocated macroblock information for direct mode macroblocks |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1155259C (zh) * | 1996-11-26 | 2004-06-23 | 松下电器产业株式会社 | 运动图象可变比特率编码装置和编码方法 |
US7266150B2 (en) | 2001-07-11 | 2007-09-04 | Dolby Laboratories, Inc. | Interpolation of video compression frames |
US7801215B2 (en) * | 2001-07-24 | 2010-09-21 | Sasken Communication Technologies Limited | Motion estimation technique for digital video encoding applications |
ES2665693T3 (es) | 2001-11-06 | 2018-04-26 | Panasonic Intellectual Property Corporation Of America | Método de codificación de imágenes en movimiento y método de decodificación de imágenes en movimiento |
US7003035B2 (en) | 2002-01-25 | 2006-02-21 | Microsoft Corporation | Video coding methods and apparatuses |
US7321626B2 (en) * | 2002-03-08 | 2008-01-22 | Sharp Laboratories Of America, Inc. | System and method for predictive motion estimation using a global motion predictor |
JP2007060691A (ja) * | 2002-04-10 | 2007-03-08 | Toshiba Corp | 動画像符号化方法及び装置 |
ES2745058T3 (es) * | 2002-04-19 | 2020-02-27 | Panasonic Ip Corp America | Método de cálculo de vectores de movimiento |
JP2004007563A (ja) * | 2002-04-19 | 2004-01-08 | Matsushita Electric Ind Co Ltd | 動画像符号化方法および動画像復号化方法 |
EP3054680B1 (en) * | 2002-04-19 | 2019-06-05 | Panasonic Intellectual Property Corporation of America | Motion vector calculating method |
JP2004208258A (ja) * | 2002-04-19 | 2004-07-22 | Matsushita Electric Ind Co Ltd | 動きベクトル計算方法 |
CN1656515A (zh) * | 2002-05-30 | 2005-08-17 | 皇家飞利浦电子股份有限公司 | 估计当前运动矢量的单元和方法 |
US20040001546A1 (en) * | 2002-06-03 | 2004-01-01 | Alexandros Tourapis | Spatiotemporal prediction for bidirectionally predictive (B) pictures and motion vector prediction for multi-picture reference motion compensation |
JP2004023458A (ja) * | 2002-06-17 | 2004-01-22 | Toshiba Corp | 動画像符号化/復号化方法及び装置 |
AU2003281133A1 (en) * | 2002-07-15 | 2004-02-02 | Hitachi, Ltd. | Moving picture encoding method and decoding method |
KR100865034B1 (ko) | 2002-07-18 | 2008-10-23 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
US7822120B2 (en) * | 2002-07-26 | 2010-10-26 | Panasonic Corporation | Moving picture encoding method, moving picture decoding method, and recording medium |
US6925123B2 (en) * | 2002-08-06 | 2005-08-02 | Motorola, Inc. | Method and apparatus for performing high quality fast predictive motion search |
KR100506864B1 (ko) * | 2002-10-04 | 2005-08-05 | 엘지전자 주식회사 | 모션벡터 결정방법 |
JP4254469B2 (ja) * | 2003-05-23 | 2009-04-15 | 日本ビクター株式会社 | 光ピックアップ装置及び光記録媒体駆動装置 |
US7609763B2 (en) * | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
US7369709B2 (en) * | 2003-09-07 | 2008-05-06 | Microsoft Corporation | Conditional lapped transform |
WO2005046072A1 (en) * | 2003-10-09 | 2005-05-19 | Thomson Licensing | Direct mode derivation process for error concealment |
JP4414904B2 (ja) * | 2004-04-16 | 2010-02-17 | 株式会社エヌ・ティ・ティ・ドコモ | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム |
EP1610560A1 (en) * | 2004-06-24 | 2005-12-28 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for generating and for decoding coded picture data |
TWI268715B (en) * | 2004-08-16 | 2006-12-11 | Nippon Telegraph & Telephone | Picture encoding method, picture decoding method, picture encoding apparatus, and picture decoding apparatus |
US20060133498A1 (en) | 2004-11-29 | 2006-06-22 | Park Seung W | Method and apparatus for deriving motion vectors of macroblocks from motion vectors of pictures of base layer when encoding/decoding video signal |
KR100888963B1 (ko) * | 2004-12-06 | 2009-03-17 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
JP5065051B2 (ja) * | 2005-02-18 | 2012-10-31 | トムソン ライセンシング | 低解像度画像から高解像度画像の符号化情報を導出する方法、並びに、係る方法を実現する符号化及び復号化装置 |
US8019000B2 (en) * | 2005-02-24 | 2011-09-13 | Sanyo Electric Co., Ltd. | Motion vector detecting device |
CN101171845A (zh) * | 2005-03-17 | 2008-04-30 | Lg电子株式会社 | 对使用层间预测编码的视频信号进行解码的方法 |
KR100714696B1 (ko) * | 2005-06-24 | 2007-05-04 | 삼성전자주식회사 | 다계층 기반의 가중 예측을 이용한 비디오 코딩 방법 및장치 |
JP2007043651A (ja) * | 2005-07-05 | 2007-02-15 | Ntt Docomo Inc | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法及び動画像復号プログラム |
RU2368095C1 (ru) * | 2005-07-22 | 2009-09-20 | Мицубиси Электрик Корпорейшн | Кодер изображения и декодер изображения, способ кодирования изображения и способ декодирования изображения, программа кодирования изображения и программа декодирования изображения и компьютерно-считываемый носитель записи, на котором записана программа кодирования изображения, и компьютерно-считываемый носитель записи, на котором записана программа декодирования изображения |
CN102176754B (zh) * | 2005-07-22 | 2013-02-06 | 三菱电机株式会社 | 图像编码装置和方法、以及图像解码装置和方法 |
JP2007116351A (ja) * | 2005-10-19 | 2007-05-10 | Ntt Docomo Inc | 画像予測符号化装置、画像予測復号装置、画像予測符号化方法、画像予測復号方法、画像予測符号化プログラム、及び画像予測復号プログラム |
CN100588259C (zh) * | 2006-03-22 | 2010-02-03 | 弗劳恩霍夫应用研究促进协会 | 具有精度可缩放性的编码方案 |
KR101200865B1 (ko) * | 2006-03-23 | 2012-11-13 | 삼성전자주식회사 | 영상의 부호화 방법 및 장치, 복호화 방법 및 장치 |
JP4734168B2 (ja) * | 2006-05-09 | 2011-07-27 | 株式会社東芝 | 画像復号化装置及び画像復号化方法 |
US8275049B2 (en) * | 2006-06-16 | 2012-09-25 | Via Technologies, Inc. | Systems and methods of improved motion estimation using a graphics processing unit |
CN101473655B (zh) * | 2006-06-19 | 2011-06-08 | Lg电子株式会社 | 用于处理多视点视频信号的方法和装置 |
US8355438B2 (en) * | 2006-10-30 | 2013-01-15 | Nippon Telegraph And Telephone Corporation | Predicted reference information generating method, video encoding and decoding methods, apparatuses therefor, programs therefor, and storage media which store the programs |
JP2010509799A (ja) * | 2006-11-03 | 2010-03-25 | サムスン エレクトロニクス カンパニー リミテッド | 映像の予測符号化方法及び装置、その復号化方法及び装置 |
KR101365567B1 (ko) | 2007-01-04 | 2014-02-20 | 삼성전자주식회사 | 영상의 예측 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
FR2908949A1 (fr) * | 2006-11-16 | 2008-05-23 | Thomson Licensing Sas | Procede de transcodage de donnees du standard mpeg2 a un standard mpeg4. |
US20080126278A1 (en) * | 2006-11-29 | 2008-05-29 | Alexander Bronstein | Parallel processing motion estimation for H.264 video codec |
JP5372352B2 (ja) * | 2007-04-09 | 2013-12-18 | 株式会社エヌ・ティ・ティ・ドコモ | 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法および画像予測復号プログラム |
KR101442608B1 (ko) * | 2008-02-05 | 2014-09-25 | 삼성전자주식회사 | 영상을 효율적으로 부호화/복호화하는 방법 및 장치 |
KR20090097013A (ko) * | 2008-03-10 | 2009-09-15 | 삼성전자주식회사 | 영상 부호화장치 및 영상 복호화장치 |
CN101605256A (zh) * | 2008-06-12 | 2009-12-16 | 华为技术有限公司 | 一种视频编解码的方法及装置 |
US20090316042A1 (en) * | 2008-06-19 | 2009-12-24 | Chin-Chuan Liang | Video processing methods and related devices for determining target motion vector |
JP4977094B2 (ja) * | 2008-06-25 | 2012-07-18 | 株式会社東芝 | 画像符号化方法 |
EP2321970A1 (en) * | 2008-09-04 | 2011-05-18 | Thomson Licensing | Methods and apparatus for prediction refinement using implicit motion prediction |
JP5401071B2 (ja) * | 2008-10-09 | 2014-01-29 | 株式会社Nttドコモ | 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、動画像復号プログラム、動画像処理システムおよび動画像処理方法 |
KR101647376B1 (ko) * | 2009-03-30 | 2016-08-10 | 엘지전자 주식회사 | 비디오 신호 처리 방법 및 장치 |
KR101611437B1 (ko) * | 2009-10-28 | 2016-04-26 | 삼성전자주식회사 | 복수의 프레임을 참조하여 영상을 부호화, 복호화하는 방법 및 장치 |
US9078009B2 (en) | 2010-02-19 | 2015-07-07 | Skype | Data compression for video utilizing non-translational motion information |
US8681873B2 (en) | 2010-02-19 | 2014-03-25 | Skype | Data compression for video |
HUE061303T2 (hu) * | 2010-05-04 | 2023-06-28 | Lg Electronics Inc | Eljárás és berendezés videojel kódolására és dekódolására |
CN105791859B (zh) * | 2010-05-26 | 2018-11-06 | Lg电子株式会社 | 用于处理视频信号的方法和设备 |
CN106454379B (zh) | 2010-09-30 | 2019-06-28 | 三菱电机株式会社 | 运动图像编码装置及其方法、运动图像解码装置及其方法 |
PL3637778T3 (pl) | 2010-10-06 | 2024-09-23 | Ntt Docomo, Inc. | Sposób dwupredykcyjnego dekodowania obrazu |
US8824558B2 (en) * | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
-
2011
- 2011-09-29 PL PL19212450.1T patent/PL3637778T3/pl unknown
- 2011-09-29 MX MX2013003063A patent/MX2013003063A/es not_active Application Discontinuation
- 2011-09-29 DK DK19217392.0T patent/DK3657798T3/da active
- 2011-09-29 CN CN201610809316.4A patent/CN106210737B/zh active Active
- 2011-09-29 EP EP19212442.8A patent/EP3637776A1/en not_active Ceased
- 2011-09-29 KR KR1020157020755A patent/KR101665490B1/ko active IP Right Grant
- 2011-09-29 CA CA3083703A patent/CA3083703C/en active Active
- 2011-09-29 CA CA2813377A patent/CA2813377C/en active Active
- 2011-09-29 EP EP15191817.4A patent/EP3001686B1/en active Active
- 2011-09-29 KR KR1020177016501A patent/KR101842071B1/ko active IP Right Grant
- 2011-09-29 FI FIEP19212450.1T patent/FI3637778T3/fi active
- 2011-09-29 KR KR1020167015636A patent/KR101752262B1/ko active IP Right Grant
- 2011-09-29 MX MX2015017617A patent/MX348155B/es unknown
- 2011-09-29 KR KR1020167027392A patent/KR101752263B1/ko active IP Right Grant
- 2011-09-29 KR KR1020137006518A patent/KR101560757B1/ko active IP Right Grant
- 2011-09-29 EP EP19212383.4A patent/EP3637775A1/en not_active Withdrawn
- 2011-09-29 PT PT151918174T patent/PT3001686T/pt unknown
- 2011-09-29 CN CN201180046286.1A patent/CN103119942B/zh active Active
- 2011-09-29 EP EP19212479.0A patent/EP3637779A1/en not_active Withdrawn
- 2011-09-29 HU HUE19217392A patent/HUE060230T2/hu unknown
- 2011-09-29 ES ES11830569T patent/ES2773774T3/es active Active
- 2011-09-29 MX MX2017004525A patent/MX361493B/es unknown
- 2011-09-29 EP EP11830569.7A patent/EP2627090B1/en active Active
- 2011-09-29 DK DK15191817.4T patent/DK3001686T3/da active
- 2011-09-29 PT PT118305697T patent/PT2627090T/pt unknown
- 2011-09-29 EP EP19217392.0A patent/EP3657798B1/en active Active
- 2011-09-29 ES ES19217392T patent/ES2929824T3/es active Active
- 2011-09-29 CA CA3136692A patent/CA3136692A1/en active Pending
- 2011-09-29 CN CN201610809318.3A patent/CN106131569B/zh active Active
- 2011-09-29 EP EP19212450.1A patent/EP3637778B1/en active Active
- 2011-09-29 DK DK19212450.1T patent/DK3637778T3/da active
- 2011-09-29 PT PT192124501T patent/PT3637778T/pt unknown
- 2011-09-29 WO PCT/JP2011/072449 patent/WO2012046637A1/ja active Application Filing
- 2011-09-29 CN CN201510737329.0A patent/CN105338364B/zh active Active
- 2011-09-29 AU AU2011313407A patent/AU2011313407B2/en not_active Expired - Fee Related
- 2011-09-29 EP EP19212482.4A patent/EP3637780A1/en not_active Withdrawn
- 2011-09-29 CA CA2973344A patent/CA2973344C/en active Active
- 2011-09-29 JP JP2012537671A patent/JP5575910B2/ja active Active
- 2011-09-29 RU RU2013120007/07A patent/RU2580942C2/ru active
- 2011-09-29 DK DK11830569.7T patent/DK2627090T3/da active
- 2011-09-29 PT PT192173920T patent/PT3657798T/pt unknown
- 2011-09-29 BR BR112013007945A patent/BR112013007945B8/pt active IP Right Grant
- 2011-09-29 SG SG2013017876A patent/SG188501A1/en unknown
- 2011-09-29 CN CN201710328853.1A patent/CN107257477B/zh active Active
- 2011-09-29 MX MX2018015164A patent/MX367863B/es unknown
- 2011-09-29 ES ES15191817T patent/ES2778227T3/es active Active
- 2011-09-29 KR KR1020187034512A patent/KR102037287B1/ko active IP Right Grant
- 2011-09-29 KR KR1020187006593A patent/KR101927282B1/ko active IP Right Grant
- 2011-09-29 CN CN201710328870.5A patent/CN107257478B/zh active Active
- 2011-09-29 CN CN201710328827.9A patent/CN107197304B/zh active Active
- 2011-09-29 RU RU2016106109A patent/RU2621688C1/ru active
- 2011-09-29 EP EP19212447.7A patent/EP3637777A1/en not_active Withdrawn
- 2011-09-29 CN CN201710328869.2A patent/CN107197305B/zh active Active
- 2011-09-29 CN CN201610809317.9A patent/CN106210738B/zh active Active
- 2011-09-29 KR KR1020197031118A patent/KR102123960B1/ko active IP Right Grant
- 2011-09-29 PL PL19217392.0T patent/PL3657798T3/pl unknown
- 2011-10-04 TW TW106127481A patent/TWI621351B/zh active
- 2011-10-04 TW TW104103731A patent/TW201524196A/zh unknown
- 2011-10-04 TW TW109109235A patent/TWI718908B/zh active
- 2011-10-04 TW TW109109232A patent/TWI736186B/zh active
- 2011-10-04 TW TW107142301A patent/TWI692246B/zh active
- 2011-10-04 TW TW107102089A patent/TWI647949B/zh active
- 2011-10-04 TW TW100135918A patent/TWI517678B/zh active
- 2011-10-04 TW TW105129483A patent/TWI600313B/zh active
- 2011-10-04 TW TW109109234A patent/TWI722842B/zh active
-
2013
- 2013-03-19 MX MX2019010418A patent/MX2019010418A/es unknown
- 2013-04-05 US US13/857,724 patent/US8873874B2/en active Active
-
2014
- 2014-07-02 JP JP2014136834A patent/JP5774753B2/ja active Active
- 2014-09-04 US US14/477,463 patent/US10554998B2/en active Active
-
2015
- 2015-01-16 AU AU2015200190A patent/AU2015200190B9/en active Active
- 2015-07-01 JP JP2015132809A patent/JP5982537B2/ja active Active
-
2016
- 2016-08-01 JP JP2016151416A patent/JP2016201838A/ja active Pending
-
2017
- 2017-01-18 US US15/408,990 patent/US10440383B2/en active Active
- 2017-05-25 RU RU2017118179A patent/RU2654202C1/ru active
-
2018
- 2018-04-05 RU RU2018112264A patent/RU2677254C1/ru active
- 2018-08-30 JP JP2018161913A patent/JP6559309B2/ja active Active
- 2018-12-26 RU RU2018146537A patent/RU2695776C1/ru active
-
2019
- 2019-07-03 RU RU2019120690A patent/RU2720702C1/ru active
- 2019-07-08 US US16/504,925 patent/US20190335195A1/en not_active Abandoned
- 2019-07-08 US US16/504,851 patent/US20190335193A1/en not_active Abandoned
- 2019-07-08 US US16/504,879 patent/US20190335194A1/en not_active Abandoned
- 2019-07-08 US US16/504,901 patent/US20190342571A1/en not_active Abandoned
- 2019-07-16 JP JP2019131224A patent/JP6726340B2/ja active Active
-
2020
- 2020-04-28 RU RU2020114939A patent/RU2732512C1/ru active
- 2020-06-26 JP JP2020110414A patent/JP6887550B2/ja active Active
- 2020-09-11 RU RU2020129982A patent/RU2747247C1/ru active
-
2021
- 2021-05-18 JP JP2021083998A patent/JP7085044B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6259739B2 (ko) | 1980-09-24 | 1987-12-12 | Mobil Oil | |
JPH073035Y2 (ja) | 1988-10-31 | 1995-01-30 | 株式会社ユニシアジェックス | 液体ポンプ |
US6765964B1 (en) | 2000-12-06 | 2004-07-20 | Realnetworks, Inc. | System and method for intracoding video data |
US20050117646A1 (en) * | 2003-11-28 | 2005-06-02 | Anthony Joch | Low-complexity motion vector prediction for video codec with two lists of reference pictures |
US20090003446A1 (en) * | 2007-06-30 | 2009-01-01 | Microsoft Corporation | Computing collocated macroblock information for direct mode macroblocks |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6726340B2 (ja) | 画像予測復号方法 | |
KR102036771B1 (ko) | 동화상 예측 부호화 장치, 동화상 예측 부호화 방법, 동화상 예측 부호화 프로그램, 동화상 예측 복호 장치, 동화상 예측 복호 방법 및 동화상 예측 복호 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |