JP2015536109A - ビデオ信号処理方法及び装置 - Google Patents
ビデオ信号処理方法及び装置 Download PDFInfo
- Publication number
- JP2015536109A JP2015536109A JP2015535562A JP2015535562A JP2015536109A JP 2015536109 A JP2015536109 A JP 2015536109A JP 2015535562 A JP2015535562 A JP 2015535562A JP 2015535562 A JP2015535562 A JP 2015535562A JP 2015536109 A JP2015536109 A JP 2015536109A
- Authority
- JP
- Japan
- Prior art keywords
- prediction unit
- block
- unit
- current
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 239000013598 vector Substances 0.000 claims abstract description 233
- 238000000034 method Methods 0.000 claims abstract description 47
- 230000002123 temporal effect Effects 0.000 claims description 12
- 238000009877 rendering Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 101100520660 Drosophila melanogaster Poc1 gene Proteins 0.000 description 4
- 101100520662 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) PBA1 gene Proteins 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/43—Hardware specially adapted for motion estimation or compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Description
Claims (18)
- 現在のコーディングユニットに対応する隣接ブロックのインタービュー動きベクトルを用いて、現在の並列処理ユニット内の前記現在のコーディングユニットのインタービュー動きベクトルを獲得するステップと、
前記現在のコーディングユニットのインタービュー動きベクトルを用いて少なくとも1つの現在の予測ユニットの動きベクトルを並列的に獲得するステップとを含み、
前記現在の並列処理ユニットの大きさは、並列処理情報を用いて決定され、
前記現在のコーディングユニットに対応する隣接ブロックは、前記現在の並列処理ユニットに隣接する並列処理ユニットに含まれ、
前記現在のコーディングユニットは、前記少なくとも1つの現在の予測ユニットを含む、ビデオ信号処理方法。 - 前記現在の並列処理ユニットに隣接する並列処理ユニットは、前記現在の並列処理ユニットの左側下段並列処理ユニット、左側並列処理ユニット、左側上段並列処理ユニット、上段並列処理ユニット及び右側上段並列処理ユニットのうちの少なくとも1つである、請求項1に記載のビデオ信号処理方法。
- 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×Nで並列処理される場合、前記現在の予測ユニットは、第1予測ユニット、第2予測ユニット、第3予測ユニット及び第4予測ユニットを含み、
前記第1予測ユニットの動きベクトル予測値は、前記第1予測ユニットの左側上段ブロック、前記第1予測ユニットの上段ブロック、前記第1予測ユニットの右側上段ブロック、前記第1予測ユニットの左側ブロック、前記第1予測ユニットの左側下段ブロックの動き情報を用いて獲得され、
前記第2予測ユニットの動きベクトル予測値は、前記第2予測ユニットの左側上段ブロック、前記第2予測ユニットの上段ブロック及び前記第2予測ユニットの右側上段ブロックの動き情報を用いて獲得され、
前記第3予測ユニットの動きベクトル予測値は、前記第3予測ユニットの左側上段ブロック、前記第3予測ユニットの左側ブロック及び前記第3予測ユニットの左側下段ブロックの動き情報を用いて獲得され、
前記第4予測ユニットの動きベクトル予測値は、前記第4予測ユニットの右側上段ブロック及び前記第4予測ユニットの左側下段ブロックの動き情報を用いて獲得される、請求項1に記載のビデオ信号処理方法。 - 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×2Nで並列処理される場合、前記現在の予測ユニットは、第5予測ユニット及び第6予測ユニットを含み、
前記第5予測ユニットの動きベクトル予測値は、前記第5予測ユニットの左側上段ブロック、前記第5予測ユニットの上段ブロック、前記第5予測ユニットの右側上段ブロック、前記第5予測ユニットの左側ブロック及び前記第5予測ユニットの左側下段ブロックの動き情報を用いて獲得され、
前記第6予測ユニットの動きベクトル予測値は、前記第6予測ユニットの左側上段ブロック、前記第6予測ユニットの上段ブロック、前記第6予測ユニットの右側上段ブロック、前記第6予測ユニットの左側下段ブロックの動き情報を用いて獲得される、請求項1に記載のビデオ信号処理方法。 - 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットが2N×Nで並列処理される場合、前記現在の予測ユニットは、第7予測ユニット及び第8予測ユニットを含み、
前記第7予測ユニットの動きベクトル予測値は、前記第7予測ユニットの左側上段ブロック、前記第7予測ユニットの上段ブロック、前記第7予測ユニットの右側上段ブロック、前記第7予測ユニットの左側ブロック及び前記第7予測ユニットの左側下段ブロックの動き情報を用いて獲得され、
前記第8予測ユニットの動きベクトル予測値は、前記第8予測ユニットの左側上段ブロック、前記第8予測ユニットの右側上段ブロック、前記第8予測ユニットの左側ブロック、前記第8予測ユニットの左側下段ブロックの動き情報を用いて獲得される、請求項1に記載のビデオ信号処理方法。 - 前記現在の予測ユニットの動きベクトルを並列的に獲得するステップは、
前記現在の予測ユニットに対応する参照ピクチャの出力順序情報を獲得するステップと、
前記インタービュー動きベクトルを用いて対応ブロックに対応する参照ピクチャの出力順序情報を獲得するステップと、
前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とを比較するステップと、
前記比較するステップに基づいて、前記現在の予測ユニットの動きベクトル予測値を獲得するステップとを含み、
前記現在の予測ユニットに対応する参照ピクチャは、前記現在の予測ユニットと同一視点、異なる時間にあり、前記対応ブロックは、前記現在の予測ユニットと異なる視点、同一時間にあり、前記対応ブロックに対応する参照ピクチャは、前記対応ブロックと同一視点、異なる時間にある、請求項1に記載のビデオ信号処理方法。 - 前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項6に記載のビデオ信号処理方法。
- 前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、前記隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが異なる場合、前記対応ブロックに対応する参照ピクチャの出力順序情報、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報及び前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項6に記載のビデオ信号処理方法。
- 前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、前記隣接ブロックが参照ビュー時間インター予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項6に記載のビデオ信号処理方法。
- 現在のコーディングユニットに対応する隣接ブロックのインタービュー動きベクトルを用いて、現在の並列処理ユニット内の前記現在のコーディングユニットのインタービュー動きベクトルを獲得し、前記現在のコーディングユニットのインタービュー動きベクトルを用いて少なくとも1つの現在の予測ユニットの動きベクトルを並列的に獲得するインター予測部を含み、前記現在の並列処理ユニットの大きさは並列処理情報を用いて決定され、前記現在のコーディングユニットに対応する隣接ブロックは、前記現在の並列処理ユニットに隣接する並列処理ユニットに含まれ、前記現在のコーディングユニットは、前記少なくとも1つの現在の予測ユニットを含む、ビデオデコーダ。
- 前記現在の並列処理ユニットに隣接する並列処理ユニットは、前記現在の並列処理ユニットの左側下段並列処理ユニット、左側並列処理ユニット、左側上段並列処理ユニット、上段並列処理ユニット及び右側上段並列処理ユニットのうちの少なくとも1つである、請求項10に記載のビデオデコーダ。
- 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×Nで並列処理される場合、前記現在の予測ユニットは、第1予測ユニット、第2予測ユニット、第3予測ユニット及び第4予測ユニットを含み、
前記インター予測部は、前記第1予測ユニットの動きベクトル予測値を、前記第1予測ユニットの左側上段ブロック、前記第1予測ユニットの上段ブロック、前記第1予測ユニットの右側上段ブロック、前記第1予測ユニットの左側ブロック、前記第1予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記第2予測ユニットの動きベクトル予測値を、前記第2予測ユニットの左側上段ブロック、前記第2予測ユニットの上段ブロック及び前記第2予測ユニットの右側上段ブロックの動き情報を用いて獲得し、前記第3予測ユニットの動きベクトル予測値を、前記第3予測ユニットの左側上段ブロック、前記第3予測ユニットの左側ブロック及び前記第3予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記第4予測ユニットの動きベクトル予測値を、前記第4予測ユニットの右側上段ブロック及び前記第4予測ユニットの左側下段ブロックの動き情報を用いて獲得する、請求項10に記載のビデオデコーダ。 - 前記インター予測部は、前記第5予測ユニットの動きベクトル予測値を、前記第5予測ユニットの左側上段ブロック、前記第5予測ユニットの上段ブロック、前記第5予測ユニットの右側上段ブロック、前記第5予測ユニットの左側ブロック及び前記第5予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記第6予測ユニットの動きベクトル予測値を、前記第6予測ユニットの左側上段ブロック、前記第6予測ユニットの上段ブロック、前記第6予測ユニットの右側上段ブロック、前記第6予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×2Nで並列処理される場合、前記現在の予測ユニットは第5予測ユニット及び第6予測ユニットを含む、請求項10に記載のビデオデコーダ。
- 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットが2N×Nで並列処理される場合、前記現在の予測ユニットは、第7予測ユニット及び第8予測ユニットを含み、
前記インター予測部は、前記第7予測ユニットの動きベクトル予測値を、前記第7予測ユニットの左側上段ブロック、前記第7予測ユニットの上段ブロック、前記第7予測ユニットの右側上段ブロック、前記第7予測ユニットの左側ブロック及び前記第7予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記第8予測ユニットの動きベクトル予測値を、前記第8予測ユニットの左側上段ブロック、前記第8予測ユニットの右側上段ブロック、前記第8予測ユニットの左側ブロック、前記第8予測ユニットの左側下段ブロックの動き情報を用いて獲得する、請求項10に記載のビデオデコーダ。 - 前記インター予測部は、前記現在の予測ユニットの動きベクトルを並列的に獲得し、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報を獲得し、前記インタービュー動きベクトルを用いて対応ブロックに対応する参照ピクチャの出力順序情報を獲得し、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とを比較し、前記比較するステップに基づいて前記現在の予測ユニットの動きベクトル予測値を獲得し、
前記現在の予測ユニットに対応する参照ピクチャは、前記現在の予測ユニットと同一視点、異なる時間にあり、前記対応ブロックは、前記現在の予測ユニットと異なる視点、同一時間にあり、前記対応ブロックに対応する参照ピクチャは、前記対応ブロックと同一視点、異なる時間にある、請求項10に記載のビデオデコーダ。 - 前記インター予測部は、前記隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動き情報を用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項15に記載のビデオデコーダ。
- 前記インター予測部は、前記隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが異なる場合、前記対応ブロックに対応する参照ピクチャの出力順序情報、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報及び前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項15に記載のビデオデコーダ。
- 前記インター予測部は、前記隣接ブロックが参照ビュー時間インター予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項15に記載のビデオデコーダ。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261710759P | 2012-10-07 | 2012-10-07 | |
US61/710,759 | 2012-10-07 | ||
PCT/KR2013/008864 WO2014054896A1 (ko) | 2012-10-07 | 2013-10-04 | 비디오 신호 처리 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015536109A true JP2015536109A (ja) | 2015-12-17 |
JP6594773B2 JP6594773B2 (ja) | 2019-10-23 |
Family
ID=50435185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015535562A Active JP6594773B2 (ja) | 2012-10-07 | 2013-10-04 | ビデオ信号処理方法及び装置 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10171836B2 (ja) |
EP (1) | EP2905964B1 (ja) |
JP (1) | JP6594773B2 (ja) |
KR (1) | KR102248074B1 (ja) |
CN (1) | CN104782127B (ja) |
CA (1) | CA2887120C (ja) |
ES (1) | ES2775202T3 (ja) |
WO (1) | WO2014054896A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10757437B2 (en) | 2014-07-17 | 2020-08-25 | Apple Inc. | Motion estimation in block processing pipelines |
US9762919B2 (en) | 2014-08-28 | 2017-09-12 | Apple Inc. | Chroma cache architecture in block processing pipelines |
JP6937302B2 (ja) | 2015-11-23 | 2021-09-29 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute | 多視点ビデオの符号化/復号化方法 |
KR102601689B1 (ko) | 2018-10-12 | 2023-11-15 | 삼성디스플레이 주식회사 | 전자 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012191298A (ja) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
WO2013159038A1 (en) * | 2012-04-20 | 2013-10-24 | Qualcomm Incorporated | Disparity vector generation for inter-view prediction for video coding |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100846780B1 (ko) | 2003-11-10 | 2008-07-16 | 삼성전자주식회사 | 움직임 벡터 추정 방법 및 장치 |
JP4898415B2 (ja) | 2006-12-19 | 2012-03-14 | キヤノン株式会社 | 動画像符号化装置及び動画像符号化方法 |
KR20080060188A (ko) | 2006-12-26 | 2008-07-01 | 엘지전자 주식회사 | 비디오 신호 디코딩 방법 및 장치 |
WO2008108566A1 (en) | 2007-03-02 | 2008-09-12 | Lg Electronics Inc. | A method and an apparatus for decoding/encoding a video signal |
US20100166073A1 (en) * | 2008-12-31 | 2010-07-01 | Advanced Micro Devices, Inc. | Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors |
KR20120118780A (ko) * | 2011-04-19 | 2012-10-29 | 삼성전자주식회사 | 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
-
2013
- 2013-10-04 CN CN201380058243.4A patent/CN104782127B/zh active Active
- 2013-10-04 CA CA2887120A patent/CA2887120C/en active Active
- 2013-10-04 WO PCT/KR2013/008864 patent/WO2014054896A1/ko active Application Filing
- 2013-10-04 JP JP2015535562A patent/JP6594773B2/ja active Active
- 2013-10-04 ES ES13844143T patent/ES2775202T3/es active Active
- 2013-10-04 EP EP13844143.1A patent/EP2905964B1/en active Active
- 2013-10-04 KR KR1020157011540A patent/KR102248074B1/ko active IP Right Grant
- 2013-10-04 US US14/433,773 patent/US10171836B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012191298A (ja) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム |
WO2013159038A1 (en) * | 2012-04-20 | 2013-10-24 | Qualcomm Incorporated | Disparity vector generation for inter-view prediction for video coding |
Non-Patent Citations (5)
Title |
---|
JAEWON SUNG (外2名): "3D-CE5.h: Simplification of disparity vector derivation for HEVC-based 3D video coding", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, JPN6016017154, 20 July 2012 (2012-07-20), US, pages 1 - 4, ISSN: 0003313638 * |
MINHUA ZHOU: "Parallelized merge/skip mode for HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6016017157, 22 July 2011 (2011-07-22), US, pages 1 - 13, ISSN: 0003313639 * |
YING CHEN (外2名): "AHG10: Hooks related to motion for the 3DV extension of HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6017036224, 20 July 2012 (2012-07-20), US, pages 1 - 20, ISSN: 0003646801 * |
YONGJOON JEON(外5名): "Parallel Merge Candidate Derivation for Inter_NxN partition type", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6016017163, 10 February 2012 (2012-02-10), US, pages 1 - 4, ISSN: 0003313641 * |
YUNFEI ZHENG (外3名): "Non-CE9: Simplified Merge candidate derivation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6016017160, 30 November 2011 (2011-11-30), US, pages 1 - 5, ISSN: 0003313640 * |
Also Published As
Publication number | Publication date |
---|---|
US10171836B2 (en) | 2019-01-01 |
ES2775202T3 (es) | 2020-07-24 |
KR20150090053A (ko) | 2015-08-05 |
KR102248074B1 (ko) | 2021-05-04 |
EP2905964A4 (en) | 2016-03-16 |
EP2905964B1 (en) | 2020-01-22 |
WO2014054896A1 (ko) | 2014-04-10 |
EP2905964A1 (en) | 2015-08-12 |
JP6594773B2 (ja) | 2019-10-23 |
CN104782127A (zh) | 2015-07-15 |
US20150281734A1 (en) | 2015-10-01 |
CA2887120C (en) | 2017-08-22 |
CN104782127B (zh) | 2021-05-28 |
CA2887120A1 (en) | 2014-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6594773B2 (ja) | ビデオ信号処理方法及び装置 | |
JP6114404B2 (ja) | ビデオ信号処理方法及び装置 | |
US9955166B2 (en) | Method and device for processing video signal | |
US20160165259A1 (en) | Method and apparatus for processing video signal | |
US9998762B2 (en) | Method and apparatus for processing video signals | |
US9781442B2 (en) | Method and apparatus for processing video signal | |
KR101753592B1 (ko) | 비디오 신호 처리 방법 및 장치 | |
KR20150095679A (ko) | 비디오 신호 처리 방법 및 장치 | |
US10129560B2 (en) | Method and apparatus for processing video signal | |
JP2016519519A (ja) | ビデオ信号処理方法及び装置 | |
JP6196372B2 (ja) | ビデオ信号処理方法及び装置 | |
US20160050438A1 (en) | Video signal processing method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150407 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160510 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170403 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180116 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180124 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20180330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6594773 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |