JP6941657B2 - サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 - Google Patents
サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 Download PDFInfo
- Publication number
- JP6941657B2 JP6941657B2 JP2019202695A JP2019202695A JP6941657B2 JP 6941657 B2 JP6941657 B2 JP 6941657B2 JP 2019202695 A JP2019202695 A JP 2019202695A JP 2019202695 A JP2019202695 A JP 2019202695A JP 6941657 B2 JP6941657 B2 JP 6941657B2
- Authority
- JP
- Japan
- Prior art keywords
- sub
- block
- motion information
- prediction unit
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/40—Tree coding, e.g. quadtree, octree
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/132—Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/53—Multi-resolution motion estimation; Hierarchical motion estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Description
具体的に、送信側ではステレオカメラ及び多視点カメラを用いてビデオ情報を生成し、深さ情報カメラを用いて深さ情報マップ(depth map又はdepth view)を生成することができる。また、送信側では変換器を用いて2次元映像を3次元映像に変換することもできる。送信側では、生成されたビデオ情報及び深さ情報マップなどを用いて、N(N≧2)視点(view)(すなわち、多視点)の映像コンテンツを生成することができる。このとき、N視点の映像コンテンツには、N視点のビデオ情報及びその深さ情報マップ(Depth−map)情報とカメラ関連付加情報などを含めることができる。N視点の映像コンテンツは、3次元ビデオエンコーダで多視点ビデオ符号化方法を用いて圧縮することができ、圧縮した映像コンテンツ(ビットストリーム)をネットワークを介して受信側の端末に送信することができる。
Unit;LCU)(以下、LCUという。)単位で順次に分割した後、LCUごとに分割構造を決定する。本明細書で、LCUはコーディングツリーユニット(Coding
Tree Unit;CTU)と同じ意味で使われてもよい。分割構造は、LCU 310内で映像を効率的に符号化するための符号化ユニット(以下、CUという。)の分布を意味し、このような分布は、一つのCUを、その横及び縦のサイズを半分に減少した4個のCUに分割するか否かによって決定することができる。分割されたCUは、同じ方式で分割されたCUに対してその横及び縦のサイズが半分に減少した4個のCUに再帰的に分割されてもよい。
深さ情報はCUのサイズを示す情報であり、各CUごとに記憶されてもよい。例えば、LCUの深さは0であり、SCU(Smallest Coding Unit)の深さは、あらかじめ定義された最大深さであってもよい。ここで、LCUは、上述したとおり、最大のサイズを有する符号化ユニットであり、SCU(Smallest Coding
Unit)は、最小のサイズを有する符号化ユニットである。
prediction)の構造を示す一例である。
例えば、ビュー間解像度が異なる場合には、参照ビューの復元されたピクチャをアップサンプリングしてインタービュー参照ピクチャを構成してもよい。
model)を導出した後、導出された二進化方法又は確率モデルを用いてエントロピー符号化を行うことができる。
0)で取得した映像であり、T1とD1は視点1(View 1)で取得した映像であり、T2とD2は視点2(View 2)で取得した映像である。このとき、図9に示す四角形は、映像(ピクチャ)を表す。
順方向参照ピクチャ目録(LIST 0)を逆方向参照ピクチャ目録(LIST 1)に複写し、順方向予測が2つ存在する場合も両方向予測に含まれてもよい。
Curは現在ブロックを意味し、Cur0,1,2,3は、現在ブロック内の各サブ予測ユニットを意味する。すなわち、Cur0は現在ブロックのサブ予測ユニット0、Cur1は現在ブロックのサブ予測ユニット1、Cur2は現在ブロックのサブ予測ユニット2、Cur3は現在ブロックのサブ予測ユニット3を意味する。このとき、図16AのRef0及び1内の‘X’は、参照ブロックのサブ予測ユニット0及び参照ブロックのサブ予測ユニット1を用いては動き情報の誘導が不可能であるということを表す。
refPicListLYIvRefは、ivRefPicが示すピクチャ内のRefPicListLYに設定され、このとき、RefPicListLYは参照ピクチャリストを意味する。predFlagLYIvRef[x][y]は、ivRefPicが示すピクチャ内のPredFlagLY[x][y]に設定され、このとき、PredFlagLYは、参照ピクチャリストを示す識別子を意味する。mvLYIvRef[x][y]は、ivRefPicが示すピクチャ内のMvLY[x][y]に設定され、このとき、MvLYは動きベクトルを意味する。同様に、refIdxLYIvRef[x][y]は、ivRefPicが示すピクチャ内のRefIdxLY[x][y]に設定され、このとき、RefIdxLYは参照インデックスを意味する。
1.lastAvailableFlagが0であれば、0から1までの範囲を有するXに対して下記の式6を適用することができる。
3.その後、インター予測部では変数xLastAvailとyLastAvailにそれぞれxBlkとyBlkを記憶させる。
仮に、curAvailableFlagが1であり、lastAvailableFlagが1であれば、インター予測部では、0から1までの範囲を有するXに対して下記の式9を適用する。
図22は、本発明の一実施例に係る、参照ブロックを用いて現在ブロックに対するサブ予測ユニットの動き情報を誘導する方法を概略的に説明するフローチャートである。
図23は、本発明の他の実施例によって、現在ブロックに対するサブ予測ユニットの動き情報を誘導する方法を概略的に説明するフローチャートである。図23の例では、参照ブロックの任意の位置に存在するサブ予測ユニットを用いて、現在ブロックに対するサブ予測ユニットの動き情報が誘導することができる。
図25は、本発明の更に他の実施例に係る、任意の動き情報値を用いて現在ブロックに対するサブ予測ユニットの動き情報を誘導する方法を示すフローチャートである。
Claims (2)
- 現在ブロックの動き情報を決定するステップと、
前記現在ブロックの前記動き情報に基づいて、前記現在ブロックに対する予測サンプルを誘導するステップと、
前記現在ブロックの前記動き情報を決定するステップは、
参照ブロック内の前記現在ブロックの中央位置に対応する中央サブブロックが動き情報を有するか否かを決定するステップと、
前記参照ブロック内の前記中央サブブロックが動き情報を有するとき、前記参照ブロック内のサブブロックから、前記現在ブロック内のサブブロックの動き情報を誘導するステップと、
を有し、
前記参照ブロック内のサブブロックから、前記現在ブロック内のサブブロックの前記動き情報を誘導するステップは、
前記参照ブロック内のサブブロックが動き情報を有するか否かを決定するステップであって、前記参照ブロック内の前記サブブロックは、前記現在ブロック内の現在サブブロックに対応し、
前記参照ブロック内の前記サブブロックが動き情報を有しないとき、前記参照ブロック内の前記中央サブブロックから、前記現在ブロック内の前記現在サブブロックの動き情報を誘導するステップと、
を有し、
前記参照ブロックは、前記現在ブロックの位置に基づいて規定されることを特徴とする、映像符号化方法。 - 現在ブロックの動き情報を誘導するステップと、
前記現在ブロックの前記動き情報に基づいて、前記現在ブロックに対する予測サンプルを誘導するステップと、
前記現在ブロックの前記動き情報を誘導するステップは、
参照ブロック内の前記現在ブロックの中央位置に対応する中央サブブロックが動き情報を有するか否かを決定するステップと、
前記参照ブロック内の前記中央サブブロックが動き情報を有するとき、前記現在ブロック内のサブブロックの動き情報を誘導するステップと、
を有し、
前記参照ブロック内のサブブロックから、前記現在ブロック内のサブブロックの前記動き情報を誘導するステップは、
前記参照ブロック内のサブブロックが動き情報を有するか否かを決定するステップであって、前記参照ブロック内の前記サブブロックは、前記現在ブロック内の現在サブブロックに対応し、
前記参照ブロック内の前記サブブロックが動き情報を有しないとき、前記参照ブロック内の前記中央サブブロックから、前記現在ブロック内の前記現在サブブロックの動き情報を誘導するステップと、
を有し、
前記参照ブロックは、前記現在ブロックの位置に基づいて規定されることを特徴とする、映像復号化方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021144086A JP7183361B2 (ja) | 2014-01-03 | 2021-09-03 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20140000527 | 2014-01-03 | ||
KR10-2014-0000527 | 2014-01-03 | ||
KR10-2014-0001531 | 2014-01-06 | ||
KR20140001531 | 2014-01-06 | ||
JP2016544462A JP6616773B2 (ja) | 2014-01-03 | 2015-01-05 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
KR1020150000578A KR101710034B1 (ko) | 2014-01-03 | 2015-01-05 | 서브 예측 유닛 단위의 시간적인 시점 간 움직임 정보 유도의 방법 및 장치 |
KR10-2015-0000578 | 2015-01-05 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016544462A Division JP6616773B2 (ja) | 2014-01-03 | 2015-01-05 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021144086A Division JP7183361B2 (ja) | 2014-01-03 | 2021-09-03 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020039158A JP2020039158A (ja) | 2020-03-12 |
JP6941657B2 true JP6941657B2 (ja) | 2021-09-29 |
Family
ID=53793011
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016544462A Active JP6616773B2 (ja) | 2014-01-03 | 2015-01-05 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
JP2019202695A Active JP6941657B2 (ja) | 2014-01-03 | 2019-11-07 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
JP2019202688A Active JP6941656B2 (ja) | 2014-01-03 | 2019-11-07 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
JP2021144086A Active JP7183361B2 (ja) | 2014-01-03 | 2021-09-03 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
JP2021144107A Active JP7183362B2 (ja) | 2014-01-03 | 2021-09-03 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
JP2022182749A Pending JP2023017984A (ja) | 2014-01-03 | 2022-11-15 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016544462A Active JP6616773B2 (ja) | 2014-01-03 | 2015-01-05 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019202688A Active JP6941656B2 (ja) | 2014-01-03 | 2019-11-07 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
JP2021144086A Active JP7183361B2 (ja) | 2014-01-03 | 2021-09-03 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
JP2021144107A Active JP7183362B2 (ja) | 2014-01-03 | 2021-09-03 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
JP2022182749A Pending JP2023017984A (ja) | 2014-01-03 | 2022-11-15 | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (6) | US10681369B2 (ja) |
EP (1) | EP3091743A4 (ja) |
JP (6) | JP6616773B2 (ja) |
KR (9) | KR101710034B1 (ja) |
CN (5) | CN110855992A (ja) |
RU (1) | RU2680204C2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7183361B2 (ja) | 2014-01-03 | 2022-12-05 | ユニバーシティ-インダストリー コーオペレイション グループ オブ キョンヒ ユニバーシティ | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230028586A (ko) | 2018-04-01 | 2023-02-28 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
US20190387247A1 (en) * | 2018-06-19 | 2019-12-19 | Qualcomm Incorporated | Signaling sub-prediction unit motion vector predictor |
CN113261294A (zh) * | 2019-01-02 | 2021-08-13 | Lg 电子株式会社 | 基于sbtmvp的帧间预测方法和设备 |
WO2020141881A1 (ko) * | 2019-01-02 | 2020-07-09 | 엘지전자 주식회사 | 서브블록 단위의 움직임 정보 기반 인터 예측 방법 및 장치 |
KR102612539B1 (ko) * | 2019-12-17 | 2023-12-11 | 한국전자통신연구원 | 다시점 비디오 부호화 및 복호화 방법 |
KR20240051491A (ko) | 2022-10-13 | 2024-04-22 | 엘지디스플레이 주식회사 | 표시 장치 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0641656B2 (ja) * | 1983-12-26 | 1994-06-01 | ユニチカ株式会社 | スパンライク複合糸の製造方法 |
JPH0641657B2 (ja) * | 1987-12-02 | 1994-06-01 | 鐘紡株式会社 | 二重織物 |
TW312770B (en) | 1996-10-15 | 1997-08-11 | Japen Ibm Kk | The hiding and taking out method of data |
JP4752631B2 (ja) * | 2006-06-08 | 2011-08-17 | 株式会社日立製作所 | 画像符号化装置、及び画像符号化方法 |
CN101647279A (zh) | 2007-01-24 | 2010-02-10 | Lg电子株式会社 | 用于处理视频信号的方法和装置 |
CN101267556B (zh) * | 2008-03-21 | 2011-06-22 | 海信集团有限公司 | 快速运动估计方法及视频编解码方法 |
WO2009139569A2 (ko) * | 2008-05-13 | 2009-11-19 | 엘지전자(주) | 비디오 신호 디코딩 방법 및 장치 |
JP2010016454A (ja) * | 2008-07-01 | 2010-01-21 | Sony Corp | 画像符号化装置および方法、画像復号装置および方法、並びにプログラム |
KR20110071047A (ko) * | 2009-12-20 | 2011-06-28 | 엘지전자 주식회사 | 비디오 신호 디코딩 방법 및 장치 |
JP2011259040A (ja) * | 2010-06-04 | 2011-12-22 | Sony Corp | 画像処理装置および方法 |
US20130215968A1 (en) * | 2010-10-28 | 2013-08-22 | University-Industry Cooperation Group Of Kyung Hee University | Video information encoding method and decoding method |
HU1000640D0 (en) | 2010-11-29 | 2011-02-28 | Holografika Hologrameloeallito Fejlesztoe Es Forgalmazo Kft | Image coding and decoding method and apparatus for efficient encoding and decoding of 3d field content |
CN107071461B (zh) * | 2010-12-14 | 2019-11-12 | M&K控股株式会社 | 用于解码运动画面的设备 |
KR20120068743A (ko) | 2010-12-17 | 2012-06-27 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
US9363535B2 (en) * | 2011-07-22 | 2016-06-07 | Qualcomm Incorporated | Coding motion depth maps with depth range variation |
CN110830799B (zh) * | 2012-01-18 | 2023-09-15 | 韩国电子通信研究院 | 视频解码装置、视频编码装置和传输比特流的方法 |
US20130258052A1 (en) | 2012-03-28 | 2013-10-03 | Qualcomm Incorporated | Inter-view residual prediction in 3d video coding |
JP2013207755A (ja) * | 2012-03-29 | 2013-10-07 | Sony Corp | 画像処理装置および方法 |
WO2013158097A1 (en) | 2012-04-19 | 2013-10-24 | Intel Corporation | 3d video coding including depth based disparity vector calibration |
SG11201405038RA (en) * | 2012-04-24 | 2014-09-26 | Mediatek Inc | Method and apparatus of motion vector derivation for 3d video coding |
JP6039793B2 (ja) * | 2012-05-10 | 2016-12-07 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号処理方法及び装置 |
US9420286B2 (en) * | 2012-06-15 | 2016-08-16 | Qualcomm Incorporated | Temporal motion vector prediction in HEVC and its extensions |
EP2859724B1 (en) | 2012-06-22 | 2019-09-04 | MediaTek Inc. | Method and apparatus of adaptive intra prediction for inter-layer coding |
CN102984521B (zh) * | 2012-12-12 | 2015-04-08 | 四川大学 | 基于时域相关性的高性能视频编码帧间模式判决方法 |
WO2015003383A1 (en) * | 2013-07-12 | 2015-01-15 | Mediatek Singapore Pte. Ltd. | Methods for inter-view motion prediction |
EP3028466B1 (en) | 2013-07-24 | 2022-01-26 | Qualcomm Incorporated | Simplified advanced motion prediction for 3d-hevc |
CN110855992A (zh) * | 2014-01-03 | 2020-02-28 | 庆熙大学校产学协力团 | 导出子预测单元的时间点之间的运动信息的方法和装置 |
JP6616733B2 (ja) | 2016-05-10 | 2019-12-04 | エイチ・シー・ネットワークス株式会社 | ネットワークシステムおよびサーバ装置 |
-
2015
- 2015-01-05 CN CN201910681943.8A patent/CN110855992A/zh active Pending
- 2015-01-05 CN CN201910681940.4A patent/CN110381317B/zh active Active
- 2015-01-05 KR KR1020150000578A patent/KR101710034B1/ko active IP Right Grant
- 2015-01-05 JP JP2016544462A patent/JP6616773B2/ja active Active
- 2015-01-05 CN CN201910681941.9A patent/CN110430432B/zh active Active
- 2015-01-05 CN CN201580003671.6A patent/CN105874798B/zh active Active
- 2015-01-05 CN CN201910682350.3A patent/CN110430433B/zh active Active
- 2015-01-05 EP EP15733249.5A patent/EP3091743A4/en active Pending
- 2015-01-05 RU RU2016125782A patent/RU2680204C2/ru active
- 2015-01-05 US US15/109,573 patent/US10681369B2/en active Active
-
2017
- 2017-02-20 KR KR1020170022191A patent/KR102179071B1/ko active IP Right Grant
- 2017-02-20 KR KR1020170022192A patent/KR102179072B1/ko active IP Right Grant
-
2019
- 2019-11-07 JP JP2019202695A patent/JP6941657B2/ja active Active
- 2019-11-07 JP JP2019202688A patent/JP6941656B2/ja active Active
-
2020
- 2020-04-24 US US16/857,519 patent/US10986359B2/en active Active
- 2020-04-24 US US16/857,531 patent/US11115674B2/en active Active
- 2020-11-10 KR KR1020200149041A patent/KR102321412B1/ko active IP Right Grant
- 2020-11-10 KR KR1020200149042A patent/KR102299009B1/ko active IP Right Grant
-
2021
- 2021-07-27 US US17/386,018 patent/US11627331B2/en active Active
- 2021-07-27 US US17/443,475 patent/US11711536B2/en active Active
- 2021-09-01 KR KR1020210116079A patent/KR102321413B1/ko active IP Right Grant
- 2021-09-03 JP JP2021144086A patent/JP7183361B2/ja active Active
- 2021-09-03 JP JP2021144107A patent/JP7183362B2/ja active Active
- 2021-10-28 KR KR1020210145772A patent/KR102367799B1/ko active IP Right Grant
-
2022
- 2022-02-22 KR KR1020220022847A patent/KR102446602B1/ko active IP Right Grant
- 2022-09-20 KR KR1020220118305A patent/KR20220131215A/ko not_active Application Discontinuation
- 2022-11-15 JP JP2022182749A patent/JP2023017984A/ja active Pending
-
2023
- 2023-06-05 US US18/329,014 patent/US20230336764A1/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7183361B2 (ja) | 2014-01-03 | 2022-12-05 | ユニバーシティ-インダストリー コーオペレイション グループ オブ キョンヒ ユニバーシティ | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 |
US11627331B2 (en) | 2014-01-03 | 2023-04-11 | University-Industry Cooperation Group Of Kyung Hee University | Method and device for inducing motion information between temporal points of sub prediction unit |
US11711536B2 (en) | 2014-01-03 | 2023-07-25 | University-Industry Cooperation Foundation Of Kyung Hee University | Method and device for inducing motion information between temporal points of sub prediction unit |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6941657B2 (ja) | サブ予測ユニット単位の時間的な視点間動き情報の誘導方法及び装置 | |
JP6673854B2 (ja) | 動き併合モードで視点合成予測候補の重複性除去装置および方法 | |
RU2784483C1 (ru) | Способ декодирования изображения, способ кодирования изображения и машиночитаемый носитель информации | |
RU2784475C1 (ru) | Способ декодирования изображения, способ кодирования изображения и машиночитаемый носитель информации | |
RU2784379C1 (ru) | Способ декодирования изображения, способ кодирования изображения и машиночитаемый носитель информации | |
RU2785479C1 (ru) | Способ декодирования изображения, способ кодирования изображения и машиночитаемый носитель информации | |
KR101672008B1 (ko) | 변이 벡터 예측 방법 및 장치 | |
CA2891672C (en) | Method and apparatus for deriving temporal inter-view motion information of sub-prediction unit | |
KR20150102748A (ko) | 서브 예측 유닛 단위의 시간적인 시점 간 움직임 정보 유도의 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A132 Effective date: 20210105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6941657 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |