JP2015536109A - ビデオ信号処理方法及び装置 - Google Patents

ビデオ信号処理方法及び装置 Download PDF

Info

Publication number
JP2015536109A
JP2015536109A JP2015535562A JP2015535562A JP2015536109A JP 2015536109 A JP2015536109 A JP 2015536109A JP 2015535562 A JP2015535562 A JP 2015535562A JP 2015535562 A JP2015535562 A JP 2015535562A JP 2015536109 A JP2015536109 A JP 2015536109A
Authority
JP
Japan
Prior art keywords
prediction unit
block
unit
current
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015535562A
Other languages
English (en)
Other versions
JP6594773B2 (ja
Inventor
ムンモ ク
ムンモ ク
チウォク チュン
チウォク チュン
セフン イェ
セフン イェ
チン ホ
チン ホ
テソプ キム
テソプ キム
チェウォン スン
チェウォン スン
ウンヨン ソン
ウンヨン ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2015536109A publication Critical patent/JP2015536109A/ja
Application granted granted Critical
Publication of JP6594773B2 publication Critical patent/JP6594773B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本発明は、並列処理情報を用いて現在のコーディングユニットのインタービュー動きベクトルを獲得し、現在のコーディングユニットのインタービュー動きベクトルを用いて、現在のコーディングユニット内の現在の予測ユニットの動きベクトルを並列的に獲得する。ここで、現在の予測ユニットに対応する参照ピクチャの出力順序情報と、対応ブロックに対応する参照ピクチャの出力順序情報とを比較して、現在の予測ユニットの動きベクトル予測値を獲得することを特徴とするビデオ信号処理方法及び装置に関する。本発明は、並列処理過程を通じて、多視点ビデオ映像を迅速に復元することができ、現在の予測ユニットと異なる視点の対応ブロックの参照ピクチャに対応する動き情報を用いて、動きベクトル予測値の正確度を高めることができる。【選択図】図3

Description

本発明は、ビデオ信号のコーディング方法及び装置に関する。
圧縮符号化とは、デジタル化した情報を通信回線を介して伝送したり、格納媒体に適した形態で格納したりする一連の信号処理技術を意味する。圧縮符号化の対象としては、音声、映像、文字などが存在し、特に、映像を対象として圧縮符号化を行う技術をビデオ映像圧縮と称する。多視点ビデオ映像の一般的な特徴は、空間的冗長性、時間的冗長性及び視点間冗長性を有している点にある。
本発明の目的は、ビデオ信号のコーディング効率を高めることにある。
本発明は、多視点ビデオ映像において並列処理情報を用いて現在のコーディングユニットのインタービュー動きベクトルを獲得することができ、現在のコーディングユニットのインタービュー動きベクトルを用いて現在の予測ユニットの動きベクトルを並列的に獲得することができる。
本発明は、現在の予測ユニットに対応する参照ピクチャの出力順序情報と、対応ブロックに対応する参照ピクチャの出力順序情報とを比較して、現在の予測ユニットの動きベクトル予測値を獲得することができる。
本発明は、現在の予測ユニットに対応する参照ピクチャの出力順序情報と、対応ブロックに対応する参照ピクチャの出力順序情報とが同一である場合、対応ブロックの参照ピクチャに対応する動き情報を用いて現在の予測ユニットの動きベクトル予測値を獲得することができる。
本発明は、現在の予測ユニットに対応する参照ピクチャの出力順序情報と、対応ブロックに対応する参照ピクチャの出力順序情報とが異なる場合、現在の予測ユニットに対応する参照ピクチャの出力順序、対応ブロックに対応する参照ピクチャの出力順序及び対応ブロックの参照ピクチャに対応する動き情報を用いて現在の予測ユニットの動きベクトル予測値を獲得することができる。
本発明は、多視点ビデオ映像において並列処理過程を通じて現在のコーディングユニットのインタービュー動きベクトル及び現在の予測ユニットの動きベクトルを獲得して、ビデオ映像を迅速に復元することができる。
本発明は、現在の予測ユニットと異なる視点の対応ブロックの参照ピクチャに対応する動き情報を用いて正確な動きベクトル予測値を獲得することができる。
本発明が適用される一実施例であって、デプスコーディングが適用される放送受信機の内部ブロック図である。 本発明が適用される一実施例であって、ビデオデコーダの概略的なブロック図である。 本発明が適用される一実施例であって、並列処理情報を用いて現在のユニットのインタービュー動きベクトルを獲得し、現在の予測ユニットの動きベクトルを獲得する方法に対するフローチャートである。 本発明が適用される一実施例であって、並列処理情報を用いて現在のコーディングユニットのインタービュー動きベクトルが獲得される一例を示す図である。 本発明が適用される一実施例であって、現在のコーディングユニット内の現在の予測ユニットがN×Nの単位で並列処理される場合の一例を示す図である。 本発明が適用される一実施例であって、現在のコーディングユニット内の現在の予測ユニットが2N×Nの単位で並列処理される場合の一例を示す図である。 本発明が適用される一実施例であって、現在のコーディングユニット内の現在の予測ユニットがN×2Nの単位で並列処理される場合の一例を示す図である。 本発明が適用される一実施例であって、現在の予測ユニットに対応する参照ピクチャの出力順序、対応ブロックに対応する参照ピクチャの出力順序及び対応ブロックの参照ピクチャに対応する動きベクトルを用いて、現在の予測ユニットの動きベクトル予測値を獲得する方法に対するフローチャートである。 本発明が適用される一実施例であって、対応ブロックに対応する参照ピクチャの出力順序が現在の予測ユニットに対応する参照ピクチャの出力順序と同じ場合の現在の予測ユニットの動きベクトル予測値を獲得する方法の一例を示す図である。 本発明が適用される一実施例であって、対応ブロックに対応する参照ピクチャの出力順序が現在の予測ユニットに対応する参照ピクチャの出力順序と異なる場合の現在の予測ユニットの動きベクトル予測値を獲得する方法の一例を示す図である。
本発明は、現在のコーディングユニットに対応する隣接ブロックのインタービュー動きベクトルを用いて、現在の並列処理ユニット内の前記現在のコーディングユニットのインタービュー動きベクトルを獲得し、前記現在のコーディングユニットのインタービュー動きベクトルを用いて少なくとも1つの現在の予測ユニットの動きベクトルを並列的に獲得し、前記現在の並列処理ユニットの大きさは並列処理情報を用いて決定され、前記現在のコーディングユニットに対応する隣接ブロックは、前記現在の並列処理ユニットに隣接する並列処理ユニットに含まれ、前記現在のコーディングユニットは、前記少なくとも1つの現在の予測ユニットを含むことを特徴とするビデオ信号処理方法及び装置である。
また、前記現在の並列処理ユニットに隣接する並列処理ユニットは、前記現在の並列処理ユニットの左側下段並列処理ユニット、左側並列処理ユニット、左側上段並列処理ユニット、上段並列処理ユニット及び右側上段並列処理ユニットのうちの少なくとも1つであることを特徴とするビデオ信号処理方法及び装置である。
また、前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×Nで並列処理される場合、前記現在の予測ユニットは、第1予測ユニット、第2予測ユニット、第3予測ユニット及び第4予測ユニットを含み、前記第1予測ユニットの動きベクトル予測値は、前記第1予測ユニットの左側上段ブロック、前記第1予測ユニットの上段ブロック、前記第1予測ユニットの右側上段ブロック、前記第1予測ユニットの左側ブロック、前記第1予測ユニットの左側下段ブロックの動き情報を用いて獲得され、前記第2予測ユニットの動きベクトル予測値は、前記第2予測ユニットの左側上段ブロック、前記第2予測ユニットの上段ブロック及び前記第2予測ユニットの右側上段ブロックの動き情報を用いて獲得され、前記第3予測ユニットの動きベクトル予測値は、前記第3予測ユニットの左側上段ブロック、前記第3予測ユニットの左側ブロック及び前記第3予測ユニットの左側下段ブロックの動き情報を用いて獲得され、前記第4予測ユニットの動きベクトル予測値は、前記第4予測ユニットの右側上段ブロック及び前記第4予測ユニットの左側下段ブロックの動き情報を用いて獲得されることを特徴とするビデオ信号処理方法及び装置である。
また、本発明は、前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×2Nで並列処理される場合、前記現在の予測ユニットは、第5予測ユニット及び第6予測ユニットを含み、前記第5予測ユニットの動きベクトル予測値は、前記第5予測ユニットの左側上段ブロック、前記第5予測ユニットの上段ブロック、前記第5予測ユニットの右側上段ブロック、前記第5予測ユニットの左側ブロック及び前記第5予測ユニットの左側下段ブロックの動き情報を用いて獲得され、前記第6予測ユニットの動きベクトル予測値は、前記第6予測ユニットの左側上段ブロック、前記第6予測ユニットの上段ブロック、前記第6予測ユニットの右側上段ブロック、前記第6予測ユニットの左側下段ブロックの動き情報を用いて獲得されることを特徴とするビデオ信号処理方法及び装置である。
また、本発明は、前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットが2N×Nで並列処理される場合、前記現在の予測ユニットは、第7予測ユニット及び第8予測ユニットを含み、前記第7予測ユニットの動きベクトル予測値は、前記第7予測ユニットの左側上段ブロック、前記第7予測ユニットの上段ブロック、前記第7予測ユニットの右側上段ブロック、前記第7予測ユニットの左側ブロック及び前記第7予測ユニットの左側下段ブロックの動き情報を用いて獲得され、前記第8予測ユニットの動きベクトル予測値は、前記第8予測ユニットの左側上段ブロック、前記第8予測ユニットの右側上段ブロック、前記第8予測ユニットの左側ブロック、前記第8予測ユニットの左側下段ブロックの動き情報を用いて獲得されることを特徴とするビデオ信号処理方法及び装置である。
また、本発明は、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報を獲得し、前記インタービュー動きベクトルを用いて対応ブロックに対応する参照ピクチャの出力順序情報を獲得し、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とを比較し、前記比較するステップに基づいて前記現在の予測ユニットの動きベクトル予測値を獲得し、前記現在の予測ユニットに対応する参照ピクチャは、前記現在の予測ユニットと同一視点、異なる時間にあり、前記対応ブロックは、前記現在の予測ユニットと異なる視点、同一時間にあり、前記対応ブロックに対応する参照ピクチャは、前記対応ブロックと同一視点、異なる時間にあることを特徴とするビデオ信号処理方法及び装置である。
また、本発明は、前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて前記現在の予測ユニットの動きベクトル予測値を獲得することを特徴とするビデオ信号処理方法及び装置である。
また、本発明は、前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、前記隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが異なる場合、前記対応ブロックに対応する参照ピクチャの出力順序情報、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報及び前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて前記現在の予測ユニットの動きベクトル予測値を獲得することを特徴とするビデオ信号処理方法及び装置である。
また、本発明は、前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、前記隣接ブロックが参照ビュー時間インター予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて前記現在の予測ユニットの動きベクトル予測値を獲得することを特徴とするビデオ信号処理方法及び装置である。
多視点ビデオ信号データを圧縮符号化または復号化する技術は、空間的冗長性、時間的冗長性及び視点間に存在する冗長性を考慮している。また、多視点映像の場合、3次元映像を具現するために2つ以上の視点で撮影された多視点テクスチャ映像をコーディングすることができる。また、必要に応じて、多視点テクスチャ映像に対応するデプスデータをさらにコーディングすることもできる。デプスデータをコーディングする際に、空間的冗長性、時間的冗長性または視点間冗長性を考慮して圧縮コーディングできることは勿論である。デプスデータは、カメラと当該画素との間の距離情報を表現したものであり、本明細書内におけるデプスデータは、デプス情報、デプス映像、デプスピクチャ、デプスシーケンス、デプスビットストリームなどのように、デプスに関連する情報として柔軟に解釈することができる。また、本明細書におけるコーディングというのは、エンコーディングとデコーディングの概念を全て含むことができ、本発明の技術的思想及び技術的範囲によって柔軟に解釈することができる。
図1は、本発明が適用される一実施例であって、デプスコーディングが適用される放送受信機の内部ブロック図を示す。
本実施例に係る放送受信機は、地上波放送信号を受信して映像を再生するためのものである。前記放送受信機は、受信されたデプス関連情報を用いて3次元コンテンツを生成することができる。前記放送受信機は、チューナー100、復調/チャネルデコーダ102、トランスポート逆多重化部104、パケット解除部106、オーディオデコーダ108、ビデオデコーダ110,PSI/PSIP処理部114、3Dレンダリング部116、フォーマッタ120及びディスプレイ部122を含む。
チューナー100は、アンテナ(図示せず)を介して入力される多数の放送信号のうち、ユーザが選局したいずれか1つのチャネルの放送信号を選択して出力する。復調/チャネルデコーダ102は、チューナー100からの放送信号を復調し、復調された信号に対してエラー訂正デコーディングを行ってトランスポートストリーム(TS)を出力する。トランスポート逆多重化部104は、トランスポートストリームを逆多重化して、ビデオPESとオーディオPESを分離し、PSI/PSIP情報を抽出する。パケット解除部106は、ビデオPESとオーディオPESに対してパケットを解除して、ビデオESとオーディオESを復元する。オーディオデコーダ108は、オーディオESをデコーディングしてオーディオビットストリームを出力する。オーディオビットストリームは、デジタル−アナログ変換器(図示せず)によってアナログ音声信号に変換され、増幅器(図示せず)によって増幅された後、スピーカー(図示せず)を介して出力される。ビデオデコーダ110は、ビデオESをデコーディングして元の映像を復元する。前記オーディオデコーダ108及び前記ビデオデコーダ110のデコーディング過程は、PSI/PSIP処理部114によって確認されるパケットID(PID)をベースとして行われてもよい。デコーディング過程において、前記ビデオデコーダ110はデプス情報を抽出することができる。また、仮想カメラ視点の映像を生成するために必要な付加情報、例えば、カメラ情報、または相対的に前にある客体によって遮られる領域(Occlusion)を推定するための情報(例えば、客体の輪郭などの幾何学的情報、客体透明度情報及びカラー情報)などを抽出して3Dレンダリング部116に提供することができる。しかし、本発明の他の実施例においては、前記デプス情報及び/又は付加情報がトランスポート逆多重化部104によって分離されてもよい。
PSI/PSIP処理部114は、トランスポート逆多重化部104からのPSI/PSIP情報を受信し、これをパージングしてメモリ(図示せず)またはレジスターに格納することによって、格納された情報をベースとして放送が再生されるようにする。3Dレンダリング部116は、復元された映像、デプス情報、付加情報及びカメラパラメータを用いて、仮想カメラ位置でのカラー情報、デプス情報などを生成することができる。
また、3Dレンダリング部116は、復元された映像、及び前記復元された映像に対するデプス情報を用いて3Dワーピング(Warping)を行うことによって、仮想カメラ位置での仮想映像を生成する。本実施例では、前記3Dレンダリング部116が前記ビデオデコーダ110と別個のブロックとして構成されて説明されているが、これは一実施例に過ぎず、前記3Dレンダリング部116は、前記ビデオデコーダ110に含まれて行われてもよい。
フォーマッタ120は、デコーディング過程で復元した映像、すなわち、実際のカメラによって撮影された映像、及び3Dレンダリング部116によって生成された仮想映像を当該受信機でのディスプレイ方式に合わせてフォーマッティングして、ディスプレイ部122を介して3D映像が表示されるようにする。ここで、前記3Dレンダリング部116による仮想カメラ位置でのデプス情報及び仮想映像の合成、そして、フォーマッタ120による映像フォーマッティングが、ユーザの命令に応答して選択的に行われてもよい。すなわち、視聴者は、リモコン(図示せず)を操作して合成映像が表示されないようにしてもよく、映像合成が行われる時点を指定することもできる。
上記で説明したように、3D映像を生成するためにデプス情報は3Dレンダリング部116で利用されているが、他の実施例として、前記ビデオデコーダ110で利用されてもよい。以下では、前記ビデオデコーダ110でデプス情報を利用する様々な実施例を説明する。
図2は、本発明が適用される実施例であって、ビデオデコーダの概略的なブロック図を示す。
図2を参照すると、前記ビデオデコーダ110は、大きくエントロピーデコーディング部210、逆量子化部220、逆変換部230、デブロッキングフィルター部240、復号ピクチャバッファ部250、インター予測部260及びイントラ予測部270を含むことができる。ここで、実線はカラーピクチャデータの流れを意味し、点線はデプスピクチャデータの流れを意味する。このように、前記図2では、カラーピクチャデータとデプスピクチャデータを区分して表示したが、これは、別個のビットストリームを意味することができ、または1つのビットストリーム内でデータの流れのみを区分したものと見ることもできる。すなわち、前記カラーピクチャデータと前記デプスピクチャデータは、1つのビットストリーム、または別個のビットストリームとして伝送されてもよく、図2では、データの流れを示しているだけで、1つのデコーダ内で全て行われるものに限定されない。
まず、受信されたデプスビットストリーム200を復号するために、NAL単位でパージングを行う。このとき、NALヘッダー領域、NALヘッダーの拡張領域、シーケンスヘッダー領域(例えば、シーケンスパラメータセット)、シーケンスヘッダーの拡張領域、ピクチャヘッダー領域(例えば、ピクチャパラメータセット)、ピクチャヘッダーの拡張領域、スライスヘッダー領域、スライスヘッダーの拡張領域、スライスデータ領域、またはマクロブロック領域には、デプスに関連する種々の属性情報が含まれてもよい。デプスコーディングは、別個のコーデックが利用されてもよいが、既存のコーデックとの互換をなす場合であれば、デプスビットストリームである場合に限って、デプスに関連する種々の属性情報を追加することがより効率的であり得る。例えば、前記シーケンスヘッダー領域(例えば、シーケンスパラメータセット)またはシーケンスヘッダーの拡張領域でデプスビットストリームであるか否かを識別できるデプス識別情報を追加することができる。前記デプス識別情報に応じて、入力されたビットストリームがデプスコーディングされたビットストリームである場合に限って、デプスシーケンスに対する属性情報を追加することができる。
パージングされたデプスビットストリーム200は、エントロピーデコーディング部210を介してエントロピーデコーディングされ、各マクロブロックの係数、動きベクトルなどが抽出される。逆量子化部220では、受信され量子化された値に一定の定数を乗じることで変換された係数値を獲得し、逆変換部230では、前記係数値を逆変換してデプスピクチャのデプス情報を復元する。イントラ予測部270では、現在のデプスピクチャの復元されたデプス情報を用いて画面内予測を行う。一方、デブロッキングフィルター部240では、ブロック歪み現象を減少させるために、それぞれのコーディングされたマクロブロックにデブロッキングフィルタリングを適用する。フィルターは、ブロックの縁部を滑らかにすることで、デコーディングされたフレームの画質を向上させる。フィルタリング過程の選択は、境界の強さ(boundary strenth)及び境界の周囲のイメージサンプルの変化(gradient)によって左右される。フィルタリングを経たデプスピクチャは、出力されるか、または参照ピクチャとして利用するために復号ピクチャバッファ部250に格納される。
復号ピクチャバッファ部(Decoded Picture Buffer unit)250では、画面間予測を行うために以前にコーディングされたデプスピクチャを格納したり、開放したりする役割などを行う。このとき、復号ピクチャバッファ部250に格納したり開放したりするために、各ピクチャのframe_numとPOC(Picture Order Count)を用いることになる。したがって、デプスコーディングにおいて、前記以前にコーディングされたピクチャのうちには現在のデプスピクチャと異なる視点にあるデプスピクチャもあるので、このようなピクチャを参照ピクチャとして活用するためには、前記frame_numとPOCだけでなく、デプスピクチャの視点を識別するデプス視点情報も共に用いることができる。
また、前記復号ピクチャバッファ部250は、デプスピクチャの視点間予測のための参照ピクチャリストを生成するために、デプス視点に対する情報を用いることができる。例えば、デプス−ビュー参照情報(depth−view reference information)を用いることができる。デプス−ビュー参照情報とは、デプスピクチャの視点間依存関係を示すために用いられる情報のことをいう。例えば、全体デプス視点の数、デプス視点識別番号、デプス−ビュー参照ピクチャの数、デプス−ビュー参照ピクチャのデプス視点識別番号などがあり得る。
前記復号ピクチャバッファ部250は、より柔軟に画面間予測を実現するために参照ピクチャを管理する。例えば、適応メモリ管理方法(Memory Management Control Operation Method)及び移動ウィンドウ方法(Sliding Window Method)を用いることができる。これは、参照ピクチャと非参照ピクチャのメモリを1つのメモリに統一して管理し、少ないメモリで効率的に管理するためである。デプスコーディングにおいて、デプスピクチャは、復号ピクチャバッファ部内でカラーピクチャなどと区別するために別途の表示でマーキングされてもよく、前記マーキング過程で各デプスピクチャを識別させるための情報が用いられてもよい。このような過程を通じて管理される参照ピクチャは、インター予測部260においてデプスコーディングのために用いられてもよい。
図2を参照すると、インター予測部260は、動き補償部261、仮想視点合成部262及びデプスピクチャ予測部263を含むことができる。
動き補償部261では、エントロピーデコーディング部210から伝送された情報を用いて現在のブロックの動きを補償する。ビデオ信号から現在のブロックに隣接するブロックの動きベクトルを抽出し、前記現在のブロックの動きベクトル予測値を獲得する。前記動きベクトル予測値及び前記ビデオ信号から抽出される差分ベクトルを用いて、現在のブロックの動きを補償する。また、このような動き補償は、1つの参照ピクチャを用いて行われてもよく、複数のピクチャを用いて行われてもよい。デプスコーディングにおいて、現在のデプスピクチャが異なる視点にあるデプスピクチャを参照することになる場合、前記復号ピクチャバッファ部250に格納されているデプスピクチャの視点間予測のための参照ピクチャリストに対する情報を用いて、動き補償を行うことができる。また、そのデプスピクチャの視点を識別するデプス視点情報を用いて、動き補償を行ってもよい。
また、仮想視点合成部(Virtual View Synthesizing Unit)262は、現在のカラーピクチャの視点に隣接する視点のカラーピクチャを用いて仮想視点のカラーピクチャを合成する。互いに隣接する視点のカラーピクチャを用いるために又は所望の特定の視点のカラーピクチャを用いるために、前記カラーピクチャの視点を示す視点識別情報を用いることができる。前記仮想視点のカラーピクチャを生成する場合、前記仮想視点のカラーピクチャを生成するか否かを指示するフラグ情報を定義することができる。前記フラグ情報が前記仮想視点のカラーピクチャを生成することを指示する場合、前記視点識別情報を用いて仮想視点のカラーピクチャを生成することができる。前記仮想視点合成部262を介して獲得された仮想視点のカラーピクチャはレファレンスピクチャとして用いることができ、この場合、前記仮想視点のカラーピクチャにも前記視点識別情報を割り当てることができることは勿論である。
他の実施例として、前記仮想視点合成部262は、現在のデプスピクチャの視点に隣接する視点にあるデプスピクチャを用いて、仮想視点のデプスピクチャを合成することができる。同様に、デプスピクチャの視点を示すためにデプス視点識別情報を用いることができる。ここで、前記デプス視点識別情報は、対応するカラーピクチャの視点識別情報から誘導されてもよい。例えば、前記対応するカラーピクチャは、現在のデプスピクチャと同一のピクチャ出力順序情報及び同一の視点識別情報を有することができる。
デプスピクチャ予測部263は、デプスコーディング情報を用いて現在のデプスピクチャを生成することができる。ここで、前記デプスコーディング情報は、カメラと客体との間の距離を示す距離変数(例えば、カメラ座標系上のZ座標値など)、デプスコーディングのためのマクロブロックタイプ情報、デプスピクチャ内の境界線識別情報、RBSP内のデータがデプスコーディングされたデータを含んでいるか否かを示す情報、またはデータタイプがデプスピクチャデータであるか、カラーピクチャデータであるか、またはパララックスデータであるかを示す情報などを含むことができる。また、前記デプスコーディング情報を用いて現在のデプスピクチャを予測することもできる。すなわち、現在のデプスピクチャに隣接するデプスピクチャを用いたインター予測が可能であり、現在のデプスピクチャ内のデコーディングされたデプス情報を用いたイントラ予測が可能である。
本発明で使用されるユニットは、ビデオ信号に適用する際には、ブロック、サブブロック、マクロブロック、スライス、ピクチャ、フレーム、ピクチャグループ、シーケンスなどの意味を全て含むことができる。したがって、前記ユニットの意味は、それぞれの適用例に応じてそれに相応する意味として解釈しなければならない。また、ビデオ信号だけでなく他の信号などに適用するときには、その信号に適した他の意味として解釈してもよい。コーディングユニットは、ビデオ信号処理過程での基本単位を意味する。ビデオを処理する際にコーディングユニットの大きさは一定でなくてもよい。また、予測ユニットは、予測を行う基本単位である。予測ユニットは、正方形(2N×2N,N×N)、長方形(2N×N,N×2N)の大きさを有することができる。予測ユニットの大きさは、コーディングユニットと同一または小さくてもよい。コーディングユニットは複数の予測ユニットに分割されてもよい。そして、本発明において、現在のユニットは、現在のコーディングユニット及び現在の予測ユニットを含むものとして定義することができる。
以下では、並列処理情報を用いて現在のユニットのインタービュー動きベクトルを並列的に獲得し、インタービュー動きベクトルを用いて現在の予測ユニットの動きベクトルを獲得する方法について説明する。本発明における並列処理は、複数のユニットが同時にコーディングされることを示すことができる。
図3は、本発明が適用される一実施例であって、並列処理情報を用いて現在のユニットのインタービュー動きベクトルを獲得し、現在の予測ユニットの動きベクトルを獲得する方法に対するフローチャートを示したものである。
ビットストリームから並列処理情報を獲得することができる(S300)。並列処理情報は、並列処理を行うか否かを示し、並列処理ユニットの大きさに関する情報を含むことができる。ここで、並列処理ユニットは、並列処理が適用される基本単位を示すことができる。並列処理情報は、ピクチャ、フレーム、ピクチャグループまたはシーケンス単位で獲得することができる。
並列処理情報を用いて現在のユニットのインタービュー動きベクトルを獲得することができる(S310)。獲得された並列処理情報を通じて、現在の最上位コーディングユニットに対して並列処理が適用されるか否かを判断することができる。ここで、現在の最上位コーディングユニットは、現在のコーディングユニットが含まれたコーディングユニットであって、現在の最上位コーディングユニットの分割を通じて現在のコーディングユニットが獲得され得る。もし、並列処理が適用され、並列処理ユニットの大きさが決定されれば、現在の最上位コーディングユニット内の現在のコーディングユニットのインタービュー動きベクトルは、現在のコーディングユニットの隣接ブロックのインタービュー動きベクトルを用いて獲得することができる。現在のコーディングユニットの隣接ブロックは、現在のコーディングユニットが含まれた現在の並列処理ユニットに隣接する並列処理ユニットに含まれる。現在の並列処理ユニットに隣接する並列処理ユニットは、現在の並列処理ユニットの左側下段並列処理ユニット、左側並列処理ユニット、左側上段並列処理ユニット、上段並列処理ユニット及び右側上段並列処理ユニットのうちの少なくとも1つであってもよい。現在のコーディングユニットのインタービュー動きベクトルが獲得される例は、図4を参照して詳細に説明する。
現在のコーディングユニットは現在の予測ユニットを含むことができる、現在の予測ユニットのインタービュー動きベクトルは、前記獲得された現在のコーディングユニットのインタービュー動きベクトルを用いて獲得することができる。または、現在の予測ユニットのインタービュー動きベクトルは、現在の予測ユニットの隣接ブロックのインタービュー動きベクトルを用いて獲得されてもよい。
現在の予測ユニットの動きベクトルは、現在のコーディングユニットのインタービュー動きベクトルを用いて並列的に獲得することができる(S320)。ここで、現在の予測ユニットの動きベクトルは、現在の予測ユニットの隣接ブロックの動き情報を用いて獲得することができる。現在のコーディングユニット内の現在の予測ユニットが並列処理される一例については、図5乃至図7を参照して説明する。そして、現在の予測ユニットの動きベクトルが現在のコーディングユニットのインタービュー動きベクトルを用いて獲得される一例については、図8乃至図10を参照して説明する。
以下では、並列処理情報を用いて現在のコーディングユニットのインタービュー動きベクトルが獲得される一例について説明する。
図4は、本発明が適用される一実施例であって、並列処理情報を用いて現在のコーディングユニットのインタービュー動きベクトルが獲得される一例を示したものである。
S310で説明したように、並列処理が適用されるブロック内に現在のコーディングユニットが含まれる場合、現在のコーディングユニットのインタービュー動きベクトルは、隣接ブロックのインタービュー動きベクトルを用いて獲得することができる。
もし、図4のように、現在の最上位コーディングユニットの大きさが16N×16Nであり、現在のコーディングユニットの大きさが2N×2Nであり、並列処理が8N×8Nで適用される例を示す。現在のコーディングユニットのインタービュー動きベクトルは、同時に並列処理が行われるユニットではない隣接ユニットのインタービュー動きベクトルを用いて獲得することができる。例えば、現在のコーディングユニットの左側上段ブロック400、左側ブロック410及び左側下段ブロック420のインタービュー動きベクトルを用いて現在のコーディングユニットのインタービュー動きベクトルが獲得されてもよい。または、隣接ブロックの一部である左側ブロック410のインタービュー動きベクトルのみを用いて獲得されてもよい。現在のコーディングユニットの隣接ブロックが、インタービュー動きベクトルを用いてコーディングされた視点間インター予測ブロックであるか、または参照ビュー時間的インター予測ブロックである場合、現在のコーディングユニットの隣接ブロックに対応するインタービュー動きベクトルを用いて、現在のコーディングユニットのインタービュー動きベクトルが獲得されてもよい。
一方、現在のコーディングユニットの上段ブロック430及び右側上段ブロック440は、現在のコーディングユニットの隣接ブロックであるが、同時に並列処理されるユニットに含まれる。したがって、現在のコーディングユニットのインタービュー動きベクトル獲得過程に利用されない。
上述した方法を用いて、現在の最上位コーディングユニット内に含まれた全てのコーディングユニットのインタービュー動きベクトルを獲得することができる。
以下では、現在のコーディングユニット内の現在の予測ユニットが並列処理される一例について説明する。
図5は、本発明が適用される一実施例であって、現在のコーディングユニット内の現在の予測ユニットがN×Nの単位で並列処理される場合の一例を示したものである。
現在のコーディングユニットが2N×2Nであり、現在のコーディングユニット内の現在の予測ユニットはN×Nの大きさを有する場合、現在のコーディングユニットは4つの現在の予測ユニットを含み、4つの現在の予測ユニットの動きベクトル予測値は、それぞれの隣接ブロックの動きベクトルを用いて同時に獲得することができる。
図5を参照すると、現在のコーディングユニットは、第1予測ユニット、第2予測ユニット、第3予測ユニット及び第4予測ユニットを含む。そして、それぞれの現在の予測ユニットの周辺には隣接ブロックがある。
第1予測ユニットは、隣接する、第1予測ユニットの左側上段ブロック500、上段ブロック501、右側上段ブロック502、左側ブロック505及び左側下段ブロック510の動きベクトルを用いて、動きベクトル予測値が獲得され得る。
第2予測ユニットは、隣接する、第2予測ユニットの左側上段ブロック501、上段ブロック503、右側上段ブロック504の動きベクトルを用いて、動きベクトル予測値が獲得され得る。第2予測ユニットの左側ブロック506及び左側下段ブロック511は現在のコーディングユニット内のブロックであって、第2予測ユニットの左側ブロック506及び左側下段ブロック511の動きベクトルは並列処理過程で用いられなくてもよい。
第3予測ユニットは、隣接する、第3予測ユニットの左側上段ブロック505、左側ブロック512及び左側下段ブロック514の動きベクトルを用いて、動きベクトル予測値が獲得され得る。第3予測ユニットの上段ブロック506及び右側上段ブロック507は現在のコーディングユニット内のブロックであって、第3予測ユニットの上段ブロック506及び右側上段ブロック507の動きベクトルは並列処理過程で用いられなくてもよい。
第4予測ユニットは、隣接する、第4予測ユニットの右側上段ブロック509及び左側下段ブロック515の動きベクトルを用いて、動きベクトル予測値が獲得され得る。第4予測ユニットの左側上段ブロック506、上段ブロック508及び左側ブロック513は現在のコーディングユニット内のブロックであって、第4予測ユニットの左側上段ブロック506、上段ブロック508及び左側ブロック513の動きベクトルは並列処理過程で用いられなくてもよい。
図6は、本発明が適用される一実施例であって、現在のコーディングユニット内の現在の予測ユニットがN×2Nの単位で並列処理される場合の一例を示したものである。
現在のコーディングユニットが2N×2Nであり、現在のコーディングユニット内の現在の予測ユニットがN×2Nの大きさを有する場合、現在のコーディングユニットは2つの現在の予測ユニットを含み、2つの現在の予測ユニットの動きベクトル予測値は、それぞれの隣接ブロックの動きベクトルを用いて同時に獲得することができる。
図6を参照すると、現在のコーディングユニットは、第5予測ユニット及び第6予測ユニットを含む。そして、それぞれの現在の予測ユニットの周辺には隣接ブロックがある。
第5予測ユニットは、隣接する、第5予測ユニットの左側上段ブロック600、上段ブロック601、右側上段ブロック602、左側ブロック605及び左側下段ブロック610の動きベクトルを用いて、動きベクトル予測値が獲得され得る。
第6予測ユニットは、隣接する、第6予測ユニットの左側上段ブロック601、上段ブロック603、右側上段ブロック604及び左側下段ブロック615の動きベクトルを用いて、動きベクトル予測値が獲得され得る。第6予測ユニットブロックの左側ブロック613は現在のコーディングユニット内のブロックであって、第6予測ユニットの左側ブロック613の動きベクトルは並列処理過程で用いられなくてもよい。
図7は、本発明が適用される一実施例であって、現在のコーディングユニット内の現在の予測ユニットが2N×Nの単位で並列処理される場合の一例を示したものである。
現在のコーディングユニットが2N×2Nであり、現在のコーディングユニット内の現在のコーディングユニットが2N×Nの大きさを有する場合、現在のコーディングユニットは2つの現在の予測ユニットを含み、2つの現在の予測ユニットの動きベクトル予測値は、それぞれの隣接ブロックの動きベクトルを用いて同時に獲得することができる。
図7を参照すると、現在のコーディングユニットは、第7予測ユニット及び第8予測ユニットを含む。そして、それぞれの現在の予測ユニットの周辺には隣接ブロックがある。
第7予測ユニットは、隣接する、第7予測ユニットの左側上段ブロック700、上段ブロック703、右側上段ブロック704、左側ブロック705及び左側下段ブロック710の動きベクトルを用いて、動きベクトル予測値が獲得され得る。
第8予測ユニットは、隣接する、第8予測ユニットの左側上段ブロック705、右側上段ブロック709、左側ブロック712及び左側下段ブロック714の動きベクトルを用いて、動きベクトル予測値が獲得され得る。第8予測ユニットブロックの上段ブロック708は現在のコーディングユニット内のブロックであって、第8予測ユニットの上段ブロック708の動きベクトルは並列処理過程で用いられなくてもよい。
以下では、ステップS310で獲得されたインタービュー動きベクトルを用いて現在の予測ユニットの動きベクトルを獲得する方法について詳細に説明する。
図8は、本発明が適用される一実施例であって、出力順序及び対応ブロックの参照ピクチャに対応する動きベクトルを用いて現在の予測ユニットの動きベクトルを獲得する方法について説明する。
現在の予測ユニットに対応する参照ピクチャの出力順序情報を獲得することができる(S800)。出力順序情報は、ピクチャの出力順序に関する情報を含むことができる。そして、出力順序(Picture order count、POC)は、ビデオが出力されるときにピクチャが出力される順序を意味する。現在の予測ユニットは、時間インター予測でコーディングされた場合、現在の予測ユニットに対応する参照ピクチャは、現在の予測ユニットを含む現在のピクチャと同一視点、異なる時間に位置することができる。したがって、同一視点内のピクチャは、同じ出力順序を有することができない。現在の予測ユニットが含まれるピクチャの出力順序は、POC0と仮定することができる。そして、現在の予測ユニットに対応する参照ピクチャの出力順序はPOC1と仮定することができる。
インタービュー動きベクトルを用いて、対応ブロックに対応する参照ピクチャの出力順序情報及び対応ブロックの参照ピクチャに対応する動きベクトルを獲得することができる(S810)。S310で獲得された現在のコーディングユニットのインタービュー動きベクトルを用いて現在の予測ユニットのインタービュー動きベクトルを獲得することができる。インタービュー動きベクトルを用いて現在の予測ユニットの対応ブロックを獲得することができる。したがって、対応ブロックは、現在の予測ユニットと異なる視点、同一時間に位置することができる。
対応ブロックに対応する参照ピクチャの出力順序情報及び対応ブロックの参照ピクチャに対応する動きベクトルを獲得することができる。インタービュー動きベクトルを用いて探索された対応ブロックは、複数の参照ピクチャを用いた時間インター予測でコーディングすることができる。対応ブロックに対応するLO方向参照ピクチャの出力順序をPOC2LO、対応ブロックに対応するL1方向参照ピクチャの出力順序をPOC2L1と仮定することができる。そして、対応ブロックのLO方向参照ピクチャに対応する動きベクトルをmv2L0、対応ブロックのL1方向参照ピクチャに対応する動きベクトルをmv2L1と仮定することができる。
現在の予測ユニットに対応する参照ピクチャの出力順序情報と、対応ブロックに対応する参照ピクチャの出力順序情報とを比較して、現在の予測ユニットの動きベクトル予測値を獲得することができる(S820)。現在の予測ユニットに対応する参照ピクチャがLO方向であれば、L0方向参照ピクチャの出力順序情報を先に比較し、現在の予測ユニットに対応する参照ピクチャがL1方向であれば、L1方向参照ピクチャの出力順序情報を先に比較することができる。現在の予測ユニットに対応する参照ピクチャの出力順序POC1と、対応ブロックに対応する参照ピクチャの出力順序POC2L0,POC2L1とを比較すると、対応ブロックに対応する参照ピクチャの出力順序が、現在の予測ユニットに対応する参照ピクチャの出力順序と同一または異なる場合がある。比較結果に基づいて、対応ブロックに対応する参照ピクチャの動きベクトルを用いて現在の予測ユニットの動きベクトルを獲得することができる。対応ブロックに対応する参照ピクチャの出力順序が現在の予測ユニットに対応する参照ピクチャの出力順序と同一である場合における現在の予測ユニットの動きベクトル予測値を獲得する方法は、図9を用いて説明する。反対に、対応ブロックに対応する参照ピクチャの出力順序が現在の予測ユニットに対応する参照ピクチャの出力順序と異なる場合における現在の予測ユニットの動きベクトル予測値を獲得する方法は、図10を用いて説明する。
動きベクトル予測値を用いて現在の予測ユニットの動きベクトルを獲得することができる(S830)。動きベクトル予測値は、現在の予測ユニットの隣接ブロックの動きベクトルを用いて獲得することができる。隣接ブロックの動きベクトルのうちの1つが、隣接ブロックの動きベクトル予測値として獲得されてもよい。または、隣接ブロックの動きベクトルの平均値が隣接ブロックの動きベクトル予測値として獲得されてもよい。
そして、動きベクトル予測値を用いて現在の予測ユニットの動きベクトルを獲得することができる。動きベクトル予測値は、直ちに現在の予測ユニットの動きベクトルとして用いることができる。または、動きベクトル予測値は、現在の予測ユニットの動きベクトルリストに含まれてもよい。動きベクトルリスト内の優先順位または現在の予測ユニットの動きベクトルインデックスを用いて、現在の予測ユニットの動きベクトルを獲得することができる。
図9は、本発明が適用される一実施例であって、対応ブロックに対応する参照ピクチャの出力順序情報が、現在の予測ユニットに対応する参照ピクチャの出力順序情報と同一である場合における現在の予測ユニットの動きベクトル予測値を獲得する方法の一例を示したものである。
対応ブロックに対応する参照ピクチャの出力順序情報が現在の予測ユニットに対応する参照ピクチャの出力順序情報と同一である場合、現在の予測ユニットは、現在の予測ユニットに対応する参照ピクチャの出力順序と同じ出力順序を有する対応ブロックの参照ピクチャに対応する動きベクトルが動きベクトル予測値として獲得され得る。
図9を参照すると、現在の予測ユニットの参照ピクチャ910は、現在の予測ユニットと同一視点、異なる時間に位置している。そして、現在の予測ユニットは、隣接ブロックからインタービュー動きベクトル900が獲得され得る。現在の予測ユニットのインタービュー動きベクトル900は対応ブロックを示し、対応ブロックの参照ピクチャ920,930は、対応ブロックと同一視点、異なる時間に位置している。
現在の予測ユニットに対応する参照ピクチャ910の出力順序POC1及び対応ブロックに対応するL0方向参照ピクチャ920の出力順序POC2L0は、出力順序が1であって、同じ出力順序を有する。したがって、現在の予測ユニットの動きベクトル予測値は、対応ブロックのL0方向参照ピクチャ920に対応する動きベクトルmv2L0として決定され得る。
図10は、本発明が適用される一実施例であって、対応ブロックに対応する参照ピクチャの出力順序情報が現在の予測ユニットに対応する参照ピクチャの出力順序情報と異なる場合における現在の予測ユニットの動きベクトル予測値を獲得する方法の一例を示したものである。
対応ブロックに対応する参照ピクチャの出力順序情報が現在の予測ユニットに対応する参照ピクチャの出力順序情報と異なる場合、現在の予測ユニットは、対応ブロックの参照ピクチャに対応する動きベクトルをスケーリングして動きベクトル予測値が獲得され得る。
図10を参照すると、現在の予測ユニットの参照ピクチャ1010は、現在の予測ユニットと同一視点、異なる時間に位置している。そして、現在の予測ユニットは、隣接ブロックからインタービュー動きベクトル1000が獲得され得る。現在の予測ユニットのインタービュー動きベクトル1000は対応ブロックを示し、対応ブロックの参照ピクチャ1020,1030は、対応ブロックと同一視点、異なる時間に位置している。
現在の予測ユニットに対応する参照ピクチャ1010の出力順序POC1は2であるが、対応ブロックに対応するLO方向参照ピクチャ1020の出力順序POC2L0は1であり、対応ブロックに対応するL1方向参照ピクチャ1030の出力順序POC2L1は4である。各参照ピクチャの出力順序が異なるので、現在の予測ユニットは、対応ブロックの参照ピクチャに対応する動きベクトルであるmv2L0,mv2L1を数式1によってスケーリングして、動きベクトル予測値mv1が獲得され得る。
Figure 2015536109
数式1において、Xは、対応ブロックに対応する参照ピクチャの方向に応じて、LO方向であると0、L1方向であると1であってもよい。
以下では、現在の予測ユニットのインタービュー動きベクトルの獲得方法によって現在の予測ユニットの動きベクトル予測値を獲得する方法の一例を説明する。
対応ブロックを示すインタービュー動きベクトルが獲得された隣接ブロックのインター予測の種類に応じて、現在の予測ユニットの動きベクトル予測値の獲得方法に差があり得る。図8のステップS810で説明したように、現在の予測ユニットのインタービュー動きベクトルは、インタービューインター予測でコーディングされた隣接ブロック、または参照ビュー時間インター予測でコーディングされた隣接ブロックから獲得することができる。インタービューインター予測でコーディングされた隣接ブロックは、参照ビュー時間インター予測でコーディングされた隣接ブロックよりも高い正確度のインタービュー動きベクトルを提供することができる。
したがって、現在の予測ユニットのインタービュー動きベクトルが、インタービューインター予測でコーディングされた隣接ブロックから獲得された場合、対応ブロックに対応する参照ピクチャの出力順序が現在の予測ユニットに対応する参照ピクチャの出力順序と同一であるときは、図9で説明した方法を用いて現在の予測ユニットの動きベクトル予測値を獲得し、対応ブロックに対応する参照ピクチャの出力順序が現在の予測ユニットに対応する参照ピクチャの出力順序と異なるときは、図10で説明した方法を用いて現在の予測ユニットの動きベクトル予測値を獲得することができる。
しかし、現在の予測ユニットのインタービュー動きベクトルが、参照ビュー時間インター予測でコーディングされた隣接ブロックから獲得された場合、対応ブロックに対応する参照ピクチャの出力順序が現在の予測ユニットに対応する参照ピクチャの出力順序と同一であるときは、図9で説明した方法を用いて現在の予測ユニットの動きベクトル予測値を獲得し、対応ブロックに対応する参照ピクチャの出力順序が現在の予測ユニットに対応する参照ピクチャの出力順序と異なるときは、図10で説明した方法を用いなくてもよい。
以下では、現在の予測ユニットの動きベクトル予測値リストに、図9及び図10で説明した方法により獲得された動きベクトル予測値を追加する順序について説明する。
図9の方法により獲得された動きベクトル予測値、及び図10の方法により獲得された動きベクトル予測値は、現在の予測ユニットの動きベクトル予測値リストに異なる順序で追加されてもよい。現在の予測ユニットに対応する参照ピクチャの出力順序と、対応ブロックに対応する参照ピクチャの出力順序とが同じときに獲得された動きベクトル予測値は、現在の予測ユニットに対応する参照ピクチャの出力順序と、対応ブロックに対応する参照ピクチャの出力順序とが異なるときに獲得された動きベクトル予測値よりも優先順位で動きベクトル予測値リストに追加されてもよい。例えば、現在の予測ユニットの動きベクトル予測値のうち、図9の方法により獲得された動きベクトル予測値が存在する場合、動きベクトル予測値は、動きベクトル予測値リストの3番目の順序に追加されてもよい。そして、現在の予測ユニットの動きベクトル予測値のうち、図10の方法により獲得された動きベクトル予測値が存在する場合、動きベクトル予測値は、動きベクトル予測値リストの5番目の順序に追加されてもよい。
以上で説明したように、本発明が適用されるデコーディング/エンコーディング装置は、DMB(Digital Multimedia Broadcasting)のようなマルチメディア放送/受信装置に備えられ、ビデオ信号及びデータ信号などをデコーディングするのに利用することができる。また、前記マルチメディア放送/受信装置は移動通信端末機を含むことができる。
また、本発明が適用されるデコーディング/エンコーディング方法は、コンピュータで実行されるためのプログラムとして製作され、コンピュータ可読記録媒体に格納することができ、本発明に係るデータ構造を有するマルチメディアデータも、コンピュータ可読記録媒体に格納することができる。コンピュータ可読記録媒体は、コンピュータシステムにより読み取られるデータが格納される全ての種類の格納装置を含む。コンピュータ可読記録媒体の例としては、ROM、RAM、CD−ROM、磁気テープ、フロッピーディスク、光データ格納装置などがあり、なお、搬送波(例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、前記エンコーティング方法により生成されたビットストリームは、コンピュータ可読記録媒体に格納されるか、または有/無線通信網を用いて伝送されてもよい。
本発明は、ビデオ信号をコーディングするのに利用することができる。

Claims (18)

  1. 現在のコーディングユニットに対応する隣接ブロックのインタービュー動きベクトルを用いて、現在の並列処理ユニット内の前記現在のコーディングユニットのインタービュー動きベクトルを獲得するステップと、
    前記現在のコーディングユニットのインタービュー動きベクトルを用いて少なくとも1つの現在の予測ユニットの動きベクトルを並列的に獲得するステップとを含み、
    前記現在の並列処理ユニットの大きさは、並列処理情報を用いて決定され、
    前記現在のコーディングユニットに対応する隣接ブロックは、前記現在の並列処理ユニットに隣接する並列処理ユニットに含まれ、
    前記現在のコーディングユニットは、前記少なくとも1つの現在の予測ユニットを含む、ビデオ信号処理方法。
  2. 前記現在の並列処理ユニットに隣接する並列処理ユニットは、前記現在の並列処理ユニットの左側下段並列処理ユニット、左側並列処理ユニット、左側上段並列処理ユニット、上段並列処理ユニット及び右側上段並列処理ユニットのうちの少なくとも1つである、請求項1に記載のビデオ信号処理方法。
  3. 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×Nで並列処理される場合、前記現在の予測ユニットは、第1予測ユニット、第2予測ユニット、第3予測ユニット及び第4予測ユニットを含み、
    前記第1予測ユニットの動きベクトル予測値は、前記第1予測ユニットの左側上段ブロック、前記第1予測ユニットの上段ブロック、前記第1予測ユニットの右側上段ブロック、前記第1予測ユニットの左側ブロック、前記第1予測ユニットの左側下段ブロックの動き情報を用いて獲得され、
    前記第2予測ユニットの動きベクトル予測値は、前記第2予測ユニットの左側上段ブロック、前記第2予測ユニットの上段ブロック及び前記第2予測ユニットの右側上段ブロックの動き情報を用いて獲得され、
    前記第3予測ユニットの動きベクトル予測値は、前記第3予測ユニットの左側上段ブロック、前記第3予測ユニットの左側ブロック及び前記第3予測ユニットの左側下段ブロックの動き情報を用いて獲得され、
    前記第4予測ユニットの動きベクトル予測値は、前記第4予測ユニットの右側上段ブロック及び前記第4予測ユニットの左側下段ブロックの動き情報を用いて獲得される、請求項1に記載のビデオ信号処理方法。
  4. 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×2Nで並列処理される場合、前記現在の予測ユニットは、第5予測ユニット及び第6予測ユニットを含み、
    前記第5予測ユニットの動きベクトル予測値は、前記第5予測ユニットの左側上段ブロック、前記第5予測ユニットの上段ブロック、前記第5予測ユニットの右側上段ブロック、前記第5予測ユニットの左側ブロック及び前記第5予測ユニットの左側下段ブロックの動き情報を用いて獲得され、
    前記第6予測ユニットの動きベクトル予測値は、前記第6予測ユニットの左側上段ブロック、前記第6予測ユニットの上段ブロック、前記第6予測ユニットの右側上段ブロック、前記第6予測ユニットの左側下段ブロックの動き情報を用いて獲得される、請求項1に記載のビデオ信号処理方法。
  5. 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットが2N×Nで並列処理される場合、前記現在の予測ユニットは、第7予測ユニット及び第8予測ユニットを含み、
    前記第7予測ユニットの動きベクトル予測値は、前記第7予測ユニットの左側上段ブロック、前記第7予測ユニットの上段ブロック、前記第7予測ユニットの右側上段ブロック、前記第7予測ユニットの左側ブロック及び前記第7予測ユニットの左側下段ブロックの動き情報を用いて獲得され、
    前記第8予測ユニットの動きベクトル予測値は、前記第8予測ユニットの左側上段ブロック、前記第8予測ユニットの右側上段ブロック、前記第8予測ユニットの左側ブロック、前記第8予測ユニットの左側下段ブロックの動き情報を用いて獲得される、請求項1に記載のビデオ信号処理方法。
  6. 前記現在の予測ユニットの動きベクトルを並列的に獲得するステップは、
    前記現在の予測ユニットに対応する参照ピクチャの出力順序情報を獲得するステップと、
    前記インタービュー動きベクトルを用いて対応ブロックに対応する参照ピクチャの出力順序情報を獲得するステップと、
    前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とを比較するステップと、
    前記比較するステップに基づいて、前記現在の予測ユニットの動きベクトル予測値を獲得するステップとを含み、
    前記現在の予測ユニットに対応する参照ピクチャは、前記現在の予測ユニットと同一視点、異なる時間にあり、前記対応ブロックは、前記現在の予測ユニットと異なる視点、同一時間にあり、前記対応ブロックに対応する参照ピクチャは、前記対応ブロックと同一視点、異なる時間にある、請求項1に記載のビデオ信号処理方法。
  7. 前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項6に記載のビデオ信号処理方法。
  8. 前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、前記隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが異なる場合、前記対応ブロックに対応する参照ピクチャの出力順序情報、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報及び前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項6に記載のビデオ信号処理方法。
  9. 前記現在の予測ユニットの動きベクトル予測値を獲得するステップにおいて、前記隣接ブロックが参照ビュー時間インター予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項6に記載のビデオ信号処理方法。
  10. 現在のコーディングユニットに対応する隣接ブロックのインタービュー動きベクトルを用いて、現在の並列処理ユニット内の前記現在のコーディングユニットのインタービュー動きベクトルを獲得し、前記現在のコーディングユニットのインタービュー動きベクトルを用いて少なくとも1つの現在の予測ユニットの動きベクトルを並列的に獲得するインター予測部を含み、前記現在の並列処理ユニットの大きさは並列処理情報を用いて決定され、前記現在のコーディングユニットに対応する隣接ブロックは、前記現在の並列処理ユニットに隣接する並列処理ユニットに含まれ、前記現在のコーディングユニットは、前記少なくとも1つの現在の予測ユニットを含む、ビデオデコーダ。
  11. 前記現在の並列処理ユニットに隣接する並列処理ユニットは、前記現在の並列処理ユニットの左側下段並列処理ユニット、左側並列処理ユニット、左側上段並列処理ユニット、上段並列処理ユニット及び右側上段並列処理ユニットのうちの少なくとも1つである、請求項10に記載のビデオデコーダ。
  12. 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×Nで並列処理される場合、前記現在の予測ユニットは、第1予測ユニット、第2予測ユニット、第3予測ユニット及び第4予測ユニットを含み、
    前記インター予測部は、前記第1予測ユニットの動きベクトル予測値を、前記第1予測ユニットの左側上段ブロック、前記第1予測ユニットの上段ブロック、前記第1予測ユニットの右側上段ブロック、前記第1予測ユニットの左側ブロック、前記第1予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記第2予測ユニットの動きベクトル予測値を、前記第2予測ユニットの左側上段ブロック、前記第2予測ユニットの上段ブロック及び前記第2予測ユニットの右側上段ブロックの動き情報を用いて獲得し、前記第3予測ユニットの動きベクトル予測値を、前記第3予測ユニットの左側上段ブロック、前記第3予測ユニットの左側ブロック及び前記第3予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記第4予測ユニットの動きベクトル予測値を、前記第4予測ユニットの右側上段ブロック及び前記第4予測ユニットの左側下段ブロックの動き情報を用いて獲得する、請求項10に記載のビデオデコーダ。
  13. 前記インター予測部は、前記第5予測ユニットの動きベクトル予測値を、前記第5予測ユニットの左側上段ブロック、前記第5予測ユニットの上段ブロック、前記第5予測ユニットの右側上段ブロック、前記第5予測ユニットの左側ブロック及び前記第5予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記第6予測ユニットの動きベクトル予測値を、前記第6予測ユニットの左側上段ブロック、前記第6予測ユニットの上段ブロック、前記第6予測ユニットの右側上段ブロック、前記第6予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットがN×2Nで並列処理される場合、前記現在の予測ユニットは第5予測ユニット及び第6予測ユニットを含む、請求項10に記載のビデオデコーダ。
  14. 前記現在のコーディングユニットが2N×2Nであり、前記現在の予測ユニットが2N×Nで並列処理される場合、前記現在の予測ユニットは、第7予測ユニット及び第8予測ユニットを含み、
    前記インター予測部は、前記第7予測ユニットの動きベクトル予測値を、前記第7予測ユニットの左側上段ブロック、前記第7予測ユニットの上段ブロック、前記第7予測ユニットの右側上段ブロック、前記第7予測ユニットの左側ブロック及び前記第7予測ユニットの左側下段ブロックの動き情報を用いて獲得し、前記第8予測ユニットの動きベクトル予測値を、前記第8予測ユニットの左側上段ブロック、前記第8予測ユニットの右側上段ブロック、前記第8予測ユニットの左側ブロック、前記第8予測ユニットの左側下段ブロックの動き情報を用いて獲得する、請求項10に記載のビデオデコーダ。
  15. 前記インター予測部は、前記現在の予測ユニットの動きベクトルを並列的に獲得し、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報を獲得し、前記インタービュー動きベクトルを用いて対応ブロックに対応する参照ピクチャの出力順序情報を獲得し、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とを比較し、前記比較するステップに基づいて前記現在の予測ユニットの動きベクトル予測値を獲得し、
    前記現在の予測ユニットに対応する参照ピクチャは、前記現在の予測ユニットと同一視点、異なる時間にあり、前記対応ブロックは、前記現在の予測ユニットと異なる視点、同一時間にあり、前記対応ブロックに対応する参照ピクチャは、前記対応ブロックと同一視点、異なる時間にある、請求項10に記載のビデオデコーダ。
  16. 前記インター予測部は、前記隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動き情報を用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項15に記載のビデオデコーダ。
  17. 前記インター予測部は、前記隣接ブロックがインタービュー予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが異なる場合、前記対応ブロックに対応する参照ピクチャの出力順序情報、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報及び前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項15に記載のビデオデコーダ。
  18. 前記インター予測部は、前記隣接ブロックが参照ビュー時間インター予測ブロックであり、前記対応ブロックに対応する参照ピクチャの出力順序情報と、前記現在の予測ユニットに対応する参照ピクチャの出力順序情報とが同一である場合、前記対応ブロックの参照ピクチャに対応する動きベクトルを用いて、前記現在の予測ユニットの動きベクトル予測値を獲得する、請求項15に記載のビデオデコーダ。
JP2015535562A 2012-10-07 2013-10-04 ビデオ信号処理方法及び装置 Active JP6594773B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261710759P 2012-10-07 2012-10-07
US61/710,759 2012-10-07
PCT/KR2013/008864 WO2014054896A1 (ko) 2012-10-07 2013-10-04 비디오 신호 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2015536109A true JP2015536109A (ja) 2015-12-17
JP6594773B2 JP6594773B2 (ja) 2019-10-23

Family

ID=50435185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015535562A Active JP6594773B2 (ja) 2012-10-07 2013-10-04 ビデオ信号処理方法及び装置

Country Status (8)

Country Link
US (1) US10171836B2 (ja)
EP (1) EP2905964B1 (ja)
JP (1) JP6594773B2 (ja)
KR (1) KR102248074B1 (ja)
CN (1) CN104782127B (ja)
CA (1) CA2887120C (ja)
ES (1) ES2775202T3 (ja)
WO (1) WO2014054896A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10757437B2 (en) 2014-07-17 2020-08-25 Apple Inc. Motion estimation in block processing pipelines
US9762919B2 (en) 2014-08-28 2017-09-12 Apple Inc. Chroma cache architecture in block processing pipelines
JP6937302B2 (ja) 2015-11-23 2021-09-29 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュートElectronics And Telecommunications Research Institute 多視点ビデオの符号化/復号化方法
KR102601689B1 (ko) 2018-10-12 2023-11-15 삼성디스플레이 주식회사 전자 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191298A (ja) * 2011-03-09 2012-10-04 Fujitsu Ltd 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
WO2013159038A1 (en) * 2012-04-20 2013-10-24 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100846780B1 (ko) 2003-11-10 2008-07-16 삼성전자주식회사 움직임 벡터 추정 방법 및 장치
JP4898415B2 (ja) 2006-12-19 2012-03-14 キヤノン株式会社 動画像符号化装置及び動画像符号化方法
KR20080060188A (ko) 2006-12-26 2008-07-01 엘지전자 주식회사 비디오 신호 디코딩 방법 및 장치
WO2008108566A1 (en) 2007-03-02 2008-09-12 Lg Electronics Inc. A method and an apparatus for decoding/encoding a video signal
US20100166073A1 (en) * 2008-12-31 2010-07-01 Advanced Micro Devices, Inc. Multiple-Candidate Motion Estimation With Advanced Spatial Filtering of Differential Motion Vectors
KR20120118780A (ko) * 2011-04-19 2012-10-29 삼성전자주식회사 다시점 비디오의 움직임 벡터 부호화 방법 및 장치, 그 복호화 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012191298A (ja) * 2011-03-09 2012-10-04 Fujitsu Ltd 動画像復号装置、動画像符号化装置、動画像復号方法、動画像符号化方法、動画像復号プログラム及び動画像符号化プログラム
WO2013159038A1 (en) * 2012-04-20 2013-10-24 Qualcomm Incorporated Disparity vector generation for inter-view prediction for video coding

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
JAEWON SUNG (外2名): "3D-CE5.h: Simplification of disparity vector derivation for HEVC-based 3D video coding", JOINT COLLABORATIVE TEAM ON 3D VIDEO CODING EXTENSION DEVELOPMENT OF ITU-T SG 16 WP 3 AND ISO/IEC JT, JPN6016017154, 20 July 2012 (2012-07-20), US, pages 1 - 4, ISSN: 0003313638 *
MINHUA ZHOU: "Parallelized merge/skip mode for HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6016017157, 22 July 2011 (2011-07-22), US, pages 1 - 13, ISSN: 0003313639 *
YING CHEN (外2名): "AHG10: Hooks related to motion for the 3DV extension of HEVC", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6017036224, 20 July 2012 (2012-07-20), US, pages 1 - 20, ISSN: 0003646801 *
YONGJOON JEON(外5名): "Parallel Merge Candidate Derivation for Inter_NxN partition type", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6016017163, 10 February 2012 (2012-02-10), US, pages 1 - 4, ISSN: 0003313641 *
YUNFEI ZHENG (外3名): "Non-CE9: Simplified Merge candidate derivation", JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC) OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 JCTVC, JPN6016017160, 30 November 2011 (2011-11-30), US, pages 1 - 5, ISSN: 0003313640 *

Also Published As

Publication number Publication date
US10171836B2 (en) 2019-01-01
ES2775202T3 (es) 2020-07-24
KR20150090053A (ko) 2015-08-05
KR102248074B1 (ko) 2021-05-04
EP2905964A4 (en) 2016-03-16
EP2905964B1 (en) 2020-01-22
WO2014054896A1 (ko) 2014-04-10
EP2905964A1 (en) 2015-08-12
JP6594773B2 (ja) 2019-10-23
CN104782127A (zh) 2015-07-15
US20150281734A1 (en) 2015-10-01
CA2887120C (en) 2017-08-22
CN104782127B (zh) 2021-05-28
CA2887120A1 (en) 2014-04-10

Similar Documents

Publication Publication Date Title
JP6594773B2 (ja) ビデオ信号処理方法及び装置
JP6114404B2 (ja) ビデオ信号処理方法及び装置
US9955166B2 (en) Method and device for processing video signal
US20160165259A1 (en) Method and apparatus for processing video signal
US9998762B2 (en) Method and apparatus for processing video signals
US9781442B2 (en) Method and apparatus for processing video signal
KR101753592B1 (ko) 비디오 신호 처리 방법 및 장치
KR20150095679A (ko) 비디오 신호 처리 방법 및 장치
US10129560B2 (en) Method and apparatus for processing video signal
JP2016519519A (ja) ビデオ信号処理方法及び装置
JP6196372B2 (ja) ビデオ信号処理方法及び装置
US20160050438A1 (en) Video signal processing method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180116

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180124

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20180330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190925

R150 Certificate of patent or registration of utility model

Ref document number: 6594773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250