JP5872676B2 - 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置 - Google Patents

3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置 Download PDF

Info

Publication number
JP5872676B2
JP5872676B2 JP2014505504A JP2014505504A JP5872676B2 JP 5872676 B2 JP5872676 B2 JP 5872676B2 JP 2014505504 A JP2014505504 A JP 2014505504A JP 2014505504 A JP2014505504 A JP 2014505504A JP 5872676 B2 JP5872676 B2 JP 5872676B2
Authority
JP
Japan
Prior art keywords
texture image
texture
block
depth
depth map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014505504A
Other languages
English (en)
Other versions
JP2014517563A (ja
Inventor
チャン,ユ−リン
シアン,シー−タ
ウ,チ−リン
フ,チー−ミン
チェン,チア−ピン
ツァイ,ユ−パオ
ホァン,ユ−ウェン
レイ,シャウ−ミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MediaTek Inc
Original Assignee
MediaTek Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MediaTek Inc filed Critical MediaTek Inc
Publication of JP2014517563A publication Critical patent/JP2014517563A/ja
Application granted granted Critical
Publication of JP5872676B2 publication Critical patent/JP5872676B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、ビデオコーディングに関する。特定的には、本発明は、3Dビデオコーディングにおけるテクスチャーイメージ圧縮に関する。
本発明は以下に対しての優先権を主張する。米国仮特許出願第61/497441号、2011年6月15日出願、タイトル「Method of compressing texture images using depth maps in 3D video coding」。この米国仮特許出願は、その全てがここにおいて参照として包含される。
3次元(3D)テレビは、近年におけるテクノロジートレンドとなっており、視聴者に対してセンセーショナルな視聴経験をもたらすことを目的としている。3D鑑賞を可能にするための種々のテクノロジーが開発されてきている。その中でも、マルチビュービデオ(multi−view video)は、3DTVのアプリケーションにとってのキーとなる技術である。従来のビデオは2次元(2D)の媒体であり、視聴者に対してカメラ視点からシーン(scene)の単一ビュー(view)を提供するだけである。しかしながら、マルチビュービデオは、ダイナミックなシーンについて任意の視点を与えることが可能であり、視聴者にリアリズムのセンセーションを提供する。
マルチビュービデオは、典型的には、複数のカメラを同時に使用してシーンをキャプチャーすることによって創出される。複数のカメラは、それぞれのカメラが1つの視点からのシーンをキャプチャーするように適正に配置されている。従って、複数のカメラは、複数のビューに対応する複数のビデオシーケンスをキャプチャーする。より多くのビューを提供するために、ビューに関する数多くのビデオシーケンスを伴なうマルチビュービデオを生成するようにより多くのカメラが使用されてきている。従って、マルチビュービデオは、保管のための大きなストレージスペース、及び/又は、伝送のための高いバンド幅を必要とする。そのため、業界では、必要とされるストレージスペース、または、伝送のバンド幅を削減するためにマルチビュービデオコーディング技術が開発されてきた。端的なアプローチは、従来のビデオコーディング技術を単純にそれぞれの単一ビューのビデオシーケンスに対して独立して適用して、異なるビュー間のあらゆる相関を無視することである。マルチビュービデオコーディングの効率を改善するために、典型的なマルチビュービデオコーディングは、いつでもビュー間の冗長性を利用している。
3Dビデオコーディングにおけるテクスチャーイメージのコーディング効率の改善のためにビュー間の相関が有効である一方で、テクスチャーイメージと深さマップとの間にも顕著な相関が存在している。テクスチャーイメージ圧縮のコーディング効率をさらに改善するためには、テクスチャーイメージと深さマップとの間の相関を利用することが有益であろう。
さらに、H.264/AVCまたは台頭している高効率ビデオコーディング(HEVC)システムといった既存の高効率コーディング規格に対する改善されたコーディング効率をもったテクスチャーイメージ圧縮スキーム(scheme)を開発することが望ましい。
3Dビデオコーディングシステムにおけるテクスチャーイメージ圧縮方法及び装置が開示される。本発明に従った実施例は、最初に、テクスチャーイメージに関連した深さマップに関する深さ情報を引き出し、次に、引き出された深さ情報に基づいてテクスチャーイメージを処理する。本発明は、デコーダー側と同様に、エンコーダー側にも適用することができる。深さ情報は、深さデータとパーティション情報を含み得る。深さマップは、第1の圧縮された深さマップを含む第1のビットストリームからデコードされるか、他のビューに対する第2の圧縮された深さマップを含む第2のビットストリームからデコード及び引き出されるか、または、デコードされたテクスチャーイメージから引き出されるか、のいずれであってもよい。深さマップおよびテクスチャーイメージに対するエンコーディング順序またはデコーディング順序は、ブロック依り(brock−wise)のインターリーブまたは映像依り(picture−wise)のインターリーブに基づくことができる。ブロック依りのインターリーブまたは映像依りのインターリーブは、テクスチャーイメージに関するビットストリームにおけるフラグに従って選択され得る。さらに、フラグは、シーケンスレベル、映像レベル、スライス(slice)レベル、または、ブロックレベルに織り込まれてもよい。
本発明に係る一つの実施態様は、深さマップの深さ情報に基づいたテクスチャーイメージのパーティション化に関する。テクスチャーイメージは、テクスチャーブロックにパーティション化され、テクスチャーイメージに係る現在のテクスチャーブロックのパーティション化は、深さマップの深さ情報に基づいている。テクスチャーブロックは、任意の形状または長方形であってよい。テクスチャーイメージに係る現在のテクスチャーブロックがサブブロックにパーティション化されるかどうかは、対応する深さマップのブロックに係る深さ情報に基づいてよい。サブブロックの形状は、対応する深さマップのブロックに係る深さ情報に基づいてよい。テクスチャーイメージに係る現在のテクスチャーブロックをサブブロックにパーティション化するために、対応する深さマップのブロックに係る深さ情報が使用されるかどうかを示すようにフラグを使用することができる。テクスチャーイメージに係る現在のテクスチャーブロックがテクスチャーイメージに係る別のテクスチャーブロックと併合されるかどうかは、深さマップの深さ情報に基づいてよい。
本発明に従った別の実施例において、テクスチャーイメージはテクスチャーブロックにパーティション化され、テクスチャーイメージに係るテクスチャーブロックの動作情報は、別のビューにおける対応するテクスチャーブロックの動作情報から引き出され得る。対応するテクスチャーブロックの位置は、現在のビューにおける深さマップに基づいて引き出され得る。動作情報は、MV、参照映像インデックス、領域パーティション、予測方向、および、予測モード、を含み得る。本発明に従ったさらに別の実施例において、テクスチャーイメージに対する予測モードは、テクスチャーイメージに関する動作ベクトルに従って決定され得るもので、動作ベクトルは深さ情報に基づいて区分される。テクスチャーイメージにおける近い対象物に対応する領域は、深さ情報によって示されるように、空間的なMVP(Motion Vector Predictor:動作ベクトル予測)を選択することを好む。一方、テクスチャーイメージにおける遠い対象物に対応する領域は、深さ情報によって示されるように、一時的またはビュー間のMVPを選択することを好む。
本発明の別の実施態様は、動作ベクトルまたは動作ベクトル予測処理に関する。一つの実施例において、テクスチャーイメージに対するMVP(動作ベクトル予測)を取り除くことは、テクスチャーイメージに関する動作ベクトルに基づくことができる。動作ベクトルは、深さ情報に基づいて区分されている。一つまたはそれ以上の余分なVMP候補は、MVP候補リストから除去され得る。深さ情報によって示されるように、テクスチャーイメージにおける遠い対象物に対応する領域に対して大きな動作を伴なうMVP候補は、除去されるか、または、MVP候補リストにおいて低い優先度が与えられ得る。テクスチャーイメージについて派生する動作ベクトルに対する動作モデルは、深さマップに基づいて決定される。テクスチャーイメージにおける遠い対象物に対応する領域は、並進モデルに従って動作ベクトルを引き出すことができ、テクスチャーイメージにおける近い対象物に対応する領域は、遠近モデルに従って動作ベクトルを引き出すことができる。さらに別の実施例において、テクスチャーイメージの現在の領域に対するモードは、別のビューにおける対応するテクスチャーイメージの対応する領域のモードに基づいて決定することができる。対応する領域の位置は、現在の領域の位置、および、テクスチャーイメージに関する深さマップと別のビューにおける対応するテクスチャーイメージに関する深さマップとの間の位置対応から引き出すことができる。モードは、パーティション、インター/イントラモード、そして、スキップモードを含んでよい。
図1は、本発明に従って、深さ情報を利用するテクスチャーイメージ圧縮の実施例を示している。 図2は、テクスチャーイメージおよび深さマップのブロックへのパーティション化を示しており、処理順序は映像依り、または、ブロック依りである。 図3は、テクスチャーイメージ圧縮に対する深さ情報を引き出すための典型的な方法を示している。 図4は、深さマップの領域パーティション情報に基づいたテクスチャーイメージの領域パーティション化の実施例を示している。 図5は、2つの深さマップ間の対応を利用したテクスチャーイメージコーディングのための動作ベクトル予測処理の実施例を示している。
本発明の実施例は、3Dビデオコーディングシステムにおけるテクスチャーイメージのエンコーディングおよびデコーディングのための方法及び装置を提供する。本発明に従って、エンコーディングおよびデコーディングは、対応する深さマップの情報を利用する。テクスチャーイメージと深さマップとの間の相関は、テクスチャーイメージ圧縮のコーディング効率を改善するために役立つものである。
本発明の一つの実施例に従って、深さマップはそれぞれのテクスチャーイメージ以前にコード化されている。よって、テクスチャーイメージ圧縮は、深さマップに関する深さ情報を利用することができる。深さ情報は、深さデータとパーティション情報を含み得る。パーティション情報は、たいてい深さマップのエンコーディングの最中に生成される。典型的なコーディングシステムは深さマップをブロックまたは領域にパーティション化し、ブロックまたは領域毎にエンコーディング処理を適用するからである。深さマップとテクスチャーのコーディング順序は、画像依り、または、ブロック依りの方法であり得る。図1は、深さマップからの深さ情報を利用しているテクスチャーイメージ圧縮の実施例を説明している。テクスチャーイメージ110における現在ブロック112の圧縮は、対応する深さマップ120からの情報を利用する。現在ブロック112に対応する深さマップ120におけるブロック122を特定することができる。テクスチャーイメージ110における現在ブロック112の処理以前に対応するブロック122に対する情報が利用可能なので、コーディング効率を改善するように、対応するブロック122に対する深さ情報が、現在ブロック112の圧縮のための深さ情報が現在ブロック112の圧縮のために使用され得る。図1の実施例は、深さマップにおける対応するブロックが現在ブロックの圧縮のために使用されることを示している一方で、深さマップにおけるこうしたブロックの深さ情報が現在ブロックの処理以前に知られている限りは、深さマップにおける1つ以上のブロックも、また、テクスチャーイメージの現在ブロックの圧縮のために使用され得るものである。さらに、1つ以上の深さマップからのブロックも、また、これらの深さマップにおけるブロックの深さ情報が現在ブロックの処理以前に知られている場合に、本発明を実行するために使用され得る。
テクスチャーイメージにおいてブロックを圧縮するために深さマップからの情報を使用するためには、テクスチャーイメージにおけるブロックの圧縮のために深さマップから必要とされる情報が、現在ブロックの圧縮以前に利用可能とされる必要がある。典型的なビデオ圧縮または処理システムにおいて、テクスチャーイメージと深さマップは、図2に示されるように、たいていブロックごとに処理される。テクスチャーイメージは、テクスチャーブロックT1、T2、T3、・・・Tnにパーティション化され、深さマップは、深さブロックD1、D2、D3・・・Dnにパーティション化される。ここでnは、テクスチャーイメージまたは深さマップにおけるブロックの数量である。テクスチャーイメージの処理順序は映像依りであってよい、つまり、全ての深さマップがテクスチャーイメージの処理以前に処理される。複数の深さマップも、また、テクスチャーイメージ処理以前に処理され、テクスチャーブロックの圧縮は、複数の深さマップからの情報を利用することができる。テクスチャーイメージの処理順序も、また、ブロック依りであってよい、つまり、テクスチャーブロックと深さブロックは、インターリーブされた方法で処理される。例えば、処理順序は、D1、T1、D2、T2、D3、T3、・・・、Dn、Tnであり得る。複数のブロックがインターリーブされ得るもので、インターリーブはNブロック毎に基づいて行うことができる。例えば、Nが4に等しい場合は、ブロック依りのインターリーブ処理順序は、D1、D2、D3、D4、T1、T2、T3、T4、D5、D6、D7、D8、T5、T6、T7、T8、等といったものである。他のブロック依りのインターリーブパターンも、また使用される。さらに、テクスチャーブロックの処理は、対応する深さブロックに関連して遅れることがある。例えば、現在テクスチャーブロックの処理は、配置された深さブロックの周りの深さブロックに関する深さ情報を使用し得る。この場合、現在テクスチャーブロックの処理は、必要とされる深さブロックが利用可能となるまで待たねばならない。図2に示されるブロックは、テクスチャーイメージ210または深さマップ220をブロックにパーティション化するデモンストレーションの実施例として使用される。ブロックは、サイズが異なっていてもよい。例えば、ブロックは、4×4、8×8、16×16、32×32、または、64×64のピクセルといった正方形、長方形、または、映像の幅にわたり拡がるストライプであってよい。ブロックは、あらゆる形状であってもよい。
上述のように、本発明の実施例は、テクスチャーブロックの圧縮のために利用可能な深さ情報を使用する。図3に示すように、深さブロックおよび関連する情報を引き出すための種々の手段が存在している。本発明の一つの実施例に従えば、深さブロックおよび関連する情報は、現在ビューに関する深さビットストリームから引き出すことができる。深さビットストリームは、テクスチャーイメージビットストリームとは分離され得るものである。深さビットストリームは、また、単一のビットストリームを形成するために、テクスチャーイメージビットストリームと結合されてもよい。ブロック310に示されるように、深さデコーダーは、深さブロックおよび現在ビューの関連する情報を回復するように深さビットストリームをデコードするために使用され得る。深さブロックおよび現在ビューの関連する情報は、また、他のビューの深さマップから引き出され得る。この場合、ブロック320に示されるように、深さデコーダーは、他のビューの深さブロックに関連する深さ情報を回復するようにビットストリームをデコードするために使用され得る。現在ビューに対応する深さマップも、また、他のビューに対する深さマップから引き出され得る。本発明のさらなる別の実施例において、深さブロックおよび関連する情報は、ブロック330に示されるように、深さマップ生成を使用して、デコードされたテクスチャーイメージから引き出され得る。この場合、現在ビューに対応する深さマップは、現在ビューまたは他のビューに関するデコードされたテクスチャーイメージから引き出されてもよい。引き出された深さマップは、深さマップ参照バッファー340の中に保管され、深さマップに関する情報は、ブロック350に示されるように、現在ビューに対するテクスチャーイメージのエンコーディングまたはデコーディングのために使用され得る。図3に示されるように、種々の方法に従って引き出された深さマップは、現在ビューに対するテクスチャーイメージのデコーディング/エンコーディングのために、独立して、または、まとめて適用され得る。
本発明に従った一つの実施例において、テクスチャーイメージの領域パーティション化は、深さマップの領域パーティション化から引き出し、または、推定することができる。図4は、深さマップに対応する領域パーティション化に従ったテクスチャーイメージの領域パーティション化の実施例を示している。テクスチャーイメージのブロックは、深さマップの領域パーティションに従って、任意形状または長方形でサブブロックにパーティション化することができる。例えば、現在テクスチャーブロック410の分割は、対応する深さマップ410aに依存し得る。現在テクスチャーブロック410は、深さブロック410aが隣接ブロック420a、430a、および、440aのうちの一つに併合されているかどうかに従って、隣接ブロック420、430、および、440のうちの一つに併合され得る。テクスチャーイメージに対する領域パーティション化が深さマップから引き出されているかどうかを示すために、一つのフラグが使用され得る。さらに、サブブロック、および、その隣接のコード化されたブロックが同様な深さデータを有している場合、サブブロックと隣接のコード化されたブロックは併合されてよく、隣接ブロックの動作情報が現在ブロックによって共有され得る。選択された空間的または時間的な隣接ブロックを併合するために動作情報を共有する方法は、高効率ビデオコーディングテストモデル バージョン3.0(HM3.0)のマージモード(Merge mode)に類似している。マージがイネーブルされているか否かを示すために、別のフラグが使用されてもよい。
図5に示すように、現在ビューの動作情報は、動作ベクトル予測処理の最中に別のビューから予測することができる。ここで、テクスチャーイメージ510は現在テクスチャーイメージであり、深さマップ520は現在ビューの深さマップであり、テクスチャーイメージ510aは別のビューにおける対応するテクスチャーイメージであり、そして、深さマップ520aは別のビューの深さマップに対応している。現在ビューにおける深さマップ520の深さブロック522と別のビューにおける深さマップ520aの対応する深さブロック522aとの対応が定められる場合は、現在テクスチャーイメージ510の現在ブロック512に関する別のビューにおける対応するテクスチャーブロック512aが引き出され得る。対応するブロック512aの、動作ベクトルといった、動作情報が、現在ビューにおける現在ブロック512に適用される。動作情報は、また、参照画像インデックス、領域パーティション、予測方向、および、予測モードを含み得る。同様に、対応するブロック512aの動作ベクトル(MV)が、現在ブロック512の動作ベクトル予測(MVP)として使用され得る。
深さマップは、また、アダプティブ(adaptive)動作処理のためにも使用され得る。MVは、近い対象物はテクスチャーイメージにおいてより速く移動すると仮定した深さマップに従ってパーティション化され得る。動作の視差のために、近い対象物はしばしば大きな動作を有し、一方、遠い対象物はしばしば小さな動作を有する。大きな動作を含む領域においては、種々の理由のために、時間的またはビュー間の予測よりも空間的予測のパフォーマンスの方が良い。従って、実際の深さが小さい場合に空間的MVPがより高い優先度を有することになり、近くの対象物であることにより動作が大きく、空間的な相関がより高いことを意味している。他方、実際の深さが大きい場合に時間的またはビュー間のMVPがより高い優先度を有することになり、遠くの対象物であることにより動作が小さく、時間的またはビュー間の相関がより高いことを意味している。従って、深さマップの深さ情報に適用される動作処理の一つの実施例として、深さマップは、空間的、または、時間的/ビュー間のMVPのアダプティブな選択のために使用される。
深さ情報に基づいたMVパーティション化は、また、MVP除去処理に対しても適用され得る。遠い対象物を含んでいるテクスチャーブロックに対して、小さなMV候補は、候補リストの中でより高い優先度を有する。別の言葉で言えば、大きなMV候補の優先度は、より低く、遠い対象物を含んでいる領域におけるリストから除去される。上述のように、動作の視差のために、遠い対象物は、近い対象物が結果としてより小さな動作ベクトルを生じるのと同じ変位を受ける。従って、遠くの対象物を含んでいる領域において大きな動作ベクトルを有することはありそうにない。近くの対象物に関しては、小さな動作ベクトル(ゼロ値の動作ベクトルを含む)と大きな動作ベクトルの両方がおそらく表れる。これらの動作ベクトル、大きい又は小さい、は、近い対象物の実際の変位を表し得る。従って、近い対象物を含んでいる領域は、動作パーティション化に対して適用されたMVP候補に優先度を付けることはしない。
本発明の別の実施例に従えば、動作モデルは、また、MV予測処理において深さマップに対して適用され得る。遠近モデルに対しては、近い対象物のテクスチャーイメージが適している。一方で、並進モデルに対しては、遠い対象物のテクスチャーイメージが適している。再び、上述の理由により、遠くの対象物は、近くの対象物が動作の視差のために結果としてより小さな動作ベクトルを生じるのと同じ変位を受ける。より大きな動作にためには、より複雑な遠近モデルを追求する必要があろう。
本発明のさらに別の実施例に従えば、現在ビューの予測モードは、別のビューまたは他のビューから引き出すことができる。別のビューにおいて対応するテクスチャーブロックは、深さ情報を使用することで得ることができる。対応するテクスチャーブロックのモードは、予測タイプ、ブロックサイズ、参照画像インデックス、予測方向、および、パーティション、といったものであるが、次に、現在テクスチャーブロックに対して適用される。予測タイプは、インター/イントラ(Inter/Intra)、スキップ(Skip)、マージ(Merge)、および、ダイレクト(Direct)モ−ドを含み得る。
上記の説明は、所定のアプリケーションやその要求に係る文脈において提供されたように、当業者が本発明を実施できるようにするために表されたものである。記述された実施例に対する種々の変更は、当業者にとって明らかなものであり、ここにおいて定められた一般的な趣旨は、他の実施例に対して適用することができる。従って、本発明は、示され、説明された所定の実施例に限定されるように意図されたものではなく、ここにおいて開示された趣旨および新規な特徴と矛盾のない最も広い範囲と一致するように意図されたものである。上記の詳細な説明においては、本発明の完全な理解を提供するために種々の所定の詳細が説明されている。やはり、当業者には、本発明が実施され得ることが理解されよう。
上述のように本発明に従った3次元ビデオコーディングシステムにおける深さマップを使用したテクスチャーイメージのエンコーディングおよびデコーディングの実施例は、種々のハードウェア、ソフトウェアコード、または両方の組合せにおいて実施され得る。例えば、本発明の実施例は、ここにおいて説明された処理を実行するためのビデオ圧縮チップの中に集積された回路であり、または、ビデオ圧縮ソフトウェアの中に統合されたプログラムコードであり得る。本発明の実施例は、また、ここにおいて説明された処理を実施するために、デジタル信号プロセッサ(DSP)上で実行されるべきプログラムコードでもよい。本発明は、また、コンピュータープロセッサ、デジタル信号プロセッサ、マイクロプロセッサ、または、フィールドでプログラム可能なゲートアレイ(FPGA)によって実行されるべき多くの機能を含み得る。これらのプログラムは、本発明に従って所定のタスクを実行するように構成され得る。本発明によって実施される所定の方法を定める機械で読取り可能なソフトウェアコードまたはファームウェアコードを実行するように構成され得る。ソフトウェアコードまたはファームウェアコードは、異なるプログラム言語およびプログラムフォーマットまたはスタイルで開発され得る。ソフトウェアコードは、また、異なるターゲットプラットフォームに対してコンパイルされ得る。しかしながら、本発明に従ってタスクを実行するための異なるコードフォーマット、ソフトウェアコードおよび他の構成コード手段に係るスタイルと言語は、本発明の範囲から逸脱するものではない。
本発明は、本発明の精神または本質的な特徴から逸脱することなく他の所定のフォームにおいて実施され得る。説明された実施例は、あらゆる点において、単なる説明であって、本発明を限定するものではないように理解されるべきである。従って、本発明の範囲は、前出の説明によるより、むしろ添付の請求項によって示されるものである。請求項の均等物の意味および範囲の中に入る全ての変更は、本発明の範囲の中に包含されるべきものである。

Claims (31)

  1. 3次元ビデオコーディングシステムにおけるテクスチャーイメージ圧縮のための方法であって:
    深さマップに関する深さ情報を引き出すステップであり、前記深さマップはテクスチャーイメージと関連するステップと;
    引き出された前記深さ情報に基づいて前記テクスチャーイメージをエンコーディングまたはデコーディングするステップと、を含み、
    前記テクスチャーイメージは、テクスチャーブロックへとパーティション化され、かつ、
    前記テクスチャーイメージの現在テクスチャーブロックに係る前記パーティション化は、前記深さマップの前記深さ情報に基づいており、
    前記テクスチャーイメージの前記現在テクスチャーブロックをパーティション化するかどうかは、前記深さマップの対応する現在ブロックに係る前記深さ情報に基づいており、
    前記深さマップの前記対応する現在ブロックに係る前記深さが、前記テクスチャーイメージの前記テクスチャーブロックをサブブロックにパーティション化するために使用されているかどうか、を示すようにフラグが使用されている、
    ことを特徴とする方法。
  2. 3次元ビデオコーディングシステムにおけるテクスチャーイメージ圧縮のための方法であって:
    深さマップに関する深さ情報を引き出すステップであり、前記深さマップはテクスチャーイメージと関連するステップと;
    引き出された前記深さ情報に基づいて前記テクスチャーイメージをエンコーディングまたはデコーディングするステップと、を含み、
    前記テクスチャーイメージは、テクスチャーブロックへとパーティション化され、
    前記テクスチャーイメージのテクスチャーブロックに係る動作情報は、別のビューにおける対応するテクスチャーブロック、または、前記深さマップの対応する深さブロックの動作情報から引き出され、かつ、
    前記対応するテクスチャーブロックの位置は、前記深さマップに基づいて引き出される、
    ことを特徴とする方法。
  3. 前記深さ情報は、深さデータおよびパーティション情報を含む、
    請求項1または2に記載の方法。
  4. デコーダー側に対して、前記深さマップは、現在ビューに対する第1の圧縮された深さマップを含む第1のビットストリームからデコードされるか、他のビューに対する第2の圧縮された深さマップを含む第2のビットストリームからデコードかつ引き出されるか、または、デコードされたテクスチャーイメージから引き出される、
    請求項1または2に記載の方法。
  5. ブロックに依るインターリーブまたは映像に依るインターリーブは、前記テクスチャーイメージに関するフラグに従って選択される、
    請求項1または2に記載の方法。
  6. 前記フラグは、シ−ケンスレベル、画像レベル、スライスレベル、または、ブロックレベルに取り入れられている、
    請求項5に記載の方法。
  7. 前記テクスチャーブロックは、任意形状または長方形である、
    請求項1に記載の方法。
  8. 前記サブブロックの形状は、前記深さマップの前記対応する現在ブロックに係る前記深さ情報に基づいている、
    請求項1に記載の方法。
  9. 前記テクスチャーイメージはテクスチャーブロックへとパーティション化され、かつ、
    前記テクスチャーイメージの現在テクスチャーブロックを前記テクスチャーイメージの別のテクスチャーブロックと併合するかどうかは、前記深さマップの前記深さ情報に基づいている、
    請求項1または2に記載の方法。
  10. マージモードがイネーブルされているかどうかを示すようにフラグが使用されている、
    請求項9に記載の方法。
  11. 前記対応するテクスチャーブロックの位置は、現在ビューにおける前記深さマップに基づいて引き出される、
    請求項2に記載の方法。
  12. 前記動作情報は、MV、参照映像インデックス、領域パーティション、予測方向、および、予測モードを含む、
    請求項2に記載の方法。
  13. 前記テクスチャーイメージの前記エンコーディングまたはデコーディングは、前記テクスチャーイメージに関する動作ベクトルに従って前記テクスチャーイメージに対する予測モードを定めるステップを含み、かつ、
    前記動作ベクトルは、前記深さ情報に基づいて区分される、
    請求項1または2に記載の方法。
  14. 前記テクスチャーイメージにおける近い対象物に対応する第1の領域においては、空間的なMVP(動作ベクトル予測)が優先的に選択され、かつ、
    前記テクスチャーイメージにおける遠い対象物に対応する第2の領域においては、時間的またはビュー間のMVPが優先的に選択される
    請求項13に記載の方法。
  15. 前記テクスチャーイメージの前記エンコーディングまたはデコーディングは、前記テクスチャーイメージに関する動作ベクトルに従って前記テクスチャーイメージに対するMVP(動作ベクトル予測)を取り除くステップを含み、かつ、
    前記動作ベクトルは、前記深さ情報に基づいて区分される、
    請求項1または2に記載の方法。
  16. MVP候補リストから一つまたはそれ以上の余分なMVP候補が除去され、かつ、
    深さ情報によって示されるように、前記テクスチャーイメージにおける遠い対象物に対応する領域に対して大きな動作を伴なう前記MVP候補は、除去されるか、または、MVP候補リストにおいて低い優先度が与えられる、
    請求項15に記載の方法。
  17. 前記テクスチャーイメージの前記エンコーディングまたはデコーディングは、前記テクスチャーイメージに対する動作ベクトルを引き出すための動作モデルを定めるステップを含み、かつ、
    前記動作モデルの決定は、前記深さマップに依存する、
    請求項1または2に記載の方法。
  18. 前記テクスチャーイメージにおける遠い対象物に対応する第1の領域は、並進モデルに従った前記動作ベクトルから引き出され、かつ、
    前記テクスチャーイメージにおける近い対象物に対応する第2の領域は、遠近モデルに従った前記動作ベクトルから引き出される、
    請求項17に記載の方法。
  19. 前記テクスチャーイメージの前記エンコーディングまたはデコーディングは、別のビューにおける対応するテクスチャーイメージの対応する領域に係るモードに基づいて、前記テクスチャーイメージの現在領域に対するモードを決定するステップを含む、
    請求項1または2に記載の方法。
  20. 前記対応するテクスチャーブロックの位置は、現在ビューにおける前記深さマップに基づいて引き出され、
    前記対応する領域の位置は、前記現在領域の位置、および、前記テクスチャーイメージに関する前記深さマップと前記別のビューにおける前記対応するテクスチャーイメージに関する前記深さマップとの間の位置対応から引き出される、
    請求項19に記載の方法。
  21. 前記モードは、予測タイプ、ブロックサイズ、参照映像インデックス、予測方向、および、パーティションを含む、
    請求項19に記載の方法。
  22. 3次元ビデオコーディングシステムにおけるテクスチャーイメージ圧縮する装置であって:
    深さマップマップに関する深さ情報を引き出すための手段であり、前記深さマップはテクスチャーイメージと関連する手段と;
    引き出された前記深さ情報に基づいて前記テクスチャーイメージをエンコーディングまたはデコーディングするための手段と、を含み、
    前記テクスチャーイメージは、テクスチャーブロックへとパーティション化され、かつ、
    前記テクスチャーイメージの現在テクスチャーブロックに係る前記パーティション化は、前記深さマップの前記深さ情報に基づいており、
    前記テクスチャーイメージの前記現在テクスチャーブロックをパーティション化するかどうかは、前記深さマップの対応する現在ブロックに係る前記深さ情報に基づいており、
    前記深さマップの前記対応する現在ブロックに係る前記深さが、前記テクスチャーイメージの前記テクスチャーブロックをサブブロックにパーティション化するために使用されているかどうか、を示すようにフラグが使用されている、
    ことを特徴とする装置。
  23. 3次元ビデオコーディングシステムにおけるテクスチャーイメージ圧縮する装置であって:
    深さマップマップに関する深さ情報を引き出すための手段であり、前記深さマップはテクスチャーイメージと関連する手段と;
    引き出された前記深さ情報に基づいて前記テクスチャーイメージをエンコーディングまたはデコーディングするための手段と、を含み、
    前記テクスチャーイメージは、テクスチャーブロックへとパーティション化され、
    前記テクスチャーイメージのテクスチャーブロックに係る動作情報は、別のビューにおける対応するテクスチャーブロック、または、前記深さマップの対応する深さブロックの動作情報から引き出され、かつ、
    前記対応するテクスチャーブロックの位置は、前記深さマップに基づいて引き出される、
    ことを特徴とする装置。
  24. 前記深さ情報は、深さデータおよびパーティション情報を含む、
    請求項22または23に記載の装置。
  25. デコーダー側に対して、前記深さマップは、現在ビューに対する第1の圧縮された深さマップを含む第1のビットストリームからデコードされるか、他のビューに対する第2の圧縮された深さマップを含む第2のビットストリームからデコードかつ引き出されるか、または、デコードされたテクスチャーイメージから引き出される、
    請求項22または23に記載の装置。
  26. 前記テクスチャーイメージはテクスチャーブロックへとパーティション化され、かつ、
    前記テクスチャーイメージの現在テクスチャーブロックを前記テクスチャーイメージの別のテクスチャーブロックと併合するかどうかは、前記深さマップの前記深さ情報に基づいている、
    請求項22または23に記載の装置。
  27. 前記テクスチャーイメージは、テクスチャーブロックへとパーティション化され、かつ、
    前記テクスチャーイメージのテクスチャーブロックに係る動作情報は、別のビューにおける対応するテクスチャーブロック、または、前記深さマップの対応する深さブロックの動作情報から引き出される、
    請求項22に記載の装置。
  28. 前記テクスチャーイメージをエンコーディングまたはデコーディングするための手段は、前記テクスチャーイメージに関する動作ベクトルに従って前記テクスチャーイメージに対する予測モードを定めるための手段を含み、かつ、
    前記動作ベクトルは、前記深さ情報に基づいて区分される、
    請求項22または23に記載の装置。
  29. 前記テクスチャーイメージをエンコーディングまたはデコーディングするための手段は、前記テクスチャーイメージに関する動作ベクトルに従って前記テクスチャーイメージに対するMVP(動作ベクトル予測)を取り除くための手段を含み、かつ、
    前記動作ベクトルは、前記深さ情報に基づいて区分される、
    請求項22または23に記載の装置。
  30. 前記テクスチャーイメージをエンコーディングまたはデコーディングするための手段は、前記テクスチャーイメージに対する動作ベクトルを引き出すための動作モデルを定めるための手段を含み、かつ、
    前記動作モデルの決定するための手段は、前記深さマップに依存する、
    請求項22または23に記載の装置。
  31. 前記テクスチャーイメージをエンコーディングまたはデコーディングするための手段は、別のビューにおける対応するテクスチャーイメージの対応する領域に係るモードに基づいて、前記テクスチャーイメージの現在領域に対するモードを決定するための手段を含む、
    請求項22または23に記載の装置。
JP2014505504A 2011-06-15 2012-06-15 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置 Active JP5872676B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161497441P 2011-06-15 2011-06-15
US61/497,441 2011-06-15
PCT/CN2012/076975 WO2012171477A1 (en) 2011-06-15 2012-06-15 Method and apparatus of texture image compression in 3d video coding

Publications (2)

Publication Number Publication Date
JP2014517563A JP2014517563A (ja) 2014-07-17
JP5872676B2 true JP5872676B2 (ja) 2016-03-01

Family

ID=47356549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014505504A Active JP5872676B2 (ja) 2011-06-15 2012-06-15 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置

Country Status (7)

Country Link
US (1) US9918068B2 (ja)
EP (1) EP2721823B1 (ja)
JP (1) JP5872676B2 (ja)
KR (2) KR20140004209A (ja)
CN (1) CN103621093B (ja)
CA (1) CA2833032C (ja)
WO (1) WO2012171477A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103765895B (zh) * 2011-06-24 2017-03-08 Lg电子株式会社 使用跳跃模式的编码/解码方法和装置
US11496760B2 (en) * 2011-07-22 2022-11-08 Qualcomm Incorporated Slice header prediction for depth maps in three-dimensional video codecs
US20130188013A1 (en) * 2011-07-22 2013-07-25 Qualcomm Incorporated Mvc based 3dvc codec supporting inside view motion prediction (ivmp) mode
US9521418B2 (en) * 2011-07-22 2016-12-13 Qualcomm Incorporated Slice header three-dimensional video extension for slice header prediction
US9288505B2 (en) 2011-08-11 2016-03-15 Qualcomm Incorporated Three-dimensional video with asymmetric spatial resolution
US9485503B2 (en) 2011-11-18 2016-11-01 Qualcomm Incorporated Inside view motion prediction among texture and depth view components
US20130336405A1 (en) * 2012-06-15 2013-12-19 Qualcomm Incorporated Disparity vector selection in video coding
KR20150036261A (ko) * 2012-07-13 2015-04-07 후아웨이 테크놀러지 컴퍼니 리미티드 3차원 비디오를 표현하는 비트 스트림을 코딩하는 장치
US20150326880A1 (en) * 2012-12-14 2015-11-12 Liu He Inside view motion prediction among texture and depth view components with asymmetric spatial resolution
CA2897299C (en) * 2013-01-08 2017-11-21 Lg Electronics Inc. Method and apparatus for processing video signal
US20140267616A1 (en) * 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
US9521425B2 (en) * 2013-03-19 2016-12-13 Qualcomm Incorporated Disparity vector derivation in 3D video coding for skip and direct modes
WO2014166068A1 (en) 2013-04-09 2014-10-16 Mediatek Inc. Refinement of view synthesis prediction for 3-d video coding
CN105103543B (zh) * 2013-04-12 2017-10-27 寰发股份有限公司 兼容的深度依赖编码方法
CN105230014B (zh) * 2013-07-01 2018-02-02 寰发股份有限公司 用于三维视频编码系统的深度图编码的方法及其装置
WO2015000108A1 (en) * 2013-07-01 2015-01-08 Mediatek Singapore Pte. Ltd. An improved texture merging candidate in 3dvc
WO2015006924A1 (en) * 2013-07-16 2015-01-22 Mediatek Singapore Pte. Ltd. An additional texture merging candidate
CN105393541B (zh) * 2013-07-19 2018-10-12 华为技术有限公司 使用基于深度的块分割编解码纹理块的方法和装置
KR20150012206A (ko) 2013-07-24 2015-02-03 한국전자통신연구원 3차원 콘텐츠의 부호화 방법 및 장치
WO2015062002A1 (en) 2013-10-31 2015-05-07 Mediatek Singapore Pte. Ltd. Methods for sub-pu level prediction
US9432685B2 (en) 2013-12-06 2016-08-30 Qualcomm Incorporated Scalable implementation for parallel motion estimation regions
WO2015135137A1 (en) * 2014-03-11 2015-09-17 Mediatek Singapore Pte. Ltd. A method of motion information sharing in multi-view and 3d video coding
CA2942293A1 (en) * 2014-03-14 2015-09-17 Samsung Electronics Co., Ltd. Multi-layer video encoding method and multi-layer video decoding method using depth block
US10187657B2 (en) 2014-03-14 2019-01-22 Samsung Electronics Co., Ltd. Method and device for configuring merge candidate list for decoding and encoding of interlayer video
WO2015196424A1 (en) * 2014-06-26 2015-12-30 Mediatek Inc. Methods for the transmission of flags related to dbbp
WO2015139203A1 (en) * 2014-03-18 2015-09-24 Mediatek Singapore Pte. Ltd. Dlt signaling in 3d video coding
CN108989815B9 (zh) * 2014-03-19 2021-06-04 株式会社Kt 针对多视图视频信号生成合并候选列表的方法及解码装置
US9769481B2 (en) * 2014-03-28 2017-09-19 University-Industry Cooperation Group Of Kyung Hee University Method and apparatus for encoding of video using depth information
US9955187B2 (en) * 2014-03-28 2018-04-24 University-Industry Cooperation Group Of Kyung Hee University Method and apparatus for encoding of video using depth information
KR101603414B1 (ko) * 2014-03-28 2016-03-15 경희대학교 산학협력단 깊이 정보를 이용한 비디오 부호화 장치 및 그 방법
US9769498B2 (en) * 2014-03-28 2017-09-19 University-Industry Cooperation Group Of Kyung Hee University Method and apparatus for encoding of video using depth information
WO2015192314A1 (en) * 2014-06-17 2015-12-23 Mediatek Singapore Pte. Ltd. A simplified method for depth based block partitioning
US20170127060A1 (en) * 2014-06-18 2017-05-04 Samsung Electronics Co., Ltd. Multi-layer video encoding method and multi-layer video decoding method using depth blocks
WO2015192371A1 (en) * 2014-06-20 2015-12-23 Mediatek Singapore Pte. Ltd. Texture based depth coding method
WO2016006913A1 (ko) * 2014-07-08 2016-01-14 엘지전자 주식회사 3d 방송 서비스를 위한 방송 신호 송수신 방법 및 장치
CN104284195B (zh) * 2014-10-11 2018-12-25 华为技术有限公司 三维视频中的深度图预测方法、装置、编码器和解码器
WO2016146076A1 (en) * 2015-03-18 2016-09-22 Mediatek Inc. Method and apparatus for index map coding in video and image compression
WO2017122543A1 (ja) * 2016-01-13 2017-07-20 ソニー株式会社 情報処理装置および情報処理方法
EP3349182A1 (en) * 2017-01-13 2018-07-18 Thomson Licensing Method, apparatus and stream for immersive video format
EP3489900A1 (en) * 2017-11-23 2019-05-29 Thomson Licensing Method, apparatus and stream for encoding/decoding volumetric video
EP3554082A1 (en) * 2018-04-11 2019-10-16 InterDigital VC Holdings, Inc. A method and device for coding the geometry of a point cloud
CN109255831B (zh) * 2018-09-21 2020-06-12 南京大学 基于多任务学习的单视图人脸三维重建及纹理生成的方法
US11037365B2 (en) 2019-03-07 2021-06-15 Alibaba Group Holding Limited Method, apparatus, medium, terminal, and device for processing multi-angle free-perspective data
RU2753591C1 (ru) * 2020-10-23 2021-08-18 Автономная некоммерческая образовательная организация высшего образования «Сколковский институт науки и технологий» Способ сжатия и хранения трехмерных данных (варианты)
KR20240132456A (ko) * 2021-12-21 2024-09-03 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 묘사 맵 시그널링

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617334A (en) * 1995-07-21 1997-04-01 The Trustees Of Columbia University In The City Of New York Multi-viewpoint digital video coder/decoder and method
JP5249242B2 (ja) * 2007-01-24 2013-07-31 エルジー エレクトロニクス インコーポレイティド ビデオ信号処理方法及び装置
BRPI0821500A2 (pt) 2008-01-11 2015-06-16 Thomson Licensing Codificação de vídeo e profundidade
CN101978697B (zh) 2008-01-25 2013-02-13 惠普开发有限公司 针对基于块的编码的编码模式选择
WO2009131688A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Inter-view skip modes with depth
WO2010043773A1 (en) 2008-10-17 2010-04-22 Nokia Corporation Sharing of motion vector in 3d video coding
US20100278232A1 (en) * 2009-05-04 2010-11-04 Sehoon Yea Method Coding Multi-Layered Depth Images
KR101452859B1 (ko) * 2009-08-13 2014-10-23 삼성전자주식회사 움직임 벡터를 부호화 및 복호화하는 방법 및 장치
EP2499829B1 (en) 2009-10-14 2019-04-17 Dolby International AB Methods and devices for depth map processing
KR101522850B1 (ko) * 2010-01-14 2015-05-26 삼성전자주식회사 움직임 벡터를 부호화, 복호화하는 방법 및 장치
EP2664144A1 (en) * 2011-01-14 2013-11-20 Motorola Mobility LLC Temporal block merge mode
US9319716B2 (en) * 2011-01-27 2016-04-19 Qualcomm Incorporated Performing motion vector prediction for video coding
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
US20120236934A1 (en) * 2011-03-18 2012-09-20 Qualcomm Incorporated Signaling of multiview video plus depth content with a block-level 4-component structure
US9536312B2 (en) * 2011-05-16 2017-01-03 Microsoft Corporation Depth reconstruction using plural depth capture units
US9479743B2 (en) * 2011-06-01 2016-10-25 Gvbb Holdings S.A.R.L. Single lens 3-D camera

Also Published As

Publication number Publication date
CA2833032C (en) 2016-08-30
KR20160003334A (ko) 2016-01-08
JP2014517563A (ja) 2014-07-17
CA2833032A1 (en) 2012-12-20
KR20140004209A (ko) 2014-01-10
CN103621093B (zh) 2018-07-03
WO2012171477A1 (en) 2012-12-20
EP2721823A4 (en) 2014-11-26
CN103621093A (zh) 2014-03-05
EP2721823A1 (en) 2014-04-23
EP2721823B1 (en) 2018-06-06
US9918068B2 (en) 2018-03-13
US20140085416A1 (en) 2014-03-27

Similar Documents

Publication Publication Date Title
JP5872676B2 (ja) 3dビデオコーディングにおけるテクスチャーイメージ圧縮方法および装置
US10212411B2 (en) Methods of depth based block partitioning
JP6042536B2 (ja) 3dビデオ符号化におけるビュー間候補導出の方法と装置
AU2019201221A1 (en) Method of sub-prediction unit inter-view motion prediction in 3D video coding
EP2898688B1 (en) Method and apparatus for deriving virtual depth values in 3d video coding
US9961370B2 (en) Method and apparatus of view synthesis prediction in 3D video coding
US9961369B2 (en) Method and apparatus of disparity vector derivation in 3D video coding
US20150172714A1 (en) METHOD AND APPARATUS of INTER-VIEW SUB-PARTITION PREDICTION in 3D VIDEO CODING
JP2015525997A5 (ja)
WO2014166304A1 (en) Method and apparatus of disparity vector derivation in 3d video coding
CA2921759C (en) Method of motion information prediction and inheritance in multi-view and three-dimensional video coding
KR20120084628A (ko) 다시점 영상 부호화/복호화 장치 및 방법
KR102020024B1 (ko) 가상 시점 합성 예측을 이용한 부호화/복호화 장치 및 부호화/복호화 방법
Suxing et al. Multi-view video coding based on resultant vector estimation

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160113

R150 Certificate of patent or registration of utility model

Ref document number: 5872676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250