JP6837056B2 - ライトフィールドベースの画像を符号化及び復号する方法及び機器並びに対応するコンピュータプログラム製品 - Google Patents
ライトフィールドベースの画像を符号化及び復号する方法及び機器並びに対応するコンピュータプログラム製品 Download PDFInfo
- Publication number
- JP6837056B2 JP6837056B2 JP2018513495A JP2018513495A JP6837056B2 JP 6837056 B2 JP6837056 B2 JP 6837056B2 JP 2018513495 A JP2018513495 A JP 2018513495A JP 2018513495 A JP2018513495 A JP 2018513495A JP 6837056 B2 JP6837056 B2 JP 6837056B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- prediction mode
- bidirectional prediction
- predicted
- pixel block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 109
- 238000004590 computer program Methods 0.000 title claims description 6
- 230000002457 bidirectional effect Effects 0.000 claims description 158
- 239000011159 matrix material Substances 0.000 claims description 62
- 238000004891 communication Methods 0.000 claims description 14
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims 1
- 230000015654 memory Effects 0.000 description 23
- 230000003287 optical effect Effects 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000272194 Ciconiiformes Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/161—Encoding, multiplexing or demultiplexing different image signal components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/146—Data rate or code amount at the encoder output
- H04N19/15—Data rate or code amount at the encoder output by monitoring actual compressed data size at the memory before deciding storage at the transmission buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/172—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Description
− 前記少なくとも1つの予測すべき画素が属する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得することと、
− 双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、以前に再構成された画素セットから少なくとも1つの最適な双方向予測モードを決定することと、
− 前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得することと、
を含む。
− 各双方向予測モードのエネルギーレベルを取得するために、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前記以前に再構成された画素セットに、前記双方向予測モードセットの各双方向予測モードを適用することと、
− エネルギーレベルが各双方向予測モードについて取得されたエネルギーレベルの最小の独立変数(argument)である双方向予測モードに対応する前記最適な双方向予測モードを選択することと、
を含む。
前記最適な双方向予測モードを決定することは、
− 前記画素グループの少なくとも1つの予測すべき画素について、各双方向予測モードのエネルギーレベルを取得するために、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前記以前に再構成された画素セットに、前記双方向予測モードセットの各双方向予測モードを適用することと、
− 前記画素グループに属する全ての予測すべき画素に対して同じ最適な双方向予測モードを選択することであって、前記最適な双方向予測モードは、エネルギーレベルが前記画素グループの少なくとも1つの予測すべき画素について取得されたエネルギーレベルの最小の独立変数である双方向予測モードに対応することと、
を含む。
前記「DC」双方向予測モードの第1の予測方向と関連する第1の予測値は、前記少なくとも1つのエピポーラ平面画像における前記予測すべき画素グループに隣接する、前記以前に再構成された画素セットの第1の部分に属する画素の平均値であり、
前記「DC」双方向予測モードの第2の予測方向と関連する第2の予測値は、前記少なくとも1つのエピポーラ平面画像における前記予測すべき画素グループに隣接する、前記以前に再構成された画素セットの第2の部分に属する画素の平均値であり、前記第2の部分は、前記第1の部分の相補部分である。
− 前記双方向予測モードセットの各双方向予測モードの各予測方向に関連する各予測値間の絶対差、又は
− 前記双方向予測モードセットの各双方向予測モードの各予測方向に関連する各予測値間の二乗絶対差に対応する。
前記最適な双方向予測モードを決定することは、前記水平エピポーラ平面画像(EPI)及び前記垂直エピポーラ平面画像(EPI)について、又は前記相異なる角度方向のエピポーラ平面画像(EPI)セットについて実行され、前記最適な双方向予測モードは、エネルギーレベルが各エピポーラ画像について取得されたエネルギーレベルの最小の独立変数である双方向予測モードに対応する。
最適な双方向予測モードは、各エピポーラ画像について決定され、前記少なくとも1つの予測すべき画素の前記予測値は、各エピポーラ画像について決定された前記最適な双方向予測モードを用いることによってそれぞれ取得された少なくとも2つの予測値の平均に対応する。
− 予測された画素ブロックを取得するために、上記で開示されているように、予測する方法に従って前記少なくとも1つの画素ブロックを予測することと、
− 前記少なくとも1つの画素ブロックと前記予測された画素ブロックとの間の差に対応する残余誤差を決定することと、
− 前記画素ブロックに関連する前記残余誤差を符号化することと、
を含む。
− 前記シーンに関連するライトフィールドデータから取得された前記ビュー行列を表す信号に前記残余誤差を挿入することと、
− 前記画素ブロック内の少なくとも1つの予測すべき画素グループを表す情報を前記信号に挿入することと、
を更に含む。
− 前記画素ブロックに関連する残余誤差を前記信号から復号することと、
− 予測された画素ブロックを取得するために、上記で開示されているように、予測する
方法に従って前記少なくとも1つの画素ブロックを予測することと、
− 前記残余誤差を前記予測された画素ブロックに追加することによって前記少なくとも1つの画素ブロックを再構成することと、
を含む。
− 予測された画素ブロックを取得するために、前記少なくとも1つの画素ブロックを予測するモジュールであって、前記モジュールが、前記画素ブロックの少なくとも1つの予測すべき画素について
○ 前記少なくとも1つの予測すべき画素が属する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得するためのエンティティと、
○ 双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、以前に再構成された画素セットから少なくとも1つの最適な双方向予測モードを決定するためのエンティティと、
○ 前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得するためのエンティティと、を含むモジュールと、
− 前記少なくとも1つの画素ブロックと前記予測された画素ブロックとの間の差に対応する残余誤差を決定するモジュールと、
− 前記画素ブロックに関連する前記残余誤差を符号化するモジュールと、
を制御するように構成されたプロセッサを含む。
− 前記画素ブロックに関連する残余誤差を復号するモジュールと、
− 予測された画素ブロックを取得するために、前記少なくとも1つの画素ブロックを予測するモジュールであって、前記モジュールが、前記画素ブロックの少なくとも1つの予測すべき画素について、
○ 前記少なくとも1つの予測すべき画素と関連する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得するためのエンティティと、
○ 双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、以前に再構成された画素セットから少なくとも1つの最適な双方向予測モードを決定するためのエンティティと、
○ 前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得するためのエンティティと、を含むモジュールと、
− 前記予測された画素ブロックに前記残余誤差を追加することによって、前記少なくとも1つの画素ブロックを再構成するモジュールと、
を制御するように構成されたプロセッサを含む。
本開示は、ビュー行列のエピポーラ平面画像(EPI)表現に基づいた新しいタイプの予測を実行する、ビュー行列の画像を符号化(又は復号)する、新しい技法を提案する。
図5は、本開示に従って予測する方法(50)の主なステップの図を概略的に示し、前記方法は、予測するモジュールによって実行される。
は、全てのv番目のサブ画像のt番目の行をスタックすることによって実現される。換言すれば、エピポーラ平面画像は、ビュー行列(17)の(u、v)平面の行(固定されたv座標は行(40)に対応する)に沿った全てのビューからビューの行(固定されたt座標はビューの行(43)に対応する)を重ねてスタックすることによって構築された2D画像である。
− 各モードの上部方向(即ち、エピポーラ平面画像hEPI0の上部hEPItop及び底部hEPIbotにそれぞれ位置する、以前に再構成された画素からスタートする矢印)
これらの式で、
● 「p(x,y)」は、図7bの4つの画素701についてそれぞれの座標(0,0)、(1,0)、(2,0)及び(3,0)における予測すべき現在の画素であり、
● 「*」は、乗算演算子に対応し、
● 「>>n」は、2nによる整数除算である。
− 前記所定の双方向予測モードセットの各所定の双方向予測モードにおける各予測方向に関連する各予測値間の絶対差
又は
− 前記所定の双方向予測モードセットの各所定の双方向予測モードの予測方向に関連する各予測値間の二乗絶対差
と
に対応する。
は、前記少なくとも1つのエピポーラ平面画像における前記予測すべき画素グループG_Pixに隣接する、前記以前に再構成された画素セット(7000)の上部hEPItopに属する画素の平均値であり、前記「DC」双方向予測モードの第2の予測方向に関連する第2の予測値
は、前記少なくとも1つのエピポーラ平面画像における前記予測すべき画素グループG_Pixに隣接する、前記以前に再構成された画素セット(7000)の底部hEPIbotに属する画素の平均値であり、前記第2の部分は、前記第1の部分の相補部分である。
など、各エピポーラ平面画像について取得されたエネルギーレベルの最小の独立変数である双方向予測モードに対応する。
● p(0,0)=p0=(p(0,−1)+p(0,1)+1)>>1
● p(1,0)=p3=((p(1,−1)+2*p(2,−1)+p(3,−1)+2)>>2+(p(1,1)+2*p(0,1)+p(−1,1)+2)>>2+1)>>1
● p(2,0)=p5=((p(1,−1)+p(2,−1)+1)>>1+(p(3,+1)+p(2,1)+1) >>1+1)>>1
● p(3,0)=p8=((p(4,−1)+2*p(5,−1)+p(6,−1)+2)>>2+(p(2,1)+2*p(1,1)+p(0,1)+2)>>2+1)>>1
又は
● p(1,0)=p3=(p(1,−1)+2*p(2,−1)+p(3,−1)+p(1,1)+2*p(0,1)+p(−1,1)+4)>>3
● p(2,0)=p5=(p(1,−1)+p(2,−1)+p(3,+1)+p(2,1)+2)>>2
● p(3,0)=p8=(p(4,−1)+2*p(5,−1)+p(6,−1)+p(2,1)+2*p(1,1)+p (0,1)+4)>>3
● p(0,0)=p0=(p(0,−1)+p(0,1)+1)>>1
● p(1,0)=p0=(p(1,−1)+p(1,1)+1)>>1
● p(2,0)=p0=(p(2,−1)+p(2,1)+1)>>1及び
● p(3,0)=p0=(p(3,−1)+p(3,1)+1)>>1
前に説明したような予測技法は、ビュー行列エンコーダによって用いることができる。実際に、本開示は、ビュー行列の画像を符号化(復号それぞれ)する方法を提供することを目標とし、この目標は、上記で開示されているように、ビュー行列のエピポーラ平面画像(EPI)表現に基づいた新しいタイプの予測を用いる。
− 予測された画素ブロックを取得するために、上記のような予測する方法に従って、前記少なくとも1つの画素ブロックを予測すること(50)と、
− 決定するモジュールを用いることによって、前記少なくとも1つの画素ブロックと前記予測された画素ブロックとの間の差に対応する残余誤差を決定すること(101)と、
− 符号化するモジュールを用いることによって、前記画素ブロックに関連する前記残余誤差を符号化すること(102)と、
である。
− 前記シーンに関連するライトフィールドデータから取得された前記ビュー行列を表す信号における前記符号化された残余誤差を補間すること(103)と、
− 前記画素ブロック内の少なくとも1つの予測すべき画素グループを表す情報を前記信号に挿入すること(104)と、
を更に含む。
ここで図10を参照すると、ビュー行列を復号するのに適したデコーダにおいて実施される復号の主なステップが示されている。
− 復号するモジュールを用いて、前記信号から、前記画素ブロックに関連する残余誤差を復号すること(111)と、
− 予測するモジュールを用いることによって、予測された画素ブロックを取得するために、請求項1〜8のいずれか一項に記載の予測方法に従って、前記少なくとも1つの画素ブロックを予測すること(112)と、
− 再構成するモジュールを用いることにより、前記予測された画素ブロックに前記残余誤差を追加することによって前記少なくとも1つの画素ブロック再構成すること(113)と、
を含み、
前記画素ブロック内の少なくとも1つの予測すべき画素グループを表す情報を前記信号から抽出すること(114)であって、前記予測が、前記情報を考慮することを更に含む。
図5、6a及び6b、9及び10において、モジュールは、機能ユニットであり、それらは、区別可能な物理ユニットと関連してもしなくてもよい。例えば、これらのモジュール又はそれらの幾つかは、ユニークなコンポーネント若しくは回路にまとめられるか、又はソフトウェアの機能に寄与してもよい。反対に、幾つかのモジュールは、潜在的に別個の物理的エンティティから構成されてもよい。本開示と適合する機器は、例えば、それぞれ<<特定用途向け集積回路>>、<<フィールドプログラマブルゲートアレイ>>、<<超大型集積回路>>であるASIC、FPGA若しくはVLSIなどの専用ハードウェアを用いる純粋なハードウェアを使用して、又は装置に埋め込まれた幾つかの集積電子コンポーネント若しくはハードウェア及びソフトウエアコンポーネントの混合から実現される。
− 例えばDSP(又はデジタル信号プロセッサ)であるマイクロプロセッサ1303(又はCPU)と、
− ROM(又は読み出し専用メモリ)1302と、
− RAM(又はランダムアクセスメモリ)1304と、
− アプリケーションからのデータの送信及び/又は受信用のI/Oインターフェース1305と、
− バッテリ1306と、
を含む。
− ローカルメモリ(1302又は1304)、例えばビデオメモリ又はRAM(即ちランダムアクセスメモリ)、フラッシュメモリ、ROM(即ち読み出し専用メモリ)、ハードディスクと、
− 記憶インターフェース、例えば、大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートを備えたインターフェースと、
− 通信インターフェース(1305)、例えば有線インターフェース(例えば、バスインターフェース、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース)、又は無線インターフェース(IEEE802.11インターフェース若しくはBluetooth(登録商標)インターフェースなど)と、
− 画像捕捉回路(例えばCCD(即ち電荷結合素子)又はCMOS(即ち相補型金属酸化膜半導体)などの例えばセンサ)と、
を含むセットに属する。
− ローカルメモリ(1302又は1304)、例えばビデオメモリ又はRAM(即ちランダムアクセスメモリ)、フラッシュメモリ、ROM(即ち読み出し専用メモリ)、ハードディスクと、
− 記憶インターフェース、例えば大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク又は磁気サポートを備えたインターフェースと、
− 通信インターフェース(1305)、例えば有線インターフェース(例えば、バスインターフェース、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース)、又は無線インターフェース(IEEE802.11インターフェース若しくはBluetooth(登録商標)インターフェースなど)と、
− ディスプレイと、
を含むセットに属する。
[付記1]
シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの少なくとも1つの画素ブロックを予測する方法であって、
前記方法が、プロセッサによって実行され、前記画素ブロックの少なくとも1つの予測すべき画素について、
前記少なくとも1つの予測すべき画素が属する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得することと、
双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、以前に再構成された画素セットから少なくとも1つの最適な双方向予測モードを決定することと、
前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得することと、
を含む、予測する方法。
[付記2]
前記最適な双方向予測モードを決定することが、前記画素ブロックの少なくとも1つの予測すべき画素について、
各双方向予測モードのエネルギーレベルを取得するために、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前記以前に再構成された画素セットに、前記双方向予測モードセットの各双方向予測モードを適用することと、
前記エネルギーレベルが各双方向予測モードについて取得されたエネルギーレベルの最小の独立変数である前記双方向予測モードに対応する前記最適な双方向予測モードを選択することと、
を含む、付記1に記載の予測する方法。
[付記3]
前記画素ブロック内の少なくとも1つの予測すべき画素グループを提供することであって、前記画素グループが、同じ行の、同じ列の、又は前記画素ブロックの行若しくは列に対して或る角度方向を示す少なくとも2つの画素のセットの少なくとも2つの画素を含み、
前記最適な双方向予測モードを決定することが、
前記画素グループの少なくとも1つの予測すべき画素について、各双方向予測モードのエネルギーレベルを取得するために、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前記以前に再構成された画素セットに、前記双方向予測モードセットの各所定の双方向予測モードを適用することと、
前記画素グループに属する全ての予測すべき画素に対して同じ最適な双方向予測モードを選択することであって、前記最適な双方向予測モードが、前記エネルギーレベルが前記画素グループの少なくとも1つの予測すべき画素について取得されたエネルギーレベルの最小の独立変数である前記双方向予測モードに対応することと、
を含むことを更に含む、付記1に記載の予測する方法。
[付記4]
前記予測すべき1つの画素が属する少なくとも2つのエピポーラ平面画像(EPI)が、水平エピポーラ平面画像(EPI)及び垂直エピポーラ平面画像(EPI)に、又は相異なる角度方向のエピポーラ平面画像(EPI)セットに対応する場合に、
前記最適な双方向予測モードを決定することが、前記水平エピポーラ平面画像(EPI)及び前記垂直エピポーラ平面画像(EPI)について、又は前記相異なる角度方向のエピポーラ平面画像(EPI)セットについて実行され、前記最適な双方向予測モードが、前記エネルギーレベルが少なくとも1つのエピポーラ画像について取得されたエネルギーレベルの最小の独立変数である双方向予測モードに対応する、付記2又は3に記載の予測する方法。
[付記5]
1つの予測すべき画素が属する少なくとも2つのエピポーラ平面画像(EPI)が、水平エピポーラ平面画像(EPI)及び垂直エピポーラ平面画像(EPI)に、又は相異なる角度方向のエピポーラ平面画像(EPI)セットに対応する場合に、
最適な双方向予測モードが、各エピポーラ画像について決定され、前記少なくとも1つの予測すべき画素の前記予測値が、少なくとも2つのエピポーラ画像について決定された前記最適な双方向予測モードを用いることによってそれぞれ取得された少なくとも2つの予測値の平均に対応する、付記2〜4のいずれか一項に記載の予測する方法。
[付記6]
シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの前記少なくとも1つの画素ブロックを符号化する方法であって、前記方法が、プロセッサによって実行され、
予測された画素ブロックを取得するために、付記1〜5のいずれか一項に記載の予測する方法に従って前記少なくとも1つの画素ブロックを予測することと、
前記少なくとも1つの画素ブロックと前記予測された画素ブロックとの間の差に対応する残余誤差を決定することと、
前記画素ブロックに関連する前記残余誤差を符号化することと、
を含む、符号化する方法。
[付記7]
前記シーンに関連するライトフィールドデータから取得された前記ビュー行列を表す信号に前記残余誤差を挿入することと、
前記画素ブロック内の少なくとも1つの予測すべき画素グループを表す情報を前記信号に挿入することと、
を更に含む、付記6に記載の符号化する方法。
[付記8]
シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの少なくとも1つの画素ブロックを表す信号を復号する方法であって、前記方法が、プロセッサによって実行され、
前記画素ブロックに関連する残余誤差を前記信号から復号することと、
予測された画素ブロックを取得するために、付記1〜8のいずれか一項に記載の前記予測する方法に従って、前記少なくとも1つの画素ブロックを予測することと、
前記予測された画素ブロックに前記残余誤差を追加することによって、前記少なくとも1つの画素ブロックを再構成することと、
を含む、復号する方法。
[付記9]
前記画素ブロック内の少なくとも1つの予測すべき画素グループの形成を表す情報を前記信号から抽出することであって、前記予測が前記情報を考慮することを更に含む、付記8に記載の復号する方法。
[付記10]
シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの少なくとも1つの画素ブロックを符号化する装置であって、前記装置が、
予測された画素ブロックを取得するために、前記少なくとも1つの画素ブロックを予測するモジュールであって、前記モジュールが、前記画素ブロックの各予測すべき画素について、
前記少なくとも1つの予測すべき画素が属する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得するためのエンティティと、
双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、以前に再構成された画素セットから少なくとも1つの最適な双方向予測モードを決定するためのエンティティと、
前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得するためのエンティティと、を含むモジュールと、
前記少なくとも1つの画素ブロックと前記予測された画素ブロックとの間の差に対応する残余誤差を決定するモジュールと、
前記画素ブロックに関連する前記残余誤差を符号化するモジュールと、
を制御するように構成されたプロセッサを含む、符号化する装置。
[付記11]
前記シーンに関連するライトフィールドデータから取得された前記ビュー行列を表す信号に前記残余誤差を挿入するモジュールと、
前記画素ブロック内の少なくとも1つの予測すべき画素グループを表す情報を前記信号に挿入するモジュールと、
を更に含む、付記10に記載の符号化する装置。
[付記12]
シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの少なくとも1つの画素ブロックを表す信号を復号する装置であって、前記装置が、
前記画素ブロックに関連する残余誤差を復号するモジュールと、
予測された画素ブロックを取得するために、前記少なくとも1つの画素ブロックを予測するモジュールであって、前記モジュールが、前記画素ブロックの少なくとも1つの予測すべき画素について、
前記少なくとも1つの予測すべき画素が属する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得するためのエンティティと、
双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前に再構成された画素から少なくとも1つの最適な双方向予測モードを決定するためのエンティティと、
前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得するためのエンティティと、を含むモジュールと、
前記予測された画素ブロックに前記残余誤差を追加することによって、前記少なくとも1つの画素ブロックを再構成するモジュールと、
を制御するように構成されたプロセッサを含む、符号化する装置。
[付記13]
前記画素ブロック内の少なくとも1つの予測すべき画素グループの形成を表す情報を前記信号から抽出するモジュールであって、前記予測が、情報を考慮するモジュールを更に含む、付記12に記載の符号化する装置。
[付記14]
付記1〜5か、6〜7か又は8〜9のいずれか一項に記載の方法を実行するかためのプログラムコード命令を含む、通信ネットワークからダウンロード可能な、並びに/又はコンピュータによって可読な及び/若しくはプロセッサによって実行可能な媒体上に記録されたコンピュータプログラム製品。
[付記15]
付記1〜5か、6〜7か又は8〜9のいずれか一項に記載の方法を実行するかためのプログラムコード命令を含む、自らに記録した且つプロセッサによって実行することができるコンピュータプログラム製品を含む非一時的なコンピュータ可読媒体。
Claims (14)
- シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの少なくとも1つの画素ブロックを予測する方法であって、
前記方法が、プロセッサによって実行され、前記画素ブロックの少なくとも1つの予測すべき画素について、
前記少なくとも1つの予測すべき画素が属する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得することと、
双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、以前に再構成された画素セットから少なくとも1つの最適な双方向予測モードを決定することと、
前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得することと、
を含み、
前記画素ブロック内の少なくとも1つの予測すべき画素グループを提供することであって、前記画素グループが、同じ行の、同じ列の、又は前記画素ブロックの行若しくは列に対して或る角度方向を示す少なくとも2つの画素のセットの少なくとも2つの画素を含み、
前記最適な双方向予測モードを決定することが、
前記画素グループの少なくとも1つの予測すべき画素について、各双方向予測モードのエネルギーレベルを取得するために、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前記以前に再構成された画素セットに、前記双方向予測モードセットの各所定の双方向予測モードを適用することと、
前記画素グループに属する全ての予測すべき画素に対して同じ最適な双方向予測モードを選択することであって、前記最適な双方向予測モードが、前記エネルギーレベルが前記画素グループの少なくとも1つの予測すべき画素について取得されたエネルギーレベルの最小の独立変数である前記双方向予測モードに対応することと、
を含むことを更に含む、予測する方法。 - 前記エネルギーレベルが、各双方向予測モードに属する少なくとも2つの方向間の空間勾配に対応する、請求項1に記載の方法。
- 前記予測すべき1つの画素が属する少なくとも2つのエピポーラ平面画像(EPI)が、水平エピポーラ平面画像(EPI)及び垂直エピポーラ平面画像(EPI)に、又は相異なる角度方向のエピポーラ平面画像(EPI)セットに対応する場合に、
前記最適な双方向予測モードを決定することが、前記水平エピポーラ平面画像(EPI)及び前記垂直エピポーラ平面画像(EPI)について、又は前記相異なる角度方向のエピポーラ平面画像(EPI)セットについて実行され、前記最適な双方向予測モードが、前記エネルギーレベルが少なくとも1つのエピポーラ画像について取得されたエネルギーレベルの最小の独立変数である双方向予測モードに対応する、請求項2に記載の方法。 - 1つの予測すべき画素が属する少なくとも2つのエピポーラ平面画像(EPI)が、水平エピポーラ平面画像(EPI)及び垂直エピポーラ平面画像(EPI)に、又は相異なる角度方向のエピポーラ平面画像(EPI)セットに対応する場合に、
最適な双方向予測モードが、各エピポーラ画像について決定され、前記少なくとも1つの予測すべき画素の前記予測値が、少なくとも2つのエピポーラ画像について決定された前記最適な双方向予測モードを用いることによってそれぞれ取得された少なくとも2つの予測値の平均に対応する、請求項2又は3に記載の方法。 - シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの前記少なくとも1つの画素ブロックを符号化する方法であって、前記方法が、プロセッサによって実行され、
予測された画素ブロックを取得するために、請求項1〜4のいずれか一項に記載の前記方法に従って前記少なくとも1つの画素ブロックを予測することと、
前記少なくとも1つの画素ブロックと前記予測された画素ブロックとの間の差に対応する残余誤差を決定することと、
前記画素ブロックに関連する前記残余誤差を符号化することと、
を含む、符号化する方法。 - 前記シーンに関連するライトフィールドデータから取得された前記ビュー行列を表す信号に前記残余誤差を挿入することと、
前記画素ブロック内の少なくとも1つの予測すべき画素グループを表す情報を前記信号に挿入することと、
を更に含む、請求項5に記載の符号化する方法。 - シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの少なくとも1つの画素ブロックを表す信号を復号する方法であって、前記方法が、プロセッサによって実行され、
前記画素ブロックに関連する残余誤差を前記信号から復号することと、
予測された画素ブロックを取得するために、請求項1〜6のいずれか一項に記載の前記方法に従って、前記少なくとも1つの画素ブロックを予測することと、
前記予測された画素ブロックに前記残余誤差を追加することによって、前記少なくとも1つの画素ブロックを再構成することと、
を含む、復号する方法。 - 前記画素ブロック内の少なくとも1つの予測すべき画素グループの形成を表す情報を前記信号から抽出することであって、前記予測が前記情報を考慮することを更に含む、請求項7に記載の復号する方法。
- シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの少なくとも1つの画素ブロックを符号化する装置であって、前記装置が、
予測された画素ブロックを取得することであって、前記画素ブロックの各予測すべき画素について、
前記少なくとも1つの予測すべき画素が属する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得することと、
双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、以前に再構成された画素セットから少なくとも1つの最適な双方向予測モードを決定することと、
前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得することと、
前記画素ブロック内の少なくとも1つの予測すべき画素グループを提供することであって、前記画素グループが、同じ行の、同じ列の、又は前記画素ブロックの行若しくは列に対して或る角度方向を示す少なくとも2つの画素のセットの少なくとも2つの画素を含み、
前記最適な双方向予測モードを決定することが、
前記画素グループの少なくとも1つの予測すべき画素について、各双方向予測モードのエネルギーレベルを取得するために、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前記以前に再構成された画素セットに、前記双方向予測モードセットの各所定の双方向予測モードを適用することと、
前記画素グループに属する全ての予測すべき画素に対して同じ最適な双方向予測モードを選択することであって、前記最適な双方向予測モードが、前記エネルギーレベルが前記画素グループの少なくとも1つの予測すべき画素について取得されたエネルギーレベルの最小の独立変数である前記双方向予測モードに対応することと、
を含む、取得することと、
前記少なくとも1つの画素ブロックと前記予測された画素ブロックとの間の差に対応する残余誤差を決定することと、
前記画素ブロックに関連する前記残余誤差を符号化することと、
を行うように構成されたプロセッサを含む、符号化する装置。 - 前記プロセッサが、
前記シーンに関連するライトフィールドデータから取得された前記ビュー行列を表す信号に前記残余誤差を挿入することと、
前記画素ブロック内の少なくとも1つの予測すべき画素グループを表す情報を前記信号に挿入することと、
を更に行うように構成される、請求項9に記載の符号化する装置。 - シーンに関連するライトフィールドデータから取得されたビュー行列に属するビューの少なくとも1つの画素ブロックを表す信号を復号する装置であって、前記装置が、
前記画素ブロックに関連する残余誤差を復号することと、
予測された画素ブロックを取得するために、前記少なくとも1つの画素ブロックを予測することであって、前記画素ブロックの少なくとも1つの予測すべき画素について、
前記少なくとも1つの予測すべき画素が属する少なくとも1つのエピポーラ平面画像(EPI)を前記ビュー行列から取得することと、
双方向予測モードセットの中で、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前に再構成された画素から少なくとも1つの最適な双方向予測モードを決定することと、
前記少なくとも1つの最適な双方向予測モードを用いて補間を実行することによって、前記少なくとも1つの予測すべき画素の予測値を取得することと、
前記画素ブロック内の少なくとも1つの予測すべき画素グループを提供することであって、前記画素グループが、同じ行の、同じ列の、又は前記画素ブロックの行若しくは列に対して或る角度方向を示す少なくとも2つの画素のセットの少なくとも2つの画素を含み、
前記最適な双方向予測モードを決定することが、
前記画素グループの少なくとも1つの予測すべき画素について、各双方向予測モードのエネルギーレベルを取得するために、前記少なくとも1つのエピポーラ平面画像における前記少なくとも1つの予測すべき画素に隣接する、前記以前に再構成された画素セットに、前記双方向予測モードセットの各所定の双方向予測モードを適用することと、
前記画素グループに属する全ての予測すべき画素に対して同じ最適な双方向予測モードを選択することであって、前記最適な双方向予測モードが、前記エネルギーレベルが前記画素グループの少なくとも1つの予測すべき画素について取得されたエネルギーレベルの最小の独立変数である前記双方向予測モードに対応することと、
を含む、取得することと、
前記予測された画素ブロックに前記残余誤差を追加することによって、前記少なくとも1つの画素ブロックを再構成することと、
を行うするように構成されたプロセッサを含む、復号する装置。 - 前記プロセッサが、前記画素ブロック内の前記少なくとも1つの予測すべき画素グループの形成を表す情報を前記信号から抽出することであって、前記予測が、前記情報を考慮する、抽出することを更に行うように構成される、請求項11に記載の復号する装置。
- 請求項1〜8のいずれか一項に記載の方法を実行するためのプログラムコード命令を含む、通信ネットワークからダウンロード可能な、並びに/又はコンピュータによって可読な及び/若しくはプロセッサによって実行可能な媒体上に記録されたコンピュータプログラム。
- 請求項1〜8のいずれか一項に記載の方法を実行するためのプログラムコード命令を含む、自らに記録した且つプロセッサによって実行することができるコンピュータプログラムを含む非一時的なコンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP15306408.4A EP3142365A1 (en) | 2015-09-14 | 2015-09-14 | Method and apparatus for encoding and decoding a light field based image, and corresponding computer program product |
EP15306408.4 | 2015-09-14 | ||
PCT/EP2016/071716 WO2017046175A1 (en) | 2015-09-14 | 2016-09-14 | Method and apparatus for encoding and decoding a light field based image, and corresponding computer program product |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018530963A JP2018530963A (ja) | 2018-10-18 |
JP2018530963A5 JP2018530963A5 (ja) | 2019-10-17 |
JP6837056B2 true JP6837056B2 (ja) | 2021-03-03 |
Family
ID=54199139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018513495A Active JP6837056B2 (ja) | 2015-09-14 | 2016-09-14 | ライトフィールドベースの画像を符号化及び復号する方法及び機器並びに対応するコンピュータプログラム製品 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10652577B2 (ja) |
EP (2) | EP3142365A1 (ja) |
JP (1) | JP6837056B2 (ja) |
KR (1) | KR20180053699A (ja) |
CN (1) | CN108353189A (ja) |
WO (1) | WO2017046175A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10354399B2 (en) * | 2017-05-25 | 2019-07-16 | Google Llc | Multi-view back-projection to a light-field |
EP3422722A1 (en) * | 2017-06-30 | 2019-01-02 | Thomson Licensing | Method for encoding a matrix of image views obtained from data acquired by a plenoptic camera |
CN107770537B (zh) * | 2017-11-02 | 2020-03-31 | 中国科学技术大学 | 基于线性重建的光场图像压缩方法 |
US11160710B1 (en) | 2020-05-20 | 2021-11-02 | Augustine Biomedical + Design, LLC | Relocation module and methods for surgical equipment |
US11432982B2 (en) | 2018-03-26 | 2022-09-06 | Augustine Biomedical + Design, LLC | Relocation module and methods for surgical equipment |
US11426318B2 (en) | 2020-05-20 | 2022-08-30 | Augustine Biomedical + Design, LLC | Medical module including automated dose-response record system |
US11219570B2 (en) | 2018-03-26 | 2022-01-11 | Augustine Biomedical + Design, LLC | Relocation module and methods for surgical equipment |
US10507153B2 (en) | 2018-03-26 | 2019-12-17 | Augustine Biomedical + Design, LLC | Relocation modules and methods for surgical field |
US11446196B2 (en) | 2018-03-26 | 2022-09-20 | Augustine Biomedical + Design, LLC | Relocation module and methods for surgical equipment |
US10869800B2 (en) | 2018-03-26 | 2020-12-22 | Augustine Biomedical + Design, LLC | Relocation module and methods for surgical equipment |
US11291602B2 (en) | 2018-03-26 | 2022-04-05 | Augustine Biomedical + Design, LLC | Relocation module and methods for surgical equipment |
WO2020140220A1 (zh) * | 2019-01-02 | 2020-07-09 | Oppo广东移动通信有限公司 | 帧内预测方法及装置、视频编码设备、存储介质 |
CN110580481B (zh) * | 2019-08-09 | 2022-01-11 | 西安理工大学 | 一种基于epi的光场图像关键位置检测方法 |
BR102021009291A2 (pt) * | 2021-05-13 | 2022-11-22 | Samsung Eletrônica da Amazônia Ltda. | Método de intrapredição quadridimensional para codificação e decodificação de dados de light field |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69434685T2 (de) * | 1993-08-04 | 2006-09-14 | Canon K.K. | Bildverarbeitungsverfahren und -gerät |
EP0707288B1 (en) | 1994-10-14 | 2003-08-27 | Canon Kabushiki Kaisha | Image processing method and apparatus |
WO2007013194A1 (ja) * | 2005-07-26 | 2007-02-01 | National University Corporation Nagoya University | 画像情報圧縮方法及び自由視点テレビシステム |
JP4825984B2 (ja) * | 2005-08-29 | 2011-11-30 | 国立大学法人名古屋大学 | 画像情報圧縮方法、画像情報圧縮装置、及び自由視点テレビシステム |
JP2007180982A (ja) | 2005-12-28 | 2007-07-12 | Victor Co Of Japan Ltd | 画像復号装置、画像復号方法、及び画像復号プログラム |
WO2010086544A1 (fr) * | 2009-01-28 | 2010-08-05 | France Telecom | Procede et dispositif de codage d'une image utilisant un masque de prediction, procede et dispositif de decodage, signal et programmes d'ordinateur correspondants |
EP2280548B1 (en) * | 2009-07-30 | 2018-03-28 | Thomson Licensing DTV | Method for decoding a stream of coded data representative of a sequence of images and method for coding a sequence of images |
WO2013030458A1 (en) * | 2011-08-31 | 2013-03-07 | Nokia Corporation | Multiview video coding and decoding |
JP5206853B2 (ja) * | 2011-09-08 | 2013-06-12 | カシオ計算機株式会社 | 補間画像生成装置、再構成画像生成装置、補間画像生成方法及びプログラム |
US8995785B2 (en) | 2012-02-28 | 2015-03-31 | Lytro, Inc. | Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices |
KR101641606B1 (ko) | 2012-07-09 | 2016-07-21 | 니폰 덴신 덴와 가부시끼가이샤 | 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치, 화상 복호 장치, 화상 부호화 프로그램, 화상 복호 프로그램 및 기록매체 |
-
2015
- 2015-09-14 EP EP15306408.4A patent/EP3142365A1/en not_active Withdrawn
-
2016
- 2016-09-14 KR KR1020187010267A patent/KR20180053699A/ko not_active Application Discontinuation
- 2016-09-14 CN CN201680065467.1A patent/CN108353189A/zh active Pending
- 2016-09-14 US US15/759,215 patent/US10652577B2/en active Active
- 2016-09-14 WO PCT/EP2016/071716 patent/WO2017046175A1/en active Application Filing
- 2016-09-14 JP JP2018513495A patent/JP6837056B2/ja active Active
- 2016-09-14 EP EP16769920.6A patent/EP3350999A1/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
WO2017046175A1 (en) | 2017-03-23 |
CN108353189A (zh) | 2018-07-31 |
EP3142365A1 (en) | 2017-03-15 |
JP2018530963A (ja) | 2018-10-18 |
KR20180053699A (ko) | 2018-05-23 |
US20180255319A1 (en) | 2018-09-06 |
EP3350999A1 (en) | 2018-07-25 |
US10652577B2 (en) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6837056B2 (ja) | ライトフィールドベースの画像を符号化及び復号する方法及び機器並びに対応するコンピュータプログラム製品 | |
Li et al. | Scalable coding of plenoptic images by using a sparse set and disparities | |
JP6901468B2 (ja) | 光照射野ベース画像を符号化及び復号する方法と装置、および対応するコンピュータプログラム製品 | |
JP6872533B2 (ja) | ライトフィールドベース画像を符号化および復号する方法および装置、および対応するコンピュータプログラム製品 | |
GB2535475A (en) | Optimized plenoptic image encoding | |
US11665369B2 (en) | Method and a device for encoding a signal representative of a light-field content | |
WO2017055092A1 (en) | Method and apparatus for reducing the coding artefact of a light field based image, and corresponding computer program product | |
US20170150152A1 (en) | Methods and devices for encoding and decoding a matrix of views obtained from light-field data, corresponding computer program and non-transitory program storage device | |
US10580210B2 (en) | Method and device for refocusing at least one plenoptic video | |
JP2020195093A (ja) | 符号化装置、復号装置、及びプログラム | |
EP3203742A1 (en) | System and method for encoding and decoding information representative of a focalization distance associated to an image belonging to a focal stack representative of a light field content | |
JP7382186B2 (ja) | 符号化装置、復号装置、及びプログラム | |
EP3185560A1 (en) | System and method for encoding and decoding information representative of a bokeh model to be applied to an all-in-focus light-field content | |
Phi | Perceptually Optimized Plenoptic Data Representation and Coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190903 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190903 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20191106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6837056 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |