JP6631054B2 - 仮想視点画像生成装置及びプログラム - Google Patents

仮想視点画像生成装置及びプログラム Download PDF

Info

Publication number
JP6631054B2
JP6631054B2 JP2015133615A JP2015133615A JP6631054B2 JP 6631054 B2 JP6631054 B2 JP 6631054B2 JP 2015133615 A JP2015133615 A JP 2015133615A JP 2015133615 A JP2015133615 A JP 2015133615A JP 6631054 B2 JP6631054 B2 JP 6631054B2
Authority
JP
Japan
Prior art keywords
image
horizontal
virtual viewpoint
vertical
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015133615A
Other languages
English (en)
Other versions
JP2017017581A (ja
Inventor
和仁 迫水
和仁 迫水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2015133615A priority Critical patent/JP6631054B2/ja
Publication of JP2017017581A publication Critical patent/JP2017017581A/ja
Application granted granted Critical
Publication of JP6631054B2 publication Critical patent/JP6631054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、仮想視点画像生成装置及びプログラムに関し、特に、2以上の視点位置で撮影された複数の画像から、仮想の視点位置で撮影したときに得られるだろう画像を生成する場合に好適なものである。
近年、視聴者の目の動きに追従して、表示視点を変更する表示装置や、2視点以上の映像を同時に投射する表示装置など、両眼視差や運動視差により、視聴者に立体感のある画像を提供する表示装置が注目を集めている。
このような表示装置では、撮影する視点間の距離の小ささが主観品質に大きな影響を与える場合が多く、可能な限り視点間の距離を縮めることが求められる。静止画の場合、例えばカメラによる撮影後、カメラを移動させて再度撮影する等の処理を繰り返すことで、2視点以上の位置で撮像した画像を得ることができる。また、少なくとも、このような方法を用いる場合、視点間の距離を縮めるためには、上述したカメラの移動量を少なくすることで実現できる。
しかし、静止画ではなく動画を撮影する場合、視点間の距離を縮めるために、カメラモジュールの小型化が必要となる。カメラモジュールの小型化には、撮影可能な解像度の低下や、レンズ性能の低下、設計製造コストの増加などのトレードオフが存在する。
そのため、限られた視点で撮影された画像(以下、実撮影画像とも呼ぶ。)から、例えば、カメラモジュールを設置できないような、実撮影画像に係る複数の視点間の視点(仮想視点)で撮影された画像(以下、仮想視点画像とも呼ぶ。)を推定して生成する技術が求められている。
特許文献1は、2つの視点で撮影した3枚の画像から、仮想の視点で撮影された画像を生成する技術を提案している。特許文献1の記載技術は、画像間で対応するブロックまたは画素を探索し、そこから内挿ベクトルを求めることで、仮想視点画像としての補間画像を生成する。
非特許文献1は、フレーム間を補完し、フレームレートを向上させる技術を提案している。非特許文献1の記載技術を視点補間に応用することも想定できる。
詳細な処理内容は、特許文献1の記載技術と非特許文献1の記載技術とで異なる。しかし、対応するブロック又は画素の探索と、補間する視点(仮想視点)に対応するベクトルの算出と、ベクトルを用いた補間画像(仮想視点画像)の生成からなる、ということは、特許文献1の記載技術と非特許文献1の記載技術とで共通している。
図8は、2つの視点で撮影された2枚の画像から仮想視点画像を生成する、上述した共通の記載技術の構成を書き出したブロック図である。図8に示すよう装置(以下、従来の仮想視点画像生成装置と呼ぶ。)の構成は、第1の入力画像PIC1、第2の入力画像PIC2及び仮想視点位置VPVを入力して、補間画像IPPIC0を出力する。
従来の仮想視点画像生成装置10へ入力される第1の入力画像PIC1及び第2の入力画像PIC2は、垂直方向が同じで水平方向が異なる実撮影画像である。第1の入力画像PIC1の視点と、第2の入力画像PIC2との視点を結ぶ線分上に仮想視点位置VPVが指定される。従って、従来の仮想視点画像生成装置10は、図9に示すように、第1の入力画像PIC1及び第2の入力画像PIC2に対し、仮想視点位置VPVに応じて水平方向に補間して補間画像(仮想視点画像)IPPIC0を得る水平方向処理部110から構成されている。
水平方向処理部110は、第1の入力画像PIC1と第2の入力画像PIC2の間で、一致又は類似する、ブロック(又は画素)を探索し、水平方向視差ベクトルを出力する水平方向一致ブロック探索部111と、水平方向視差ベクトルと仮想視点位置と実撮影画像の視点位置とから内挿ベクトルを求める内挿ベクトル算出部112と、内挿ベクトルと第2の入力画像PIC2とから水平方向補間画像(仮想視点画像)IPPIC0を生成する水平方向補間画像生成部113とを有する(各部111、112、113の詳細な機能については後述する「実施形態」の項に記載している)。
特開2014−72801号公報
J.Ascenso,C,Brites,and F.Pereira,"Improving frame interpolation with spatial motion smoothing for pixel domain distributed video coding,"5th EURASIP Conference on,2005.
しかしながら、複数の入力画像の間でブロック(又は画素)ごとの対応付けを行うと、例えば、オクルージョンの存在や、照明の当たり方の違い等の理由で、ブロック(又は画素)ごとの対応づけに誤りが発生し得る。ブロックまたは画素ごとの対応づけの誤りは、生成される補間画像の歪に繋がる。また、オクルージョンが発生している領域については、仮に正しくオクルージョン領域を検出できたとしても、同領域に属する画素値をどのように設定すれば良いかを2視点間から正確に決定することは困難であり、推定誤りが補間画像の歪となって現れてしまう。
そのため、演算量の増加を抑えながら、補間画像の歪を低減することができる仮想視点画像生成装置及びプログラムが求められている。
かかる課題を解決するために、第1の本発明に係る仮想視点画像生成装置は、(1)第1の入力画像及び第2の入力画像と、第1の入力画像及び第2の入力画像に係る両視点を通る直線上に設定された仮想視点の位置とから、仮想視点の位置から撮影したと仮定した場合の水平方向補間画像を生成するものであって、第1の入力画像と第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、少なくとも、その関係を表す水平方向視差ベクトルを出力する水平方向処理部と、(2)少なくとも、水平方向視差ベクトルから、水平方向の探索範囲を決定し、第1の入力画像及び第2の入力画像に係る両視点を通る直線上に設定された仮想視点と水平方向に同じで垂直方向に異なる視点から撮影された垂直画像と、第1の入力画像と第2の入力画像とのいずれか又は両方の入力画像とから、仮想視点の位置から撮影したと仮定した場合の垂直方向補間画像を生成する少なくとも1つの垂直方向処理部と、(3)水平方向補間画像と垂直方向補間画像とを統合し、最終的な仮想視点画像を生成する補間画像統合部とを備えることを特徴とする。
第2の本発明に係る仮想視点画像生成プログラムは、コンピュータを、(1)第1の入力画像及び第2の入力画像と、第1の入力画像及び第2の入力画像に係る両視点を通る直線上に設定された仮想視点の位置とから、仮想視点の位置から撮影したと仮定した場合の水平方向補間画像を生成するものであって、第1の入力画像と第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、少なくとも、その関係を表す水平方向視差ベクトルを出力する水平方向処理部と、(2)少なくとも、水平方向視差ベクトルから、水平方向の探索範囲を決定し、第1の入力画像及び第2の入力画像に係る両視点を通る直線上に設定された仮想視点と水平方向に同じで垂直方向に異なる視点から撮影された垂直画像と、第1の入力画像と第2の入力画像とのいずれか又は両方の入力画像とから、仮想視点の位置から撮影したと仮定した場合の垂直方向補間画像を生成する少なくとも1つの垂直方向処理部と、(3)水平方向補間画像と垂直方向補間画像とを統合し、最終的な仮想視点画像を生成する補間画像統合部として機能させることを特徴とする。
本発明によれば、演算量の増加を抑えながら、補間画像の歪を低減することができる。
実施形態の仮想視点画像生成装置の構成を示すブロック図である。 実施形態の仮想視点画像生成装置への入力画像の視点と仮想視点との位置関係の説明図である。 実施形態の仮想視点画像生成装置における垂直方向の補間方法を説明する説明図である。 実施形態の仮想視点画像生成装置における動作の流れを示すフローチャートである。 実施形態の仮想視点画像生成装置における水平画像と垂直画像と仮想視点画像との関係を示す説明図である。 実施形態の仮想視点画像生成装置における水平画像を撮影するカメラと補間したい仮想視点との位置関係を説明する説明図である。 変形実施形態の仮想視点画像生成装置への入力画像の視点と仮想視点との位置関係の説明図である。 従来の仮想視点画像生成装置の構成を示すブロック図である。 従来の仮想視点画像生成装置への入力画像の視点と仮想視点との関係の説明図である。
(A)主たる実施形態
以下では、本発明に係る仮想視点画像生成装置及びプログラムの実施形態を、図面を参照しながら詳細に説明する。
(A−1)実施形態の構成
図1は、実施形態に係る仮想視点画像生成装置の構成を示すブロック図である。なお、図1において、上述した図8との同一、対応部分には同一符号を示している。
仮想視点画像生成装置100は、ハードウェア的な各種構成要素を接続して構築されたものであっても良く、また、CPU、ROM、RAM等のプログラムの実行構成を適用して、その機能を実現するように構築されたものであっても良い。いずれも構築方法を適用した場合であっても、仮想視点画像生成装置100の機能的な詳細な構成を、図1で表すことができる。
仮想視点画像生成装置100は、水平方向処理部110、第1の垂直方向処理部120、第2の垂直方向処理部130、平均処理部141を有する。
水平方向処理部110は、水平方向一致ブロック探索部111、内挿ベクトル算出部112、水平方向補間画像生成部113を有する。
第1の垂直方向処理部120は、第1の探索範囲決定部121、第1の垂直方向一致ブロック探索部122、第1のシフトベクトル算出部123、第1の垂直方向補間画像生成部124を有する。同様に、第2の垂直方向処理部130は、第2の探索範囲決定部131、第2の垂直方向一致ブロック探索部132、第2のシフトベクトル算出部133、第2の垂直方向補間画像生成部134を有する。
仮想視点画像生成装置100には、それぞれ視点位置が予め定まっている(例えば、カメラモジュールの配置によって予め定まっている)、第1の入力画像(以下、第1の水平画像と呼ぶ)PIC1、第2の入力画像(以下、第2の水平画像と呼ぶ)PIC2及び第3の入力画像(以下、垂直画像と呼ぶ)PIC3が入力される。各入力画像PIC1〜PIC3はそれぞれ、左上を原点とし、原点を通る水平方向であって右側を正とするx座標の値と、原点を通る垂直方向であって下側を正とするy座標の値とで位置を特定する画像となっている(図3参照)。第1の水平画像PIC1に係る視点及び第2の水平画像PIC2に係る視点は垂直方向に同じで水平方向に異なっている。
ここで、仮想視点位置VPVは、図2に示すように、第1の水平画像PIC1及び第2の水平画像PIC2の視点間を結ぶ線分上で指定される。垂直画像PIC3に係る視点(の位置)は、図2に示すように、仮想視点位置VPVと水平方向に同じで垂直方向に異なっている。
垂直画像とは、図2に示すように、当該垂直画像の視点と、仮想視点とを通る直線が、第1の水平画像PIC1及び第2の水平画像PIC2に係る両視点を通る直線と直交する位置に、当該垂直画像の視点が設定された画像である。
水平方向処理部110には、第1の水平画像PIC1及び第2の水平画像PIC2と、仮想視点位置VPVとが入力される。水平方向処理部110は、第1の水平画像PIC1及び第2の水平画像PIC2から、仮想視点位置VPVから撮影したと仮定した場合の補間画像(以下、水平方向補間画像と呼ぶ)HPICを生成して平均処理部141に与えるものである。水平方向処理部110における各部(111〜113)は以下のように作用する。
水平方向一致ブロック探索部111は、第1の水平画像PIC1と第2の水平画像PIC2の間で、一致又は類似(以下、「対応」と表現する)のブロック(又は画素)を探索し、水平方向視差ベクトルを得て出力するものである。水平方向視差ベクトルは、例えば、対応するブロック(又は画素)間の水平方向のずれ量(大きさ)を、第2の水平画像PIC2におけるブロック(又は画素)の位置を始点とし、第1の水平画像PIC1における対応するブロック(又は画素)の位置を終点としたベクトルとなっている。
また、水平方向一致ブロック探索部111は、第1の水平画像PIC1と第2の水平画像PIC2との間の一致又は類似するブロック(又は画素)の一致又は類似の程度を示す水平方向方マッチング度を垂直方向処理部120及び130に出力する。ここで、後述するように、垂直方向処理部120、130による探索範囲の決定方法は種々の方法を適用できる。従って、垂直方向処理部120、130が水平方向マッチング度を使用しないで探索範囲を決定する方法を使用する場合、水平方向一致ブロック探索部111は、垂直方向処理部120、130への水平方向マッチング度の出力は不要とすることができる。
内挿ベクトル算出部112は、各ブロック(又は画素)についての水平方向視差ベクトルに対する按分処理により、各ブロック(又は画素)についての内挿ベクトルを求めるものである。第1の水平画像PIC1の視点と第2の水平画像PIC2の視点との距離をL12とし、仮想視点(仮想視点位置)と第2の水平画像PIC2の視点との距離をLV2とすると、内挿ベクトル算出部112は、水平方向視差ベクトルに、L12/LV2を乗算することにより、内挿ベクトルを求める。
水平方向補間画像生成部113は、基準画像としての第2の水平画像PIC2における各ブロック(又は画素)の画像内容を、そのブロック(又は画素)についての内挿ベクトルだけ移動して水平方向補間画像HPICのブロック(又は画素)を生成し、このような移動動作を全てのブロック(又は画素)について実行することにより水平方向補間画像HPICを生成する。
なお、この実施形態では、基準画像が第2の水平画像PIC2である場合を例示する。しかし、基準画像が、第1の水平画像PIC1であっても良い、また、基準画像が、第1の水平画像PIC1と第2の水平画像PIC2の双方であっても良い。
第1の垂直方向処理部120には、第1の水平画像PIC1及び垂直画像PIC3が入力される。第1の垂直方向処理部120は、第1の水平画像PIC1及び垂直画像PIC3から、仮想視点位置VPVから撮影したと仮定した場合の補間画像(以下、第1の垂直方向補間画像と呼ぶ)VPIC1を生成して平均処理部141に与えるものである。
以下、第1の垂直方向処理部120における各部(121〜124)の作用を、図3を参照しながら説明する。図3は、第1の水平画像PIC1及び垂直画像PIC3から、第1の垂直方向補間画像VPIC1を生成する方法の説明図である。図3における「三角形」は被写体の画像部分を表している。
第1の探索範囲決定部121は、水平方向視差ベクトルと水平方向マッチング度とから水平方向の探索範囲を決定し、その探索範囲を垂直方向一致ブロック探索部122に出力する。探索範囲決定部121による水平方向の探索範囲の決定方法の詳細な処理については動作の項で説明する。
後述するように、探索範囲決定部121による探索範囲の決定方法が、水平方向マッチング度を使用しない場合、水平方向マッチング度は不要としても良い。また、垂直方向処理部120、130のいずれか一方にのみ、水平方向処理部110から水平方向マッチング度を取得して、いずれかの垂直方向処理部120、130が水平方向マッチング度を用いて探索範囲を決定するようにしても良い。
第1の垂直方向一致ブロック探索部122は、水平方向の探索範囲を第1の探索範囲決定部121により求められた探索範囲に制限し、第1の水平画像PIC1と垂直画像PIC3との間で、対応するブロック(又は画素)を探索し、第1の垂直方向視差ベクトルを出力するものである。第1の垂直方向視差ベクトルは、例えば、ブロックマッチングアルゴリズム等によって求められる。第1の垂直方向視差ベクトルは、対応するブロック(又は画素)間のずれ量(大きさ)を、垂直画像PIC3におけるブロック(又は画素)の位置を始点とし、第1の水平画像PIC1における対応するブロック(又は画素)の位置を終点としたベクトルとなっている。図3におけるブロックBR1は、垂直画像PIC3におけるブロックであり、このブロックBR1に対応する、第1の水平画像PIC1におけるブロックがブロックBR2となっている。そのため、ブロックBR1についての第1の垂直方向視差ベクトルVTR1は、ブロックBR1の中心からブロックBR2の中心を結ぶベクトルとなる。
第1のシフトベクトル算出部123は、各ブロック(又は画素)についての第1の垂直方向視差ベクトルの垂直方向の成分ベクトルを取り出すことにより第1のシフトベクトルを得るものである。図3に示すように、第1の垂直方向視差ベクトルVTR1の成分を(x,y)=(α,β)とすると、第1のシフトベクトルVTR2の成分は(x,y)=(0,β)となる。すなわち、第1のシフトベクトル算出部123は、第1の垂直方向視差ベクトルVTR1のうち、水平成分を「0」としたベクトルを第1のシフトベクトルVTR2として出力する。
第1の垂直方向補間画像生成部124は、垂直画像PIC3における各ブロック(又は画素)の画像内容を、そのブロック(又は画素)についての第1のシフトベクトルVTR2だけ移動して第1の垂直方向補間画像VPIC1におけるブロック(又は画素)を形成し、このような動作を全てのブロック(又は画素)について実行することにより、第1の垂直方向補間画像VPIC1を生成する。図3に示すブロックBR1の画像内容を第1のシフトベクトルVTR2だけ移動したブロックBR3が、第1の垂直方向補間画像VPIC1におけるブロックBR1に対応するブロック(補間ブロック)となっている。
第1の垂直方向処理部120は、第1の水平画像PIC1及び垂直画像PIC3から第1の垂直方向補間画像VPIC1を生成するものであったが、第2の垂直方向処理部130は、第2の水平画像PIC2及び垂直画像PIC3から第2の垂直方向補間画像VPIC2を生成するものである。処理に供する一方の入力画像が、第1の垂直方向処理部120と第2の垂直方向処理部130とで異なるが、第2の垂直方向処理部130における各部(131〜134)は、第1の垂直方向処理部120における対応する各部(121〜124)と同様に作用するので、その機能説明は省略する。
平均処理部141は、補間画像統合部として設けられたものであり、水平方向補間画像HPIC、第1の垂直方向補間画像VPIC1及び第2の垂直方向補間画像VPIC2を統合して最終的に出力する補間画像(仮想視点画像)IPPICを得るものである。平均処理部141は、統合処理として平均処理を適用することによって、出力補間画像(仮想視点画像)IPPICを得る。第1の実施形態における平均処理は、単純な平均処理である(後述する第2の実施形態は、動的な重み付け係数を適用した重み付け平均である)。平均処理部141が単純な平均処理を適用する場合であれば、平均処理部141は、座標系(図3参照)のある座標における、水平方向補間画像HPICの画素値をP、第1の垂直方向補間画像VPIC1の画素値をQ1、第2の垂直方向補間画像VPIC2の画素値をQ2とすると、出力補間画像IPPICの画素値Rを(1)式に従って算出する。
R=(P+Q1+Q2)/3 …(1)
(A−2)実施形態の動作
次に、以上のような各部を有する実施形態に係る仮想視点画像生成装置100における仮想視点画像生成処理の処理動作を詳細に説明する。
図4は、実施形態に係る仮想視点画像生成装置100における動作の流れを示すフローチャートである。
(A−2−1)全体動作の流れ
まず、水平方向処理部110内の水平方向一致ブロック探索部111において、第1の水平画像PIC1と第2の水平画像PIC2とから、水平方向視差ベクトルが求められる(ステップS101)。次に、内挿ベクトル算出部112において、水平方向視差ベクトルと仮想視点位置とから、内挿ベクトルが求められる(ステップS102)。さらに、水平方向補間画像生成部113において、内挿ベクトルと第2の水平画像PIC2とから、水平方向補間画像HPICが求められる(ステップS103)。
ここで、垂直方向処理部120、130が水平方向視差ベクトルのみを参照して、垂直方向補間画像を生成する場合、水平方向一致ブロック探索部111は、水平方向マッチング度を出力しない。
また、第1の垂直方向処理部120の探索範囲決定部121において、水平方向視差ベクトルと水平方向マッチング度とから探索範囲が求められる(ステップS104)。この探索範囲の決定方法は、複数の決定方法を適用できるため、複数の探索範囲の決定方法については後述する。
第1の垂直方向処理部120内の第1の垂直方向一致ブロック探索部122において、第1の水平画像PIC1と垂直画像PIC3とから、第1の垂直方向視差ベクトルが求められる(ステップS105)。次に、第1のシフトベクトル算出部123において、第1の垂直方向視差ベクトルから、第1のシフトベクトルが求められる(ステップS106)。さらに、第1の垂直方向補間画像生成部124において、第1のシフトベクトルと垂直画像PIC3とから、第1の垂直方向補間画像VPIC1が生成される(ステップS107)。
第2の垂直方向処理部130においても、第1の垂直方向処理部120と同様な動作が実行され、第2の垂直方向補間画像VPIC2が生成される(ステップS108)。すなわち、第2の探索範囲決定部131において、水平方向視差ベクトルと水平方向マッチング度とから探索範囲が求められる。第2の垂直方向一致ブロック探索部132において、第2の水平画像PIC2と垂直画像PIC3とから、第2の垂直方向視差ベクトルが求められ、次に、第2のシフトベクトル算出部133において、第2の垂直方向視差ベクトルから、第2のシフトベクトルが求められ、さらに、第2の垂直方向補間画像生成部134において、第2のシフトベクトルと垂直画像PIC3とから、第2の垂直方向補間画像VPIC2が生成される。
最後に、平均処理部141において、水平方向補間画像HPICと、第1の垂直方向補間画像VPIC1と、第2の垂直方向補間画像VPIC2とから、平均処理により、出力補間画像IPPICが求められる(ステップS109)。
(A−2−2)探索範囲の決定方法
次に、図4のステップS104で、探索範囲決定部121における、水平方向視差ベクトルと水平方向マッチング度とから探索範囲を求めるときの、探索範囲の決定方法を説明する。
なお、以降では、特に断りがない限り、第1の水平画像PIC1と垂直画像PIC3とから垂直方向視差ベクトルを求めることを例に挙げて説明する。
また、以降において、図5に示すように、着目する入力画像(例えば、第1の水平画像PIC1)から、もう1つの入力画像(例えば、第2の水平画像PIC2)を参照したときの水平方向視差ベクトルを「v」、補間したい仮想視点の位置を表す仮想視点位置パラメータを「c」、符号パラメータを「s」とする。
仮想視点位置パラメータcは、範囲が(0.0,1.0)である実数である。また、図6に示すように、着目する入力画像(例えば、第1の水平画像PIC1)を撮影するカメラの位置から見た、もう1つの入力画像(例えば、第2の水平画像PIC2)を撮影するカメラの位置までの距離を「p」、着目する入力画像(例えば、第1の水平画像PIC1)を撮影するカメラの位置から補間したい仮想視点位置までの距離を「q」とすると、(2)式で表すことができる。
c=q/p …(2)
補間したい仮想視点位置が、第1の水平画像PIC1を撮影するカメラの位置と第2の水平画像PIC2を撮影するカメラの位置との間のちょうど中間に位置する場合、仮想視点位置パラメータcはc=0.5となる。
また、符号パラメータsは、入力画像のオブジェクトの位置が、垂直画像PIC3のオブジェクトの位置から見ると相対的に左側にくる場合、言い換えると、入力画像を撮影するカメラが補間したい仮想視点位置よりも相対的に右側にくる場合は、s=−1となり、それ以外の場合は、s=1となる。
ここで、探索範囲の決定方法は、大別して2通りある。1つは、水平方向マッチング度を使用しない方法であり、もう1つは水平方向マッチング度を使用する方法である。以下では、これら2種類の探索範囲の決定方法を順番に説明する。
まず、水平方向マッチング度を使用しない方法を説明する。この水平方向マッチング度を使用しないで探索範囲を求める方法は、2種類ある。
水平方向マッチング度を使用しない1つ目の探索範囲の決定方法は、探索範囲を「α」としたとき、(3)式とする方法である。
α∈[scv−r,scv+r]…(3)
すなわち、探索範囲αは、符号パラメータsと仮想視点位置パラメータcと水平方向視差ベクトルvとを乗じた結果scvにパラメータrを減算した値から、結果scvにパラメータrを加算した値までの範囲とする。ここで、パラメータrは、予め定めた0以上のパラメータである。r=0とすると、探索範囲αはα=scvとなり、水平方向の探索は1点になり、事実上、水平方向の探索を行なわない。逆に、パラメータrの値が大きくなると、探索範囲が広がることになる。
パラメータrの値が小さいほど、演算量が少なくなる。しかし、例えば、オクルージョン等が原因で、水平方向視差ベクトルvの品質が悪い場合は、第1の垂直方向処理部120、第2の垂直方向処理部130にも第1の垂直方向補間画像VPIC1、第2の垂直方向補間画像VPIC2の品質が悪化という形で悪影響を与える。
逆に、パラメータrの値を大きくすると、例えば、オクルージョン等が原因で、水平方向視差ベクトルvの品質が悪くなったとしても、第1の垂直方向処理部120、第2の垂直方向処理部130に悪影響を与える可能性を下がる。しかし、演算量が増えるというデメリットもある。
水平方向マッチング度を使用しない2つ目の探索範囲の決定方法は、探索範囲αを(4)式とする方法である。
α∈[scv−r,scv+r]∪[scv−r,scv+r]
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]…(4)
ここで、(4)式において、水平方向視差ベクトルvは注目しているブロック(又は画素)の近隣のブロック(又は画素)の水平方向視差ベクトルである。
(4)式では、n個の近隣のブロック(又は画素)の水平方向視差ベクトルを計算式に含めているが、何個の近隣のブロック(又は画素)の水平方向視差ベクトルを計算式に含めるかは、予め定めるパラメータである。
水平方向マッチング度を使用しない1つ目の探索範囲の決定方法で、発生した「パラメータrを小さくした場合に水平方向視差ベクトルの品質が悪い場合に、垂直方向処理部にも補間画像の品質悪化という形で悪影響を与える」という問題は、オクルージョンや照明の当たり方の違い等が原因で発生することが多い。
これに対して、水平方向マッチング度を使用しない2つ目の探索範囲の決定方法は、自然画像において、(a)オクルージョンや照明の当たり方の違い等により発生する問題は、近隣のブロック(又は画素)では発生していない可能性があること、(b)水平方向視差ベクトルは、空間的に滑らかである、という性質があることを利用して、1つ目の探索範囲の決定方法の問題発生を抑制する方法である。
このように、2つ目の探索範囲の決定方法を採用する場合、1つ目の探索範囲の決定方法を採用する場合よりも、パラメータrを小さくできるため、第1の垂直方向補間画像VPIC1、第2の垂直方向補間画像VPIC2の画像品質を維持したまま、演算量が抑制されることが期待できる。
次に、水平方向マッチング度を使用して探索範囲を決定する方法を説明する。水平方向マッチング度を使用する場合、上述した2種類の探索範囲の決定方法を組み合わせた方法で、探索範囲を決定する。
以降では、水平方向マッチング度Mは0以上の実数である。また、水平方向マッチング度Mの値が小さいほど、第1の水平画像PIC1と第2の水平画像PIC2との間のブロック(又は画素)のマッチング度が高いとする場合を例に説明する。
水平方向マッチング度Mの値が、予め定められた閾値Tよりも小さい場合、つまり、マッチング度が高い場合、注目しているブロック(又は画素)の水平方向視差ベクトルvを用いて、探索範囲αは(5)式で求められる。
α∈[scv−r,scv+r] …(5)
水平方向マッチング度Mの値が、予め定められた閾値T以上の場合、つまり、マッチング度が低い場合、注目しているブロック(又は画素)の近隣のブロック(又は画素)の水平方向視差ベクトルを用いて、探索範囲αは(6)式で求められる。
α∈[scv−r,scv+r]∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]
∪...
∪[scv−r,scv+r]…(6)
水平方向マッチング度Mの値が高い場合は、オクルージョンや照明の当たり方の違い等が起きていない領域であると予測できる。そのため、注目しているブロック(又は画素)の水平方向視差ベクトルを用いて、探索範囲を決定する。
水平方向マッチング度Mの値が低い場合は、注目しているブロック(又は画素)で、オクルージョンや照明の当たり方の違い等が起きている領域であると予測できる。そのため、注目しているブロック(又は画素)の近隣にあるブロック(又は画素)の水平方向視差ベクトルを用いて、探索範囲を決定する。
水平方向マッチング度Mを用いることで、パラメータrの値や、近接のブロック(又は画素)の数nの値を小さくしても、オクルージョンや照明の当たり方の違い等により発生する問題を抑制できるため、品質を維持したまま演算量が抑制されることが期待できる。
(A−3)実施形態の効果
以上のように、実施形態によれば、仮想視点より垂直方向で撮影された視点の情報(垂直画像)も用いて補間画像を生成することで、オクルージョンの存在や照明の当たり方の違い等が理由で、発生する補間画像の歪が低減される。
なぜならば、第1の水平画像PIC1と第2の水平画像PIC2との間で対応付けできない領域でも、仮想視点より垂直方向であれば対応付けできる可能性は高いからである。
そして、垂直方向で対応付けできない領域でも、第1の水平画像PIC1と第2の水平画像PIC2とのの間では対応付けできる可能性がある。水平歩行補間画像及び垂直方向補間画像の平均処理により、双方の長所を取り入れることで、オクルージョンの存在や照明の当たり方の違い等が理由で、発生する補間画像の歪が低減される。
さらに、実施形態によれば、演算量の面でも、水平方向処理部の演算結果を利用することで、垂直方向処理部の演算量を削減しており、演算量の増加を抑えることができる。
(B)他の実施形態
上述した実施形態においても種々の変形実施形態を言及したが、本発明は、以下の変形実施形態にも適用できる。
(B−1)上述した実施形態では、水平方向一致ブロック探索部111が、垂直方向処理部120に対して、水平方向視差ベクトルと水平方向マッチング度とを出力する場合を例示した。しかし、水平方向一致ブロック探索部111は、垂直方向処理部130に対しても、垂直方向処理部120と同様に、水平方向視差ベクトルと水平方向マッチング度とを出力するようにしても良い。
(B−2)上述した実施形態では、水平方向処理部110が、第2の水平画像PIC2から水平方向補間画像HPICを生成する場合を示したが、水平方向補間画像HPICの生成方法はこれに限定されるものではない。要は、第1の水平画像PIC1と第2の水平画像PIC2と仮想視点位置VPVとから水平方向補間画像HPICを得られる生成方法であれば良い。例えば、第1の水平画像PIC1から水平方向補間画像HPICを生成するようにしても良く、また、非特許文献1の記載技術のように、第1の水平画像PIC1及び第2の水平画像PIC2の双方から水平方向補間画像HPICを生成するようにしても良い。
(B−3)上記の実施形態では、第1の水平画像PIC1と垂直画像PIC3とから第1の垂直方向補間画像VPIC1を生成すると共に、第2の水平画像PIC2と垂直画像PIC3とから第2の垂直方向補間画像VPIC2を生成し、最終的な出力補間画像IPPICに反映させるものを示したが、演算量削減のために、第1の垂直方向補間画像VPIC1及び第2の垂直方向補間画像VPIC2の一方のみを生成し、最終的な出力補間画像IPPICに反映させるようにしても良い。
(B−4)上記の実施形態では、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分より上方にある視点からの垂直画像を適用するものを示した。しかし、上述した線分より下方にある視点からの垂直画像を適用するようにしても良く、また、上述した線分より上方にある視点からの垂直画像及び上述した線分より下方にある視点からの垂直画像の両方を適用するようにしても良い。
後者の場合から明らかなように、最終的な出力補間画像IPPICに反映される垂直方向補間画像の数は1や2に限定されるものではなく、垂直方向補間画像の数がN(Nは自然数)であっても良い。
(B−5)上記の実施形態では、複数の補間画像(水平方向補間画像及び垂直方向補間画像)の単純な平均で出力補間画像を生成する場合を例示した。しかし、平均処理部は、動的な重み係数を適用した複数の補間画像の重み付け平均で出力補間画像を生成するようにしても良い。また、平均処理部は、固定の重み係数を適用した複数の補間画像の重み付け平均で出力補間画像を生成するようにしても良い。例えば、補間画像を生成する元となった画像(水平方向補間画像であれば第2の水平画像)の視点と仮想視点との距離に応じて、固定の重み係数を定めるようにしても良い。
(B−6)上記の実施形態の動作説明では、水平方向処理部110の動作、第1の垂直方向処理部120の動作、第2の垂直方向処理部130の動作がこの順で実行される場合を示した。しかし、動作の順序は、これに限定されるものではない。また、水平方向処理部110の動作、第1の垂直方向処理部120の動作、第2の垂直方向処理部130の動作の2つ以上の動作が、並列処理により実行されるものであっても良い。また例えば、水平方向処理部110において水平方向視差ベクトルを求めた後、第1の垂直方向処理部120において第1の垂直方向視差ベクトルを求め、さらに、第2の垂直方向処理部130において第2の垂直方向視差ベクトルを求め、その後に、内挿ベクトルの算出、第1のシフトベクトルの算出、第2のシフトベクトルの算出をこの順序で実行するように、水平方向処理部110の動作、第1の垂直方向処理部120の動作、第2の垂直方向処理部130の動作を細分化し、時分割で巡回的に実行させるようにしても良い。
(B−7)上記の実施形態は、仮想視点が1個の場合を示したが、仮想視点が2以上あって、仮想視点画像生成装置が多視点画像生成システムを構成するものであっても良い。例えば、ステレオ画像としての2つの仮想視点画像を生成するようにしても良い。この場合において、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分より上方にある視点からの第1の垂直画像と上述した線分より下方にある視点からの第2の垂直画像の両方を適用するようにしても良い。図7は、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分を3等分し、線分上の1/3の位置と2/3の位置に第1及び第2の仮想視点を定め、第1の垂直画像の視点が第1の仮想視点の上方に位置し、第2の垂直画像の視点が第2の仮想視点の下方に位置する例を示している。このように、2つの垂直画像の視点を上下に設定することにより、1/3間隔の補間を、高精度に行なうことができる。
(B−8)上記の実施形態の説明では、ブロック毎に水平方向マッチング度を出力するように説明したが、画素毎にマッチング度を出力するようにしても良い。
(B−9)上記の実施形態では、仮想視点が、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分上にあり、補間(内挿)により水平方向補間画像を生成する場合を示した。しかし、第1の水平画像PIC1及び第2の水平画像PIC2の両視点を結ぶ線分の延長上に仮想視点が位置し、外挿により水平方向の画像を生成する場合にも、本発明の技術思想を適用することができる。用語「補間」は内挿を表す用語であるが、特許請求の範囲における「補間」は内挿及び外挿の双方を意味するものとする。
100…仮想視点画像生成装置、
110、…水平方向処理部、111…水平方向一致ブロック探索部、112…内挿ベクトル算出部、113…水平方向補間画像生成部、
120、130…垂直方向処理部、121、131…探索範囲決定部、122、132…垂直方向一致ブロック探索部、123、133…シフトベクトル算出部、124、134…垂直方向補間画像生成部、
141…平均処理部。

Claims (10)

  1. 第1の入力画像及び第2の入力画像と、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線上に設定された仮想視点の位置とから、上記仮想視点の位置から撮影したと仮定した場合の水平方向補間画像を生成するものであって、上記第1の入力画像と上記第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、少なくとも、その関係を表す水平方向視差ベクトルを出力する水平方向処理部と、
    少なくとも、上記水平方向視差ベクトルから、水平方向の探索範囲を決定し、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線上に設定された上記仮想視点と水平方向に同じで垂直方向に異なる視点から撮影された垂直画像と、上記第1の入力画像と上記第2の入力画像とのいずれか又は両方の入力画像とから、上記仮想視点の位置から撮影したと仮定した場合の垂直方向補間画像を生成する少なくとも1つの垂直方向処理部と、
    上記水平方向補間画像と上記垂直方向補間画像とを統合し、最終的な仮想視点画像を生成する補間画像統合部と
    を備えることを特徴とする仮想視点画像生成装置。
  2. 上記垂直方向処理部が、
    少なくとも、上記水平方向視差ベクトルから、水平方向の探索範囲を決定する探索範囲決定部と、
    平方向の探索範囲を上記探索範囲決定部により決定された上記水平方向の探索範囲に制限して、上記第1の入力画像又は上記第2の入力画像と垂直画像との間で、一致または類似する、ブロック又は画素を探索し、その関係を表す垂直方向視差ベクトルを出力する垂直方向一致ブロック探索部と、
    当該垂直方向視差ベクトルのうち、水平成分を0としたベクトルをシフトベクトルとして出力することを特徴とするシフトベクトル算出部と、
    当該シフトベクトルと当該垂直画像とから、上記仮想視点の位置における垂直方向補間画像を生成する垂直方向補間画像生成部と
    を備えることを特徴とする請求項1に記載の仮想視点画像生成装置。
  3. 着目する上記第1の入力画像から上記第2の入力画像を参照したときの水平方向視差ベクトルをv、補間したい仮想視点の位置を表すパラメータをc、予め定める0以上のパラメータをr、上記第1の入力画像のオブジェクトの位置が、上記仮想視点における垂直画像のオブジェクトの位置から見たときの相対的な位置関係を表わす符号パラメータをsとすると、
    上記探索範囲決定部が、下記の(A)式に従って上記水平方向の探索範囲αを算出することを特徴とする請求項2に記載の仮想視点画像生成装置。
    α∈[scv−r,scv+r] …(A)
  4. 着目する上記第1の入力画像から上記第2の入力画像を参照したときの水平方向視差ベクトルをv、注目しているブロック又は画素の近隣のブロック又は画素の水平方向視差ベクトルをv、近隣のブロック又は画素の数をn、補間したい仮想視点位置を表すパラメータをc、予め定める0以上のパラメータをr、上記第1の入力画像のオブジェクトの位置が、上記仮想視点における垂直画像のオブジェクトの位置から見たときの相対的な位置関係を表わす符号パラメータをsとすると、
    上記探索範囲決定部が、下記の(B)式に従って上記水平方向の探索範囲αを算出することを特徴とする請求項2に記載の仮想視点画像生成装置。
    α∈[scv−r,scv+r]∪[scv−r,scv+r]
    ∪[scv−r,scv+r]
    ∪...
    ∪[scv−r,scv+r]
    ∪...
    ∪[scv−r,scv+r]…(B)
  5. 上記水平方向処理部が、上記水平方向視差ベクトルと、上記第1の入力画像と上記第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、探索された要素に係る水平方向マッチング度とを出力するものであり、
    上記探索範囲決定部が、上記水平方向視差ベクトルと、上記水平方向マッチング度とから、上記水平方向の探索範囲を決定する
    ことを特徴とする請求項2に記載の仮想視点画像生成装置。
  6. 着目する上記第1の入力画像から上記第2の入力画像を参照したときの水平方向視差ベクトルをv、注目しているブロック又は画素の近隣のブロック又は画素の水平方向視差ベクトルをv、近隣のブロック又は画素の数をn、補間したい仮想視点位置を表すパラメータをc、予め定める0以上のパラメータをr、上記第1の入力画像のオブジェクトの位置が、上記仮想視点における垂直画像のオブジェクトの位置から見たときの相対的な位置関係を表わす符号パラメータをsとすると、
    上記探索範囲決定部が、
    上記水平方向マッチング度が閾値以上の場合、(C)式に従って上記水平方向の探索範囲αを算出し、上記水平方向マッチング度が閾値未満の場合、(D)式に従って、上記水平方向の探索範囲αを算出することを特徴とする請求項に記載の仮想視点画像生成装置。
    α∈[scv−r,scv+r]…(C)
    α∈[scv−r,scv+r]∪[scv−r,scv+r]
    ∪...
    ∪[scv−r,scv+r]
    ∪...
    ∪[scv−r,scv+r]…(D)
  7. 上記水平方向処理部は、
    上記第1の入力画像と上記第2の入力画像との間で、一致または類似する、ブロックまたは画素を探索し、その関係を表す水平方向視差ベクトルを出力する水平方向一致ブロック探索部と、
    当該水平方向視差ベクトルと上記仮想視点位置から内挿ベクトルを求める内挿ベクトル算出部と、
    当該内挿ベクトルと、上記第1の入力画像と上記第2の入力画像とのいずれか又は両方の入力画像とから、水平方向補間画像を生成する水平方向補間画像生成部と
    を備えることを特徴とする請求項1〜のいずれかに記載の仮想視点画像生成装置。
  8. 上記垂直方向処理部として、第1の垂直方向処理部と第2の垂直方向処理部とを備え、
    上記第1の垂直方向処理部には上記第1の入力画像が入力され、上記第2の垂直方向処理部には上記第2の入力画像が入力され、
    上記補間画像統合部は、上記水平方向補間画像と、上記第1の垂直方向処理部が得た第1の垂直方向補間画像と、上記第2の垂直方向処理部が得た第2の垂直方向補間画像とを統合して最終的な仮想視点画像を生成する
    ことを特徴とする請求項1〜7のいずれかに記載の仮想視点画像生成装置。
  9. 上記仮想視点として、第1の仮想視点と、第2の仮想視点とが設定され、
    上記第1の仮想視点についての仮想視点画像を、上記第1の入力画像、上記第2の入力画像及び第1の垂直画像から生成し、
    上記第2の仮想視点についての仮想視点画像を、上記第1の入力画像、上記第2の入力画像及び第2の垂直画像から生成し、
    上記第1の垂直画像は、その視点が、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線より上方に設けられたものであり、
    上記第2の垂直画像は、その視点が、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線より下方に設けられたものである
    ことを特徴とする請求項1〜のいずれかに記載の仮想視点画像生成装置。
  10. コンピュータを、
    第1の入力画像及び第2の入力画像と、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線上に設定された仮想視点の位置とから、上記仮想視点の位置から撮影したと仮定した場合の水平方向補間画像を生成するものであって、上記第1の入力画像と上記第2の入力画像との間で、一致又は類似するブロック又は画素を探索し、少なくとも、その関係を表す水平方向視差ベクトルを出力する水平方向処理部と、
    少なくとも、上記水平方向視差ベクトルから、水平方向の探索範囲を決定し、上記第1の入力画像及び上記第2の入力画像に係る両視点を通る直線上に設定された上記仮想視点と水平方向に同じで垂直方向に異なる視点から撮影された垂直画像と、上記第1の入力画像と上記第2の入力画像とのいずれか又は両方の入力画像とから、上記仮想視点の位置から撮影したと仮定した場合の垂直方向補間画像を生成する少なくとも1つの垂直方向処理部と、
    上記水平方向補間画像と上記垂直方向補間画像とを統合し、最終的な仮想視点画像を生成する補間画像統合部と
    して機能させることを特徴とする仮想視点画像生成プログラム。
JP2015133615A 2015-07-02 2015-07-02 仮想視点画像生成装置及びプログラム Active JP6631054B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015133615A JP6631054B2 (ja) 2015-07-02 2015-07-02 仮想視点画像生成装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015133615A JP6631054B2 (ja) 2015-07-02 2015-07-02 仮想視点画像生成装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017017581A JP2017017581A (ja) 2017-01-19
JP6631054B2 true JP6631054B2 (ja) 2020-01-15

Family

ID=57829342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015133615A Active JP6631054B2 (ja) 2015-07-02 2015-07-02 仮想視点画像生成装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6631054B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107493465B (zh) * 2017-09-18 2019-06-07 郑州轻工业学院 一种虚拟多视点视频生成方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4737763B2 (ja) * 2006-06-14 2011-08-03 Kddi株式会社 多視点画像を用いた自由視点画像生成方法、装置及びプログラム
JP2010250452A (ja) * 2009-04-14 2010-11-04 Tokyo Univ Of Science 任意視点画像合成装置
JP2014049895A (ja) * 2012-08-30 2014-03-17 Canon Inc 画像処理方法
JP6458988B2 (ja) * 2012-08-31 2019-01-30 ソニー株式会社 画像処理装置および画像処理方法、並びに情報処理装置
US10027947B2 (en) * 2013-06-05 2018-07-17 Sony Corporation Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2017017581A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
NL2016660B1 (en) Image stitching method and device.
US10142613B2 (en) Image processing apparatus, image processing system, and image processing method
US20180189979A1 (en) Method for reducing matching error in disparity image by information in zoom image
KR20110135786A (ko) 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
US20100253682A1 (en) Image generating apparatus and computer program
JP5318168B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP2013254097A (ja) 画像処理装置及びその制御方法、並びにプログラム
Eichenseer et al. Motion estimation for fisheye video with an application to temporal resolution enhancement
US9135676B2 (en) Image interpolation processing apparatus and method thereof
JP2016126673A (ja) 情報処理装置及びその制御方法、並びに、ビデオカメラ
TWI528783B (zh) 產生深度影像之方法及其系統及電腦程式產品
JP4394487B2 (ja) ステレオ画像処理装置
JP4385077B1 (ja) 動きベクトル検出装置および画像処理装置
BR112021008558A2 (pt) aparelho, método de estimativa de disparidade, e produto de programa de computador
JP2014116012A (ja) 画像間の色転送を行う方法および装置
JP6631054B2 (ja) 仮想視点画像生成装置及びプログラム
US20140009493A1 (en) Parallax image generating device and parallax image generating method
JP5931062B2 (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP5627498B2 (ja) 立体画像生成装置及び方法
Bae et al. 5d light field synthesis from a monocular video
JP2017199285A (ja) 情報処理装置、情報処理方法、プログラム
US20150350669A1 (en) Method and apparatus for improving estimation of disparity in a stereo image pair using a hybrid recursive matching processing
JP2020028114A (ja) 立体画像生成装置及びそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6631054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150