JP2021002783A - 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置 - Google Patents

奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置 Download PDF

Info

Publication number
JP2021002783A
JP2021002783A JP2019116114A JP2019116114A JP2021002783A JP 2021002783 A JP2021002783 A JP 2021002783A JP 2019116114 A JP2019116114 A JP 2019116114A JP 2019116114 A JP2019116114 A JP 2019116114A JP 2021002783 A JP2021002783 A JP 2021002783A
Authority
JP
Japan
Prior art keywords
depth
depth map
viewpoint
viewpoint position
conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019116114A
Other languages
English (en)
Other versions
JP7257272B2 (ja
Inventor
正規 加納
Masanori Kano
正規 加納
河北 真宏
Masahiro Kawakita
真宏 河北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2019116114A priority Critical patent/JP7257272B2/ja
Publication of JP2021002783A publication Critical patent/JP2021002783A/ja
Application granted granted Critical
Publication of JP7257272B2 publication Critical patent/JP7257272B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】少ない計算量で高精度な奥行きマップを推定できる奥行きマップ生成装置を提供する。【解決手段】奥行きマップ生成装置30は、多視点画像入力手段31と、パラメータ設定手段32と、変換前の視点位置において、多視点画像から奥行きマップを生成する奥行きマップ生成手段33と、奥行きレイヤ毎にシフト量を算出するシフト量算出手段34と、シフト量に基づいて変換前の視点位置における奥行きマップをシフトすることで奥行きマップを視点変換する視点変換手段35と、リファインメント手段36とを備える。【選択図】図3

Description

本発明は、多視点画像を用いて奥行きマップを生成する奥行きマップ生成装置及びそのプログラム、並びに、奥行きマップを用いて立体画像を生成する立体画像生成装置に関する。
近年、光線再生型表示システムの研究開発が盛んに行われている。この光線再生型表示システムは、空間中に物体の光線を再生可能な光線再生型立体方式が採用されており、特殊な眼鏡が不要で、観測方向に応じた視点の映像が見られる。この光線再生型立体方式として、レンチキュラー方式やインテグラル方式が知られている(非特許文献1,2)。この他、複数台のプロジェクタを利用したREI方式(非特許文献3)や、AktinaVisionも知られている(特許文献1、非特許文献4)。
この光線再生型立体方式で立体画像を表示するためには、被写体の光線情報を取得する必要がある。正確に被写体の光線を再生できるように、撮像時において、表示装置の光線構造に合わせて、被写体の光線情報を取得するのが理想的である。現実的には、立体画像を構成する全光線を取得することは難しいので、計算処理により、複数のカメラで撮影した画像から立体画像を生成するのが一般的である。例えば、複数台のカメラを用いて撮影し、三角測量の原理により奥行きマップを推定することで、被写体の立体画像を生成する手法が知られている(非特許文献5,6)。
特開2017−62295号公報
G. Lippmann, "Epreuves reversibles Photographies integrals." Comptes-Rendus Academie des Sciences 146, 446-451 (1908). F. Okano et al., "Real-time pickup method for a three-dimensional image based on integral photography." Appl. Opt. 36(7), 1598-1603 (1997). M. Kawakita et al., "Glasses-free large-screen three-dimensional display and super multi-view camera for highly realistic communication." Optical Engineering, Vol.57 No.6, 061610,2018, p.061610.1-061610.13 渡邉 他、"トップハット型拡散スクリーンを用いた33万画素光線再生型3次元映像表示システム"、映像情報メディア学会冬季大会、23D−2、2018 加納 他、"カメラアレイを用いた33万画素の3次元映像撮像技術"、映情報メディア学会冬季大会、23D−1、2018 Y. Taguchi et al., "TransCAIP: A live 3D TV system using a camera array and an integral photography display with interactive control of viewing parameters." IEEE Transactions on Visualization and Computer Graphics 15.5 (2009): 841-852.
計算処理により高品質な立体画像を生成するには、以下で説明するように二つの課題がある。
課題の一つ目は、奥行きマップを生成する計算量の低減である。立体画像は様々な視点の映像から構成されているため、各視点に対応した奥行きマップが必要となる。しかし、各視点の奥行きマップを生成すると、計算量が膨大になってしまう。
課題の二つ目は、奥行きマップの高精度化である。立体画像の精度を向上させるためには、高精度な奥行きマップを推定する必要がある。しかし、非特許文献5,6に記載の手法では、高精度な奥行きマップを推定することが困難である。
そこで、本発明は、少ない計算量で高精度な奥行きマップを推定できる奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置を提供することを課題とする。
前記した課題に鑑みて、本発明に係る奥行きマップ生成装置は、撮影カメラを二次元状に並べたカメラアレイが被写体を撮影した多視点画像を用いて、被写体の奥行き値を示す奥行きマップを生成する奥行きマップ生成装置であって、パラメータ設定手段と、奥行きマップ生成手段と、シフト量算出手段と、視点変換手段とを備える構成とした。
かかる構成によれば、パラメータ設定手段は、被写体が位置する撮影空間内の奥行き方向に所定間隔で配置された奥行きレイヤと、変換前の視点位置と、変換後の視点位置とが予め設定される。
奥行きマップ生成手段は、変換前の視点位置において、多視点画像から、被写体が位置する奥行きレイヤと変換前の視点位置の光線との交点であるサンプリング点の奥行き値を示した奥行きマップを生成する。
また、シフト量算出手段は、奥行きレイヤ毎に、変換前の視点位置と変換後の視点位置との位置ずれ量であるシフト量を算出する。
視点変換手段は、シフト量に基づいて変換前の視点位置における奥行きマップをシフトすることで、変換前の視点位置における奥行きマップを変換後の視点位置における奥行きマップに変換する。
また、前記した課題に鑑みて、本発明に係る立体画像生成装置は、本発明に係る奥行きマップ生成装置と、奥行きマップ生成装置が生成した奥行きマップから立体画像を生成する立体画像生成手段と、を備える構成とした。
このように、本発明によれば、被写体の奥行きに応じたシフト量を算出するので、高精度な奥行きマップを推定することができる。さらに、本発明によれば、所望の視点位置に奥行きマップを視点変換するので、各視点位置で奥行きマップを生成する必要がなく、計算量を少なくすることができる。
なお、本発明は、コンピュータが備えるCPU、メモリ、ハードディスクなどのハードウェア資源を、前記した奥行きマップ生成装置として動作させるプログラムで実現することもできる。
本発明によれば、被写体の奥行きに応じたシフト量を算出し、所望の視点位置に奥行きマップを視点変換するので、少ない計算量で高精度な奥行きマップを推定することができる。
各実施形態において、(a)及び(b)は、平行投影の光線構造を説明する説明図である。 各実施形態において、(a)及び(b)は透視投影レンズシフトの光線構造を説明する説明図である。 各実施形態に係る立体画像生成装置の構成を示すブロック図である。 第1実施形態において、撮影空間を説明する説明図である。 第1実施形態において、(a)及び(b)は、奥行きマップの算出に必要な光線群を説明する説明図である。 第1実施形態において、(a)及び(b)は、光線領域を説明する説明図である。 第1実施形態において、(a)は奥行きレイヤを説明する説明図であり、(b)はサンプリング点を説明する説明図である。 第1実施形態において、コストボリュームの一例を説明する説明図である。 第1実施形態において、奥行きマップの生成を説明する説明図である。 第1実施形態において、(a)及び(b)は、奥行きレイヤ毎のシフト量を説明する説明図である。 第1実施形態において、シフト量の算出を説明する説明図である。 第1実施形態において、奥行きレイヤでのシフト方向を説明する説明図である。 第1実施形態において、視点位置の変換を説明する説明図である。 第1実施形態において、奥行きマップの統合を説明する説明図である。 第1実施形態において、奥行きマップのリファインメント処理を説明する説明図である。 図3の立体画像生成装置の動作を示すフローチャートである。 第2実施形態において、シフト量の算出を説明する説明図である。 第2実施形態において、シフト量の算出を説明する説明図である。
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段には同一の符号を付し、説明を省略した。
図1を参照し、各実施形態を説明する前提として、光線再生型表示システムの光線構造について説明する。光線再生型表示システムが再生する光線は、後記する仮想レンズアレイの平行面上で光線間隔が一定になる。この特徴を利用すれば、簡単な計算処理で視点変換を実現できる。
光線再生型表示システムの光線構造は、第1実施形態で説明する平行投影(図1)と、第2実施形態で説明する透視投影レンズシフト(図2)とに大別できる。平行投影は、図1(a)に示すように全光線が平行であり、図1(b)に示すように視点位置が異なっても同様である。一方、透視投影レンズシフトは、図2(a)に示すように全光線が奥行き方向の一定距離で集光点Tに集光し、図2(b)に示すように視点位置が異なっても同様である。
なお、図1(b)及び図2(b)では、実線及び破線の光線群のそれぞれが、別々の視点位置の光線であることを示す。
以後、図1及び図2に示すように、3体の被写体9(9〜9)が撮影空間内に配置されていることとする。奥行き方向において、被写体9〜9が撮影空間の手前側から順に並んでおり、被写体9が撮影空間の中央に位置する。また、水平方向において、被写体9〜9は、左右にずれて配置される。なお、撮影空間の中央には、後記する仮想要素レンズlを備える仮想レンズアレイ(仮想表示素子)Lが設定されている。
ここで、後記する奥行きレイヤDと各光線との交点をサンプリング点SPとする。図1(b)及び図2(b)に示すように、平行投影及び透視投影レンズシフトの何れでも、奥行きレイヤDが同一であれば、視点位置に関わらず、サンプリング点SPの間隔が同一になる。つまり、奥行きレイヤDが同一であれば、シフト量が同一になるという特徴がある。この特徴を利用し、奥行きレイヤD毎にシフト量を算出し、奥行きマップを視点変換する。
なお、「シフト」とは、奥行きレイヤD上における異なる視点同士の位置ずれのことであり、「シフト量」とは、その位置ずれ量のことである。
(第1実施形態)
[立体画像生成システムの全体構成]
図3を参照し、第1実施形態に係る立体画像生成システム1の全体構成を説明する。
立体画像生成システム1は、インテグラル立体方式の立体画像(要素画像)を生成するものである。図3に示すように、立体画像生成システム1は、カメラアレイ2と、立体画像生成装置3とを備える。
カメラアレイ2は、撮影カメラ20を二次元状に並べたものであり、異なる視点位置で被写体を撮影した多視点画像を生成し、生成した多視点画像を立体画像生成装置3に出力する。例えば、カメラアレイ2は、縦横に8台ずつ等間隔で配列された計64台の撮影カメラ20を備え、64視点分の多視点画像を生成する。また、カメラアレイ2は、撮影カメラ20が同一平面(図4のX−Y面)上に位置するように、図示を省略したフレームに撮影カメラ20を搭載している。例えば、撮影カメラ20としては、一般的なネットワークカメラを用いることができる。
なお、カメラアレイ2では、カメラ校正を行えばよいので、各撮影カメラ20を厳密に同一平面に位置せずともよい。また、カメラアレイ2の詳細は、下記の参考文献1に詳細に記載されているため、これ以上の説明を省略する。
参考文献1:田口裕一, 高橋桂太, 苗村健,“ネットワークカメラアレイを用いた実時間全焦点自由視点映像合成システム”, 電子情報通信学会技術研究報告, vol. 107, no. 539, PRMU2007-258, pp. 79-86 (2008)
[立体画像生成装置の構成]
以下、立体画像生成装置3の構成を説明する。
立体画像生成装置3は、奥行きマップ生成装置30が生成した奥行きマップを用いて、立体画像を生成するものである。図3に示すように、立体画像生成装置3は、奥行きマップ生成装置30と、立体画像生成手段37とを備える。
<奥行きマップ生成装置>
奥行きマップ生成装置30は、カメラアレイ2から入力された多視点画像を用いて、被写体の奥行き値を示す奥行きマップを生成するものである。奥行きマップ生成装置30は、多視点画像入力手段31と、パラメータ設定手段32と、奥行きマップ生成手段33と、シフト量算出手段34と、視点変換手段35と、リファインメント手段(投票手段)36とを備える。
多視点画像入力手段31は、カメラアレイ2から多視点画像が入力され、入力された多視点画像を奥行きマップ生成手段33に出力するものである。
パラメータ設定手段32は、立体画像の生成に必要な各種パラメータが予め設定されるものである。例えば、立体画像生成システム1の利用者が、図示を省略したマウス、キーボード等の操作手段を介して、パラメータ設定手段32に各種パラメータを設定する。そして、パラメータ設定手段32は、設定された各種パラメータを奥行きマップ生成手段33に出力する。
各種パラメータとしては、仮想レンズアレイLの位置及びピッチと、仮想要素レンズlの個数と、撮影空間αと、奥行きレイヤDと、変換前の視点位置と、変換後の視点位置とがあげられる。
<<パラメータの設定>>
図4〜図7を参照し、パラメータの設定を詳細に説明する。以後、水平方向をX軸、垂直方向をY軸、奥行き方向をZ軸とする。また、「インテグラル立体表示装置」を「IP立体表示装置」と略記する。このIP立体表示装置は、所定個数の要素レンズを二次元状に並べたレンズアレイを備える。
仮想レンズアレイLは、IP立体表示装置のレンズアレイ(表示素子)を撮影空間α内に配置したものである。つまり、仮想レンズアレイLは、撮影空間αにおいて、IP立体表示装置のレンズアレイを仮想したものである。この仮想レンズアレイLは、実物のレンズアレイと同様、二次元状に並んだ所定個数の仮想要素レンズlを備える。ここで、仮想要素レンズl同士の間隔(素子間隔)がピッチとなる。また、仮想レンズアレイLは、奥行き方向で撮影空間αの中央に位置し、奥行きレイヤD(図7)と平行になる(X−Y面上に位置する)。以後、仮想レンズアレイLを構成する各仮想要素レンズlのレンズ面をレンズアレイ面と呼ぶ。
以上を考慮し、パラメータ設定手段32では、仮想レンズアレイLの位置と方向、仮想要素レンズlのピッチ及び個数とを設定すればよい。
IP立体表示装置の視域や奥行きをどこまで再現するかにより、立体像を再現する範囲が定まり、この再現範囲をカメラアレイ2で撮影する。従って、撮影空間αが立体像の再現範囲を含んでいればよい。なお、図4では、撮影空間αをハッチングで図示した。奥行き方向では、撮影空間αが、仮想レンズアレイLを中心として、手前側位置αから奥側位置αまでの範囲となる。また、水平方向では、撮影空間αが、最も外側の仮想要素レンズlの主点からIP立体表示装置の視域角だけ拡がった範囲となる。
以上を考慮し、パラメータ設定手段32では、撮影空間αを設定すればよい。
図5(a)には、奥行きマップの生成に必要な光線群を矢印で図示した。同一線種の光線群が、平行投影カメラで撮影したときの同一視点に対応する。つまり、実線、一点鎖線及び破線の光線群のそれぞれが、別々の視点位置に対応する。
以上を考慮し、パラメータ設定手段32では、奥行きマップを生成する視点位置(変換前の視点位置)と、奥行きマップを推定する視点位置(変換後の視点位置)とを設定すればよい。
図5(b)には図5(a)の光線群で形成される光線領域を図示し、図面を見やすくするため、図6(a)には図5(b)の光線領域のみを図示した。なお、「光線領域」とは、撮影空間αにおいて、同一視点に対応する光源群が仮想レンズアレイLを通過する領域のことである。実際のインテグラル立体方式では、光線群がもっと密なので、図6(a)の光線領域を高密度にしたものを図6(b)に図示した。図6(b)では、図6(a)の破線及び一点鎖線の光線領域の間に点線の光線領域を追加し、一点鎖線及び実線の光線領域の間に二点鎖線の光線領域を追加した。
図7(a)に示すように、撮影空間αに奥行きレイヤD(D〜D)を設定する。この奥行きレイヤDは、仮想レンズアレイLと平行である。また、奥行きレイヤDは、奥行き方向において、仮想レンズアレイLを基準として、撮影空間α内で等間隔に位置する。例えば、奥行きレイヤD〜Dが、撮影空間αの手前側から奥側まで順に等間隔で並んでいる。奥行きレイヤDは、撮影空間αの手前側位置αに重なる。奥行きレイヤDは、奥行き方向で撮影空間の中央に位置し、仮想レンズアレイLに重なる。奥行きレイヤDは、撮影空間αの奥側位置αに重なる。
以上を考慮し、パラメータ設定手段32では、奥行きレイヤDを設定すればよい。なお、奥行きレイヤDは、奥行き方向で必ずしも等間隔である必要はない。
ここで、パラメータ設定手段32では、視点位置毎に、各光線と奥行きレイヤDとの交点をサンプリング点SPとして算出してもよい。ある1視点、例えば、図6(a)で実線の光線群に対応する視点位置について考える。この視点では、図7(b)に示すように、実線矢印で図示した光線と奥行きレイヤDとの交点がサンプリング点SPとなり、サンプリング点SPの奥行き値を示す奥行きマップが算出される。つまり、サンプリング点SPは、ドットで図示した小領域の代表として機能する。
図3に戻り、立体画像生成装置3の構成について説明を続ける。
奥行きマップ生成手段33は、パラメータ設定手段32で設定された変換前の視点位置において、多視点画像入力手段31より入力された多視点画像から奥行きマップを生成するものである。本実施形態では、奥行きマップ生成手段33は、後記するコストボリュームから奥行きマップを生成するため、コストボリューム算出手段331と、奥行き値算出手段332とを備える。
なお、「奥行きマップ」とは、被写体が位置する奥行きレイヤD上において、サンプリング点SPの奥行き値を示す情報のことである。つまり、奥行きマップは、各画素(各サンプリング点SP)が各視点位置の奥行き値を示す奥行き画像に相当する。
また、「コスト」とは、奥行きレイヤD上のサンプリング点SPを多視点画像に投影したときの画像間の類似度(又は非類似度)を表すものである。例えば、カラーコンシステンシ(color consistency)コストなどの一般的なコストを用いればよい。
このコストを全ピクセルで集めたものを「コストマップ」と呼ぶ。さらにコストマップを奥行き方向に拡張し、このコストマップを全奥行きレイヤDで集めたものを「コストボリューム」と呼ぶ。
コストボリューム算出手段331は、視点位置毎に、一般的なイメージベースドレンダリングによりコストボリュームを算出するものである。イメージベースドレンダリングは、カメラを2次元状に並べたカメラアレイを用いて多視点画像を撮影し、この多視点画像に光線を挿入することで任意視点画像を生成するものである。本実施形態では、コストボリューム算出手段331は、パラメータ設定手段32で設定されたサンプリング点SPにおいて、RGB各色の分散の和によりカラーコンシステンシコストを求め、コストボリュームを算出する。
奥行き値算出手段332は、コストボリューム算出手段331が算出したコストボリュームのコスト列毎に最小値又は最大値となるコストを抽出するものである。そして、奥行き値算出手段332は、抽出したコストから奥行き値を求め、コスト列毎に求めた奥行き値の二次元配列を奥行きマップとして生成する。その後、奥行き値算出手段332は、生成した奥行きマップをシフト量算出手段34に出力する。
<<奥行きマップの生成>>
図8及び図9を参照し、奥行きマップの生成を詳細に説明する。
図8に示すように、コストマップCMは、コストCSを水平方向及び垂直方向に2次元配列したものである。図8の例では、コストマップCMは、水平方向に5個及び垂直方向に4個、合計20個のコストCSで構成されている。また、コストボリュームCVは、コストCSを水平方向と垂直方向と奥行き方向とに3次元配列したものである。つまり、コストボリュームCVは、奥行き方向に配列された5個のコストマップCMで構成されている。
図8のコストボリュームCVを垂直方向から見ると図9のようになる。ここで、コストボリュームCVにおいて、奥行き方向に配列されたコストCSの列をコスト列CAとする(破線で図示)。図9の例では、コスト列CAは、奥行き方向に配列された5個のコストCSで構成されている。なお、奥行きの方向でコストCSの位置は、奥行きレイヤDの位置に対応した奥行き値を示す。
図9では、各コスト列CAにおいて、最小値又は最大値となるコストCSをハッチングで図示した。各コスト列CAでは、奥行き方向でコストCSが最小値又は最大値となる位置に被写体9が位置する可能性が高い。そこで、奥行き値算出手段332は、各コスト列CAから、最小値又は最大値となるコストCSを抽出し、抽出したコストCSの奥行き位置(奥行き値)を求める。図9の例では、奥行き値算出手段332は、各コスト列CAから、ハッチングで図示したコストCSを合計5個抽出する。さらに、奥行き値算出手段332は、各コスト列CAから抽出したコストCSの奥行き値を水平方向及び垂直方向で配列し、奥行きマップとして生成する。
なお、図9には、コストボリュームCVで最上面のコスト列CAのみを図示したが、最上面より下面のコスト列CAについても同様に奥行き値を求める。
また、奥行き値算出手段332は、コストCSが類似度を示す場合、各コスト列CAから最大値のコストCSを1個抽出する。一方、奥行き値算出手段332は、コストCSが非類似度を示す場合、各コスト列CAから最小値のコストCSを1個抽出する。
図3に戻り、立体画像生成装置3の構成について説明を続ける。
シフト量算出手段34は、奥行きマップ生成手段33から入力された奥行きマップにおいて、変換前の視点位置と変換後の視点位置との位置ずれ量であるシフト量を奥行きレイヤD毎に算出するものである。そして、シフト量算出手段34は、奥行きレイヤD毎のシフト量と、奥行きマップとを視点変換手段35に出力する。
<<平行投影におけるシフト量の算出>>
図10〜図12を参照し、平行投影におけるシフト量の算出を詳細に説明する。
ここでは、実線の光線領域に対応する視点位置を「視点A」、一点鎖線の光線領域に対応する視点位置を「視点C」、二点鎖線の光線領域に対応する視点位置を「視点B」と呼ぶ。図10(a)では、視点A〜Cのそれぞれに対応する光線領域に符号A〜Cを付した。
図10(b)に示すように、奥行きレイヤD〜Dでは、シフト量sが異なっている。奥行きレイヤDが奥行き方向で撮影空間αの中心に位置するので、シフト量sが0である。そして、奥行きレイヤDから離れる程、シフト量sが増大する。つまり、奥行きレイヤD,Dのシフト量sの方が、奥行きレイヤD,Dのシフト量sよりも大きくなる。
図11を参照し、シフト量sの具体的な算出方法を説明する。
図11に示すように、仮想レンズアレイLは、仮想要素レンズlがピッチpで配列されている。この仮想レンズアレイLのレンズアレイ面LPを基準としたレンズアレイ座標系を設定し、このレンズアレイ座標系で考える。このレンズアレイ面LPは、奥行きレイヤDに位置する。ここで、変換前の視点位置が視点Aであり、変換後の視点位置が視点Bであることとする。この場合、変換前の視点Aの光線ベクトル(光線方向のベクトル)Vと変換後の視点Bの光線ベクトルVが定義できる。2本の光線ベクトルV,Vの奥行き方向(Z軸方向)の成分が1となるように正規化し、その差分ベクトルVA−Bの水平方向(X軸方向)の成分をvとする。このとき、シフト量算出手段34は、下記の式(1)でシフト量sを算出できる。なお、式(1)において、奥行きレイヤDの奥行き方向の位置をdとする。
Figure 2021002783
図12に示すように、仮想レンズアレイLが位置する奥行きレイヤDを境に、シフト方向が反転する。ここでは、手前側の奥行きレイヤDでは左方向にシフトする一方、奥側の奥行きレイヤDでは右方向にシフトする。このシフト方向の反転を考慮し、奥行きレイヤD毎にシフト量sの符号(正負)を決めればよい。
図3に戻り、立体画像生成装置3の構成について説明を続ける。
視点変換手段35は、シフト量算出手段34から入力されたシフト量sに基づいて、変換前の視点位置における奥行きマップをシフトするものである。つまり、視点変換手段35は、変換前の視点位置における奥行きマップを変換後の視点位置における奥行きマップに変換する。そして、視点変換手段35は、各視点位置の奥行きマップをリファインメント手段36に出力する。
<<奥行きマップの視点変換>>
図13及び図14を参照し、奥行きマップMの視点変換を詳細に説明する。
ここでは、実線の光線領域に対応する視点位置を「視点E」、一点鎖線の光線領域に対応する視点位置を「視点G」とする。また、被写体9が奥行きレイヤD上に位置し、被写体9が奥行きレイヤD上に位置し、被写体9が奥行きレイヤD上に位置する。また、視点Eの奥行きマップMを視点Gの奥行きマップMに視点変換することとして説明する。図13に示すように、視点Eの奥行きマップMでは、被写体9〜9を左前方から見ているので、被写体9〜9が重なっていない。一方、視点Gの奥行きマップMでは、被写体9〜9を右前方から見ているので、被写体9〜9が重なっている。
まず、視点変換手段35は、図14に示すように、視点Eの奥行きマップMを奥行きレイヤD毎に分解する。つまり、視点変換手段35は、全奥行きレイヤDに対応する奥行きマップMを、奥行きレイヤD〜Dのそれぞれに対応する奥行きマップME1〜ME5に分解する。この場合、奥行きレイヤDの奥行きマップME2に被写体9が属し、奥行きレイヤDの奥行きマップME3に被写体9が属し、奥行きレイヤDの奥行きマップME4に被写体9が属する。一方、奥行きレイヤDの奥行きマップME1及び奥行きレイヤDの奥行きマップME5には、被写体9が属していない。
次に、視点変換手段35は、各奥行きレイヤDのシフト量sだけ、各奥行きレイヤDに属する被写体9をシフトする。つまり、視点変換手段35は、奥行きレイヤD〜Dのそれぞれに応じたシフト量sだけ、奥行きレイヤD〜Dに対応する奥行きマップME1〜ME5をシフトする。ここで、視点変換手段35は、奥行きレイヤDのシフト量sが0のため、被写体9をシフトしない。また、視点変換手段35は、奥行きレイヤDのシフト量sだけ、被写体9を左方向にシフトし、奥行きレイヤDのシフト量sだけ被写体9を右方向にシフトする。
次に、視点変換手段35は、シフト済みの奥行きマップMG1〜MG5を統合し、視点Gの奥行きマップMを生成する。この場合、視点変換手段35は、手前側の奥行きレイヤDを優先して統合する。具体的には、視点変換手段35は、奥行きレイヤDの奥行きマップMG4の上に、奥行きレイヤDの奥行きマップMG3を重ね合わせる。また、視点変換手段35は、奥行きレイヤDの奥行きマップMG3の上に、奥行きレイヤDの奥行きマップMG2を重ね合わせる。このようにして、視点変換手段35は、視点Eの奥行きマップMを視点Gの奥行きマップMに視点変換する。
なお、視点変換手段35は、オクルージョンが発生した場合、既知の手法でオクルージョン領域の奥行き値を推定すればよい。
図3に戻り、立体画像生成装置3の構成について説明を続ける。
リファインメント手段36は、視点変換手段35から入力された奥行きマップMにおいて、後記するリファインメント処理(投票処理)を行うものである。そして、リファインメント手段36は、リファインメント処理を施した奥行きマップMを立体画像生成手段37に出力する。
<<リファインメント処理>>
図15を参照し、リファインメント処理を詳細に説明する。
3つの視点E〜Gの奥行きマップM〜Mが推定済みであることとする。現実的には、奥行きマップMは、誤った奥行き値であるノイズを有することが多い。図15(a)に示すように、視点Fの奥行きマップMにおいて、ある画素にノイズNが含まれている。そこで、視点Fの奥行きマップMをノイズ除去対象とし、視点Fの奥行きマップMからノイズNを除去することを考える。
まず、リファインメント手段36は、ノイズ除去対象でない視点E,Gの奥行きマップM,Mを、ノイズ除去対象となる視点Fの奥行きマップMに視点変換する。図15の例では、視点Fの奥行きマップMが3つ存在することになる。
なお、視点変換の手法は、視点変換手段35と同様のため、説明を省略する。
次に、リファインメント手段36は、3つの視点Fの奥行きマップMの画素毎に、画素値(奥行き値)の投票を行う。図15(b)に示すように、視点E,Gから視点変換した奥行きマップMで奥行きレイヤDに2票分投票され、ノイズNが含まれる元々の視点Fの奥行きマップMで奥行きレイヤDに1票分投票される。この場合、リファインメント手段36は、最多得票数となる奥行きレイヤDをその画素の奥行き値とすることで、ノイズNを除去する。
なお、図15の例では、オクルージョンを考慮していないが、視点変換の際にオクルージョンが生じると、そのオクルージョン領域の得票数が少なくなる。
図3に戻り、立体画像生成装置3の構成について説明を続ける。
立体画像生成手段37は、リファインメント手段36より入力された奥行きマップMから立体画像を生成するものである。本実施形態では、立体画像生成手段37は、既知の手法により、奥行きマップMからインテグラル方式の立体画像(要素画像)を視点位置毎に生成する。例えば、立体画像生成手段37は、多視点画像と奥行きマップMとを用いて、立体画像を生成できる(参考文献2参照)。具体的には、奥行きマップが得られると、空間内での被写体の3次元位置が既知となる。その3次元位置を多視点画像に投影することで、その光線の色(RGB値)を取得できる。この処理を立体画像の生成に必要な全視点について行うと、立体画像が生成できる。そして、立体画像生成手段37は、生成した立体画像を外部(例えば、IP立体表示装置)に出力する。
参考文献2:加納正規, 渡邉隼人, 河北真宏, 三科智之,“カメラアレイを用いた33万画素の3次元映像撮像技術”,2018年映像情報メディア学会冬季大会,23D−1
[立体画像生成装置の動作]
図16を参照し、立体画像生成装置3の動作を説明する。
図16に示すように、ステップS1において、多視点画像入力手段31は、カメラアレイ2から多視点画像が入力される。
ステップS2において、パラメータ設定手段32は、立体画像の生成に必要な各種パラメータが予め設定される。各種パラメータとしては、仮想レンズアレイLの位置及びピッチと、仮想要素レンズlの個数と、撮影空間αと、奥行きレイヤDと、変換前の視点位置と、変換後の視点位置とがあげられる。
ステップS3において、奥行きマップ生成手段33は、ステップS2で設定された変換前の視点位置において、ステップS1で入力された多視点画像から奥行きマップMを生成する。具体的には、コストボリューム算出手段331は、イメージベースドレンダリングによりコストボリュームCVを算出する。そして、奥行き値算出手段332は、コストボリュームCVのコスト列CA毎に最小値又は最大値となるコストCSを抽出し、抽出したコストCSの奥行き値を求め、奥行き値の二次元配列を奥行きマップMとして生成する。
ステップS4において、シフト量算出手段34は、ステップS4で生成した奥行きマップMにおいて、変換前の視点位置と変換後の視点位置との位置ずれ量であるシフト量sを奥行きレイヤD毎に算出する。具体的には、シフト量算出手段34は、前記した式(1)を用いて、シフト量sを算出する。
ステップS5において、視点変換手段35は、ステップS4で算出したシフト量sに基づいて、変換前の視点位置における奥行きマップMをシフトする。つまり、視点変換手段35は、変換前の視点位置における奥行きマップMを変換後の視点位置における奥行きマップMに変換する。
ステップS6において、リファインメント手段36は、各視点位置の奥行きマップにおいて、リファインメント処理を行う。具体的には、リファインメント手段36は、ノイズ除去対象でない視点位置の奥行きマップMを、ノイズ除去対象となる視点位置の奥行きマップMに視点変換する。そして、リファインメント手段36は、奥行きマップMの画素毎に、画素値の投票を行い、最多得票数となる奥行きレイヤDの奥行き値をその画素の奥行き値とする。
ステップS7において、立体画像生成手段37は、ステップS6でリファインメント処理を施した奥行きマップMから立体画像を生成する。例えば、立体画像生成手段37は、多視点画像と奥行きマップMとを用いて、立体画像を生成できる。
[作用・効果]
以上のように、立体画像生成装置3は、被写体の奥行きに応じたシフト量sを算出し、所望の視点位置の奥行きマップMに視点変換するので、少ない計算量で高精度な奥行きマップMを推定することができる。さらに、立体画像生成装置3は、多くの光線再生型表示システムで共通する平行投影型の光線構造の特徴を利用しているため、汎用性を向上させることができる。
さらに、立体画像生成装置3は、奥行きマップMにリファインメント処理を施すので、奥行きマップMのノイズを低減し、奥行きマップMの精度をより向上させることができる。
(第2実施形態)
[立体画像生成装置の構成]
以下、第2実施形態に係る立体画像生成装置3Bの構成について、第1実施形態と異なる点を説明する。
第1実施形態では、光線再生型表示システムの光線構造が平行投影(図1)であったのに対し、第2実施形態では、その光線構造が透視投影レンズシフト(図2)である。このため、立体画像生成装置3Bは、シフト量sの算出方法が、第1実施形態と異なっている。
図3に示すように、立体画像生成装置3Bは、奥行きマップ生成装置30Bと、立体画像生成手段37とを備える。また、奥行きマップ生成装置30Bは、多視点画像入力手段31と、パラメータ設定手段32Bと、奥行きマップ生成手段33と、シフト量算出手段34Bと、視点変換手段35と、リファインメント手段36とを備える。
なお、パラメータ設定手段32B及びシフト量算出手段34B以外の構成は、第1実施形態と同様のため、説明を省略する。
パラメータ設定手段32Bは、立体画像の生成に必要な各種パラメータが予め設定されるものである。また、パラメータ設定手段32Bは、透視投影レンズシフトに対応したサンプリング点SPを算出する。
他の点、パラメータ設定手段32Bは、第1実施形態と同様のため、これ以上の説明を省略する。
シフト量算出手段34Bは、奥行きマップ生成手段33から入力された奥行きマップMにおいて、変換前の視点位置と変換後の視点位置との位置ずれ量であるシフト量sを奥行きレイヤD毎に算出する。本実施形態では、シフト量算出手段34Bは、以下の式(2)及び式(3)を用いて、透視投影レンズシフトにおけるシフト量sを算出する。
<<透視投影レンズシフトにおけるシフト量の算出>>
図17及び図18を参照し、透視投影レンズシフトにおけるシフト量sの算出を詳細に説明する。ここでは、仮想レンズアレイLのレンズアレイ面LPを基準としたレンズアレイ座標系を設定し、このレンズアレイ座標系で考える。
図17に示すように、集光点をT、仮想レンズアレイLに対する集光点Tの奥行き方向(Z軸方向)の位置をW、レンズアレイ面LPに対する奥行きレイヤDの奥行き方向の位置をdとする。ここで、隣り合う仮想要素レンズlを通り同一の集光点Tに集まる2本の光線について考える。この2本の光線の間隔(画素ピッチ)Pは、集光点Tからレンズアレイ面LPに近づくに従って大きくなり、以下の式(2)で表される。
Figure 2021002783
ここで、レンズアレイ面LP上におけるレンズピッチをpとする。さらに、図18に示すように、レンズアレイ面LP上で交差する視点A,Bの光線ベクトルV,Vについて考える。図18において、集光点T,Tは、視点A,Bそれぞれの集光点Tである。2本の光線ベクトルV,Vの奥行き方向が1となるように正規化し、その差分ベクトルVA−Bの水平方向(X軸方向)の成分をvとする。この場合、各奥行きレイヤDのシフト量sは、以下の式(3)で表される。
Figure 2021002783
[作用・効果]
以上のように、立体画像生成装置3Bは、被写体の奥行きに応じたシフト量sを算出し、所望の視点位置の奥行きマップMに視点変換するので、少ない計算量で高精度な奥行きマップMを推定することができる。さらに、立体画像生成装置3Bは、透視投影レンズシフトの光線構造においても、第1実施形態と同様の効果を奏する。
(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、光線再生型立体方式の一例として、インテグラル方式を説明したが、これに限定されない。例えば、本発明は、レンチキュラー方式にも適用することができる。
前記した各実施形態では、リファインメント処理の際、最多得票数の奥行き値を求めることとして説明したが、これに限定されない。例えば、リファインメント手段は、予め閾値を設定し、最多得票数がその閾値を超えた場合のみ、その最多得票数の奥行き値を採用してもよい。
前記した各実施形態では、水平方向のシフトにより視点変換することとして説明したが、水平方向と同様、垂直方向のシフトにより視点変換を行うこともできる。
前記した各実施形態では、奥行きマップを立体画像の生成に利用することとして説明したが、奥行きマップの用途は、これに限定されない。つまり、奥行きマップ生成装置を独立したハードウェアとして構成してもよい。
前記した各実施形態では、仮想表示素子がレンズアレイであることとして説明したが、これに限定されない。例えば、レンズアレイを必要としない立体方式の場合、仮想表示素子がディスプレイであってもよい。この場合、レンズアレイ面をディスプレイ面とすればよい。
前記した各実施形態では、ノイズ除去対象の奥行きマップの視点位置(図15の視点F)が、ノイズ除去対象でない奥行きマップの視点位置(図15の視点E,G)に隣接することとして説明したが、これに限定されない。つまり、ノイズ除去対象でない奥行きマップの視点位置は、任意に設定できる。
前記した各実施形態では、奥行きマップ生成装置をハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記した奥行きマップ生成装置として協調動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。
1 立体画像生成システム
2 カメラアレイ
3 立体画像生成装置
20 撮影カメラ
30 奥行きマップ生成装置
31 多視点画像入力手段
32 パラメータ設定手段
33 奥行きマップ生成手段
331 コストボリューム算出手段
332 奥行き値算出手段
34 シフト量算出手段
35 視点変換手段
36 リファインメント手段(投票手段)
37 立体画像生成手段
9,9〜9 被写体
A,B,C 光線領域
CA コスト列
CM コストマップ
CS コスト
CV コストボリューム
D,D〜D 奥行きレイヤ
L 仮想レンズアレイ(仮想表示素子)
LP レンズアレイ面
l 仮想要素レンズ
M,ME1〜ME5,MG1〜MG5 奥行きマップ
SP サンプリング点
s シフト量
,V 光線ベクトル
A−B 差分ベクトル
α 撮影空間
α 奥側位置
α 手前側位置

Claims (7)

  1. 撮影カメラを二次元状に並べたカメラアレイが被写体を撮影した多視点画像を用いて、前記被写体の奥行き値を示す奥行きマップを生成する奥行きマップ生成装置であって、
    前記被写体が位置する撮影空間内の奥行き方向に所定間隔で配置された奥行きレイヤと、変換前の視点位置と、変換後の視点位置とが予め設定されるパラメータ設定手段と、
    前記変換前の視点位置において、前記多視点画像から、前記被写体が位置する奥行きレイヤと前記変換前の視点位置の光線との交点であるサンプリング点の奥行き値を示した前記奥行きマップを生成する奥行きマップ生成手段と、
    前記奥行きレイヤ毎に、前記変換前の視点位置と前記変換後の視点位置との位置ずれ量であるシフト量を算出するシフト量算出手段と、
    前記シフト量に基づいて前記変換前の視点位置における前記奥行きマップをシフトすることで、前記変換前の視点位置における前記奥行きマップを前記変換後の視点位置における前記奥行きマップに変換する視点変換手段と、
    を備えることを特徴とする奥行きマップ生成装置。
  2. 前記パラメータ設定手段は、前記視点位置毎の光線が平行になる平行投影において、立体表示装置の表示素子を前記撮影空間内に配置した仮想表示素子の位置及び素子間隔と、前記仮想表示素子に平行な前記奥行きレイヤとが設定され、
    前記シフト量算出手段は、前記仮想表示素子から前記奥行きレイヤまでの奥行きベクトルの要素dと、前記被写体から前記変換前の視点位置までの光線ベクトルと前記被写体から前記変換後の視点位置までの光線ベクトルとの差分ベクトルの要素vと、前記素子間隔pとが含まれる下記の式(1)を用いて、
    Figure 2021002783
    前記シフト量sを算出することを特徴とする請求項1に記載の奥行きマップ生成装置。
  3. 前記パラメータ設定手段は、前記視点位置毎の光線が1つの集光点に集光する透視投影レンズシフトにおいて、立体表示装置の表示素子を前記撮影空間内に配置した仮想表示素子の位置及び素子間隔と、前記仮想表示素子に平行な前記奥行きレイヤとが設定され、
    前記シフト量算出手段は、
    前記素子間隔pと、前記仮想表示素子から前記奥行きレイヤまでの奥行きベクトルの要素dと、前記仮想表示素子に対する前記集光点の位置を示すベクトルの要素Wとが含まれる式(2)を用いて、
    Figure 2021002783
    変換前後の前記視点位置におけるサンプリング点同士の間隔Pを算出し、
    前記被写体から前記変換前の視点位置までの光線ベクトルと前記被写体から前記変換後の視点位置までの光線ベクトルとの差分ベクトルの要素vと、前記要素dと、前記間隔Pとが含まれる式(3)を用いて、
    Figure 2021002783
    前記シフト量sを算出することを特徴とする請求項1に記載の奥行きマップ生成装置。
  4. 前記奥行きマップの間で対応するサンプリング点毎に前記奥行き値の投票処理を行い、最多得票数の前記奥行き値を求める投票手段、
    をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載の奥行きマップ生成装置。
  5. 前記奥行きマップ生成手段は、
    前記変換前の視点位置において、イメージベースドレンダリングにより、前記サンプリング点を前記多視点画像に投影したときの画像間の類似度又は非類似度を表すコストの三次元配列であるコストボリュームを算出するコストボリューム算出手段と、
    前記コストボリュームで奥行き方向に配列されたコスト列毎に最小値又は最大値となる前記コストを抽出し、抽出した前記コストの奥行き値を求め、前記コスト列毎に求めた奥行き値の二次元配列を前記奥行きマップとして生成する奥行き値算出手段と、
    を備えることを特徴とする請求項1から請求項4の何れか一項に記載の奥行きマップ生成装置。
  6. コンピュータを、請求項1から請求項5の何れか一項に記載の奥行きマップ生成装置として機能させるためのプログラム。
  7. 請求項1から請求項5の何れか一項に記載の奥行きマップ生成装置と、
    前記奥行きマップ生成装置が生成した奥行きマップから立体画像を生成する立体画像生成手段と、
    を備えることを特徴とする立体画像生成装置。
JP2019116114A 2019-06-24 2019-06-24 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置 Active JP7257272B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019116114A JP7257272B2 (ja) 2019-06-24 2019-06-24 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019116114A JP7257272B2 (ja) 2019-06-24 2019-06-24 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置

Publications (2)

Publication Number Publication Date
JP2021002783A true JP2021002783A (ja) 2021-01-07
JP7257272B2 JP7257272B2 (ja) 2023-04-13

Family

ID=73995240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116114A Active JP7257272B2 (ja) 2019-06-24 2019-06-24 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置

Country Status (1)

Country Link
JP (1) JP7257272B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132633A1 (ko) * 2022-01-10 2023-07-13 삼성전자 주식회사 복수의 카메라를 이용하여 3차원 이미지를 생성하는 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015019311A (ja) * 2013-07-12 2015-01-29 日本放送協会 キャリブレーション装置およびキャリブレーションプログラム
JP2015019346A (ja) * 2013-06-12 2015-01-29 日本放送協会 視差画像生成装置
JP2016500975A (ja) * 2012-11-01 2016-01-14 グーグル インコーポレイテッド 結合された深度キューに基づく平面視画像からの深度マップの生成
US20180115770A1 (en) * 2016-10-25 2018-04-26 Intel Corporation Light field perception enhancement for integral display applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016500975A (ja) * 2012-11-01 2016-01-14 グーグル インコーポレイテッド 結合された深度キューに基づく平面視画像からの深度マップの生成
JP2015019346A (ja) * 2013-06-12 2015-01-29 日本放送協会 視差画像生成装置
JP2015019311A (ja) * 2013-07-12 2015-01-29 日本放送協会 キャリブレーション装置およびキャリブレーションプログラム
US20180115770A1 (en) * 2016-10-25 2018-04-26 Intel Corporation Light field perception enhancement for integral display applications

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023132633A1 (ko) * 2022-01-10 2023-07-13 삼성전자 주식회사 복수의 카메라를 이용하여 3차원 이미지를 생성하는 방법 및 장치

Also Published As

Publication number Publication date
JP7257272B2 (ja) 2023-04-13

Similar Documents

Publication Publication Date Title
JP4942221B2 (ja) 高解像度仮想焦点面画像生成方法
JP6021541B2 (ja) 画像処理装置及び方法
TWI510086B (zh) 數位重對焦方法
CN102164298B (zh) 全景成像系统中基于立体匹配的元素图像获取方法
JP5291755B2 (ja) 立体視画像生成方法および立体視画像生成システム
JP4065488B2 (ja) 3次元画像生成装置、3次元画像生成方法及び記憶媒体
WO2011052064A1 (ja) 情報処理装置および方法
RU2453922C2 (ru) Способ представления исходной трехмерной сцены по результатам съемки изображений в двумерной проекции (варианты)
JP6406853B2 (ja) 光フィールド映像を生成する方法及び装置
JP2006113807A (ja) 多視点画像の画像処理装置および画像処理プログラム
JP6300346B2 (ja) Ip立体映像推定装置及びそのプログラム
JP5845123B2 (ja) 3次元モデル−インテグラル画像変換装置およびそのプログラム
JP7479729B2 (ja) 三次元表現方法及び表現装置
JP5249114B2 (ja) 画像生成装置、方法及びプログラム
JP5452801B2 (ja) 立体像生成装置およびそのプログラム
JP4729011B2 (ja) 要素画像群変換装置、立体像表示装置及び要素画像群変換プログラム
JP7257272B2 (ja) 奥行きマップ生成装置及びそのプログラム、並びに、立体画像生成装置
KR101289283B1 (ko) 하이브리드 영상획득 장치 기반 홀로그래픽 영상 복원 방법
JP5747679B2 (ja) 3次元画像の提示方法
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
JP7416573B2 (ja) 立体画像生成装置及びそのプログラム
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
JP6118527B2 (ja) 空間歪み補正装置およびそのプログラム
JP7437941B2 (ja) 立体画像生成装置及びそのプログラム
JP2005045824A (ja) 立体像再生装置及びその制御方法並びに記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230403

R150 Certificate of patent or registration of utility model

Ref document number: 7257272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150